KI-Forscher und -Unternehmer warnen vor existenziellen Risiken durch AI - Wie gefährlich sind KIs oder könnten es werden? | "KI und Mensch" | Folge 10, Teil 1

KI-Forscher und -Unternehmer warnen vor existenziellen Risiken durch AI - Wie gefährlich sind KIs oder könnten es werden? | "KI und Mensch" | Folge 10, Teil 1

1 Stunde 5 Minuten
Podcast
Podcaster
KI und Mensch: Gespräche, Diskussionen und praktische Beispiele aus der Welt der AI.

Beschreibung

vor 11 Monaten
Die dunkle Seite der KI: Risiken, Kritik und die Zukunft der
Technologie




Willkommen zur neuesten Episode unseres Podcasts, in der wir uns
intensiv mit dem Thema "Künstliche Intelligenz und das Risiko des
Untergangs" beschäftigen. In dieser Folge diskutieren wir eine
Reihe von Quellen und Perspektiven, die sowohl die potenziellen
Risiken als auch die Kritik an diesen Warnungen beleuchten.





Wir beginnen mit einem Blick auf die Erklärung von www.safe.ai
zum Risiko der KI und berichten über Warnungen von
Branchenführern, die in der New York Times und anderen Medien
aufgegriffen und disktutiert wurden. Eine Studie der Universität
Oxford liefert eine düstere Antwort auf die Frage, ob künstliche
Intelligenz das Ende der Menschheit bedeuten könnte, während
Kritiker diese Warnungen als übertrieben betrachten.





Wir werden auch die aktuellen Risiken diskutieren, die in dem
Artikel "On the Dangers of Stochastic Parrots: Can Language
Models Be Too Big?" (2021) aufgeführt sind, einschließlich der
Verstärkung von Vorurteilen und Stereotypen, der Generierung von
beleidigender Sprache und der Ausnutzung durch böswillige
Akteure.





Darüber hinaus werden wir den Energieverbrauch von KI und die
Auswirkungen auf die Nachhaltigkeit betrachten, basierend auf
einem Artikel von www.zdnet.com. Wir werden auch die
Wahrscheinlichkeit des Untergangs durch KI (auch genannt p(Doom)
/ x-risk) diskutieren, die auf Foren oder Artikeln unter anderem
im Time Magazine behandelt werden.





Schließlich werden wir die Ansichten verschiedener Experten wie
Eliezer Yudkowsky, Yoshua Bengio, Max Tegmark und Geoffrey Hinton
beleuchten, die ihre Gedanken und Bedenken zur KI und ihrem
Potenzial für Risiken geäußert haben.





Wir hoffen, dass diese Episode Ihnen einen umfassenden Überblick
über das aktuelle Gespräch rund um KI und Risiken bietet und
freuen uns auf Ihre Gedanken und Fragen zu diesem wichtigen
Thema. Bleiben Sie dran!






Link-Liste für Teil 1:




https://www.safe.ai/statement-on-ai-risk


https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html





https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html





Oxford Studie:
https://www.fr.de/wissen/ki-kuenstliche-intelligenz-ende-menschheit-oxford-studie-liefert-duestere-antwort-91821912.html








Kritik:


https://www.tagesspiegel.de/politik/umweltfolgen-durch-kunstliche-intelligenz-gravierend-forscherin-aus-oxford-kritisiert-ausloschungs-warnung-9911783.html


https://theconversation.com/if-were-going-to-label-ai-an-extinction-risk-we-need-to-clarify-how-it-could-happen-206738








Aktuelle Risiken:


On the Dangers of Stochastic Parrots: Can Language Models Be Too
Big? (2021)


https://dl.acm.org/doi/pdf/10.1145/3442188.3445922





Energy-Consumption:
https://www.zdnet.com/home-and-office/sustainability/this-new-aws-tool-shows-customers-the-carbon-footprint-of-their-cloud-computing-usage/





p(Doom) / x-risk:
https://forum.effectivealtruism.org/posts/THogLaytmj3n8oGbD/p-doom-or-agi-is-high-why-the-default-outcome-of-agi-is-doom





https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/


Eliezer Yudkowsky https://twitter.com/ESYudkowsky





Yoshua Bengio https://www.bbc.co.uk/news/technology-65760449


Max Tegmark:


https://www.channel4.com/news/ai-extinction-threat-is-going-mainstream-says-max-tegmark


https://time.com/6273743/thinking-that-could-doom-us-with-ai/


Geoffrey Hinton:
https://www.nytimes.com/2023/05/30/podcasts/the-daily/chatgpt-hinton-ai.html





Weitere Stimmen:


https://twitter.com/abacaj/status/1664237098633658368


https://twitter.com/ylecun


https://twitter.com/tdietterich/status/1663602549130432512


https://twitter.com/GaryMarcus/status/1664124885009068032?s=20


https://twitter.com/chrmanning/status/1663920862439915524








Experts survey:
https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/








Folgt uns auf:





Twitter: https://twitter.com/KIundMensch


Twitch: https://www.twitch.tv/kiundmensch


Youtube: https://www.youtube.com/@kiundmensch

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: