#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

1 Stunde 2 Minuten

Beschreibung

vor 1 Jahr

Ein sofortiges KI-Moratorium, damit wir nicht bald alle drauf
gehen - das ist die Forderung in einem neuen offenen Brief,
unterzeichnet von zahlreichen KI-Spitzenforscher:innen, sowie
unter anderem von Apple-Mitgründer Steve Wozniak, Elon Musk oder
Yuval Noah Harari. Wir blicken (schon wieder) auf die rasanten
aktuellen Entwicklungen im Bereich der künstlichen Intelligenz
und fragen: Was ist dran an den Argumenten im offenen Brief der
"AI-Safety"-Befürworter? Wie gut sind die Gegenargumente? Und wie
soll das alles weitergehen?





Linkliste


Der offene Brief:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/


OpenAI über AGI:
https://openai.com/blog/planning-for-agi-and-beyond


Mehr Argumente, dass AGI gefährlich werden könnte:
https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/


Sparks of Artificial General Intelligence: Early experiments with
GPT-4: https://arxiv.org/abs/2303.12712

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: