Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)
23 Minuten
Podcast
Podcaster
Beschreibung
vor 7 Monaten
Der Weg nach KAI – Episode 53: Ilya Sutskever, SSI, OpenAI,
Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz
(Teil 1)
Diesmal untersuchen wir die Entwicklung hin zu sicherer
Superintelligenz (ASI), ein Ziel, das über die aktuelle Jagd nach
Künstlicher Allgemeiner Intelligenz hinausgeht und besonders
durch das neue Unternehmen 'Safe Superintelligence Inc.' (SSI)
verkörpert wird.
Im Zentrum steht Ilya Sutskever, Mitbegründer von OpenAI und
Pionier des Deep Learning (AlexNet). Nach internen Konflikten bei
OpenAI über die Priorisierung von Sicherheit gründete er SSI.
Unterstützt von Investoren wie Google (Alphabet) und NVIDIA,
verfolgt SSI das erklärte Ziel, ausschließlich sichere
Superintelligenz zu entwickeln. Das Unternehmen betont seine
Unabhängigkeit von kurzfristigem kommerziellem Druck und
Produktzyklen, ein Ansatz, der als "Straight-Shot"-Strategie
bezeichnet wird.
ASI beschreibt eine hypothetische KI, die menschliche Intelligenz
in praktisch allen kognitiven Aufgaben übertrifft. Die zentrale
technische Herausforderung ist das Alignment-Problem: Wie stellt
man sicher, dass eine ASI zuverlässig menschliche Werte und
Absichten verfolgt, um katastrophale Fehlinterpretationen oder
gar "deceptive alignment" (trügerische Anpassung) zu
vermeiden?
Weitere Episoden
30 Minuten
vor 4 Monaten
35 Minuten
vor 4 Monaten
29 Minuten
vor 6 Monaten
23 Minuten
vor 6 Monaten
25 Minuten
vor 6 Monaten
In Podcasts werben
Kommentare (0)