US-Militär setzt verbotene KI im Iran-Einsatz ein
65 Sekunden
Podcast
Podcaster
KI ist eine Superkraft – hier erfährst Du, wie KI funktioniert, wie Du mit KI viel Zeit sparen kannst, welche KI für dich die Richtige ist und richtig promptest.
Beschreibung
vor 4 Tagen
Das US-Militär nutzt verbotene KI im echten Kampfeinsatz – und
das ist gerade aufgeflogen.
Am Wochenende hat das US Central Command während Luftangriffen
auf den Iran die KI Claude von Anthropic eingesetzt.
Für Zielidentifikation, Aufklärung, Gefechtssimulationen.
Das Problem: Anthropic hatte den militärischen Einsatz ihrer KI
eigentlich verboten.
Jetzt ist Claude das am weitesten verbreitete Militär-KI-Modell –
und das Pentagon sitzt in der Klemme.
Denn Anthropic hat nach den Enthüllungen ein Lieferkettenverbot
verhängt.
Das Militär hat jetzt sechs Monate Zeit, auf andere Systeme
umzusteigen.
Operative Risiken inklusive, denn Soldaten und Workflows sind auf
Claude trainiert.
Das zeigt ein grundsätzliches Problem: Wenn private Tech-Firmen
die Kontrolle haben, wird das Militär abhängig.
Und wenn dann ethische Bedenken mit militärischer Überlegenheit
kollidieren, wird's kompliziert.
Weitere Episoden
52 Sekunden
vor 1 Tag
55 Sekunden
vor 1 Tag
56 Sekunden
vor 1 Tag
47 Sekunden
vor 2 Tagen
44 Sekunden
vor 2 Tagen
In Podcasts werben
Kommentare (0)