US-Militär setzt verbotene KI im Iran-Einsatz ein

US-Militär setzt verbotene KI im Iran-Einsatz ein

65 Sekunden
Podcast
Podcaster
KI ist eine Superkraft – hier erfährst Du, wie KI funktioniert, wie Du mit KI viel Zeit sparen kannst, welche KI für dich die Richtige ist und richtig promptest.

Beschreibung

vor 4 Tagen

Das US-Militär nutzt verbotene KI im echten Kampfeinsatz – und
das ist gerade aufgeflogen.


Am Wochenende hat das US Central Command während Luftangriffen
auf den Iran die KI Claude von Anthropic eingesetzt.


Für Zielidentifikation, Aufklärung, Gefechtssimulationen.


Das Problem: Anthropic hatte den militärischen Einsatz ihrer KI
eigentlich verboten.


Jetzt ist Claude das am weitesten verbreitete Militär-KI-Modell –
und das Pentagon sitzt in der Klemme.


Denn Anthropic hat nach den Enthüllungen ein Lieferkettenverbot
verhängt.


Das Militär hat jetzt sechs Monate Zeit, auf andere Systeme
umzusteigen.


Operative Risiken inklusive, denn Soldaten und Workflows sind auf
Claude trainiert.


Das zeigt ein grundsätzliches Problem: Wenn private Tech-Firmen
die Kontrolle haben, wird das Militär abhängig.


Und wenn dann ethische Bedenken mit militärischer Überlegenheit
kollidieren, wird's kompliziert.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15