Immoral Code: Wenn Maschinen töten dürfen
15 Minuten
Podcast
Podcaster
Beschreibung
vor 2 Jahren
Sie töten ohne menschlichen Befehl, nur durch eine KI gesteuert:
Autonome Waffensysteme. Lethal Autonomous Weapon Systems, kurz
LAWS. Die Pros: ein emotionsloser Code kann in einer
Stresssituation die „besseren“ und eventuell ethischeren
Entscheidungen treffen. Die Cons: Viele. Unter anderem die
Fehleranfälligkeit, Verwundbarkeit und der Bias einer Software, die
menschliche Ziele bekämpfen soll. Außerdem kann ein Software-Code
kaum den komplexen Kontext einer Kriegssituation erfassen und
daraufhin eine verantwortbare Entscheidung über Leben und Tod
treffen. Trotzdem ringen die Vereinten Nationen seit mehr als zehn
Jahren um eine gemeinsame Position zu LAWS. Verboten sind sie
nicht. Wer dagegen ist und wer dafür, das erfahrt ihr in diesem
Böll.Fokus. Ein Podcast mit: • Merle Spellerberg MdB, Bündnis
90/Die Grünen (Unterausschuss Abrüstung, Rüstungskontrolle und
Nichtverbreitung, Verteidigungsausschuss, Auswärtiger Ausschuss) •
Anja Dahlmann, Institut für Friedensforschung und
Sicherheitspolitik (IFSH), Leiterin des Berliner Büros und
wissenschaftliche Mitarbeiterin im Forschungs- und Transferprojekt
Rüstungskontrolle und neue Technologien • Dr. Thomas Hajnoczi,
Botschafter i.R., ehem. Leiter der Delegation Österreichs bei den
Verhandlungen zum Atomwaffenverbotsvertrag (AVV) • Giorgio
Franceschini, Referent Außen- und Sicherheitspolitik,
Heinrich-Böll-Stiftung Links: Der Dokumentarfilm „Immoral Code“ der
Kampagne „Stop Killer
Robots“:www.stopkillerrobots.org/take-action/immoral-code/
Fernsehbeitrag über die Entwicklung von Autonomen
Waffensystemen:www.br.de/mediathek/podcast/iq…affen-toeten/1947128
Informationen vom Büro für Technikfolgen-Abschätzung beim Deutschen
Bundestag:www.bundestag.de/resource/blob/80…okus_26-data.pdf Foto
von Markus Spiske auf Unsplash.
Autonome Waffensysteme. Lethal Autonomous Weapon Systems, kurz
LAWS. Die Pros: ein emotionsloser Code kann in einer
Stresssituation die „besseren“ und eventuell ethischeren
Entscheidungen treffen. Die Cons: Viele. Unter anderem die
Fehleranfälligkeit, Verwundbarkeit und der Bias einer Software, die
menschliche Ziele bekämpfen soll. Außerdem kann ein Software-Code
kaum den komplexen Kontext einer Kriegssituation erfassen und
daraufhin eine verantwortbare Entscheidung über Leben und Tod
treffen. Trotzdem ringen die Vereinten Nationen seit mehr als zehn
Jahren um eine gemeinsame Position zu LAWS. Verboten sind sie
nicht. Wer dagegen ist und wer dafür, das erfahrt ihr in diesem
Böll.Fokus. Ein Podcast mit: • Merle Spellerberg MdB, Bündnis
90/Die Grünen (Unterausschuss Abrüstung, Rüstungskontrolle und
Nichtverbreitung, Verteidigungsausschuss, Auswärtiger Ausschuss) •
Anja Dahlmann, Institut für Friedensforschung und
Sicherheitspolitik (IFSH), Leiterin des Berliner Büros und
wissenschaftliche Mitarbeiterin im Forschungs- und Transferprojekt
Rüstungskontrolle und neue Technologien • Dr. Thomas Hajnoczi,
Botschafter i.R., ehem. Leiter der Delegation Österreichs bei den
Verhandlungen zum Atomwaffenverbotsvertrag (AVV) • Giorgio
Franceschini, Referent Außen- und Sicherheitspolitik,
Heinrich-Böll-Stiftung Links: Der Dokumentarfilm „Immoral Code“ der
Kampagne „Stop Killer
Robots“:www.stopkillerrobots.org/take-action/immoral-code/
Fernsehbeitrag über die Entwicklung von Autonomen
Waffensystemen:www.br.de/mediathek/podcast/iq…affen-toeten/1947128
Informationen vom Büro für Technikfolgen-Abschätzung beim Deutschen
Bundestag:www.bundestag.de/resource/blob/80…okus_26-data.pdf Foto
von Markus Spiske auf Unsplash.
Weitere Episoden
73 Sekunden
vor 1 Monat
33 Minuten
vor 1 Monat
29 Minuten
vor 4 Monaten
28 Minuten
vor 5 Monaten
23 Minuten
vor 5 Monaten
In Podcasts werben
Kommentare (0)