KI-generierte Nacktbilder: Eine neue Dimension von Deepfakes
Nach einem unbekannten Facetime-Anruf wird Markus erpresst – mit
einem durch KI manipulierten Video, das ihn beim Masturbieren
zeigt. Seine Geschichte ist kein Einzelfall. Was kann man dagegen
tun?
28 Minuten
Podcast
Podcaster
Beschreibung
vor 5 Tagen
Gefälschte Videoaufnahmen, sogenannte Deepfakes, sind keine
Seltenheit mehr: Sie zeigen zum Beispiel Donald Trump in der
Papstrobe oder Mona Vetsch, die für zweifelhafte Finanzseiten
wirbt. Doch jetzt erreichen sie eine neue Dimension.
Deepfakes sehen immer echter aus und die Maschen der Betrüger
werden immer perfider. So auch im Fall von Markus. Kurz nachdem
er einen unbekannten Facetime-Anruf annimmt, erhält er ein Video
zugeschickt. Es zeigt ihn beim Masturbieren. Die Betrüger hatten
das Video mit KI so manipuliert, dass die Szene echt wirkte. Dann
drohen sie ihm, es zu verschicken, wenn er nicht zahlt.
Auch an einer Schweizer Schule wurde kürzlich ein Fall bekannt,
in dem Oberstufenschüler KI-generierte Nacktbilder von
Mitschülerinnen über Snapchat verbreiteten.
Wie funktionieren Deepfakes? Was bedeuten solche Aufnahmen für
die Betroffenen? Und was können Behörden dagegen tun? Das erklärt
Oliver Zihlmann, Leiter des Tamedia Recherchedesks in einer neuen
Folge des täglichen Podcasts «Apropos».
Host: Alexandra Aregger
Produzentin: Valeria Mazzeo
Mehr zu Deepfakes
Die Recherche von Oliver Zihlmann zum Fall von
Markus
Der KI-Nacktbild-Skandal an einer Schweizer
Schule
So ist die Rechtslage in der Schweiz bei Deepfakes
Unser Tagi-Spezialangebot für Podcast-Hörer:innen:
tagiabo.ch
Habt ihr Feedback, Ideen oder Kritik zu «Apropos»? Schreibt uns
an podcasts@tamedia.ch
Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for
information about our collection and use of personal data for
advertising.
Weitere Episoden
37 Minuten
vor 1 Tag
21 Minuten
vor 2 Tagen
23 Minuten
vor 3 Tagen
27 Minuten
vor 4 Tagen
41 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)