KI-generierte Nacktbilder: Eine neue Dimension von Deepfakes

KI-generierte Nacktbilder: Eine neue Dimension von Deepfakes

Nach einem unbekannten Facetime-Anruf wird Markus erpresst – mit einem durch KI manipulierten Video, das ihn beim Masturbieren zeigt. Seine Geschichte ist kein Einzelfall. Was kann man dagegen tun?
28 Minuten

Beschreibung

vor 5 Tagen

Gefälschte Videoaufnahmen, sogenannte Deepfakes, sind keine
Seltenheit mehr: Sie zeigen zum Beispiel Donald Trump in der
Papstrobe oder Mona Vetsch, die für zweifelhafte Finanzseiten
wirbt. Doch jetzt erreichen sie eine neue Dimension.


Deepfakes sehen immer echter aus und die Maschen der Betrüger
werden immer perfider. So auch im Fall von Markus. Kurz nachdem
er einen unbekannten Facetime-Anruf annimmt, erhält er ein Video
zugeschickt. Es zeigt ihn beim Masturbieren. Die Betrüger hatten
das Video mit KI so manipuliert, dass die Szene echt wirkte. Dann
drohen sie ihm, es zu verschicken, wenn er nicht zahlt.


Auch an einer Schweizer Schule wurde kürzlich ein Fall bekannt,
in dem Oberstufenschüler KI-generierte Nacktbilder von
Mitschülerinnen über Snapchat verbreiteten.


Wie funktionieren Deepfakes? Was bedeuten solche Aufnahmen für
die Betroffenen? Und was können Behörden dagegen tun? Das erklärt
Oliver Zihlmann, Leiter des Tamedia Recherchedesks in einer neuen
Folge des täglichen Podcasts «Apropos».


Host: Alexandra Aregger


Produzentin: Valeria Mazzeo


Mehr zu Deepfakes



Die Recherche von Oliver Zihlmann zum Fall von
Markus


Der KI-Nacktbild-Skandal an einer Schweizer
Schule

So ist die Rechtslage in der Schweiz bei Deepfakes



Unser Tagi-Spezialangebot für Podcast-Hörer:innen:
tagiabo.ch
Habt ihr Feedback, Ideen oder Kritik zu «Apropos»? Schreibt uns
an podcasts@tamedia.ch


Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for
information about our collection and use of personal data for
advertising.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15