Fake News: Woran erkennt man künstliche Intelligenz?
Wasserzeichen auf Videos nützen wenig, perfekte Hände auf Bildern
sind längst Realität. Die Hinweise auf KI-generierte Inhalte werden
subtiler. Doch es gibt sie noch.
7 Minuten
Podcast
Podcaster
Beschreibung
vor 4 Wochen
Wasserzeichen auf Videos nützen wenig, perfekte Hände auf Bildern
sind längst Realität. Die Hinweise auf KI-generierte Inhalte werden
subtiler. Doch es gibt sie noch. Bei Videos lohnt sich der Blick
auf die Physik: Bewegen sich Menschen, Tiere und Gegenstände so,
wie sie es in der echten Welt tun würden? KI hat kein Verständnis
für die physikalische Realität und macht deshalb Fehler bei
Bewegungsabläufen. Auch Schriften und Beschriftungen bereiten ihr
Mühe. Ein weiteres Problem ist die sogenannte Objektpermanenz:
Während eine Kamera einfach filmt, was da ist, muss KI jedes Bild
neu berechnen. Dabei kann sie vergessen, was im vorherigen Bild
noch zu sehen war – Gegenstände verschwinden plötzlich oder tauchen
aus dem Nichts auf. Wasserzeichen, die manche KI-Generatoren
inzwischen einblenden, helfen nur bedingt. Versuche zeigen: Viele
Menschen übersehen sie oder wissen nicht, was sie bedeuten. Bei
Bildern ist die Lage noch schwieriger. Während vor zwei, drei
Jahren Hände mit der falschen Anzahl Finger sofort auffielen, sind
die Systeme heute deutlich besser geworden. Manchmal verraten noch
unleserliche Schriften, verschmolzener Schmuck oder verschwommene
Zähne die KI-Herkunft. Doch wichtiger als die Inhalte selbst ist
meist der Kontext: Wer hat etwas veröffentlicht? Von welchem Konto
stammt es? Was sagen andere Quellen dazu? Wer unsicher ist, sollte
vor allem eines nicht tun: den Inhalt selbst weiterverbreiten.
sind längst Realität. Die Hinweise auf KI-generierte Inhalte werden
subtiler. Doch es gibt sie noch. Bei Videos lohnt sich der Blick
auf die Physik: Bewegen sich Menschen, Tiere und Gegenstände so,
wie sie es in der echten Welt tun würden? KI hat kein Verständnis
für die physikalische Realität und macht deshalb Fehler bei
Bewegungsabläufen. Auch Schriften und Beschriftungen bereiten ihr
Mühe. Ein weiteres Problem ist die sogenannte Objektpermanenz:
Während eine Kamera einfach filmt, was da ist, muss KI jedes Bild
neu berechnen. Dabei kann sie vergessen, was im vorherigen Bild
noch zu sehen war – Gegenstände verschwinden plötzlich oder tauchen
aus dem Nichts auf. Wasserzeichen, die manche KI-Generatoren
inzwischen einblenden, helfen nur bedingt. Versuche zeigen: Viele
Menschen übersehen sie oder wissen nicht, was sie bedeuten. Bei
Bildern ist die Lage noch schwieriger. Während vor zwei, drei
Jahren Hände mit der falschen Anzahl Finger sofort auffielen, sind
die Systeme heute deutlich besser geworden. Manchmal verraten noch
unleserliche Schriften, verschmolzener Schmuck oder verschwommene
Zähne die KI-Herkunft. Doch wichtiger als die Inhalte selbst ist
meist der Kontext: Wer hat etwas veröffentlicht? Von welchem Konto
stammt es? Was sagen andere Quellen dazu? Wer unsicher ist, sollte
vor allem eines nicht tun: den Inhalt selbst weiterverbreiten.
Weitere Episoden
6 Minuten
vor 1 Tag
5 Minuten
vor 2 Tagen
5 Minuten
vor 3 Tagen
6 Minuten
vor 4 Tagen
4 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)