Dataset Bias: “Welche Vorurteile stecken in unseren KI-Bildern?”| AI EXPLAINED

Dataset Bias: “Welche Vorurteile stecken in unseren KI-Bildern?”| AI EXPLAINED

20 Minuten

Beschreibung

vor 1 Jahr
Schon länger ist bekannt, dass im Kontext von KI-Diensten in den
zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele
menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann
nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den
problematischen Seiten unserer menschlichen Sicht auf die Welt
geprägt sein können. Was lassen sich für Muster erkennen? Wie
verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten
wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais
Al-Khalaf, der in seinem „The Critical (Art)book“ die
bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die
Lupe genommen hat.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: