Dataset Bias: “Welche Vorurteile stecken in unseren KI-Bildern?”| AI EXPLAINED
20 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Schon länger ist bekannt, dass im Kontext von KI-Diensten in den
zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele
menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann
nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den
problematischen Seiten unserer menschlichen Sicht auf die Welt
geprägt sein können. Was lassen sich für Muster erkennen? Wie
verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten
wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais
Al-Khalaf, der in seinem „The Critical (Art)book“ die
bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die
Lupe genommen hat.
zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele
menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann
nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den
problematischen Seiten unserer menschlichen Sicht auf die Welt
geprägt sein können. Was lassen sich für Muster erkennen? Wie
verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten
wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais
Al-Khalaf, der in seinem „The Critical (Art)book“ die
bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die
Lupe genommen hat.
Weitere Episoden
27 Minuten
vor 1 Woche
21 Minuten
vor 3 Wochen
18 Minuten
vor 1 Monat
29 Minuten
vor 1 Monat
20 Minuten
vor 3 Monaten
Kommentare (0)