Fight the Bias - Was KI Fairness von Feminismus lernen kann | Eva Gengler

Fight the Bias - Was KI Fairness von Feminismus lernen kann | Eva Gengler

1 Stunde 3 Minuten
Podcast
Podcaster

Beschreibung

vor 4 Monaten

KI und Feminismus klingen auf den ersten Blick nach zwei komplett
getrennten Feldern. Aber was haben diese beiden Themen gemeinsam
und wie können feministische Ansätze dabei helfen KI Systeme
fairer und besser zu machen? Darüber spricht Christian Krug, der
Host des Podcasts „Unf*ck Your Data“ mit Eva Gengler,
Promotionsstudentin an der FAU Erlangen-Nürnberg und Gründerin
von FeministAI und EnableYou.


KI skaliert und automatisiert Dinge. Mit den Daten mit denen sie
trainiert wurde und die damit für die KI die Welt repräsentieren.


Jetzt ist es aber so, dass nicht alle Daten dieser Welt
gleichmäßig oder der Verteilung entsprechend in den KI Systemen
landen. Das kann an den unterschiedlichsten Faktoren liegen.


Oft ist das gewollt, zum Beispiel wenn wir nur Bilder von uns
zeigen die uns gut darstellen. Denn wer möchte ein Familienbild
generieren bei dem Tante Erna den Mund aufreißt oder uns nach dem
direkt nach dem Aufstehen sehr verknautscht zeigt.


Manchmal liegen aber auch andere Effekte dahinter, die die
Verteilung nicht angemessen repräsentieren oder bestehende
Missverhältnisse abbilden, die wir eigentlich nicht mehr wollen.


So sind für KI Systeme CEOs oft weiße Männer namens Christian
oder Thomas. Diese sind in den Positionen überrepräsentiert. Das
kann ein KI System allerdings nur schwer bewerten und so wird
eine bildgenerierende KI oft einen CEO genauso darstellen.


Denn generell werden Frauen oft marginalisiert, aber nicht nur
Frauen, auch People of Color.


Und diese Biase in den Trainingsdaten schlagen sich dann in den
Ergebnissen wieder.


Das reicht von vermeintlich harmlosen Fällen wie Seifenspendern
die nur helle Hände erkennen zu wirklich kritischen Themen. Wie
in der Strafverfolgung.


Wenn die KI für Women of Color höhere Rückfallraten vorhersagt
als für weiße Männer. Oder wenn Men of Color häufiger falsch
verdächtig werden, weil die Gesichtserkennung nicht richtig
klappt.





Damit hier eine KI fair wird und auf objektiveren Merkmalen
urteilt müssen wir die Modelle eben besser trainieren. Mit der
korrekten Zielsetzung und den richtigen Daten.








Profile:





Zum LinkedIn-Profil von Eva:
https://www.linkedin.com/in/eva-gengler/





Zum LinkedIn-Profil von Christian:
https://www.linkedin.com/in/christian-krug/





Christians Wonderlink: https://wonderl.ink/@christiankrug





Unf*ck Your Data auf Linkedin:
https://www.linkedin.com/company/unfck-your-data





Buchempfehlung:





Buchempfehlung von Eva: Unsichtbare Frauen -





Alle Empfehlungen in Melenas Bücherladen:
https://gunzenhausen.buchhandlung.de/unfuckyourdata








Hier findest Du Unf*ck Your Data:





Zum Podcast auf Spotify:
https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfa


Zum Podcast auf iTunes:
https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019





Zum Podcast auf Deezer:

Kommentare (0)

Lade Inhalte...

Abonnenten

MLindaK
Euskirchen
tihenkel
Mücke
BOFH
Lampertheim
sfenn
Augsburg
15
15