Podcast
Podcaster
Beschreibung
vor 1 Jahr
Künstliche Intelligenz findet immer mehr Einzug in unseren Alltag
und erleichtert so manchen Arbeitsschritt. Doch sie kann auch
Stereotype verstärken und die Benachteiligung von bestimmten
Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools
zeigte. Wie sich genderspezifische Vorurteile auch in
KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen
tun kann, erklärt die Informatikerin Stefanie Urchs von der
Hochschule München: Sie erforscht, wie man Trainingsdaten auf
Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training
eingesetzt werden.
und erleichtert so manchen Arbeitsschritt. Doch sie kann auch
Stereotype verstärken und die Benachteiligung von bestimmten
Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools
zeigte. Wie sich genderspezifische Vorurteile auch in
KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen
tun kann, erklärt die Informatikerin Stefanie Urchs von der
Hochschule München: Sie erforscht, wie man Trainingsdaten auf
Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training
eingesetzt werden.
Weitere Episoden
12 Minuten
vor 1 Woche
21 Minuten
vor 4 Wochen
20 Minuten
vor 1 Monat
9 Minuten
vor 1 Monat
9 Minuten
vor 1 Monat
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.