Podcast
Podcaster
Beschreibung
vor 5 Monaten
In dieser Episode spreche ich mit Sam Goetjes über Vertrauen,
Vorurteile und Fairness in KI-gestützten Entscheidungen.
Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit
menschlichen und algorithmischen Empfehlungen, dazu ein
manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre
Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und
stärker. Vertrauen entsteht nach denselben Mustern wie bei
Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur
Modelle und Performance prüfen, sondern Bias-Risiken monitoren,
Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und
Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie
halten wir beides in Schach? Genau darum geht es.
Vorurteile und Fairness in KI-gestützten Entscheidungen.
Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit
menschlichen und algorithmischen Empfehlungen, dazu ein
manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre
Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und
stärker. Vertrauen entsteht nach denselben Mustern wie bei
Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur
Modelle und Performance prüfen, sondern Bias-Risiken monitoren,
Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und
Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie
halten wir beides in Schach? Genau darum geht es.
Weitere Episoden
23 Minuten
vor 5 Tagen
28 Minuten
vor 1 Woche
18 Minuten
vor 2 Wochen
28 Minuten
vor 3 Wochen
27 Minuten
vor 1 Monat
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.