KI & Fairness: Wer bekommt den Job, wer den Hit?

KI & Fairness: Wer bekommt den Job, wer den Hit?

Mit Janine Strotherm
1 Stunde 8 Minuten
Podcast
Podcaster

Beschreibung

vor 8 Monaten

Stellt euch ein KI-System vor, das automatisiert faire
Entscheidungen über die Einladung zum Bewerbungsgespräch auf
Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch
die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein
solches System als Hochrisikosystem ein. Wir schauen uns ein
solches System heute genauer an und klären: Was bedeutet
eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein
KI-System zu fairen Entscheidungen führt? Und was hat das alles
mit menschlicher Autonomie zu tun?

+++

Janine Strotherm ist Mathematikerin und
Mitarbeiterin der Universität Bielefeld. Im Projekt "Water
Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug
auf faire Verteilung von Wasserressourcen. 



+++



Linkliste


Lee (2018), Understanding perception of algorithmic
decisions: Fairness, trust, and emotion in response to
algorithmic management. Big Data & Society.

Starke et al. (2022), Fairness perceptions of algorithmic
decision-making: A systematic review of the empirical literature.
Big Data & Society.

Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.

Fiske: Stereotype Content Model

Eckes (2002), Paternalistic and Envious Gender Stereotypes:
Testing Predictions from the Stereotype Content Model. Sex Roles.

DuBois: The Philadelphia N-Wort

Paaßen et al. (2019), Dynamic fairness – Breaking vicious
cycles in automatic decision making. ESANN 2019.

Race Norming

COMPAS Software

Knibbe (2021), Fairness in Question: Do Music Recommendation
Algorithms Value Diversity? Music Tomorrow.

Torabi (2023), The Inner Workings of Spotify’s AI-Powered
Music Recommendations: How Spotify Shapes Your Playlist. Medium.

Henry et al. (2024), Impacts of AI on Music Consumption and
Fairness. Emerging Media.



+++

Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!


Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de

Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social

Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback



+++



"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.


Redaktionelle Unterstützung: Johanna Dobroschke.


Postproduktion: Ingrid Rogalski und Christiane Attig.


Musik: Almut Schwacke.


Grafikdesign: Sven Sedivy.



Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15