EP 44 • Bias in der Maschine (und in dir)

EP 44 • Bias in der Maschine (und in dir)

vor 1 Monat
7 Minuten
Podcast
Podcaster

Beschreibung

vor 1 Monat

KI reproduziert menschliche Vorurteile. Die Maschine ist ein
Spiegel. 7 Minuten über Bias in KI-Outputs, in deinen Prompts, in
dir selbst.


Bias in der Maschine (und in dir)


KI reproduziert menschliche Vorurteile.


Gesichtserkennung funktioniert schlechter bei Schwarzen Menschen.
Recruiting-Algorithmen benachteiligen Frauen. Kredit-Scores
verstärken strukturelle Ungleichheit.


Das Problem: KI lernt aus historischen Daten, die unsere Muster
enthalten.


Die Maschine ist ein Spiegel, der zeigt, was wir sind.


Aber Bias liegt nicht nur in der KI. Auch in deinen Prompts.


Jeder Prompt enthält Annahmen. KI verstärkt, was du nicht
hinterfragst.


Konkrete Strategien: Spezifisch sein. Antworten hinterfragen.
Eigene Annahmen kennen.


KI-spezifischer Impuls


lumenai.one


#Bias #KI #Vorurteile #Gerechtigkeit #Bewusstsein
15
15
Close