Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity

Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity

Warum eine empathische Arbeitswelt wichtig ist und wie sie KIs beeinflusst
32 Minuten

Beschreibung

vor 3 Monaten
EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel
sein, wie der Mensch, der sie programmiert hat. Dadurch dass es
auch beim Menschen immer noch viele Blindspots beim Thema Diversity
gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im
Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia
diesmal, wie man diese Algorithmic Biases erkennt und korrigieren
kann und wie man sowohl Mensch, als letztlich auch künstliche
Intelligenz für Diversity besser sensibilisieren kann. Du
erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic
Biases in KI derzeit ein Problem sind …ob man diese Biases einfach
„reparieren“ kann …wie die Methode des Reinforced Learnings mit dem
Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von
KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen
Methoden man Diskriminierung entlernen kann …welche Empathie in die
Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma
abbauen kann Diese Episode dreht sich schwerpunktmäßig um
Diversity: Lasst uns Organisationen neu, offen und tolerant denken!
Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und
Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten,
um dich für Diversity zu sensibilisieren, diskutiert Joel
mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um
Leadership und Diversity. Dabei geht es den beiden explizit nicht
um Mann oder Frau, sondern um die Schaffung von Empathie
füreinander sowie ein ganzheitliches Bild und Verständnis für
verschiedene Rollen und Perspektiven. __________________________
||||| PERSONEN ||||| Joel Kaczmarek, Geschäftsführer digital
kompakt Lunia Hara, LinkedIn Changemaker Kenza Ait Si Abbou,
Autorin & Director Client Engineering DACH bei IBM
__________________________ ||||| SPONSOREN |||||
[Übersicht](https://www.digitalkompakt.de/sponsoren/) aller
Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00)
Vorstellung und Einführung ins Thema   (00:04:38) Was ist
Algorithmic Bias?   (00:08:00) Kann man Algorithmic Bias
reparieren?   (00:13:05) Reinforcement Learning  
(00:17:18) Wie kann man Diversity lehren?   (00:20:45)
Empathie in der Führung __________________________ ||||| WIR |||||
[Mehr](https://linktr.ee/dkompakt) tolle Sachen von uns  Wir
von digital kompakt bemühen uns um die Verwendung einer
geschlechtsneutralen Sprache. In Fällen, in denen dies nicht
gelingt, gelten sämtliche Personenbezeichnungen für alle
Geschlechter.

Kommentare (0)

Lade Inhalte...
15
15
:
: