KI: Wenn der Algorithmus Vorurteile hat
vor 4 Jahren
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die
Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch
oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird
das zum …
Podcast
Podcaster
Beschreibung
vor 4 Jahren
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die
Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch
oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird
das zum Problem.
[00:00] Intro und Begrüßung
[04:07] Wo emotionale KI schon eingesetzt wird
[06:44] KI ist nicht neutral
[10:53] Zukünftige Einsatzgebiete und Probleme
[14:08] Wie kann man KI besser machen?
[16:01] Verabschiedung
️ Artikel zum Nachlesen:
https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile
Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch
oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird
das zum Problem.
[00:00] Intro und Begrüßung
[04:07] Wo emotionale KI schon eingesetzt wird
[06:44] KI ist nicht neutral
[10:53] Zukünftige Einsatzgebiete und Probleme
[14:08] Wie kann man KI besser machen?
[16:01] Verabschiedung
️ Artikel zum Nachlesen:
https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile
Weitere Episoden
22 Minuten
vor 5 Tagen
24 Minuten
vor 1 Woche
15 Minuten
vor 2 Wochen
21 Minuten
vor 3 Wochen
37 Minuten
vor 1 Monat
Abonnenten
Germering
shiraz
Gh
Holziken
Jena
Lübeck
Magdeburg
Eching
Darmstadt
Rodgau
Pfaffenweiler
Chemnitz
Nein
Beuren, Eifel
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.