Beschreibung
vor 5 Monaten
Aufgrund der Allgegenwart von KI-Anwendungen im Alltag steigt auch
die Bedeutung von Algorithmen für die Menschen. Aber wie lässt sich
garantieren, dass Algorithmen faire Entscheidungen treffen? Dies
ist ein Thema, das den CISPA-Forscher Julian Siber umtreibt. Im
Podcast sprechen wir darüber, woher die Bias von Algorithmen
kommen, welche Ansätze es für algorithmische Fairness gibt, ob wir
Fairness-by-Design brauchen und welche Lösung er favorisiert. Für
seinen eigenen Ansatz hat der die Spezifikationssprache RTLola
weiterentwickelt, die bisher vor allem in der Luftfahrt Anwendung
fand.
die Bedeutung von Algorithmen für die Menschen. Aber wie lässt sich
garantieren, dass Algorithmen faire Entscheidungen treffen? Dies
ist ein Thema, das den CISPA-Forscher Julian Siber umtreibt. Im
Podcast sprechen wir darüber, woher die Bias von Algorithmen
kommen, welche Ansätze es für algorithmische Fairness gibt, ob wir
Fairness-by-Design brauchen und welche Lösung er favorisiert. Für
seinen eigenen Ansatz hat der die Spezifikationssprache RTLola
weiterentwickelt, die bisher vor allem in der Luftfahrt Anwendung
fand.
Weitere Episoden
47 Minuten
vor 2 Tagen
32 Minuten
vor 1 Monat
1 Stunde 2 Minuten
vor 2 Monaten
34 Minuten
vor 3 Monaten
45 Minuten
vor 4 Monaten
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.