Podcast
Podcaster
Beschreibung
vor 3 Jahren
KI-basierte Entscheidungsprozesse können von Anwender:innen oft
nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren
bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag
geben. Gleichzeitig machen KI-Systeme bereits heute in vielen
Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch
für den Menschen nicht-nachvollziehbare Entscheidungen treffen
dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz
in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen
sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der
Nachwuchsforscher:innengruppe “Understandable Machine Learning” an
der TU Berlin, in der aktuellen Episode von Dr. Med. KI.
nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren
bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag
geben. Gleichzeitig machen KI-Systeme bereits heute in vielen
Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch
für den Menschen nicht-nachvollziehbare Entscheidungen treffen
dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz
in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen
sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der
Nachwuchsforscher:innengruppe “Understandable Machine Learning” an
der TU Berlin, in der aktuellen Episode von Dr. Med. KI.
Weitere Episoden
18 Minuten
vor 7 Monaten
22 Minuten
vor 8 Monaten
33 Minuten
vor 10 Monaten
19 Minuten
vor 11 Monaten
40 Minuten
vor 11 Monaten
In Podcasts werben
Kommentare (0)