Warum hat KI ein unvollständiges Bild von unserer Welt, Wiebke Hutiri?

Warum hat KI ein unvollständiges Bild von unserer Welt, Wiebke Hutiri?

vor 1 Tag
#digdeep - Neues aus der digitalen Welt
53 Minuten
Podcast
Podcaster
Alles zur Digitalisierung aus Wissenschaft und Wirtschaft.

Beschreibung

vor 1 Tag
KI sieht überall hin — aber sieht sie uns wirklich alle? Millionen
von KI-Systemen entscheiden täglich, wer ein Gesicht auf einem Foto
ist, wer von einem selbstfahrenden Auto gesehen oder wessen Stimme
erkannt wird. Die Grundlage dieser Entscheidungen sind Datensätze —
und viele Trainingsdaten wurden im Internet zusammengekratzt: ohne
Einwilligung, ohne Bezahlung, und vor allem ohne die Vielfalt, die
die Menschheit tatsächlich ausmacht. Denn viele Gruppen fehlen
schlichtweg. Das ist kein technisches Randproblem. Es ist eine
strukturelle Lücke im Fundament moderner KI, denn wer nicht in den
Daten ist, existiert für das Modell schlicht nicht — und das hat
reale Konsequenzen für selbstfahrende Autos, Gesichtserkennung an
Grenzen und Sprachassistenten für z.B. ältere Menschen. Wiebke
Hutiri ist Senior Research Scientist bei Sony AI und leitet dort
das Team für Responsible AI und Ethics. Mit einem globalen Team hat
sie 2025 in der Fachzeitschrift Nature einen ethisch erhobenen, aus
81 Ländern stammenden Bilddatensatz veröffentlicht und dort die
ganze Bandbreite der Menschen abgebildet. Im Gespräch mit uns
erklärt Wiebke, warum KI Frauen mit neuen Haarschnitten schlechter
erkennt als Männer mit Glatze, was der „Long Tail" der menschlichen
Variabilität mit KI-Fehlern zu tun hat, und warum wir in der
KI-Entwicklung vom Ende her denken sollten: von der Gesellschaft,
die wir wollen — nicht von den Modellen, die wir bauen können.
Unser Studio-Gast Wiebke Hutiri Wiebke Hutiri ist Senior Research
Scientist bei Sony AI, dem globalen KI-Forschungslabor des
Sony-Konzerns mit Standorten in Tokio, Zürich und New York. Dort
leitet sie ein international aufgestelltes Team im Bereich
Responsible AI und Ethics, das Methoden und Werkzeuge für ethische
Datenerhebung, faire Modellbewertung und vertrauenswürdige
KI-Systeme entwickelt und standardisiert. Sie promovierte cum laude
an der Technischen Universität Delft (Niederlande) und war zuvor in
der Forschung zu Sprachbiometrie und KI-Sicherheit tätig. Ihr
Forschungsschwerpunkt verbindet technische Exzellenz mit
gesellschaftlicher Verantwortung — von fairen
Benchmarking-Verfahren für multimodale Systeme bis hin zu ethischen
Fragen rund um Datenerhebung, Copyright und algorithmische Bias.
Hutiri ist Mitautorin des 2025 in Nature erschienenen
Papers „Fair Human-Centric Image Dataset for Ethical AI
Benchmarking" (FHIBE) — einem Meilenstein für ethisch erhobene,
global diverse Bilddatensätze mit Daten aus 81 Ländern. Darüber
hinaus engagiert sie sich als Beraterin bei Lelapa AI, einem
südafrikanischen Startup für Sprachtechnologien in ressourcenarmen
Sprachen. LinkedIn: https://www.linkedin.com/in/wiebkehutiri/
  Website: https://wiebkehutiri.com/
15
15
Close