#42 Robustes Machine Learning mit Tobias Lorenz
37 Minuten
Beschreibung
vor 4 Monaten
Moderne KI-Modelle sind leistungsstark, aber auch angreifbar. Sie
können nicht nur bei der Nutzung manipuliert werden, sondern schon
während des Trainings mit veränderten Daten gefüttert werden – und
das kann zu gefährlichen Fehlentscheidungen führen. In dieser Folge
von CISPA TL;DR erfahrt ihr, wie das neue Tool FullCert
mathematisch beweisen kann, dass ein Modell gegen solche Angriffe
abgesichert ist – vom Training bis zur Nutzung. Wie das genau
funktioniert und warum das für unsere digitale Sicherheit wichtig
ist, erklärt uns CISPA-Forscher Tobias Lorenz. Hört rein und findet
heraus, wie seine Forschung hilft, KI vertrauenswürdiger zu machen.
Die Folge wurde auf Deutsch aufgezeichnet.
können nicht nur bei der Nutzung manipuliert werden, sondern schon
während des Trainings mit veränderten Daten gefüttert werden – und
das kann zu gefährlichen Fehlentscheidungen führen. In dieser Folge
von CISPA TL;DR erfahrt ihr, wie das neue Tool FullCert
mathematisch beweisen kann, dass ein Modell gegen solche Angriffe
abgesichert ist – vom Training bis zur Nutzung. Wie das genau
funktioniert und warum das für unsere digitale Sicherheit wichtig
ist, erklärt uns CISPA-Forscher Tobias Lorenz. Hört rein und findet
heraus, wie seine Forschung hilft, KI vertrauenswürdiger zu machen.
Die Folge wurde auf Deutsch aufgezeichnet.
Weitere Episoden
45 Minuten
vor 2 Wochen
52 Minuten
vor 1 Monat
56 Minuten
vor 3 Monaten
30 Minuten
vor 3 Monaten
44 Minuten
vor 5 Monaten
In Podcasts werben
Kommentare (0)