Prompt Injections - Angriff auf die KI von Innen
Warum Sprachmodelle anfälliger sind für Angriffe, als wir denken
9 Minuten
Podcast
Podcaster
Generative KI zum Hören – ganz ohne Vorwissen
Beschreibung
vor 5 Monaten
In dieser Folge erklären wir das Konzept der Prompt
Injections, eine oft übersehene Schwachstelle in großen
Sprachmodellen. Wir zeigen, wie Angreifer versteckte Anweisungen
in scheinbar harmlose Texte einbauen können, um die KI unbemerkt
zu manipulieren. Außerdem sprechen wir darüber, warum diese
Angriffe so schwer zu erkennen sind, welche Risiken sie mit sich
bringen und was getan werden kann, um KI-Modelle in Zukunft
sicherer zu machen.
Weitere Episoden
16 Minuten
vor 3 Tagen
vor 2 Wochen
vor 2 Wochen
In Podcasts werben
Abonnenten
Hoch im Norden
Kommentare (0)