071 - LLMs vergiften
6 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Monat
Heute packen wir ein heiß diskutiertes Thema an:
Poisoning Attacks (Datenvergiftung) auf große
Sprachmodelle (LLMs).Bisher schien es fast unmöglich, riesige
Modelle wie GPT-4 oder LLaMA anzugreifen. Neuere Experimente
zeigen jedoch, dass nicht der Prozentsatz der manipulierten Daten
entscheidend ist, sondern die absolute Zahl.
Schon etwa 250 manipulierte Dokumente könnten
ausreichen, um ein Modell zu kompromittieren, unabhängig von
seiner Größe oder der Menge der sauberen Trainingsdaten.
Wir diskutieren das beunruhigende Missbrauchspotenzial. Angreifer
könnten über Webarchive schädliche Befehle (wie den Linux-Befehl
„RM- RF“, alles löschen) in Trainingsdaten einschleusen. Kritisch
wird es, wenn diese manipulierten LLMs später Zugriff auf echte
Systeme erhalten.
Weitere Episoden
6 Minuten
vor 20 Stunden
7 Minuten
vor 2 Tagen
5 Minuten
vor 4 Tagen
6 Minuten
vor 1 Woche
7 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)