071 - LLMs vergiften

071 - LLMs vergiften

6 Minuten

Beschreibung

vor 1 Monat

Heute packen wir ein heiß diskutiertes Thema an:
Poisoning Attacks (Datenvergiftung) auf große
Sprachmodelle (LLMs).Bisher schien es fast unmöglich, riesige
Modelle wie GPT-4 oder LLaMA anzugreifen. Neuere Experimente
zeigen jedoch, dass nicht der Prozentsatz der manipulierten Daten
entscheidend ist, sondern die absolute Zahl.


Schon etwa 250 manipulierte Dokumente könnten
ausreichen, um ein Modell zu kompromittieren, unabhängig von
seiner Größe oder der Menge der sauberen Trainingsdaten.


Wir diskutieren das beunruhigende Missbrauchspotenzial. Angreifer
könnten über Webarchive schädliche Befehle (wie den Linux-Befehl
„RM- RF“, alles löschen) in Trainingsdaten einschleusen. Kritisch
wird es, wenn diese manipulierten LLMs später Zugriff auf echte
Systeme erhalten.

Weitere Episoden

093 - Jahresrückblick: März 2025
6 Minuten
vor 20 Stunden
090 - NVIDIA vs TPUs
6 Minuten
vor 1 Woche
089 - Opus 4.5
7 Minuten
vor 1 Woche

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15