Beschreibung

vor 3 Wochen

Wir stellen Petri vor, ein von Anthropic AI
entwickeltes automatisiertes Prüfstand-Framework, das KI-Agenten
nutzt, um Large Language Models (LLMs) systematisch auf
problematische Verhaltensweisen, Sicherheit und Zuverlässigkeit
zu überprüfen. Erfahre, wie Petri realitätsnahe Szenarien
simuliert und durch Funktionen wie das „Zurückspulen“ im Dialog
kritische Schwachstellen wie autonome Täuschung oder
übertriebenes Whistleblowing aufdeckt. Dieses Framework ist nicht
nur für Entwickler wichtig, sondern hilft auch Anwendern, die
Zielstrebigkeit und Verlässlichkeit ihrer spezifischen
KI-Anwendungen, etwa bei Kundenservice-Chatbots, sicherzustellen.

Weitere Episoden

093 - Jahresrückblick: März 2025
6 Minuten
vor 19 Stunden
090 - NVIDIA vs TPUs
6 Minuten
vor 1 Woche
089 - Opus 4.5
7 Minuten
vor 1 Woche

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15