Podcast
Podcaster
Beschreibung
vor 5 Monaten
Wir stellen Petri vor, ein von Anthropic AI
entwickeltes automatisiertes Prüfstand-Framework, das KI-Agenten
nutzt, um Large Language Models (LLMs) systematisch auf
problematische Verhaltensweisen, Sicherheit und Zuverlässigkeit
zu überprüfen. Erfahre, wie Petri realitätsnahe Szenarien
simuliert und durch Funktionen wie das „Zurückspulen“ im Dialog
kritische Schwachstellen wie autonome Täuschung oder
übertriebenes Whistleblowing aufdeckt. Dieses Framework ist nicht
nur für Entwickler wichtig, sondern hilft auch Anwendern, die
Zielstrebigkeit und Verlässlichkeit ihrer spezifischen
KI-Anwendungen, etwa bei Kundenservice-Chatbots, sicherzustellen.
Weitere Episoden
29 Minuten
vor 2 Tagen
7 Minuten
vor 4 Tagen
7 Minuten
vor 6 Tagen
24 Minuten
vor 1 Woche
6 Minuten
vor 1 Woche
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.