Beschreibung
vor 7 Monaten
Halluzinierende Chatbots? OpenAI liefert jetzt eine überraschend
ehrliche Antwort: Das Training belohnt Raten statt Ehrlichkeit.
In einem neuen Paper erklärt das Unternehmen, warum KI lieber
Unsinn erfindet, als „Ich weiß es nicht“ zu sagen – und wie man
das künftig verhindern könnte. In dieser Episode decken wir auf,
was wirklich hinter den KI-Fantasien steckt und was sich jetzt
ändern muss.
Diese Episode beschreibt die Erkenntnisse von OpenAI bezüglich
der Ursachen von Halluzinationen bei
Chatbots. Es wird erklärt,
dass Standardtrainingsmethoden dazu
führen, dass KI-Modelle dazu neigen, zu raten, anstatt
Unsicherheit zuzugeben. Dies liegt daran,
dass Trainingsbewertungen für korrekte
Vermutungen die volle Punktzahl vergeben, während die Aussage
„Ich weiß nicht“ mit null Punkten bewertet wird. Die Forscher
schlugen vor, die Bewertungssysteme neu zu
gestalten, um Fehler, die auf Vertrauen basieren,
stärker zu bestrafen. Diese Forschung könnte einen Weg
aufzeigen, KI-Modelle zuverlässiger zu
machen, indem Ehrlichkeit über das Raten belohnt wird.
Weitere Episoden
5 Minuten
vor 1 Tag
6 Minuten
vor 2 Tagen
4 Minuten
vor 3 Tagen
5 Minuten
vor 4 Tagen
6 Minuten
vor 1 Woche
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.