„Warum KI lügt – und wie OpenAI das ändern will“

„Warum KI lügt – und wie OpenAI das ändern will“

vor 7 Monaten
4 Minuten
0
0 0

Beschreibung

vor 7 Monaten

Halluzinierende Chatbots? OpenAI liefert jetzt eine überraschend
ehrliche Antwort: Das Training belohnt Raten statt Ehrlichkeit.
In einem neuen Paper erklärt das Unternehmen, warum KI lieber
Unsinn erfindet, als „Ich weiß es nicht“ zu sagen – und wie man
das künftig verhindern könnte. In dieser Episode decken wir auf,
was wirklich hinter den KI-Fantasien steckt und was sich jetzt
ändern muss.


Diese Episode beschreibt die Erkenntnisse von OpenAI bezüglich
der Ursachen von Halluzinationen bei
Chatbots. Es wird erklärt,
dass Standardtrainingsmethoden dazu
führen, dass KI-Modelle dazu neigen, zu raten, anstatt
Unsicherheit zuzugeben. Dies liegt daran,
dass Trainingsbewertungen für korrekte
Vermutungen die volle Punktzahl vergeben, während die Aussage
„Ich weiß nicht“ mit null Punkten bewertet wird. Die Forscher
schlugen vor, die Bewertungssysteme neu zu
gestalten, um Fehler, die auf Vertrauen basieren,
stärker zu bestrafen. Diese Forschung könnte einen Weg
aufzeigen, KI-Modelle zuverlässiger zu
machen, indem Ehrlichkeit über das Raten belohnt wird.
15
15
Close