#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung

#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung

1 Stunde 9 Minuten
Podcast
Podcaster

Beschreibung

vor 4 Monaten

Wir alle nutzen KI-Sprachmodelle, doch wie verlässlich sind ihre
Antworten wirklich? Studien zeigen, dass selbst fortschrittliche
Modelle wie GPT-4 bei Faktenfragen oft nur eine Trefferquote von
rund 60 % erreichen und zum "Halluzinieren" neigen. Aber es gibt
Methoden, das zu ändern.
In dieser Folge sprechen wir mit Nicolas Kohl, der sich im Rahmen
seiner Bachelorarbeit bei SAP genau diesem Problem gewidmet hat.
Er erklärt den Ansatz der "Retrieval-Augmented Generation" (RAG),
bei dem eine KI lernt, ihre Antworten auf Basis externer,
verlässlicher Dokumente zu formulieren, anstatt sich auf ihr
eigenes, manchmal fehlerhaftes Wissen zu verlassen.
Wir tauchen tief ein in die Optimierung dieser Methode und
klären, warum es nicht nur darauf ankommt, der KI überhaupt Daten
zu geben, sondern auch darauf, ihr die richtigen Daten in der
richtigen Menge zu präsentieren.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15