#15 Von der Halluzination zur Präzision: Ein Blick in die Trickkiste der KI-Entwicklung
1 Stunde 9 Minuten
Podcast
Podcaster
Beschreibung
vor 4 Monaten
Wir alle nutzen KI-Sprachmodelle, doch wie verlässlich sind ihre
Antworten wirklich? Studien zeigen, dass selbst fortschrittliche
Modelle wie GPT-4 bei Faktenfragen oft nur eine Trefferquote von
rund 60 % erreichen und zum "Halluzinieren" neigen. Aber es gibt
Methoden, das zu ändern.
In dieser Folge sprechen wir mit Nicolas Kohl, der sich im Rahmen
seiner Bachelorarbeit bei SAP genau diesem Problem gewidmet hat.
Er erklärt den Ansatz der "Retrieval-Augmented Generation" (RAG),
bei dem eine KI lernt, ihre Antworten auf Basis externer,
verlässlicher Dokumente zu formulieren, anstatt sich auf ihr
eigenes, manchmal fehlerhaftes Wissen zu verlassen.
Wir tauchen tief ein in die Optimierung dieser Methode und
klären, warum es nicht nur darauf ankommt, der KI überhaupt Daten
zu geben, sondern auch darauf, ihr die richtigen Daten in der
richtigen Menge zu präsentieren.
Weitere Episoden
1 Stunde 3 Minuten
vor 4 Monaten
50 Minuten
vor 4 Monaten
1 Stunde 9 Minuten
vor 4 Monaten
57 Minuten
vor 4 Monaten
1 Stunde 1 Minute
vor 4 Monaten
In Podcasts werben
Abonnenten
Fernwald
Kommentare (0)