#54 - Die Zukunft von LLMs: Retrieval Augmented Generation mit Sam Nündel, Teil 2

#54 - Die Zukunft von LLMs: Retrieval Augmented Generation mit Sam Nündel, Teil 2

23 Minuten

Beschreibung

vor 1 Jahr
Wenn Unternehmen heute ein großes Sprachmodell wie ChatGPT
produktiv einsetzen wollen, gibt es eine Reihe von
Herausforderungen, die gelöst werden müssen, um zuverlässige,
vertrauenswürdige, sichere und gesetzeskonforme Ergebnisse zu
erzielen. Ein großer Bereich, in dem derzeit geforscht und
gearbeitet wird, ist die Richtigkeit und Sicherheit der Daten,
insbesondere die folgenden drei Punkte: Halluzinationen,
Datentrennung und Datenschutz. Einer der vielversprechendsten
Lösungsansätze ist die sogenannte Retrieval Augmented Generation
(RAG), die verspricht, die aktuellen Probleme der LLMs
kostengünstig und zuverlässig zu lösen. Im zweiten Teil des
Interviews mit Sam Nündel geht es darum, wie Retrieval Augmented
Generation die Probleme der Halluzination, der Datenkapselung und
des Datenschutzes lösen kann, welche Voraussetzungen dafür z.B. in
einem KMU erfüllt sein müssen und wie dies konkret in einem
Chatbot-Projekt aussehen könnte. Hinweis: Zum Zeitpunkt der
Aufnahme, habe ich das Interview mit meiner Kollegin Tanja Nündel
geführt. Meine Kollegin Tanja ist inzwischen mein Kollege Sam. Den
Titel der Folge und das Titelbild haben wir schon mit Sams neuen
Namen versehen, nur die Folge selbst können wir leider nicht so
leicht im Nachhinein ändern. Deswegen spreche ich Sam in dieser
Folge noch mit seinem alten Namen an. Hier finden Sie die Shownotes
und das Transkript der Folge:
https://www.assono.de/blog/chatbots-und-ki-54-die-zukunft-von-llms-retrieval-augmented-generation-mit-sam-nuendel-teil-2

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15