#53 - Die Probleme der LLMs: Halluzinationen, Datentrennung und Datenschutz mit Sam Nündel, Teil 1

#53 - Die Probleme der LLMs: Halluzinationen, Datentrennung und Datenschutz mit Sam Nündel, Teil 1

25 Minuten

Beschreibung

vor 1 Jahr
Wenn Unternehmen heute ein großes Sprachmodell wie ChatGPT
produktiv einsetzen wollen, gibt es eine Reihe von
Herausforderungen, die gelöst werden müssen, um zuverlässige,
vertrauenswürdige, sichere und gesetzeskonforme Ergebnisse zu
erzielen. Ein großer Bereich, in dem derzeit geforscht und
gearbeitet wird, ist die Richtigkeit und Sicherheit der Daten,
insbesondere die folgenden drei Punkte: Halluzinationen,
Datentrennung und Datenschutz. Einer der vielversprechendsten
Lösungsansätze ist die sogenannte Retrieval Augmented Generation
(RAG), die verspricht, die aktuellen Probleme der LLMs
kostengünstig und zuverlässig zu lösen. Im ersten Teil des
Interviews mit Sam Nündel geht es darum, mit welchen Problemen
insbesondere kleine und mittelständische Unternehmen derzeit
konfrontiert sind, wenn sie ein Large Language Model einsetzen
wollen und welche Lösungsansätze vor Retrieval Augmented Generation
schon verfolgt wurden. Hinweis: Zum Zeitpunkt der Aufnahme, habe
ich das Interview mit meinem Kollegin Tanja Nündel geführt. Meine
Kollegin Tanja ist inzwischen mein Kollege Sam. Den Titel der Folge
und das Titelbild haben wir schon mit Sams neuen Namen versehen,
nur die Folge selbst können wir leider nicht so leicht im
Nachhinein ändern. Deswegen spreche ich Sam in dieser Folge noch
mit seinem alten Namen an. Hier finden Sie die Shownotes und das
Transkript der Folge:
https://www.assono.de/blog/chatbots-und-ki-53-die-probleme-der-llms-halluzinationen-datentrennung-und-datenschutz-mit-sam-nuendel-teil-1

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15