039 - Wo wird Wissen in LLMs gespeichert?

039 - Wo wird Wissen in LLMs gespeichert?

6 Minuten

Beschreibung

vor 7 Monaten

Wo steckt das „Gehirn“ einer KI? Tauchen Sie ein in die Welt der
Transformer-Modelle und erfahren Sie, dass Wissen nicht
zentral, sondern verteilt und emergent gespeichert ist.


Diese Folge enthüllt, wie:


• Grundlegende Wortbedeutungen in
Embedding-Matrizen kodiert sind.


• Kontextuelle und relationale Zusammenhänge im
Self-Attention-Mechanismus gelernt werden.


• Faktisches, linguistisches und Common-Sense-Wissen
hauptsächlich in den Feed-Forward-Netzwerken als
eine Art Key-Value-Speicher abgelegt ist.


Entdecken Sie die hierarchische Wissensbildung
von Syntax in den unteren Schichten bis zu abstrakter Semantik in
den oberen Schichten und wie dieses Wissen im Moment der
Anwendung dynamisch zum Leben erwacht. Ein
tiefer Blick hinter die Kulissen der Künstlichen Intelligenz!

Weitere Episoden

128 - pencil.dev
14 Minuten
vor 6 Tagen
127 - BMAD
6 Minuten
vor 1 Woche
125 - multimodales RAG
6 Minuten
vor 1 Woche

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15