Was machen eigentlich große Sprachmodelle?

Was machen eigentlich große Sprachmodelle?

Wie der Transformer Sprache zerlegt, in Vektoren übersetzt – und daraus Texte generiert.
4 Minuten

Beschreibung

vor 5 Monaten

 In dieser Folge der KI Kantine erklärt Buschi, wie große
Sprachmodelle wie GPT unter der Haube funktionieren. Es geht um
die Transformer-Architektur, um Tokenisierung, Embeddings und
hochdimensionale Vektorräume. Was nach reinem Rechnen klingt,
wirkt oft verblüffend menschlich – warum das so ist, erfährst du
in dieser Folge. 

Kommentare (0)

Lade Inhalte...

Abonnenten

tanoli
Nürnberg
15
15