Was machen eigentlich große Sprachmodelle?
vor 9 Monaten
Wie der Transformer Sprache zerlegt, in Vektoren übersetzt – und
daraus Texte generiert.
Podcast
Podcaster
Beschreibung
vor 9 Monaten
In dieser Folge der KI Kantine erklärt Buschi, wie große
Sprachmodelle wie GPT unter der Haube funktionieren. Es geht um
die Transformer-Architektur, um Tokenisierung, Embeddings und
hochdimensionale Vektorräume. Was nach reinem Rechnen klingt,
wirkt oft verblüffend menschlich – warum das so ist, erfährst du
in dieser Folge.
Weitere Episoden
9 Minuten
vor 5 Tagen
8 Minuten
vor 1 Woche
7 Minuten
vor 2 Wochen
7 Minuten
vor 3 Wochen
9 Minuten
vor 1 Monat
Abonnenten
Nürnberg
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.