Was machen eigentlich große Sprachmodelle?
Wie der Transformer Sprache zerlegt, in Vektoren übersetzt – und
daraus Texte generiert.
4 Minuten
Podcast
Podcaster
Beschreibung
vor 5 Monaten
In dieser Folge der KI Kantine erklärt Buschi, wie große
Sprachmodelle wie GPT unter der Haube funktionieren. Es geht um
die Transformer-Architektur, um Tokenisierung, Embeddings und
hochdimensionale Vektorräume. Was nach reinem Rechnen klingt,
wirkt oft verblüffend menschlich – warum das so ist, erfährst du
in dieser Folge.
Weitere Episoden
6 Minuten
vor 3 Tagen
5 Minuten
vor 1 Woche
6 Minuten
vor 2 Wochen
6 Minuten
vor 3 Wochen
5 Minuten
vor 1 Monat
In Podcasts werben
Abonnenten
Nürnberg
Kommentare (0)