Transformers - Wie funktionieren Sprachmodelle?
9 Minuten
Beschreibung
vor 3 Wochen
Heute schauen wir uns die revolutionäre Transformer-Architektur
und die sogenannte Self-Attention an, auf der die meisten
modernen Sprachmodelle basieren. Wir lernen also wie GPT &
Co. im Detail funktionieren und warum sie so gute Antworten
generieren können.
Das Paper dazu aus dem Jahr 2017 findet ihr hier:
https://doi.org/10.48550/arXiv.1706.03762
Viel Spaß beim Zuhören! :)
Weitere Episoden
6 Minuten
vor 1 Woche
33 Minuten
vor 2 Wochen
6 Minuten
vor 1 Monat
8 Minuten
vor 1 Monat
6 Minuten
vor 1 Monat
In Podcasts werben
Abonnenten
Ehingen
Kommentare (0)