090 - NVIDIA vs TPUs
6 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Woche
In dieser Folge beleuchten wir die Tensor Processing
Units (TPUs) von Google, auf die große KI-Schmieden wie
Google Deepmind und Anthropic setzen, anstatt die
marktbeherrschenden Nvidia-Chips zu verwenden.
Wir ergründen die fundamentale Philosophie
hinter den TPUs: Im Gegensatz zu Nvidias flexiblem
Allzweckwerkzeug ("Schweizer Taschenmesser") sind TPUs ein
hochspezialisiertes „Skalpell“, das von Grund auf nur für die
massiven Berechnungen neuronaler Netze gebaut wurde, um pure
Effizienz zu erzielen.Der technische Kern ist das sogenannte
systolische Array, das den Speicherflaschenhals
eliminiert, indem die Daten wellenartig durch Tausende von
Recheneinheiten fließen, während die Gewichte fixiert bleiben.
Das eigentliche Produkt ist dabei nicht der einzelne Chip,
sondern das integrierte Gesamtsystem (die
"Pots"), bei dem Tausende von Chips über ultraschnelle Netzwerke
– teilweise sogar mit optischen Schaltern – verbunden sind, was
enorme Stabilität ermöglicht.
Diese vertikale Integration von Hard- und Software verschafft
Partnern strategische Vorteile in der
Spitzenforschung: garantierte Verfügbarkeit von Rechenclustern
und potenziell 30 bis 50 % geringere Kosten im Vergleich zu
Nvidia. Es zeichnet sich eine technologische
Zweiteilung des KI-Marktes ab, wobei Google aggressiv
auf das intelligenteste Gesamtsystem aus Hardware, Software und
Netzwerk setzt.
Weitere Episoden
6 Minuten
vor 14 Stunden
7 Minuten
vor 2 Tagen
5 Minuten
vor 4 Tagen
7 Minuten
vor 1 Woche
7 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)