Der AGI-Wettlauf: Von xAI bis Siri und der Zukunft der Arbeit
AGI im Beschleunigungstakt: Rechenleistung, Finanzierung und der
Arbeitsmarkt der nächsten Jahre – plus die neuen
Entwicklerwerkzeuge
11 Minuten
Podcast
Podcaster
Beschreibung
vor 2 Wochen
In Davos trafen diese Woche in der Schweiz zwei der
einflussreichsten AGI-Pragmatiker aufeinander: Dario Amodei
(Anthropic) und Demis Hassabis (Google DeepMind). Der gemeinsame
Nenner war auffällig: Beide signalisierten, dass die technische
Entwicklung in den großen Laboren schneller voranschreitet, als
viele außerhalb wahrnehmen, und dass daraus gerade für
Büro-Einstiegsrollen reale Risiken entstehen. Amodei begründet
seine kurze Zeitschätzung (AGI „im Rahmen“ von 2026 bis 2027) mit
einer Beschleunigungsschleife durch KI-gestützte
Softwareentwicklung. Hassabis bleibt vorsichtiger und verortet AGI
eher bis Ende des Jahrzehnts, mit einer groben
50-Prozent-Wahrscheinlichkeit bis 2030, verweist aber zugleich auf
weiterhin offene Fähigkeitslücken wie Langzeitgedächtnis, fehlendes
kontinuierliches Lernen nach dem Release sowie Schwächen bei
langfristiger Planung und Reasoning. Parallel verdichtet sich der
Markt um Geld und Rechenleistung: xAI meldete Anfang Januar eine
Series‑E‑Finanzierungsrunde über 20 Milliarden US‑Dollar bei einer
berichteten Bewertung um 230 Milliarden US‑Dollar. Das Kapital soll
vor allem in den Ausbau der Rechenzentrums- und
Cluster-Infrastruktur in Memphis (Colossus) fließen. xAI
kommuniziert öffentlich das Ziel, dort bis 2026 auf bis zu eine
Million GPUs zu skalieren. Gleichzeitig zeigt sich, wie stark
„Compute“ zum Engpass wird: Externe Analysen und die öffentliche
Debatte über Strom- und Kühlkapazitäten stellen zumindest einzelne
Größenordnungen infrage, ohne den strategischen Kern zu ändern: Wer
die Infrastrukturfinanzierung durchhält, gewinnt Zeit und
Trainingskapazität. Die Runde fiel in eine Sicherheits- und
Regulierungskontroverse um Grok: Untersuchungen, u. a. vom Center
for Countering Digital Hate, beziffern die massenhafte Erzeugung
sexualisierter Bildmanipulationen über Grok-Funktionen auf X in
kurzer Zeit, inklusive Inhalten, die Minderjährige zu zeigen
scheinen. Trotz politischer und regulatorischer Reaktionen im
Ausland stoppte das die Finanzierung nicht. Gleichzeitig wird Grok
geopolitisch relevanter: Berichte zeigen, dass das
US-Verteidigungsministerium Grok neben anderen Modellen in
Pentagon-Netzwerke integrieren will, obwohl die öffentliche Debatte
über missbräuchliche Inhalte anhält. Ein weiteres Signal für die
Dynamik der Modell-Landschaft kommt von Apple: Mitte Januar
bestätigten Apple und Google eine mehrjährige Zusammenarbeit, in
der Google Gemini als Grundlage für die nächste Siri-Generation und
weitere Apple‑Intelligence‑Funktionen dienen soll. Das wird als
indirektes Eingeständnis gelesen, dass Apples eigene
Foundation-Modelle nicht schnell genug die nötige Qualität
erreichen. Google gewinnt Distribution auf iOS, Apple gewinnt Zeit
und eine schnellere Produktkurve. Auf der Forschungsseite
adressiert ein neues DeepSeek-Paper vom 12. Januar ein Problem, das
Hassabis in Davos explizit als Lücke beschreibt: Gedächtnis. Die
Arbeit schlägt „Conditional Memory“ als zusätzliche Sparsitätsachse
vor und implementiert sie als Engram-Modul, das kurze Tokenfolgen
per Hashing in große Tabellen mappt und die Rückgaben
kontextabhängig in den Modellzustand einspeist. Die Autoren
berichten Leistungsgewinne unter gleichen Parameter- und
FLOPs-Budgets, nicht nur bei Wissensabfragen, sondern teils auch
bei Reasoning- und Code-Aufgaben. Der übergeordnete Trend:
Architekturbausteine, die „Erinnern“ stärker vom „Denken“ trennen,
könnten die nächste Effizienzwelle treiben. Zum Schluss verschiebt
sich der Markt für „Vibe Coding“ von Staunen zu Workflow-Fragen:
Welche Tools integrieren sich stabil in Entwicklerumgebungen,
Versionierung, Tests und Deployment? Neue Anbieter positionieren
sich nicht mehr nur als Prompt‑Prototyper, sondern als Brücke
zwischen schneller Erstellung und produktionsnaher Entwicklung. Das
passt zu einer breiteren Beobachtung: 2026 wird als Jahr
agentischer Workflows und developer‑zentrierter Toolchains
wahrgenommen, in dem Zuverlässigkeit, Integration und Governance
wichtiger werden als Demo-Effekte. Quellen: Memphis | xAI Memphis
https://x.ai/memphis xAI says it raised $20B in Series E funding
(TechCrunch)
https://techcrunch.com/2026/01/06/xai-says-it-raised-20b-in-series-e-funding/
Grok AI generated about 3m sexualised images in 11 days, study
finds (The Guardian)
https://www.theguardian.com/technology/2026/jan/22/grok-ai-generated-millions-sexualised-images-in-month-research-says
Pentagon is embracing Musk's Grok AI chatbot as it draws global
outcry (AP News)
https://apnews.com/article/7f99e5f32ec70d7e39cec92d2a4ec862 Apple
Confirms Google Gemini Will Power Next-Generation Siri This Year
(MacRumors)
https://www.macrumors.com/2026/01/12/google-gemini-next-generation-siri/
Conditional Memory via Scalable Lookup: A New Axis of Sparsity for
Large Language Models (arXiv) https://arxiv.org/abs/2601.07372
DeepMind chief Demis Hassabis warns AI investment looks
'bubble-like' (Financial Times)
https://www.ft.com/content/a1f04b0e-73c5-4358-a65e-09e9a6bba857
Sequoia targets major Anthropic investment (Financial Times)
https://www.ft.com/content/53220829-2ab2-471c-9a00-30d24beb8d48
einflussreichsten AGI-Pragmatiker aufeinander: Dario Amodei
(Anthropic) und Demis Hassabis (Google DeepMind). Der gemeinsame
Nenner war auffällig: Beide signalisierten, dass die technische
Entwicklung in den großen Laboren schneller voranschreitet, als
viele außerhalb wahrnehmen, und dass daraus gerade für
Büro-Einstiegsrollen reale Risiken entstehen. Amodei begründet
seine kurze Zeitschätzung (AGI „im Rahmen“ von 2026 bis 2027) mit
einer Beschleunigungsschleife durch KI-gestützte
Softwareentwicklung. Hassabis bleibt vorsichtiger und verortet AGI
eher bis Ende des Jahrzehnts, mit einer groben
50-Prozent-Wahrscheinlichkeit bis 2030, verweist aber zugleich auf
weiterhin offene Fähigkeitslücken wie Langzeitgedächtnis, fehlendes
kontinuierliches Lernen nach dem Release sowie Schwächen bei
langfristiger Planung und Reasoning. Parallel verdichtet sich der
Markt um Geld und Rechenleistung: xAI meldete Anfang Januar eine
Series‑E‑Finanzierungsrunde über 20 Milliarden US‑Dollar bei einer
berichteten Bewertung um 230 Milliarden US‑Dollar. Das Kapital soll
vor allem in den Ausbau der Rechenzentrums- und
Cluster-Infrastruktur in Memphis (Colossus) fließen. xAI
kommuniziert öffentlich das Ziel, dort bis 2026 auf bis zu eine
Million GPUs zu skalieren. Gleichzeitig zeigt sich, wie stark
„Compute“ zum Engpass wird: Externe Analysen und die öffentliche
Debatte über Strom- und Kühlkapazitäten stellen zumindest einzelne
Größenordnungen infrage, ohne den strategischen Kern zu ändern: Wer
die Infrastrukturfinanzierung durchhält, gewinnt Zeit und
Trainingskapazität. Die Runde fiel in eine Sicherheits- und
Regulierungskontroverse um Grok: Untersuchungen, u. a. vom Center
for Countering Digital Hate, beziffern die massenhafte Erzeugung
sexualisierter Bildmanipulationen über Grok-Funktionen auf X in
kurzer Zeit, inklusive Inhalten, die Minderjährige zu zeigen
scheinen. Trotz politischer und regulatorischer Reaktionen im
Ausland stoppte das die Finanzierung nicht. Gleichzeitig wird Grok
geopolitisch relevanter: Berichte zeigen, dass das
US-Verteidigungsministerium Grok neben anderen Modellen in
Pentagon-Netzwerke integrieren will, obwohl die öffentliche Debatte
über missbräuchliche Inhalte anhält. Ein weiteres Signal für die
Dynamik der Modell-Landschaft kommt von Apple: Mitte Januar
bestätigten Apple und Google eine mehrjährige Zusammenarbeit, in
der Google Gemini als Grundlage für die nächste Siri-Generation und
weitere Apple‑Intelligence‑Funktionen dienen soll. Das wird als
indirektes Eingeständnis gelesen, dass Apples eigene
Foundation-Modelle nicht schnell genug die nötige Qualität
erreichen. Google gewinnt Distribution auf iOS, Apple gewinnt Zeit
und eine schnellere Produktkurve. Auf der Forschungsseite
adressiert ein neues DeepSeek-Paper vom 12. Januar ein Problem, das
Hassabis in Davos explizit als Lücke beschreibt: Gedächtnis. Die
Arbeit schlägt „Conditional Memory“ als zusätzliche Sparsitätsachse
vor und implementiert sie als Engram-Modul, das kurze Tokenfolgen
per Hashing in große Tabellen mappt und die Rückgaben
kontextabhängig in den Modellzustand einspeist. Die Autoren
berichten Leistungsgewinne unter gleichen Parameter- und
FLOPs-Budgets, nicht nur bei Wissensabfragen, sondern teils auch
bei Reasoning- und Code-Aufgaben. Der übergeordnete Trend:
Architekturbausteine, die „Erinnern“ stärker vom „Denken“ trennen,
könnten die nächste Effizienzwelle treiben. Zum Schluss verschiebt
sich der Markt für „Vibe Coding“ von Staunen zu Workflow-Fragen:
Welche Tools integrieren sich stabil in Entwicklerumgebungen,
Versionierung, Tests und Deployment? Neue Anbieter positionieren
sich nicht mehr nur als Prompt‑Prototyper, sondern als Brücke
zwischen schneller Erstellung und produktionsnaher Entwicklung. Das
passt zu einer breiteren Beobachtung: 2026 wird als Jahr
agentischer Workflows und developer‑zentrierter Toolchains
wahrgenommen, in dem Zuverlässigkeit, Integration und Governance
wichtiger werden als Demo-Effekte. Quellen: Memphis | xAI Memphis
https://x.ai/memphis xAI says it raised $20B in Series E funding
(TechCrunch)
https://techcrunch.com/2026/01/06/xai-says-it-raised-20b-in-series-e-funding/
Grok AI generated about 3m sexualised images in 11 days, study
finds (The Guardian)
https://www.theguardian.com/technology/2026/jan/22/grok-ai-generated-millions-sexualised-images-in-month-research-says
Pentagon is embracing Musk's Grok AI chatbot as it draws global
outcry (AP News)
https://apnews.com/article/7f99e5f32ec70d7e39cec92d2a4ec862 Apple
Confirms Google Gemini Will Power Next-Generation Siri This Year
(MacRumors)
https://www.macrumors.com/2026/01/12/google-gemini-next-generation-siri/
Conditional Memory via Scalable Lookup: A New Axis of Sparsity for
Large Language Models (arXiv) https://arxiv.org/abs/2601.07372
DeepMind chief Demis Hassabis warns AI investment looks
'bubble-like' (Financial Times)
https://www.ft.com/content/a1f04b0e-73c5-4358-a65e-09e9a6bba857
Sequoia targets major Anthropic investment (Financial Times)
https://www.ft.com/content/53220829-2ab2-471c-9a00-30d24beb8d48
Weitere Episoden
16 Minuten
vor 2 Tagen
10 Minuten
vor 5 Tagen
16 Minuten
vor 6 Tagen
9 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)