004 Sonderfolge — Open Source aus China: DeepSeek, Kimi, Faktor 10

004 Sonderfolge — Open Source aus China: DeepSeek, Kimi, Faktor 10

vor 2 Tagen
7 Minuten
0
0 0

Beschreibung

vor 2 Tagen

Sonderfolge — ein Thema, fünf Blickwinkel.





Ab dieser Folge läuft zehnx Daily im Tages-Takt: Montag bis
Freitag, sieben Uhr morgens, sechs Minuten. Es passiert in der KI
gerade schlicht zu viel, um im Wochen-Rhythmus mitzukommen.





Heute: Open Source aus China. DeepSeek und Kimi liegen in
Benchmarks gleichauf mit GPT- und Claude-Modellen, kosten aber
rund ein Zehntel. Diese Folge sortiert, was das für Builder und
Consultants konkret heißt.





Was in dieser Folge drin ist:





00:30 — Was DeepSeek und Kimi tatsächlich liefern (R1, K2,
2-Mio-Token-Kontext)


01:40 — Was Open Source bei Sprachmodellen wirklich bedeutet
(MIT, Apache, Stanford-Begriff "Open Weight")


02:50 — Die Pricing-Realität: Faktor 10 günstiger als GPT-5.5


04:00 — Was das für Builder heißt: Self-Hosting, Hetzner,
Break-Even bei 50 Mio Token


05:10 — Was das für Consultants heißt: Drei-Optionen-Pitch nach
dem Cohere-Aleph-Deal





Drei Take-Aways:


1. Open-Source-Modelle aus China sind die neue Standard-Wahl für
Massen-Workflows


2. Pricing-Vorteil liegt bei Faktor 10 — wer GPT-5.5 für
Volumen-Tasks bucht, lässt Geld liegen


3. Self-Hosting ist wieder ernste Architektur-Option, ab ~50 Mio
Token pro Monat profitabel





Erwähnte Modelle und Anbieter: DeepSeek R1, Kimi K2 (Moonshot),
Claude Opus, GPT-5.5, Together AI, Fireworks, Hugging Face,
Cohere-Aleph Alpha





Tiefer einsteigen: Die ZehnX KI-Ausbildung — drei Monate,
Beraterniveau, dokumentierter Kompetenz-Nachweis nach Artikel 4
EU-KI-Gesetz. zehnx.me








zehnx Daily · Montag bis Freitag · 07:00 Uhr · zehnx.me/daily


Hinweis: zehnx Daily wird vollständig mit KI-Stimmen produziert.
Recherche und Redaktion: Thomas Frerich. EU-AI-Act Art. 50
konform.
15
15
Close