Podcaster
Episoden
13.03.2026
24 Minuten
Die Themen dieser Folge:
Die Multi-Modell-Strategie: Warum es
ineffizient und teuer ist, für jede einfache Aufgabe immer
das leistungsstärkste Sprachmodell zu nutzen.
Kosten & Effizienz: Wie einfache
Triage-Entscheidungen blitzschnell und günstig von kleinen
Modellen gelöst werden und nur bei echten Problemen auf
teure Hochleistungsmodelle eskaliert wird.
Datenschutz & DSGVO: Wie das System
sensible Unternehmensdaten erkennt und diese sicher zur
Verarbeitung an rein lokale Modelle (z.B. über Ollama)
leitet.
Zukunftssichere Architektur: Wie man
Agenten so baut, dass sich zukünftige Modell-Updates
einfach als Konfiguration einfügen lassen, ohne den Code
umbauen zu müssen.
Mehr
11.03.2026
14 Minuten
In Episode 134 des KI Gilde Podcasts klären wir,
ob das neue Modell Qwen 3.5 die ultimative
Allzweckwaffe für die lokale Ausführung auf dem eigenen Rechner
ist. Wir analysieren die Architektur des gigantischen,
multimodalen Sprachmodells, das mit 36 Billionen Token trainiert
wurde und nativ 2011 Sprachen sowie komplexe Dokumentenlayouts
versteht.
Die Highlights der Folge:
Architektur & Skalierbarkeit: Wir
vergleichen klassische "dichte" Modelle mit effizienten
"Mixture of Experts"-Ansätzen (MoE) und beleuchten das
Größenspektrum von 0,6 bis hin zu 397 Milliarden
Parametern.
Speicher & Geschwindigkeit: Erfahre,
wie durch spezielle Architektur-Hacks ein gigantisches
Kontextfenster von 262.144 Token erreicht wird und wie
"Multi-Token Prediction" die Textausgabe extrem
beschleunigt.
Multimodalität durch "Early Fusion": Warum
Qwen 3.5 Text, Bilder und Programmcode von der ersten
Schicht an gemeinsam lernt und klassische Texterkennung
(OCR) überflüssig macht.
Lokale Hardware-Revolution: Wie Werkzeuge
wie Unsloth (intelligente Quantisierung) und llama.cpp es
möglich machen, massive Modelle lokal auf handelsüblichen
Consumer-Grafikkarten oder Apple-Geräten auszuführen und
sogar zu trainieren.
Praxis-Hürden & "Thinking Mode": Wir
besprechen die Tücken der lokalen Ausführung und warum der
neue "Denkmodus" des Modells aktuelle
Software-Schnittstellen (Parser) überfordert und oft zu
Endlosschleifen führt.
Ein tiefer Blick in die Mechaniken der lokalen KI-Inferenz und
ein Paradigmenwechsel für die Zukunft der Softwareentwicklung!
Mehr
09.03.2026
6 Minuten
In Folge 133 des KI Gilde Podcasts beleuchten wir den
historischen Konflikt zwischen dem KI-Unternehmen Anthropic und
dem Pentagon.
Nach einem 200-Millionen-Dollar-Vertrag für hochmoderne
KI-Modelle weigerte sich Anthropic, seine Technologie für
Massenüberwachung und vollautonome Waffensysteme bedingungslos
zur Verfügung zu stellen. Daraufhin stufte der US-Präsident das
Unternehmen im Februar 2026 als Sicherheitsrisiko ein und
kündigte die Zusammenarbeit.
Während Open AI sofort als neuer Rüstungspartner einspringt,
belohnt die Öffentlichkeit Anthropics moralische Standhaftigkeit
mit Platz 1 in den Charts und massenhaften Deinstallationen der
Konkurrenz-App. Wir diskutieren die entscheidende Frage: Werden
die Spielregeln unserer Zukunft von Entwicklern mit Gewissen oder
von Regierungen mit Macht geschrieben?
Mehr
06.03.2026
16 Minuten
In Teil 5 von "Agenten verstehen" stößt der allwissende
Einzel-Agent an seine kognitiven Grenzen. Die Lösung: Der
Agenten-Schwarm. Wir zeigen, wie spezialisierte KI-Teams
zusammenarbeiten, ohne im Chaos zu versinken.
Die Themen dieser Folge:
Das Ende des Generalisten: Warum ein
einzelnes Modell durch Fehlerfortpflanzung
("Kaskadeneffekte") scheitert und wie ein Triage-System
Aufgaben auf isolierte Spezialisten verteilt.
Der geteilte Arbeitsbereich: Wie KI-Teams
dem gefürchteten Kontextverfall ("Lost in the Middle")
entgehen, indem sie Daten nicht im Prompt, sondern auf
einem gemeinsamen virtuellen Laufwerk teilen.
Orchestrierung & Kommunikation: Die
Steuerung über Meta-Agenten oder harte Graphen-Logik und
wie strukturierte Protokolle höfliche Endlosschleifen
zwischen chattenden Agenten verhindern.
Lernende Schwärme: Wie das System in
Mikro- und Makroschleifen (Sandkasten-Tests und
Vektordatenbanken als "Lessons Learned"-Speicher) aus
eigenen Fehlern lernt und sich stetig selbst verbessert.
Mehr
04.03.2026
6 Minuten
In dieser Episode des KI Gilde Podcasts (Folge 131) analysieren
wir kostenfreie APIs für Large Language Models (LLMs) beim Bau
von Prototypen. Wir klären, warum Tech-Giganten teure
Rechenleistung scheinbar verschenken – die wahren Motive reichen
von Kundenbindung über Hardware-Demonstrationen bis hin zum
massenhaften Datensammeln für Modelltrainings.Die
wichtigsten Themen im Überblick:
Aggregatoren & Limits: Erfahrungen mit
OpenRouter und wie kleine Einzahlungen die künstlichen
Nadelöhre der Gratistarife aufbrechen.
Dezentrale Rechenlast: Wie Frameworks wie
putter.js die Serverkosten umgehen und die
Rechenoperationen auf die Handybatterie der Endnutzer
verlagern.
Hardware-Flaschenhälse: Der Kontrast
zwischen den strengen Token-Limits bei rasend schnellen
Anbietern wie Groq und den gigantischen Kapazitäten von
Cerebras, die 2 Millionen Tokens pro Minute im Gratistarif
erlauben.
Datenschutz-Fallen: Warum Google Gemini in
Europa für die kommerzielle Gratisnutzung ausscheidet und
Mistral durch eine strikte Datentrennung punktet.
Cleveres Server-Management: Wie der
chinesische Anbieter DeepSeek bei Überlastung Anfragen
geduldig einreiht, anstatt das System mit Fehlermeldungen
abstürzen zu lassen.
Fazit: Kostenfreie Programmierschnittstellen
fordern immer einen Tribut: Man zahlt mit seinen Daten, muss
seine Architektur um harte Hardware-Limits herumbauen oder
intelligent zwischen verschiedenen Anbietern wechseln.
Mehr
Über diesen Podcast
Ein KI-generierter Podcasts rund um die Entwicklung von und mit KI.
News, Updates und interessante Hintergrundinformationen für den
professionellen Einsatz von KI hinaus. Ohne Hype und Buzzwords. Die
KI-Gilde ist ein Angebot der YnotBetter UG.
Kommentare (0)