Episoden

135 - Agenten verstehen Teil 6: Model Routing
13.03.2026
24 Minuten
Die Themen dieser Folge: Die Multi-Modell-Strategie: Warum es ineffizient und teuer ist, für jede einfache Aufgabe immer das leistungsstärkste Sprachmodell zu nutzen. Kosten & Effizienz: Wie einfache Triage-Entscheidungen blitzschnell und günstig von kleinen Modellen gelöst werden und nur bei echten Problemen auf teure Hochleistungsmodelle eskaliert wird. Datenschutz & DSGVO: Wie das System sensible Unternehmensdaten erkennt und diese sicher zur Verarbeitung an rein lokale Modelle (z.B. über Ollama) leitet. Zukunftssichere Architektur: Wie man Agenten so baut, dass sich zukünftige Modell-Updates einfach als Konfiguration einfügen lassen, ohne den Code umbauen zu müssen.
Mehr
134 - Qwen 3.5
11.03.2026
14 Minuten
In Episode 134 des KI Gilde Podcasts klären wir, ob das neue Modell Qwen 3.5 die ultimative Allzweckwaffe für die lokale Ausführung auf dem eigenen Rechner ist. Wir analysieren die Architektur des gigantischen, multimodalen Sprachmodells, das mit 36 Billionen Token trainiert wurde und nativ 2011 Sprachen sowie komplexe Dokumentenlayouts versteht. Die Highlights der Folge: Architektur & Skalierbarkeit: Wir vergleichen klassische "dichte" Modelle mit effizienten "Mixture of Experts"-Ansätzen (MoE) und beleuchten das Größenspektrum von 0,6 bis hin zu 397 Milliarden Parametern. Speicher & Geschwindigkeit: Erfahre, wie durch spezielle Architektur-Hacks ein gigantisches Kontextfenster von 262.144 Token erreicht wird und wie "Multi-Token Prediction" die Textausgabe extrem beschleunigt. Multimodalität durch "Early Fusion": Warum Qwen 3.5 Text, Bilder und Programmcode von der ersten Schicht an gemeinsam lernt und klassische Texterkennung (OCR) überflüssig macht. Lokale Hardware-Revolution: Wie Werkzeuge wie Unsloth (intelligente Quantisierung) und llama.cpp es möglich machen, massive Modelle lokal auf handelsüblichen Consumer-Grafikkarten oder Apple-Geräten auszuführen und sogar zu trainieren. Praxis-Hürden & "Thinking Mode": Wir besprechen die Tücken der lokalen Ausführung und warum der neue "Denkmodus" des Modells aktuelle Software-Schnittstellen (Parser) überfordert und oft zu Endlosschleifen führt. Ein tiefer Blick in die Mechaniken der lokalen KI-Inferenz und ein Paradigmenwechsel für die Zukunft der Softwareentwicklung!
Mehr
133 - Anthropic vs. Pentagon
09.03.2026
6 Minuten
In Folge 133 des KI Gilde Podcasts beleuchten wir den historischen Konflikt zwischen dem KI-Unternehmen Anthropic und dem Pentagon. Nach einem 200-Millionen-Dollar-Vertrag für hochmoderne KI-Modelle weigerte sich Anthropic, seine Technologie für Massenüberwachung und vollautonome Waffensysteme bedingungslos zur Verfügung zu stellen. Daraufhin stufte der US-Präsident das Unternehmen im Februar 2026 als Sicherheitsrisiko ein und kündigte die Zusammenarbeit. Während Open AI sofort als neuer Rüstungspartner einspringt, belohnt die Öffentlichkeit Anthropics moralische Standhaftigkeit mit Platz 1 in den Charts und massenhaften Deinstallationen der Konkurrenz-App. Wir diskutieren die entscheidende Frage: Werden die Spielregeln unserer Zukunft von Entwicklern mit Gewissen oder von Regierungen mit Macht geschrieben?
Mehr
132 - Agenten verstehen: Agenten-Schwärme
06.03.2026
16 Minuten
In Teil 5 von "Agenten verstehen" stößt der allwissende Einzel-Agent an seine kognitiven Grenzen. Die Lösung: Der Agenten-Schwarm. Wir zeigen, wie spezialisierte KI-Teams zusammenarbeiten, ohne im Chaos zu versinken. Die Themen dieser Folge: Das Ende des Generalisten: Warum ein einzelnes Modell durch Fehlerfortpflanzung ("Kaskadeneffekte") scheitert und wie ein Triage-System Aufgaben auf isolierte Spezialisten verteilt. Der geteilte Arbeitsbereich: Wie KI-Teams dem gefürchteten Kontextverfall ("Lost in the Middle") entgehen, indem sie Daten nicht im Prompt, sondern auf einem gemeinsamen virtuellen Laufwerk teilen. Orchestrierung & Kommunikation: Die Steuerung über Meta-Agenten oder harte Graphen-Logik und wie strukturierte Protokolle höfliche Endlosschleifen zwischen chattenden Agenten verhindern. Lernende Schwärme: Wie das System in Mikro- und Makroschleifen (Sandkasten-Tests und Vektordatenbanken als "Lessons Learned"-Speicher) aus eigenen Fehlern lernt und sich stetig selbst verbessert.
Mehr
131 - kostenfreie LLM-APIs
04.03.2026
6 Minuten
In dieser Episode des KI Gilde Podcasts (Folge 131) analysieren wir kostenfreie APIs für Large Language Models (LLMs) beim Bau von Prototypen. Wir klären, warum Tech-Giganten teure Rechenleistung scheinbar verschenken – die wahren Motive reichen von Kundenbindung über Hardware-Demonstrationen bis hin zum massenhaften Datensammeln für Modelltrainings.Die wichtigsten Themen im Überblick: Aggregatoren & Limits: Erfahrungen mit OpenRouter und wie kleine Einzahlungen die künstlichen Nadelöhre der Gratistarife aufbrechen. Dezentrale Rechenlast: Wie Frameworks wie putter.js die Serverkosten umgehen und die Rechenoperationen auf die Handybatterie der Endnutzer verlagern. Hardware-Flaschenhälse: Der Kontrast zwischen den strengen Token-Limits bei rasend schnellen Anbietern wie Groq und den gigantischen Kapazitäten von Cerebras, die 2 Millionen Tokens pro Minute im Gratistarif erlauben. Datenschutz-Fallen: Warum Google Gemini in Europa für die kommerzielle Gratisnutzung ausscheidet und Mistral durch eine strikte Datentrennung punktet. Cleveres Server-Management: Wie der chinesische Anbieter DeepSeek bei Überlastung Anfragen geduldig einreiht, anstatt das System mit Fehlermeldungen abstürzen zu lassen. Fazit: Kostenfreie Programmierschnittstellen fordern immer einen Tribut: Man zahlt mit seinen Daten, muss seine Architektur um harte Hardware-Limits herumbauen oder intelligent zwischen verschiedenen Anbietern wechseln.
Mehr

Über diesen Podcast

Ein KI-generierter Podcasts rund um die Entwicklung von und mit KI. News, Updates und interessante Hintergrundinformationen für den professionellen Einsatz von KI hinaus. Ohne Hype und Buzzwords. Die KI-Gilde ist ein Angebot der YnotBetter UG.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15