Podcast
Podcaster
Beschreibung
vor 12 Stunden
In Folge 12 von "Agenten verstehen" widmen wir uns lokalen
Modellen wie Gemma 4 und Qwen 3.6. Wir klären, warum lokale
Agenten trotz gigantischer Kontextfenster bei längeren Dialogen
(Multi-Turn) oft völlig den Faden verlieren und wie wir das
architektonisch lösen.Die Themen dieser Folge:
Der Multi-Turn-Kollaps: Warum
Sprachmodelle durch "Aufmerksamkeitsverfall" (Attention
Decay) oft schon nach fünf Runden ihre eigenen Regeln
vergessen und voreilig halluzinieren, anstatt bei
Unklarheiten nachzufragen.
Dense vs. MoE: Warum "Mixture of
Experts"-Modelle bei längeren Unterhaltungen durch
mathematische Routing-Probleme einbrechen und kleinere
"Dense"-Modelle oft deutlich stabiler bleiben.
Hybride Pipelines: Warum ein Sprachmodell
keine kritischen Aktionen mehr allein ausführen darf und
wie strikte Code-Schichten (Konsistenz-Gates) das System
vor dem Chaos bewahren.
Gedächtnis & Tests: Wie "Context
Repacking" (kompakte Briefings statt langer Chat-Verläufe)
den Kontextverfall stoppt und wie man sein Modell durch
zerschnittene Aufgaben ("Sharded Simulation") einem echten
Stresstest unterzieht.
Weitere Episoden
6 Minuten
vor 2 Tagen
6 Minuten
vor 4 Tagen
29 Minuten
vor 1 Woche
7 Minuten
vor 1 Woche
7 Minuten
vor 1 Woche
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.