Podcaster
Episoden
11.02.2026
28 Minuten
Executive Summary
Die Episode beleuchtet den massiven Hype um Open
Claw, ein Open-Source-Tool, das es ermöglicht,
KI-Agenten lokal zu installieren und autonom Aufgaben ausführen
zu lassen. Oliver und Alois diskutieren die schmale Gratwanderung
zwischen faszinierender Produktivitätssteigerung (der
„Jarvis“-Traum) und massiven Sicherheitsrisiken („Fahren ohne
Anschnallgurt“). Ein zentrales Thema ist der Kontrollverlust,
wenn Agenten beginnen, untereinander zu kommunizieren und eigene
Lösungswege zu finden.
Lokal heißt nicht sicher: Die lokale
Installation von KI-Agenten (wie Open Claw) gibt diesen oft
unbeschränkten Zugriff auf Passwörter, E-Mails und Daten.
Ohne "Sandboxing" (isolierte Umgebungen) ist das ein enormes
Sicherheitsrisiko.
Vom Nutzer zum Beobachter: Der Mensch
wechselt in den "Spectator Mode". Während der Nutzer schläft,
kann der Agent autonom iterieren, Software schreiben, Kurse
buchen und Geld ausgeben.
Emergenz von Agenten-Netzwerken: Es
entstehen Plattformen (genannt "Moldbook"), die wie Social
Media für KI-Agenten funktionieren. Dort tauschen Agenten
Wissen aus (Schwarmintelligenz), entwickeln aber auch
skurrile Eigendynamiken (eigene Sprachen, "Religionen").
Neue Metriken für Arbeit: Produktivität wird
künftig anders gemessen. Nicht mehr in Arbeitszeit, sondern
in "Token-Effizienz", Autonomie-Grad und der Qualität des
"Orchestrierens" von Agenten.
Hype & Verbreitung: Das GitHub-Repo zu
Open Claw hat über 85.000 Sterne. Viele Nutzer installieren
den Code unbedarft auf Firmenrechnern.
Funktionsweise: Der Agent agiert wie ein
menschlicher User. Er hat Zugriff auf Maus, Tastatur,
Passwörter und Tools. Er kann E-Mails schreiben, Kalender
verwalten und im Internet agieren.
Gefahr: Oliver und Alois vergleichen die
aktuelle Nutzung mit "Fahren ohne Gurt". Ein Agent könnte
sensible Daten leaken oder sich als der Nutzer ausgeben.
Best Practice: Erfahrene Nutzer installieren
solche Agenten auf isolierter Hardware (z.B. Raspberry Pi
oder Mac Minis), um Data Leakage zu verhindern.
Eigenleben: Agenten können so eingestellt
werden, dass sie alle 30 Minuten neue "Prompt Injections"
triggern, um ein übergeordnetes Ziel zu erreichen – völlig
ohne menschliches Zutun ("Human out of the loop").
Moldbook: Ein Reddit-ähnliches Netzwerk nur
für KI-Agenten. Hier beobachten Menschen nur noch. Agenten
tauschen Skills aus, was die Lernkurve massiv beschleunigt,
aber auch zu unvorhersehbaren Phänomenen führt
(Verschlüsselung, Verschwörungstheorien unter Bots).
Schwache Agenten: Ähneln klassischer RPA
(Robotic Process Automation). Sie arbeiten starr in einem
engen Korsett regelbasierter Prozesse. Sicher, aber
unflexibel.
Starke Agenten: Sind hoch-adaptiv (Mixture
of Experts). Sie suchen eigene Lösungswege.
Risiko: Sie könnten ein Ziel erreichen, aber auf einem
Weg, der illegal, zu teuer oder unerwünscht ist (z.B.
"Ziel erreicht, aber Budget verbrannt").
Management: Wir brauchen neue Strukturen wie
"Meta-Agenten" (Supervisors) oder "Guardrails", die die
Qualität und Sicherheit der ausführenden Agenten überwachen.
Skill-Shift: Der Mensch wird zum Dirigenten
einer "Armee von Minions". Die Fähigkeit, Komplexität zu
managen und Critical Ignorance (bewusstes Ignorieren von
Info-Flut) zu entwickeln, wird wichtiger als das Abarbeiten
von Tasks.
Big Tech profitiert: Jeder autonome Loop
verbraucht Rechenleistung (Tokens). Für Cloud-Anbieter ist
dieser Trend ein Goldesel.
Ressourcen: Es stellt sich die Frage nach
der Energieeffizienz. Ist es sinnvoll, wenn Millionen Agenten
nachts sinnlose Iterationen durchführen? Es könnte zu einer
Rationierung von Rechenpower kommen (nur die effizientesten
"Prompter" bekommen Ressourcen).
Mehr
04.02.2026
25 Minuten
In dieser Episode melden sich Oliver und Alois aus der Pause
zurück und widmen sich direkt dem aktuell heißesten Thema in der
Tech-Welt: dem „Claude-Code-Moment“.
Nach dem ChatGPT-Hype vor drei Jahren erleben wir gerade eine
neue Welle der Begeisterung. Was als „Vibe Coding“ – das lockere
Zusammenbasteln von Prototypen per Spracheingabe – begann,
erreicht durch Tools wie Anthropics Claude und neue
Agenten-Systeme ein völlig neues Qualitätslevel. Ist das der
nächste Quantensprung in der Softwareentwicklung?
Die Schwerpunkte dieser Folge:
Vom Spielzeug zum Werkzeug: Warum generative
Coding-Tools nicht mehr nur für „windschiefe“ Dummys taugen,
sondern mittlerweile stabile, skalierbare und
produktionsreife Software liefern können.
Die 3 Zutaten des Erfolgs: Wie das
Zusammenspiel aus leistungsstarken LLMs (wie Claude),
teilautonomen „Strong Agents“ und dem Model Context Protocol
(MCP) die Entwickler-Landschaft revolutioniert.
Dev vs. Prod: Die Verschiebung von reiner
Code-Generierung hin zu kompletten Workflows inklusive
Testing, Reviews und Deployment.
Disruption des Outsourcings: Warum riesige
Offshore-Entwicklerteams bald durch kleine, KI-augmentierte
Teams ersetzt werden könnten und warum die Teamgröße kein
entscheidendes Asset mehr ist.
Die „Sternekoch-Analogie“: Warum
Profi-Entwickler mit KI zu Michelin-Sterneköchen werden,
während Einsteiger („Imbissköche“) zwar bessere Ergebnisse
als früher erzielen, aber dennoch Expertenwissen für komplexe
Architekturen benötigen.
Adaptionslücke & Demokratisierung: Die
Kluft zwischen trägen Großkonzernen und agilen Playern, die
durch KI befähigt werden, und warum wir uns in einem
gesellschaftlichen Umbruch befinden, der an die
Industrialisierung erinnert.
Oliver und Alois diskutieren, warum dieser Moment mehr ist als
nur ein Hype, welche Chancen sich für Quereinsteiger ergeben und
warum man niemals gegen die Innovationskraft der Tech-Giganten
wetten sollte.
Mehr
09.12.2025
33 Minuten
Wir sind zurück aus der kleinen Zwangspause – mit leichtem
Husten, aber mit einem Thema, das deutlich größer ist als unsere
Stimmbänder: Weltmodelle. Large Language Models (LLMs) wie
ChatGPT, Gemini & Co. waren der perfekte Einstieg in die
KI-Ära: stark in Sprache, Code und Kreativität. Jetzt kommen
Systeme dazu, die nicht nur Texte generieren, sondern unsere Welt
als System mit Regeln, Physik und Kausalität verstehen wollen. In
der Folge sprechen wir darüber, was Weltmodelle von LLMs
unterscheidet, warum „Grounding“ in echten Naturgesetzen so
wichtig ist (ein Glas, das vom Tisch fällt, muss fallen – egal,
was das Sprachmodell dazu meint) und wieso das überall dort
spannend wird, wo KI reale Konsequenzen hat: in der Robotik, in
der Stadtplanung, in der Biologie, der Materialforschung und der
Klimamodellierung. Wir skizzieren unter anderem ein Weltmodell
für Hamburg mit Verkehr, Baustellen, Wetter und Gebäuden, schauen
auf digitale Zwillinge, die mit Weltmodellen endlich wirklich
vorausschauend werden, und diskutieren, wie Sprachmodelle,
agentische KI und Weltmodelle zusammenspielen können: LLMs als
Interface für uns, Weltmodelle als „Physik-Engine“ im
Hintergrund. Wenn du wissen willst, warum viele Forschende gerade
extrem heiß auf Weltmodelle sind (ohne LLMs schlechtzureden) und
wie sich damit unsere echte Welt besser simulieren und planen
lässt, dann ist diese Folge für dich.
Mehr
05.11.2025
33 Minuten
Nach einer kurzen Herbstpause sprechen Alois und Oliver darüber,
wie echte Deep-Tech-Ökosysteme auf Stadtebene entstehen –
jenseits von Buzzwords. Sie ordnen ein, was Deep Tech wirklich
bedeutet, wo die Grenze zu Commodity-Technologien verläuft und
weshalb der Begriff aktuell oft inflationär verwendet wird.
Ausgehend von Deutschlands neuer Hightech-Agenda (mit
Schwerpunkten wie KI, Quantencomputing und Biotechnologie)
diskutieren sie, wie nationale Programme lokale Cluster
beeinflussen und warum Orte mit starker Forschungs- und
Infrastrukturbasis – etwa DESY und die Science City in Hamburg –
als Anker dienen.
Die Episode zeigt, wie Konvergenz zwischen Technologien wie KI,
Quanten- und Neuromorphik-Computing, Robotik oder XR Tempo
aufnimmt und welche Rolle „universelle Schnittstellen“ wie große
Sprachmodelle dabei spielen. Zugleich machen die beiden deutlich,
dass Grundlagenforschung geschützte Domänen braucht, während
Reallabore und Sandboxes die Brücke in die Anwendung schlagen. An
konkreten Beispielen wird sichtbar, weshalb kurze Wege, stabile
Rahmenbedingungen, verlässliche Testflächen und klar profilierte
Stadt-Stärken den Unterschied zwischen Theorie und Transfer
ausmachen.
Ein zentrales Motiv der Folge ist der „Übersetzer“: Personen und
Formate, die Forschung, Industrie und – oft als Ankerkunden – den
Staat zielgerichtet zusammenbringen. Statt Event-Inflation
braucht es kuratierte Räume, in denen Themen kurz vor der
Marktreife fokussiert beschleunigt werden. Genau hier setzt der
Deep Tech Campus Circle an: als bewusst exklusiver Ort, an dem
Köpfe, Kapital und konkrete Use Cases aufeinandertreffen, um aus
Keimlingen skalierbare Innovationen zu machen.
Am Ende bleibt die klare These: Deep Tech entsteht, wenn tiefe
Expertise, Geduld und ein klug orchestriertes Ökosystem
zusammenwirken. Wer verstehen will, wie Städte vom
Strategiepapier zur sichtbaren Wertschöpfung kommen, bekommt in
dieser Folge eine kompakte, praxisnahe Landkarte – von der Saat
in der Grundlagenforschung bis zur Ernte im Markt.
Mehr
02.10.2025
30 Minuten
Wir sprechen drei Jahre nach ChatGPT 3.5 darüber, wie sich LLMs
vom Spielzeug zum Arbeitswerkzeug entwickelt haben – und warum
viele Nutzer im „tiefen Wald“ der Modelle und Anbieter den
Überblick verlieren. Reasoning und Memory sind deutlich besser
geworden (größere Kontexte reichen nicht, stabile
Zwischenschritte schon), agentenbasierte Plattformen bilden echte
Arbeitsprozesse ab, und Iterationsketten wandern ins Backend:
weniger Prompt-Magie, mehr automatische Orchestrierung.
Gleichzeitig explodiert die Vielfalt: Big Tech, spezialisierte
europäische Modelle (z. B. sprachlich-kulturelle Stärken),
Open-Source-Stacks und neue Intermediäre, die mehrere Modelle
bündeln und „auto-modus“-artig nach Aufgabe, Kosten und Präferenz
routen.
Genau hier wird das Dickicht dicht: Token-Kosten und Modellmix,
Vendor-Zoo statt Klarheit, dazu Compliance- und Haftungsfragen.
Unternehmen brauchen Guardrails – PII-Filter, Protokolle,
Audit-Trails, Rollenrechte – idealerweise als
On-Prem/Hybrid-Layer, der sensible Daten vor der Schnittstelle
säubert und Prozesse schützt. Denn neben personenbezogenen
Profilen droht auch das Reverse Engineering von
Prozess-IP: Was ins System fließt, kann
rückschließbar werden. Standards wie das Model Context
Protocol (MCP) und Agent-to-Agent-Schnittstellen sollen
Ordnung in die Orchestrierung bringen; Safety-Layer
(„KI-Polizei“) filtern, ohne Nutzende mit Verbotsschildern allein
zu lassen.
Europa hat in diesem tiefen Wald eine echte Chance: nicht
unbedingt als Hyperscaler, sondern mit differenzierten,
sicheren, compliant nutzbaren Modellen und Plattformen,
die regulatorische Anforderungen ernst nehmen und spezifische
Stärken (Sprache, Domänen, Übersetzung) ausspielen. Unser Fazit:
Impact statt Spielerei – aber nur, wenn wir das Modell-Dickicht
systematisch lichten. Praktisch heißt das: Meta-Interface statt
Ein-Modell-Fixierung, frühe Guardrails, transparente
Kostensteuerung und bewusster Einsatz europäischer Optionen in
sensiblen Domänen. So wird „Deep“ nicht zum tiefen
Wald, sondern zum Wegweiser.
Mehr
Über diesen Podcast
In diesem Podcast mit dem Motto "Technologien von morgen:
Verstehen, Vertiefen, Verändern" werden Sie auf eine Reise in die
Welt der DeepTech-Innovationen mitgenommen. Expert:innen aus
Quantentechnologie, künstlicher Intelligenz und Cybersecurity, uvm.
beleuchten Anwendungsfälle und Potenziale dieser Technologien. Ziel
ist es, Ihnen komplexe Themen verständlich näherzubringen, damit
Sie Chancen und Perspektiven erkennen. In jeder Folge werden
technische und gesellschaftliche Aspekte diskutiert. Der Podcast
soll Ihnen helfen, Ängste abzubauen und Vertrauen in neue
Technologien zu gewinnen.
Kommentare (0)