LAIer 8|9 - Noch'n KI-Podcast

LAIer 8|9 - Noch'n KI-Podcast

Episoden

OpenClaw & Moltbook: Der Agent, der Agent hat keine Bremsen
27.02.2026
41 Minuten
Agenten ohne Sicherheitsbremsen, ein Social Network für KI-Bots und die Frage, ob wir jetzt alle Formel 1 im Stadtverkehr fahren: Barbara und Jochen ordnen den Hype um OpenClaw und Moldbook ein. Spoiler: Die Agenten, die angeblich eigene Sprachen erfinden, machen das seit 2017 – und der wichtigste Security-Tipp lautet: Käfig bauen, bevor du den Agenten frei lässt. Plus: Warum Chinas größter Cybersecurity-Hackathon plötzlich dark gegangen ist und wieso Build in Public im Valley den nächsten Job bringt.
Mehr
Markdown statt JSON: Was Notion teuer lernen musste
16.01.2026
36 Minuten
Notion hat also gerade herausgefunden, dass man mit einem Sprachmodell besser spricht, wenn man... eine Sprache benutzt. Bahnbrechend! Ein zweistelliger Millionenbetrag später wissen sie jetzt: Markdown schlägt JSON. Wer hätte das gedacht? Jeder Data Scientist seit Jahren. Aber hey, Experimentieren ist ja so schön. In dieser Folge sezieren AI Babsi und E-Fuchs die "revolutionären" Erkenntnisse aus dem Silicon Valley: Warum strukturierte Prompts besser funktionieren (Überraschung!), warum 150.000 Tokens der Sweet Spot sind (steht in jeder Doku) und warum deterministische Tool-Calls manchmal schlauer sind als ein LLM raten zu lassen. Plus: Barbaras knallharte Prognose für 2026 – Go Pro or Go Home.
Mehr
KI-Alignment und das Grok-Desaster: Wer bestimmt, was Modelle denken?
09.01.2026
44 Minuten
Neues Jahr, neuer Irrsinn: GROK macht Schlagzeilen – und zwar nicht die guten. Elon Musks KI-Baby hat sich zur Bildgenerator-Anarchie entwickelt, komplett mit Darknet-Verbindungen und einem ethischen Kompass, der offenbar im Bermuda-Dreieck verschwunden ist. Barbara und Jochen diskutieren, warum technische Brillanz und moralischer Bankrott manchmal Hand in Hand gehen, wie LLMs zu personalisierten Echo-Kammern werden und warum China schon längst weiß, was ein "AI-Jahr" in Hundejahren bedeutet. Spoiler: Es sind mindestens zehn. Außerdem: Warum der Uncanny-Valley-Effekt bei Kinderpornografie plötzlich keine Rolle mehr spielt, weshalb nur ein Prozent der Leute auf Links klickt und was das alles mit eurem Job zu tun hat. Fazit der Folge: Hintern hoch – oder das Opossum macht's vor.
Mehr
KI-Infrastruktur und Umwelt: Was kostet die KI-Revolution?
02.01.2026
39 Minuten
Willkommen zu unserer Erklär-Bär-Folge, in der wir uns die Frage stellen: Killt KI das Klima oder rettet sie es? Spoiler: Es ist kompliziert. Barbara und Jochen tauchen ein in die faszinierende Welt der GPUs, TPUs und CPUs und erklären, warum dein ChatGPT-Prompt nicht das Problem ist, aber die Million anderer Prompts vielleicht schon. Wir reden über Rechenzentren, die mehr Wasser schlucken als eine Badewanne voller Fischchen verkraften würde, über seltene Erden, die nicht vom Himmel fallen, und darüber, warum dein emotionales Attachment zu alten Chat-Verläufen nicht nur ökologisch, sondern vor allem fachlich ein Albtraum ist. Brain First statt LLM-Overkill lautet die Devise. Plus: Warum Barbaras Samsung S25 Ultra nicht gesponsert ist, obwohl sie es sich wünscht, und warum das Opossum das perfekte Spirit Animal für KI-Überforderung ist.
Mehr
KI und Peak LLM: Der Weg zur Allgemeinen Intelligenz
19.12.2025
51 Minuten
KI und Peak LLM: Der Weg zur Allgemeinen Intelligenz Über die Diskussion zwischen Yann LeCun von Meta versus Adam Brown von Googles Deepmind Wer hat Recht im Kampf um die Zukunft der KI? Yann LeCun von Meta und Adam Brown von DeepMind streiten darüber, ob Large Language Models uns zur Allgemeinen Intelligenz führen können – oder ob wir komplett neue Architekturen brauchen. Spoiler: Beide haben verdammt gute Argumente, und wir sortieren für euch den Hype vom Bullshit. In dieser Episode tauchen wir tief ein in die spannendste Debatte der KI-Forschung: Kann Skalierung allein zu AGI führen, oder brauchen wir Weltmodelle und physikalisches Verständnis? Barbara erklärt, warum ein vierjähriges Kind nicht so intelligent wie ein LLM ist (auch wenn beide gleich viele Daten gesehen haben), und Jochen fragt die Fragen, die wir uns alle stellen: Was zur Hölle ist eigentlich "emergentes Verständnis"? Wir klären auf, warum diskrete Token und kontinuierliche Daten nicht dasselbe sind, was Gary Marcus mit Papageien zu tun hat (und warum selbst er das nicht mehr sagt), und ob uns wirklich eine Büroklammer-produzierende KI vernichten wird. Spoiler: Die echte Gefahr liegt woanders – und sie ist schon da.
Mehr

Über diesen Podcast

Mit KI wird alles besser, schneller, effizienter. Also, falls du das blöde Ding mal endlich dazu bringen könntest, das zu tun, was du willst. Keine Sorge, mit diesem Podcast wird jetzt alles gut! Die AI Babsi und der E-Fuchs eilen zu deiner Rettung. Mit einer unterhaltsamen Mischung aus fundiertem, praxistauglichen Wissen und einer kommentierten Führung durch das aktuelle KI-Geschehen leveln die Verhaltensmathematikerin Barbara Lampl (empathic business) und Tech-Journalist Jochen G. Fuchs (W&V) deine KI-Kompetenz bis ins Endgame.

Kommentare (0)

Lade Inhalte...

Abonnenten

lusee
Kleve
15
15