Episoden

019 Quicky KI-Revolution Bildung Wie ChatGPT & AI Act Schulen & Unis verändern
16.02.2026
2 Minuten
Folgennummer: Q019  Titel: KI-Revolution Bildung: Wie ChatGPT & AI Act Schulen & Unis verändern Willkommen zu einer neuen Folge, in der wir tief in die digitale Transformation des Bildungswesens eintauchen. Seit der Veröffentlichung von ChatGPT ist nichts mehr, wie es war: Künstliche Intelligenz ist nicht länger ein Zukunftsszenario, sondern Realität in Klassenzimmern und Hörsälen im gesamten DACH-Raum. Doch wie navigieren wir zwischen Innovationsdrang und der Sorge vor Kompetenzverlust? In dieser Episode beleuchten wir die strukturelle, didaktische und ethische Neuordnung unserer Bildungssysteme. Wir werfen einen Blick auf den EU AI Act, der als verbindliches Regelwerk weitreichende Folgen für Hochschulen und Schulen hat, indem er Sicherheit, Transparenz und ethische Standards für KI-Systeme einfordert. Die Schwerpunkte dieser Folge: Lernen mit der KI als „Sparringspartner“: Erfahren Sie, wie generative KI als Tutor, Schreib-Buddy oder Motivator fungieren kann, um individuelles Lernen zu fördern und Denkprozesse herauszufordern, anstatt sie nur zu ersetzen. Die Gefahr des „Skill Skipping“: Was können Lehrpersonen tun, damit Schüler:innen wichtige Lernschritte nicht einfach überspringen? Wir diskutieren das Spannungsfeld zwischen Effizienzsteigerung und dem Verlust grundlegender Fertigkeiten. Wandel der Prüfungskultur: Weg vom reinen Faktenabfragen, hin zu digitalen kompetenzorientierten Prüfungen. Wir stellen Good Practices wie E-Portfolios, Open-Book-Klausuren und EXaHM-Systeme vor, die den Transfer von Wissen in reale Kontexte prüfen. Akademische Integrität & Transparenz: Wie gehen Institutionen wie die ETH Zürich oder die ZHAW mit der Deklarationspflicht für KI-Inhalte um? Wir besprechen, warum Integrität heute eine Frage der inneren Haltung ist. Digital Leadership: Warum die digitale Transformation nicht bei der Hardware endet, sondern eine neue Führungskultur und Professionalisierung der Lehrkräfte erfordert. Wir schauen uns zudem konkrete länderübergreifende Projekte wie AIS (Adaptives Intelligentes System) und bundeslandspezifische Ansätze wie den sächsischen KI-Assistenten KAI oder das bayerische ByLKI an. Egal ob Sie Lehrkraft, Studierende, Elternteil oder bildungspolitisch interessiert sind – diese Folge bietet Ihnen fundierte Einblicke in die Zukunft der Bildung in Deutschland, Österreich und der Schweiz. Wir analysieren aktuelle Studien zur Qualität von KI-Feedback und diskutieren, warum menschliche Expertise gerade im Zeitalter von Algorithmen unverzichtbar bleibt. Jetzt reinhören und die Bildungsrevolution verstehen! #KIimUnterricht #ChatGPT #Bildung #Digitalisierung #AIAct #DACH #Hochschule #Lehramt #ZukunftLernen #Didaktik (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)
Mehr
018 KI-Revolution 2026 Transparenz, Machtkämpfe und neue Gesetze
12.02.2026
16 Minuten
(0:00) Einleitung Begrüßung und das Ende des Dogmas „Größer ist besser“. (1:20) Die alte Welt & EU-AI-ActÜber das klassische Training, Scaling Laws und Regulierung per Rechenleistung. (3:38) Was ist Inferenz?Der Wechsel vom Bau der Fabrik (Training) zum laufenden Betrieb (Inferenz). (5:17) Chain of ThoughtWarum „längeres Nachdenken“ kleine Modelle extrem leistungsfähig macht. (7:19) Markt & MachtverhältnisseDemokratisierungschancen vs. neue Hardware-Engpässe bei Big Tech. (9:44) Regulatorisches DilemmaWarum statische Gesetze mit der dynamischen Inferenz-Nutzung überfordert sind. (11:07) KI vs. Datenschutz (DSGVO)Das Problem, Daten aus einem fertigen Modell zu löschen („Kuchen-Analogie“). (12:32) Transparenzpflichten 2025Neue Regeln zur Offenlegung von Datenquellen und deren Grenzen. (13:42) Fazit & AusblickZusammenfassung der tektonischen Verschiebung in der KI-Governance. Folgennummer: L018  Titel: KI-Revolution 2026: Transparenz, Machtkämpfe und neue Gesetze Willkommen zu dieser tiefgreifenden Analyse der aktuellen KI-Landschaft. In dieser Podcast-Folge beleuchten wir die massiven Verschiebungen in der Welt der Künstlichen Intelligenz – von den neuen Transparenzgesetzen in Kalifornien bis hin zu den komplexen Anforderungen des EU AI Acts und der alles entscheidenden Frage: Wer kontrolliert die Infrastruktur hinter der Intelligenz? Was Sie in dieser Folge erwartet: Training vs. Inferenz – Der wirtschaftliche Wendepunkt: Wir klären den fundamentalen Unterschied zwischen der Lernphase (Training) und der Anwendung (Inferenz) von KI-Modellen. Während das Training hohe Vorabinvestitionen erfordert, machen die laufenden Kosten der Inferenz oft 80–90 % der Gesamtkosten eines KI-Systems aus. Wir besprechen den Trend zum „Inference-Time Compute Scaling“, bei dem Modelle wie OpenAI’s o-Serie oder DeepSeek-R1 durch längeres „Nachdenken“ ihre Leistung steigern, ohne dass ein massives neues Training nötig ist. Das Ende der Geheimhaltung? Kaliforniens AB 2013: Ab dem 1. Januar 2026 müssen Entwickler generativer KI detailliert offenlegen, welche Daten sie für das Training nutzen. Wir diskutieren, wie dieses Gesetz das Urheberrecht und den Datenschutz revolutioniert und was es für Giganten wie OpenAI und Google bedeutet. Das KI-Oligopol und die Macht der Hardware: Die KI-Infrastruktur ist extrem konzentriert. Wenige Firmen dominieren die Produktion von Mikrochips (NVIDIA, ASML) und die Cloud-Plattformen (AWS, Azure, Google Cloud). Wir analysieren die Risiken dieser Marktmacht für die Demokratie und die wirtschaftliche Gleichheit sowie den „Antimonopoly-Ansatz“ zur Regulierung. Sicherheit und „Chain of Thought“: Kann man einer KI beim Denken zusehen? Wir untersuchen das Potenzial des CoT-Monitorings (Chain of Thought), um Fehlverhalten von Modellen zu erkennen, bevor es Schaden anrichtet, und warum diese Methode dennoch fragil bleibt. Außerdem stellen wir den BIG-Argument-Ansatz für KI-Sicherheitsnachweise vor: Balanced, Integrated und Grounded. KI in der Medizin – Ein riskantes Feld: Warum kommen so viele KI-Medizinprodukte ohne klinische Studien auf den Markt? Wir werfen einen Blick auf die Lücken im FDA-Zulassungsprozess und die Notwendigkeit einer strengen Überwachung nach dem Markteintritt (Post-Market Surveillance), um Patientensicherheit zu garantieren. DSGVO-Hürden für Sprachmodelle: Das „Recht auf Vergessenwerden“ kollidiert frontal mit der Architektur von LLMs. Wir besprechen die technischen Schwierigkeiten, persönliche Daten aus den Milliarden Parametern eines trainierten Modells wieder zu löschen. Diese Folge ist unverzichtbar für Entscheider, Entwickler und alle, die verstehen wollen, wie die rechtlichen und technischen Leitplanken der Zukunft aussehen. Die Ära der „Blackbox-KI“ neigt sich dem Ende zu – seien Sie bereit für das Zeitalter der Transparenz. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)
Mehr
018 Quicky KI-Revolution 2026 Transparenz, Machtkämpfe und neue Gesetze
09.02.2026
2 Minuten
Folgennummer: Q018 Titel: KI-Revolution 2026: Transparenz, Machtkämpfe und neue Gesetze Willkommen zu dieser tiefgreifenden Analyse der aktuellen KI-Landschaft. In dieser Podcast-Folge beleuchten wir die massiven Verschiebungen in der Welt der Künstlichen Intelligenz – von den neuen Transparenzgesetzen in Kalifornien bis hin zu den komplexen Anforderungen des EU AI Acts und der alles entscheidenden Frage: Wer kontrolliert die Infrastruktur hinter der Intelligenz? Was Sie in dieser Folge erwartet: Training vs. Inferenz – Der wirtschaftliche Wendepunkt: Wir klären den fundamentalen Unterschied zwischen der Lernphase (Training) und der Anwendung (Inferenz) von KI-Modellen. Während das Training hohe Vorabinvestitionen erfordert, machen die laufenden Kosten der Inferenz oft 80–90 % der Gesamtkosten eines KI-Systems aus. Wir besprechen den Trend zum „Inference-Time Compute Scaling“, bei dem Modelle wie OpenAI’s o-Serie oder DeepSeek-R1 durch längeres „Nachdenken“ ihre Leistung steigern, ohne dass ein massives neues Training nötig ist. Das Ende der Geheimhaltung? Kaliforniens AB 2013: Ab dem 1. Januar 2026 müssen Entwickler generativer KI detailliert offenlegen, welche Daten sie für das Training nutzen. Wir diskutieren, wie dieses Gesetz das Urheberrecht und den Datenschutz revolutioniert und was es für Giganten wie OpenAI und Google bedeutet. Das KI-Oligopol und die Macht der Hardware: Die KI-Infrastruktur ist extrem konzentriert. Wenige Firmen dominieren die Produktion von Mikrochips (NVIDIA, ASML) und die Cloud-Plattformen (AWS, Azure, Google Cloud). Wir analysieren die Risiken dieser Marktmacht für die Demokratie und die wirtschaftliche Gleichheit sowie den „Antimonopoly-Ansatz“ zur Regulierung. Sicherheit und „Chain of Thought“: Kann man einer KI beim Denken zusehen? Wir untersuchen das Potenzial des CoT-Monitorings (Chain of Thought), um Fehlverhalten von Modellen zu erkennen, bevor es Schaden anrichtet, und warum diese Methode dennoch fragil bleibt. Außerdem stellen wir den BIG-Argument-Ansatz für KI-Sicherheitsnachweise vor: Balanced, Integrated und Grounded. KI in der Medizin – Ein riskantes Feld: Warum kommen so viele KI-Medizinprodukte ohne klinische Studien auf den Markt? Wir werfen einen Blick auf die Lücken im FDA-Zulassungsprozess und die Notwendigkeit einer strengen Überwachung nach dem Markteintritt (Post-Market Surveillance), um Patientensicherheit zu garantieren. DSGVO-Hürden für Sprachmodelle: Das „Recht auf Vergessenwerden“ kollidiert frontal mit der Architektur von LLMs. Wir besprechen die technischen Schwierigkeiten, persönliche Daten aus den Milliarden Parametern eines trainierten Modells wieder zu löschen. Diese Folge ist unverzichtbar für Entscheider, Entwickler und alle, die verstehen wollen, wie die rechtlichen und technischen Leitplanken der Zukunft aussehen. Die Ära der „Blackbox-KI“ neigt sich dem Ende zu – seien Sie bereit für das Zeitalter der Transparenz. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)
Mehr
017 Digitale Inzucht & Model Collapse: Das Ende des echten Internets?
05.02.2026
19 Minuten
Folgennummer: L017  Titel: Digitale Inzucht & Model Collapse: Das Ende des echten Internets? Das Internet steht vor einem Wendepunkt. Während Big-Tech-Giganten wie Google, Microsoft und Meta bis 2026 voraussichtlich über 500 Milliarden US-Dollar in KI-Infrastruktur investieren, droht dem digitalen Ökosystem der „Model Collapse“. In dieser Folge analysieren wir das Phänomen der „Digitalen Inzucht“ und warum das World Wide Web Gefahr läuft, in einer autophagen Schleife aus synthetischem Einheitsbrei zu versinken. Was dich in dieser Folge erwartet: Der Aufstieg von „AI Slop“: Experten schätzen, dass bis 2026 bis zu 90 % aller Online-Inhalte KI-generiert sein könnten. Wir klären, was hinter diesem „digitalen Mikroplastik“ steckt und wie minderwertiger Content die Integrität unserer Kommunikation vergiftet. Model Collapse erklärt: Basierend auf einer aktuellen Nature-Studie diskutieren wir, warum KI-Modelle degradieren und ihre „Identität“ vergessen, wenn sie rekursiv mit synthetischen Daten trainiert werden. Was passiert, wenn Nuancen und seltene Meinungen – die sogenannten „Tails“ – einfach verschwinden?. Der linguistische Fingerabdruck: Warum Begriffe wie „delve into“ oder „explore“ plötzlich das Web überfluten und was das über die stille Übernahme durch Large Language Models (LLMs) aussagt. Journalismus als „sauberes Wasser“: In einem Ozean aus Fake-News und Deepfakes wird menschlicher Journalismus zur überlebenswichtigen Ressource. Wir besprechen, warum echte Reporter die einzige Barriere gegen den totalen Informationskollaps sind. Wirtschaft vs. Realität: Trotz gigantischer Investitionen bleibt der reale wirtschaftliche Nutzen von KI oft hinter den Erwartungen zurück. Wir werfen einen Blick auf die Robotaxi-Kriege zwischen Waymo, Tesla und chinesischen Playern wie Pony.ai. Die „Epistemische Steuer“: Wie viel wird es uns in Zukunft kosten, die Wahrheit überhaupt noch verifizieren zu können?. Warum du diese Folge hören solltest: Wenn du verstehen willst, warum wir uns in Richtung einer „Synthetischen Realität“ bewegen und wie du in Zeiten von Hyperpersonalisierung und algorithmischer Manipulation deine „epistemische Hygiene“ bewahrst, ist diese Analyse unverzichtbar. Jetzt abonnieren und eintauchen in die kritischste Debatte der Tech-Welt! #KI #KünstlicheIntelligenz #ModelCollapse #AISlop #TechTrends2026 #Journalismus #DigitaleInzucht #Deepfakes #FutureOfTech #Innovation #DataScience #Robotaxi #TechPodcast (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)
Mehr
017 Quicky Digitale Inzucht & Model Collapse Das Ende des echten Internets?
02.02.2026
2 Minuten
Folgennummer: Q017  Titel: Digitale Inzucht & Model Collapse: Das Ende des echten Internets? Das Internet steht vor einem Wendepunkt. Während Big-Tech-Giganten wie Google, Microsoft und Meta bis 2026 voraussichtlich über 500 Milliarden US-Dollar in KI-Infrastruktur investieren, droht dem digitalen Ökosystem der „Model Collapse“. In dieser Folge analysieren wir das Phänomen der „Digitalen Inzucht“ und warum das World Wide Web Gefahr läuft, in einer autophagen Schleife aus synthetischem Einheitsbrei zu versinken. Was dich in dieser Folge erwartet: Der Aufstieg von „AI Slop“: Experten schätzen, dass bis 2026 bis zu 90 % aller Online-Inhalte KI-generiert sein könnten. Wir klären, was hinter diesem „digitalen Mikroplastik“ steckt und wie minderwertiger Content die Integrität unserer Kommunikation vergiftet. Model Collapse erklärt: Basierend auf einer aktuellen Nature-Studie diskutieren wir, warum KI-Modelle degradieren und ihre „Identität“ vergessen, wenn sie rekursiv mit synthetischen Daten trainiert werden. Was passiert, wenn Nuancen und seltene Meinungen – die sogenannten „Tails“ – einfach verschwinden?. Der linguistische Fingerabdruck: Warum Begriffe wie „delve into“ oder „explore“ plötzlich das Web überfluten und was das über die stille Übernahme durch Large Language Models (LLMs) aussagt. Journalismus als „sauberes Wasser“: In einem Ozean aus Fake-News und Deepfakes wird menschlicher Journalismus zur überlebenswichtigen Ressource. Wir besprechen, warum echte Reporter die einzige Barriere gegen den totalen Informationskollaps sind. Wirtschaft vs. Realität: Trotz gigantischer Investitionen bleibt der reale wirtschaftliche Nutzen von KI oft hinter den Erwartungen zurück. Wir werfen einen Blick auf die Robotaxi-Kriege zwischen Waymo, Tesla und chinesischen Playern wie Pony.ai. Die „Epistemische Steuer“: Wie viel wird es uns in Zukunft kosten, die Wahrheit überhaupt noch verifizieren zu können?. Warum du diese Folge hören solltest: Wenn du verstehen willst, warum wir uns in Richtung einer „Synthetischen Realität“ bewegen und wie du in Zeiten von Hyperpersonalisierung und algorithmischer Manipulation deine „epistemische Hygiene“ bewahrst, ist diese Analyse unverzichtbar. Jetzt abonnieren und eintauchen in die kritischste Debatte der Tech-Welt! #KI #KünstlicheIntelligenz #ModelCollapse #AISlop #TechTrends2026 #Journalismus #DigitaleInzucht #Deepfakes #FutureOfTech #Innovation #DataScience #Robotaxi #TechPodcast (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)
Mehr

Über diesen Podcast

KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15