018 Quicky KI-Revolution 2026 Transparenz, Machtkämpfe und neue Gesetze
2 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Woche
Folgennummer: Q018
Titel: KI-Revolution 2026: Transparenz, Machtkämpfe und
neue Gesetze
Willkommen zu dieser tiefgreifenden Analyse der aktuellen
KI-Landschaft. In dieser Podcast-Folge beleuchten wir die
massiven Verschiebungen in der Welt der Künstlichen Intelligenz –
von den neuen Transparenzgesetzen in Kalifornien
bis hin zu den komplexen Anforderungen des EU AI
Acts und der alles entscheidenden Frage: Wer
kontrolliert die Infrastruktur hinter der Intelligenz?
Was Sie in dieser Folge erwartet:
Training vs. Inferenz – Der wirtschaftliche
Wendepunkt: Wir klären den fundamentalen Unterschied
zwischen der Lernphase (Training) und der Anwendung
(Inferenz) von KI-Modellen. Während das Training hohe
Vorabinvestitionen erfordert, machen die laufenden Kosten der
Inferenz oft 80–90 % der Gesamtkosten eines
KI-Systems aus. Wir besprechen den Trend zum
„Inference-Time Compute Scaling“, bei dem
Modelle wie OpenAI’s o-Serie oder DeepSeek-R1 durch längeres
„Nachdenken“ ihre Leistung steigern, ohne dass ein massives
neues Training nötig ist.
Das Ende der Geheimhaltung? Kaliforniens AB
2013: Ab dem 1. Januar 2026 müssen
Entwickler generativer KI detailliert offenlegen, welche
Daten sie für das Training nutzen. Wir diskutieren, wie
dieses Gesetz das Urheberrecht und den Datenschutz
revolutioniert und was es für Giganten wie OpenAI und Google
bedeutet.
Das KI-Oligopol und die Macht der Hardware:
Die KI-Infrastruktur ist extrem konzentriert. Wenige Firmen
dominieren die Produktion von Mikrochips (NVIDIA, ASML) und
die Cloud-Plattformen (AWS, Azure, Google Cloud). Wir
analysieren die Risiken dieser Marktmacht
für die Demokratie und die wirtschaftliche Gleichheit sowie
den „Antimonopoly-Ansatz“ zur Regulierung.
Sicherheit und „Chain of Thought“: Kann man
einer KI beim Denken zusehen? Wir untersuchen das Potenzial
des CoT-Monitorings (Chain of Thought), um
Fehlverhalten von Modellen zu erkennen, bevor es Schaden
anrichtet, und warum diese Methode dennoch fragil bleibt.
Außerdem stellen wir den BIG-Argument-Ansatz
für KI-Sicherheitsnachweise vor: Balanced, Integrated und
Grounded.
KI in der Medizin – Ein riskantes Feld:
Warum kommen so viele KI-Medizinprodukte ohne klinische
Studien auf den Markt? Wir werfen einen Blick auf die Lücken
im FDA-Zulassungsprozess und die Notwendigkeit einer strengen
Überwachung nach dem Markteintritt (Post-Market
Surveillance), um Patientensicherheit zu garantieren.
DSGVO-Hürden für Sprachmodelle: Das „Recht
auf Vergessenwerden“ kollidiert frontal mit der Architektur
von LLMs. Wir besprechen die technischen Schwierigkeiten,
persönliche Daten aus den Milliarden Parametern eines
trainierten Modells wieder zu löschen.
Diese Folge ist unverzichtbar für Entscheider, Entwickler und
alle, die verstehen wollen, wie die rechtlichen und technischen
Leitplanken der Zukunft aussehen. Die Ära der
„Blackbox-KI“ neigt sich dem Ende zu – seien Sie bereit für das
Zeitalter der Transparenz.
(Hinweis: Diese Podcast-Folge wurde mit
Unterstützung und Strukturierung durch Google's NotebookLM
erstellt.)
Weitere Episoden
2 Minuten
vor 2 Tagen
16 Minuten
vor 6 Tagen
19 Minuten
vor 1 Woche
2 Minuten
vor 2 Wochen
18 Minuten
vor 2 Wochen
In Podcasts werben
Kommentare (0)