#40 KI lügt - wie Sie im QM-Alltag damit umgehen sollten
27 Minuten
Podcast
Podcaster
Ihr Podcast für praxisnahes und innovatives Qualitätsmanagement
Beschreibung
vor 1 Monat
"Also Chatty hat gesagt..." – kennen Sie diese Sätze auch?
Menschen, die KI völlig unreflektiert nutzen und alles glauben, was
da rauskommt? Diese Episode räumt auf. Mit harten Fakten. Eine
aktuelle Studie der Europäischen Rundfunkunion (EBU) – durchgeführt
von 22 Rundfunkanstalten mit 271 Journalist:innen – zeigt: 45%
aller KI-Antworten enthalten mindestens ein kritisches Problem.
Perplexity liegt bei 46% Fehlerquote, ChatGPT bei 40%, Copilot bei
37%. Am besten schneiden Claude (10%) und Gemini (17%) ab. In
dieser Episode erfahren Sie: Was die Studie wirklich sagt:
Genauigkeit, Quellenangaben, Unterscheidung Fakt/Meinung – wo die
KI versagt (und warum 31% aller Antworten durch falsche Quellen
verfälscht sind) Warum KI halluziniert: Die fünf Hauptgründe - von
schwachen Trainingsdaten bis zu gezielten Desinformationskampagnen
Das Vertrauensproblem: Nur 0,5% der Fragen werden abgelehnt - die
KI antwortet lieber mit Erfindungen als zuzugeben "Ich weiß es
nicht" MQ-Praxistipp: Die 3-Stufen-Recherche-Methode - so nutzen
Sie KI für Benchmarks, Standards und Best Practices ohne auf
Halluzinationen reinzufallen Gute vs. schlechte Anwendungsfälle im
QM: Wo Halluzination stört (Normzuordnungen, Compliance,
Handbuch-Erstellung) und wo sie hilft (Brainstorming, Reflexion,
Szenario-Analyse) Die 5 Lösungen im Detail: RAG, Human-in-the-Loop,
präzise Prompts, Governance & Monitoring – mit konkreten
Umsetzungsbeispielen Diese Episode ist für Sie, wenn: - Sie KI im
QM einsetzen oder einsetzen wollen - Sie unsicher sind, wann Sie
KI-Ergebnissen vertrauen können - Sie nach konkreten Methoden
suchen, um Halluzinationen zu reduzieren - Sie wissen wollen, bei
welchen Aufgaben KI hilft und bei welchen sie schadet Ursulas
persönliche Perspektive: Als begeisterte KI-Nutzerin UND kritische
Beraterin kennt Ursula beide Seiten: Die enormen Chancen von KI im
QM - und die Gefahren des unreflektierten Einsatzes. In dieser
Episode teilt sie nicht nur Studienergebnisse, sondern auch ihre
jahrelange Erfahrung aus Beratung und Training. Shownotes Mehr
Infos zum Thema - Blog, Wiki, Webinare etc. [Blog mit kostenloser
Arbeitshilfe zum
Download](https://www.mq-koeln.de/blog/ki-im-qm-20/managementbewertung-richtig-nutzen-iso-9001-leitfaden-110)
[Nützliches im Shop - Das KI -
Wiki:](https://www.mq-koeln.de/shop/wiki-ki-im-qm-einsetzen-123)
Live-Training zum Thema [Training zum Thema KI im QM
einsetzen](https://www.mq-koeln.de/event/generative-ki-im-qm-nutzen-einstieg-mit-chatgpt-co-02-2026-91/register)
Mehr zu Ursula Wienken [Homepage](https://www.mq-koeln.de) [Ursula
Wienken auf LinkedIn](https://de.linkedin.com/in/ursulawienken)
Ursula Wienken persönlich kennenlernen? [Kennenlernen? Hier lang -
ich freu
mich!](https://calendly.com/wienken/kennenlernen-austausch-information-absprac-klon?)
Ressourcen [Meldung der
Tagesschau-Redaktion](https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html)
[Bericht zur Studie von Heise
Online](https://www.heise.de/news/Europaeische-Rundfunkunion-KI-Systeme-geben-Nachrichteninhalte-oft-falsch-wider-10796779.html)
[Papier der EBU](https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf)
Menschen, die KI völlig unreflektiert nutzen und alles glauben, was
da rauskommt? Diese Episode räumt auf. Mit harten Fakten. Eine
aktuelle Studie der Europäischen Rundfunkunion (EBU) – durchgeführt
von 22 Rundfunkanstalten mit 271 Journalist:innen – zeigt: 45%
aller KI-Antworten enthalten mindestens ein kritisches Problem.
Perplexity liegt bei 46% Fehlerquote, ChatGPT bei 40%, Copilot bei
37%. Am besten schneiden Claude (10%) und Gemini (17%) ab. In
dieser Episode erfahren Sie: Was die Studie wirklich sagt:
Genauigkeit, Quellenangaben, Unterscheidung Fakt/Meinung – wo die
KI versagt (und warum 31% aller Antworten durch falsche Quellen
verfälscht sind) Warum KI halluziniert: Die fünf Hauptgründe - von
schwachen Trainingsdaten bis zu gezielten Desinformationskampagnen
Das Vertrauensproblem: Nur 0,5% der Fragen werden abgelehnt - die
KI antwortet lieber mit Erfindungen als zuzugeben "Ich weiß es
nicht" MQ-Praxistipp: Die 3-Stufen-Recherche-Methode - so nutzen
Sie KI für Benchmarks, Standards und Best Practices ohne auf
Halluzinationen reinzufallen Gute vs. schlechte Anwendungsfälle im
QM: Wo Halluzination stört (Normzuordnungen, Compliance,
Handbuch-Erstellung) und wo sie hilft (Brainstorming, Reflexion,
Szenario-Analyse) Die 5 Lösungen im Detail: RAG, Human-in-the-Loop,
präzise Prompts, Governance & Monitoring – mit konkreten
Umsetzungsbeispielen Diese Episode ist für Sie, wenn: - Sie KI im
QM einsetzen oder einsetzen wollen - Sie unsicher sind, wann Sie
KI-Ergebnissen vertrauen können - Sie nach konkreten Methoden
suchen, um Halluzinationen zu reduzieren - Sie wissen wollen, bei
welchen Aufgaben KI hilft und bei welchen sie schadet Ursulas
persönliche Perspektive: Als begeisterte KI-Nutzerin UND kritische
Beraterin kennt Ursula beide Seiten: Die enormen Chancen von KI im
QM - und die Gefahren des unreflektierten Einsatzes. In dieser
Episode teilt sie nicht nur Studienergebnisse, sondern auch ihre
jahrelange Erfahrung aus Beratung und Training. Shownotes Mehr
Infos zum Thema - Blog, Wiki, Webinare etc. [Blog mit kostenloser
Arbeitshilfe zum
Download](https://www.mq-koeln.de/blog/ki-im-qm-20/managementbewertung-richtig-nutzen-iso-9001-leitfaden-110)
[Nützliches im Shop - Das KI -
Wiki:](https://www.mq-koeln.de/shop/wiki-ki-im-qm-einsetzen-123)
Live-Training zum Thema [Training zum Thema KI im QM
einsetzen](https://www.mq-koeln.de/event/generative-ki-im-qm-nutzen-einstieg-mit-chatgpt-co-02-2026-91/register)
Mehr zu Ursula Wienken [Homepage](https://www.mq-koeln.de) [Ursula
Wienken auf LinkedIn](https://de.linkedin.com/in/ursulawienken)
Ursula Wienken persönlich kennenlernen? [Kennenlernen? Hier lang -
ich freu
mich!](https://calendly.com/wienken/kennenlernen-austausch-information-absprac-klon?)
Ressourcen [Meldung der
Tagesschau-Redaktion](https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html)
[Bericht zur Studie von Heise
Online](https://www.heise.de/news/Europaeische-Rundfunkunion-KI-Systeme-geben-Nachrichteninhalte-oft-falsch-wider-10796779.html)
[Papier der EBU](https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf)
Weitere Episoden
25 Minuten
vor 2 Tagen
19 Minuten
vor 2 Wochen
28 Minuten
vor 1 Monat
16 Minuten
vor 1 Monat
20 Minuten
vor 2 Monaten
In Podcasts werben
Abonnenten
Bad Vilbel, Hesse, Germany
Kommentare (0)