Mensch und KI - NEXT LEVEL LEADERSHIP

Mensch und KI - NEXT LEVEL LEADERSHIP

Podcaster
JAG

JAG
Weil am Rhein

Episoden

Mit großer Freiheit kommt große Verantwortung – Neue Arbeitsmodelle mit Ika Amonath
19.02.2026
39 Minuten
Mehr Freiheit im Job klingt gut. Aber Freiheit ohne Verantwortung funktioniert nicht. In dieser Folge spricht Jan-Arne mit Ika Amonath über neue Arbeitsmodelle, Remote Work, „Überangestellte“ mit zwei Vollzeitjobs, Digital Nomads, Kontrollverlust – und darüber, warum gute Führung heute erwachsene Menschen braucht. Ist Homeoffice produktiver? Warum ist Vertrauen kein Kuschelfaktor? Kann KI eine bessere Führungskraft sein? Und was bedeutet Verantwortung in einer Arbeitswelt ohne festen Schreibtisch? Ein ehrliches, humorvolles und stellenweise unbequemes Gespräch über Freiheit, Ergebnisorientierung und die Zukunft von Führung. NZZ-Artikel zu den „Überangestellten“ (Overemployed im Homeoffice): https://www.nzz.ch/technologie/beim-luegen-darfst-du-dich-nicht-schlecht-fuehlen-wie-es-manchen-angestellten-gelingt-im-home-office-fuer-zwei-vollzeitstellen-zu-arbeiten-ld.1677534 Gleitzeitbetrug als Kavaliersdelikt? https://www.galaxus.de/de/page/in-europa-mogeln-4-von-5-bei-der-arbeitszeit-im-homeoffice-41150 Team Canvas, nützlich um virtuell Teams zu schmieden https://gewert-consulting.de/media/team_model_canvas_1.pdf Nils v. Quaquebeke et. al zu KI in der Führung https://journals.sagepub.com/doi/10.1177/15480518231181731?icid=int.sj-abstract.citing-articles.24
Mehr
Trailer Staffel 2 – Warum KI kein Technikthema ist
12.02.2026
60 Sekunden
KI wird oft als reines Technikthema behandelt. Dabeiverändert sie Entscheidungsprozesse, Verantwortung und Führung. In Staffel 2 von Mensch & KI geht es um genaudiese Fragen: Wie verändert Künstliche Intelligenz Unternehmen? Was bedeutetdas für Geschäftsführer und Führungskräfte? Und wo beginnt strategischeVerantwortung? Der Trailer gibt einen kurzen Einblick. Folge 1 erscheintnächste Woche. Neue Episoden im Zwei-Wochen-Rhythmus.   Kiras Stimme basiert auf der KI Elevenlabs
Mehr
Warum KI-Reife immer zuerst bei Menschen beginnt
05.02.2026
49 Minuten
Podcast Shownotes: Folge20, Warum KI-Reife immer zuerst bei Menschen beginnt MitJan-Arne Gewert und Christian Bernhardt In dieser rund 50-minütigen Folge sprechen Jan-Arne Gewert und der Leadership-Experte Christian Bernhardt darüber, warum echte KI-Reife nicht bei der Technologie anfängt, sondern bei uns Menschen. Christian Bernhardt istKommunikationspsychologe, Buchautor, Dozent und Trainer, und teilt in diesem Gespräch seine Erfahrungen aus der Praxis: von Coaching mit KI über digitale Zwillinge bis hin zu seinem neuen Fachbuch bei Springer Gabler. Die beiden diskutieren, wie wichtig es ist, Large Language Models (LLMs) wie ChatGPT, Claude oder Geminikritisch zu evaluieren und ihre Grenzen zu kennen. Dabei geht es nicht nur um Technologie, sondern vor allem um menschliche Kompetenz: Wer KI wirklich nutzen will, muss verstehen, wo sie hilft und wo sie an ihre Grenzen stößt. Zentral ist die Bloom’sche Taxonomie des Denkens, die verschiedene kognitive Ebenen unterscheidet:Erinnern, Verstehen und Anwenden funktionieren mit KI oft gut. Doch bei Analyse, Bewertung und Kreation wird es schwierig, hier sind Menschen gefragt.Christian erklärt, warum wir uns nicht von der Vermenschlichung der KI (demsogenannten Eliza-Effekt) täuschen lassen sollten und wie wichtig es ist, die Ergebnisse immer selbst zu überprüfen. KI kritisch nutzen:Wie evaluiert man LLMs? Christian empfiehlt die Chatbot Arena (lmarena.ai), woman verschiedene Modelle nebeneinander vergleichen kann. Und er teiltpraktische Erfahrungen: Für manche Aufgaben nutzt er ChatGPT, für andere Claudeoder Perplexity, gerade bei IT-Problemen. Interaktionsmuster, die funktionieren: Der sokratische Dialog mit KI kann helfen, bessereErgebnisse zu erzielen indem man nicht nur Antworten abfragt, sondern die KIzum kritischen Hinterfragen einsetzt. Wichtig ist auch das Prinzip des“Human-in-the-Loop”: Mensch und Maschine arbeiten zusammen, aber der Menschbehält die Kontrolle. Grenzen verstehen:Studien (etwa von Apple oder zur Programmierung) zeigen, dass LLMs beikomplexen Denkaufgaben schnell an ihre Grenzen stoßen. Bei kreativen Prozessenwie Brainstorming kann KI trotzdem helfen, wenn man weiß, wie man sie einsetzt.Eine Empfehlung: Besser Fragen sammeln als Ideen, wie es BCG vorschlägt. PraktischeBeispiele aus dem Alltag: Christian berichtet von der Nutzung von GoogleForms für Umfragen, Excel-Scripts mit Gemini und digitalen Zwillingen, etwa einCEO einer Spedition, der sein Expertenwissen mit Wissensgraphen von Blockbrainzugänglich gemacht hat. Solche Projekte zeigen: Die Datenqualität entscheidetüber Erfolg oder Misserfolg (Garbage in, Garbage out). Führung undOrganisation: Wie können Unternehmen KI sinnvoll integrieren? Christianspricht über Führungsmodelle (Stefan Merath), Selbstorganisation (FredericLaloux, Spotify-Modell) und die Bedeutung von Wissensmanagement. Wichtig:Slop-Texte, also inhaltslose, von KI generierte Texte ohne echten Mehrwert,sollte man vermeiden. Der innere Konflikt:KI macht Prozesse effizienter, aber was passiert mit der Menschennähe? Und mitArbeitsplätzen? Diese Fragen gehören zur KI-Reife dazu. Christian plädiert fürkritisches Denken, Durchhaltevermögen (Grit) und professionelle Distanz zurTechnologie. Im Gesprächfielen die Namen Marcus Aurelius, Sokrates und Platon, wobei nur MarcusAurelius tatsächlich ein Stoiker war. Sokrates und Platon gehören einer anderenphilosophischen Tradition an. Wir lassen das bewusst so stehen, als lebendigenMoment eines echten Gesprächs. Über Christian Bernhardt: -Website: bernhardt-trainings.com - Bisherige Bücher: “Echte Wertschätzung”,“Nonverbal Communication in Recruiting” - Neues Buch: Future Skills imSales/Key Account Management (Springer Gabler, in Vorbereitung) Weitere Referenzen: - Schulzvon Thun: 4-Seiten-Modell der Kommunikation - Vorherige Podcast-Folgen mitMarie Kilk (Deutsche Welle) und Fritz Augenstein (Stuttgart)
Mehr
AI-Shoring – Die Zukunft der Produktivität
22.01.2026
47 Minuten
In dieser spannenden Folge spricht Dr. Jan-Arne Gewert mit dem Mathematiker und KI-Unternehmer Dr. Achim Hornecker aus Freiburg über AI-Shoring ein Konzept, das den Einsatz von KI vergleicht mit klassischem Offshoring/Nearshoring, bei dem Aufgaben an kostengünstigere externe Partner delegiert werden. Hornecker erklärt, wie Large Language Models (LLMs) heute Aufgaben übernehmen, die früher an Teams in Niedriglohnländern ausgelagert wurden.   Die Diskussion dreht sich um Produktivitätsgewinne durch KI (besonders für gute Entwickler), aktuelle Grenzen von LLMs (z. B. bei quantitativer Analyse, Mathematik und Hardware-nahen Themen), Datenschutzrisiken bei großen US-Modellen, Vorteile europäischer/open-source Lösungen wie Mistral sowie Zukunftsthemen wie Explainable AI, AGI und Brain-Computer-Interfaces.   Hornecker betont: Gute Entwickler werden mit KI extremproduktiv, schlechte können jedoch Chaos anrichten. Strategisch genutzt führt AI-Shoring nicht nur zu Kosteneinsparungen, sondern zu mehr Innovation.   Schlusswort von Achim Hornecker: „Thema KI: Es kommt, es ist gekommen, um zu bleiben. Man sollte sich damit beschäftigen – ohne Angst, mit hinreichend Neugierde und Offenheit. Einfach machen.“   Highlights - AI-Shoring erklärt: Delegation klar abgrenzbarer Aufgaben an KI statt an Offshore-Teams (z. B. Programmierung, Buchhaltung, Datenverarbeitung). Analog zu Offshoring, aber "im Haus" mit KI. - Produktivität: Ein guter Entwickler mit KI kann Teams ersetzen – aber nur mit menschlicher Kontrolle. Risiko: "Code Collapse" durch schlechten KI-Einsatz. - Stärken von LLMs: Ideal für standardisierte Tasks wie Web-/App-Entwicklung, wo Ergebnisse testbar sind. - Schwächen: Halluzinationen bei quantitativen Analysen, Prognosen und fehlenden Trainingsdaten. KI "erfindet" oft plausibel klingende, aber falsche Ergebnisse. - Qualitätskontrolle: Menschliche Überwachung essenziell; KI-gegen-KI-Kontrolle (z. B. adversarielles Testing) hilft, ist aber keine Allheilslösung. Trend zu Explainable AI (XAI). - Datenschutz & Souveränität: Risiken bei US-Modellen(z. B. Cloud Act, Trainingsnutzung von Inputs). Bekanntes Beispiel: Samsung-Mitarbeiter leakten 2023 versehentlich Quellcode und Meeting-Notes anChatGPT. - Europäische Alternativen: Modelle wie Mistral (europäisch,multilingual) oder self-hosted Open-Source-Modelle (z. B. Llama) fürDSGVO-Konformität und Datenhoheit. - Zukunft: AGI als mögliche "Glaubensfrage";Skalierung allein reicht nicht, qualitative Sprünge nötig. Brain-inspiredAnsätze (z. B. neuromorphe Chips) spannend, aber oft überhyped. AGI (ArtificialGeneral Intelligence) ist eine hypothetische Form von KI, die so intelligentwäre wie ein Mensch – also nicht nur eine einzelne Aufgabe gut kann, sondernflexibel denken, lernen und Probleme in ganz unterschiedlichen Bereichen lösenkönnte. AGI wäre dagegen „allgemein“: Sie könnte – wie ein Mensch –aus Erfahrungen lernen, Wissen aus einem Bereich (z. B. Physik) auf einen anderen (z. B. Medizin) anwenden und neueAufgaben verstehen, ohne extra dafür trainiertworden zu sein. ​ - Empfehlung für Führungskräfte: Teams in KI-Nutzungschulen, analytisches Denken fördern – die wichtigste Zukunftskompetenz.   Links & Ressourcen   Zusammenfassung des AGI Artikels des MIT Review https://www.linkedin.com/pulse/how-agi-became-most-consequential-conspiracy-theory-ok4te/ - Dr. Achim Hornecker: https://www.hornecker.eu https://bisigma.de/ - Dr. Jan-Arne Gewert https://gewert-consulting.de/ - AI-Shoring-Konzept: https://link.springer.com/article/10.1365/s35764-025-00564-3 -  Offshoring nach AI-Shoring https://www.ness.com/from-offshoring-to-ai-shoring-why-global-delivery-models-are-entering-their-biggest-reset-yet - Das Ende des Offshoring https://davidsj.substack.com/p/ai-shoring
Mehr
Wenn Daten Entscheidungen lenken, bleibt die Intuition relevant mit Marie Kilg
08.01.2026
40 Minuten
Wichtige Themen und Highlights • Daten vs. Intuition — Daten geben Orientierung, doch Metriken als alleiniges Ziel verfälschen oft das eigentliche Ziel (Goodhart's Law). • Amazon-Erfahrungen — Data-driven Ansatz im Retail und bei Alexa: Erfolge und Risiken, z. B. künstlich aufgepumpte Engagement-Metriken durch unpassende Antworten. • Intuition als rationaler Prozess — Bauchgefühle beruhen auf unbewussten Erfahrungen (Beispiel: Evolutionäre CO₂-Sensibilität). • Intuition von Tieren, die über menschliche Sensorik hinausgeht. Z.B. das erkennen von Erbeben, bevor seismische Signale auftreten. • Historische Analogien — Der Kanarienvogel als früher Gefahrensensor – ähnlich warnt Intuition heute. • KI und Verantwortung — KI als starker Sparringspartner, doch Verantwortung bleibt menschlich. Risiko: Abgabe an KI oder Berater. • Fehler Mensch vs. KI — Menschliche Fehler sind berechenbarer; KI-Fehler können extrem unvorhersehbar sein (Analogie: Stürmer breitet Picknickdecke aus). • Verlust durch Intuitionsverdrängung — Organisationen verlieren Ziele, Erfahrungswissen und Innovation (Beispiel: Clickbait im Journalismus). • Eisenhower-Matrix und Delegieren — Kritik an der klassischen Matrix (nur Wichtigkeit/Dringlichkeit). Jan-Arne Gewert erweitert sie um Komplexität und Tragweite (Gewert-Methode): Besser für Krisen und Team-Bildung geeignet. • Leitsatz für Führungskräfte — Unter Zeitdruck: Intuition vertrauen. Bei wichtigen Entscheidungen: Reflektieren, Biases prüfen, Daten abgleichen. • Zukunft mit KI — Menschliche Stärken: Lernbereitschaft, Durchhaltevermögen, Neugier, Sozialkompetenz. Empfohlene Ressourcen und weiterführende Links • Marie Kilg DW Innovation: innovation.dw.com/team • Gewert-Methode zum Delegieren (Erweiterung der Eisenhower-Matrix): – LinkedIn-Artikel von Dr. Jan-Arne Gewert:Das Eisenhower Prinzip ist nicht mehr zeitgemäß PDF-Download: Besser als Eisenhower delegieren Besser als Eisenhower delegieren • Goodhart's Law: Wikipedia Wikipedia • Studie zu Richtern und Pausen: PNAS 2011 PNAS2011 • Max-Planck-Studie zur Vorhersage von Erdbeben mit Tieren https://www.mpg.de/15126036/erdbeben-vorhersage-mit-tieren
Mehr

Über diesen Podcast

Dieser Podcast bietet praxisnahe Impulse, inspirierende Gäste und aktuelle Erkenntnisse für modernes Leadership in Zeiten von Digitalisierung, KI und neuen Arbeitsmodellen.

Kommentare (0)

Lade Inhalte...

Abonnenten

JAG
Weil am Rhein
AKluge
Mittweida
Zwerg1
Dessau-Roßlau
15
15