Podcaster
Episoden
19.02.2026
39 Minuten
Mehr Freiheit im Job klingt gut.
Aber Freiheit ohne Verantwortung funktioniert nicht.
In dieser Folge spricht Jan-Arne mit Ika Amonath über neue
Arbeitsmodelle, Remote Work, „Überangestellte“ mit zwei
Vollzeitjobs, Digital Nomads, Kontrollverlust – und darüber,
warum gute Führung heute erwachsene Menschen braucht.
Ist Homeoffice produktiver?
Warum ist Vertrauen kein Kuschelfaktor?
Kann KI eine bessere Führungskraft sein?
Und was bedeutet Verantwortung in einer Arbeitswelt ohne festen
Schreibtisch?
Ein ehrliches, humorvolles und stellenweise unbequemes Gespräch
über Freiheit, Ergebnisorientierung und die Zukunft von Führung.
NZZ-Artikel zu den „Überangestellten“ (Overemployed im
Homeoffice):
https://www.nzz.ch/technologie/beim-luegen-darfst-du-dich-nicht-schlecht-fuehlen-wie-es-manchen-angestellten-gelingt-im-home-office-fuer-zwei-vollzeitstellen-zu-arbeiten-ld.1677534
Gleitzeitbetrug als Kavaliersdelikt?
https://www.galaxus.de/de/page/in-europa-mogeln-4-von-5-bei-der-arbeitszeit-im-homeoffice-41150
Team Canvas, nützlich um virtuell Teams zu schmieden
https://gewert-consulting.de/media/team_model_canvas_1.pdf
Nils v. Quaquebeke et. al zu KI in der Führung
https://journals.sagepub.com/doi/10.1177/15480518231181731?icid=int.sj-abstract.citing-articles.24
Mehr
12.02.2026
60 Sekunden
KI wird oft als reines Technikthema behandelt. Dabeiverändert sie
Entscheidungsprozesse, Verantwortung und Führung.
In Staffel 2 von Mensch & KI geht es um genaudiese Fragen:
Wie verändert Künstliche Intelligenz Unternehmen? Was bedeutetdas
für Geschäftsführer und Führungskräfte? Und wo beginnt
strategischeVerantwortung?
Der Trailer gibt einen kurzen Einblick. Folge 1 erscheintnächste
Woche. Neue Episoden im Zwei-Wochen-Rhythmus.
Kiras Stimme basiert auf der KI Elevenlabs
Mehr
05.02.2026
49 Minuten
Podcast Shownotes: Folge20, Warum KI-Reife immer zuerst bei
Menschen beginnt
MitJan-Arne Gewert und Christian Bernhardt
In dieser rund 50-minütigen Folge sprechen Jan-Arne Gewert und
der Leadership-Experte Christian Bernhardt darüber, warum echte
KI-Reife nicht bei der Technologie anfängt, sondern bei uns
Menschen. Christian Bernhardt istKommunikationspsychologe,
Buchautor, Dozent und Trainer, und teilt in diesem Gespräch seine
Erfahrungen aus der Praxis: von Coaching mit KI über digitale
Zwillinge bis hin zu seinem neuen Fachbuch bei Springer Gabler.
Die beiden diskutieren, wie wichtig es ist, Large Language Models
(LLMs) wie ChatGPT, Claude oder Geminikritisch zu evaluieren und
ihre Grenzen zu kennen. Dabei geht es nicht nur um Technologie,
sondern vor allem um menschliche Kompetenz: Wer KI wirklich
nutzen will, muss verstehen, wo sie hilft und wo sie an ihre
Grenzen stößt.
Zentral ist die Bloom’sche Taxonomie des
Denkens, die verschiedene kognitive Ebenen
unterscheidet:Erinnern, Verstehen und Anwenden funktionieren mit
KI oft gut. Doch bei Analyse, Bewertung und Kreation wird es
schwierig, hier sind Menschen gefragt.Christian erklärt, warum
wir uns nicht von der Vermenschlichung der KI (demsogenannten
Eliza-Effekt) täuschen lassen sollten und wie wichtig es ist, die
Ergebnisse immer selbst zu überprüfen.
KI kritisch nutzen:Wie evaluiert man LLMs?
Christian empfiehlt die Chatbot Arena (lmarena.ai), woman
verschiedene Modelle nebeneinander vergleichen kann. Und er
teiltpraktische Erfahrungen: Für manche Aufgaben nutzt er
ChatGPT, für andere Claudeoder Perplexity, gerade bei
IT-Problemen.
Interaktionsmuster, die funktionieren: Der
sokratische Dialog mit KI kann helfen, bessereErgebnisse zu
erzielen indem man nicht nur Antworten abfragt, sondern die KIzum
kritischen Hinterfragen einsetzt. Wichtig ist auch das Prinzip
des“Human-in-the-Loop”: Mensch und Maschine arbeiten zusammen,
aber der Menschbehält die Kontrolle.
Grenzen verstehen:Studien (etwa von Apple oder
zur Programmierung) zeigen, dass LLMs beikomplexen Denkaufgaben
schnell an ihre Grenzen stoßen. Bei kreativen Prozessenwie
Brainstorming kann KI trotzdem helfen, wenn man weiß, wie man sie
einsetzt.Eine Empfehlung: Besser Fragen sammeln als Ideen, wie es
BCG vorschlägt.
PraktischeBeispiele aus dem Alltag: Christian
berichtet von der Nutzung von GoogleForms für Umfragen,
Excel-Scripts mit Gemini und digitalen Zwillingen, etwa einCEO
einer Spedition, der sein Expertenwissen mit Wissensgraphen von
Blockbrainzugänglich gemacht hat. Solche Projekte zeigen: Die
Datenqualität entscheidetüber Erfolg oder Misserfolg (Garbage in,
Garbage out).
Führung undOrganisation: Wie können Unternehmen
KI sinnvoll integrieren? Christianspricht über Führungsmodelle
(Stefan Merath), Selbstorganisation (FredericLaloux,
Spotify-Modell) und die Bedeutung von Wissensmanagement.
Wichtig:Slop-Texte, also inhaltslose, von KI generierte Texte
ohne echten Mehrwert,sollte man vermeiden.
Der innere Konflikt:KI macht Prozesse
effizienter, aber was passiert mit der Menschennähe? Und
mitArbeitsplätzen? Diese Fragen gehören zur KI-Reife dazu.
Christian plädiert fürkritisches Denken, Durchhaltevermögen
(Grit) und professionelle Distanz zurTechnologie.
Im Gesprächfielen die Namen Marcus Aurelius, Sokrates und Platon,
wobei nur MarcusAurelius tatsächlich ein Stoiker war. Sokrates
und Platon gehören einer anderenphilosophischen Tradition an. Wir
lassen das bewusst so stehen, als lebendigenMoment eines echten
Gesprächs.
Über Christian Bernhardt: -Website:
bernhardt-trainings.com - Bisherige Bücher: “Echte
Wertschätzung”,“Nonverbal Communication in Recruiting” - Neues
Buch: Future Skills imSales/Key Account Management (Springer
Gabler, in Vorbereitung)
Weitere Referenzen: - Schulzvon Thun:
4-Seiten-Modell der Kommunikation - Vorherige Podcast-Folgen
mitMarie Kilk (Deutsche Welle) und Fritz Augenstein (Stuttgart)
Mehr
22.01.2026
47 Minuten
In dieser spannenden Folge spricht Dr. Jan-Arne Gewert mit dem
Mathematiker und KI-Unternehmer Dr. Achim Hornecker aus Freiburg
über AI-Shoring ein Konzept, das den Einsatz von KI vergleicht
mit klassischem Offshoring/Nearshoring, bei dem Aufgaben an
kostengünstigere externe Partner delegiert werden.
Hornecker erklärt, wie Large Language Models (LLMs) heute
Aufgaben übernehmen, die früher an Teams in Niedriglohnländern
ausgelagert wurden.
Die Diskussion dreht sich um Produktivitätsgewinne durch KI
(besonders für gute Entwickler), aktuelle Grenzen von LLMs (z. B.
bei quantitativer Analyse, Mathematik und Hardware-nahen Themen),
Datenschutzrisiken bei großen US-Modellen, Vorteile
europäischer/open-source Lösungen wie Mistral sowie
Zukunftsthemen wie Explainable AI, AGI und
Brain-Computer-Interfaces.
Hornecker betont: Gute Entwickler werden mit KI extremproduktiv,
schlechte können jedoch Chaos anrichten. Strategisch genutzt
führt AI-Shoring nicht nur zu Kosteneinsparungen, sondern zu mehr
Innovation.
Schlusswort von Achim Hornecker:
„Thema KI: Es kommt, es ist gekommen, um zu bleiben. Man sollte
sich damit beschäftigen – ohne Angst, mit hinreichend Neugierde
und Offenheit. Einfach machen.“
Highlights
- AI-Shoring erklärt: Delegation klar abgrenzbarer Aufgaben an KI
statt an Offshore-Teams (z. B. Programmierung, Buchhaltung,
Datenverarbeitung). Analog zu Offshoring, aber "im Haus" mit KI.
- Produktivität: Ein guter Entwickler mit KI kann Teams ersetzen
– aber nur mit menschlicher Kontrolle. Risiko: "Code Collapse"
durch schlechten KI-Einsatz.
- Stärken von LLMs: Ideal für standardisierte Tasks wie
Web-/App-Entwicklung, wo Ergebnisse testbar sind.
- Schwächen: Halluzinationen bei quantitativen Analysen,
Prognosen und fehlenden Trainingsdaten. KI "erfindet" oft
plausibel klingende, aber falsche Ergebnisse.
- Qualitätskontrolle: Menschliche Überwachung essenziell;
KI-gegen-KI-Kontrolle (z. B. adversarielles Testing) hilft, ist
aber keine Allheilslösung. Trend zu Explainable AI (XAI).
- Datenschutz & Souveränität: Risiken bei US-Modellen(z. B.
Cloud Act, Trainingsnutzung von Inputs). Bekanntes Beispiel:
Samsung-Mitarbeiter leakten 2023 versehentlich Quellcode und
Meeting-Notes anChatGPT.
- Europäische Alternativen: Modelle wie Mistral
(europäisch,multilingual) oder self-hosted Open-Source-Modelle
(z. B. Llama) fürDSGVO-Konformität und Datenhoheit.
- Zukunft: AGI als mögliche "Glaubensfrage";Skalierung allein
reicht nicht, qualitative Sprünge nötig. Brain-inspiredAnsätze
(z. B. neuromorphe Chips) spannend, aber oft überhyped. AGI
(ArtificialGeneral Intelligence) ist eine hypothetische Form von
KI, die so intelligentwäre wie ein Mensch – also nicht nur eine
einzelne Aufgabe gut kann, sondernflexibel denken, lernen und
Probleme in ganz unterschiedlichen Bereichen lösenkönnte.
AGI wäre dagegen „allgemein“: Sie könnte – wie ein Mensch –aus
Erfahrungen lernen, Wissen aus einem Bereich (z. B. Physik) auf
einen anderen (z. B. Medizin) anwenden und neueAufgaben
verstehen, ohne extra dafür trainiertworden zu sein.
- Empfehlung für Führungskräfte: Teams in KI-Nutzungschulen,
analytisches Denken fördern – die wichtigste Zukunftskompetenz.
Links & Ressourcen
Zusammenfassung des AGI Artikels des MIT Review
https://www.linkedin.com/pulse/how-agi-became-most-consequential-conspiracy-theory-ok4te/
- Dr. Achim Hornecker:
https://www.hornecker.eu
https://bisigma.de/
- Dr. Jan-Arne Gewert
https://gewert-consulting.de/
- AI-Shoring-Konzept:
https://link.springer.com/article/10.1365/s35764-025-00564-3
- Offshoring nach AI-Shoring
https://www.ness.com/from-offshoring-to-ai-shoring-why-global-delivery-models-are-entering-their-biggest-reset-yet
- Das Ende des Offshoring
https://davidsj.substack.com/p/ai-shoring
Mehr
08.01.2026
40 Minuten
Wichtige Themen und Highlights
• Daten vs. Intuition — Daten geben Orientierung, doch Metriken
als alleiniges Ziel verfälschen oft das eigentliche Ziel
(Goodhart's Law).
• Amazon-Erfahrungen — Data-driven Ansatz im Retail und bei
Alexa: Erfolge und Risiken, z. B. künstlich aufgepumpte
Engagement-Metriken durch unpassende Antworten.
• Intuition als rationaler Prozess — Bauchgefühle beruhen auf
unbewussten Erfahrungen (Beispiel: Evolutionäre
CO₂-Sensibilität).
• Intuition von Tieren, die über menschliche Sensorik hinausgeht.
Z.B. das erkennen von Erbeben, bevor seismische Signale
auftreten.
• Historische Analogien — Der Kanarienvogel als früher
Gefahrensensor – ähnlich warnt Intuition heute.
• KI und Verantwortung — KI als starker Sparringspartner, doch
Verantwortung bleibt menschlich. Risiko: Abgabe an KI oder
Berater.
• Fehler Mensch vs. KI — Menschliche Fehler sind berechenbarer;
KI-Fehler können extrem unvorhersehbar sein (Analogie: Stürmer
breitet Picknickdecke aus).
• Verlust durch Intuitionsverdrängung — Organisationen verlieren
Ziele, Erfahrungswissen und Innovation (Beispiel: Clickbait im
Journalismus).
• Eisenhower-Matrix und Delegieren — Kritik an der klassischen
Matrix (nur Wichtigkeit/Dringlichkeit). Jan-Arne Gewert erweitert
sie um Komplexität und Tragweite (Gewert-Methode): Besser für
Krisen und Team-Bildung geeignet.
• Leitsatz für Führungskräfte — Unter Zeitdruck: Intuition
vertrauen. Bei wichtigen Entscheidungen: Reflektieren, Biases
prüfen, Daten abgleichen.
• Zukunft mit KI — Menschliche Stärken: Lernbereitschaft,
Durchhaltevermögen, Neugier, Sozialkompetenz.
Empfohlene Ressourcen und weiterführende Links
• Marie Kilg DW Innovation: innovation.dw.com/team
• Gewert-Methode zum Delegieren (Erweiterung der
Eisenhower-Matrix): – LinkedIn-Artikel von Dr. Jan-Arne
Gewert:Das Eisenhower Prinzip ist nicht mehr zeitgemäß
PDF-Download: Besser als Eisenhower delegieren Besser als
Eisenhower delegieren
• Goodhart's Law: Wikipedia Wikipedia
• Studie zu Richtern und Pausen: PNAS 2011 PNAS2011
• Max-Planck-Studie zur Vorhersage von Erdbeben mit Tieren
https://www.mpg.de/15126036/erdbeben-vorhersage-mit-tieren
Mehr
Über diesen Podcast
Dieser Podcast bietet praxisnahe Impulse, inspirierende Gäste und
aktuelle Erkenntnisse für modernes Leadership in Zeiten von
Digitalisierung, KI und neuen Arbeitsmodellen.
Kommentare (0)