Wenn selber Denken zu unbequem wird: KI, Komfort und kognitive Erosion?

Wenn selber Denken zu unbequem wird: KI, Komfort und kognitive Erosion?

48 Minuten
Podcast
Podcaster

Beschreibung

vor 6 Monaten

Wer heute Texte schreibt, Konzepte entwirft oder Entscheidungen
vorbereitet, tut das immer öfter mit Unterstützung generativer
KI. Die Tools versprechen Effizienz, Struktur, neue Perspektiven
– und liefern oft genau das. Aber was passiert, wenn wir uns zu
sehr darauf verlassen?



In dieser Folge fragen wir: Verlernen wir gerade stillschweigend
das Denken?



Wir sprechen über die psychologischen Mechanismen hinter
Cognitive Offloading, über neue Studien zu kritischer
Urteilskraft im KI-Zeitalter – und darüber, warum eine
Kern-Herausforderung bei KI nicht nur in fehlerhaften oder
problematischen Daten und Tools liegt, sondern vor allem auch in
unserem unkritischen Umgang mit ihr.



Wir diskutieren, wie sich unsere Beziehung zu Wissen, Wahrheit
und Verantwortung verändert, wenn wir Entscheidungen
vorformulieren lassen, Argumente nicht mehr hinterfragen, und
KI-Modelle unter anderem auch mit Desinformationen trainiert
werden.



Und wir klären: Wo liegt die Grenze zwischen hilfreicher
Entlastung und mentaler Entmündigung? 



Eine Folge über Bequemlichkeit, Denkfaulheit, und die unbequeme
Frage, wie viel Autonomie wir bereit sind aufzugeben – für ein
bisschen Text oder ein hübsches Bild auf Knopfdruck. Seid
gespannt auf eine differenzierte Auseinandersetzung – und teilt
eure Gedanken mit uns! Diskutiert auf unseren
Social-Media-Kanälen oder schreibt uns an
codeundkonsequenz@gmail.com oder schaut auf
unserem Insta-Kanal vorbei:
instagram.com/codeundkonsequenz. Wir freuen uns
auf eure Perspektiven!

Links & Referenzen:


Intro-Geschichten: Studio Ghibli,  Y Combinator Supports
AI Startup Dehumanizing Factory Workers (404 Media) - Video /
Optify.ai & Y Combinator Reaktion

Housekeeping: The Unbelievable Scale of AI’s Pirated-Books
Problem (The Atlantic)

Studie: Wie Mitarbeiter generative KI nutzen (Veritas, bei
it-daily.net)

Studie: Längsschnittstudie zur KI-Nutzung bei Studierenden
(Hochschule Darmstadt)

Studie: Jugend, Information, Medien 2024: Medienumgang 12-
bis 19-Jähriger (JIM)

Studie: Verbreitung generativer KI im privaten und
beruflichen Alltag 2024 (Bayerisches Forschungsinstitut für
Digitale Transformation)

Blooms Taxonomie / Bloom’s Taxonomy: Levels of Understanding

Reddit Thread: my little sister's use of chatgpt for homework
is heartbreaking

Studie: AI Tools in Society: Impacts on Cognitive Offloading
and the Future of Critical Thinking (Michael Gerlich, Swiss
Business School)

Studie: The Power of Virtual Influencers: Impact on Consumer
Behaviour and Attitudes in the Age of AI (Michael Gerlich, Swiss
Business School)

Studie: Exploring Motivators for Trust in the Dichotomy of
Human—AI Trust Dynamics(Michael Gerlich, Swiss Business School)

A well-funded Moscow-based global ‘news’ network has infected
Western artificial intelligence tools worldwide with Russian
propaganda (NewsGuard Report)

Studie: The Cybernetic Teammate: A Field Experiment on
Generative AI Reshaping Teamwork and Expertise (Harvard
University, Procter & Gamble)

Studie: The Impact of Generative AI on Critical Thinking:
Self-Reported Reductions in Cognitive Effort and Confidence
Effects From a Survey of Knowledge Workers (Carnegie Mellon / Lee
et all, Microsoft)

Studie: Google it, Critical Thinking and Problem Solving in
the Internet Age (Ali Arya, Luciara Nardon, Carleton University)

Miller’s Law

New Junior Developers Can’t Actually Code (Namanyay Goel)

Die KI-Verdummung (Marko Kovic)




Kommentare (0)

Lade Inhalte...

Abonnenten

15
15