Podcaster
Episoden
10.10.2025
1 Stunde 4 Minuten
Wie wurde – und wird – über die Tech-Industrie berichtet? Wer hat
welche Narrative geprägt – und mit welchen Folgen für unser
gesellschaftliches Bild von Technologie? In dieser Folge werfen
wir einen kritischen Blick auf über 30 Jahre
Tech-Berichterstattung: Von den euphorischen Startup-Stories der
1990er bis zu heutigen Watchdog-Formaten. Wir diskutieren, wie
sich Medienhäuser, Journalist*innen und Plattformen im Lauf der
Zeit positioniert haben: mal als Sprachrohr, mal als Aufdecker.
Was lief schief in der Dotcom-Blase, bei Theranos oder Uber? Was
können wir lernen, für eine redlichere, faktenbasierte und
gesellschaftlich verantwortliche Berichterstattung über digitale
Technologien?
Wir sprechen unter anderem über:
Wie die mediale Euphorie der 90er die Dotcom-Blase
mitbefeuerte
Technik-Utopismus: Warum Fortschritt selten kritisch
hinterfragt wurde
Das Verhältnis von Journalismus, PR und Venture-Kapital
Der Wandel journalistischer Formate: Vom Magazin zum
Newsletter
Substack, Podcasts & Indie-Plattformen als neue mediale
Öffentlichkeit
Die Rolle klassischer Medien: Zwischen Wirtschaftsfaszination
und Technaivität
Was redliche Tech-Berichterstattung heute leisten muss
Hört rein in eine Folge über Medienmacht, gesellschaftliche
Verantwortung… und die Frage, wie wir heute besser über
Technologie sprechen können. Und teilt gerne eure Gedanken mit
uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt
uns an codeundkonsequenz@gmail.com oder schaut
auf unserem Insta-Kanal vorbei:
instagram.com/codeundkonsequenz. Wir freuen uns
auf eure Perspektiven!
Links & Referenzen:
Housekeeping: unsere letzte Folge „Wenn selber Denken zu
unbequem wird: KI, Komfort und kognitive Erosion?“ – hier anhören
Housekeeping Background: Cognitive Offloading Definition
Housekeeping: OpenAI ChatGPT Study Mode / Simon Willisons
Analyse des Study Mode
Interview „Die Rolle des Journalismus hat sich stark
verändert“ mit dem Journalismusforscher Professor Thomas
Hanitzsch und der Professorin Constanze Rossmann, Direktorin des
Instituts für Kommunikationswissenschaften und Medienforschung
zum 100. Institutsjubiläum
Artikel: Tech vs. Journalism: Inside the nasty battle between
Silicon Valley and the reporters who write about it. (New
York Magazine)
Shoshana Zuboff / Buch: The Age of Surveillance Capitalism /
Talk während der Veranstaltung “How the light gets in” des
Institute of Arts and Ideas, 2019
Deutschlandfunk Podcast “Die Peter Thiel Story”
Der Uber-Skandal: Uber Executive Said the Company Would Spend
‘A Million Dollars’ to Shut Me Up (Time Magazine)
Der Theranos-Skandal: Hot Startup Theranos Has Struggled With
Its Blood-Test Technology (Wall Street Journal)
Gawker / Thiel: An Open Letter to Peter Thiel (Gawker
Archives)
Artikel: Wir müssen darüber reden, wie wir über Künstliche
Intelligenz berichten. (Marcus Anhäuser)
„Zeitkapsel” Podcast: Sind wir technikfeindlich?
(Deutschlandfunk Nova, vom 12.3.2015)
Artikel: Was treibt eigentlich Cambridge Analytica? (Der
Spiegel)
Paper: Why media companies insist they're not media
companies, why they're wrong, and why it matters (Philip Napoli,
Robyn Caplan)
Buch: The Journalist and the Murderer (Janet Malcom)
Paper: „Technology and Journalism as Labor” (Henrik
Örnebring)
Paper: “Balancing Product Reviews, Traffic Targets, and
Industry Criticism: UK Technology Journalism in Practice” (J.
Scott Brennen, Philip N. Howard, Rasmus K.
Nielsen)
Paper: “They Go for Gender First” The nature and effect of
sexist abuse of female technology journalists." (Catherine
Adams)
Platformer Newsletter von Casey Newton
Garbage Day Newsletter von Ryan Broderick
Taylor Lorenz
Aus dem Internet Observatorium Newsletter von Johannes Kuhn
Zine Newsletter von Johannes Klingebiel
Newsletter von Gregor Schmalzried
Paris Marx / Podcast Tech Won’t Save Us / Disconnect
Newsletter
The Markup
Rest of World
Netzpolitik.org
Jacobin
AlgorithmWatch
The Free Press (️) / mehr zu Bari Weiss: “Disgruntled NYT
journalist to ‘anti-woke’ power grab: how far can Bari Weiss go?”
(The Guardian)
Tech Executives bei einem sycophantic White House Event im
September 2025
Sam Altman zu Gast beim rechtsextremem Podcaster Tucker
Carlson
Mehr
14.05.2025
48 Minuten
Wer heute Texte schreibt, Konzepte entwirft oder Entscheidungen
vorbereitet, tut das immer öfter mit Unterstützung generativer
KI. Die Tools versprechen Effizienz, Struktur, neue Perspektiven
– und liefern oft genau das. Aber was passiert, wenn wir uns zu
sehr darauf verlassen?
In dieser Folge fragen wir: Verlernen wir gerade stillschweigend
das Denken?
Wir sprechen über die psychologischen Mechanismen hinter
Cognitive Offloading, über neue Studien zu kritischer
Urteilskraft im KI-Zeitalter – und darüber, warum eine
Kern-Herausforderung bei KI nicht nur in fehlerhaften oder
problematischen Daten und Tools liegt, sondern vor allem auch in
unserem unkritischen Umgang mit ihr.
Wir diskutieren, wie sich unsere Beziehung zu Wissen, Wahrheit
und Verantwortung verändert, wenn wir Entscheidungen
vorformulieren lassen, Argumente nicht mehr hinterfragen, und
KI-Modelle unter anderem auch mit Desinformationen trainiert
werden.
Und wir klären: Wo liegt die Grenze zwischen hilfreicher
Entlastung und mentaler Entmündigung?
Eine Folge über Bequemlichkeit, Denkfaulheit, und die unbequeme
Frage, wie viel Autonomie wir bereit sind aufzugeben – für ein
bisschen Text oder ein hübsches Bild auf Knopfdruck. Seid
gespannt auf eine differenzierte Auseinandersetzung – und teilt
eure Gedanken mit uns! Diskutiert auf unseren
Social-Media-Kanälen oder schreibt uns an
codeundkonsequenz@gmail.com oder schaut auf
unserem Insta-Kanal vorbei:
instagram.com/codeundkonsequenz. Wir freuen uns
auf eure Perspektiven!
Links & Referenzen:
Intro-Geschichten: Studio Ghibli, Y Combinator Supports
AI Startup Dehumanizing Factory Workers (404 Media) - Video /
Optify.ai & Y Combinator Reaktion
Housekeeping: The Unbelievable Scale of AI’s Pirated-Books
Problem (The Atlantic)
Studie: Wie Mitarbeiter generative KI nutzen (Veritas, bei
it-daily.net)
Studie: Längsschnittstudie zur KI-Nutzung bei Studierenden
(Hochschule Darmstadt)
Studie: Jugend, Information, Medien 2024: Medienumgang 12-
bis 19-Jähriger (JIM)
Studie: Verbreitung generativer KI im privaten und
beruflichen Alltag 2024 (Bayerisches Forschungsinstitut für
Digitale Transformation)
Blooms Taxonomie / Bloom’s Taxonomy: Levels of Understanding
Reddit Thread: my little sister's use of chatgpt for homework
is heartbreaking
Studie: AI Tools in Society: Impacts on Cognitive Offloading
and the Future of Critical Thinking (Michael Gerlich, Swiss
Business School)
Studie: The Power of Virtual Influencers: Impact on Consumer
Behaviour and Attitudes in the Age of AI (Michael Gerlich, Swiss
Business School)
Studie: Exploring Motivators for Trust in the Dichotomy of
Human—AI Trust Dynamics(Michael Gerlich, Swiss Business School)
A well-funded Moscow-based global ‘news’ network has infected
Western artificial intelligence tools worldwide with Russian
propaganda (NewsGuard Report)
Studie: The Cybernetic Teammate: A Field Experiment on
Generative AI Reshaping Teamwork and Expertise (Harvard
University, Procter & Gamble)
Studie: The Impact of Generative AI on Critical Thinking:
Self-Reported Reductions in Cognitive Effort and Confidence
Effects From a Survey of Knowledge Workers (Carnegie Mellon / Lee
et all, Microsoft)
Studie: Google it, Critical Thinking and Problem Solving in
the Internet Age (Ali Arya, Luciara Nardon, Carleton University)
Miller’s Law
New Junior Developers Can’t Actually Code (Namanyay Goel)
Die KI-Verdummung (Marko Kovic)
Mehr
31.12.2024
39 Minuten
Ihr seid sicherlich schon über den Begriff Tech for Good
gestolpert. Aber was bedeutet das eigentlich? In dieser Folge
werfen wir einen kritischen Blick auf die Akteur*innen, die
Technologie oder ihren Einsatz als Lösung für gesellschaftliche
und ökologische Herausforderungen positionieren. Von NGOs und
Start-ups bis hin zu globalen Tech-Konzernen – wer schreibt sich
auf die Fahne, mit Technologie die Welt zu verbessern? Und wer
bleibt eher bei bloßen Versprechungen?
Wir erkunden, wie Transparenz, ethische Verantwortung und
langfristiger Impact mit diesem Anspruch zusammenspielen.
Gleichzeitig hinterfragen wir, wo die Grenzen solcher Initiativen
liegen. Und wollen herausfinden, welche Risiken entstehen, wenn
technologische Lösungen dann doch die systemischen Ursachen von
Problemen ignorieren. Und kann soziale Innovation in einem
kapitalistischen Wettbewerb bestehen? Oder verkommt Tech for Good
allzu oft zum Marketing-Schlagwort?
Phänomene wie Ethics Washing und Virtue Signaling stehen ebenso
im Fokus wie die Frage, was Technologie wirklich „gut“ macht.
Seid gespannt auf eine differenzierte Auseinandersetzung – und
teilt eure Gedanken mit uns! Diskutiert auf unseren
Social-Media-Kanälen oder schreibt uns an
codeundkonsequenz@gmail.com oder schaut auf
unserem Insta-Kanal vorbei:
instagram.com/codeundkonsequenz. Wir freuen uns
auf eure Perspektiven!
Links zu Organisationen und Initiativen:
Microsoft AI for Earth Programm
Tech to the Rescue
Plan A (Berliner Startup für CO₂-Reduktion)
GUIDING LIGHT (Wiener NGO für ethische Technologieprojekte)
BenevolentAI
Correlaid
ITU AI for good summit
Tech for good summit von Emmanuel Macron 2018
Links zu Personen:
Sergey Brin (Google, Parkinson-Forschung)
Joy Buolamwini (Algorithmic Justice League, Diskriminierung
in KI)
Tristan Harris (Center for Humane Technology)
Yevgeny Morozov (Techno Solutionism; To Save Everything,
Click Here: The Folly of Technological Solutionism)
Links zu Studien und Artikeln:
McKinsey Global Institute Study: Tech for Good:
Smoothing Disruption, Improving Well-being
Bain & Company Snap Chart "Tech for Good Investments are
Rising"
Definition von Sozialunternehmen im Rahmen der Social
Business Initiative der Europäischen Kommission
Morozov Gastbeitrag in der NY Times "The True Threat of
Artificial Intelligence"
Mehr
19.09.2024
53 Minuten
In unserer zweiten Folge geht es um den unersättlichen
Datenhunger von Large Language Models – und die Herausforderungen
für diejenigen, die sie entwickeln und trainieren. Die Branche
scheint im Panikmodus zu sein. Denn sie befürchtet, dass es schon
bald nicht mehr genug hochwertige Daten geben könnte. Um ihre
Modelle nicht nur auf dem neuesten Stand zu halten, sondern immer
weiter zu verbessern. Und das führt zu harten Zeiten für die
Integrität mancher Akteur:innen und teils mehr als fragwürdigen
Praktiken. Will man etwa das GenAI-Wettrennen verlieren, nur weil
man sich an Regeln hält? Wir nehmen diese Situation unter die
Lupe und beleuchten, wie die großen Tech-Konzerne und
KI-Vorreiter:innen agieren – und was das für
Content-Anbieter:innen, Creators und uns alle bedeutet. Gibt es
Wege, diese vermeintliche Krise zu meistern, ohne Gesetze und
bewährte Praktiken zu beugen oder gar zu brechen? Hört rein und
teilt sehr gerne eure Gedanken und Feedback mit uns!
Links & Quellen:
· Consent in Crisis: The Rapid Decline
of the AI Data Commons (MIT Studie)
· 2024 AI Index Report (Stanford
University)
· Your Personal Information Is
Probably Being Used to Train Generative AI Models (Scientific
American)
· For AI firms, anything "public" is
fair game (Axios)
· For Data-Guzzling AI Companies, the
Internet Is Too Small (Wall Street Journal)
· Adobe Is Buying Videos for $3 Per
Minute to Build AI Model (Bloomberg)
· How Tech Giants Cut Corners to
Harvest Data for A.I. (New York Times)
· Video: Interview Wall Street Journal
mit OpenAI CTO Mira Murati (Wall Street Journal)
· What to Know About Tech Companies
Using A.I. to Teach Their Own A.I. (New York Times)
· The Data That Powers A.I. Is
Disappearing Fast (New York Times)
· Is there enough text to feed the AI
beast? (Semafor)
· KI-Training vs. Datenschutz „Meta
sagt, euer Grundrecht ist nicht so wichtig“
(Deutschlandfunk)
· The Backlash Against AI Scraping Is
Real and Measurable (404 Media)
· Keine Trainings-Daten mehr: Schon
2026 gehen der Künstlichen Intelligenz die Daten aus (SRF)
· OpenAI Pleads That It Can’t Make
Money Without Using Copyrighted Materials for Free
(Futurism)
· Why Perplexity’s Cynical Theft
Represents Everything That Could Go Wrong With AI (Forbes)
· Perplexity Is a Bullshit Machine
(Wired)
· Most Top News Sites Block AI Bots.
Right-Wing Media Welcomes Them (Wired)
· OpenAI transcribed over a million
hours of YouTube videos to train GPT-4 (The Verge)
· How to Fix “AI’s Original Sin” (Tim
O’Reilly)
· The ‘Enshittification’ of TikTok
(Wired)
· POV: How generative AI is changing
surveillance capitalism (Fast Company)
· Warum ChatGPT so schlecht rechnet
(FAZ)
· AI Act zum Nachlesen
· DSGVO Grundsätze für die
Verarbeitung personenbezogener Daten
· Adding More Data Isn’t the Only Way
to Improve AI (Harvard Business Review)
· OpenAI Hit With New Lawsuit Over
ChatGPT Training Data (Forbes)
· Researchers warn we could run out of
data to train AI by 2026 (The Conversation)
Über die Hosts:
Lelia Hanslik ist Mathematikerin,
Wirtschaftsinformatikerin, Schnittstellenmensch und Feministin.
Sie interessiert sich für die Auswirkungen von Softwaresystemen
auf unser Zusammenleben und dafür, wie wir diese Auswirkungen
aktiv und verantwortungsbewusst mitgestalten können. Linkedin|
Lelia Hanslik
André Cramer ist Technologie- und
Informations-Schnittstellenmensch. Er ist seit über 20 Jahren in
unterschiedlichsten Rollen und Ländern in der Technologiebranche
tätig. Sein Blick hat sich vom Tech-Fanboi zum kritischen
Hinterfrager gewandelt. Warum? Er ist überzeugt, dass die
Vorteile von Technologie und Digitalisierung allen Menschen
zugutekommen sollten. Und dass dafür deren Gestaltung und
Verantwortung in vielfältigere Hände gelegt werden sollte. André
möchte dazu beitragen, dass mehr Menschen mehr über unsere
vielversprechenden digitalen Zukunftsoptionen erfahren. So dass
wir eine bessere, eine ethisch fundierte digitale Zukunft für uns
alle bauen können. LinkedIn | André Cramer
Kontakt: codeundkonsequenz@gmail.com | Insta
CodeundKonsequenz
Mehr
07.06.2024
54 Minuten
In unserer ersten Folge werfen wir einen Blick darauf, wer wie
über KI spricht. Wir haben uns das Spektrum der wichtigsten
Akteur*innen im Themengebiet KI angeschaut und einige klar
voneinander abgegrenzte Perspektiven identifiziert. Was ist
„KI-Doomismus“ und was ist eine „Tech-First“-Weltsicht? Und wie
wird KI aus der Perspektive der „wirtschaftsliberalen Normalos“
bewertet? Und welche Perspektiven gibt es sonst noch? Was wird
dort über Artificial (General) Intelligence - gesagt... und was
über Regulierung? Fragen über Fragen... Seid dabei und hört zu.
Wir freuen uns auf euer Feedback!
Links & Quellen:
Buch „Our AI Journey“:
https://www.forum3.com/book-artificial-intelligence
Sam Altman über „wann kommt AGI?“:
https://www.youtube.com/watch?v=0G3GTKPGQGM,
https://www.marketingaiinstitute.com/blog/sam-altman-ai-agi-marketing
Marc Andreessen „Techno Optimist Manifesto“:
https://a16z.com/the-techno-optimist-manifesto/
Eliezer Yudkowsky „AGI will kill us all”:
https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities?s=09
Guardian Interview mit Meredith Whittaker:
https://www.theguardian.com/technology/2023/jun/11/signals-meredith-whittaker-these-are-the-people-who-could-actually-pause-ai-if-they-wanted-to
Doomsday to utopia - Meet AI’s rival factions:
https://www.washingtonpost.com/technology/2023/04/09/ai-safety-openai/
Figure01 Roboter:
https://www.heise.de/news/Humanoide-Roboter-OpenAI-bringt-Figure-01-zum-Sprechen-und-Denken-9655861.html
“Meta’s AI Chief Yann LeCun on AGI, Open-Source, and AI Risk”
https://time.com/6694432/yann-lecun-meta-ai-interview/
Statement bzgl. KI Risiken:
https://www.safe.ai/work/statement-on-ai-risk
Offener Aufruf KI Entwicklungen zu pausieren:
https://www.theguardian.com/technology/2023/mar/31/ai-research-pause-elon-musk-chatgpt
NZZ Interview mit Jonas Andrulis:
https://www.nzz.ch/technologie/sprach-ki-ist-kein-business-modell-interview-mit-der-deutschen-ki-hoffnung-jonas-andrulis-ld.1775531
“AI „Godfather” Geoffrey Hinton warns of dangers as he quits
Google”: https://www.bbc.com/news/world-us-canada-65452940,
Guardian
https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning
“AI Causes Real Harm. Let’s Focus on That over the
End-of-Humanity-Hype”:
https://www.scientificamerican.com/article/we-need-to-focus-on-ais-real-harms-not-imaginary-existential-risks/
Emily M. Bender Interview NY Magazine Intelligencer:
https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html
Über die Hosts:
Lelia Hanslik ist Mathematikerin, Wirtschaftsinformatikerin,
Schnittstellenmensch und Feministin. Sie interessiert sich für
die Auswirkungen von Softwaresystemen auf unser Zusammenleben und
dafür, wie wir diese Auswirkungen aktiv und verantwortungsbewusst
mitgestalten können. LinkedIn | Lelia Hanslik
André Cramer ist seit 25 Jahren in der Technologiebranche tätig.
In verschiedenen Funktionen, in verschiedenen Ländern. Sein Blick
hat sich vom Fanboy zum kritischen Hinterfrager gewandelt. Warum?
Er ist überzeugt, dass die Vorteile von Technologie und
Digitalisierung allen Menschen zugutekommen sollten. Und dass
dafür die Gestaltung und Verantwortung in vielfältigere Hände
gelegt werden sollte. André möchte deshalb dazu beitragen, dass
mehr Menschen mehr über unsere digitalen Zukunftsoptionen
erfahren – und diese nutzen! LinkedIn | André Cramer
Kontakt:
Wir freuen uns über Fragen und Kommentare an
codeundkonsequenz@gmail.com oder bei Instagram
https://www.instagram.com/codeundkonsequenz/
Mehr
Über diesen Podcast
Bei Code & Konsequenz dreht sich alles um (digitale)
Technologie im gesellschaftlichen Kontext. Was macht und was
ermöglicht uns „Code“? Und welche Konsequenzen gehen damit für
unser Zusammenleben einher? Wir, Lelia Hanslik und André Cramer,
werfen einen kritischen Blick auf digitale Technologien und die
Technologiebranche. Uns interessieren Perspektiven, Motivationen
und Geschichten an der Schnittstelle von Technik - vor allem von
Software und Digitalem - und unserer Gesellschaft:Wie wird
Technologie gestaltet und eingesetzt? Nach welchen Prinzipien
und mit welchen Absichten? Wer hat wie die Menschen und unsere
Gesellschaften im Blick? Wie viel oder wie wenig
Verantwortungsübernahme ist dabei von welchen Akteur:innen
erkennbar? Unser Anliegen ist es, hier mehr Transparenz zu
schaffen. Über die Hosts: Lelia Hanslik ist Mathematikerin,
Wirtschaftsinformatikerin, Schnittstellenmensch und Feministin. Sie
interessiert sich für die Auswirkungen von Softwaresystemen auf
unser Zusammenleben und dafür, wie wir diese Auswirkungen aktiv und
verantwortungsbewusst mitgestalten können. LinkedIn | Lelia Hanslik
André Cramer ist seit 25 Jahren in der Technologiebranche tätig. In
verschiedenen Funktionen, in verschiedenen Ländern. Sein Blick hat
sich vom Fanboy zum kritischen Hinterfrager gewandelt. Warum? Er
ist überzeugt, dass die Vorteile von Technologie und
Digitalisierung allen Menschen zugutekommen sollten. Und dass dafür
die Gestaltung und Verantwortung in vielfältigere Hände gelegt
werden sollte. André möchte deshalb dazu beitragen, dass mehr
Menschen mehr über unsere digitalen Zukunftsoptionen erfahren – und
helfen, diese zu nutzen! LinkedIn | André Cramer Kontakt: Per
E-Mail an codeundkonsequenz@gmail.com und über unseren
Instagram-Kanal Impressum
Kommentare (0)