Podcaster
Episoden
11.07.2025
1 Stunde 26 Minuten
Die Regelung unser alltäglichen Notwendigkeiten – Frischwasser,
Strom, Internet, ÖPNV, Nahrungsmittelversorgung, Finanzen und
vieles mehr – erfordert heutzutage riesige Datenmengen. Systeme
der künstlichen Intelligenz können hier extrem nützlich sein, um
die vielen Informationen zu verarbeiten und dadurch die
sogenannte "kritische Infrastruktur" robuster zu machen.
KI-Systeme, die darüber hinaus selbst Entscheidungen treffen,
beispielsweise in Bezug auf dynamische Strompreise, bergen aber
auch ethische Risiken. Beide Aspekte werden heute bei uns
beleuchtet!
+++
Valerie Vaquet ist Doktorandin im Projekt
KI-Akademie der Uni Bielefeld und beschäftigt sich mit
KI-Modellen von Wassernetzen. Außerdem erzählt sie gern von ihrer
Forschung, zum Beispiel bei Science Slams.
Florian Braun ist Philosoph, wissenschaftlicher
Assistent und Dozent an der Christian-Albrechts-Universität zu
Kiel und beschäftigt sich u.a. mit Künstlicher Intelligenz aus
technik- und wissenschaftsphilosophischer Perspektive.
+++
Linkliste
Vaquet et al. (2024). Challenges, Methods, Data – a Survey of
Machine Learning in Water Distribution Networks. arXiv.
Vaquet et al. (2024). Investigating the Suitability of
Concept Drift Detection for Detecting Leakages in Water
Distribution Networks. arXiv.
Statistik zu Trinkwasserverlusten in Deutschland
Zanutto (2024). Lessons learned from the Battle of Water
Demand Forecasting (Blogbeitrag).
Braun (2023). Klimaverantwortung und Energiekonflikte. Nomos.
Braun (2021). Soweit die Gründe tragen. Zum
Spannungsverhältnis zwischen verallgemeinerter
Klimawandelargumentation und kontextbezogenen Einwänden
(Blogbeitrag).
Pressemitteilung des Deutschen Wetterdienstes über
KI-gestützte Datenaufbereitung für Wettermodelle (2024)
Gerechtigkeitstheorien (Wikipedia)
Dynamic Pricing (Wikipedia)
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
16.05.2025
55 Minuten
Social Media-Trends, geboren durch Generative KI: Egal ob Szenen
wie aus einem Ghibli-Film, Starterpack der eigenen Actionfigur
oder "professionelle Bewerbungsfotos" basierend auf hochgeladenen
Selfies – es gab schon so einige Inhalte von Bildgeneratoren, die
durch die sozialen Medien gegangen sind. Wir fragen uns in dieser
Folge: Was macht es mit der ästhetischen Empfindung, wenn wir
immer mehr KI-generierte Inhalte zu Gesicht bekommen? Können
Menschen den Unterschied zwischen maschinen- und
menschengenerierter Kunst erkennen?
+++
Theresa Demmer ist Doktorandin am Art*is Lab der
Universität Wien. In ihrer Forschung beschäftigt sie sich mit der
Frage, wie Verbindungen zwischen Künstler*in und Rezipient*in
ästhetische Erfahrungen prägen, ob sie das Potenzial für
Transformation in sich tragen – und was geschieht, wenn der
sendende Teil dieser Beziehung keine menschliche Instanz ist.
+++
Linkliste
Fernandez (2024), Effects of algorithmic curation in users’
music taste on Spotify.
Felder et al. (2011), Recommender Systems and their Effects
on Consumers.
Sougwen Chung (Künstlerin, die Grenzen zwischen Mensch und
Maschine exploriert)
Demmer et al. (2023), Does an emotional connection to art
really require a human artist? Emotion and intentionality
responses to AI- versus human-created art and impact on aesthetic
experience.
In der Studie benutztes Bildmaterial
Kollektiv Obvious: Portrait of Edmond De Belamy (2018)
Jason M. Allen: Théâtre d’Opéra Spatial (2022)
Skygge: Magic Man (2018)
Zentrum für Kunst und Medien Karlsruhe: (A)I Tell You, You
Tell Me“ (2024)
Krishnaraja et al. (2025), Modeling Creativity in Education.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
28.03.2025
1 Stunde 8 Minuten
Stellt euch ein KI-System vor, das automatisiert faire
Entscheidungen über die Einladung zum Bewerbungsgespräch auf
Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch
die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein
solches System als Hochrisikosystem ein. Wir schauen uns ein
solches System heute genauer an und klären: Was bedeutet
eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein
KI-System zu fairen Entscheidungen führt? Und was hat das alles
mit menschlicher Autonomie zu tun?
+++
Janine Strotherm ist Mathematikerin und
Mitarbeiterin der Universität Bielefeld. Im Projekt "Water
Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug
auf faire Verteilung von Wasserressourcen.
+++
Linkliste
Lee (2018), Understanding perception of algorithmic
decisions: Fairness, trust, and emotion in response to
algorithmic management. Big Data & Society.
Starke et al. (2022), Fairness perceptions of algorithmic
decision-making: A systematic review of the empirical literature.
Big Data & Society.
Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
Fiske: Stereotype Content Model
Eckes (2002), Paternalistic and Envious Gender Stereotypes:
Testing Predictions from the Stereotype Content Model. Sex Roles.
DuBois: The Philadelphia N-Wort
Paaßen et al. (2019), Dynamic fairness – Breaking vicious
cycles in automatic decision making. ESANN 2019.
Race Norming
COMPAS Software
Knibbe (2021), Fairness in Question: Do Music Recommendation
Algorithms Value Diversity? Music Tomorrow.
Torabi (2023), The Inner Workings of Spotify’s AI-Powered
Music Recommendations: How Spotify Shapes Your Playlist. Medium.
Henry et al. (2024), Impacts of AI on Music Consumption and
Fairness. Emerging Media.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
14.02.2025
1 Stunde 42 Minuten
Diese Folge wurde zuerst im Podcast Privatsprache von
Daniel Brockmeier veröffentlicht. Wenn ihr euch
für differenzierte und unterhaltsame Auseinandersetzungen mit
Philosophie begeistern könnt, solltet ihr den Podcast unbedingt
abonnieren!
+++
Daniel, Benjamin und Christiane fragen sich: Warum und in welcher
Weise lesen wir menschliche Eigenschaften in künstliche Systeme
wie etwa Large Language Models hinein? Wir klären, was der
Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-,
Technik- und Wissenschafts-Geschichte und gehen den
Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional
Stance" stellt Daniel eine philosophische Theorie der
Anthropomorphisierung vor und Christiane präsentiert mehrere
psychologische Studien, die die Frage nach dem "Warum"
strategisch eingrenzen. Am Ende fragen wir noch nach der Moral
von der Geschicht': Sollten KI-Systeme, Programme, Computer und
Roboter menschenähnlich designet werden?
+++
Linkliste
Der Geschichte des künstlichen Menschen in Daniels Blog:
https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/
Privatsprache-Podcastfolge zum Androiden Data:
https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/
Dennett, D. C. (1989). The Intentional Stance. MIT
Press.
Dennett, D. C. (1988). The intentional stance in theory and
practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian
intelligence: Social expertise and the evolution of intellect in
monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford
University Press.
Karel Capek (1922). Werstands Universal Robots.
Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen
aus dem Ghetto.
Alan Turing (1950). Computing Machinery and Intelligence.
Mind: A Quarterly Review of Psychology and Philosophy, 59(236),
433-460.
Joseph Weizenbaum (1960). ELIZA – A computer program for the
study of natural language communication between man and machine.
Communications of the ACM, 9(1), 36-45.
Valentino Braitenberg (1986). Vehicles – Experiments in
Synthetic Psychology. MIT Press.
Heider, F., & Simmel, M. (1944). An experimental study of
apparent behavior. The American journal of psychology, 57(2),
243-259.
Reeves, B., & Nass, C. I. (1996). The media equation: How
people treat computers, television, and new media like real
people and places. Center for the Study of Language and
Information; Cambridge University Press.
Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing
human: A three-factor theory of anthropomorphism. Psychological
Review, 114(4), 864–886.
Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C.
(2007). The anthropomorphic brain: the mirror neuron system
responds to human and robotic actions. Neuroimage, 35(4),
1674-1684.
Roesler, E., Manzey, D., & Onnasch, L. (2021). A
meta-analysis on the effectiveness of anthropomorphism in
human-robot interaction. Science Robotics, 6(58), eabj5425.
Mandl, S., Laß, J.S., Strobel, A. (2024). Associations
Between Gender Attributions and Social Perception of Humanoid
Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X.,
Barthe-Delanoë, AM. (eds), IFIP Advances in Information and
Communication Technology, vol 726. Springer, Cham.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
24.01.2025
1 Stunde 7 Minuten
Mal eben ein paar Stichworte zur gerade durchgeführten Studie in
ein KI-Chatbot-Interface eingeben und den Bot darum bitten, auf
Basis dieser Stichpunkte die erste Version einer
Kurzzusammenfassung zu schreiben: Richtig praktisch! Aber
funktioniert das gut? Und sollte man das machen? Und was, wenn
Studierende KI für ihre Hausarbeiten nutzen? Welche
wissenschaftlichen Tätigkeiten sollten vollständig den
Forschenden überlassen bleiben? Diese und ähnliche Fragen bewegen
gerade sehr viele Menschen, die in der Wissenschaft arbeiten. Und
damit auch uns.
+++
Dzifa Vode ist Mitarbeiterin des Schreibzentrums
der Technischen Hochschule Nürnberg. Zur Zeit entwickelt sie dort
mit dem Online Writing Lab eine freie Bildungsumgebung für
Studierende, die wissenschaftlich schreiben wollen oder müssen.
Als Schreibwissenschaftlerin forscht und lehrt sie im Bereich des
wissenschaftlichen Schreibens – mit und ohne künstliche
Intelligenz. Sie organisiert außerdem Schreibretreats und coacht
Wissenschaftler*innen in ihren Schreibprozessen.
+++
Linkliste
Virtuelles Kompetenzzentrum: Künstliche Intelligenz und
wissenschaftliches Arbeiten
Reflexionsinstrument für Lehrende
Zohery (2023), ChatGPT in Academic Writing and Publishing: A
Comprehensive Guide.
Kostikova et al. (2022), Fine-Grained Detection of Solidarity
for Women and Migrants in 155 Years of German Parliamentary
Debates. arXiv.
Barnum et al. (2024), Large Language Models based on
historical text could offer informative tools for behavioral
science. PNAS.
Alahdab (2024), Potential impact of large language models on
academic writing. BMJ Evidence-Based Medicine.
Bin-Nashwan et al. (2023), Use of ChatGPT in academia:
Academic integrity hangs in the balance. Technology in Society.
Leung et al. (2023), Best Practices for Using AI Tools as an
Author, Peer Reviewer, or Editor. Journal of Medical Internet
Research.
Liang et al. (2024), Monitoring AI-Modified Content at Scale:
A Case Study on the Impact of ChatGPT on AI Conference Peer
Reviews. arXiv.
Preiß et al.,(2023). ChatGPT and Me. Erste Ergebnisse der
quantitativen Auswertung einer Umfrage über die Lebensrealität
mit generativer KI an der Universität Hamburg. Digital and Data
Literacy in Teaching Lab. Universität Hamburg.
Parasuraman & Riley (1997), Humans and Automation: Use,
Misuse, Disuse, Abuse. Human Factors.
Kobak et al. (2024), Delving into ChatGPT usage in academic
writing through excess vocabulary. arXiv.
Geng & Trotta (2024), Is ChatGPT Transforming Academics'
Writing Style? arXiv.
Gottschling et al. (2024). Nutzung von KI-Tools durch
Studierende. Eine exemplarische Untersuchung studentischer
Nutzungsszenarien. die hochschullehre.
Hwang et al. (2024). Is ChatGPT a "Fire of Prometheus" for
Non-Native English-Speaking Researchers in Academic Writing?
Korean Journal of Radiology.
DFG (2023), Stellungnahme des Präsidiums der Deutschen
Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle.
Limburg et. al (2023), Zehn Thesen zur Zukunft des Schreibens
in der Wissenschaft.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
Über diesen Podcast
Systeme der künstlichen Intelligenz (KI) sind im Alltag angelangt
und besitzen ein großes Potenzial, menschliches Leben und Arbeiten
zu beeinflussen. Wie können wir sicherstellen, dass die menschliche
Autonomie bei der Nutzung von KI gewahrt bleibt? Dr. Christiane
Attig und Jun.-Prof. Dr. Benjamin Paaßen laden interdisziplinäre
Expert*innen aus der KI-Forschung ein, um Licht in Black
Box-Systeme zu bringen und Hörer*innen mit dem Wissen auszustatten,
selbstbestimmt mitzudiskutieren und mitzubestimmen, was KI angeht.
"Autonomie & Algorithmen: Freiheit im Zeitalter von KI" wird
vom Bundesministerium für Bildung und Forschung im Rahmen des
Projekts "KI-Akademie OWL" gefördert. Dieser Podcast ist Teil von
wissenschaftspodcasts.de.
Abonnenten
Werther
Kommentare (0)