Podcaster
Episoden
19.12.2025
23 Minuten
Diese Folge ist Teil des Adventskalenders #WissPodWeihnacht von
wissenschaftspodcasts.de.
Weihnachtsgeschenke können wir mit einem Klick online bestellen –
aber damit das Geschenk den Weg unter den Tannenbaum findet,
braucht es komplexe Logistikprozesse. Methoden der künstlichen
Intelligenz können dabei helfen, Auftragsmengen vorherzusagen,
Routen zu optimieren und Abläufe zu automatisieren. Gleichzeitig
stellen sich die Fragen, wo klassische mathematische Modelle
sinnvoller sind und wie sich die Arbeit der Menschen in der
Logistik durch KI verändert. Genau darüber sprechen wir heute mit
Alexander Krooß!
+++
Alexander Krooß ist wissenschaftlicher
Mitarbeiter in der Abteilung Intralogistik- und IT-Planung des
Fraunhofer-Instituts für Materialfluss und Logistik (IML) in
Dortmund, wo er zu Einsatzmöglichkeiten der künstlichen
Intelligenz in der Intralogistik forscht sowie im Rahmen von
Industrieprojekten berät.
+++
Linkliste
Murrenhoff, Friedrich & Witthaut (2021). Künstliche
Intelligenz in der Logistik.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig, Lena Ackermann und Benjamin Paaßen.
Redaktionelle Unterstützung: Ingrid Rogalski.
Postproduktion: Ingrid Rogalski und Lena Ackermann.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
11.07.2025
1 Stunde 26 Minuten
Die Regelung unser alltäglichen Notwendigkeiten – Frischwasser,
Strom, Internet, ÖPNV, Nahrungsmittelversorgung, Finanzen und
vieles mehr – erfordert heutzutage riesige Datenmengen. Systeme
der künstlichen Intelligenz können hier extrem nützlich sein, um
die vielen Informationen zu verarbeiten und dadurch die
sogenannte "kritische Infrastruktur" robuster zu machen.
KI-Systeme, die darüber hinaus selbst Entscheidungen treffen,
beispielsweise in Bezug auf dynamische Strompreise, bergen aber
auch ethische Risiken. Beide Aspekte werden heute bei uns
beleuchtet!
+++
Valerie Vaquet ist Doktorandin im Projekt
KI-Akademie der Uni Bielefeld und beschäftigt sich mit
KI-Modellen von Wassernetzen. Außerdem erzählt sie gern von ihrer
Forschung, zum Beispiel bei Science Slams.
Florian Braun ist Philosoph, wissenschaftlicher
Assistent und Dozent an der Christian-Albrechts-Universität zu
Kiel und beschäftigt sich u.a. mit Künstlicher Intelligenz aus
technik- und wissenschaftsphilosophischer Perspektive.
+++
Linkliste
Vaquet et al. (2024). Challenges, Methods, Data – a Survey of
Machine Learning in Water Distribution Networks. arXiv.
Vaquet et al. (2024). Investigating the Suitability of
Concept Drift Detection for Detecting Leakages in Water
Distribution Networks. arXiv.
Statistik zu Trinkwasserverlusten in Deutschland
Zanutto (2024). Lessons learned from the Battle of Water
Demand Forecasting (Blogbeitrag).
Braun (2023). Klimaverantwortung und Energiekonflikte. Nomos.
Braun (2021). Soweit die Gründe tragen. Zum
Spannungsverhältnis zwischen verallgemeinerter
Klimawandelargumentation und kontextbezogenen Einwänden
(Blogbeitrag).
Pressemitteilung des Deutschen Wetterdienstes über
KI-gestützte Datenaufbereitung für Wettermodelle (2024)
Gerechtigkeitstheorien (Wikipedia)
Dynamic Pricing (Wikipedia)
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
16.05.2025
55 Minuten
Social Media-Trends, geboren durch Generative KI: Egal ob Szenen
wie aus einem Ghibli-Film, Starterpack der eigenen Actionfigur
oder "professionelle Bewerbungsfotos" basierend auf hochgeladenen
Selfies – es gab schon so einige Inhalte von Bildgeneratoren, die
durch die sozialen Medien gegangen sind. Wir fragen uns in dieser
Folge: Was macht es mit der ästhetischen Empfindung, wenn wir
immer mehr KI-generierte Inhalte zu Gesicht bekommen? Können
Menschen den Unterschied zwischen maschinen- und
menschengenerierter Kunst erkennen?
+++
Theresa Demmer ist Doktorandin am Art*is Lab der
Universität Wien. In ihrer Forschung beschäftigt sie sich mit der
Frage, wie Verbindungen zwischen Künstler*in und Rezipient*in
ästhetische Erfahrungen prägen, ob sie das Potenzial für
Transformation in sich tragen – und was geschieht, wenn der
sendende Teil dieser Beziehung keine menschliche Instanz ist.
+++
Linkliste
Fernandez (2024), Effects of algorithmic curation in users’
music taste on Spotify.
Felder et al. (2011), Recommender Systems and their Effects
on Consumers.
Sougwen Chung (Künstlerin, die Grenzen zwischen Mensch und
Maschine exploriert)
Demmer et al. (2023), Does an emotional connection to art
really require a human artist? Emotion and intentionality
responses to AI- versus human-created art and impact on aesthetic
experience.
In der Studie benutztes Bildmaterial
Kollektiv Obvious: Portrait of Edmond De Belamy (2018)
Jason M. Allen: Théâtre d’Opéra Spatial (2022)
Skygge: Magic Man (2018)
Zentrum für Kunst und Medien Karlsruhe: (A)I Tell You, You
Tell Me“ (2024)
Krishnaraja et al. (2025), Modeling Creativity in Education.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
28.03.2025
1 Stunde 8 Minuten
Stellt euch ein KI-System vor, das automatisiert faire
Entscheidungen über die Einladung zum Bewerbungsgespräch auf
Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch
die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein
solches System als Hochrisikosystem ein. Wir schauen uns ein
solches System heute genauer an und klären: Was bedeutet
eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein
KI-System zu fairen Entscheidungen führt? Und was hat das alles
mit menschlicher Autonomie zu tun?
+++
Janine Strotherm ist Mathematikerin und
Mitarbeiterin der Universität Bielefeld. Im Projekt "Water
Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug
auf faire Verteilung von Wasserressourcen.
+++
Linkliste
Lee (2018), Understanding perception of algorithmic
decisions: Fairness, trust, and emotion in response to
algorithmic management. Big Data & Society.
Starke et al. (2022), Fairness perceptions of algorithmic
decision-making: A systematic review of the empirical literature.
Big Data & Society.
Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
Fiske: Stereotype Content Model
Eckes (2002), Paternalistic and Envious Gender Stereotypes:
Testing Predictions from the Stereotype Content Model. Sex Roles.
DuBois: The Philadelphia N-Wort
Paaßen et al. (2019), Dynamic fairness – Breaking vicious
cycles in automatic decision making. ESANN 2019.
Race Norming
COMPAS Software
Knibbe (2021), Fairness in Question: Do Music Recommendation
Algorithms Value Diversity? Music Tomorrow.
Torabi (2023), The Inner Workings of Spotify’s AI-Powered
Music Recommendations: How Spotify Shapes Your Playlist. Medium.
Henry et al. (2024), Impacts of AI on Music Consumption and
Fairness. Emerging Media.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
14.02.2025
1 Stunde 42 Minuten
Diese Folge wurde zuerst im Podcast Privatsprache von
Daniel Brockmeier veröffentlicht. Wenn ihr euch
für differenzierte und unterhaltsame Auseinandersetzungen mit
Philosophie begeistern könnt, solltet ihr den Podcast unbedingt
abonnieren!
+++
Daniel, Benjamin und Christiane fragen sich: Warum und in welcher
Weise lesen wir menschliche Eigenschaften in künstliche Systeme
wie etwa Large Language Models hinein? Wir klären, was der
Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-,
Technik- und Wissenschafts-Geschichte und gehen den
Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional
Stance" stellt Daniel eine philosophische Theorie der
Anthropomorphisierung vor und Christiane präsentiert mehrere
psychologische Studien, die die Frage nach dem "Warum"
strategisch eingrenzen. Am Ende fragen wir noch nach der Moral
von der Geschicht': Sollten KI-Systeme, Programme, Computer und
Roboter menschenähnlich designet werden?
+++
Linkliste
Der Geschichte des künstlichen Menschen in Daniels Blog:
https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/
Privatsprache-Podcastfolge zum Androiden Data:
https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/
Dennett, D. C. (1989). The Intentional Stance. MIT
Press.
Dennett, D. C. (1988). The intentional stance in theory and
practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian
intelligence: Social expertise and the evolution of intellect in
monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford
University Press.
Karel Capek (1922). Werstands Universal Robots.
Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen
aus dem Ghetto.
Alan Turing (1950). Computing Machinery and Intelligence.
Mind: A Quarterly Review of Psychology and Philosophy, 59(236),
433-460.
Joseph Weizenbaum (1960). ELIZA – A computer program for the
study of natural language communication between man and machine.
Communications of the ACM, 9(1), 36-45.
Valentino Braitenberg (1986). Vehicles – Experiments in
Synthetic Psychology. MIT Press.
Heider, F., & Simmel, M. (1944). An experimental study of
apparent behavior. The American journal of psychology, 57(2),
243-259.
Reeves, B., & Nass, C. I. (1996). The media equation: How
people treat computers, television, and new media like real
people and places. Center for the Study of Language and
Information; Cambridge University Press.
Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing
human: A three-factor theory of anthropomorphism. Psychological
Review, 114(4), 864–886.
Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C.
(2007). The anthropomorphic brain: the mirror neuron system
responds to human and robotic actions. Neuroimage, 35(4),
1674-1684.
Roesler, E., Manzey, D., & Onnasch, L. (2021). A
meta-analysis on the effectiveness of anthropomorphism in
human-robot interaction. Science Robotics, 6(58), eabj5425.
Mandl, S., Laß, J.S., Strobel, A. (2024). Associations
Between Gender Attributions and Social Perception of Humanoid
Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X.,
Barthe-Delanoë, AM. (eds), IFIP Advances in Information and
Communication Technology, vol 726. Springer, Cham.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!
Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de
Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social
Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Projekts KI-Akademie OWL.
Mehr
Über diesen Podcast
Systeme der künstlichen Intelligenz (KI) sind im Alltag angelangt
und besitzen ein großes Potenzial, menschliches Leben und Arbeiten
zu beeinflussen. Wie können wir sicherstellen, dass die menschliche
Autonomie bei der Nutzung von KI gewahrt bleibt? Dr. Christiane
Attig und Jun.-Prof. Dr. Benjamin Paaßen laden interdisziplinäre
Expert*innen aus der KI-Forschung ein, um Licht in Black
Box-Systeme zu bringen und Hörer*innen mit dem Wissen auszustatten,
selbstbestimmt mitzudiskutieren und mitzubestimmen, was KI angeht.
"Autonomie & Algorithmen: Freiheit im Zeitalter von KI" wird
vom Bundesministerium für Bildung und Forschung im Rahmen des
Projekts "KI-Akademie OWL" gefördert. Dieser Podcast ist Teil von
wissenschaftspodcasts.de.
Abonnenten
Werther
Kommentare (0)