Podcaster
Episoden
26.07.2025
13 Minuten
Fake News 2.0 – Wie Deepfakes unsere Wahrnehmung hacken!!
In unserer neuen Podcastfolge nehmen wir euch mit in die Welt der
Deepfakes – also KI-generierter Videos, die echte Aussagen oder
Handlungen täuschend echt fälschen.
Laut BR sind Deepfakes „audio-visuelle Fälschungen mithilfe
künstlicher Intelligenz“. Klingt technisch? Ist aber vor allem
psychologisch hochbrisant.
Warum glauben wir Fake-Bilder selbst dann noch, wenn wir wissen,
dass sie manipuliert sind?
Wir sprechen über psychologische Effekte wie den Confirmation
Bias, False Memories und den Illusory Truth Effect, die uns
anfällig für visuelle Fakes machen.
Und wir fragen: Was macht das eigentlich mit unserem Vertrauen in
Medien – und mit unserer psychischen Gesundheit?
Jetzt reinhören & mitdenken!
Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da,
damit wir die nächsten Folgen noch besser auf euch zuschneiden
können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Deepfakes
Quellen:
Bernhard, M. (2025, 30. Juni). KI-Videos auf Tiktok verbreiten
Fake zu angeblichem „internationalen“ Soli-Zuschlag.
correctiv.org.
https://correctiv.org/faktencheck/2025/06/30/ki-videos-auf-tiktok-verbreiten-fake-zu-angeblichem-internationalen-soli-zuschlag/
Hiebert, K. (2024, Februar 26). Deepfakes will break
democracy: The fragmenting of shared reality is fuelling
political extremism and dysfunction. The
Walrus. https://thewalrus.ca/deepfakes-will-break-democracy/?utm_source=substack&utm_medium=email
Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal
of the Association for Information Science and Technology, 68(9),
2267-2270.
Kyrychenko, Y., Koo, H. J., Maertens, R., Roozenbeek, J., Van der
Linden, S. & Götz, F. M. (2025). Profiling misinformation
susceptibility. Personality And Individual Differences, 241,
113177. https://doi.org/10.1016/j.paid.2025.113177
Pawelec, M. (2025). Wenn der Schein trügt – Deepfakes und
Wahlen. Bundeszentrale für politische
Bildung. https://www.bpb.de/system/files/dokument_pdf/bpb_UM_DeepFakes_WEB.pdf
Richter, M. E. & Rohrmeier, S. (2025, 12. Februar).
Faktenfuchs: Was steckt hinter dem KI-Wahlkampfvideo der AfD?
BR24.
https://www.br.de/nachrichten/netzwelt/faktenfuchs-was-steckt-hinter-dem-ki-wahlkampfvideo-der-afd,Uc7jZKZ
Speckmann, F. & Unkelbach, C. (2024). Illusions of knowledge
due to mere repetition. Cognition, 247, 105791.
https://doi.org/10.1016/j.cognition.2024.105791
Mehr
25.07.2025
12 Minuten
KI belästigt Nutzer*innen?!
Was nach Clickbait klingt, ist der Vorwurf einer aktuellen
Studie. Replika, eine Chat-KI für emotionale Nähe, soll sich
wiederholt übergriffig verhalten haben – sogar gegenüber
Minderjährigen.
In unserer ersten Folge von Trust Issues
– KI trifft Psychologie fragen wir:
Wie kann eine KI überhaupt Grenzen überschreiten?
Warum fühlen sich diese Interaktionen für viele real an?
Und was bedeutet das für unser Vertrauen in KI?
Wir sprechen über parasoziale Beziehungen, psychologische
Verletzlichkeit – und warum uns KI manchmal näher kommt, als uns
lieb ist.
Jetzt reinhören & mitdenken!
Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da,
damit wir die nächsten Folgen noch besser auf euch zuschneiden
können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika
Quellen:
Pauwels, H., & Razi, A. (2025). AI-induced sexual harassment:
Investigating Contextual Characteristics and User Reactions of
Sexual Harassment by a Companion Chatbot. arXiv preprint
arXiv:2504.04299.
Bickmore, T. W., & Picard, R. W. (2005). Establishing and
maintaining long-term human-computer relationships. ACM
Transactions on Computer-Human Interaction (TOCHI), 12(2),
293-327.
Cave, S., Coughlan, K., & Dihal, K. (2019, January). " Scary
Robots" Examining Public Responses to AI. In Proceedings of the
2019 AAAI/ACM Conference on AI, Ethics, and Society (pp.
331-337).
Ciriello, R., Hannon, O., Chen, A. Y., & Vaast, E. (2024).
Ethical tensions in human-AI companionship: A dialectical inquiry
into Replika.
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W.,
Pataranutaporn, P., ... & Agarwal, S. (2025). How ai and
human behaviors shape psychosocial effects of chatbot use: A
longitudinal randomized controlled study. arXiv preprint
arXiv:2503.17473.
Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological,
relational, and emotional effects of self-disclosure after
conversations with a chatbot. Journal of Communication, 68(4),
712-733.
Horton, D., & Richard Wohl, R. (1956). Mass communication and
para-social interaction: Observations on intimacy at a distance.
psychiatry, 19(3), 215-229.
Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal
of the Association for Information Science and Technology, 68(9),
2267-2270.
Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., &
Campos-Castillo, C. (2024). Too human and not human enough: A
grounded theory analysis of mental health harms from emotional
dependence on the social chatbot Replika. New Media &
Society, 26(10), 5923-5941.
Mehr
Über diesen Podcast
🎙KI trifft Psychologie. 🧠 Wir nehmen für euch Schlagzeilen
auseinander. 📍jeden Montag. überall wo es Podcasts gibt.
Für GenZ von GenZ. Habt ihr 2-3 Minuten Zeit? Dann
lasst uns gern Feedback da, damit wir zukünftige Folgen noch besser
auf euch zuschneiden können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Deepfakes
Kommentare (0)