Too Close for Comfort – Wenn eine KI übergriffig wird!

Too Close for Comfort – Wenn eine KI übergriffig wird!

12 Minuten

Beschreibung

vor 4 Monaten

KI belästigt Nutzer*innen?!





Was nach Clickbait klingt, ist der Vorwurf einer aktuellen
Studie. Replika, eine Chat-KI für emotionale Nähe, soll sich
wiederholt übergriffig verhalten haben – sogar gegenüber
Minderjährigen.





In unserer ersten Folge von Trust Issues
– KI trifft Psychologie fragen wir:


Wie kann eine KI überhaupt Grenzen überschreiten?


Warum fühlen sich diese Interaktionen für viele real an?


Und was bedeutet das für unser Vertrauen in KI?





Wir sprechen über parasoziale Beziehungen, psychologische
Verletzlichkeit – und warum uns KI manchmal näher kommt, als uns
lieb ist.





Jetzt reinhören & mitdenken!





Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da,
damit wir die nächsten Folgen noch besser auf euch zuschneiden
können:


https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika





Quellen:


Pauwels, H., & Razi, A. (2025). AI-induced sexual harassment:
Investigating Contextual Characteristics and User Reactions of
Sexual Harassment by a Companion Chatbot. arXiv preprint
arXiv:2504.04299.



Bickmore, T. W., & Picard, R. W. (2005). Establishing and
maintaining long-term human-computer relationships. ACM
Transactions on Computer-Human Interaction (TOCHI), 12(2),
293-327.



Cave, S., Coughlan, K., & Dihal, K. (2019, January). " Scary
Robots" Examining Public Responses to AI. In Proceedings of the
2019 AAAI/ACM Conference on AI, Ethics, and Society (pp.
331-337).



Ciriello, R., Hannon, O., Chen, A. Y., & Vaast, E. (2024).
Ethical tensions in human-AI companionship: A dialectical inquiry
into Replika.



Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W.,
Pataranutaporn, P., ... & Agarwal, S. (2025). How ai and
human behaviors shape psychosocial effects of chatbot use: A
longitudinal randomized controlled study. arXiv preprint
arXiv:2503.17473.



Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological,
relational, and emotional effects of self-disclosure after
conversations with a chatbot. Journal of Communication, 68(4),
712-733.



Horton, D., & Richard Wohl, R. (1956). Mass communication and
para-social interaction: Observations on intimacy at a distance.
psychiatry, 19(3), 215-229.



Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal
of the Association for Information Science and Technology, 68(9),
2267-2270.  



Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., &
Campos-Castillo, C. (2024). Too human and not human enough: A
grounded theory analysis of mental health harms from emotional
dependence on the social chatbot Replika. New Media &
Society, 26(10), 5923-5941.






Kommentare (0)

Lade Inhalte...

Abonnenten

15
15