Geben oder Geizen? Die KI hat längst gewählt
Wie Nachdenken Sprachmodelle egoistischer macht – und was das für
uns bedeutet.
Podcast
Podcaster
Generative KI zum Hören – ganz ohne Vorwissen
Beschreibung
vor 4 Wochen
Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur
um Fakten, sondern um Fairness geht? In dieser Folge geht es um
eine neue Studie, die zeigt, dass Sprachmodelle in sozialen
Dilemmata überraschend menschlich reagieren – und nicht immer zum
Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst
nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre
Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen,
kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit
spiegeln sie ein altes menschliches Muster: spontanes
Geben versus strategisches Nehmen. Gruppen mit
„denkenden“ Modellen erzielen in Simulationen geringere
Gesamterträge. Was das über KI, Moral und kollektives Verhalten
aussagt – und warum soziale Intelligenz in Zukunft mittrainiert
werden muss, das erfahrt ihr in dieser Episode.
Weitere Episoden
16 Minuten
vor 3 Tagen
vor 2 Wochen
vor 2 Wochen
In Podcasts werben
Abonnenten
Hoch im Norden
Kommentare (0)