Geben oder Geizen? Die KI hat längst gewählt

Geben oder Geizen? Die KI hat längst gewählt

Wie Nachdenken Sprachmodelle egoistischer macht – und was das für uns bedeutet.

Beschreibung

vor 4 Wochen

Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur
um Fakten, sondern um Fairness geht? In dieser Folge geht es um
eine neue Studie, die zeigt, dass Sprachmodelle in sozialen
Dilemmata überraschend menschlich reagieren – und nicht immer zum
Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst
nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre
Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen,
kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit
spiegeln sie ein altes menschliches Muster: spontanes
Geben versus strategisches Nehmen. Gruppen mit
„denkenden“ Modellen erzielen in Simulationen geringere
Gesamterträge. Was das über KI, Moral und kollektives Verhalten
aussagt – und warum soziale Intelligenz in Zukunft mittrainiert
werden muss, das erfahrt ihr in dieser Episode.

Kommentare (0)

Lade Inhalte...

Abonnenten

Henner64
Hoch im Norden
15
15