Podcast
Podcaster
Generative KI zum Hören – ganz ohne Vorwissen
Beschreibung
vor 5 Monaten
Wie verhalten sich große Sprachmodelle (LLMs), wenn es nicht nur
um Fakten, sondern um Fairness geht? In dieser Folge geht es um
eine neue Studie, die zeigt, dass Sprachmodelle in sozialen
Dilemmata überraschend menschlich reagieren – und nicht immer zum
Guten. Wenn Modelle wie GPT-o1 dazu gebracht werden, bewusst
nachzudenken (etwa über Chain-of-Thought-Techniken), steigt ihre
Neigung, egoistisch zu handeln. Die Modelle beginnen zu rechnen,
kalkulieren ihren Nutzen – und verzichten auf Kooperation. Damit
spiegeln sie ein altes menschliches Muster: spontanes
Geben versus strategisches Nehmen. Gruppen mit
„denkenden“ Modellen erzielen in Simulationen geringere
Gesamterträge. Was das über KI, Moral und kollektives Verhalten
aussagt – und warum soziale Intelligenz in Zukunft mittrainiert
werden muss, das erfahrt ihr in dieser Episode.
Weitere Episoden
20 Minuten
vor 1 Tag
20 Minuten
vor 1 Woche
27 Minuten
vor 2 Wochen
23 Minuten
vor 3 Wochen
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.