KI Überblick November 2025

KI Überblick November 2025

16 Minuten
Podcast
Podcaster

Beschreibung

vor 3 Tagen

Dieses Briefing fasst die zentralen Entwicklungen und Debatten im
Bereich der künstlichen Intelligenz vom November 2025 zusammen.
Die wichtigsten Erkenntnisse umfassen technologische Fortschritte
bei führenden KI-Modellen, deren zunehmende Integration in
Gesellschaft und Medien sowie die damit verbundenen rechtlichen,
ethischen und wirtschaftlichen Herausforderungen.


Zentrale Erkenntnisse:


* Produktinnovation und Personalisierung: OpenAI
treibt mit GPT-5.1 die Entwicklung hin zu personalisierteren und
gesprächigeren KI-Interaktionen voran. Neue, anpassbare
Antwortstile und ein günstigeres Abonnementmodell („ChatGPT Go“)
sollen die Nutzerbasis erweitern und eine tiefere Integration in
den Alltag fördern. Gleichzeitig zeigen neue Prompting-Techniken
wie „Verbalized Sampling“, dass die Kreativität von KI-Modellen
oft nur durch die richtige Fragestellung freigesetzt wird.


* Soziale und gesellschaftliche Auswirkungen: KI
wird zunehmend in sensiblen Bereichen wie der mentalen Gesundheit
eingesetzt, wobei OpenAI von über einer Million wöchentlicher
Gespräche zum Thema Suizid berichtet. Die Befürchtungen eines
massiven, KI-bedingten Jobverlusts werden durch aktuelle Analysen
relativiert, die wirtschaftliche Faktoren wie Zinsen und Zölle
als Hauptursache für den Stellenabbau sehen. Im Haushaltsbereich
zeigt der ferngesteuerte Roboter „Neo“ die aktuellen Grenzen der
Autonomie und den Bedarf an menschlich generierten
Trainingsdaten.


* KI in Medien und Kreativwirtschaft: Die
Nutzung von KI im Mediensektor ist ambivalent. Während eine
Studie KI-Chatbots aufgrund einer Fehlerquote von 45 % als
unzuverlässige Nachrichtenquellen einstuft und die
österreichische Bevölkerung KI in den Medien mehrheitlich
kritisch sieht, demonstrieren Projekte wie das einer norwegischen
Lokalzeitung das Potenzial für investigativen Journalismus.
Gleichzeitig führen vollständig KI-generierte TV-Sendungen,
Werbespots und sogar ein Nummer-1-Country-Song zu intensiven
Debatten über Authentizität, Kreativität und die Legitimität von
KI-Kunst.


* Rechtliche Grauzonen und Auseinandersetzungen:
Der rechtliche Rahmen für KI ist weiterhin in Bewegung.
Zahlreiche Gerichtsverfahren, unter anderem zwischen OpenAI und
der New York Times oder Stability AI und Getty Images,
verdeutlichen ungelöste Fragen des Urheberrechts, insbesondere
bei grenzüberschreitend trainierten Modellen. Deutsche Gerichte
urteilen restriktiver bei der Nutzung von lizenzierten Inhalten
wie Liedtexten, während in den USA sogar der Einsatz von KI als
Geschworene getestet wird.


Technologische Fortschritte und Produktinnovationen


Die Entwicklung von KI-Modellen schreitet voran, wobei der Fokus
zunehmend auf verbesserter Nutzerinteraktion, Zugänglichkeit und
der Optimierung der Modellausgabe durch innovative Techniken
liegt.


GPT-5.1: Personalisierung und Konversation


OpenAI hat mit GPT-5.1 ein Update vorgestellt, das die
Kommunikation mit der KI natürlicher und persönlicher gestalten
soll. Die Modelle lassen sich nun besser an individuelle
Vorlieben anpassen, um die Tonalität und den Stil der Antworten
zu steuern.


* Ziel: Die Antworten sollen sich weniger wie
ein “Lexikon auf Beinen” anfühlen, sondern eher wie die eines
“Kumpels, der tatsächlich helfen will”. Dies wird durch einen
direkteren Sprachstil und den Einsatz von Emojis erreicht.


* Anpassbare Stile: Nutzer können aus einer
Reihe vordefinierter Stile wählen, um die Art der Antwort zu
steuern


Neue Preismodelle: ChatGPT Go


Um die Nutzerbasis zu erweitern, hat OpenAI ein günstigeres
Abonnementmodell namens „ChatGPT Go“ eingeführt, das auch in
Österreich für 7,99 € pro Monat verfügbar ist.
Dieses Modell positioniert sich als “Kampfpreis” zwischen der
kostenlosen Version und dem teureren Plus-Abonnement.


Der Hauptvorteil des Go-Abos gegenüber der Gratis-Version liegt
in höheren Nutzungslimits und der Möglichkeit, Projekte, Aufgaben
und individuelle GPTs zu erstellen. Ein zentraler Aspekt ist
zudem der verbesserte Datenschutz, da bei bezahlten Modellen eine
größere Kontrolle über die eigenen Daten besteht.


Fortgeschrittene Prompt-Techniken: “Verbalized Sampling”


Eine Studie von Forschern der Stanford University hat eine
einfache, aber wirkungsvolle Methode zur Steigerung der
Kreativität von KI-Modellen entdeckt: Verbalized
Sampling.


* Methode: Anstatt eine direkte Aufforderung wie
“Erzähl mir einen Witz” zu verwenden, wird die KI gebeten,
mehrere Optionen mitsamt ihrer Wahrscheinlichkeiten zu generieren
(z.B. “Generiere 5 Witze mit ihren Wahrscheinlichkeiten”).


* Ergebnis: Dieser Ansatz führt zu einer
doppelt so hohen Vielfalt in den Antworten, ohne
dabei die Genauigkeit zu beeinträchtigen. Die Technik
funktioniert laut Studie mit allen gängigen KI-Modellen und
erfordert kein erneutes Training oder Fine-Tuning des Modells.


KI in Gesellschaft und Alltag


Die fortschreitende Integration von KI in alltägliche
Lebensbereiche wirft Fragen zu Autonomie, mentaler Gesundheit und
den Auswirkungen auf den Arbeitsmarkt auf.


KI im Haushalt: Der Neo-Roboter


Der Haushaltsroboter “Neo” kann für 20.000 €
oder im Abo für 500 € pro Monat vorbestellt
werden. Er verspricht, Aufgaben wie das Waschen von Wäsche oder
das Ausräumen des Geschirrspülers zu übernehmen. Ein Bericht des
Wall Street Journal enthüllte jedoch ein entscheidendes Detail:


* Menschliche Fernsteuerung: Bei komplexen
Tätigkeiten, die der Roboter nicht autonom bewältigen kann,
übernimmt ein menschlicher Operator die Steuerung per VR-Headset.
Dies erinnert an das historische Beispiel des “Schachtürken”.


* Zweck: Dieser “Human-in-the-Loop”-Ansatz dient
primär dem Sammeln von Trainingsdaten, um die Fähigkeiten des
Roboters zukünftig zu verbessern. Das Modell, sich für das
Sammeln von Trainingsdaten bezahlen zu lassen, stellt einen
unkonventionellen Weg in der Robotik-Entwicklung dar.


KI und Mentale Gesundheit


OpenAI hat Daten veröffentlicht, die eine massive Nutzung von
ChatGPT für Gespräche im Bereich der psychischen Gesundheit
belegen.


* Nutzungszahlen: Von 800 Millionen wöchentlich
aktiven Nutzern führen über eine Million
Gespräche, die sich auf das Thema Suizid beziehen. Dies
entspricht 0,15 % der Konversationen mit expliziten Indikatoren
für potenzielle Suizidplanung.


* Maßnahmen: Um die Sicherheit zu erhöhen,
arbeitet OpenAI mit über 170 Experten für psychische Gesundheit
zusammen. Dadurch sollen die Fehlerquoten bei sensiblen Themen
bereits um 65-80 % gesenkt worden sein.


* Gesellschaftlicher Trend: Diese Entwicklung
wird als Indiz für einen möglichen “sechsten Kondratieff-Zyklus”
interpretiert, der sich auf psychosoziale Gesundheit als
zentralen Markt für technologische Innovationen konzentriert.


KI und der Arbeitsmarkt: Eine Neubewertung


Entgegen der weit verbreiteten Sorge vor einer “KI-Jobapokalypse”
deuten aktuelle Analysen darauf hin, dass andere Faktoren einen
größeren Einfluss auf den Arbeitsmarkt haben.


* Amazon-Entlassungen: Der CEO von Amazon, Andy
Jassy, betonte, dass die Streichung von bis zu 30.000 Bürojobs
auf eine veränderte Unternehmenskultur und nicht auf den Einsatz
von KI zurückzuführen sei.


* Wirtschaftliche Faktoren: Eine Analyse von
Fortune zeigt, dass der Rückgang an offenen Stellen (-30 % seit
der Einführung von ChatGPT) weniger auf KI als auf ökonomische
Faktoren wie Zinsen und Zölle zurückzuführen
ist.


Rechtliche und Regulatorische Entwicklungen


Die rasante Entwicklung der KI führt zu einer Vielzahl von
rechtlichen Auseinandersetzungen, die grundlegende Fragen des
Urheberrechts und der Regulierung aufwerfen.


* OpenAI vs. New York Times: OpenAI war im
Rahmen der Klage wegen der Nutzung von Trainingsdaten
vorübergehend gerichtlich untersagt worden, Chatverläufe zu
löschen. Diese Anordnung wurde inzwischen wieder aufgehoben.


* Stability AI vs. Getty Images: Ein britisches
Gericht wies eine Klage von Getty Images ab. Die Begründung: Das
KI-Modell wurde in den USA trainiert, weshalb das britische
Urheberrecht nicht anwendbar sei. Dies wirft die grundlegende
Frage auf, welches nationale Recht für global agierende
KI-Modelle gilt.


* Deutsches Urteil zu Liedtexten: Ein deutsches
Gericht entschied, dass ChatGPT Liedtexte nicht ohne
entsprechende Lizenz der GEMA als Trainingsdaten verwenden darf.
Das Urteil ist noch nicht rechtskräftig.


* KI als Geschworene: Die University of North
Carolina führt Experimente durch, in denen KI-Modelle wie GPT-4
und Claude als computergestützte Geschworene in fiktiven
Gerichtsverfahren agieren.


* Aufstieg von Legal-Tech: Der Einsatz von
KI-Anwälten und -Werkzeugen nimmt im Rechtsmarkt zu, was sowohl
Effizienzsteigerungen als auch neue Risiken mit sich bringt.


KI in Medien, Kunst und Kreativwirtschaft


Die Anwendung von KI in kreativen und informativen Bereichen
führt zu gemischten Ergebnissen und löst grundlegende Debatten
über Qualität, Authentizität und die Rolle des Menschen aus.


Zuverlässigkeit von KI als Nachrichtenquelle


Eine Studie unter Beteiligung der European Broadcast Union (EBU)
bewertet KI-Chatbots als Nachrichtenquelle als
“unbrauchbar und gefährlich” mit einer
durchschnittlichen Fehlerquote von 45 %.


* Fehlerarten: Hauptprobleme sind falsche
Quellenangaben (31 %) und inhaltliche Fehler (20 %).


* Leistung der Modelle: Gemini schnitt mit 76 %
mangelhaften Antworten am schlechtesten ab, gefolgt von Copilot
(37 %), ChatGPT (36 %) und Perplexity (30 %).


* Themenabhängigkeit: Bei politischen Fragen
(”Beginnt Trump einen Handelskrieg?”) zeigten die Modelle
deutlich mehr Schwächen als bei unpolitischen Themen wie Sport
oder Geografie.


Öffentliche Wahrnehmung und Medienkompetenz in Österreich


Eine von der RTR mitfinanzierte Studie zeigt eine hohe Skepsis in
der österreichischen Bevölkerung.


* Kritische Haltung: 70 % der Befragten sehen
den Einsatz von KI in Medien kritisch und fühlen sich im Umgang
mit der Technologie nicht kompetent.


* Selbsteinschätzung der KI-Kompetenz (n=1539):


* Sehr kompetent: ca. 5 %


* Eher kompetent: ca. 26 %


* Eher weniger kompetent: ca. 47 %


* Überhaupt nicht kompetent: ca. 23 %


Anwendungsfälle im Journalismus und Fernsehen


* Investigativer Journalismus: Die norwegische
Lokalzeitung Tromsø (22 Reporter) nutzt erfolgreich KI-Bots, um
Behördenakten (z.B. zu Grundstücksvergaben) systematisch zu
durchforsten. Dies ermöglicht der kleinen Redaktion, investigativ
zu arbeiten und exklusive Geschichten aufzudecken.


* KI-generierte TV-Sendungen:


* Channel 4 (UK): Sorgte mit einer
Dokumentation, die von der vollständig KI-generierten Moderatorin
“Arti” präsentiert wurde, für Kontroversen.


* Puls 4 (Österreich): Startete mit
“kudlmudl.ki” eine komplett KI-generierte Satiresendung im
Vorabendprogramm, bei der die menschliche Kontrolle aber
transparent gemacht wird.


Reaktionen auf KI-generierte Inhalte


* Coca-Cola Weihnachtsspot: Der erneut mit KI
generierte “Holidays are coming”-Spot wurde von vielen
YouTube-Nutzern als “seelenlos”, “unnatürlich” und “uncanny”
kritisiert.


* Nummer-1-Hit in den Country-Charts: Der
vollständig KI-generierte Song “Walk My Walk” von “Breaking Rust”
erreichte Platz 1 der Billboard Country Digital Song Sales. Dies
löste eine Debatte aus, ob KI-generierte Werke in offiziellen
Charts legitimiert werden sollten, da dies laut Kritikern
“Künstler:innen die Incentives nimmt”.


Soziale und Philosophische Betrachtungen


Über die technischen Anwendungen hinaus wirft KI grundlegende
Fragen nach der Natur menschlicher Beziehungen und der Stabilität
der durch sie angetriebenen Wirtschaftszyklen auf.


Die Grenzen der Empathie: KI als Beziehungspartner


KI-Begleiter können zwar Empathie simulieren, aber keine echte,
gegenseitige Beziehung bieten. Die zentrale Argumentation lautet,
dass eine echte menschliche Verbindung nicht nur auf dem
Empfangen von Bestätigung beruht, sondern auf dem Prinzip von
Geben und Wirken.


* Einseitigkeit: Die Interaktion mit einer KI
ist rein konsumierend. Der Nutzer erhält, gibt aber nichts
zurück, da die KI keine eigenen Bedürfnisse oder Ziele hat.


* Fehlende Gegenseitigkeit: Ein menschliches
Grundbedürfnis ist es, wertvoll zu sein und etwas zu bewirken.
Dieses Gefühl kann ein KI-Dialog, der auf einer Diener-Rolle
basiert, nicht erfüllen.


* Scheinfreundschaft: KI-Begleiter bieten
Sicherheit ohne das Risiko einer echten Beziehung, aber damit
auch ohne deren Tiefe.


Get full access to Sindre Wimberger - KI Inspiration at
sindrewimberger.substack.com/subscribe

Weitere Episoden

KI Überblick Oktober 2025
15 Minuten
vor 1 Woche

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15