#13 Von Multishot zu Multi-Doom

#13 Von Multishot zu Multi-Doom

50 Minuten

Beschreibung

vor 3 Wochen

Im Januar 2026 ist viel passiert rund um KI, Bilder und Video.
Das chinesische Videomodell Kling 3.0 kann jetzt 4K-Videos,
mehrere Kameraperspektiven in einem Clip und immer realistischere
Szenen erzeugen, "Flux 2 Klein" ist die Minivariante von Flux 2.
Wir fragen uns, was "Lügnerdividende" ist und schauen etwas
genauer auf die Negativszenarien des CEOs von Anthropic. Wir
untersuchen die Kennzeichnungspflicht des EU AI Acts, besprechen
die Microsoft-Studie zur weltweiten Nutzung von KI und sind
erstaunt, dass die USA nur im Mittelfeld und hinter Deutschland
liegen.


Im KI-Podcast unterhalten sich Dr. Jürgen Scriba, Leiter der
Arbeitsgruppe "Technischer Fortschritt" / Deutscher Fotorat und
Boris Eldagsen (Mitglied der Arbeitsgruppe) mit wechselnden
Gästen über aktuelle Auswirkungen von KI auf Fotografie.





HIGHLIGHTS:


(0:00) – Jahresauftakt & Plattform-Update


Rückblick auf Januar 2026 (Folge 13).

Podcast jetzt auch auf Spotify, bald iTunes.

Weniger neue KI-Modelle als erwartet.






(0:52) – Neue Bild- & Videomodelle


Flux 2 klein: schnelles, lokal laufendes Bildmodell.

Bytedance kündigt neue Modelle an.

„Kling 3.0“ (China): 4K, 15 Sekunden, Multishot (mehrere
Kameraeinstellungen im Prompt), Ton- & Stimmenklonen.

Trend: Video wird als generierter 3D-Raum gedacht – Bild und
Film verschmelzen.






(4:22) – KI im Foto-Alltag


Workshops zeigen:


KI wird für hybride Aufgaben genutzt (Menschen ergänzen,
Retusche, Begrünung, etc.).

Kommerzielle Fotografie war immer inszeniert – KI verstärkt
das.

Zentrale Frage: Wird das künftig als „Deepfake“ gelten?






(9:37) – EU AI Act & Kennzeichnung


KI-generierte Inhalte sollen gekennzeichnet werden.

Problem: Definition knüpft am Werkzeug (KI) an, nicht an
Authentizität.

Gefahr: Inszenierte Fotos gelten als „echt“, KI-Bilder als
„Fake“.

Forderung: Durchgängige Metadaten statt reiner KI-Markierung.






(21:03) – Politische KI-Beispiele


KI-Inszenierungen mit historischen Figuren.

Manipulierte Bilder aus politischen Kontexten.

Polizeiliche KI-Symbolbilder zur Emotionalisierung.

Problem: Behörden erzeugen eigene Bildrealitäten –
Glaubwürdigkeit leidet.






(27:10) – KI-Erkennung scheitert


Studie zeigt: Chatbots erkennen KI-Videos nicht zuverlässig.

Technische Erkennung allein reicht nicht.






(29:06) – Neue Kennzeichnungsideen


Vorschlag: Transparenz nach

Autorenschaft

Ausführung

Verfeinerung

Verifikation (Mensch/KI/Assisted).

Ansatz: Medienübergreifendes System statt einfacher
„KI“-Labels.






(35:44) – Vertrauenskrise neu definiert


„Lügner-Dividende“: Echte Bilder können als KI-Fake
diskreditiert werden.

KI-Restaurierungen verändern reale Personen subtil.

Notwendig: Vertrauenszonen je nach Kontext (Journalismus,
Werbung, freie Kunst).






(38:48) – KI-Nutzung weltweit


Microsoft-Studie zeigt:

Hohe Nutzung in VAE und Singapur.

Deutschland im Mittelfeld.

USA nicht führend bei Nutzung.

Digitalisierte Staaten adaptieren schneller.






(41:37) – Kreative vs. KI-Training


Initiativen gegen ungefragtes Training mit urheberrechtlich
geschütztem Material.

Beispiel: Bücher werden gekauft, gescannt, zerstört –
rechtlich zulässig in den USA.






(44:54) – Risiken: Doom-Szenario oder Realismus?


Essay von Dario Amodei (CEO Anthropic):

Risiken durch Überwachung, Autoritarismus, Missbrauch.

Weniger Superintelligenz, mehr reale Machtfragen.




Kommentare (0)

Lade Inhalte...

Abonnenten

Starte jetzt mit Deinem eigenen Podcast!

Teste unser Podcast-Hosting kostenlos und unverbindlich für 30 Tage.

www.podcaster.de

#EinfachPodcasten #WerdePodcaster

15
15