Podcaster
Episoden
28.03.2026
22 Minuten
Moderator Christoph Soltmannowski spricht mit Sven Pfiffner von der ETH Zürich über eine stille Revolution: Moderne KI-Systeme arbeiten längst nicht mehr allein. Was das für Unternehmen, Interfaces und unsere Beziehung zur Maschine bedeutet.
Wer heute ChatGPT oder Claude nutzt, geht davon aus, mit einem einzigen Modell zu sprechen. Doch diese Vorstellung ist überholt. Sven Pfiffner, KI-Forscher am Computer Graphics Lab der ETH Zürich, erklärt: Die Zukunft gehört vernetzten Spezialisten – verschiedene Teilmodelle koordinieren sich, ähnlich wie Fachärzte in einem Krankenhaus. Der Nutzer wird dabei vom Prompter zum Orchestrator: Nicht mehr das Feintuning jeder Anweisung zählt, sondern die Fähigkeit zu kommunizieren, was man will. «Das unterscheidet sich immer weniger davon, wie ich es einem Teamkollegen erklären würde», so Pfiffner.
Vertrauen ist gut, Evaluierung ist besser
Mit wachsender Autonomie steigt die Frage nach Kontrolle. Da KI probabilistisch arbeitet, könne immer Unerwartetes entstehen, räumt Pfiffner ein. Entscheidend sei deshalb laufende qualitative Evaluierung – Interaktionen aufzeichnen, analysieren, nachjustieren. Dabei warnt er vor dem Unterschied zwischen Demo und Realität: Viele Hersteller zeigten nur kontrollierte Szenarien. «Nicht die eindrucksvollste Demo ist entscheidend, sondern die nachweisbare Qualität im realen Einsatz.»
Avatare: Faszination und Risiko
Je komplexer die Systeme im Hintergrund, desto einfacher muss die Oberfläche werden. Chatfenster seien langfristig nur ein Zwischenstadium, so Pfiffner. Er arbeitet an der ETH unter Dr. Rafael Wampfler an einem digitalen Einstein, der mit der Stimme des Physikers spricht und per Webcam auf sein Gegenüber reagiert. Doch je menschlicher die Maschine wirkt, desto höher das Risiko emotionaler Bindungen. OpenAI musste 2025 sein GPT-Modell zurückschrauben, nachdem Nutzer eine persönliche Abhängigkeit entwickelt hatten. Pfiffner sieht die Verantwortung bei den Herstellern: «Es muss klar kommuniziert werden – hier ist eine Maschine, kein Mensch.»
KI als Kollegin, nicht als Ersatz
Für die näheren Jahre sieht Pfiffner keine Massenentlassungen, wohl aber einen Wandel: Repetitive Aufgaben werden delegiert, Menschen gewinnen Raum für Kreativität und persönliche Erfahrung. «Alles, was eine KI schafft, ist eine Kombination aus allem, was sie gesehen hat. Beim Menschen stecken eigene Gefühle drin – und das wird man immer spüren.» Sein Rat: eine Intuition für KI-Systeme durch regelmässige Interaktion entwickeln, statt sich in technischen Details zu verlieren.
Vertrauen ist gut, Evaluierung ist besserAvatare: Faszination und RisikoKI als Kollegin, nicht als Ersatz.
Wer heute ChatGPT oder Claude nutzt, geht davon aus, mit einem einzigen Modell zu sprechen. Doch diese Vorstellung ist überholt. Sven Pfiffner, KI-Forscher am Computer Graphics Lab der ETH Zürich, erklärt: Die Zukunft gehört vernetzten Spezialisten – verschiedene Teilmodelle koordinieren sich, ähnlich wie Fachärzte in einem Krankenhaus. Der Nutzer wird dabei vom Prompter zum Orchestrator: Nicht mehr das Feintuning jeder Anweisung zählt, sondern die Fähigkeit zu kommunizieren, was man will. «Das unterscheidet sich immer weniger davon, wie ich es einem Teamkollegen erklären würde», so Pfiffner.
Vertrauen ist gut, Evaluierung ist besser
Mit wachsender Autonomie steigt die Frage nach Kontrolle. Da KI probabilistisch arbeitet, könne immer Unerwartetes entstehen, räumt Pfiffner ein. Entscheidend sei deshalb laufende qualitative Evaluierung – Interaktionen aufzeichnen, analysieren, nachjustieren. Dabei warnt er vor dem Unterschied zwischen Demo und Realität: Viele Hersteller zeigten nur kontrollierte Szenarien. «Nicht die eindrucksvollste Demo ist entscheidend, sondern die nachweisbare Qualität im realen Einsatz.»
Avatare: Faszination und Risiko
Je komplexer die Systeme im Hintergrund, desto einfacher muss die Oberfläche werden. Chatfenster seien langfristig nur ein Zwischenstadium, so Pfiffner. Er arbeitet an der ETH unter Dr. Rafael Wampfler an einem digitalen Einstein, der mit der Stimme des Physikers spricht und per Webcam auf sein Gegenüber reagiert. Doch je menschlicher die Maschine wirkt, desto höher das Risiko emotionaler Bindungen. OpenAI musste 2025 sein GPT-Modell zurückschrauben, nachdem Nutzer eine persönliche Abhängigkeit entwickelt hatten. Pfiffner sieht die Verantwortung bei den Herstellern: «Es muss klar kommuniziert werden – hier ist eine Maschine, kein Mensch.»
KI als Kollegin, nicht als Ersatz
Für die näheren Jahre sieht Pfiffner keine Massenentlassungen, wohl aber einen Wandel: Repetitive Aufgaben werden delegiert, Menschen gewinnen Raum für Kreativität und persönliche Erfahrung. «Alles, was eine KI schafft, ist eine Kombination aus allem, was sie gesehen hat. Beim Menschen stecken eigene Gefühle drin – und das wird man immer spüren.» Sein Rat: eine Intuition für KI-Systeme durch regelmässige Interaktion entwickeln, statt sich in technischen Details zu verlieren.
Vertrauen ist gut, Evaluierung ist besserAvatare: Faszination und RisikoKI als Kollegin, nicht als Ersatz.
Mehr
15.03.2026
27 Minuten
Im Videopodcast «AI und Gesellschaft – Wege in die neue Welt» der Stiftung Text Akademie spricht Moderator Christoph Soltmannowski mit dem digitalen Zwilling von Audio-Engineer und KI-Experte Pasquale de Sapio. Das Besondere: Der Gast ist nicht physisch anwesend – sondern als KI-gestützter Avatar.Was passiert, wenn ein Podcastgast gar kein Mensch ist – zumindest nicht im herkömmlichen Sinn? Genau dieses Experiment wagt die aktuelle Folge. De Sapio, Absolvent des SAE Institute und erfahrener Produzent mit Stationen in Radio, Film und Musik, nimmt als sogenannter AI Twin am Gespräch teil. Sein digitaler Zwilling basiert auf seinen realen Aussagen, seiner Stimme und seinem Fachwissen – und wirft damit grundlegende Fragen auf: Wo endet der Mensch, wo beginnt die Maschine?De Sapio sieht in AI Twins zunächst enormes Potenzial: Skalierbarkeit, Mehrsprachigkeit und Effizienzgewinne machen digitale Zwillinge zu einem vielversprechenden Werkzeug in der Medienproduktion. Gleichzeitig warnt er vor Risiken wie Vertrauensverlust und fehlender Transparenz. Die zentrale Frage laute: Wie lässt sich die Technologie nutzen, ohne Würde und Vertrauen zu verlieren?Die Diskussion zeigt, wie tiefgreifend sich die Kreativbranche verändert. Klassische Berufsbilder weichen zunehmend hybriden Profilen – vom Content Creator bis zum Prompt Designer. KI beschleunige zwar kreative Prozesse massiv, doch Urteilsvermögen und Verantwortung müssten beim Menschen bleiben. Empathie, kulturelles Gespür und Lernbereitschaft seien die Schlüsselkompetenzen der Zukunft.Als Gründer der AI Media Agency versteht de Sapio sein Unternehmen als Brücke zwischen Technik und Gestaltung. Neue Workflows, tiefes Verständnis für KI-Tools und ein Fokus auf die Idee statt auf das Tool selbst unterscheiden den Ansatz von der klassischen Agentur. Kunden zeigten sich oft überrascht, wie schnell erste Visualisierungen entstehen – und wie diese als neue Diskussionsgrundlage dienen.Besonders am Herzen liegen de Sapio zwei Initiativen: Der AMA Award macht innovative KI-Projekte sichtbar, der Creator Day vermittelt Wissen zu KI-gestützter Content-Produktion praxisnah. Beides seien Antworten auf die wachsende Notwendigkeit von Austausch und Weiterbildung in einer Branche im Umbruch.
Mehr
27.02.2026
43 Minuten
Wie bereiten wir uns auf eine Arbeitswelt vor, in der KI nicht mehr wegzudenken ist?
In dieser Folge erklärt Roger Oberholzer, Mitinitiator von EinstAIn, warum fundamentales Technologieverständnis wichtiger ist als Tool-Wissen – und warum Antizipation zur entscheidenden Überlebensstrategie wird.Roger Oberholzer, Partner und Academy Lead bei Kuble AG, beschäftigt sich seit Jahren intensiv mit der Frage, wie Menschen und Organisationen den KI-Wandel nicht bloss erleiden, sondern aktiv gestalten können. Als Mitinitiator von EinstAIn – dem neuen Thinktank des Verbands Angestellte Schweiz – setzt er auf einen paritätischen Ansatz: Wissenschaft, Unternehmen und Betroffene gemeinsam an einem Tisch, um die Zukunft der Arbeit zu antizipieren, bevor sie einfach passiert.
Im Gespräch mit Moderator Christoph Soltmannowski skizziert er, was diese Transformation von früheren Umbrüchen unterscheidet – und warum diesmal die Geschwindigkeit das eigentliche Problem ist.
Grundlagen statt Tool-Hopping
Viele Unternehmen schulen ihre Mitarbeitenden im Umgang mit einzelnen KI-Applikationen. Oberholzer hält das für zu kurz gedacht: Wer nur die Bedienung eines Tools kennt, verliert bei der nächsten Modellgeneration sofort wieder den Anschluss. Entscheidend sei ein grundlegendes Verständnis der Technologie – wie sie funktioniert, wo ihre Grenzen liegen, welche Risiken sie birgt. In den Trainings von Kuble werden deshalb zuerst die Grundlagen vermittelt, bevor konkrete Anwendungen ins Spiel kommen. Das nehme Ängste, erhöhe die Motivation – und schaffe Resilienz gegenüber dem nächsten Wandel.
Die Halbwertszeit von Erfahrung sinkt rapide
Lebenslanges Lernen war schon länger ein Thema – aber seine Dringlichkeit hat eine neue Qualität erreicht. «Ich kann heute etwas testen, finde, das funktioniert nicht. Und in einem Monat ist es bereits gelöst», sagt Oberholzer. Erfahrungen veralten schneller als je zuvor. Das erfordert eine Agilität, die sowohl Individuen als auch Organisationen fordert: Weiterbildung ist keine Aufgabe allein des Arbeitgebers oder des Einzelnen mehr, sondern eine geteilte Verantwortung. Initiativen wie EinstAIn wollen genau diesen Dialog strukturieren – mit Denkanstössen, Szenarien und konkreten Orientierungsangeboten für Angestellte wie für Unternehmen.
Der Videopodcast «AI und Gesellschaft – Wege in die neue Welt», moderiert von Christoph Soltmannowski, wird produziert von der Stiftung Text Akademie. Monatlich erscheinen zwei Folgen, auf Spotify, YouTube und den grösseren Podcast-Plattformen.
In dieser Folge erklärt Roger Oberholzer, Mitinitiator von EinstAIn, warum fundamentales Technologieverständnis wichtiger ist als Tool-Wissen – und warum Antizipation zur entscheidenden Überlebensstrategie wird.Roger Oberholzer, Partner und Academy Lead bei Kuble AG, beschäftigt sich seit Jahren intensiv mit der Frage, wie Menschen und Organisationen den KI-Wandel nicht bloss erleiden, sondern aktiv gestalten können. Als Mitinitiator von EinstAIn – dem neuen Thinktank des Verbands Angestellte Schweiz – setzt er auf einen paritätischen Ansatz: Wissenschaft, Unternehmen und Betroffene gemeinsam an einem Tisch, um die Zukunft der Arbeit zu antizipieren, bevor sie einfach passiert.
Im Gespräch mit Moderator Christoph Soltmannowski skizziert er, was diese Transformation von früheren Umbrüchen unterscheidet – und warum diesmal die Geschwindigkeit das eigentliche Problem ist.
Grundlagen statt Tool-Hopping
Viele Unternehmen schulen ihre Mitarbeitenden im Umgang mit einzelnen KI-Applikationen. Oberholzer hält das für zu kurz gedacht: Wer nur die Bedienung eines Tools kennt, verliert bei der nächsten Modellgeneration sofort wieder den Anschluss. Entscheidend sei ein grundlegendes Verständnis der Technologie – wie sie funktioniert, wo ihre Grenzen liegen, welche Risiken sie birgt. In den Trainings von Kuble werden deshalb zuerst die Grundlagen vermittelt, bevor konkrete Anwendungen ins Spiel kommen. Das nehme Ängste, erhöhe die Motivation – und schaffe Resilienz gegenüber dem nächsten Wandel.
Die Halbwertszeit von Erfahrung sinkt rapide
Lebenslanges Lernen war schon länger ein Thema – aber seine Dringlichkeit hat eine neue Qualität erreicht. «Ich kann heute etwas testen, finde, das funktioniert nicht. Und in einem Monat ist es bereits gelöst», sagt Oberholzer. Erfahrungen veralten schneller als je zuvor. Das erfordert eine Agilität, die sowohl Individuen als auch Organisationen fordert: Weiterbildung ist keine Aufgabe allein des Arbeitgebers oder des Einzelnen mehr, sondern eine geteilte Verantwortung. Initiativen wie EinstAIn wollen genau diesen Dialog strukturieren – mit Denkanstössen, Szenarien und konkreten Orientierungsangeboten für Angestellte wie für Unternehmen.
Der Videopodcast «AI und Gesellschaft – Wege in die neue Welt», moderiert von Christoph Soltmannowski, wird produziert von der Stiftung Text Akademie. Monatlich erscheinen zwei Folgen, auf Spotify, YouTube und den grösseren Podcast-Plattformen.
Mehr
13.02.2026
29 Minuten
In dieser Folge des Podcasts «AI und Gesellschaft – Wege in die neue Welt» diskutiert Moderator Christoph Soltmannowski mit der Strategie-Expertin Barbara Schwede über die tiefgreifenden Veränderungen unserer Sprache durch Artificial Intelligence (AI oder KI, Künstliche Intelligenz). Während die Technologie den Zugang zur schriftlichen Kommunikation demokratisiert, warnt die Expertin vor einem schleichenden «sprachlichen Einheitsbrei» und dem Verlust kultureller Identität.
Die Sprache ist das Betriebssystem unserer Gesellschaft. Doch was passiert, wenn dieses System zunehmend von Algorithmen umgeschrieben wird? Barbara Schwede, Dozentin und Inhaberin einer Agentur für digitale Strategie, blickt im Gespräch mit Moderator Christoph Soltmannowski auf eine Entwicklung, die weit über blosse Effizienzsteigerung hinausgeht.
KI fungiert heute in erster Linie als Werkzeug der Demokratisierung. Menschen, denen es bisher schwerfiel, Gedanken präzise zu strukturieren oder komplexe Sachverhalte zu formulieren, erhalten durch KI-Tools eine Stimme, die «perfekt geschliffen» klingt. Diese Inklusion ermöglicht eine breitere Teilhabe an öffentlichen Diskursen und baut Barrieren ab.
Doch diese neue Leichtigkeit hat ihren Preis: den Verlust der Einzigartigkeit. Schwede beobachtet eine zunehmende Vereinheitlichung. KI-Texte folgen oft den gleichen Mustern: typische Bulletpoints, Dreierfiguren bei Adjektiven und ein immer ähnlicher werdender Aufbau. Die Expertin geht sogar so weit, dass sie ihren eigenen Schreibstil anpasst, um nicht nach «Maschine» zu klingen – so verzichtet sie mittlerweile zum Beispiel bewusst auf Bindestriche, weil diese für sie heute nach einem typischen KI-Duktus aussehen.
Ein zentraler Kritikpunkt im Podcast ist der Umgang mit der Verantwortung. Die Perfektion der KI-Outputs verleitet dazu, in einen «geistigen Schlummermodus» zu verfallen; Texte werden unreflektiert übernommen.
Hier zieht Barbara Schwede eine klare rote Linie: «Solange mein Name unter einem Text steht, muss ich dafür einstehen können».
Die Verantwortung für Fakten und die ethische Einordnung bleibt eine rein menschliche Domäne. Besonders in der Krisenkommunikation oder bei juristischen Themen sei menschliche Kontrolle absolut unerlässlich.
Gutes Texten bleibt Handarbeit
Für die Medienbranche und die Unternehmenskommunikation bietet KI enorme Chancen zur Automatisierung repetitiver Aufgaben, wie etwa die Aufbereitung von Inhalten für verschiedene Kanäle oder einfache Übersetzungen. Dennoch bleibt gutes Texten laut Barbara Schwede Handarbeit: Tiefgehende Recherche, das Einfühlen in emotionale Kontexte und eine klare Haltung lassen sich (noch) nicht durch Wahrscheinlichkeitsberechnungen ersetzen.
Marken stehen vor der Herausforderung, trotz KI-Unterstützung ein eigenes Profil zu behalten. Während KI häufig Ecken und Kanten «weichspült», entsteht Aufmerksamkeit gerade durch humorvolle Stolpersteine oder dialektale Feinheiten – Elemente, bei denen die KI oft versagt.
Verflachung droht
Besorgniserregend ist laut Schwede die kulturelle Verflachung. Da viele Modelle auf englischsprachigen Daten basieren, gehen lokale Referenzen, spezifische Sprichwörter und die spielerische Freude an der Sprache oft verloren. «Ich habe manchmal das Gefühl, der Spaß an der Sprache geht ein bisschen verloren», so Schwede im Podcast.
Die Zukunft der Sprachberufe sieht Schwede in einer massiven Konsolidierung. Während das Auftragsvolumen für einfache Übersetzungen bereits radikal auf ein Zehntel geschrumpft ist, gewinnen strategische und kuratorische Fähigkeiten an Bedeutung. Die Rolle des Menschen wandelt sich vom reinen Texter zum kritischen Kurator, der den Output der Maschine steuert, prüft und mit individueller Kreativität veredelt.
Website von Barbara Schwede:
Die Schwedin.
Die Sprache ist das Betriebssystem unserer Gesellschaft. Doch was passiert, wenn dieses System zunehmend von Algorithmen umgeschrieben wird? Barbara Schwede, Dozentin und Inhaberin einer Agentur für digitale Strategie, blickt im Gespräch mit Moderator Christoph Soltmannowski auf eine Entwicklung, die weit über blosse Effizienzsteigerung hinausgeht.
KI fungiert heute in erster Linie als Werkzeug der Demokratisierung. Menschen, denen es bisher schwerfiel, Gedanken präzise zu strukturieren oder komplexe Sachverhalte zu formulieren, erhalten durch KI-Tools eine Stimme, die «perfekt geschliffen» klingt. Diese Inklusion ermöglicht eine breitere Teilhabe an öffentlichen Diskursen und baut Barrieren ab.
Doch diese neue Leichtigkeit hat ihren Preis: den Verlust der Einzigartigkeit. Schwede beobachtet eine zunehmende Vereinheitlichung. KI-Texte folgen oft den gleichen Mustern: typische Bulletpoints, Dreierfiguren bei Adjektiven und ein immer ähnlicher werdender Aufbau. Die Expertin geht sogar so weit, dass sie ihren eigenen Schreibstil anpasst, um nicht nach «Maschine» zu klingen – so verzichtet sie mittlerweile zum Beispiel bewusst auf Bindestriche, weil diese für sie heute nach einem typischen KI-Duktus aussehen.
Ein zentraler Kritikpunkt im Podcast ist der Umgang mit der Verantwortung. Die Perfektion der KI-Outputs verleitet dazu, in einen «geistigen Schlummermodus» zu verfallen; Texte werden unreflektiert übernommen.
Hier zieht Barbara Schwede eine klare rote Linie: «Solange mein Name unter einem Text steht, muss ich dafür einstehen können».
Die Verantwortung für Fakten und die ethische Einordnung bleibt eine rein menschliche Domäne. Besonders in der Krisenkommunikation oder bei juristischen Themen sei menschliche Kontrolle absolut unerlässlich.
Gutes Texten bleibt Handarbeit
Für die Medienbranche und die Unternehmenskommunikation bietet KI enorme Chancen zur Automatisierung repetitiver Aufgaben, wie etwa die Aufbereitung von Inhalten für verschiedene Kanäle oder einfache Übersetzungen. Dennoch bleibt gutes Texten laut Barbara Schwede Handarbeit: Tiefgehende Recherche, das Einfühlen in emotionale Kontexte und eine klare Haltung lassen sich (noch) nicht durch Wahrscheinlichkeitsberechnungen ersetzen.
Marken stehen vor der Herausforderung, trotz KI-Unterstützung ein eigenes Profil zu behalten. Während KI häufig Ecken und Kanten «weichspült», entsteht Aufmerksamkeit gerade durch humorvolle Stolpersteine oder dialektale Feinheiten – Elemente, bei denen die KI oft versagt.
Verflachung droht
Besorgniserregend ist laut Schwede die kulturelle Verflachung. Da viele Modelle auf englischsprachigen Daten basieren, gehen lokale Referenzen, spezifische Sprichwörter und die spielerische Freude an der Sprache oft verloren. «Ich habe manchmal das Gefühl, der Spaß an der Sprache geht ein bisschen verloren», so Schwede im Podcast.
Die Zukunft der Sprachberufe sieht Schwede in einer massiven Konsolidierung. Während das Auftragsvolumen für einfache Übersetzungen bereits radikal auf ein Zehntel geschrumpft ist, gewinnen strategische und kuratorische Fähigkeiten an Bedeutung. Die Rolle des Menschen wandelt sich vom reinen Texter zum kritischen Kurator, der den Output der Maschine steuert, prüft und mit individueller Kreativität veredelt.
Website von Barbara Schwede:
Die Schwedin.
Mehr
29.01.2026
37 Minuten
Effizienz-Turbo oder Kreativitäts-Killer? Visual-Effects-Profi Frank Petzold über Artificial Intelligence
Die Filmbranche erlebt durch Artificial Intelligence einen Umbruch, der an die Euphorie des Atomic Age der Fünfzigerjahren erinnert.
VFX-Experte Frank Petzold spricht in dieser Folge über die Ambivalenz neuer Tools, den Schutz von Künstlerrechten und warum das analoge Handwerk in einer digitalen Welt wichtiger wird denn je.
Frank Petzold gehört zur Oberliga Hollywoods, was Special Effects betrifft. Mit Mitwirkungen an Blockbustern wie «Starship Troopers», «The Ring» oder «The Legend of Tarzan» und als Visual Effects Director von «Im Westen nichts Neues» (dafür erhielt er u.a. eine Oscar-Nomination und den Deutschen sowie den Europäischen Filmpreis) hat er die visuelle Sprache des modernen Kinos mitgeprägt. Im Gespräch mit Christoph Soltmannowski beleuchtet er nun ein Thema, das die Branche spaltet: Artificial Intelligence.KI – ein zweischneidiges Schwert der Innovation?
Frank Petzold betrachtet die aktuelle KI-Entwicklung als «zweischneidiges Schwert»: Er warnt vor einer Überhitzung wie im «Atomic Age», da ein zu hohes Tempo den Blick für den sinnvollen Einsatz trüben könne.
In der Postproduktion erweist sich die Technik jedoch bereits als Gewinn, indem sie mühsame Routineaufgaben wie Rotoscoping oder Kameratracking automatisiert. Zudem dient sie als effizientes Werkzeug für Layouts und Inspiration, um etwa in Sekundenschnelle verschiedene Hintergrundvariationen zu entwerfen.
Die «Black Box» und der Verlust der Kontrolle
Trotz der Geschwindigkeitsvorteile sieht der Experte Risiken in der mangelnden Kontrollierbarkeit. Viele KI-Plattformen fungieren als «Black Box» – man weiss nicht genau, was unter der «Motorhaube» passiert.
Für einen Visual Effects Director ist dies problematisch, da er für konsistente Ergebnisse über hunderte von Kameraeinstellungen hinweg garantieren muss.Besonders kritisch wird die Entwicklung beim Thema Deepfakes und dem Schutz von Schauspielern. In Hollywood regt sich Widerstand, da Stars wie Robert Downey Jr. bereits komplett digital gescannt wurden.
«Da muss man den Deckel draufnehmen und Filter einbauen, um den Missbrauch von Stimme und Aussehen zu verhindern», fordert Petzold.
Warum die «Seele» nicht berechenbar ist
Ein zentraler Punkt des Gesprächs ist die Unersetzbarkeit menschlicher Kreativität. Petzold betont, dass echte Kunst von Spontaneität und Fehlern lebt. Visual Effects seien dann am besten, wenn sie eine «Seele» haben und Details eine tiefere Bedeutung im Storytelling übernehmen. So wie die subtilen Flugzeugkämpfe im Hintergrund von Im Westen nichts Neues, welche die ständige Präsenz des Krieges fühlbar machten.Frank Petzolds Rat an die nächste Generation: Das Handwerk von der Pike auf lernen. Trotz aller KI-Plugins bleibt das Verständnis für Optik, Licht und analoge Fotografie die Basis für Qualität.
Frank Petzolds Showreel:
https://vimeo.com/788279534?share=copy
Die Filmbranche erlebt durch Artificial Intelligence einen Umbruch, der an die Euphorie des Atomic Age der Fünfzigerjahren erinnert.
VFX-Experte Frank Petzold spricht in dieser Folge über die Ambivalenz neuer Tools, den Schutz von Künstlerrechten und warum das analoge Handwerk in einer digitalen Welt wichtiger wird denn je.
Frank Petzold gehört zur Oberliga Hollywoods, was Special Effects betrifft. Mit Mitwirkungen an Blockbustern wie «Starship Troopers», «The Ring» oder «The Legend of Tarzan» und als Visual Effects Director von «Im Westen nichts Neues» (dafür erhielt er u.a. eine Oscar-Nomination und den Deutschen sowie den Europäischen Filmpreis) hat er die visuelle Sprache des modernen Kinos mitgeprägt. Im Gespräch mit Christoph Soltmannowski beleuchtet er nun ein Thema, das die Branche spaltet: Artificial Intelligence.KI – ein zweischneidiges Schwert der Innovation?
Frank Petzold betrachtet die aktuelle KI-Entwicklung als «zweischneidiges Schwert»: Er warnt vor einer Überhitzung wie im «Atomic Age», da ein zu hohes Tempo den Blick für den sinnvollen Einsatz trüben könne.
In der Postproduktion erweist sich die Technik jedoch bereits als Gewinn, indem sie mühsame Routineaufgaben wie Rotoscoping oder Kameratracking automatisiert. Zudem dient sie als effizientes Werkzeug für Layouts und Inspiration, um etwa in Sekundenschnelle verschiedene Hintergrundvariationen zu entwerfen.
Die «Black Box» und der Verlust der Kontrolle
Trotz der Geschwindigkeitsvorteile sieht der Experte Risiken in der mangelnden Kontrollierbarkeit. Viele KI-Plattformen fungieren als «Black Box» – man weiss nicht genau, was unter der «Motorhaube» passiert.
Für einen Visual Effects Director ist dies problematisch, da er für konsistente Ergebnisse über hunderte von Kameraeinstellungen hinweg garantieren muss.Besonders kritisch wird die Entwicklung beim Thema Deepfakes und dem Schutz von Schauspielern. In Hollywood regt sich Widerstand, da Stars wie Robert Downey Jr. bereits komplett digital gescannt wurden.
«Da muss man den Deckel draufnehmen und Filter einbauen, um den Missbrauch von Stimme und Aussehen zu verhindern», fordert Petzold.
Warum die «Seele» nicht berechenbar ist
Ein zentraler Punkt des Gesprächs ist die Unersetzbarkeit menschlicher Kreativität. Petzold betont, dass echte Kunst von Spontaneität und Fehlern lebt. Visual Effects seien dann am besten, wenn sie eine «Seele» haben und Details eine tiefere Bedeutung im Storytelling übernehmen. So wie die subtilen Flugzeugkämpfe im Hintergrund von Im Westen nichts Neues, welche die ständige Präsenz des Krieges fühlbar machten.Frank Petzolds Rat an die nächste Generation: Das Handwerk von der Pike auf lernen. Trotz aller KI-Plugins bleibt das Verständnis für Optik, Licht und analoge Fotografie die Basis für Qualität.
Frank Petzolds Showreel:
https://vimeo.com/788279534?share=copy
Mehr
Über diesen Podcast
Das Podcast-Format «AI und Gesellschaft – Wege in die neue Welt»
der Schweizerischen Text Akademie erörtert, wie Artificial
Intelligence uns Menschen im Alltag dient oder bedroht und wie AI
unsere Arbeitswelt verändert. IMPRESSUM Stiftung Schweizerische
Text Akademie Prof. Dr. Ivo Hajnal, Stiftungsratspräsident
Redaktion: Christoph Soltmannowski, Chefredaktor; Rolf Pfister,
Director Research Lab42, wissenschaftliche Beratung. Franco Item,
Mitglied Vorstand Science City Davos, inhaltliche Koordination.
Abonnenten
Riedstadt
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.