#42 | Vom Prompt zum Partner – ETH-Forscher Sven Pfiffner über die Zukunft spezialisierter KI-Systeme

#42 | Vom Prompt zum Partner – ETH-Forscher Sven Pfiffner über die Zukunft spezialisierter KI-Systeme

vor 6 Tagen
22 Minuten
Podcast
Podcaster

Beschreibung

vor 6 Tagen

Moderator Christoph Soltmannowski spricht mit Sven
Pfiffner von der ETH Zürich über eine stille Revolution: Moderne
KI-Systeme arbeiten längst nicht mehr allein. Was das für
Unternehmen, Interfaces und unsere Beziehung zur Maschine
bedeutet.





Wer heute ChatGPT oder Claude nutzt, geht davon aus, mit einem
einzigen Modell zu sprechen. Doch diese Vorstellung ist überholt.
Sven Pfiffner, KI-Forscher am Computer Graphics Lab der ETH
Zürich, erklärt: Die Zukunft gehört vernetzten Spezialisten –
verschiedene Teilmodelle koordinieren sich, ähnlich wie Fachärzte
in einem Krankenhaus. Der Nutzer wird dabei vom Prompter zum
Orchestrator: Nicht mehr das Feintuning jeder Anweisung zählt,
sondern die Fähigkeit zu kommunizieren, was man will. «Das
unterscheidet sich immer weniger davon, wie ich es einem
Teamkollegen erklären würde», so Pfiffner.





Vertrauen ist gut, Evaluierung ist besser


Mit wachsender Autonomie steigt die Frage nach Kontrolle. Da KI
probabilistisch arbeitet, könne immer Unerwartetes entstehen,
räumt Pfiffner ein. Entscheidend sei deshalb laufende qualitative
Evaluierung – Interaktionen aufzeichnen, analysieren,
nachjustieren. Dabei warnt er vor dem Unterschied zwischen Demo
und Realität: Viele Hersteller zeigten nur kontrollierte
Szenarien. «Nicht die eindrucksvollste Demo ist entscheidend,
sondern die nachweisbare Qualität im realen Einsatz.»





Avatare: Faszination und Risiko


Je komplexer die Systeme im Hintergrund, desto einfacher muss die
Oberfläche werden. Chatfenster seien langfristig nur ein
Zwischenstadium, so Pfiffner. Er arbeitet an der ETH unter Dr.
Rafael Wampfler an einem digitalen Einstein, der mit der Stimme
des Physikers spricht und per Webcam auf sein Gegenüber reagiert.
Doch je menschlicher die Maschine wirkt, desto höher das Risiko
emotionaler Bindungen. OpenAI musste 2025 sein GPT-Modell
zurückschrauben, nachdem Nutzer eine persönliche Abhängigkeit
entwickelt hatten. Pfiffner sieht die Verantwortung bei den
Herstellern: «Es muss klar kommuniziert werden – hier ist eine
Maschine, kein Mensch.»





KI als Kollegin, nicht als Ersatz


Für die näheren Jahre sieht Pfiffner keine Massenentlassungen,
wohl aber einen Wandel: Repetitive Aufgaben werden delegiert,
Menschen gewinnen Raum für Kreativität und persönliche Erfahrung.
«Alles, was eine KI schafft, ist eine Kombination aus allem, was
sie gesehen hat. Beim Menschen stecken eigene Gefühle drin – und
das wird man immer spüren.» Sein Rat: eine Intuition für
KI-Systeme durch regelmässige Interaktion entwickeln, statt sich
in technischen Details zu verlieren.


Vertrauen ist gut, Evaluierung ist besserAvatare: Faszination und
RisikoKI als Kollegin, nicht als Ersatz.
15
15
Close