DOAG VOICES FutureAI – mit Dr. Benjamin Linnik und Johann-Peter Hartmann

DOAG VOICES FutureAI – mit Dr. Benjamin Linnik und Johann-Peter Hartmann

Wie KI-Agenten lernen, kooperieren und Software modernisieren – ein Deep Dive in die nächste Evolutionsstufe der Künstlichen Intelligenz.
24 Minuten
Podcast
Podcaster
Einzigartige Stimmen aus der Welt der IT

Beschreibung

vor 1 Monat

In dieser Folge von DOAG VOICES FutureAI spricht Host Dr.
Benjamin Linnik, Tech Lead für KI-Anwendungen, mit Johann-Peter
Hartmann, CTO, Gründer und KI-Experte, über die Zukunft
agentischer Systeme und die Frage, wie lernfähige KI-Agents die
Softwareentwicklung verändern.


Ein Gespräch über evolutionäre Algorithmen, Explainable AI,
Selbstheilung im Code – und warum ein Agentenschwarm manchmal wie
ein Sack Katzen ist. Es wurde während der KI Navigator Berlin
aufgezeichnet (2. & 3. Juni 2025).


Kapitelübersicht


00:00 – Einführung & Vorstellung


Dr. Benjamin Linnik begrüßt Johann-Peter Hartmann und stellt
dessen langen Background in der Softwareentwicklung vor.


02:00 – Der Reiz des Programmierens heute


Warum viele CTOs wieder selbst programmieren – und was die neue
Generation von KI-Tools damit zu tun hat.


04:00 – Vom Traum zum System: Agenten und Swarms


Hartmann erklärt, warum er sich seit den 80ern für "Agents"
begeistert – und wie Science Fiction langsam Realität wird.


07:00 – Kooperierende und lernende Agenten


Einblick in aktuelle Entwicklungen: Swarms, Metakognition und die
Schwierigkeiten, Agenten zuverlässig arbeiten zu lassen.


09:00 – Agenten unter Kontrolle halten


Warum Swarms wie "ein Sack Katzen" sind – und wie strukturierte
Agent Handoffs helfen, Chaos zu vermeiden.


12:00 – Praxiseinsatz: Modernisierung mit Agenten-Swarms


Wie KI-Agenten bei Softwaremigrationen helfen – und warum
komplexe Projekte noch nicht ganz autonom funktionieren.


15:00 – Grenzen und Kosten der Technik


Warum Swarms zwar mächtig, aber teuer und schwer zu steuern sind
– und wie man den Fokus behält.


17:00 – Self-Healing & Validierung


Wie Agenten sich selbst korrigieren, Tests durchführen und
typische Entwicklerprobleme lösen.


19:00 – Lernen aus Fehlern: Promptistan & Rule-Sets


Hartmann über die Bedeutung von Regeln, Feedback-Loops und
selbstlernenden Strategien im Agenten-Design.


21:00 – Explainable AI & Mensch im Loop


Wie erklärbare KI Transparenz schafft – und warum menschliches
Feedback weiterhin unverzichtbar bleibt.


23:00 – Fazit & Ausblick


Warum die Zukunft agentischer Systeme spannend bleibt – und wie
wir von KI-Systemen über unser eigenes Denken lernen.


---


Die Top 3 Learnings dieser Folge:


1. Agenten lernen – aber noch nicht stabil genug:


Kooperative und lernende Agenten eröffnen neue Möglichkeiten,
stoßen aber bei komplexen Aufgaben an Grenzen.


2. Explainable AI ist Schlüssel zur Verantwortung:


Transparente Entscheidungsprozesse ermöglichen Vertrauen und
gezieltes menschliches Feedback.


3. Selbstheilung und Regelwerke sind der Weg nach vorn:


Systeme, die Fehler erkennen, daraus lernen und Regeln
verallgemeinern, sind die Basis der nächsten KI-Generation.


---


Mehr über die DOAG:


Entdecke viele weitere kostenlose Angebote – von DOAG.tv über
WebSessions und Newsletter zu aktuellen IT-Themen bis hin zu
Regionalgruppen und Communities sowie dem Zeitschriftenarchiv.


https://www.doag.org/


---


Anstehende DOAG-Konferenzen:


European NetSuite User Days | 17. & 18. November 2025 |
Nürnberg | https://netsuite.doag.org/de/home/


DOAG 2025 Konferenz + Ausstellung | 18. - 21. November 2025 |
Nürnberg | https://anwenderkonferenz.doag.org/de/home/


Low-Code Creator | 18. & 19. November 2025 | Nürnberg |
https://low-code.doag.org/de/


KI Navigator | 19. & 20. November 2025 | Nürnberg |
https://www.kinavigator.eu/de/nuernberg/


---


KI Navigator Berlin:


https://www.kinavigator.eu/de/ki-navigator-berlin-2025/


Hosted on Acast. See acast.com/privacy for more information.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15