Podcaster
Episoden
13.05.2026
8 Minuten
Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.
Wie kann KI in der Industrie vorausschauende Wartung ermöglichen und automatisch wirksame Prozesse anstoßen? Darum geht es bei Smart Data Ecosystems. Sie basieren nicht auf KI-Modellen, die mit breit verfügbaren Daten trainiert werden können, sondern auf industriellen Anwendungsfällen künstlicher Intelligenz. Wenn KI hier ihr gesamtes Potenzial entfalten soll, braucht sie qualitativ hochwertige und domänenspezifische Daten aus Produktions- und Wartungsprozessen, spezifisches Fachwissen und eine ausreichende Datenmenge, um beispielsweise Wartungsprozesse automatisch anstoßen zu können (Agentic AI).
Eine zentrale Herausforderung dabei ist die sogenannte Data Scarcity: Fehlerfälle und Anomalien treten in industriellen Prozessen vergleichsweise selten auf, sind für das Training von industriellen KI-Systemen jedoch besonders wertvoll. Um robuste und zuverlässige KI-Modelle zu entwickeln, müssen daher Daten aus unterschiedlichen Anwendungsszenarien und Unternehmen zusammengeführt werden. Kurz gesagt: Unternehmen müssen ihre sensiblen Daten teilen.
Hier kommen Datenräume (Dataspaces) ins Spiel: Sie ermöglichen Vertrauen, Datensouveränität, Interoperabilität und klare Regeln für die Datennutzung. Zusammen mit einer hohen Datenqualität sind das die Grundlagen, um wertschöpfende KI-Systeme in der Industrie aufsetzen zu können. Denn gerade für KI gilt: »Garbage in, garbage out«. Datenräume bilden damit einen wichtigen Baustein für den europäischen Weg in die industrielle KI-Nutzung.
Wie kann KI in der Industrie vorausschauende Wartung ermöglichen und automatisch wirksame Prozesse anstoßen? Darum geht es bei Smart Data Ecosystems. Sie basieren nicht auf KI-Modellen, die mit breit verfügbaren Daten trainiert werden können, sondern auf industriellen Anwendungsfällen künstlicher Intelligenz. Wenn KI hier ihr gesamtes Potenzial entfalten soll, braucht sie qualitativ hochwertige und domänenspezifische Daten aus Produktions- und Wartungsprozessen, spezifisches Fachwissen und eine ausreichende Datenmenge, um beispielsweise Wartungsprozesse automatisch anstoßen zu können (Agentic AI).
Eine zentrale Herausforderung dabei ist die sogenannte Data Scarcity: Fehlerfälle und Anomalien treten in industriellen Prozessen vergleichsweise selten auf, sind für das Training von industriellen KI-Systemen jedoch besonders wertvoll. Um robuste und zuverlässige KI-Modelle zu entwickeln, müssen daher Daten aus unterschiedlichen Anwendungsszenarien und Unternehmen zusammengeführt werden. Kurz gesagt: Unternehmen müssen ihre sensiblen Daten teilen.
Hier kommen Datenräume (Dataspaces) ins Spiel: Sie ermöglichen Vertrauen, Datensouveränität, Interoperabilität und klare Regeln für die Datennutzung. Zusammen mit einer hohen Datenqualität sind das die Grundlagen, um wertschöpfende KI-Systeme in der Industrie aufsetzen zu können. Denn gerade für KI gilt: »Garbage in, garbage out«. Datenräume bilden damit einen wichtigen Baustein für den europäischen Weg in die industrielle KI-Nutzung.
Mehr
17.03.2026
1 Minute
Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.
Digitale Zwillinge sind ein digitales Abbild aller Objekte der realen Welt, mit denen wir uns umgeben. Die Idee eines baugleichen Modells entstand in der Raumfahrt: Bei Mondmissionen sollte sich ein identisches Raumschiff für Tests und Fehleranalysen auf der Erde befinden. Digitale Zwillinge sind ein nächster Schritt: Sie bilden das Produkt nicht mehr physisch, sondern digital von der Konstruktion bis zur Nutzung ab.
Doch digitale Zwillinge können noch viel mehr: Sie stellen nicht nur Daten aus der realen Welt zur Verfügung (z.B. Routen, Ladezyklen u.ä. bei einem E-Auto), sondern ermöglichen bidirektionale Kommunikation. So können sie Aktionen in der realen Welt anstoßen.
In diesem Video der »Data Researchers«-Reihe erläutert Boris Otto, was digitale Zwillinge in smarten Datenökosystemen der Zukunft leisten: Sie schaffen Transparenz über den Zustand der Welt und ermöglichen Simulationen bei Veränderungen in der Realwelt (z.B. bei einer Veränderung der Medikation eines Patienten). Dadurch können Digitale Zwillinge Vorschläge machen oder warnen, wenn Probleme drohen. Neu ist, dass sie auch autonom anstelle realer Objekte Entscheidungen für die reale Welt treffen. Sie verschmelzen in smarten Datenökosystemen mit KI-Agenten. Daraus ergeben sich spannende Forschungsfragen: Wie vertraue ich den Entscheidungen digitaler Zwillinge? Wie vertraue ich ihren Datenquellen? Wie fließen ihre Daten in (dezentrale) KI-Modelle ein?
Kapitel
00:00 Einführung & Bedeutung digitaler Zwillinge 00:29 Smart Data Ecosystems – Grundidee 02:01 Was ist ein digitaler Zwilling und woher kommt die Idee? 04:03 Zentrale Eigenschaft: Bidirektionale Kommunikation 05:20 Praxisbeispiel Logistik 07:35 Anwendung im Gesundheitsbereich 08:29 Funktionen digitaler Zwillinge & Rolle von KI 11:32 Herausforderungen: Vertrauen, Daten & Systeme
Digitale Zwillinge sind ein digitales Abbild aller Objekte der realen Welt, mit denen wir uns umgeben. Die Idee eines baugleichen Modells entstand in der Raumfahrt: Bei Mondmissionen sollte sich ein identisches Raumschiff für Tests und Fehleranalysen auf der Erde befinden. Digitale Zwillinge sind ein nächster Schritt: Sie bilden das Produkt nicht mehr physisch, sondern digital von der Konstruktion bis zur Nutzung ab.
Doch digitale Zwillinge können noch viel mehr: Sie stellen nicht nur Daten aus der realen Welt zur Verfügung (z.B. Routen, Ladezyklen u.ä. bei einem E-Auto), sondern ermöglichen bidirektionale Kommunikation. So können sie Aktionen in der realen Welt anstoßen.
In diesem Video der »Data Researchers«-Reihe erläutert Boris Otto, was digitale Zwillinge in smarten Datenökosystemen der Zukunft leisten: Sie schaffen Transparenz über den Zustand der Welt und ermöglichen Simulationen bei Veränderungen in der Realwelt (z.B. bei einer Veränderung der Medikation eines Patienten). Dadurch können Digitale Zwillinge Vorschläge machen oder warnen, wenn Probleme drohen. Neu ist, dass sie auch autonom anstelle realer Objekte Entscheidungen für die reale Welt treffen. Sie verschmelzen in smarten Datenökosystemen mit KI-Agenten. Daraus ergeben sich spannende Forschungsfragen: Wie vertraue ich den Entscheidungen digitaler Zwillinge? Wie vertraue ich ihren Datenquellen? Wie fließen ihre Daten in (dezentrale) KI-Modelle ein?
Kapitel
00:00 Einführung & Bedeutung digitaler Zwillinge 00:29 Smart Data Ecosystems – Grundidee 02:01 Was ist ein digitaler Zwilling und woher kommt die Idee? 04:03 Zentrale Eigenschaft: Bidirektionale Kommunikation 05:20 Praxisbeispiel Logistik 07:35 Anwendung im Gesundheitsbereich 08:29 Funktionen digitaler Zwillinge & Rolle von KI 11:32 Herausforderungen: Vertrauen, Daten & Systeme
Mehr
18.02.2026
1 Minute
Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.
Next Level-Wertschöpfung mit Ökosystemlogik, Digitalen Zwillingen und KI-Agenten
Smart Data Ecosystems sind der nächste Evolutionsschritt auf Basis von Datenökosystemen. Was daran smart ist? Smart Data Ecosystems verbinden Ökosystemlogik, Digitale Zwillinge und KI zu einem neuen Modell intelligenter, datengetriebener Wertschöpfung. Denn während klassische Datenökosysteme den vertrauensvollen Austausch und die gemeinsame Nutzung von Daten ermöglichen, geht es nun um deren intelligente und zunehmend autonome Nutzung durch Künstliche Intelligenz.
In diesem Video der »Data Researchers«-Reihe erläutert Boris Otto die drei zentralen Bausteine, die Smart Data Ecosystems ausmachen:
- Ökosysteme als Organisationsmodell: Dynamische Netzwerke mit gemeinsamer Innovationsausrichtung bilden die Grundlage verteilter Wertschöpfung.
- Digitale Zwillinge & Datenräume: Vertrauenswürdiges Datenteilen schafft eine gemeinsame, lebenszyklusübergreifende Datenbasis.
- KI-Agenten: Auf Basis dieser Daten ermöglichen KI-Agenten autonome Entscheidungen – von prädiktiver Wartung bis zur flexiblen Produktionssteuerung.
Next Level-Wertschöpfung mit Ökosystemlogik, Digitalen Zwillingen und KI-Agenten
Smart Data Ecosystems sind der nächste Evolutionsschritt auf Basis von Datenökosystemen. Was daran smart ist? Smart Data Ecosystems verbinden Ökosystemlogik, Digitale Zwillinge und KI zu einem neuen Modell intelligenter, datengetriebener Wertschöpfung. Denn während klassische Datenökosysteme den vertrauensvollen Austausch und die gemeinsame Nutzung von Daten ermöglichen, geht es nun um deren intelligente und zunehmend autonome Nutzung durch Künstliche Intelligenz.
In diesem Video der »Data Researchers«-Reihe erläutert Boris Otto die drei zentralen Bausteine, die Smart Data Ecosystems ausmachen:
- Ökosysteme als Organisationsmodell: Dynamische Netzwerke mit gemeinsamer Innovationsausrichtung bilden die Grundlage verteilter Wertschöpfung.
- Digitale Zwillinge & Datenräume: Vertrauenswürdiges Datenteilen schafft eine gemeinsame, lebenszyklusübergreifende Datenbasis.
- KI-Agenten: Auf Basis dieser Daten ermöglichen KI-Agenten autonome Entscheidungen – von prädiktiver Wartung bis zur flexiblen Produktionssteuerung.
Mehr
02.12.2025
1 Minute
Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.
Die Industrialisierung der Künstlichen Intelligenz: So gelingt der Sprung vom Pilotprojekt zur produktiven KI-Nutzung.
Europa diskutiert intensiv über große Sprachmodelle und generative KI – doch in der Praxis zeigt sich ein klarer Trend: Unternehmen betrachten diese Modelle zunehmend als austauschbare Basis, während der echte Mehrwert entsteht, wenn eigene Daten intelligent integriert werden. Methoden wie Retrieval-Augmented Generation (RAG) ermöglichen es, KI-Modelle gezielt mit domänenspezifischen Informationen anzureichern und so kontextrelevante Ergebnisse zu liefern. Studien zeigen enormies Potenzial, doch viele Unternehmen stecken noch im »Tal der Piloten«: spannende Demos und Proof-of-Concepts, aber keine flächendeckende Umsetzung.
In diesem Video seiner »Data Researchers«-Videoreihe zeigt Boris Otto drei zentrale Erfolgsfaktoren auf, die es braucht, um KI wirklich zu industrialisieren:
1. Architekturmanagement: Ein klarer Ordnungsrahmen verhindert ein Chaos aus einzelnen Tools und Anwendungen. Nur wer KI sinnvoll in Geschäftsprozesse und IT-/Fertigungssysteme integriert, kann sie breit nutzbar machen.
2. Datenintegration: Ohne eine durchgängige Daten- und KI-Pipeline bleiben Potenziale ungenutzt. Boris Otto erklärt, wie Unternehmen Daten aufbereiten, indexieren und in KI-Modelle einbinden können, um echte Effizienzgewinne zu erzielen.
3. Mitarbeiterkompetenz: KI ersetzt nicht den Menschen. Erfolgreiche Unternehmen fördern Generalisten, die Domänenwissen mit KI- und Datenkompetenz verbinden – das neue Rollenprofil des Business & Industrial Engineers.
Für die Industriealisierung der KI gilt also der Dreiklang: Enabled by architecture, fueled by data, powered by expertise.
Die Industrialisierung der Künstlichen Intelligenz: So gelingt der Sprung vom Pilotprojekt zur produktiven KI-Nutzung.
Europa diskutiert intensiv über große Sprachmodelle und generative KI – doch in der Praxis zeigt sich ein klarer Trend: Unternehmen betrachten diese Modelle zunehmend als austauschbare Basis, während der echte Mehrwert entsteht, wenn eigene Daten intelligent integriert werden. Methoden wie Retrieval-Augmented Generation (RAG) ermöglichen es, KI-Modelle gezielt mit domänenspezifischen Informationen anzureichern und so kontextrelevante Ergebnisse zu liefern. Studien zeigen enormies Potenzial, doch viele Unternehmen stecken noch im »Tal der Piloten«: spannende Demos und Proof-of-Concepts, aber keine flächendeckende Umsetzung.
In diesem Video seiner »Data Researchers«-Videoreihe zeigt Boris Otto drei zentrale Erfolgsfaktoren auf, die es braucht, um KI wirklich zu industrialisieren:
1. Architekturmanagement: Ein klarer Ordnungsrahmen verhindert ein Chaos aus einzelnen Tools und Anwendungen. Nur wer KI sinnvoll in Geschäftsprozesse und IT-/Fertigungssysteme integriert, kann sie breit nutzbar machen.
2. Datenintegration: Ohne eine durchgängige Daten- und KI-Pipeline bleiben Potenziale ungenutzt. Boris Otto erklärt, wie Unternehmen Daten aufbereiten, indexieren und in KI-Modelle einbinden können, um echte Effizienzgewinne zu erzielen.
3. Mitarbeiterkompetenz: KI ersetzt nicht den Menschen. Erfolgreiche Unternehmen fördern Generalisten, die Domänenwissen mit KI- und Datenkompetenz verbinden – das neue Rollenprofil des Business & Industrial Engineers.
Für die Industriealisierung der KI gilt also der Dreiklang: Enabled by architecture, fueled by data, powered by expertise.
Mehr
07.10.2025
17 Minuten
Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.
Die Datenräume (Data Spaces) feiern Geburtstag: Vor 10 Jahren, am 23. September 2015 fand in Berlin das dritte Spitzengespräch zum »Industrial Data Space« statt. Ein Meilenstein, denn an diesem Tag übergab das Bundesforschungsministerium den ersten Förderbescheid für einen Industrial Data Space an Fraunhofer. Was ist bisher passiert und welche Forschungsfragen sind noch offen?
Boris Otto reflektiert in diesem Video seiner »Data Researchers«-Reihe, wo die Datenraumentwicklung heute steht und welche Aufgaben die Zukunft bringt.
Er erklärt auch, was ein Data Space eigentlich ist: eine verteilte Datenintegrations-Architektur, die Standards zum Aufrufen und Speichern von Daten beinhaltet und Datensouveränität für die Datengebenden ermöglicht. Damit bilden Data Spaces die Grundlage für einen vertrauensvollen Datenaustausch innerhalb einer Community. Vorangetrieben wurde das Konzept von der International Data Spaces Association (IDSA), inzwischen ist es auch in Open-Source-Software umgesetzt und befindet sich im Standardisierungsprozess. Zahlreiche Data-Sharing-Initiativen, wie etwa Catena-X für die Automobilindustrie, setzen bereits auf dieses Modell – mit großem internationalen Erfolg.
Was ist jetzt noch zu tun? Wir müssen eine faire Datenökonomie schaffen, Datentransaktionen manipulationssicher erfassen und definieren, welche Daten wir über Datenräume verfügbar machen wollen. Eine Vision von Boris Otto: ein vollständiges digitales Abbild des europäischen Binnenmarktes. Die Reise der Datenräume geht weiter!
Die Datenräume (Data Spaces) feiern Geburtstag: Vor 10 Jahren, am 23. September 2015 fand in Berlin das dritte Spitzengespräch zum »Industrial Data Space« statt. Ein Meilenstein, denn an diesem Tag übergab das Bundesforschungsministerium den ersten Förderbescheid für einen Industrial Data Space an Fraunhofer. Was ist bisher passiert und welche Forschungsfragen sind noch offen?
Boris Otto reflektiert in diesem Video seiner »Data Researchers«-Reihe, wo die Datenraumentwicklung heute steht und welche Aufgaben die Zukunft bringt.
Er erklärt auch, was ein Data Space eigentlich ist: eine verteilte Datenintegrations-Architektur, die Standards zum Aufrufen und Speichern von Daten beinhaltet und Datensouveränität für die Datengebenden ermöglicht. Damit bilden Data Spaces die Grundlage für einen vertrauensvollen Datenaustausch innerhalb einer Community. Vorangetrieben wurde das Konzept von der International Data Spaces Association (IDSA), inzwischen ist es auch in Open-Source-Software umgesetzt und befindet sich im Standardisierungsprozess. Zahlreiche Data-Sharing-Initiativen, wie etwa Catena-X für die Automobilindustrie, setzen bereits auf dieses Modell – mit großem internationalen Erfolg.
Was ist jetzt noch zu tun? Wir müssen eine faire Datenökonomie schaffen, Datentransaktionen manipulationssicher erfassen und definieren, welche Daten wir über Datenräume verfügbar machen wollen. Eine Vision von Boris Otto: ein vollständiges digitales Abbild des europäischen Binnenmarktes. Die Reise der Datenräume geht weiter!
Mehr
Über diesen Podcast
In seiner Videoreihe »Data Researchers« beleuchtet Prof. Dr.-Ing.
Boris Otto aktuelle Digitalisierungsthemen – knapp, informativ und
fundiert. Er ordnet ein, welche Chancen sich aus der digitalen
Transformation ergeben und zeigt konkrete Beispiele auf, wie
Digitalisierung die Welt und insbesondere die Industrie von morgen
verändern wird.
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.