Führung von Künstlicher Intelligenz – geht das? Benno Blumoser, Head Innovation - Siemens AI Lab

Führung von Künstlicher Intelligenz – geht das? Benno Blumoser, Head Innovation - Siemens AI Lab

54 Minuten

Beschreibung

vor 3 Jahren

Die 29. Episode handelt von der Künstlichen Intelligenz und ihrem
Potenzial, die Welt in Zukunft zu verbessern und die Grenzen der
menschlichen Möglichkeiten zu erweitern. Welche Herausforderungen
dabei zu überwältigen sind, wird in einer spannenden Diskussion
zwischen Benno Blumoser, Head of Innovation bei Siemens AI Lab
und Sebastian Morgner im Future of Leadership Podcast ausführlich
erklärt.


Künstliche Intelligenz (kurz: KI) übernimmt immer mehr Aufgaben
des Menschen. Das Ziel ist es, die Welt mit Hilfe ihrer
Unterstützung zu verbessern. Wann auch immer der Mensch in seiner
Intelligenz herausgefordert wird, kommt die KI zum Einsatz. Wird
diese nur für eine klar definierte Aufgabe angewandt und variiert
die Herangehensweise an das Problem nicht, spricht man von der
Narrow AI (schwache Künstliche Intelligenz). Die Strategie von
Siemens ist der Schnittpunkt der KI und dem digitalen Zwilling,
die als zwei wesentliche Treiber für die Entwicklung der
digitalen Industrie gelten. Der digitale Zwilling führt dank der
Kombination physikbasierter Simulationen mit Datenanalysen in
einer vollständig virtuellen Umgebung zu neuen Erkenntnissen. Der
Vorteil darin besteht, eventuelle Schäden des Physischen
vorbeugen zu können. So könnte es bald sogar möglich sein,
Krankheiten eines Menschen vorherzusehen und diese frühzeitig
behandeln zu können. Man soll in Zukunft künstliche Mechanismen
im digitalen Zwilling anwenden können, sozusagen eine „Alexa“ für
die Industrie.

Auf die Frage, ob die mögliche Kontrolle der KI gegenüber der
natürlichen Intelligenz Sorgen bereitet, reagiert Benno Blumoser
gelassen. Die sogenannte General AI gibt es nur in
Science-Fiction Filmen und er betont, dass die Verantwortung
größer ist, bzw. die Entscheidung bewusster getroffen werden, je
mächtiger die Technologie ist. So kommt er zu dem Schluss, dass
beispielsweise in sicherheitsrelevanten Bereichen kein „Machine
Learning“ vorhanden sein darf. Die Grenze der Autonomie besteht
laut seiner Aussage in der Selbstoptimierung bis zur
Unnachvollziehbarkeit des Menschen. Die Herausforderung liegt
darin, dass es noch kein ultimatives System gibt, um Autonomie in
dezentralen Strukturen effizienter zu gestalten. Außerdem liegt
die Schwierigkeit auch in der Schnittstelle zwischen der
traditionellen, hierarchischen Welt und den hierarchielosen
„Räumen“.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: