„Deep Learning“ und die Lernmaschinen
Das Lernen, bei dem die Lernmaschinen und deren Daten selbst die
Lehrer sind, nennt man „deep learning“.
23 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Unsere neue digitale Welt des 21. Jahrhunderts wird von Algorithmen
geleitet. Algorithmen sind knapp gefasste mathematische
Rechenvorschriften, nach denen ganze industrielle Systeme
funktionieren, wenn sie untereinander digitalisiert sind. Solche
Systeme sind als Ganze lernfähig. Aber auch die einzelnen
Lernmaschinen lernen untereinander und erweitern so in gewaltigem
Tempo ihr gespeichertes Wissen. Auch passen sie ihre Aufträge an
neue Umstände an. Dieses Lernen der künstlichen Intelligenz - als
ob bei Shakespeare Gespenster nachts ihre Nachrichten und
Fähigkeiten austauschen - kann in den tiefen Ebenen der digitalen
Arbeit von den Programmierern im Einzelnen nicht direkt und oft
überhaupt nicht beobachtet werden. Dieses Lernen, bei dem die
Lernmaschinen und deren Daten selbst die Lehrer sind, nennt man
„deep learning“. Um die Gleichgewichte zwischen tradierter
menschlicher und künstlicher Intelligenz zu stabilisieren, braucht
man heute und in Zukunft sowohl Algorithmen als auch
Gegen-Algorithmen, die die Systeme im Gleichgewicht halten. Für
beides gilt „deep learning“. Der Physiker und Informatiker Prof.
Dr. Klaus-Robert Müller, spezialisiert auf neuronale Netze und
Zeitreihenanalyse, ist Co-Direktor des Big Data Centers an der TU
Berlin.
geleitet. Algorithmen sind knapp gefasste mathematische
Rechenvorschriften, nach denen ganze industrielle Systeme
funktionieren, wenn sie untereinander digitalisiert sind. Solche
Systeme sind als Ganze lernfähig. Aber auch die einzelnen
Lernmaschinen lernen untereinander und erweitern so in gewaltigem
Tempo ihr gespeichertes Wissen. Auch passen sie ihre Aufträge an
neue Umstände an. Dieses Lernen der künstlichen Intelligenz - als
ob bei Shakespeare Gespenster nachts ihre Nachrichten und
Fähigkeiten austauschen - kann in den tiefen Ebenen der digitalen
Arbeit von den Programmierern im Einzelnen nicht direkt und oft
überhaupt nicht beobachtet werden. Dieses Lernen, bei dem die
Lernmaschinen und deren Daten selbst die Lehrer sind, nennt man
„deep learning“. Um die Gleichgewichte zwischen tradierter
menschlicher und künstlicher Intelligenz zu stabilisieren, braucht
man heute und in Zukunft sowohl Algorithmen als auch
Gegen-Algorithmen, die die Systeme im Gleichgewicht halten. Für
beides gilt „deep learning“. Der Physiker und Informatiker Prof.
Dr. Klaus-Robert Müller, spezialisiert auf neuronale Netze und
Zeitreihenanalyse, ist Co-Direktor des Big Data Centers an der TU
Berlin.
Weitere Episoden
40 Minuten
vor 1 Jahr
20 Minuten
vor 1 Jahr
vor 1 Jahr
21 Minuten
vor 1 Jahr
42 Minuten
vor 1 Jahr
In Podcasts werben
Kommentare (0)