Ranga Yogeshwar: "Wir müssen uns fragen: Welche Ziele verfolgen KI’s?"
6 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Künstliche Intelligenz scheint die Technologie der Zukunft zu sein.
Überraschend ist deshalb nun die Forderung von Technologiegrößen
wie Steve Wozniak und Elon Musk und Forschern aus aller Welt, eine
Pause bei der Entwicklung von KI einzulegen. Ist KI also eine
Gefahr? Wissenschaftler Ranga Yogeshwar hat die Forderung
mitunterzeichnet und erklärt wieso.
Überraschend ist deshalb nun die Forderung von Technologiegrößen
wie Steve Wozniak und Elon Musk und Forschern aus aller Welt, eine
Pause bei der Entwicklung von KI einzulegen. Ist KI also eine
Gefahr? Wissenschaftler Ranga Yogeshwar hat die Forderung
mitunterzeichnet und erklärt wieso.
Weitere Episoden
7 Minuten
vor 1 Monat
7 Minuten
vor 1 Monat
8 Minuten
vor 2 Monaten
7 Minuten
vor 2 Monaten
Kommentare (0)