MIXEDCAST #228 - Teil 2: Deepfakes, GPT-3, Maschinen-Aufmerksamkeit - KI 2020 und was 2021 passiert
Im zweiten Teil unseres MIXED Jahresrückblicks sc…
1 Stunde 55 Minuten
Podcast
Podcaster
Frankfurt am Main
Beschreibung
vor 3 Jahren
Im zweiten Teil unseres MIXED Jahresrückblicks schauen wir auf die
Künstliche Intelligenz: Welche Durchbrüche gab es 2020, was ist die
Technik dahinter und wie geht es 2021 weiter? Mehr zu KI 2020:
https://mixed.de/kuenstliche-intelligenz-was-2020-war-und-2021-wird/
KI 2020 und Ausblick auf 2021 Die Entwicklung bei Künstlicher
Intelligenz ging 2020 in hohem Tempo weiter. Für unseren Podcast
haben wir die Highlights herausgesucht: Deepfakes sollten die
US-Wahl 2020 sabotieren, stattdessen unterhielten sie uns gut -
weshalb? Nvidia zeigt bei DLSS, was trainierte
Pixelschubser-Software leisten und so Computergrafik grundlegend
verändern wird. GPT-3 beeindruckte Mitte des Jahres mit enorm
glaubhafter Sprachgenerierung auf menschlichem Niveau: OpenAIs
Sprachsystem spaltete die KI-Szene in jene Menschen, die glauben,
dass in dem riesigen neuronalen Netz mehr steckt als sehr viele
Symbole - vielleicht sogar der Pfad zu einer generellen Künstliche
Intelligenz. Andere wiederum halten die Text-KI für overhyped, da
sie nur ein sehr mächtiges Autovervollständigungssystem sei. Auf
welcher Seite stehen wir? Mit Alphafold und MuZero platzierte
Deepmind kurz vor Jahresfrist noch KI-Highlights, die zeigen, wie
Künstliche Intelligenz anderen Disziplinen und Wissenschaften zu
neuen Erkenntnissen verhelfen kann. All diesen KI-Fortschritten
liegt die sogenannte Transformer-Technik zugrunde, die wir in
diesem Podcast erklären. Dafür haben wir uns einen KI-Spezialisten
eingeladen: Yannic Kilcher ist Doktorand an der Professur für
Datenanalytik an der ETH Zürich. Er forscht zu Deep Learning,
Structured Learning und Big Data Optimization und dem Verhalten von
Lernenden Systemen und Optimierungs-Algorithmen. In seiner jüngsten
Veröffentlichung beschäftigt er sich mich Googles BERT Sprachmodell
und der Frage, wie es Semantik repräsentiert. Yannic hat außerdem
einen hervorragenden YouTube-Kanal, in dem er Deep Learning Paper
gut verständlich erklärt. Yannics YouTube-Kanal:
https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew Hier habt
uns noch keine positive Bewertung bei iTunes hinterlassen? Dann
hier entlang:
https://podcasts.apple.com/de/podcast/mixedcast-podcast-%C3%BCber-vr-ar-ki/id1141873988
Den MIXED.de-Podcast gibt es bei Soundcloud, Spotify, iTunes, in
der Google Podcast-App oder als RSS-Feed. Mehr Infos und alle
Folgen: mixed.de/podcast Bitte unterstütze unsere Arbeit mit einem
Werbefrei-Abo für die Seite: mixed.de/abo Oder einem Einkauf über
unseren Amazon-Link (ohne Aufpreis für Dich): amzn.to/2Ytw5CN mit
einem deaktivierten Werbeblocker oder einer positiven Bewertung bei
iTunes, Spotify und Co. Danke!
Künstliche Intelligenz: Welche Durchbrüche gab es 2020, was ist die
Technik dahinter und wie geht es 2021 weiter? Mehr zu KI 2020:
https://mixed.de/kuenstliche-intelligenz-was-2020-war-und-2021-wird/
KI 2020 und Ausblick auf 2021 Die Entwicklung bei Künstlicher
Intelligenz ging 2020 in hohem Tempo weiter. Für unseren Podcast
haben wir die Highlights herausgesucht: Deepfakes sollten die
US-Wahl 2020 sabotieren, stattdessen unterhielten sie uns gut -
weshalb? Nvidia zeigt bei DLSS, was trainierte
Pixelschubser-Software leisten und so Computergrafik grundlegend
verändern wird. GPT-3 beeindruckte Mitte des Jahres mit enorm
glaubhafter Sprachgenerierung auf menschlichem Niveau: OpenAIs
Sprachsystem spaltete die KI-Szene in jene Menschen, die glauben,
dass in dem riesigen neuronalen Netz mehr steckt als sehr viele
Symbole - vielleicht sogar der Pfad zu einer generellen Künstliche
Intelligenz. Andere wiederum halten die Text-KI für overhyped, da
sie nur ein sehr mächtiges Autovervollständigungssystem sei. Auf
welcher Seite stehen wir? Mit Alphafold und MuZero platzierte
Deepmind kurz vor Jahresfrist noch KI-Highlights, die zeigen, wie
Künstliche Intelligenz anderen Disziplinen und Wissenschaften zu
neuen Erkenntnissen verhelfen kann. All diesen KI-Fortschritten
liegt die sogenannte Transformer-Technik zugrunde, die wir in
diesem Podcast erklären. Dafür haben wir uns einen KI-Spezialisten
eingeladen: Yannic Kilcher ist Doktorand an der Professur für
Datenanalytik an der ETH Zürich. Er forscht zu Deep Learning,
Structured Learning und Big Data Optimization und dem Verhalten von
Lernenden Systemen und Optimierungs-Algorithmen. In seiner jüngsten
Veröffentlichung beschäftigt er sich mich Googles BERT Sprachmodell
und der Frage, wie es Semantik repräsentiert. Yannic hat außerdem
einen hervorragenden YouTube-Kanal, in dem er Deep Learning Paper
gut verständlich erklärt. Yannics YouTube-Kanal:
https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew Hier habt
uns noch keine positive Bewertung bei iTunes hinterlassen? Dann
hier entlang:
https://podcasts.apple.com/de/podcast/mixedcast-podcast-%C3%BCber-vr-ar-ki/id1141873988
Den MIXED.de-Podcast gibt es bei Soundcloud, Spotify, iTunes, in
der Google Podcast-App oder als RSS-Feed. Mehr Infos und alle
Folgen: mixed.de/podcast Bitte unterstütze unsere Arbeit mit einem
Werbefrei-Abo für die Seite: mixed.de/abo Oder einem Einkauf über
unseren Amazon-Link (ohne Aufpreis für Dich): amzn.to/2Ytw5CN mit
einem deaktivierten Werbeblocker oder einer positiven Bewertung bei
iTunes, Spotify und Co. Danke!
Weitere Episoden
33 Minuten
vor 5 Monaten
37 Minuten
vor 6 Monaten
58 Minuten
vor 6 Monaten
29 Minuten
vor 7 Monaten
31 Minuten
vor 8 Monaten
Kommentare (0)