016 - Geschichte der generativen KI
7 Minuten
Podcast
Podcaster
Beschreibung
vor 8 Monaten
ChatGPT, DALL-E – Generative KI (GenAI) prägt unsere Wahrnehmung
von Künstlicher Intelligenz wie nie zuvor. Aber wie konnten
Maschinen lernen, neue, originäre Inhalte wie Texte oder Bilder
zu erschaffen? In dieser Folge tauchen wir ein in die
faszinierende Geschichte hinter dem aktuellen Boom.Wir verfolgen
die Linie von den ersten Visionen maschineller Intelligenz und
dem Turing-Test, über die Geburtsstunde der KI auf der Dartmouth
Conference, bis zu den frühen Ideen für künstliche neuronale
Netze. Erfahren Sie, wie das Perzeptron eine erste Welle der
Euphorie auslöste, bevor der erste "KI-Winter" folgte.Wir
beleuchten das Wiederaufleben der neuronalen Netze durch den
Backpropagation-Algorithmus und spezialisierte Architekturen wie
CNNs, die durch die Leistung von GPUs ab 2012 zur
Deep-Learning-Revolution führten.Der entscheidende Schritt zur
Generierung kam mit Modellen wie VAEs und GANs, die Maschinen
beibrachten, Daten nicht nur zu analysieren, sondern zu
erschaffen. Der Game-Changer für Text und darüber hinaus war
schließlich die Transformer-Architektur und der
Aufmerksamkeitsmechanismus im Jahr 2017, die den Weg für heutige
Large Language Models (LLMs) wie die GPT-Serie ebneten.Warum
erleben wir diesen Durchbruch gerade jetzt? Es ist die Konvergenz
mehrerer Faktoren: exponentielle Rechenleistung, riesige
Datenmengen, algorithmische Fortschritte und eine drastisch
verbesserte Zugänglichkeit und Nutzererfahrung.Begleiten Sie uns
auf dieser Reise von der Theorie zum alltäglichen Werkzeug und
erfahren Sie, was die "Menschlichkeit" der Interaktion und die
Fähigkeit, Neues zu schaffen, so faszinierend macht.
Weitere Episoden
23 Minuten
vor 4 Tagen
14 Minuten
vor 6 Tagen
6 Minuten
vor 1 Woche
21 Minuten
vor 1 Woche
6 Minuten
vor 1 Woche
In Podcasts werben
Kommentare (0)