Künstliche Intelligenz mit Tiefgang – Deep Learning, Sprachmodelle und die Frage nach dem Bewusstsein (Folge 29)
41 Minuten
Podcast
Podcaster
Beschreibung
vor 7 Monaten
In der finalen Folge unserer Mini-Serie zu »Künstlicher
Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten
Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther
Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit
den großen Sprachmodellen wie GPT-4, Llama oder Gemini.
Wir werfen einen Blick hinter die Kulissen und diskutieren
spannende Fragen wie:
• Was macht diese Modelle so leistungsfähig?
• Wie funktionieren große Sprachmodelle eigentlich?
• Was heißt Deep Learning – und was unterscheidet es von Shallow
Learning?
• Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie
eine entscheidende Rolle?
• Inwiefern lassen sich die Fähigkeiten großer KI-Modelle
wirklich vorhersagen?
• Warum ist Deep Learning mehr als nur angewandte Statistik?
• Was ist Emergenz – und warum überrascht uns KI manchmal selbst?
• Und schließlich die große Frage: Werden KI-Systeme eines Tages
ein Bewusstsein entwickeln? Was würde das bedeuten?
Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung
geht in eine spannende Richtung – und wir stehen erst am Anfang.
Buchtipps aus der Folge:
Metzinger, Thomas (2014). Der Ego-Tunnel: Eine neue Philosophie
des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Piper
Verlag.
Ramakrishnan, Venkatraman (2024). Warum wir sterben: die neue
Wissenschaft des Alterns und die Suche nach dem ewigen Leben.
Klett-Cotta.
Gestalte unseren Podcast mit!
Du hast ein Zahlenphänomen entdeckt, das wir besprechen sollen?
Oder eine Statistik in den Medien gelesen, die wir in der
»Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann
melde Dich gerne über presse@itwm.fraunhofer.de bei uns!
Weitere Episoden
2 Minuten
vor 1 Monat
30 Minuten
vor 1 Monat
57 Minuten
vor 4 Monaten
30 Minuten
vor 6 Monaten
4 Minuten
vor 7 Monaten
In Podcasts werben
Abonnenten
Hamburg
Kommentare (0)