Nachhaltigkeit von ChatGPT & Hardware für Neuronale Netze
8 Minuten
Beschreibung
vor 1 Monat
Heute geht es zum einen um Nachhaltigkeitsaspekte bei der Nutzung
und dem Training von ChatGPT und zum anderen darum, warum das
eigentlich so ist. Woher kommen diese zum Teil sehr hohen
Hardware-Anforderungen zum Betreiben von Sprachmodellen?
Am Ende der Folge kennt ihr den Unterschied zwischen einer CPU
und einer GPU, wisst, warum GPU energieintensiver sind und welche
Einheiten wir zum Messen verwenden.
Außerdem nenne ich ein paar Zahlen zum Energie- und
Wasserverbrauch aus dieser Studie:
https://www.lbbw-am.de/fileadmin/Studien/2024-06-14_Blickpunkt_KI_und_Nachhaltigkeit.pdf
Viel Spaß beim Zuhören! :)
Weitere Episoden
6 Minuten
vor 1 Woche
33 Minuten
vor 2 Wochen
9 Minuten
vor 3 Wochen
6 Minuten
vor 1 Monat
6 Minuten
vor 1 Monat
In Podcasts werben
Abonnenten
Ehingen
Kommentare (0)