Podcast
Podcaster
Beschreibung
vor 1 Jahr
Wir besprechen ein aktuelles Paper, in dem abgeschätzt wird, zu
welchem Zeitpunkt der Bedarf an Trainingsdaten von Large Language
Models nicht mehr durch öffentlich verfügbare und digitalisierte
Texte abgedeckt werden kann. Doch ist das "Immer höher, schneller,
weiter"-Mantra eigentlich der richtige Weg in der Weiterentwicklung
generativer KI?
welchem Zeitpunkt der Bedarf an Trainingsdaten von Large Language
Models nicht mehr durch öffentlich verfügbare und digitalisierte
Texte abgedeckt werden kann. Doch ist das "Immer höher, schneller,
weiter"-Mantra eigentlich der richtige Weg in der Weiterentwicklung
generativer KI?
Weitere Episoden
1 Stunde 1 Minute
vor 2 Wochen
1 Stunde 1 Minute
vor 1 Monat
57 Minuten
vor 1 Monat
59 Minuten
vor 2 Monaten
1 Stunde 1 Minute
vor 2 Monaten
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.