Podcast
Podcaster
Beschreibung
vor 1 Jahr
Über rassistische KI, dubiose Forschungsergebnisse und die Frage,
wie viel besser KI überhaupt noch werden kann
Wir öffnen heute die Motorhaube der Large Language Models und
sehen uns an, wie eine KI überhaupt trainiert wird. Wie aus einer
großen Menge Text, einem Beatles-Song und einer
Wahrscheinlichkeitsrechnung die Künstliche Intelligenz ihre
Antworten zusammenbastelt.
Alles beginnt mit einer gigantischen Menge an Daten.
Zeitungsartikel, Webseiten, Studien, Statistiken – die KI
verarbeitet alles, was ihr eingespielt wird. Doch was passiert,
wenn die KI mit falschen, angeblich wissenschaftlichen Studien
gefüttert wird? Die ersten Versionen der KI-Suchmaschinen von
Google, Microsoft und Perplexity gaben ungefiltert widerlegte,
rassistische Theorien wieder – und ließen sie wie Fakten wirken.
Wie konnte das passieren?
Mehr Leistung, mehr Daten – doch wie viel besser kann Künstliche
Intelligenz noch werden? Führen mehr Chips, größere Rechenzentren
und größere Trainingsmodelle denn überhaupt noch zu besserer
KI?
️Die KI-Experten fürchten einen neuen KI-Winter: Die
Verbesserungen zwischen den Modellen von Generation zu Generation
sind nur noch marginal. Die großen Qualitätssprünge bleiben aus.
Woran liegt das? Und kann mehr menschliches Denken im KI-Hirn das
Problem beheben – oder muss das Training von KI ganz neu
konstruiert werden?
Quellen:
https://www.platformer.news/openai-google-scaling-laws-anthropic-ai/?ref=platformer-newsletter&attribution_id=6736969a759328000179d684&attribution_type=post
https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/
https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/
Weitere Episoden
18 Minuten
vor 1 Tag
45 Minuten
vor 1 Woche
50 Minuten
vor 3 Wochen
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.