Folge 50: LLMs am Limit? Hat KI sich ausgehyped?

Folge 50: LLMs am Limit? Hat KI sich ausgehyped?

Wisst ihr, wie Torben und Savas zuletzt programmiert haben? Mit der Hilfe eines neuen Auszubildenden namens Chad G. PeTer. Und die Schwester Gemini war auch dabei. Und sollen wir euch sagen: es hat funktioniert! Das bedeutet nicht, dass gewaltige,...
Podcast
Podcaster
Digitalisierung von Dev bis Ops. Der Podcast mit Savas Ziplies und Torben Ludwig. Digitalisierung ruft es von den Dächern, aber ein PDF online zu stellen ist eben noch keine echte Digitalisierung. Also gibt es Redebedarf, und davon eine Menge. Sind...

Beschreibung

vor 8 Monaten
Wisst ihr, wie Torben und Savas zuletzt programmiert haben? Mit der
Hilfe eines neuen Auszubildenden namens Chad G. PeTer. Und die
Schwester Gemini war auch dabei. Und sollen wir euch sagen: es hat
funktioniert!

Das bedeutet nicht, dass gewaltige, große Apps aus den
entsprechenden Chats gezogen wurden. Aber algorithmische
Fragestellungen wurden effizient und schnell aus der Fragestellung
heraus per Prompt erstellt und waren bereit zur Implementation.
Also jetzt direkt Test-first development in Prompt-first
development umschwenken, oder?

Gleichzeitig werden immer mehr gerade LLM-Services teurer, selbst
für “einfache” API-Apps mit einem fine-tuned Modell kann man
schnell 4-stellig anfangen, und nach oben gibt es keine Grenzen.
Dazu kommt, dass plötzlich neue Models nicht mehr viel besser sind.
Manche sogar das Limit von LLMs von den Dächern schreien. Und die
richtig geilen Apps gibt es auch immer noch nicht. Also alles
vorbei im Wolkenkuckucksland?

Sind LLMs und neuronale Netze generell am Ende, oder hat der Hype
nur einen Schleier über die Weiterentwicklung wie MatMul-free
gemacht? Wenn die Hardware am Limit ist, sehen wir jetzt das
“Map-Reduce” der KI? Sind Agenten-Netzwerke der nächste große Hype?
Lasst uns doch mal gemeinsam drauf schauen.

Solltet ihr Feedback zu unserer Episode haben, schreibt uns gerne
an unter codebarn@zackbummfertig.tv oder findet uns auf
LinkedIn.

Weiterführende Links:


https://www.forbes.com/sites/craigsmith/2025/01/19/googles-titans-give-ai-human-like-memory/ 


https://www.yahoo.com/tech/marc-benioff-thinks-weve-reached-004018836.html

https://x.com/tsarnick/status/1801022339162800336?s=46


https://www.euronews.com/next/2024/10/01/new-ai-models-are-more-likely-to-give-a-wrong-answer-than-admit-they-dont-know

https://arxiv.org/pdf/2406.02528


https://www.br.de/nachrichten/netzwelt/bsi-warnt-vor-deepseek-wie-gefaehrlich-ist-die-chinesische-ki,Ucgl0aD

https://fly.pieter.com/


https://www.golem.de/news/ki-assisitiertes-reverse-engineering-exe-datei-wird-in-minuten-zu-python-code-2503-193852.html

https://wayve.ai/press/wayve-germany-expansion/

https://www.datacamp.com/blog/matmul-free-language-models


https://devclass.com/2025/02/20/ai-is-eroding-code-quality-states-new-in-depth-report/

https://en.wikipedia.org/wiki/Democracy_Manifest


https://www.pcgames.de/Hardware-Thema-130320/Specials/KI-als-Chance-fuers-Gaming-diese-Spiele-zeigen-was-alles-moeglich-ist-1467192/



Solltet ihr Feedback zum Podcast oder speziell dieser Folge haben,
schreibt uns an codebarn@zackbummfertig.tv oder findet uns auf
LinkedIn.

https://www.linkedin.com/in/savas-ziplies/

https://www.linkedin.com/in/torbenludwig/

Passende Sticker zu unseren Podcastthemen findet ihr unter
https://loet.bar/. 

️ fürs zuhören, euer Torben (https://frozendonkey.com) & Savas
(https://elipZis.com)

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15