AI Talk #40: Open Source, oder warum AI-Riesen LLMs herschenken
44 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Monaten
Endlich wieder Zeit für einen Hintergrund-Deep-Dive nach all der
Aufregung um GPT-5 und Co:
Jakob Steinschaden (Trending Topics,
newsrooms) und Clemens Wasner (enliteAI, AI
Austria) widmen sich heute der großen Frage: Warum schenken Meta,
OpenAI, Google und Co. teure AI-Modelle einfach so her? Der
Fahrplan der Sendung:
Apple's KI-Strategie
Drittanbieter-Modelle: OpenAI, Anthropic, Google im Rennen
Anpassung für Apple-Server und eigene M-Chips
LLM-Siri für Frühjahr 2025 geplant
Tiefe Integration vs. oberflächliche Verknüpfung
Meta's Reorganisation
Super-Intelligence-Lab mit vier Units
Partnerschaft mit Midjourney für Bildgenerierung
Parallelen zu Microsoft Research
Mysteriöses "Nano Banana" Modell
Neue Benchmark-Spitze in der Bildgenerierung
Verbesserte Prompt-Genauigkeit
Spekulationen über Hersteller (Google, OpenAI, andere)
Deep-Dive: Open Source Strategien bei LLMs
Open Source vs. Open Weights erklärt
Code, Trainingsdaten und Gewichte
Lizenz-Unterschiede (Apache 2.0, Meta-Lizenz, etc.)
Nutzungsbeschränkungen und Marketing-Verpflichtungen
Strategische Gründe für Open Source
Developer-Ökosystem aufbauen ("Developers, developers,
developers")
Kostensenkung durch Community-Beiträge
Vendor Lock-in vermeiden
Geopolitische Faktoren (China vs. USA)
Vertrauensbildung und PR-Effekte
Freemium-Modell im neuen Gewand
Erfolg und Misserfolg von Open Source
Meta's gemischte Bilanz mit Llama
Performance muss stimmen ("Paradox of Privacy")
Vergleich mit klassischer Software-Entwicklung
Open Source als moderne Freemium-Strategie
Kommende Modell-Releases von Grok und Anthropic
Weitere Episoden
25 Minuten
vor 2 Tagen
41 Minuten
vor 3 Tagen
30 Minuten
vor 4 Tagen
28 Minuten
vor 5 Tagen
51 Minuten
vor 6 Tagen
In Podcasts werben
Kommentare (0)