AI Talk #40: Open Source, oder warum AI-Riesen LLMs herschenken

AI Talk #40: Open Source, oder warum AI-Riesen LLMs herschenken

44 Minuten

Beschreibung

vor 3 Monaten

Endlich wieder Zeit für einen Hintergrund-Deep-Dive nach all der
Aufregung um GPT-5 und Co:
Jakob Steinschaden (Trending Topics,
newsrooms) und Clemens Wasner (enliteAI, AI
Austria) widmen sich heute der großen Frage: Warum schenken Meta,
OpenAI, Google und Co. teure AI-Modelle einfach so her? Der
Fahrplan der Sendung:


Apple's KI-Strategie


Drittanbieter-Modelle: OpenAI, Anthropic, Google im Rennen

Anpassung für Apple-Server und eigene M-Chips

LLM-Siri für Frühjahr 2025 geplant

Tiefe Integration vs. oberflächliche Verknüpfung






Meta's Reorganisation


Super-Intelligence-Lab mit vier Units

Partnerschaft mit Midjourney für Bildgenerierung

Parallelen zu Microsoft Research






Mysteriöses "Nano Banana" Modell


Neue Benchmark-Spitze in der Bildgenerierung

Verbesserte Prompt-Genauigkeit

Spekulationen über Hersteller (Google, OpenAI, andere)






Deep-Dive: Open Source Strategien bei LLMs


Open Source vs. Open Weights erklärt


Code, Trainingsdaten und Gewichte

Lizenz-Unterschiede (Apache 2.0, Meta-Lizenz, etc.)

Nutzungsbeschränkungen und Marketing-Verpflichtungen



Strategische Gründe für Open Source


Developer-Ökosystem aufbauen ("Developers, developers,
developers")

Kostensenkung durch Community-Beiträge

Vendor Lock-in vermeiden

Geopolitische Faktoren (China vs. USA)

Vertrauensbildung und PR-Effekte

Freemium-Modell im neuen Gewand



Erfolg und Misserfolg von Open Source


Meta's gemischte Bilanz mit Llama

Performance muss stimmen ("Paradox of Privacy")

Vergleich mit klassischer Software-Entwicklung



Open Source als moderne Freemium-Strategie

Kommende Modell-Releases von Grok und Anthropic

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15