Podcast
Podcaster
Beschreibung
vor 7 Monaten
Endlich wieder Zeit für einen Hintergrund-Deep-Dive nach all der
Aufregung um GPT-5 und Co:
Jakob Steinschaden (Trending Topics,
newsrooms) und Clemens Wasner (enliteAI, AI
Austria) widmen sich heute der großen Frage: Warum schenken Meta,
OpenAI, Google und Co. teure AI-Modelle einfach so her? Der
Fahrplan der Sendung:
Apple's KI-Strategie
Drittanbieter-Modelle: OpenAI, Anthropic, Google im Rennen
Anpassung für Apple-Server und eigene M-Chips
LLM-Siri für Frühjahr 2025 geplant
Tiefe Integration vs. oberflächliche Verknüpfung
Meta's Reorganisation
Super-Intelligence-Lab mit vier Units
Partnerschaft mit Midjourney für Bildgenerierung
Parallelen zu Microsoft Research
Mysteriöses "Nano Banana" Modell
Neue Benchmark-Spitze in der Bildgenerierung
Verbesserte Prompt-Genauigkeit
Spekulationen über Hersteller (Google, OpenAI, andere)
Deep-Dive: Open Source Strategien bei LLMs
Open Source vs. Open Weights erklärt
Code, Trainingsdaten und Gewichte
Lizenz-Unterschiede (Apache 2.0, Meta-Lizenz, etc.)
Nutzungsbeschränkungen und Marketing-Verpflichtungen
Strategische Gründe für Open Source
Developer-Ökosystem aufbauen ("Developers, developers,
developers")
Kostensenkung durch Community-Beiträge
Vendor Lock-in vermeiden
Geopolitische Faktoren (China vs. USA)
Vertrauensbildung und PR-Effekte
Freemium-Modell im neuen Gewand
Erfolg und Misserfolg von Open Source
Meta's gemischte Bilanz mit Llama
Performance muss stimmen ("Paradox of Privacy")
Vergleich mit klassischer Software-Entwicklung
Open Source als moderne Freemium-Strategie
Kommende Modell-Releases von Grok und Anthropic
Weitere Episoden
52 Minuten
vor 3 Tagen
42 Minuten
vor 5 Tagen
31 Minuten
vor 1 Woche
41 Minuten
vor 1 Woche
39 Minuten
vor 2 Wochen
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.