Folge 8: KI im E-commerce, warum Produktdaten wichtiger sind als Prompts - Deep Dive mit Jan Kaiser
vor 4 Monaten
Beschreibung
vor 4 Monaten
In dieser Folge von "Behind the scenes in Marketing" spreche ich
mit Jan Kaiser von Xanevo GmbH über die Schnittstelle von KI und
E-commerce. Jan baut seit Jahren Machine Learning und KI Lösungen
im Konzernumfeld und hilft heute Handelsunternehmen dabei,
Produktdaten, Content und Internationalisierung mit KI sinnvoll
zu skalierenZu https://www.xanevo.comWir gehen tief rein in die
Praxis, weit weg vom reinen ChatGPT Hype. Es geht darum, wie du
aus chaotischen Lieferantendaten saubere Produktdatenmodelle
machst, welche Rolle Small Language Models und große
Sprachmodelle wirklich spielen und ab wann sich Automatisierung
bei Produkttexten, Übersetzungen und Mappings rechnet.Erfahre wie
KI über deine Webseite denkt:
https://www.antonioblago.com/eeat-analyzerTimestamps00:00 Intro,
Podcast Format und Vorstellung00:32 Jan stellt sich vor, Weg in
die KI Beratung und Gründung von Xanevo04:07 Klassische KI,
Machine Learning und erste Deep Learning Projekte08:30 Vom
Konzern zur eigenen Firma, warum der Markt Jan in den E-commerce
gezogen hat14:10 Produktdaten als Fundament für Texte, Suche und
Internationalisierung20:30 Small Language Models, große Modelle
und wann sich welcher Ansatz lohnt28:20 Content Segmente,
Messbarkeit und wie man Budgets für Content plant36:30 KI versus
Mensch, Benchmark zur Datenextraktion und Fehlerquote44:50
Produktdaten Standards wie E Class und Etim, PIM und
strukturierte Daten in der Praxis53:30 Internationalisierung,
Übersetzung, Lokalisierung und URL Strategien01:03:00 Mindset,
deutscher Perfektionismus und kontinuierliche Optimierung01:11:30
Budgetrahmen, Best Practices, Readiness Check und FazitDu
erfährst unter anderem• Warum klassische Machine Learning
Projekte früher nur für Konzerne mit sechsstelligen Budgets
machbar waren und heute jeder mit kleinem Budget KI einsetzen
kann• Wie Produktdatenstandards wie E Class oder Etim helfen,
eine stabile Basis für SEO, PIM und Internationalisierung
aufzubauen• In welchen Fällen Regeln völlig ausreichen und wann
sich Small Language Models oder Agenten Workflows lohnen• Wie ein
Multi LLM Ansatz funktioniert und warum die KI im Benchmark
präziser war als der menschliche Prozess• Welche Content Segmente
du trennen solltest, um Budget sauber zu steuern, zum Beispiel
Produkttexte, Kategorieseiten, Ratgeber, Legal Inhalte• Warum
Perfektionismus im deutschsprachigen Raum oft Wachstum blockiert
und wie du Schritt für Schritt zu mehr Automatisierung kommst•
Konkrete Budgetspannen, mit denen du bei Internationalisierung
und Produktdaten Automatisierung realistisch planen kannstFür wen
ist die Folge spannend• Brands und Retailer, die viele SKUs haben
und Produktdaten endlich in den Griff bekommen wollen• E-commerce
Teams, die Internationalisierung nicht nur mit einem Übersetzungs
Plugin lösen möchten• SEO und Performance Marketer, die verstehen
wollen, wie Content Produktion mit KI messbar und steuerbar wird•
Tech und Data Leute, die Lust auf echte Projekt Einblicke rund um
PIM, Produktdatenmodelle und KI Assistenz habenWenn du nach der
Folge Lust hast, dein eigenes Setup anzuschauen, vernetze dich
gerne mit mir auf LinkedIn oder schau auf https://antonioblago.de
vorbei.Abonniere den Podcast, wenn du mehr Einblicke an der
Schnittstelle aus Marketing, Daten und KI hören möchtest.
Weitere Episoden
F14: Entitäten SEO erklärt: Wie der Google Knowledge Graph wirklich funktioniert mit Maximilian Muhr
1 Stunde 3 Minuten
vor 2 Wochen
1 Stunde 3 Minuten
vor 3 Wochen
1 Stunde 3 Minuten
vor 1 Monat
1 Stunde 4 Minuten
vor 1 Monat
F10: SEO mit Christian Gülcan: Was wirklich heute funktioniert und was nicht, Budgetfragen, ROI ect.
1 Stunde 21 Minuten
vor 2 Monaten
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.