Podcaster
Episoden
07.04.2026
34 Minuten
„Forget that the code even exists“. Mit diesem Zitat von OpenAI-Founding Member Andrej Karpathy starten wir in eine brandneue Folge des Databricks Deutschland Podcasts!
Kämpft ihr noch mit komplexer Syntax oder nutzt ihr schon Vibe Coding?
In unserer neuesten Episode spreche ich mit Felix Ehler, Solution Architect im Field Engineering bei Databricks, über einen echten Paradigmenwechsel in der Softwareentwicklung. Beim Vibe Coding beschreibt man einfach in natürlicher Sprache, was man möchte, und die KI schreibt den Code.
Der Fokus verschiebt sich radikal: Weg von „Wie implementiere ich das?“ hin zu „Was will ich eigentlich erreichen?“.
Das erwartet euch in der Folge: Mehr als nur Autocomplete: Warum agentenbasierte KIs (wie Claude Code oder Genie Code) nicht einfach nur Code vervollständigen, sondern den Projektkontext verstehen und selbst Dateien lesen sowie Befehle ausführen können. Massiver Speed im Alltag: Wie Felix funktionierende Prototypen und Demos, für die er früher einen halben Tag gebraucht hätte, heute in nur 30 Minuten lauffähig macht. Das Databricks AI Dev Kit: Wir werfen einen Deep Dive auf dieses Open-Source-Plugin, das Databricks-Ressourcen (wie Unity Catalog oder SQL) via Model Context Protocol (MCP) als direkte Toolbox für externe AI-Assistenten freischaltet. ( https://github.com/databricks-solutions/ai-dev-kit ) Die Zukunft der Entwickler: Keine Sorge, Entwickler werden nicht ersetzt! Ihr werdet nur viel effektiver. Die Rolle wandelt sich, man wird mehr zum Architekten und weniger zum bloßen "Tipper".
Felix bringt es auf den Punkt: Wer einmal mit Vibe Coding und diesen Tools gearbeitet hat, möchte im Alltag nicht mehr darauf verzichten. Die Einstiegshürde ist extrem niedrig, fangt einfach klein an, zum Beispiel mit einem simplen Skript zur Automatisierung!
Neugierig geworden? Hört jetzt rein in die neue Folge! Bei Fragen zu den Databricks Deutschland Podcasts oder Themenwünschen, schreibt gerne eine eMail an patrick.steiner@databricks.com
Kämpft ihr noch mit komplexer Syntax oder nutzt ihr schon Vibe Coding?
In unserer neuesten Episode spreche ich mit Felix Ehler, Solution Architect im Field Engineering bei Databricks, über einen echten Paradigmenwechsel in der Softwareentwicklung. Beim Vibe Coding beschreibt man einfach in natürlicher Sprache, was man möchte, und die KI schreibt den Code.
Der Fokus verschiebt sich radikal: Weg von „Wie implementiere ich das?“ hin zu „Was will ich eigentlich erreichen?“.
Das erwartet euch in der Folge: Mehr als nur Autocomplete: Warum agentenbasierte KIs (wie Claude Code oder Genie Code) nicht einfach nur Code vervollständigen, sondern den Projektkontext verstehen und selbst Dateien lesen sowie Befehle ausführen können. Massiver Speed im Alltag: Wie Felix funktionierende Prototypen und Demos, für die er früher einen halben Tag gebraucht hätte, heute in nur 30 Minuten lauffähig macht. Das Databricks AI Dev Kit: Wir werfen einen Deep Dive auf dieses Open-Source-Plugin, das Databricks-Ressourcen (wie Unity Catalog oder SQL) via Model Context Protocol (MCP) als direkte Toolbox für externe AI-Assistenten freischaltet. ( https://github.com/databricks-solutions/ai-dev-kit ) Die Zukunft der Entwickler: Keine Sorge, Entwickler werden nicht ersetzt! Ihr werdet nur viel effektiver. Die Rolle wandelt sich, man wird mehr zum Architekten und weniger zum bloßen "Tipper".
Felix bringt es auf den Punkt: Wer einmal mit Vibe Coding und diesen Tools gearbeitet hat, möchte im Alltag nicht mehr darauf verzichten. Die Einstiegshürde ist extrem niedrig, fangt einfach klein an, zum Beispiel mit einem simplen Skript zur Automatisierung!
Neugierig geworden? Hört jetzt rein in die neue Folge! Bei Fragen zu den Databricks Deutschland Podcasts oder Themenwünschen, schreibt gerne eine eMail an patrick.steiner@databricks.com
Mehr
13.03.2026
34 Minuten
Der Online-Handel steht vor dem größten Umbruch seit der Erfindung des digitalen Warenkorbs. Wir bewegen uns in rasantem Tempo weg von einer Welt, in der wir Menschen Produkte suchen, hin zu einer Zukunft, in der KI-Agenten autonom für uns einkaufen. Willkommen in der Ära des Agentic Commerce!
In dieser Folge spricht Patrick mit Anton, Senior Manager Solution Architects Retail & CPG Germany bei Databricks, der gerade frisch von der weltgrößten Retail-Messe – der NRF 2026 in New York – zurückgekehrt ist. Gemeinsam werfen sie einen Blick in das Auge des Sturms und analysieren, wie sich der Handel jetzt neu erfinden muss.
Die Führungskräfte im Handel fragen nicht mehr, warum KI wichtig ist – sie fragen, wie sie diese jetzt umsetzen können. Hört rein und erfahrt, wie ihr eure Dateninfrastruktur fit für die KI-Agenten von morgen macht.
In dieser Folge spricht Patrick mit Anton, Senior Manager Solution Architects Retail & CPG Germany bei Databricks, der gerade frisch von der weltgrößten Retail-Messe – der NRF 2026 in New York – zurückgekehrt ist. Gemeinsam werfen sie einen Blick in das Auge des Sturms und analysieren, wie sich der Handel jetzt neu erfinden muss.
Die Führungskräfte im Handel fragen nicht mehr, warum KI wichtig ist – sie fragen, wie sie diese jetzt umsetzen können. Hört rein und erfahrt, wie ihr eure Dateninfrastruktur fit für die KI-Agenten von morgen macht.
Mehr
16.02.2026
23 Minuten
Data Warehouse Migrationen gelten oft als „Operation am offenen Herzen“, risikoreich, teuer und langwierig. Viele Data Leader haben zurecht Respekt vor dem Projekt, das oft Monate oder Jahre dauern kann. Doch muss das wirklich so sein?
In dieser Folge spricht Patrick mit Olga Romanova (Engagement Manager bei Databricks), die sich selbst als „Mensch im digitalen Universum“ bezeichnet. Gemeinsam entmystifizieren sie den Prozess und zeigen, wie man alte DWH-Strukturen erfolgreich in das moderne Databricks Lakehouse überführt, ohne dass das Budget explodiert.
In dieser Episode erfahrt ihr:
Strategie statt Chaos: Der bewährte 5-Phasen-Prozess von Discovery bis Execution und warum der Pilot („Think Big, Start Small“) überlebenswichtig ist. Die größte Falle: Warum die reine SQL-Konvertierung der einfache Teil ist und die „Validation Gap“ (Testen & Validieren) oft 50–60 % des Aufwands verschlingt. Mut zum Löschen: Wie man „Geistertabellen“ identifiziert und durch einen „Value-First“-Audit vermeidet, Datenmüll umzuziehen. Technologie-Turbo: Wie KI-Tools wie Lakebridge bei der Automatisierung helfen und warum man trotzdem Subject Matter Experts (SMEs) braucht. Der echte Mehrwert: Warum es bei Migrationen nicht nur um TCO geht, sondern um das Aufbrechen von Silos und das Enablement für KI.
Egal ob ihr gerade plant oder mitten im Projekt steckt: Diese Folge liefert den Fahrplan, um Risiken zu minimieren und schneller ans Ziel zu kommen.
Gute Daten, gute Entscheidungen!
In dieser Folge spricht Patrick mit Olga Romanova (Engagement Manager bei Databricks), die sich selbst als „Mensch im digitalen Universum“ bezeichnet. Gemeinsam entmystifizieren sie den Prozess und zeigen, wie man alte DWH-Strukturen erfolgreich in das moderne Databricks Lakehouse überführt, ohne dass das Budget explodiert.
In dieser Episode erfahrt ihr:
Strategie statt Chaos: Der bewährte 5-Phasen-Prozess von Discovery bis Execution und warum der Pilot („Think Big, Start Small“) überlebenswichtig ist. Die größte Falle: Warum die reine SQL-Konvertierung der einfache Teil ist und die „Validation Gap“ (Testen & Validieren) oft 50–60 % des Aufwands verschlingt. Mut zum Löschen: Wie man „Geistertabellen“ identifiziert und durch einen „Value-First“-Audit vermeidet, Datenmüll umzuziehen. Technologie-Turbo: Wie KI-Tools wie Lakebridge bei der Automatisierung helfen und warum man trotzdem Subject Matter Experts (SMEs) braucht. Der echte Mehrwert: Warum es bei Migrationen nicht nur um TCO geht, sondern um das Aufbrechen von Silos und das Enablement für KI.
Egal ob ihr gerade plant oder mitten im Projekt steckt: Diese Folge liefert den Fahrplan, um Risiken zu minimieren und schneller ans Ziel zu kommen.
Gute Daten, gute Entscheidungen!
Mehr
30.01.2026
31 Minuten
Das Lakehouse hat die Analyse großer Datenmengen (OLAP) revolutioniert. Doch Hand aufs Herz: Wenn es um transaktionale Workloads, Web-Applikationen oder das „Gedächtnis“ von KI-Agenten ging, gab es bisher oft eine Lücke.
Musste man wirklich immer eine externe Postgres-Datenbank daneben stellen und Datensilos in Kauf nehmen?
In dieser Folge schließen wir genau diese Lücke. Patrick Steiner spricht mit Christopher Pries ( Senior Solutions Engineer bei Databricks) über Databricks Lakebase – die vollständig gemanagte, serverlose und Postgres-kompatible Datenbank, die direkt auf der Databricks-Plattform läuft.
Wir tauchen tief in die Architektur ein und klären, warum wir OLTP und OLAP nicht mehr als getrennte Welten betrachten sollten.
In dieser Episode erfahrt ihr:
• Das „Warum“: Wieso klassische Data Warehouses für KI-Agenten und Echtzeit-Apps oft zu langsam sind und wie Lakebase dieses Problem löst
• Die Technik: Wie die Architektur hinter Lakebase funktioniert
• Killer-Features: Was es mit „Scale to Zero“, „Database Branching“ und der tiefen Integration in den Unity Catalog auf sich hat
• Daten-Synchronisation: Wie „Synced Tables“ das komplexe Reverse-ETL-Problem lösen und Daten zwischen Lakehouse und Applikation spiegeln
• Praxis-Use-Cases: Von „Stateful Applications“ bis hin zu KI-Agenten, die ein Kurzzeitgedächtnis benötigen
Die Wand zwischen analytischen und operationalen Daten ist gefallen. Hört rein, um zu erfahren, wie die konvergierte Plattform der Zukunft aussieht.
Gute Daten, gute Entscheidungen!
Musste man wirklich immer eine externe Postgres-Datenbank daneben stellen und Datensilos in Kauf nehmen?
In dieser Folge schließen wir genau diese Lücke. Patrick Steiner spricht mit Christopher Pries ( Senior Solutions Engineer bei Databricks) über Databricks Lakebase – die vollständig gemanagte, serverlose und Postgres-kompatible Datenbank, die direkt auf der Databricks-Plattform läuft.
Wir tauchen tief in die Architektur ein und klären, warum wir OLTP und OLAP nicht mehr als getrennte Welten betrachten sollten.
In dieser Episode erfahrt ihr:
• Das „Warum“: Wieso klassische Data Warehouses für KI-Agenten und Echtzeit-Apps oft zu langsam sind und wie Lakebase dieses Problem löst
• Die Technik: Wie die Architektur hinter Lakebase funktioniert
• Killer-Features: Was es mit „Scale to Zero“, „Database Branching“ und der tiefen Integration in den Unity Catalog auf sich hat
• Daten-Synchronisation: Wie „Synced Tables“ das komplexe Reverse-ETL-Problem lösen und Daten zwischen Lakehouse und Applikation spiegeln
• Praxis-Use-Cases: Von „Stateful Applications“ bis hin zu KI-Agenten, die ein Kurzzeitgedächtnis benötigen
Die Wand zwischen analytischen und operationalen Daten ist gefallen. Hört rein, um zu erfahren, wie die konvergierte Plattform der Zukunft aussieht.
Gute Daten, gute Entscheidungen!
Mehr
09.01.2026
25 Minuten
In dieser Episode des Databricks Deutschland Podcasts diskutieren Patrick Steiner und Marco Metting die entscheidende Rolle des Use-Case-Onboardings für den Erfolg von Data- und AI-Projekten.
Sie beleuchten die verschiedenen Phasen des Onboardings, die häufigsten Fehler, die gemacht werden, und die Bedeutung einer strukturierten Herangehensweise.
Die Diskussion umfasst auch die notwendigen Rollen, Werkzeuge und Frameworks, die für ein effektives Onboarding erforderlich sind.
Sie beleuchten die verschiedenen Phasen des Onboardings, die häufigsten Fehler, die gemacht werden, und die Bedeutung einer strukturierten Herangehensweise.
Die Diskussion umfasst auch die notwendigen Rollen, Werkzeuge und Frameworks, die für ein effektives Onboarding erforderlich sind.
Mehr
Über diesen Podcast
Im deutschsprachigen Databricks Podcast mit unserem Moderator
Patrick Steiner, sprechen wir mit Brickstern, Expertinnen und
Experten aus Data, AI und Technologie über aktuelle Trends,
erfolgreiche Praxisbeispiele und Entwicklungen rund um Databricks
Data Intelligence Platform.
Dabei geben wir zudem exklusive Einblicke in die Arbeit, Kultur
und Menschen hinter Databricks und beleuchten, wie wir gemeinsam
die Zukunft von Data und AI gestalten.
Der Podcast wird produziert von Patrick Steiner, Databricks
Deutschland.
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.