Podcaster
Episoden
20.04.2026
50 Minuten
Google Discover gilt für viele immer noch als Blackbox. Moritz Serif sieht das anders. In dieser Folge spricht er mit Björn darüber, warum Discover zwar volatil, aber längst nicht unplanbar ist — wenn man versteht, wie Themenautoritäten, journalistische Qualität, Autorenprofile und sauberes Refreshing zusammenspielen.
Ihr sprecht über typische Publisher-Fehler, die Rolle von einzigartigem Content, warum Republishing heute deutlich sauberer gedacht werden muss und welche Maßnahmen in echten Cases zu massivem Wachstum geführt haben. Außerdem geht es um die Frage, wie auch kleinere Publisher oder sogar Marktplätze in Discover erfolgreich sein können — und warum YouTube und Video in den kommenden Monaten eine immer größere Rolle spielen werden.
Google Discover ist volatil, aber keine echte Blackbox mehr, wenn man Mechaniken, Muster und Fehlerquellen versteht. Die wichtigsten Hebel bleiben Autorität, einzigartige Inhalte und Expertise über starke Autorenprofile. Erfolgreiche Publisher bespielen ihre Top-Entitäten konsequent und verwässern ihre Themenstrategie nicht beliebig. Refreshing und Republishing funktionieren weiter, aber stumpfes Neuveröffentlichen ohne echten Mehrwert verliert an Wirkung. Discover-Erfolg entsteht oft durch journalistische Arbeitsweise: Nachfrage erkennen, nachlegen, neue Spins finden und echten Information Gain liefern. Autorenprofile mit Struktur, Fachbezug und klarer Expertise stärken Vertrauen und E-E-A-T-Signale. Einzigartiger Content kann aus exklusiven Recherchen, Daten, Presseanfragen oder einem neuen Blick auf ein Thema entstehen. Video wird in Discover voraussichtlich deutlich wichtiger, vor allem durch YouTube
Kapitelmarken 00:00 Intro und Begrüßung02:04 Icebreaker: Gilt das alte Discover-Playbook noch?04:39 Blackbox oder doch planbar?08:06 Erste Analyse: Welche Themen und Entitäten funktionieren wirklich?12:15 Themenautorität aufbauen und Entitäten gezielt besetzen19:45 Was ist eigentlich einzigartiger, journalistischer Content?23:09 Discover braucht Nachschub: Warum Redaktionen öfter nachlegen sollten25:50 Refreshing & Republishing: Was heute noch funktioniert29:09 Autorenprofile, E-E-A-T und vertrauenswürdige Experten33:57 News-Events vorbereiten und Discover strategisch planen36:15 Case Studies: Von starkem Wachstum mit einfachen SEO-Hebeln43:08 Discover-Update: Was hat sich wirklich verändert?45:03 Blick nach vorn: YouTube, Video und die Zukunft von Discover48:18 Outro
Ihr sprecht über typische Publisher-Fehler, die Rolle von einzigartigem Content, warum Republishing heute deutlich sauberer gedacht werden muss und welche Maßnahmen in echten Cases zu massivem Wachstum geführt haben. Außerdem geht es um die Frage, wie auch kleinere Publisher oder sogar Marktplätze in Discover erfolgreich sein können — und warum YouTube und Video in den kommenden Monaten eine immer größere Rolle spielen werden.
Google Discover ist volatil, aber keine echte Blackbox mehr, wenn man Mechaniken, Muster und Fehlerquellen versteht. Die wichtigsten Hebel bleiben Autorität, einzigartige Inhalte und Expertise über starke Autorenprofile. Erfolgreiche Publisher bespielen ihre Top-Entitäten konsequent und verwässern ihre Themenstrategie nicht beliebig. Refreshing und Republishing funktionieren weiter, aber stumpfes Neuveröffentlichen ohne echten Mehrwert verliert an Wirkung. Discover-Erfolg entsteht oft durch journalistische Arbeitsweise: Nachfrage erkennen, nachlegen, neue Spins finden und echten Information Gain liefern. Autorenprofile mit Struktur, Fachbezug und klarer Expertise stärken Vertrauen und E-E-A-T-Signale. Einzigartiger Content kann aus exklusiven Recherchen, Daten, Presseanfragen oder einem neuen Blick auf ein Thema entstehen. Video wird in Discover voraussichtlich deutlich wichtiger, vor allem durch YouTube
Kapitelmarken 00:00 Intro und Begrüßung02:04 Icebreaker: Gilt das alte Discover-Playbook noch?04:39 Blackbox oder doch planbar?08:06 Erste Analyse: Welche Themen und Entitäten funktionieren wirklich?12:15 Themenautorität aufbauen und Entitäten gezielt besetzen19:45 Was ist eigentlich einzigartiger, journalistischer Content?23:09 Discover braucht Nachschub: Warum Redaktionen öfter nachlegen sollten25:50 Refreshing & Republishing: Was heute noch funktioniert29:09 Autorenprofile, E-E-A-T und vertrauenswürdige Experten33:57 News-Events vorbereiten und Discover strategisch planen36:15 Case Studies: Von starkem Wachstum mit einfachen SEO-Hebeln43:08 Discover-Update: Was hat sich wirklich verändert?45:03 Blick nach vorn: YouTube, Video und die Zukunft von Discover48:18 Outro
Mehr
11.04.2026
56 Minuten
Braucht es in drei Jahren überhaupt noch SEO-Agenturen?
In dieser Folge spreche ich mit Niklas Buschner darüber, wie sich Agenturen durch KI gerade grundlegend verändern. Wir reden über das Ende klassischer Stundenmodelle, warum reine Audits und Advisory immer stärker commoditized werden und weshalb Umsetzung, Erfahrung und echter Business Impact zum entscheidenden Unterschied werden.
Außerdem geht es darum, wie moderne Organic-Growth-Agenturen AI nutzen, um effizienter zu arbeiten, bessere Workflows zu bauen und Kunden nicht nur Wissen, sondern echte Ergebnisse zu liefern.
Takeaways
Reines SEO-Consulting wird austauschbarer. Wissen, Audits und Standardempfehlungen lassen sich heute oft schon mit KI-Tools erzeugen. Agenturen der Zukunft müssen liefern, nicht nur beraten. Der Unterschied liegt in Execution, Erfahrung und der Fähigkeit, echte Growth Cases umzusetzen. Stundenbasierte Abrechnung gerät massiv unter Druck. Kunden wollen stärker verstehen, welchen konkreten Business Impact sie für ihr Geld bekommen. Ergebnisorientierung wird wichtiger als Deliverables. Entscheidend sind Leads, Signups, Pipeline, Umsatz und nicht nur Sichtbarkeit oder Klicks. Kund:innen kommen besser informiert ins Gespräch. Dadurch verändern sich Briefings, Erwartungen und die Tiefe der Zusammenarbeit. KI ist kein Ersatz für Erfahrung. Sie kann viel beschleunigen, aber nicht zuverlässig priorisieren, einordnen und strategisch vorausdenken. Die Agentur der Zukunft ist eher ein kleines Elite-Team als eine große Consultant-Maschinerie. AI Search und GEO sind weder kompletter Hype noch überall gleich relevant. Der Impact hängt stark von Branche, Geschäftsmodell und Zielgruppe ab.
Kapitelmarken
00:00 Intro und Vorstellung von Niklas Buschner 02:04 Braucht es in Zukunft noch SEO-Agenturen? 04:11 Was Agenturen heute noch wirklich wertvoll macht 07:00 Warum Erfahrung durch KI nicht ersetzbar ist 11:46 Wie sich Pricing und Agenturmodelle verändern 18:59 Fixum, Performance und Business-Impact als neues Modell 21:40 Wie sich Kundenerwartungen und Kundengespräche verändern 25:58 Was „#1 Organic Growth Agency in Europe“ eigentlich bedeutet 30:24 Warum bessere Systeme wichtiger sind als mehr Leute 33:15 Wie Radyant KI-Infrastruktur konkret einsetzt 39:41 Das Operating Model der Agentur der Zukunft 44:04 Elite-Team statt Consultant-Maschinerie? 47:34 Uncomfortable Truths: Was in Agenturen jetzt wegbrechen wird 48:46 GEO, AI Search und die Frage: Hype oder echte Veränderung? 51:28 Woran Niklas in drei Jahren messen würde, ob er gewonnen hat 53:46 Outro
Genannte Links
Im Transkript werden drei Links für die Shownotes erwähnt. Die passenden offiziellen Ziele sind:
Niklas Buschner Linkedin Radyant Website Masters of Search Podcast
In dieser Folge spreche ich mit Niklas Buschner darüber, wie sich Agenturen durch KI gerade grundlegend verändern. Wir reden über das Ende klassischer Stundenmodelle, warum reine Audits und Advisory immer stärker commoditized werden und weshalb Umsetzung, Erfahrung und echter Business Impact zum entscheidenden Unterschied werden.
Außerdem geht es darum, wie moderne Organic-Growth-Agenturen AI nutzen, um effizienter zu arbeiten, bessere Workflows zu bauen und Kunden nicht nur Wissen, sondern echte Ergebnisse zu liefern.
Takeaways
Reines SEO-Consulting wird austauschbarer. Wissen, Audits und Standardempfehlungen lassen sich heute oft schon mit KI-Tools erzeugen. Agenturen der Zukunft müssen liefern, nicht nur beraten. Der Unterschied liegt in Execution, Erfahrung und der Fähigkeit, echte Growth Cases umzusetzen. Stundenbasierte Abrechnung gerät massiv unter Druck. Kunden wollen stärker verstehen, welchen konkreten Business Impact sie für ihr Geld bekommen. Ergebnisorientierung wird wichtiger als Deliverables. Entscheidend sind Leads, Signups, Pipeline, Umsatz und nicht nur Sichtbarkeit oder Klicks. Kund:innen kommen besser informiert ins Gespräch. Dadurch verändern sich Briefings, Erwartungen und die Tiefe der Zusammenarbeit. KI ist kein Ersatz für Erfahrung. Sie kann viel beschleunigen, aber nicht zuverlässig priorisieren, einordnen und strategisch vorausdenken. Die Agentur der Zukunft ist eher ein kleines Elite-Team als eine große Consultant-Maschinerie. AI Search und GEO sind weder kompletter Hype noch überall gleich relevant. Der Impact hängt stark von Branche, Geschäftsmodell und Zielgruppe ab.
Kapitelmarken
00:00 Intro und Vorstellung von Niklas Buschner 02:04 Braucht es in Zukunft noch SEO-Agenturen? 04:11 Was Agenturen heute noch wirklich wertvoll macht 07:00 Warum Erfahrung durch KI nicht ersetzbar ist 11:46 Wie sich Pricing und Agenturmodelle verändern 18:59 Fixum, Performance und Business-Impact als neues Modell 21:40 Wie sich Kundenerwartungen und Kundengespräche verändern 25:58 Was „#1 Organic Growth Agency in Europe“ eigentlich bedeutet 30:24 Warum bessere Systeme wichtiger sind als mehr Leute 33:15 Wie Radyant KI-Infrastruktur konkret einsetzt 39:41 Das Operating Model der Agentur der Zukunft 44:04 Elite-Team statt Consultant-Maschinerie? 47:34 Uncomfortable Truths: Was in Agenturen jetzt wegbrechen wird 48:46 GEO, AI Search und die Frage: Hype oder echte Veränderung? 51:28 Woran Niklas in drei Jahren messen würde, ob er gewonnen hat 53:46 Outro
Genannte Links
Im Transkript werden drei Links für die Shownotes erwähnt. Die passenden offiziellen Ziele sind:
Niklas Buschner Linkedin Radyant Website Masters of Search Podcast
Mehr
26.03.2026
48 Minuten
Millionen von Produktdetailseiten im Index zu haben, klingt erstmal nach SEO-Potenzial. In der Praxis entsteht dadurch aber oft vor allem eines: Kannibalisierung, schwache Seitenqualität und unnötiger Index-Ballast.
In dieser Episode spreche ich mit Jan Wölk, Senior Product Manager SEO bei OTTO, darüber, wie OTTO das Indexmanagement für Millionen von PDPs systematisch steuert. Wir sprechen über die Grundlogik hinter ihrem Deindexierungsmodell, warum weniger oft mehr ist, wie ein Machine-Learning-Modell bei Indexierungsentscheidungen hilft und welche Schutzmechanismen nötig sind, um keinen Traffic zu verlieren.
Außerdem geht es um ein besonders spannendes Feld im E-Commerce-SEO: Produktvarianten. Wann lohnen sich indexierbare Varianten wirklich? Wo entsteht Mehrwert im Longtail? Und wann drohen Duplicate Content, Kannibalisierung und Index Bloat?
Eine Episode für alle, die SEO in großen E-Commerce- oder Marketplace-Setups skalierbar, datengetrieben und produktnah denken wollen.
Takeaways
Nicht jede PDP gehört in den Index. Bei großen Produktkatalogen führt zu viel Indexierung oft zu Kannibalisierung und schwacher Gesamtqualität. Deindexierung muss kein Verlust sein. Wenn irrelevante Seiten entfernt werden, kann die Performance der verbleibenden Seiten sogar steigen. OTTO arbeitet mit einem ML-Modell, das für PDPs vorhersagt, ob sie wahrscheinlich organische Klicks einsammeln werden. Coldstart-Fähigkeit ist entscheidend: Auch neue Produkte sollen direkt als Index- oder Noindex-Kandidat bewertet werden können. Ein Holdout-Mechanismus schützt vor Trafficverlust, indem das Modell kontinuierlich gegen reale Klickdaten validiert wird. Produktvarianten sind eine große Chance, aber nur dann, wenn sie ein wirklich eigenständiges Targeting und Suchinteresse abdecken. Interne Verlinkung und technische Einbindung bleiben bei Varianten ein zentraler Hebel für zukünftiges Wachstum. Kategorie- und Produktseiten müssen zusammenspielen: Nicht jedes Keyword gehört auf eine PDP — oft ist die Kategorieseite der bessere Einstieg.
Kapitelmarken:
00:00 Intro: Jan Wölk, OTTO und das Thema PDP-Indexmanagement 01:30 Warum nicht jede Produktdetailseite indexiert werden sollte 03:12 Das eigentliche Problem bei Millionen von PDPs 04:25 Warum Deindexierung ein Wachstumstreiber sein kann 06:16 Wie viele PDPs gehören überhaupt in den Index? 07:32 So funktioniert das ML-Modell hinter den Indexierungsentscheidungen 11:13 Coldstart, Feature-Logik und Schutz vor Fehlentscheidungen 15:11 Wie man das intern gegenüber Stakeholdern erklärt 17:44 Holdout-Prinzip: Deindexieren ohne Trafficverlust 26:02 Tägliche Steuerung: Index, Noindex, Sitemap und Modelltraining 27:49 Produktvarianten: große Chance oder SEO-Risiko? 35:03 Der Variantentest bei OTTO und was er gezeigt hat 37:56 Was heute noch ungelöst ist und woran OTTO weiterarbeitet 40:19 Der Shift zwischen PDPs und Kategorieseiten 42:43 Produktseiten, LLMs und die Zukunft des E-Commerce-SEO 43:38 Was Jan rückblickend anders bauen würde 45:27 Fazit und Verabschiedung
In dieser Episode spreche ich mit Jan Wölk, Senior Product Manager SEO bei OTTO, darüber, wie OTTO das Indexmanagement für Millionen von PDPs systematisch steuert. Wir sprechen über die Grundlogik hinter ihrem Deindexierungsmodell, warum weniger oft mehr ist, wie ein Machine-Learning-Modell bei Indexierungsentscheidungen hilft und welche Schutzmechanismen nötig sind, um keinen Traffic zu verlieren.
Außerdem geht es um ein besonders spannendes Feld im E-Commerce-SEO: Produktvarianten. Wann lohnen sich indexierbare Varianten wirklich? Wo entsteht Mehrwert im Longtail? Und wann drohen Duplicate Content, Kannibalisierung und Index Bloat?
Eine Episode für alle, die SEO in großen E-Commerce- oder Marketplace-Setups skalierbar, datengetrieben und produktnah denken wollen.
Takeaways
Nicht jede PDP gehört in den Index. Bei großen Produktkatalogen führt zu viel Indexierung oft zu Kannibalisierung und schwacher Gesamtqualität. Deindexierung muss kein Verlust sein. Wenn irrelevante Seiten entfernt werden, kann die Performance der verbleibenden Seiten sogar steigen. OTTO arbeitet mit einem ML-Modell, das für PDPs vorhersagt, ob sie wahrscheinlich organische Klicks einsammeln werden. Coldstart-Fähigkeit ist entscheidend: Auch neue Produkte sollen direkt als Index- oder Noindex-Kandidat bewertet werden können. Ein Holdout-Mechanismus schützt vor Trafficverlust, indem das Modell kontinuierlich gegen reale Klickdaten validiert wird. Produktvarianten sind eine große Chance, aber nur dann, wenn sie ein wirklich eigenständiges Targeting und Suchinteresse abdecken. Interne Verlinkung und technische Einbindung bleiben bei Varianten ein zentraler Hebel für zukünftiges Wachstum. Kategorie- und Produktseiten müssen zusammenspielen: Nicht jedes Keyword gehört auf eine PDP — oft ist die Kategorieseite der bessere Einstieg.
Kapitelmarken:
00:00 Intro: Jan Wölk, OTTO und das Thema PDP-Indexmanagement 01:30 Warum nicht jede Produktdetailseite indexiert werden sollte 03:12 Das eigentliche Problem bei Millionen von PDPs 04:25 Warum Deindexierung ein Wachstumstreiber sein kann 06:16 Wie viele PDPs gehören überhaupt in den Index? 07:32 So funktioniert das ML-Modell hinter den Indexierungsentscheidungen 11:13 Coldstart, Feature-Logik und Schutz vor Fehlentscheidungen 15:11 Wie man das intern gegenüber Stakeholdern erklärt 17:44 Holdout-Prinzip: Deindexieren ohne Trafficverlust 26:02 Tägliche Steuerung: Index, Noindex, Sitemap und Modelltraining 27:49 Produktvarianten: große Chance oder SEO-Risiko? 35:03 Der Variantentest bei OTTO und was er gezeigt hat 37:56 Was heute noch ungelöst ist und woran OTTO weiterarbeitet 40:19 Der Shift zwischen PDPs und Kategorieseiten 42:43 Produktseiten, LLMs und die Zukunft des E-Commerce-SEO 43:38 Was Jan rückblickend anders bauen würde 45:27 Fazit und Verabschiedung
Mehr
20.03.2026
42 Minuten
What happens to journalism, traffic, and publishing business models when AI increasingly stands between publishers and audiences?
In this episode, Björn Darko speaks with Steven Wilson-Bales about the profound impact of AI on the news industry, the future of journalism, and the strategies publishers need in order to stay relevant in a rapidly changing media landscape. They explore how LLMs, social platforms, and shifting user behavior are changing the way news is discovered, consumed, and monetized.
The conversation covers why originality, quality, and community are becoming more important for publishers, how Google Discover continues to shape visibility for news brands, and why the industry needs new thinking beyond traffic-at-all-costs. This episode is a deep dive into what publishers need to understand now if they want to build resilient media brands in the age of AI.
In this episode, you’ll learn:
How AI is reshaping the news industry Why traditional traffic models are under pressure What role Google Discover still plays for publishers Why quality is becoming more important than pure click volume
Which strategies publishers should develop for an AI-driven future
Chapter Marks
00:00 Introduction to news, SEO, and the current landscape
03:03 The challenges of news publishing in the AI era
05:57 Algorithms, search engines, and control over visibility
09:07 How AI is changing news traffic
11:54 Why originality matters more than ever in journalism
14:53 The need for stronger collaboration across the news industry
18:01 Paywalls, AI interfaces, and publisher challenges
22:04 The role of human judgment in the modern newsroom
25:31 Metrics, user needs, and the problem with the wrong incentives
28:11 The future of journalism in an AI-first world
30:55 Strategies for publishers dealing with AI and LLMs
32:32 The return of vertical search behavior
35:27 Why quality, community, and trust matter more now
39:44 Tone, identity, and the role of community in publishing
Takeaways
AI is changing not just distribution, but the relationship between publishers and audiences. Publishers can no longer rely only on traditional search and traffic patterns. Google Discover remains an important visibility channel, but it is not a stable strategy on its own. Originality, editorial voice, and differentiation are becoming more valuable than scaled commodity content. Quality beats click-chasing for publishers that want long-term relevance. Community and direct audience relationships are becoming strategic advantages in modern publishing.
In this episode, Björn Darko speaks with Steven Wilson-Bales about the profound impact of AI on the news industry, the future of journalism, and the strategies publishers need in order to stay relevant in a rapidly changing media landscape. They explore how LLMs, social platforms, and shifting user behavior are changing the way news is discovered, consumed, and monetized.
The conversation covers why originality, quality, and community are becoming more important for publishers, how Google Discover continues to shape visibility for news brands, and why the industry needs new thinking beyond traffic-at-all-costs. This episode is a deep dive into what publishers need to understand now if they want to build resilient media brands in the age of AI.
In this episode, you’ll learn:
How AI is reshaping the news industry Why traditional traffic models are under pressure What role Google Discover still plays for publishers Why quality is becoming more important than pure click volume
Which strategies publishers should develop for an AI-driven future
Chapter Marks
00:00 Introduction to news, SEO, and the current landscape
03:03 The challenges of news publishing in the AI era
05:57 Algorithms, search engines, and control over visibility
09:07 How AI is changing news traffic
11:54 Why originality matters more than ever in journalism
14:53 The need for stronger collaboration across the news industry
18:01 Paywalls, AI interfaces, and publisher challenges
22:04 The role of human judgment in the modern newsroom
25:31 Metrics, user needs, and the problem with the wrong incentives
28:11 The future of journalism in an AI-first world
30:55 Strategies for publishers dealing with AI and LLMs
32:32 The return of vertical search behavior
35:27 Why quality, community, and trust matter more now
39:44 Tone, identity, and the role of community in publishing
Takeaways
AI is changing not just distribution, but the relationship between publishers and audiences. Publishers can no longer rely only on traditional search and traffic patterns. Google Discover remains an important visibility channel, but it is not a stable strategy on its own. Originality, editorial voice, and differentiation are becoming more valuable than scaled commodity content. Quality beats click-chasing for publishers that want long-term relevance. Community and direct audience relationships are becoming strategic advantages in modern publishing.
Mehr
05.03.2026
58 Minuten
---------------
Diese Folge wird u.a. präsentiert von claneo.de
Generative Engine Optimization - Inhalte optimieren für ChatGPT & Co - Das Standardwerk für GEO, von Magdalena Mues, Matthäus Michalik, Martin Grahl, Andre Alpar & Franziska Schneider. Erscheint am 5.3.2026 im Rheinwerk Verlag. Jetzt das Buch auf Amazon vorbestellen. Link: https://www.amazon.de/Generative-Engine-Optimization-aufbereiten-GEO-Ma%C3%9Fnahmen/dp/336711426X/
---------------
In dieser Episode spreche ich mit Christian B. Schmidt (Digital Effects) über ihre Untersuchung der Verschiebung von Search & Brand Authority in der Reisebranche und die Unterschiede zwischen Google Search und AI Search. Wir analysieren die Auswirkungen von AI Search auf die Reisebranche, mit Fokus auf Marktanteile, Content-Strategien und zukünftige Herausforderungen für Reiseunternehmen. Erfahren Sie, wie sich die Suchlandschaft verändert und welche Strategien notwendig sind, um sichtbar zu bleiben.
Chapters
00:00 Einführung und Icebreaker
02:45 Der Shift von Google zu AI-Search
12:22 Veränderungen im Reisefunnel durch AI
20:18 Die neuen KPIs im AI-Zeitalter
22:21 Gewinner und Verlierer der Studie
27:54 Transaktionale Keywords und ihre Bedeutung
30:06 AI-Overviews vs. ChatGPT: Unterschiede und Strategien
36:14 Konkret Maßnahmen für Reiseunternehmen
45:15 Zukunft der Reiseplanung: API und Agentic AI
47:29 Messbarkeit in der AI-Suche und Dashboard-Tools
Diese Folge wird u.a. präsentiert von claneo.de
Generative Engine Optimization - Inhalte optimieren für ChatGPT & Co - Das Standardwerk für GEO, von Magdalena Mues, Matthäus Michalik, Martin Grahl, Andre Alpar & Franziska Schneider. Erscheint am 5.3.2026 im Rheinwerk Verlag. Jetzt das Buch auf Amazon vorbestellen. Link: https://www.amazon.de/Generative-Engine-Optimization-aufbereiten-GEO-Ma%C3%9Fnahmen/dp/336711426X/
---------------
In dieser Episode spreche ich mit Christian B. Schmidt (Digital Effects) über ihre Untersuchung der Verschiebung von Search & Brand Authority in der Reisebranche und die Unterschiede zwischen Google Search und AI Search. Wir analysieren die Auswirkungen von AI Search auf die Reisebranche, mit Fokus auf Marktanteile, Content-Strategien und zukünftige Herausforderungen für Reiseunternehmen. Erfahren Sie, wie sich die Suchlandschaft verändert und welche Strategien notwendig sind, um sichtbar zu bleiben.
Chapters
00:00 Einführung und Icebreaker
02:45 Der Shift von Google zu AI-Search
12:22 Veränderungen im Reisefunnel durch AI
20:18 Die neuen KPIs im AI-Zeitalter
22:21 Gewinner und Verlierer der Studie
27:54 Transaktionale Keywords und ihre Bedeutung
30:06 AI-Overviews vs. ChatGPT: Unterschiede und Strategien
36:14 Konkret Maßnahmen für Reiseunternehmen
45:15 Zukunft der Reiseplanung: API und Agentic AI
47:29 Messbarkeit in der AI-Suche und Dashboard-Tools
Mehr
Über diesen Podcast
Ein wöchentlicher SEO Podcast, in dem Host Björn Darko, mit
interessanten Persönlichkeiten aus SEO & Digital Marketing
diskutiert. Jetzt abonnieren!
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.