#93: Bayesianische Statistik: Vorwissen und Daten kombinieren

#93: Bayesianische Statistik: Vorwissen und Daten kombinieren

vor 19 Stunden
34 Minuten
0
0 0 0

Beschreibung

vor 19 Stunden

In dieser Episode sprechen Mira und Amit über die Grundlagen der
bayesianischen Statistik und zeigen anhand der Wahlprognose für
die Bundestagswahl, wie sich Vorwissen und neue Daten zu einer
aussagekräftigen Posterior-Verteilung kombinieren lassen. Sie
erklären die zentralen Begriffe Prior, Likelihood und Posterior
und ordnen ein, wie sich Kredibilitätsintervalle von klassischen
Konfidenzintervallen unterscheiden. Außerdem gehen sie auf
praktische Anwendungsfälle wie A/B-Testing ein und diskutieren,
warum der bayesianische Ansatz trotz seiner Vorteile nicht immer
die erste Wahl ist.


**Zusammenfassung**


Einstiegsbeispiel Wahlprognose: Stichprobenunsicherheit
trifft auf Vorwissen über realistische Stimmanteile

Bayes-Theorem als Grundlage: Posterior ist proportional zu
Likelihood mal Prior

Prior-Verteilungen: informative Priors aus Vorwissen vs.
nicht-informative Priors

Interpretation der Posterior: Erwartungswert,
Wahrscheinlichkeit für Effekte über einem Schwellenwert,
Kredibilitätsintervalle

Unterschied zur frequentistischen Statistik: p-Werte und
Konfidenzintervalle vs. intuitiv interpretierbare
Wahrscheinlichkeitsaussagen

Praxisbeispiele: A/B-Testing mit Vorwissen aus früheren
Tests, Robustheitsprüfungen, Einsatz bei Google

Vorteile: intuitive Interpretation, Nutzung von Vorwissen,
sinnvolle Ergebnisse auch bei kleinen Stichproben

Nachteile: hoher Rechenaufwand durch
Monte-Carlo-Simulationen, geringere Verbreitung, nicht immer
existiert ein sinnvoller Prior



**Links**


#56: Unsere Bundestagswahl-Prognose: Wer gewinnt die Wahl
2025? https://www.podbean.com/ew/pb-hwgnd-16e446e

#26: A/B-Testing: Erkenntnisse statt Bauchgefühl
https://www.podbean.com/ew/pb-6fzpj-143cfb1



Fragen, Feedback oder Themenwünsche? Schreibt uns gern an:
podcast@inwt-statistics.de
15
15
Close