Lexikon

Bayes Faktor

Das Problem mehrere konkurrierende statistische Modelle zu vergleichen ist ein schwieriges und war im Laufe der Jahre Gegenstand zahlreicher Forschungsarbeiten. Für Statistiker mit einer Bayes’schen Veranlagung bietet der Bayes-Faktor eine einfache Möglichkeit, zwei Modelle (hier M1 und M2) miteinander zu vergleichen. Einfach definiert ist der Bayes-Faktor das Verhältnis zwischen der a-posteriori- und der a-priori-Wahrscheinlichkeit – zwei Begriffe, die Zentral in dem Verständnis bayesianische Statistik sind und auf die wir in diesem Artikel detailliert eingehen werden. Grundlegend könnte der Bayes Faktor so definiert werden:

\(\mathbf{BF_{10}} = \dfrac{\mathrm{P}(D\,|\, M_1)}{\mathrm{P}(D\,|\, M_0)}\)

Der Bayes Faktor bildet einen numerischen Wert, der quantifiziert, wie gut eine Hypothese empirische Daten (hier D) im Vergleich zu einer konkurrierenden Hypothese voraussagt. Ein Bayes Faktor von 3 gibt beispielsweise an, dass die empirischen Daten 3 Mal wahrscheinlicher sind, wenn unsere Alternativhypothese H1 wahr ist, als wenn H0 wahr wäre. Die Befundlage würde damit eher für H1 sprechen. Ein Bayes Faktor von 1 wäre – wie beim Odds Ratio auch – ein Unentschieden: Beide Hypothesen wären gleich wahrscheinlich.

Beispiel

Nehmen wir zwei Forscher, Benjamin und Sophia, sind an der allgemeinen Meinung zu strengeren Regeln für den Klimaschutz interessiert. Benjamin glaubt, dass 50% der Deutschen für strengeren Regeln beim Klimaschutz sind, Sophia glaubt es sind 60%. Sie führen daraufhin eine Umfrage mit 100 Personen durch.

Da Benjamin und Sophia sehr unterschiedliche Einschätzungen über die tatsächliche Unterstützung für strengeren Regeln für den Klimaschutz haben, haben sie auch eine unterschiedliche Erwartungshaltung, wie die öffentliche Meinung zu dem Thema steht.

Benjamin geht so davon aus, dass 50% der Befragten für strengere Regeln beim Klimaschutz sind, während Sophia sagt, dass es 60% sein werden. Ihre Annahmen lassen sich über die Binomialverteilung modellieren, wie in der Abbildung unten (Benjamin in blau und Sophia in orange).

Bayes Faktor: Sophia und Bens Vorhersagen

Die Ergebnisse der Umfrage zeigen: 57% der Befragten befürworten strengere Regeln beim Klimaschutz. Die Daten scheinen also eher für Sophias Hypothese zu sprechen, da ihre Schätzung näher am Tatsächlichen Ergebnis liegt. Aber Benjamin sagt, 57% wäre auch in seiner Binomialverteilung ein möglicher Wert gewesen. Es scheint offensichtlich, dass Sophia Recht hat, aber in welchem Ausmaß? Hier kommt der Bayes Faktor ins Spiel.

Eine Möglichkeit, diese Frage zu beantworten, ist die Frage nach dem relativen Anteil der vorliegenden Erkenntnisse: das heißt, wie beweiskräftig ist die Beobachtung in Bezug auf die beiden fraglichen Hypothesen? Um diese Frage zu beantworten, brauchen wir eine Möglichkeit das Ausmaß unserer Meinungsänderung zu verstehen und zu quantifizieren. Wir beginnen mit dem Konzept der Priors oder auch a-priori-Wahrscheinlichkeiten genannt.

Priors (auch a-priori-Wahrscheinlichkeit genannt) sind die Wahrscheinlichkeiten für ein Ereignis, bevor wir etwas über die Daten wissen. Sie sind dadurch die beste rationale Bewertung der Wahrscheinlichkeit eines Ergebnisses auf der Grundlage des aktuellen Wissensstandes, bevor ein Experiment durchgeführt wird.

Die Prior aus unserem Beispiel könnten wir so schreiben:

\(\dfrac{\mathrm{P}(H_S)}{\mathrm{P}(H_B)}\)

wobei HS und HB die Hypothesen jeweils von Sophia und Benjamin sind. Wir können auch schon die a-posteriori-Wahrscheinlichkeit berechnen, die den Grad beschreiben, mit dem wir nach Beobachtung der Daten eine Hypothese gegenüber der anderen bevorzugen:

\(\dfrac{\mathrm{P}(H_S\,|\, D)}{\mathrm{P}(H_B\,|\, D)}\)

Wobei D unsere beobachteten Daten sind. Jetzt müssen wir nur noch die a-posteriori-Wahrscheinlichkeit berechnen. Hier kommt der Satz von Bayes ins Spiel.

\[\underbrace{\dfrac{\mathrm{P}(D \,|\, H_S)}{\mathrm{P}(D \,|\, H_B)}}_{\small\text{Bayes-Faktor}} = \underbrace{\dfrac{\mathrm{P}(H_S\,|\, D)}{\mathrm{P}(H_B\,|\, D)}}_{\small\text{a-priori-}\\ \small\text{Wahrschl.}} \cdot \underbrace{\dfrac{\mathrm{P}(H_S)}{\mathrm{P}(H_B)}}_{\small\text{a-posteriori-}\\ \small{\text{Wahrschl.}}}\]

Der Bayes-Faktor ist also einfach das Produkt aus der a-priori-Wahrscheinlichkeit und der a-posteriori-Wahrscheinlichkeit.

Der Bayes-Faktor ist der relative Beleg in den Daten. Die Belege in den Daten begünstigen eine Hypothese relativ zu einer anderen genau in dem Maß, wie die eine Hypothese die beobachteten Daten besser vorhersagt als die andere.

Jetzt können wir auch bestimmen, wie viel besser Sophias Einschätzung gewesen ist. Dazu berechnen wir einfach die Wahrscheinlichkeiten aus der Binomialverteilung und berechnen den Quotienten.

\(\mathbf{BF} = \dfrac{B(57\mid .60,100)}{B(57\mid .50,100)}\;\approx\; 2.2192\)

Unsere empirischen Daten favorisieren Sophias Hypothese damit um etwas mehr als das Doppelte.

Keine Information

In den meisten Fällen haben wir allerdings keine genauen Vorstellungen über den wahren Wert. In unserem Beispiel hatten sowohl Benjamin, als auch Sophia eine genaue Hypothese über die Daten. In der Wissenschaft – besonders, wenn wir Menschen untersuchen – ist dies allerdings in den meisten Fällen nicht der Fall.

Wenn eine Hypothese über einen bestimmten Parameter nicht sehr spezifisch ist (z.B. dass eine experimentelle Intervention keine Wirkung hat), sind unsere Hypothesen unspezifischer. Die Hypothesen von Sophia und Ben könnten beispielsweise eher wie unten aussehen:

Anstatt wie vorher zu glauben, dass es eine Zustimmung von 50% bzw. 60% in der Bevölkerung gibt, sind die Hypothesen von sowohl Ben als auch Sophia unspezifischer und umfassen jetzt einen größeren Bereich.

Wir sehen, dass Sophia (orange) eine deutlich dünnere und dafür spitzere Verteilung hat, als Ben (hier in blau). Das heißt, dass Ben sich nicht ganz sicher ist, wo der wahre Wert in der Bevölkerung wirklich liegen wird. Seine Verteilung ist flacher, umspannt dafür aber etwas größeren Bereich als Sophias. Sophia ist sich hingegen ziemlich sicher richtig zu liegen: Ihre Verteilung umspannt einen recht kleinen und engen Bereich. Eines hat sich aber bei beiden nicht geändert: Die Verteilung von Ben hat weiterhin ihren Höhepunkt bei 50%, die von Sophia bei 60%. Die blaue Verteilung von Ben nennen wir \(\mathrm{P}_B(\tau)\) und die orangefarbene von Sophia \(\mathrm{P}_S(\tau)\).

Da der Bayes Faktor durch die Wahrscheinlichkeit bestimmt wird, die jede Hypothese den beobachteten Daten zuordnet, müssen wir als nächstes bestimmen, was Sophia und Ben voraussagen würden. Sophias Hypothese HS ist eine Verteilung der Werte der Zustimmung in der Bevölkerung (τ), mit jeweils unterschiedlicher Gewichtung. Einige Werte (wie 0,6) sind recht plausibel, andere Werte (wie 0,5) sind sind deutlich weniger plausibel. Um die Plausibilität einer bestimmten Beobachtung zu bestimmen, können wir die Wahrscheinlichkeit berechnen, mit der sie bei einem bestimmten Wert für τ (d.h. \(\mathrm{P}_B(x\,|\,\tau)\)) auftreten würde. Diese Wahrscheinlichkeit gewichten wir dann mit der Plausibilität, die diesem bestimmten Wert für τ gegeben ist, P(τ). Für jede Hypothese kann dies durch ein Integral dargestellt werden:

\(\mathrm{P}_B(x\,|\,{H}_S) = \displaystyle\int \mathrm{P}_B(x\,|\,\tau)\,\cdot\,\mathrm{P}_B(\tau)\;\mathrm{d}\tau\)

Unspezifische Hypothesen sind für den Bayes Faktor kein Problem, solange sie als Wahrscheinlichkeitsverteilungen definiert werden können. Wenn man aber seine Prognosen mit unsichereren Vorhersagen absichert, wird die Menge an Erkenntnissen, die zugunsten der eigenen Hypothese gesammelt werden können, begrenzt. Das bedeutet, dass Bayes Faktoren flexible Hypothesen abstrafen, was ein natürliches Occam’sches Rasiermesser (Sparsamkeitsprinzip) ergibt.

Interpretation

Bayes Faktor, BF10 Interpretation
> 100 Außergewöhnlich starke Belege für H1, verglichen mit H0
30 100 Sehr starke Belege für H1, verglichen mit H0
10 30 Starke Belege für H1, verglichen mit H0
3 10 Substantielle Belege für H1, verglichen mit H0
1 3 Anekdotische Belege für H1, verglichen mit H0
1 Keine Belege, weder für H1, noch für H0
1 1/3 Anekdotische Belege für H0, verglichen mit H1
1/3 1/10 Substantielle Belege für H0, verglichen mit H1
1/10 1/30 Starke Belege für H0, verglichen mit H1
1/30 1/100 Sehr starke Belege für H0, verglichen mit H1
< 1/100 Außergewöhnlich starke Belege für H0, verglichen mit H1

Abgewandelt nach Wagenmakers, Wetzels, Borsboom, und van der Maas (2011)

Literaturverzeichnis

  1. Wagenmakers, E.-J., Wetzels, R., Borsboom, D., & van der Maas, H. L. J. (2011). Why psychologists must change the way they analyze their data: The case of psi: Comment on Bem (2011). Journal of Personality and Social Psychology, 100(3), 426–432. doi:10.1037/a0022790

Diesen Eintrag zitieren

Hemmerich, W. (2020). StatistikGuru: Bayes Faktor. Retrieved from https://statistikguru.de/lexikon/bayes-faktor.html
@misc{statistikguru,
    title    = {StatistikGuru},
    subtitle = {Bayes Faktor},
    year     = {2020},
    month    = {jun},
    url      = {https://statistikguru.de/lexikon/bayes-faktor.html},
    author   = {Hemmerich, Wanja A.},
    urldate  = {2023-06-10}
}