Repeated Measures ANOVA

ANOVA mit Messwiederholung: Post-hoc Tests interpretieren

Wie wir bereits erwähnt haben, werden post-hoc Tests berechnet, wenn wir ein signifikantes Ergebnis haben, aber im Vorfeld keine genauen Hypothesen darüber haben, welche Gruppen sich unterscheiden werden. Da uns die ANOVA mit Messwiederholung als Omnibusverfahren lediglich sagt, dass es einen Unterschied zwischen den Gruppen gab, aber nicht wo, macht es Sinn, mit weiteren Tests diese Frage zu beantworten.

SPSS Ausgabe

Die post-hoc Tests stehen in der SPSS-Ausgabe unter dem Punkt Paarweise Vergleiche. Für unseren Datensatz sieht die Ausgabe wie unten aus.

rmANOVA: Paarweise Vergleiche

Die Zahlen von 1 bis 4 beziehen sich auf die die Variablen, und zwar in der Reihenfolge, in der wir sie in dem Dialogfenster der ANOVA hinzugefügt haben (in der ersten Tabelle der Ausgabe Innersubjektfaktoren steht noch einmal eine Übersicht über die Nummerierung).

Es gibt insgesamt sechs verschiedene Gruppenvergleiche. Die Anzahl an Gruppenvergleichen richtet sich nach der Anzahl der Messungen, also der Stufen des Innersubjektfaktors. Wenn n die Anzahl der Messungen ist, berechnet sich die Anzahl der Gruppenvergleiche g mit folgender Formel:

\(g = \frac{1}{2}\cdot n\cdot\left (n-1\right )\)

Bei vier Gruppen ergeben sich daraus auch wiederum sechs mögliche Gruppenvergleiche. In der Tabelle von SPSS sehen wir allerdings 12 Vergleiche. Der Grund dafür ist einfach: SPSS macht einen Unterschied zwischen einem Vergleich von Gruppe A vs. Gruppe B und Gruppe B vs. Gruppe A. SPSS berücksichtigt also die Reihenfolge nicht. Schauen wir uns dazu einmal die Tabelle mit den paarweisen Vergleichen noch einmal genauer an:

rmANOVA: Paarweise Vergleiche (Highlight)

In den ersten beiden Spalten (I) Gruppe und (J) Gruppe sehen wir, welche beiden Gruppen verglichen werden. Die Spalte daneben, Mittlere Differenz (I-J), ist die Differenz zwischen den Mittelwert aus Gruppe I und Gruppe J. Bei genauerer Betrachtung der der farbig gleichen Zeilen sehen wir, dass die Mittlere Differenz dieselbe ist, nur das Vorzeichen ein anderes. Die Information in beiden Zeilen ist aber essentiell dieselbe. Auch die Spalten für Standardfehler und Signifikanz halten dieselben Werte

Im letzten Teil der Tabelle sehen wir das 95%-Konfidenzintervall. Bei farbig gleichen Zeilen sind Ober- und Untergrenze vertauscht und die Vorzeichen anders. Ansonsten sind auch die Werte in diesen Spalten identisch.

Welche Gruppen sollten wir also interpretieren?

Bei essentiell zwei identischen Gruppen mit unterschiedlichen Vorzeichen stellt sich natürlich die Frage: Welche der beiden Zeilen sollte man interpretieren? Die Antwort ist, dass es nicht wirklich einen Unterschied macht, ob man die eine oder andere Zeile nimmt, solange man die Richtung des Effekts korrekt interpretiert. Dennoch ist es von Vorteil, sich die Gruppen auszusuchen, die für die Fragestellung der Studie den meisten Sinn machen.

In unserem Beispiel haben wir eine Kontrollgruppe. Bei einer Kontrollgruppe, wie sie generell als Referenz verwendet wird, werden Vergleiche im Verhältnis zu ihr durchgeführt. Dasselbe gilt für eine Baseline-Messung. Bei einer Studie ohne Kontrollgruppe würden wir Differenzen nehmen, die für unsere Fragestellung Sinn machen.

rmANOVA: Paarweise Vergleiche (Highlight, ohne Doppelte)

Nehmen wir als Beispiel die blaue Zeile. In der Spalte Mittlere Differenz (I-J) sehen wir die Differenz der moderaten körperlichen Aktivität und der geringen körperlichen Aktivität. Der Wert -7,867 bedeutet, dass die Gruppe mit moderater körperlicher Aktivität im Schnitt 7,867 weniger Punkte auf dem BDI Depressionsindex hatte, als die Gruppe mit geringer körperlicher Aktivität. Wir testen auf einem Alphaniveau von 5 %. Daher sind Ergebnisse signifikant, bei denen p < .05 ist. Diese Werte werden von SPSS zusätzlich mit einem Sternchen (*) in der Spalte Mittlere Differenz (I-J) markiert.

Auch wenn SPSS in der Spalte Signifikanz einen Wert von .000 angibt, ist dies nur ein gerundeter Wert (Signifikanzen können weder die Werte 0 oder 1 annehmen, sondern liegen immer dazwischen.) Bei einem Wert von .000 würden wir dies als p < .001 schreiben. Das APA-Handbuch empfiehlt ansonsten die Angabe genauer p-Werte (gerundet auf drei Nachkommastellen).

Ergebnisse berichten

Die Ergebnisse aus der roten Zeile könnten wir so in einer wissenschaftlichen Arbeit angeben:

Deutsch
Ein Bonferroni-korrigierter post-hoc Test zeigte einen signifikanten Unterschied (p < .001) in Performanz zwischen der Kontrollgruppe und der Gruppe mit klassischer Musik (0.52, 95%-CI[0.21, 0.82]).
English
Bonferroni-adjusted post-hoc analysis revealed a significant difference (p < .001) in performance of the control group and the group with classical music (0.52, 95%-CI[0.21, 0.82]).

Da allerdings alle Paarvergleiche signifikant geworden sind, sollten wir dies auch berichten. Bei dieser Anzahl an Vergleichen würde sich eine Tabelle zur Darstellung anbieten.