Repeated Measures ANOVA

ANOVA mit Messwiederholung: Normalverteilung überprüfen

Mit der explorativen Datenanalyse haben wir auf der vorigen Seite nicht nur ein Box-Plot für die Ausreißer erstellt, sondern auch die Daten auf Normalverteilung überprüft. SPSS hat dazu für uns Q-Q-Plots und zwei Tests berechnet. Wichtig ist, dass wir dazu in der explorativen Datenanalyse  ausgewähltes KontrollkästchenNormalverteilungsdiagramm mit Tests ausgewählt haben.

Wie wichtig die Voraussetzung der Normalverteilung überhaupt ist, steht zur Debatte. Es gibt genügend Belege aus aktuellen Studien, dass Regressionsmodelle, zu denen auch die ANOVA mit Messwiederholung gehört, robust gegenüber einer Verletzung der Normalverteilung sind (Glass, Peckham, & Sanders, 1972; Harwell, Rubinstein, Hayes, & Olds, 1992; Lix, Keselman, & Keselman, 1996; Salkind, 2010).

Wenn unsere Stichprobe ausreichend groß ist (N ≥ 30 für jede der beiden Gruppen) können wir auf die Überprüfung der Normalverteilung verzichten, da nach dem zentralen Grenzwertsatz die Stichprobenverteilung annähernd normalverteilt sein wird (Kähler, 2004; Bortz & Schuster, 2010; Tavakoli, 2013).

Normalverteilung in SPSS überprüfen: Der Shapiro-Wilk-Test

Mit der explorativen Datenanalyse haben wir nicht nur Box-Plots erstellen lassen, sondern auch die Tests auf Normalverteilung.

Der Shapiro-Wilk Test (und der Kolmogorov-Smirnov Test) testen auf einem Signifikanzniveau von α = .05. Ein Wert kleiner als .05 in der Spalte Signifikanz (hier gelb hervorgehoben) bedeutet, dass der Shapiro-Wilk Test signifikant geworden ist und das die Daten nicht normalverteilt sind. Ein Wert größer als .05 hingegen würde bedeuten, dass die Daten etwa normalverteilt sind. Wir könnten auch den Kolmogorov-Smirnov Test interpretieren, allerdings empfehlen wir den Shapiro-Wilk Test, da er generell eine höhere Power als der Kolmogorov-Smirnov Test hat.

Die Daten in unserem Beispieldatensatz sind gemäß dem Shapiro-Wilk Test (und dem Kolmogorov-Smirnov Test) nicht normalverteilt. Wir haben allerdings eine Stichprobengröße von N ≥ 30, weshalb wir uns keine Sorgen um ein signifikantes Ergebnis machen müssen und eine normalverteilte Stichprobenverteilung annehmen dürfen. Gründe für einen signifikanten Test auf Normalverteilung können sein:

  • Die Daten sind nicht normalverteilt
  • Es befinden sich Ausreißer in den Daten
  • Die Daten sind (stark) schief
  • Die Stichprobengröße ist hoch

Wenn unsere Stichprobe nicht ausreichend groß gewesen wäre (N < 30), hätten wir das Ergebnis des Shapiro-Wilk Test so berichten können:

Deutsch
Beide Gruppen waren waren gemäß dem Shapiro-Wilk Test nicht normalverteilt (p < .001).
English
Both groups were not normally distributed, as assessed by the Shapiro-Wilk test (p < .001).
Auch wenn SPSS in der Spalte Signifikanz einen Wert von .000 angibt, ist dies nur ein gerundeter Wert (Signifikanzen können weder die Werte 0 oder 1 annehmen, sondern liegen immer dazwischen.) Bei einem Wert von .000 würden wir dies als p < .001 schreiben. Das APA-Handbuch empfiehlt ansonsten die Angabe genauer p-Werte (gerundet auf drei Nachkommastellen).

Normalverteilung verletzt, was nun?!

Die ANOVA mit Messwiederholung gilt als robust gegenüber der Verletzung der Normalverteilungsannahme. Wenn unsere Stichprobe für jede der beiden Gruppen 30 oder größer ist, kann uns ebenfalls ein signifikantes Ergebnis egal sein. Ansonsten haben wir drei Möglichkeiten:

  1. Eine Transformation anwenden
  2. Ein non-parametrisches Verfahren wie den Friedman-Test verwenden
  3. Mit den Daten fortfahren, ohne Maßnahmen anzuwenden

Literaturverzeichnis

  1. Bortz, J., & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (7., vollständig überarbeitete und erweiterte Auflage). Springer-Lehrbuch. Berlin, Heidelberg: Springer-Verlag Berlin Heidelberg.
  2. Glass, G. V., Peckham, P. D., & Sanders, J. R. (1972). Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analyses of Variance and Covariance. Review of Educational Research, 42(3), 237–288. doi:10.3102/00346543042003237
  3. Harwell, M. R., Rubinstein, E. N., Hayes, W. S., & Olds, C. C. (1992). Summarizing Monte Carlo Results in Methodological Research: The One- and Two-Factor Fixed Effects ANOVA Cases. Journal of Educational and Behavioral Statistics, 17(4), 315–339. doi:10.3102/10769986017004315
  4. Kähler, W.-M. (2004). Statistische Datenanalyse: Verfahren verstehen und mit SPSS gekonnt einsetzen (3., völlig neubearbeitete Auflage). Wiesbaden: Vieweg+Teubner Verlag.
  5. Lix, L. M., Keselman, J. C., & Keselman, H. J. (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66(4), 579–619. doi:10.3102/00346543066004579
  6. Salkind, N. J. (2010). Encyclopedia of Research Design (Vol. 2). Los Angeles: Sage.
  7. Tavakoli, H. (2013). A dictionary of research methodology and statistics in applied linguistics. Tehran: Rahnamā.