ANOVA mit Messwiederholung: Normalverteilung überprüfen
Mit der explorativen Datenanalyse haben wir auf der vorigen Seite nicht nur ein Box-Plot für die Ausreißer erstellt, sondern auch die Daten auf Normalverteilung überprüft. SPSS hat dazu für uns Q-Q-Plots und zwei Tests berechnet. Wichtig ist, dass wir dazu in der explorativen Datenanalyse ausgewählt haben.
Wie wichtig die Voraussetzung der Normalverteilung überhaupt ist, steht zur Debatte. Es gibt genügend Belege aus aktuellen Studien, dass Regressionsmodelle, zu denen auch die ANOVA mit Messwiederholung gehört, robust gegenüber einer Verletzung der Normalverteilung sind (Blanca, Alarcón, Arnau, Bono, & Bendayan, 2017; Glass, Peckham, & Sanders, 1972; Harwell, Rubinstein, Hayes, & Olds, 1992; Lix, Keselman, & Keselman, 1996; Pole & Bondy, 2010; Schmider, Ziegler, Danay, Beyer, & Bühner, 2010).
Wenn unsere Stichprobe ausreichend groß ist (N ≥ 30 für jede der Gruppen) können wir auf die Überprüfung der Normalverteilung verzichten, da nach dem zentralen Grenzwertsatz die Stichprobenverteilung annähernd normalverteilt sein wird (Kähler, 2004; Bortz & Schuster, 2010; Tavakoli, 2013).
Normalverteilung in SPSS überprüfen: Der Shapiro-Wilk-Test
Mit der explorativen Datenanalyse haben wir nicht nur Box-Plots erstellen lassen, sondern auch die Tests auf Normalverteilung.
Der Shapiro-Wilk Test (und der Kolmogorov-Smirnov Test) testen auf einem Signifikanzniveau von α = .05. Ein Wert kleiner als .05 in der Spalte Signifikanz (hier gelb hervorgehoben) bedeutet, dass der Shapiro-Wilk Test signifikant geworden ist und das die Daten nicht normalverteilt sind. Ein Wert größer als .05 hingegen würde bedeuten, dass die Daten etwa normalverteilt sind. Wir könnten auch den Kolmogorov-Smirnov Test interpretieren, allerdings empfehlen wir den Shapiro-Wilk Test, da er generell eine höhere Power als der Kolmogorov-Smirnov Test hat.
Die Daten in unserem Beispieldatensatz sind gemäß dem Shapiro-Wilk Test (und dem Kolmogorov-Smirnov Test) nicht normalverteilt. Wir haben allerdings eine Stichprobengröße von N ≥ 30, weshalb wir uns keine Sorgen um ein signifikantes Ergebnis machen müssen und eine normalverteilte Stichprobenverteilung annehmen dürfen. Gründe für einen signifikanten Test auf Normalverteilung können sein:
- Die Daten sind nicht normalverteilt
- Es befinden sich Ausreißer in den Daten
- Die Daten sind (stark) schief
- Die Stichprobengröße ist hoch
Wenn unsere Stichprobe nicht ausreichend groß gewesen wäre (N < 30), hätten wir das Ergebnis des Shapiro-Wilk Test so berichten können:
Alle Gruppen waren waren gemäß dem Shapiro-Wilk Test nicht normalverteilt (p < .001).
English
None of the groups were normally distributed, as assessed by the Shapiro-Wilk test (p < .001).
Normalverteilung verletzt, was nun?!
Die ANOVA mit Messwiederholung gilt als robust gegenüber der Verletzung der Normalverteilungsannahme. Wenn unsere Stichprobe für jede der Gruppen 30 oder mehr Messungen (z.B. Teilnehmende) hat, kann uns ebenfalls ein signifikantes Ergebnis egal sein. Ansonsten haben wir drei Möglichkeiten:- Eine Transformation anwenden
- Ein non-parametrisches Verfahren wie den Friedman-Test verwenden
- Mit den Daten fortfahren, ohne Maßnahmen anzuwenden
Literaturverzeichnis
- Blanca, M. J., Alarcón, R., Arnau, J., Bono, R., & Bendayan, R. (2017). Non-normal data: Is ANOVA still a valid option? Psicothema, 29(4), 552–557. doi:10.
7334/ psicothema2016. 383 - Bortz, J., & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (7., vollständig überarbeitete und erweiterte Auflage). Springer-Lehrbuch. Berlin, Heidelberg: Springer-Verlag Berlin Heidelberg.
- Glass, G. V., Peckham, P. D., & Sanders, J. R. (1972). Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analyses of Variance and Covariance. Review of Educational Research, 42(3), 237–288. doi:10.
3102/ 00346543042003237 - Harwell, M. R., Rubinstein, E. N., Hayes, W. S., & Olds, C. C. (1992). Summarizing Monte Carlo Results in Methodological Research: The One- and Two-Factor Fixed Effects ANOVA Cases. Journal of Educational and Behavioral Statistics, 17(4), 315–339. doi:10.
3102/ 10769986017004315 - Kähler, W.-M. (2004). Statistische Datenanalyse: Verfahren verstehen und mit SPSS gekonnt einsetzen (3., völlig neubearbeitete Auflage). Wiesbaden: Vieweg+Teubner Verlag.
- Lix, L. M., Keselman, J. C., & Keselman, H. J. (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66(4), 579–619. doi:10.
3102/ 00346543066004579 - Pole, J. D., & Bondy, S. J. (2010). Normality Assumption. In N. J. Salkind (Ed.), Encyclopedia of research design (pp. 932–934). Los Angeles: SAGE.
- Schmider, E., Ziegler, M., Danay, E., Beyer, L., & Bühner, M. (2010). Is It Really Robust? Methodology, 6(4), 147–151. doi:10.
1027/ 1614- 2241/ a000016 - Tavakoli, H. (2013). A dictionary of research methodology and statistics in applied linguistics. Tehran: Rahnamā.