Einfaktorielle ANOVA

Einfaktorielle ANOVA: Normalverteilung verletzt – Gegenmaßnahmen

Wenn sich herausstellt, dass eine oder mehrere Gruppen nicht normalverteilt sind, gibt es eine Reihe von Möglichkeiten, wie man weiter verfahren kann. Zum einen hat sich gezeigt, dass die einfaktorielle ANOVA relativ robust gegenüber Verletzungen der Normalverteilungsannahme ist (Blanca, Alarcón, Arnau, Bono, & Bendayan, 2017; Glass, Peckham, & Sanders, 1972; Harwell, Rubinstein, Hayes, & Olds, 1992; Lix, Keselman, & Keselman, 1996; Salkind, 2010; Schmider, Ziegler, Danay, Beyer, & Bühner, 2010). Zum anderen existieren etliche Gegenmaßnahmen, darunter:

  1. Eine Transformation anwenden
  2. Ein non-parametrisches Verfahren verwenden
  3. Non-parametrische Ergebnisse mit parametrischen Ergebnissen vergleichen
  4. Mit den Daten fortfahren, ohne Maßnahmen anzuwenden

Daten transformieren

Je nachdem wie die Daten verteilt sind, kann man eine von zahlreichen Transformationen anwenden und hoffen, dass die Daten dann eher einer Normalverteilung entsprechen. Die Wahl der Transformation hängt dabei von dem Aussehen der Daten ab. Nicht in jedem Fall ist es sinnvoll oder hilfreich, die Daten zu transformieren. (Für weitere Informationen, wie man Daten mit SPSS transformiert und wann welche Transformation sinnvoll ist, empfehlen wir den Artikel über Datentransformation mit SPSS. Nachdem die Daten transformiert werden, muss die explorative Datenanalyse erneut ausgeführt werden.)

Transformationen funktionieren generell am besten für unimodale Verteilungen, die eine starke Schiefe nach links oder rechts ausweisen.

Non-parametrische Verfahren

Viele Statistiker empfehlen direkt zu einem non-parametrischen Verfahren überzugehen, sobald man merkt, dass die Daten nicht normalverteilt sind (oder eine der anderen Voraussetzungen verletzt wird). Diese strenge Meinung gilt allerdings als weitestgehend überholt. Simulationsstudien haben gezeigt, dass die einfaktorielle ANOVA robust gegenüber Verletzungen der Normalverteilungsannahme ist. Als Faustregeln kann man sagen, dass die man

  • mindestens 15 Versuchspersonen pro Gruppe braucht, wenn man 2–9 Gruppen hat
  • mindestens 20 Versuchspersonen pro Gruppe braucht, wenn man 10–12 Gruppen hat

Falls man dennoch eine Alternative zur einfaktorielle ANOVA sucht, bietet sich der Kruskal-Wallis-Test (H-Test) an. Auch wenn der H-Test eine beliebte Alternative für die einfaktorielle ANOVA ist, sollte man bedenken, dass die Null- und Alternativhypothese des H-Tests und die der einfaktoriellen ANOVA nicht identisch sind.

Non-parametrische Ergebnisse mit parametrischen Ergebnissen vergleichen

Vor allem wenn man zuerst ein parametrisches Verfahren wie die einfaktorielle ANOVA gerechnet hat und dann dazu veranlasst wird, ein nicht-parametrisches Verfahren zu rechnen, bietet es sich an, beide Ergebnisse einander gegenüberzustellen. Dies kann beispielsweise der Fall sein, wenn ein Professor oder Reviewer ein non-parametrisches Verfahren bevorzugt, man selbst aber nicht. Oftmals stellt sich heraus, dass die Ergebnisse identisch sind.

Weitermachen, wie gehabt

Da Simulationsstudien gezeigt haben, dass die einfaktorielle ANOVA relativ robust gegenüber Verletzungen der Normalverteilungsannahme ist, vor allem, wenn die Größe der Gruppen gleich ist. Alternativ kann man auch eine Welch ANOVA rechnen, die generell robuster gegenüber Verletzungen von Annahmen ist.

Literaturverzeichnis

  1. Blanca, M. J., Alarcón, R., Arnau, J., Bono, R., & Bendayan, R. (2017). Non-normal data: Is ANOVA still a valid option? Psicothema, 29(4), 552–557. doi:10.7334/psicothema2016.383
  2. Glass, G. V., Peckham, P. D., & Sanders, J. R. (1972). Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analyses of Variance and Covariance. Review of Educational Research, 42(3), 237–288. doi:10.3102/00346543042003237
  3. Harwell, M. R., Rubinstein, E. N., Hayes, W. S., & Olds, C. C. (1992). Summarizing Monte Carlo Results in Methodological Research: The One- and Two-Factor Fixed Effects ANOVA Cases. Journal of Educational and Behavioral Statistics, 17(4), 315–339. doi:10.3102/10769986017004315
  4. Lix, L. M., Keselman, J. C., & Keselman, H. J. (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66(4), 579–619. doi:10.3102/00346543066004579
  5. Salkind, N. J. (2010). Encyclopedia of Research Design (Vol. 2). Los Angeles: Sage.
  6. Schmider, E., Ziegler, M., Danay, E., Beyer, L., & Bühner, M. (2010). Is It Really Robust? Methodology, 6(4), 147–151. doi:10.1027/1614-2241/a000016