ungepaarter t-Test

Ungepaarter t-Test: Normalverteilung überprüfen

Mit der explorativen Datenanalyse haben wir auf der vorigen Seite nicht nur ein Box-Plot für die Ausreißer erstellt, sondern auch die Daten auf Normalverteilung überprüft. SPSS hat dazu für uns Q-Q-Plots und zwei Tests berechnet. Wichtig ist, dass wir dazu in der explorativen Datenanalyse  ausgewähltes KontrollkästchenNormalverteilungsdiagramm mit Tests ausgewählt haben.

Wie wichtig die Voraussetzung der Normalverteilung überhaupt ist, steht auch zur Debatte. Es gibt genügend Belege aus aktuellen Studien, dass Regressionsmodelle, zu denen auch der t-Test gehört, robust gegenüber einer Verletzung der Normalverteilung sind (Glass, Peckham, & Sanders, 1972; Harwell, Rubinstein, Hayes, & Olds, 1992; Lix, Keselman, & Keselman, 1996; Salkind, 2010).

Wenn unsere Stichprobe ausreichend groß ist (N ≥ 30 für jede der beiden Gruppen) können wir auch auf die Überprüfung der Normalverteilung verzichten, da nach dem zentralen Grenzwertsatz die Stichprobenverteilung annähernd normalverteilt sein wird (Kähler, 2004; Bortz & Schuster, 2010; Tavakoli, 2013).

Normalverteilung in SPSS überprüfen: Der Shapiro-Wilk-Test

Mit der explorativen Datenanalyse haben wir nicht nur Box-Plots erstellen lassen, sondern auch die Tests auf Normalverteilung.

ungepaarter <em>t</em>-Test: Shapiro-Wilk Test auf Normalverteilung

Der Shapiro-Wilk Test (und der Kolmogorov-Smirnov Test) testen auf einem Signifikanzniveau von α = .05. Ein Wert kleiner als .05 in der Spalte Signifikanz (hier gelb hervorgehoben) bedeutet, dass der Shapiro-Wilk Test signifikant geworden ist und das die Daten nicht normalverteilt sind.

Ein Wert größer als .05 hingegen würde bedeuten, dass die Daten etwa normalverteilt sind. Wir könnten auch den Kolmogorov-Smirnov Test interpretieren, allerdings empfehlen wir den Shapiro-Wilk Test, da er generell eine höhere Power als der Kolmogorov-Smirnov Test hat.

Die Daten in unserem Beispieldatensatz sind gemäß dem Shapiro-Wilk Test (und dem Kolmogorov-Smirnov Test) nicht normalverteilt. Wir haben allerdings eine Stichprobengröße von N ≥ 30 für jede der beiden Gruppen, weshalb wir uns keine Sorgen um ein signifikantes Ergebnis machen müssen und eine normalverteilte Stichprobenverteilung annehmen dürfen. Gründe für einen signifikanten Test auf Normalverteilung können sein:

  • Die Daten sind nicht normalverteilt
  • Es befinden sich Ausreißer in den Daten
  • Die Daten sind (stark) schief
  • Die Stichprobengröße ist hoch

Wenn unsere Stichprobe nicht ausreißend groß gewesen wäre (N < 30), hätten wir das Ergebnis des Shapiro-Wilk Test so berichten können:

Deutsch
Beide Gruppen waren waren gemäß dem Shapiro-Wilk Test nicht normalverteilt (p < .001).
English
Both groups were not normally distributed, as assessed by the Shapiro-Wilk test (p < .001).
Auch wenn SPSS in der Spalte Signifikanz einen Wert von .000 angibt, ist dies nur ein gerundeter Wert (Signifikanzen können weder die Werte 0 oder 1 annehmen, sondern liegen immer dazwischen.) Bei einem Wert von .000 würden wir dies als p < .001 schreiben. Das APA-Handbuch empfiehlt ansonsten die Angabe genauer p-Werte (gerundet auf drei Nachkommastellen).

Normalverteilung verletzt, was nun?!

Der t-Test gilt als robust gegenüber der Verletzung der Normalverteilungsannahme. Wenn unsere Stichprobe für jede der beiden Gruppen 30 oder größer ist, kann uns ebenfalls ein signifikantes Ergebnis egal sein. Ansonsten haben wir drei Möglichkeiten:

  1. Eine Transformation anwenden
  2. Ein non-parametrisches Verfahren wie den U-Test verwenden
  3. Mit den Daten fortfahren, ohne Maßnahmen anzuwenden

Literaturverzeichnis

  1. Bortz, J., & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (7., vollständig überarbeitete und erweiterte Auflage). Springer-Lehrbuch. Berlin, Heidelberg: Springer-Verlag Berlin Heidelberg.
  2. Glass, G. V., Peckham, P. D., & Sanders, J. R. (1972). Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analyses of Variance and Covariance. Review of Educational Research, 42(3), 237–288. doi:10.3102/00346543042003237
  3. Harwell, M. R., Rubinstein, E. N., Hayes, W. S., & Olds, C. C. (1992). Summarizing Monte Carlo Results in Methodological Research: The One- and Two-Factor Fixed Effects ANOVA Cases. Journal of Educational and Behavioral Statistics, 17(4), 315–339. doi:10.3102/10769986017004315
  4. Kähler, W.-M. (2004). Statistische Datenanalyse: Verfahren verstehen und mit SPSS gekonnt einsetzen (3., völlig neubearbeitete Auflage). Wiesbaden: Vieweg+Teubner Verlag.
  5. Lix, L. M., Keselman, J. C., & Keselman, H. J. (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66(4), 579–619. doi:10.3102/00346543066004579
  6. Salkind, N. J. (2010). Encyclopedia of Research Design (Vol. 2). Los Angeles: Sage.
  7. Tavakoli, H. (2013). A dictionary of research methodology and statistics in applied linguistics. Tehran: Rahnamā.