gepaarter t-Test

Gepaarter t-Test: Normalverteilung überprüfen

Mit der explorativen Datenanalyse haben wir auf der vorigen Seite nicht nur ein Box-Plot für die Ausreißer erstellt, sondern auch die Daten auf Normalverteilung überprüft. SPSS hat dazu für uns Q-Q-Plots und zwei Tests berechnet. Wichtig ist, dass wir dazu in der explorativen Datenanalyse  ausgewähltes KontrollkästchenNormalverteilungsdiagramm mit Tests ausgewählt haben.

Wie wichtig die Voraussetzung der Normalverteilung überhaupt ist, steht auch zur Debatte. Es gibt genügend Belege aus aktuellen Studien, dass Regressionsmodelle, zu denen auch der t-Test gehört, robust gegenüber einer Verletzung der Normalverteilung sind (Glass, Peckham, & Sanders, 1972; Harwell, Rubinstein, Hayes, & Olds, 1992; Lix, Keselman, & Keselman, 1996; Salkind, 2010).

Wenn unsere Stichprobe ausreichend groß ist (N > 50) können wir auch auf die Überprüfung der Normalverteilung verzichten, da nach dem zentralen Grenzwertsatz die Stichprobenverteilung annähernd normalverteilt sein wird.

Normalverteilung in SPSS überprüfen: Der Shapiro-Wilk-Test

Mit der explorativen Datenanalyse haben wir nicht nur Box-Plots erstellen lassen, sondern auch die Tests auf Normalverteilung.

gepaarter <em>t</em>-Test: Shapiro-Wilk Test für Normalverteilung

Der Shapiro-Wilk Test (und der Kolmogorov-Smirnov Test) testen auf einem Signifikanzniveau von α = .05. Ein Wert kleiner als .05 in der Spalte Signifikanz (hier gelb hervorgehoben) bedeutet, dass der Shapiro-Wilk Test signifikant geworden ist und das die Daten nicht normalverteilt sind. Ein Wert größer als .05 hingegen würde bedeuten, dass die Daten etwa normalverteilt sind. Wir könnten auch den Kolmogorov-Smirnov Test interpretieren, allerdings empfehlen wir den Shapiro-Wilk Test, da er generell eine höhere Power als der Kolmogorov-Smirnov Test hat.

Die Daten in unserem Beispieldatensatz sind gemäß dem Shapiro-Wilk Test (und dem Kolmogorov-Smirnov Test) nicht normalverteilt. Wir haben allerdings eine Stichprobengröße von N > 50, weshalb wir uns keine Sorgen um ein signifikantes Ergebnis machen müssen. Gründe für einen signifikanten Test auf Normalverteilung können sein:

  • Die Daten sind nicht normalverteilt
  • Es befinden sich Ausreißer in den Daten
  • Die Daten sind (stark) schief
  • Die Stichprobengröße ist hoch

Wenn unsere Stichprobe nicht ausreißend groß gewesen wäre, hätten wir das Ergebnis des Shapiro-Wilk Test so berichten können:

Deutsch
Die Differenz der Pre- und Post-Testscores waren gemäß dem Shapiro-Wilk Test nicht normalverteilt (p = .004).
English
The differences between the pre- and post-scores were not normally distributed, as assessed by the Shapiro-Wilk test (p = .004).
Auch wenn SPSS in der Spalte Signifikanz einen Wert von .000 angibt, ist dies nur ein gerundeter Wert (Signifikanzen können weder die Werte 0 oder 1 annehmen, sondern liegen immer dazwischen.) Bei einem Wert von .000 würden wir dies als p < .001 schreiben. Das APA-Handbuch empfiehlt ansonsten die Angabe genauer p-Werte (gerundet auf drei Nachkommastellen).

Normalverteilung verletzt, was nun?!

Der t-Test – egal ob ungepaart oder mit nur einer Stichprobe – gilt als robust gegenüber der Verletzung der Normalverteilungsannahme. Wenn unsere Stichprobe größer als 50 ist, kann uns ebenfalls ein signifikantes Ergebnis egal sein. Ansonsten haben wir drei Möglichkeiten:

  1. Eine Transformation anwenden
  2. Ein non-parametrisches Verfahren wie Spearmans Rho oder Kendalls Tau verwenden
  3. Mit den Daten fortfahren, ohne Maßnahmen anzuwenden

Literaturverzeichnis

  1. Glass, G. V., Peckham, P. D., & Sanders, J. R. (1972). Consequences of Failure to Meet Assumptions Underlying the Fixed Effects Analyses of Variance and Covariance. Review of Educational Research, 42(3), 237–288. doi:10.3102/00346543042003237
  2. Harwell, M. R., Rubinstein, E. N., Hayes, W. S., & Olds, C. C. (1992). Summarizing Monte Carlo Results in Methodological Research: The One- and Two-Factor Fixed Effects ANOVA Cases. Journal of Educational and Behavioral Statistics, 17(4), 315–339. doi:10.3102/10769986017004315
  3. Lix, L. M., Keselman, J. C., & Keselman, H. J. (1996). Consequences of Assumption Violations Revisited: A Quantitative Review of Alternatives to the One-Way Analysis of Variance F Test. Review of Educational Research, 66(4), 579–619. doi:10.3102/00346543066004579
  4. Salkind, N. J. (2010). Encyclopedia of Research Design (Vol. 2). Los Angeles: Sage.