ungepaarter t-Test

Ungepaarter t-Test: Voraussetzungen

Wie bei den meisten statistischen Tests, müssen auch beim gepaarten t-Test gewisse Voraussetzungen erfüllt sein, damit wir ihn interpretieren können. Der ungepaarte t-Test hat sechs Voraussetzungen, die wir hier besprechen werden. Die ersten drei Voraussetzungen beziehen sich auf das Design der Studie, während die letzten drei statistische Voraussetzungen sind, die wir mit SPSS überprüfen werden.

Voraussetzungen des ungepaarten t-Tests

  1. Unabhängigkeit der Messungen. Dies ist eine der wichtigsten Voraussetzungen der ungepaarten t-Tests. Messungen sind dann unabhängig, wenn der Messwert einer Gruppe nicht abhängt oder beeinflusst wird durch den Messwert aus einer anderen Gruppe. Gewinnt man seine Messdaten von Menschen, ist diese Bedingung meistens bereits erfüllt, wenn kein Teilnehmer aus einer Gruppe auch in einer anderen Gruppe vorkommt. Daher befinden sich in jeder Gruppe unterschiedliche Personen. Auch wenn man Personen nach Geschlecht, Alter oder Bildungsabschluss aufteilt, wären die Personen in jeder Gruppe andere.
    Hat man allerdings ein Versuchsdesign, bei dem dieselbe Person mehrmals gemessen wurde, sollte man eher zu einem gepaarten t-Test greifen.
  2. Die abhängige Variable soll mindestens intervallskaliert sein. Das Skalenniveau ist wichtig, da wir die Differenz zwischen beiden Gruppen bilden – eine mathematische Operation, die erst ab einer intervallskalierten Variablen durchgeführt werden darf.
  3. Die unabhängige Variable ist nominalskaliert und hat zwei Ausprägungen. Unsere unabhängige Variable muss kategorial sein, daher nominalskaliert und muss zwei Ausprägungen haben. Die beiden Ausprägungen beziehen sich auf die beiden Gruppen, die wir vergleichen und sind oft, aber nicht zwangsläufig, Messzeitpunkte (z.B. Messzeitpunkt #1 verglichen mit Messzeitpunkt #2).
  4. Ausreißer. Es sollten keine Ausreißer in den Daten sein, da die meisten parametrischen Statistiken nur wenig robust gegenüber Ausreißern sind, also Werte die sich weit entfernt von der Masse der anderen Werten befinden. Ein einziger Ausreißer kann bereits ein sonst signifikantes Ergebnis nicht signifikant werden lassen oder aber auch ein sonst nicht signifikantes Ergebnis signifikant (was in der Regel seltener vorkommt). Daher ist es besonders wichtig, die Daten auf Ausreißer zu überprüfen.
  5. Normalverteilung. Als parametrisches Verfahren liefert der ungepaarte t-Test die am besten zu interpretierenden Ergebnisse, wenn beide Gruppen etwa normalverteilt sind. Allerdings gibt es bei dieser Regel Ausnahmen und Abschwächungen. Viele Textbücher empfehlen zwar sofort den Einsatz anderer statistischer Verfahren, sollte diese Voraussetzung nicht erfüllt sein, jüngere Simulationsstudien zeigen hier allerdings, dass der ungepaarte t-Test robust gegen die Verletzung dieser Annahme ist.
  6. Die Varianzen in jeder Gruppe sollten (etwa) gleich sein (Homoskedastizität). Die Varianz spielt bei dem ungepaarten t-Test eine große Rolle. Liegen die Varianzen der einzelnen Gruppe zu weit voneinander entfernt, erhöht sich die Wahrscheinlichkeit, einen Fehler erster Art zu begehen. Allerdings gibt es auch hier Korrekturmöglichkeiten, sollte diese Voraussetzung nicht erfüllt sein, die wir auch noch besprechen werden.

Die letzten drei Voraussetzungen besprechen wir später noch im Detail und zeigen, wie sie mit SPSS überprüft werden können.

Hypothesen des ungepaarten t-Tests

Wie jeder statistischer Test, hat auch der gepaarte t-Test eine H0 und H1 Hypothese, nach denen sich die Angabe der Signifikanz richtet.

Die Nullhypothese besagt, dass es keinen Unterschied zwischen der Differenz der Mittelwerte der einzelnen Gruppen gibt (der Mittelwert der einen Gruppe entspricht dem Mittelwert der anderen). Daher: Es existiert kein Effekt.

\({H_0: \mu_1 = \mu_2}\)

Die Alternativhypothese hingegen besagt, dass sich beide Gruppen voneinander unterscheiden.

\({H_1: \mu_1 \neq \mu_2}\)

Entsprechend der Ergebnisse der Analyse, lehnen wir entweder die Nullhypothese ab oder nehmen sie an.

Die Signifikanz, die berechnet wird (der p-Wert) bedeutet daher, wie wahrscheinlich die beobachteten Mittelwertsunterschiede sind, wenn wir von zufälligen Effekten ausgehen. Ein geringer p-Wert bedeutet daher, dass es höchst unwahrscheinlich ist, dass die beobachteten Unterschiede allein durch Zufall zustande gekommen sind.

Balancierte und nicht-balancierte Designs

Immer wenn die Anzahl der Messungen für beide Gruppen nicht gleich sind, sprechen wir von einem unbalancierten Design. Als Faustregel kann man sagen: umso weniger balanciert die Gruppen sind, desto größer wird der Effekt einer verletzten Annahme auf den Test haben. Neben dem klassischen ungepaarten t-Test existiert auch noch der Welch-Test, der von SPSS automatisch mitberechnet wird und generell als robuster gilt – auch bei unbalancierten Designs. Den Welch-Test und seine Verwendung werden wir ausführlich auf den nächsten Seiten besprechen.