Einfaktorielle MANOVA: Voraussetzungen
Insgesamt zehn Voraussetzungen sind zu erfüllen, damit wir eine einfaktorielle MANOVA berechnen dürfen. Allerdings sind nicht alle Punkte, die wir nachfolgend nennen werden, echte Voraussetzung die strikt eingehalten werden müssen. Manche von ihnen lassen sich biegen, ohne dass unser Testergebnis stark verfälscht wird, andere wiederum müssen eingehalten werden.
Die ersten drei Voraussetzung aus der Liste sind Grundvoraussetzungen; sie können nicht mit Statistikprogrammen überprüft werden, müssen aber dennoch erfüllt sein. Die letzten sieben Punkte wiederum werden wir auf den kommenden Seiten im Detail und schrittweise mit SPSS überprüfen.
- Unabhängigkeit der Messungen. Dies ist eine der wichtigsten Voraussetzungen der einfaktoriellen MANOVA. Messungen sind dann unabhängig, wenn der Messwert einer Gruppe nicht abhängt oder beeinflusst wird durch den Messwert aus einer anderen Gruppe. Gewinnt man seine Messdaten von Menschen, ist diese Bedingung meistens bereits erfüllt, wenn kein Teilnehmer aus einer Gruppe auch in einer anderen Gruppe vorkommt. Daher befinden sich in jeder Gruppe unterschiedliche Personen. Auch wenn man Personen nach Geschlecht, Alter oder Bildungsabschluss aufteilt, wären die Personen in jeder Gruppe andere.
- Die abhängigen Variablen sind mindestens intervallskaliert. Das Skalenniveau ist wichtig, da die Formeln der MANOVA vorsieht, dass wir verschiedene mathematische Operationen durchführen, die wir erst ab einer intervallskalierten Variablen durchführen dürfen. Beispiele für intervallskalierte Variablen sind: Zeit (z.B. Alter, Reaktionszeiten, Zeitmessungen), Größe, Gewicht, Temperatur, Geld, IQ, Anzahl von xyz (z.B. Studenten, Kaffee pro Tag), Konzentrationen (z.B. Hormone, Mineralien, Eiweiße).
- Die unabhängige Variable ist unabhängig und nominalskaliert. Wir erwarten, dass unsere unabhängige Variable kategorial ist, daher nominalskaliert. Die Einteilung kann auf natürliche Weise zustande gekommen sein (wie beispielsweise bei Geschlecht) oder künstlich (wie beispielsweise die Einteilung in verschiedene Altersgruppen). Wichtig ist allerdings, dass die Gruppen unabhängig voneinander sind.
- Stichprobengröße. Als Faustregel gilt: Je größer die Stichprobengröße, desto besser. Als absolutes Minimum gilt, es muss es muss mindestens so viele Fälle in jeder Gruppe der unabhängigen Variable geben, wie es abhängige Variablen gibt. In unserem Beispiel bedeutet dies, dass wir mehr als drei Fälle pro Gruppe geben brauchen.
- Es sollte eine lineare Beziehung zwischen den abhängigen Variablen für jede Gruppe der unabhängigen Variablen geben. Wie die meisten anderen statischen Modelle, quantifiziert auch die MANOVA den linearen Zusammenhang zwischen Variablen. Bei einer MANOVA muss es eine lineare Beziehung zwischen jedem Paar abhängiger Variablen für jede Gruppe der unabhängigen Variablen geben.
- Keine Multikolinearität. Idealerweise möchten wir, dass die abhängigen Variablen moderat miteinander korrelieren. Wenn die Korrelationen allerdings zu niedrig sind, ist es eventuell besser, getrennte einfaktorielle ANOVAs – eine für jede abhängige Variable – zu berechnen, da die MANOVA als multivariates Modell alle abhängigen Variablen berücksichtigt und geringe Interkorrelationen die statistische Power mindern. Wenn die Korrelation(en) zu hoch sind (größer als .9), ist dies ein Zeichen für Multikollinearität. Das ist ebenfalls für die Berechnung der MANOVA problematisch, da die Variablen effektiv redundant werden und keine zusätzliche Varianz aufklären.
- Die Varianzen sollten (etwa) gleich sein (Homoskedastizität). Die Varianz spielt eine große Rolle bei der MANOVA (immerhin steht das V in MANOVA für Varianz). Liegen die Varianzen der einzelnen Gruppen zu weit voneinander entfernt, erhöht sich die Wahrscheinlichkeit, einen Fehler erster Art zu begehen. Dies wird direkt mit Levene-Test überprüft.
- Homogenität der Varianz-Kovarianz Matrizen. (Ähnlich wie die Voraussetzung oben drüber.) Für die Berechnung sollten die Varianz-Kovarianzen Matrizen (etwa) homogen sein. Dies überprüfen wir in SPSS mit Box’s M-Test, der auch direkt Teil der Ausgabe von SPSS ist.
Multivariate Normalverteilung. Multivariate Normalverteilung ist ähnlich wie die Annahme der univariaten Normalverteilung, mit dem Unterschied, dass zwei oder mehr Variablen gleichzeitig betrachtet werden. Leider ist die multivariate Normalität eine besonders schwierige Annahme, und eine die nicht direkt in SPSS getestet werden kann. Stattdessen wird die multivariate Normalverteilung jeder der abhängigen Variablen für jede der Gruppen der unabhängigen Variablen getestet, welches allerdings lediglich eine Schätzung ist, da SPSS leider keine Verfahren zur Testung multivariater Normalverteilung gibt.
- Keine univariaten und multivariaten Ausreißer.
In keiner Gruppe der unabhängigen Variable sollten Ausreißer sein. Univariate Ausreißer werden meist auch einfach nur Ausreißer genannt, auch wenn wir hier zwischen univariaten und multivariaten Ausreißern unterscheiden müssen. Univariate Ausreißer sind extreme Werte, die weit vom Mittelwert der jeweiligen Gruppe entfernt sind. Durch Ausreißer können Ergebnisse verzerrt werden – in beide Richtungen. Diese Voraussetzung finden wir auch in der regulären einfaktoriellen ANOVA wieder.
Ganz anders sieht es bei den multivariaten Ausreißern aus. Diese Voraussetzung finden wir nur bei multivariaten Verfahren. Die multivariate Ausreißererkennung untersucht die Abhängigkeit mehrerer Variablen, während die univariate Ausreißererkennung unabhängig für jede Variable durchgeführt wird. Entsprechend lassen sich multivariate Ausreißer nicht unbedingt durch extrem hohe oder niedrige Werte entlang einzelner Achsen erkennen.
Auf den nächsten Seiten besprechen wir im Detail wie diese Voraussetzungen im einzelnen mit SPSS überprüft werden können.