Einfaktorielle MANOVA

Einfaktorielle MANOVA: Voraussetzung #1: Multikolinearität

Multikollinearität tritt auf, wenn abhängige Variablen sehr hoch miteinander korrelieren. Multikollinearität verursacht sowohl logische als auch statistische Probleme. Durch die hohe Korrelation werden die Variablen redundant, beide Variablen messen dadurch effektiv dasselbe. Allerdings ist es für die meisten statistischen Verfahren problematisch redundante Variablen in dieselbe Analyse aufzunehmen, es sei denn, wir führen eine Strukturanalyse durch (z.B. Hauptkomponentenanalyse oder Strukturgleichungsmodellierung). Redundante Variablen werden nicht benötigt, und weil sie die Größe der Fehlerterme erhöhen und dadurch die Analyse eher schwächen.

Wenn man also nicht gerade eine Strukturanalyse durchführt oder man ein Design mit Messwiederholung hat, könnte Multikolinearität problematisch werden.

Multikolinearität in SPSS überprüfen

  1. Um zu überprüfen, ob wir Multikolinearität haben, müssen wir die Pearson-Korrelationen zwischen den abhängigen Variablen berechnen. Dazu gehen wir in SPSS auf Analysieren > Korrelation > Bivariat…


  2. Es öffnet sich das Dialogfenster unten:


  3. Wir wollen die Korrelationen zwischen unseren abhängigen Variablen bestimmen, in unserem Beispiel intervallskalierte VariableZufriedenheit und intervallskalierte VariableErgenis. Wir tragen beide Variablen in die rechte Seite, unter Variablen, ein.


  4. Als Letztes drücken wir auf OK, um die Analyse durchzuführen.

Interpretation der Ausgabe

In der Ausgabe finden wir eine Tabelle mit den Korrelationen unserer abhängigen Variablen.

Korrelationen
Summenscore Zufriedenheit Ergebnis Mathematikklausuren
Summenscore Zufriedenheit Korrelation nach Pearson 1 0.102
Signifikanz (2-seitig) 0.079
N 300 300
Ergebnis Mathematikklausuren Korrelation nach Pearson 0.102 1
Signifikanz (2-seitig) 0.079
N 300 300

Keine der Korrelationen (hier fett hervorgehoben) sollte zu hoch sein. Allerdings gibt es verschiedene Empfehlung, bezüglich ab wann man von Multikolinearität sprechen kann. Wir haben unterhalb die Empfehlungen einiger Autoren zusammengefasst. Die Korrelation von r = .102 ist unter den Empfehlungen aller Autoren, wir gehen daher davon aus, dass wir keine Multikolinearität in unserem Datensatz haben.

Bei der Interpretation der Korrelationen interpretieren wir den Betrag. Eine Korrelation von beispielsweise r = -.95 würde daher für Multikollinearität sprechen.

Dies könnten wir wir folgt berichten:

Deutsch
Die Korrelationen zwischen den abhängigen Variablen waren gering (r < .90), was darauf hindeutet, dass Multikollinearität die Analyse nicht konfundiert hat.
English
Correlations between dependent variables were low (r < .90), indicating that multicollinearity was not a confounding factor in the analysis.

Empfehlungen

In der Literatur existieren viele verschiedene Empfehlungen, ab wann man von Multikolinearität ausgehen kann. Tatsächlich ist die Situation allerdings nicht klar umrissen und verschiedene Autoren geben verschiedene Richtlinien. Tatsächlich kommt es auch hier auf verschiedene Faktoren, wie beispielsweise die Stichprobengröße an, wobei größeren Stichproben generell robuster sind (Berry, Berry, Feldman, & Feldman, 1985). Zusammengefasst lässt sich sagen, dass die meisten Autoren bei Werten zwischen .80 und .90 von Multikolinearität ausgehen:

  • r > .80 (Dattalo, 2013, p. 14; Abu-bader, 2006, p. 102; Pituch & Stevens, 2019, p. 77)
  • r > .85 (Schroeder, 1990)
  • Eindeutige Multikolinearität: r > .90 (Harlow, 2014, p. 56)
  • r > .90 (Verma, 2015, p. 191; Tabachnick & Fidell, 2012, p. 89)
 

Multikollinearität was nun?

Wenn wir zwischen zwei oder mehr Variablen eine hohe Korrelation gefunden haben, müssen wir von Multikollinearität ausgehen. In solchen Fällen gibt es einige Möglichkeiten, mit der Multikollinearität umzugehen:

  1. Wir können eine der beiden Variablen von der Analyse ausschließen. Bei mehr als zwei Variablen würden wir dies so lange wiederholen, bis keine Multikollinearität mehr zwischen den abhängigen Variablen vorhanden ist.
  2. Wir können Variablen zusammenfassen. Wenn wir davon ausgehen, dass die Variablen essenziell dasselbe messen, können wir sie zusammenfassen indem wir sie beispielsweise addieren oder den Mittelwert bilden und dann als eine einzige Variable in das Modell aufnehmen.
  3. Eine Hauptkomponentenanalyse durchführen. Wenn wir mehrere Variablen haben die miteinander korrelieren, können wir eine Hauptkomponentenanalöyse durchführen, um die einflussreichsten Variablen zu finden. Dies bezeichnet man auch als Dimensionsreduktion. Wie bei den beiden Punkten oberhalb können wir die Variablen entweder entfernen oder zusammenfassen.

Nachdem wir uns um die die Variablen mit Multikolinearität gekümmert haben, müssen wir die Analyse erneut durchführen.

Literaturverzeichnis

  1. Abu-bader, S. H. (2006). Using Statistical Methods in Social Work Practice: A Complete SPSS Guide. Lyceum Books.
  2. Berry, W. D., Berry, W., Feldman, S., & Feldman, S. (1985). Multiple Regression in Practice (Quantitative Applications in the Social Sciences). SAGE Publications, Inc.
  3. Dattalo, P. (2013). Analysis of Multiple Dependent Variables (Pocket Guides to Social Work Research Methods). Oxford University Press, USA.
  4. Harlow, L. L. (2014). The Essence of Multivariate Thinking: Basic Themes and Methods (Multivariate Applications) (2nd ed.). Routledge.
  5. Pituch, K. A., & Stevens, J. P. (2019). Applied Multivariate Statistics for the Social Sciences (6th ed.). Routledge.
  6. Schroeder, M. A. (1990). Diagnosing and dealing with multicollinearity. Western Journal of Nursing Research, 12(2), 175-84; discussion 184-7. doi:10.1177/019394599001200204
  7. Tabachnick, B. G., & Fidell, L. S. (2012). Using Multivariate Statistics (6th ed.). Prentice Hall.
  8. Verma, J. P. (2015). Repeated Measures Design for Empirical Researchers (1st ed.). Wiley.