Moderationsanalyse

Moderationsanalyse: Variablen zentrieren oder nicht?

Die Zentrierung (auch Mittelwertzentrierung) von Variablen ist ein Thema in der Statistik, wo die Meinungen von Experten auseinander gehen. Die generelle Motivation seine Variablen zu zentrieren liegt dahin, Multikollinearität zu eliminieren (oder zumindest zu mindern). Viele Forscher zentrieren ihre Variablen aber weil sie denken, dass sie es tun müssen oder weil sie von Betreuern oder Reviewern dazu aufgefordert wurden.

Wenn man eine Variable zentriert, subtrahiert man den Mittelwert der Variable von jedem Messwert und erhält so eine neue Variable. Das Vorgehen hier ist identisch mit der Standardisierung einer Variable, nur, dass nicht mehr durch die Standardabweichung geteilt wird. Zentriert werden hierbei nur die unabhängigen Variablen (d.h. die Prädiktoren) und nicht die abhängige Variable (d.h. das Kriterium).

Die meisten Dinge, die wir hier besprechen, beziehen sich auf die Zentrierung von Variablen, sind aber auch auf die Standardisierung übertragbar.

Zentrierung wird von vielen Statistikern empfohlen. Es gibt verschiedene Erklärungen, warum man seine Variable zentrieren sollte, aber die wahrscheinlich häufigste Erklärung bezieht sich auf den Fall, wenn X und M stark miteinander korrelieren, werden die resultierenden Koeffizienten unerwartete Werte annehmen, große Standardfehler annehmen und die Testverfahren generell an statistischer Power verlieren – dies ist allerdings weitestgehend ein Mythos (Hayes, 2018). Das heißt allerdings nicht, dass Zentrieren gar keine Vorteile bietet. In einigen Fällen kann sich dadurch beispielsweise die Interpretierbarkeit des Modells verbessern, wie wir noch sehen werden. Allerdings ist es falsch anzunehmen, dass Modelle ohne zentrierte Koeffizienten zu falschen oder fehlerhaften Schlüssen führen würden.

Beispiel

Nehmen wir noch einmal unseren Beispieldatensatz und betrachten einmal das Modell mit zentrierten Variablen und einmal ohne, wie in der Tabelle unten.

Koeffizienten Standardfehler t p
Modell #1, ohne Zentrierung (R² = .165)
(Intercept) -5.69 5.554 -1.03 .308
alter 0.555 0.134 4.131 < .001
freizeit 1.342 0.323 4.161 < .001
alter × freizeit -0.03 0.008 -4.35 < .001
Modell #2, mit Zentrierung (R² = .165)
(Intercept) 16.35 0.47 34.82 < .001
alter 0.003 0.038 0.085 .932
freizeit 0.043 0.094 0.465 .643
alter × freizeit -0.03 0.008 -4.35 < .001

Es gibt zwischen beiden Modellen etliche Unterschiede und Gemeinsamkeiten. Beispielsweise ist die Varianzaufklärung, gegeben durch das R², bei beiden Modellen R² = .165. Darüber hinaus und vielleicht noch wichtiger: die Werte des Interaktionsterms – also des Moderationseffekts – sind für beide Modelle vollkommen identisch.

Generell gilt: Für den Interaktionseffekt, der den Effekt des Moderators und damit die eigentliche Moderation widerspiegelt, macht es keinen Unterschied, ob zentriert wird oder nicht – weder für die Koeffizienten, noch für beteiligte Statistiken oder Standardfehler und p-Werte. Was sich allerdings durch die Zentrierung verändert, sind die Haupteffekte bzw. direkten Effekte der anderen Variablen des Modells. Wenn man also nur an dem reinen Interaktionseffekt interessiert ist (also der Überprüfung, ob ein Moderationseffekt vorhanden ist), macht es keinen Unterschied, ob man zentriert oder nicht.

Zentrierung und Multikollinearität

Die Auswirkungen von Zentrierung auf Multikollinearität ist hingegen etwas komplexer. Unterhalb sehen wir die gleiche Tabelle wie oben, nur mit drei weiteren Spalten, die Kollinearitätstatistiken widerspiegeln: die Toleranz und der VIF, sowie die Varianz. Wie auch schon im Artikel zur Regression beschrieben, wäre ein VIF von über 10 bzw. eine Toleranz von unter 0.1 ein starken Indiz für Multikollinearität. Dies ist in unserem Datensatz für alle (nicht-zentrierten) Variablen gegeben.

Kollinearitätstatistik
Unstandardized Standard Error t p Varianz Toleranz VIF
Modell #1, ohne Zentrierung (R² = .165)
(Intercept) -5.69 5.554 -1.03 .308
alter 0.555 0.134 4.131 < .001 152.291 0.081 12.327
freizeit 1.342 0.323 4.161 < .001 25.759 0.083 12.033
alter × freizeit -0.03 0.008 -4.35 < .001 86832.747 0.043 23.486
Modell #2, mit Zentrierung (R² = .165)
(Intercept) 16.35 0.47 34.82 < .001
alter 0.003 0.038 0.085 .932 152.291 0.997 1.003
freizeit 0.043 0.094 0.465 .643 25.759 0.988 1.012
alter × freizeit -0.03 0.008 -4.35 < .001 3753.027 0.985 1.015

Wenn wir uns das zweite Modell weiter unten anschauen, bei dem wir die Variablen vorher zentriert haben, sehen wir, dass alle Kollinearitätstatistiken nahe 1 liegen, was darauf hindeutet, dass keine Multikollinearität besteht. Es scheint also, als ob wir durch die Zentrierung unserer Variablen Multikollinearität eliminiert hätten. Ein ähnliches Bild scheint die Korrelationstabelle mit unseren Variablen zu zeigen (unterhalb): Die Korrelationen des Interaktionsterms sind signifikant geringer für die zentrierten Variablen, als für die nicht.zentrierten Variablen.

Aber, warum haben sich dann die anderen Koeffizienten des Interaktionseffekts nicht verändert? Immerhin weißt er in unserem Datensatz das höchste Maß an Multikollinearität auf. Die Antwort liegt dahin, wie sich die anderen Statistiken durch die Zentrierung verändert haben.

Pearson-Korrelationen Nicht Zentriert Zentriert
Variable alter freizeit alter × freizeit alter freizeit alter × freizeit
alter
freizeit .006 .006
alter × freizeit .698 .689 .052 .111

In der Statistik ist es selten, dass man ein Element verändert, ohne noch weitere Elemente währenddessen mit zu verändern. Genau das ist hier passiert.

Nach der Zentrierung ist der VIF unser Interaktion alter × freizeit von vorher 23.486 auf 1.015 gefallen, also auf ein 23.4861.015 ≈ 23.14 des ursprünglichen Wertes. Jetzt schauen wir uns noch an, was mit der Varianz passiert ist. Sie ist von 86832.747 auf 3753.027 gefallen, also auf ein 86832.7473753.027 ≈ 23.14 des ursprünglichen Wertes. Beide Werte sind also um den gleichen Faktor gefallen. Das kann kein Zufall sein ;-)

Es stellt sich heraus, dass der Standardfehler mittels VIF und Varianz berechnet werden kann, und zwar so, wie in der Gleichung unten (Hayes, 2018):

\[SE = \sqrt{\dfrac{\mathrm{VIF}}{s^2}}\cdot\sqrt{\dfrac{MS_\mathrm{res}}{df_\mathrm{res}}}\]

Hier zeigt sich, dass der Quotient aus VIF und Varianz für unseren Interaktionsterm zentriert und unzentriert identisch ist, nämlich etwa 0.00027. MSres und die Freiheitsgerade werden durch die Zentrierung nicht verändert, so dass dieser Teil der Gleichung identisch bleibt. Aus diesem Grund ist der Standardfehler des Interaktionsterms beider Modelle auch gleich, unabhängig davon, ob zentriert wurde oder nicht und mit ihm, auch die verbundene Inferenzstatistik.

Daher ist es auch irreführend anzunehmen, dass man X und M zentrieren müsste, um problematische Multikollinearität des Interaktionsterms zu beseitigen (Hayes, 2018).

Vorteile von Zentrierung

Nachdem wir uns angeschaut haben, wo Zentrierung keinen Unterschied macht, betrachten wir jetzt noch ein Beispiel, wo zentrierte Variablen sinnvoll sein können.

Durch Zentrierung können die Regressionskoeffizienten der beiden Haupteffekte (für den Prädiktor und den Moderator) aussagekräftiger werden, allerdings verändert sich dadurch auch ihre Bedeutung und damit ihre Aussage.

Dies ist vor allem dann von Vorteil, wenn die Prädiktoren (X und M) keinen natürlichen Nullpunkt besitzen (Schielzeth, 2010), auch wenn dies kein Muss ist. Viele psychologische Skalen besitzen allerdings gerade keinen Nullpunkt oder bilden Skalen, bei denen sich Null nicht sinnvoll interpretieren lässt.

Um besser zu verstehen, wie sich die Interpretation verändert, schauen wir uns einmal die Regressionsgleichung unserer Moderation (mit zentrierten Variablen) an:

\[Y = \underbrace{b_0\vphantom{\left (M – \overline{M} \right )}}_\mathrm{Konstante} + \quad\underbrace{b_1\cdot \left (X – \overline{X} \right )}_\mathrm{Pr\ddot{a}diktor} + \underbrace{b_2\cdot \left (M – \overline{M} \right )}_\mathrm{Moderator} + \underbrace{b_3\cdot \left (X – \overline{X} \right )\cdot \left (M – \overline{M} \right )}_\mathrm{Interaktionsterm} \quad + \underbrace{e\vphantom{\left (M – \overline{M} \right )}}_\mathrm{Fehlerterm}\]

Durch die Zentrierung am Mittelwert bedeutet ein Wert von Null, das diese Variable eine mittlere Ausprägung aufweist. Bei zentrierten Variablen entspricht der Koeffizient b1 der Steigung der Regressionsgeraden des Prädiktors (X) für eine mittlere Ausprägung des Moderators. Analog dazu entspricht der Koeffizient b2 der Steigung der Regressionsgeraden des Moderators für eine mittlere Ausprägung des Prädiktors (X).

Aber das ist nicht alles: Bei zentrierten Prädiktoren zeigt sich, dass ein jedes Regressionsgewicht b die durchschnittliche Regression über alle Ausprägungen der anderen Variablen hinweg beschreibt (Cohen, Cohen, West, & Aiken, 2015; Eid, Gollwitzer, & Schmitt, 2017).

Zentrieren oder nicht Zentrieren?

Die große Frage bleibt aber am Ende immer noch: Ist es besser seine Variablen zu Zentrieren oder unzentriert zu lassen?

Sollte man sich lediglich für den Interaktionseffekt interessieren, macht es keinen Unterschied und man kann direkt – ohne zu zentrieren – mit der Moderationsanalyse fortfahren. Falls man hingegen Interesse daran hat, die Haupteffekte zu interpretieren, können zentrierte Variablen die Interpretation verbessern. In diesem Fall ist die Aussage, die sie machen, allerdings ebenfalls eine andere.

Was die Zentrierung allerdings verändern wird, sind die Korrelationen zwischen den einzelnen Variablen der Moderation. Die Interkorrelation zwischen dem Interaktionsterm und den anderen Prädiktoren wird durch Zentrierung stark beeinflusst und (meistens) eliminiert. Dies beseitigt allerdings nicht mögliche problematische Multikollinearität des Interaktionsterms.

Unsere Empfehlung ist daher:

Sollten die Prädiktoren (X und M) keinen natürlichen Nullpunkt besitzen oder der Wert Null keine aussagefähige Bedeutung haben, empfehlen wir ebenfalls die Variablen zu zentrieren. Die Zentrierung erleichtert die Interpretation der direkten Effekte und beeinflusst dabei nicht den Moderationseffekt.

Literaturverzeichnis und weiterführende Literatur

  1. Cohen, J., Cohen, P., West, S. G., & Aiken, L. S. (2015). Applied multiple regression/correlation analysis for the behavioral sciences (3rd ed.). New York, London: Routledge.
  2. Dalal, D. K., & Zickar, M. J. (2012). Some Common Myths About Centering Predictor Variables in Moderated Multiple Regression and Polynomial Regression. Organizational Research Methods, 15(3), 339–362. doi:10.1177/1094428111430540
  3. Eid, M., Gollwitzer, M., & Schmitt, M. (2017). Statistik und Forschungsmethoden: Mit Online-Materialien (5., korrigierte Auflage). Weinheim: Beltz.
  4. Echambadi, Raj, und James D. Hess. 2007. Mean-Centering Does Not Alleviate Collinearity Problems in Moderated Multiple Regression Models. Marketing Science 26(3), 438–45. doi:10.1287/mksc.1060.0263
  5. Hayes, A. F. (2018). Introduction to Mediation, Moderation, and Conditional Process Analysis, Second Edition (Methodology in the Social Sciences) (2nd ed.). Guilford Press.
  6. Iacobucci, Dawn, Matthew J. Schneider, Deidre L. Popovich, und Georgios A. Bakamitsos. 2016. Mean Centering Helps Alleviate „Micro“ but Not „Macro“ Multicollinearity. Behavior Research Methods 48(4), 1308–17. doi:10.3758/s13428-015-0624-x
  7. Kraemer, H. C., & Blasey, C. M. (2004). Centring in regression analyses: A strategy to prevent errors in statistical inference. International Journal of Methods in Psychiatric Research, 13(3), 141–151. doi:10.1002/mpr.170
  8. Kromrey, Jeffrey D., und Lynn Foster-Johnson. 1998. Mean Centering in Moderated Multiple Regression: Much Ado about Nothing. Educational and Psychological Measurement 58(1), 42–67. doi:10.1177/0013164498058001005
  9. Schielzeth, H. (2010). Simple means to improve the interpretability of regression coefficients. Methods in Ecology and Evolution, 1(2), 103–113. doi:10.1111/j.2041-210X.2010.00012.x