Multiple lineare Regression Voraussetzung #3: Unabhängigkeit der Residuen
Sind Residuen nicht unabhängig, dann liegt Autokorrelation vor. Das bedeutet, dass eine Variable mit sich selbst zu einem anderen Zeitpunkt korreliert. Wir testen in SPSS Autokorrelation der ersten Ordnung und damit, ob ein Residuum mit seinem direkten Nachbarn korreliert.
Autokorrelation beeinflusst dabei die Standardfehler, aus denen die p-Werte und damit die Inferenzstatistik berechnet werden – nicht aber die eigentlichen Regressionskoeffizienten (Allen, 1997). Bei positiver Autokorrelation werden die geschätzten Standardfehler den tatsächlichen Standardfehler unterschätzen und wir werden schneller einen signifikanten Koeffizienten erhalten (auch wenn er vielleicht eigentlich nicht signifikant ist); bei negativer ist es genau anders herum: Die Standardfehler werden überschätzt, was zu höheren p-Werten führt und dadurch potentielle signifikante Koeffizienten unterschlägt (Allen, 1997).
Autokorrelation hängt stark von dem Design der Studie ab. In einigen Studiendesigns würde es nur wenig Sinn machen, Autokorrelation zu überprüfen, da es sehr unwahrscheinlich ist, dass die Messungen oder Residuen abhängig sind (z.B. wenn es sich nicht um Zeitreihendaten handelt, ist Autokorrelation weniger ein Problem). In solchen Fällen kann auf die Testung der Unabhängigkeit der Residuen verzichtet werden.
Durbin-Watson-Statistik
In SPSS überprüfen wir die Unabhängigkeit der Residuen mit der Durbin-Watson-Statistik in der Tabelle Modellzusammenfassung (unten rot markiert).
Modellzusammenfassungb | |||||
Modell | R | R-Quadrat | Korrigiertes R-Quadrat | Standardfehler des Schätzers | Durbin-Watson-Statistik |
1 | ,567a | ,321 | ,300 | 2,54832 | 1,959 |
a. Einflußvariablen : (Konstante), Ausbildung (in Jahren), Geschlecht, Erfahrung (in Jahren) | |||||
b. Abhängige Variable: Gehalt pro Stunde |
Bei der Überprüfung der Autokorrelation mit der Durbin-Watson-Statistik geht SPSS davon aus, dass wir die Werte in der Reihenfolge eingegeben haben, in der die Autokorrelation auftreten würde. Hätten wir beispielsweise Versuchspersonen nacheinander getestet, würde die Reihenfolge der Versuchspersonen in SPSS der Reihenfolge der Testung entsprechen. Nur dann kann diese Statistik sinnvoll berechnet werden. Falls es eine andere mögliche Ursache für Autokorrelation geben könnte, sollte die Reihenfolge der Variablen in SPSS so angepasst werden, dass die Reihenfolge der Fälle mit der Reihenfolge der vermuteten Autokorrelation übereinstimmt.
Die Durbin-Watson-Statistik kann Werte zwischen 0 und 4 annehmen. Bei einem Wert von 2 existiert keine Autokorrelation zwischen den Residuen. Da Statistiken selten exakte Werte annehmen werden, können wir auch bei Werten nahe 2 davon ausgehen, dass keine Autokorrelation vorliegt. In unserem Beispiel hat die Durbin-Watson-Statistik einen Wert von 1.959. Wir können davon ausgehen, dass keine Autokorrelation vorliegt. Dies könnten wir so berichten:
Die Durbin-Watson-Statistik hatte einen Wert von 1.959, wonach keine Autokorrelation in den Residuen vorlag.
English
The model has no auto-correlation as the value of the Durbin-Watson statistic is 1.959.
Was tun wenn...
Falls die Durbin-Watson-Statistik stark von 2 abweicht sollte ein alternatives Verfahren berechnet werden, wie beispielsweise eine Zeitreihenanalyse (ARIMA bzw. ARIMAX) oder ein entsprechendes Korrekturverfahren berechnet werden, wie beispielsweise Heteroskedastizität-und-Autokorrelations-konsistente Schätzer (HAC, auch Newey-West-Schätzer genannt).In SPSS können ARIMA(X)-Modelle berechnet werden; der Newey-West-Schätzer kann beispielsweise über das sandwich
-Paket in R berechnet werden.
Literaturverzeichnis
- Allen, M. P. (1997). Understanding Regression Analysis. Springer. doi:10.
1007/ b102242