Multiple Lineare Regression

Multiple lineare Regression Voraussetzung #5: Homoskedastizität der Residuen

Homoskedastizität (Varianzgleichheit) der Residuen ist eine weitere Voraussetzung der multiplen linearen Regression. Homoskedastizität der Residuen ist eine wichtige Voraussetzung für Regressionmodelle, da wir davon ausgehen, dass ein Modell gleich gute Vorhersagen über alle Werte hinweg machen sollte. Ist Homoskedastizität nicht gegeben (= Heteroskedastizität), macht unser Modell für einige Werte bessere Vorhersagen als für andere.

In SPSS können wir diese Voraussetzungen einfach überprüfen, indem wir unsere unstandardisierten vorhersagten Werte (neu berechnete Variable PRE_1) gegen die studentisierten Residuen (neu berechnete Variable SRE_1) in einem Streudiagramm auftragen.

Homoskedastizität überprüfen

  1. Um ein Streudiagramm zu erstellen wählen wir unter Grafik > Alte Dialogfelder > Streu-/Punktdiagramm aus.

    Multiple Regression: Streudiagramm Menü

    Es gibt zwar noch andere Möglichkeiten, ein Streudiagramm mit SPSS zu erstellen, wir bevorzugen allerdings die alten Dialogfelder, da sie es erlauben, ein Streudiagramm mit den wenigsten Schritten zu erstellen.

  2. Es erscheint das folgende Dialogfeld. Hier wählen wir die erste Option, Einfaches Streudiagramm, aus. Mit einem Klick auf Definieren bestätigen wir.

    Korrelation: Linearität bestimmen #1: Auswahl treffen


  3. In dem Dialog, der dann erscheint,…

    Mutiple Regression: Streudiagramm Dialog


  4. …tragen wir auf der einen Achse die unstandardisierten vorhersagten Werte (PRE_1) und auf der anderen Achse die studentisierten Residuen (SRE_1) ein. Die Interpretation ist einfacher, wenn wir SRE_1 auf der y-Achse auftragen und PRE_1 auf der x-Achse.


  5. Mit einem Klick auf OK erstellen wir unser Diagramm.

  6. In der Ausgabe finden wir das unterstehende Diagramm.


Damit Varianzgleichheit vorliegt, müssen die Punkte in dem Streudiagramm gleichmäßig über die horizontale Achse verteilt sein. Bei mangelnder Varianzgleichheit werden die Punkte an einigen Stellen eine größere bzw. geringere Dichte haben, so wie in den beiden Beispielen unten.

Heteroskedatizität verzerrt nicht die Koeffizienten direkt. Allerdings, wenn Heteroskedatizität gegeben ist, können wir die Varianz-Kovarianz Matrix nicht korrekt schätzen. Dadurch sind die Standardfehler der Koeffizienten verzerrt und Regression ist nicht mehr der beste lineare erwartungstreue Schätzer unserer Daten. Aus den Standardfehlern berechnen wir allerdings wiederum die t-Statistik und die p-Werte. Mit anderen Worten: Wenn die Daten nicht homoskedastisch sind, können wir keine Hypothesentests berechnen.
 

Was tun wenn...

Wenn wir keine Varianzhomogenität haben, müssen wir die abhängigen oder unabhängigen Variablen transformieren. Hierzu bietet sich beispielsweise die Box-Cox Powertransformation an, allerdings können auch andere Transformationen infrage kommen. Genaueres besprechen wir in der Sektion zur Transformation von Variablen. Nachdem Variablen transformiert werden, müssen alle Berechnungen erneut gemacht werden.

Alternativ kann man die Regressionsanalyse auch mit Bootstrapping durchführen, was sich in SPSS in gleichen Dialogfenster aufrufen lässt. Es erlaubt für eine robustere Schätzung der Parameter, die sonst durch mangelnde Homoskedastizität verzerrt sein könnten. Die Interpretation und Verschriftlichung einer Regression mit Bootstrapping erfolgt identisch zu der einer regulären Regression, mit dem Verweis darauf, dass Bootstrapping eingesetzt wurde und mit wie vielen Samples es durchgeführt wurde (bei SPSS standardmäßig 1000).