Multiple Lineare Regression

Multiple Lineare Regression in SPSS

Viele Psychologen denken, die Hauptaufgabe der Forschung sei, den Einfluss einer Variable auf eine andere isoliert zu betrachten. So könnte man beispielsweise untersuchen, ob die Abiturnote einen Einfluss auf das spätere Gehalt hat. Die grundsätzliche Schwierigkeit mit diesem Ansatz ist, dass es unendliche viele Faktoren gibt, die einen Einfluss auf die Abiturnote ausüben können. Eine Alternative Herangehensweise könnte daher sein, das komplexe Netzwerk aus Variablen zu untersuchen, dass schlussendlich die Abiturnote beeinflusst, wie beispielsweise IQ, Bildungsabschluss der Eltern, Haushaltseinkommen, Geschlecht, usw. Neben den genannten Faktoren, könnte man die Liste noch beliebig fortsetzen. In den seltensten Fällen kennen wir alle Faktoren und ihre Beziehungen untereinander. Daher erheben wir oft sehr viele Variablen, von denen sich dann einige eventuell als schlechte Prädiktoren herausstellen. Prädiktoren sind Variablen die zur Vorhersage einer anderen Variable (dem Kriterium) verwendet werden können. In unserem Beispiel würden wir annehmen, dass z.B. der IQ ein Prädiktor für das Kriterium Abiturnote ist. Multiple Regression hilft uns dabei, die besten Prädiktoren für ein Kriterium zu finden.

Im Gegensatz zur einfachen linearen Regression, betrachtet multiple lineare Regression den Zusammenhang zwischen zwei oder mehr unabhängigen Variablen (Prädiktoren) und einer abhängigen Variable (Kriterium). Ähnlich anderer statistischer Verfahren, können wir auch mit multipler linearer Regression die Varianzaufklärung bestimmen und damit, wie gut unser Modell insgesamt die Daten erklärt.

Was wir brauchen

Um eine multiple lineare Regression zu berechnen, müssen unsere Variablen wie folgt strukturiert sein:

  • Wir benötigen eine abhängige Variable (Kriterium), die mindestens intervallskaliert ist
  • Wir benötigen mindestens zwei unabhängige Variablen (Prädiktoren), die entweder nomnialskaliert (kategoriell) oder mindestens intervallskaliert sind
Kategoriale Variablen können nur ohne ohne Weiteres in die Regression aufgenommen werden, wenn sie zwei Ausprägungen haben (daher: dichotom sind, wie ja/nein, männlich/weiblich, etc.), die mit 0 und 1 kodiert wurden. Bei mehr als zwei Ausprägungen müssen die Variablen vorher Dummy-Kodiert werden.

Einsatzgebiete

  1. Vorhersage der abhängigen Variable anhand der unabhängigen Variablen.
    Regression sagt uns, wie hoch der Einfluss jedes Prädiktors (unabhängige Variable) auf das Kriterium (abhängige Variable) ist. Am Ende der Regression erhalten wir eine Gleichung, die diesen Zusammenhang mathematisch ausdrückt. Wir wissen also beispielsweise wie hoch der Anteil des IQs oder des Haushalseinkommen an der Abiturnote ist. Folglich können wir diese Gleichung auch auf neue Daten anwenden, um Vorherzusagen, welche Abiturnote wir bei jemandem erwarten würden, nachdem wir alle relevanten Prädiktoren erhoben haben.
  2. Die Varianzaufklärung unserer Prädiktoren auf das Kriterium bestimmen.
    Nicht immer ist unser Ziel die Vorhersage. Manchmal wollen wir wissen, wie gut unser statistisches Modell ist, also wie gut unsere Prädiktoren unser Kriterium voraussagen konnten. Dazu berechnen wir die Varianzaufklärung, also den Teil der Varianz, der durch unser Modell erklärt werden kann. Durch multiple lineare Regression können wir aber nicht nur die Varianzaufklärung für unser ganzen Modell berechnen, sondern auch den Beitrag jedes Prädiktors.

Themenüberblick

Auf den nachfolgenden Seiten werden wir das Durchführen, Interpretieren und Verschriftlichen einer multiplen linearen Regression in SPSS Schritt für Schritt erläutern. Wir besprechen welche Voraussetzung erfüllt sein müssen, um den Test durchführen zu können und was getan werden kann, wenn diese Voraussetzungen verletzt sein sollten. Zusätzlich gehen wir auch noch auf die Maße der Effektstärke ein, die berechnet werden können.