Lexikon

Regression, Regressionsanalyse

Regressionsanalyse ist der Name einer Klasse statistischer Verfahren, die versuchen, eine Variable (abhängige Variable, Kriterium) aus einer oder mehreren anderen Variablen vorherzusagen (unabhängige Variablen, Prädiktoren). Damit versucht Regressionsanalyse das Verhältnis von Variablen zueinander zu quantifizieren. Wenn über Regression ohne weitere Angaben gesprochen wird, meinen wir in der Regel einfache lineare Regression.

Regressionsanalyse hilft uns, zu verstehen, wie sich die abhängige Variable verändert, wenn sich der Wert einer der unabhängigen Variablen verändert, während die anderen unabhängigen Variablen konstant gehalten werden. Nach durchgeführter Regression erhalten wir ein mathematisches Modell, die Regressionsgleichung, welche abhängige und unabhängige Variablen in Zusammenhang bringt.

Regressionsanalyse wird vor allem für Prognosen und Vorhersagen verwendet. Hier gibt es deutliche Überschneidungen mit maschinellem Lernen. Ein weiteres Anwendungsgebiet der Regressionsanalyse ist die Struktur der Beziehungen der Variablen untereinander zu quantifizieren. Korrelation impliziert keine Kausalität und Regression tut dies (in der Regel) auch nicht (Armstrong, 2011).

Seit der Entwicklung der Regression durch Galton Ende des 19. Jahrhunderts wurden viele weitere Verfahren der Regressionsanalyse erarbeitet. Bekannte Methoden wie lieanre Regression und die Methode der kleinsten Quadrate sind parametrisch, sodass gewisse Parameter erfüllt sein müssen, damit die Regressionsgleichung korrekt geschätzt werden kann. Daneben existieren noch nonparametrische Regressionsverfahren (wie z.B. Kringing oder Kernel-Regression), die nicht erwartet, dass Parameter erfüllt werden, sondern die Parameter aus den Daten selbst heraus schätzt.

Literaturverzeichnis

  1. Armstrong, J. S. (2011). Illusions in Regression Analysis. SSRN Electronic Journal. doi:10.2139/ssrn.1969740