Gepaarter t-Test: Beispieldatensatz

Ein Wissenschaftler will wissen, ob das Anschauen von fünf Katzenvideos Depressionswerte senken kann. Die Katzenvideos wurden von einer unabhängigen Expertengruppe als besonders „süß“ und „munter“ bewertet. Dabei wird der Grad der Depression von Patienten zuerst mit dem bekannten Beck Depression Inventory (BDI; Beck, et al., 1961) in einer Voruntersuchung bestimmt. Das BDI besteht aus 21 Fragen die […]


Gepaarter t-Test: Anwendungsbeispiele

Es gibt mehrere Studiendesigns, bei denen der t-Test für gepaarte Stichproben sinnvoll ist. Allen Designs ist gemeinsam, dass wir zwei Gruppen haben und dass wir wissen wollen, ob ein Unterschied der Mittelwerte der abhängigen Variablen zwischen diesen beiden Gruppen existiert. Design #1: Der klassische Versuchsaufbau Das erste Design ist gleichzeitig das Design, das am häufigsten […]


Gepaarter t-Test in SPSS: Voraussetzungen und Annahmen

Wie bei den meisten statistischen Tests, müssen auch beim gepaarten t-Test gewisse Voraussetzungen erfüllt sein, damit wir ihn interpretieren können. Der gepaarte t-Test hat fünf Voraussetzungen, die wir hier besprechen werden. Die ersten drei Voraussetzungen beziehen sich auf das Design der Studie, während die letzten beiden statistische Voraussetzungen sind, die wir mit SPSS überprüfen werden. Voraussetzungen […]


Gepaarter t-Test in SPSS

Der gepaarte t-Test ist einer der einfachsten statistischen Tests. Er wird angewendet, wenn wir genau zwei Messungen haben und diese unabhängig voneinander sind. Dies ist beispielsweise der Fall, wenn für dieselbe Versuchsperson zu zwei verschiedenen Zeitpunkten oder Bedingungen dieselbe unabhängige Variable erhoben wird. Der gepaarte t-Test kann aber auch angewendet werden, wenn beispielsweise Versuchsteilnehmer zu gewissen Eigenschaften gematcht […]


Normalverteilung in SPSS Prüfen: Interpretation der Ausgabe

Da die Funktion Explorative Datenanalyse nicht alleine für die Prüfung auf Normalverteilung verwendet wird, erhalten wir in der Ausgabe etliche Grafiken und Tabellen mit zusätzlichen Statistiken. Shapiro-Wilk- & Kolmogorov-Smirnov-Test In der Tabelle der Tests auf Normalverteilung finden sich die beiden Tests, die von SPSS speziell für die Prüfung der Normalverteilungseigenschaft berechnet werden. Neben dem Kolmogorov-Smirnov-Test berechnet SPSS […]


Normalverteilung in SPSS Prüfen: Kolmogorov–Smirnov–Test

Die Prüfung auf Normalverteilung mit dem Kolmogorov–Smirnov–Test erfolgt analog zu der Prüfung auf Normalverteilung mit dem Shapiro-Wilk–Test. Die Schritte sind prinzipiell dieselben, nur wird eine andere Ausgabe interpretiert. Allerdings gibt es auch nur wenige Situationen, wo der Kolmogorov–Smirnov–Test dem Shapiro-Wilk–Test überlegen ist. Wir empfehlen daher für die generelle Prüfung auf Normalverteilung den Shapiro-Wilk–Test.


Faktor, Faktorstufe

In einem Experiment ist ein Faktor (auch unabhängige Variable oder Prädiktor genannt) die erklärende Variable, die manipuliert wird. Die Wahl des Begriffs hängt auch von der Art des Designs ab. Für Experimente und experimentelle Designs wird der Begriff unabhängige Variable (und entsprechend auch abhängige Variable) bevorzugt verwendet. Für die ANOVA und entsprechend verwandte Verfahren der […]


Regularisierung

Regularisierung (engl. regularization) ist die Abstimmung oder Auswahl der bevorzugten Komplexität des statistischen Modells, sodass die Vorhersagefähigkeit (Generalisierbarkeit) des Modells verbessert wird. Verwendet man keine Regularisierung, kann das Modell zu komplex werden und die Daten überanpassen, oder zu einfach werden und die Daten unteranpassen. In beiden Fällen hatte das Modell nur eine geringe Generalisierbarkeit.


Fehler 2. Art

Beim Hypothesentesten tritt ein Fehler 2. Art (auch Typ II Fehler) auf, wenn die Nullhypothese falsch ist, wir sie aber dennoch annehmen. Die Wahrscheinlichkeit, einen Fehler 2. Art zu begehen ist β und abhängig von der statistischen Power des verwendeten Tests. Im Gegensatz zum Fehler 1. Art, ist der Fehler 2. Art damit wesentlich schwieriger zu berechnen – […]


Fehler 1. Art

Beim Hypothesentesten tritt ein Fehler 1. Art (auch Typ I Fehler) auf, wenn die Nullhypothese zurückgewiesen wird, auch wenn sie eigentlich wahr ist. Die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen ist gleich dem Signifikanzniveau α, auf dem getestet wird. In der wird auf einem Alphaniveau von α = 0.05 getestete; wir sind also bereit, […]


Grundgesamtheit, Population

Eine Population oder Grundgesamtheit ist in der Statistik eine Menge ähnlicher Dinge oder Ereignisse, aus der eine Stichprobe gezogen wird. Dabei kann eine Population aus tatsächlich bestehenden Objekten bestehen (z.B. alle Menschen, die in Deutschland leben) oder eine hypothetische und der Möglichkeit nach auch unendlich große Menge an Objekten umfassen (z.B. alle möglichen Kombinationen von […]


Stichprobenverteilung

Eine Stichprobenverteilung beschreibt die Verteilung der Wahrscheinlichkeit, mit der jeder mögliche Wert aus einer Statistik zufällig aus einer Grundgesamtheit gezogen werden kann. Gehen wir davon aus, dass wir aus einer Grundgesamtheit alle möglichen Stichproben der Größe n ziehen möchten. Desweiteren berechnen wir für jede Stichprobe eine Statistik (z.B. Mittelwert, Standardabweichung, Median, …). Die Verteilungsfunktion dieser […]


P-Hacking

P-Hacking ist ein Bias in der Statistik, der auftritt, wenn Forscher Daten so lange erheben oder auswerten bis ehemals nicht signifikante Ergebnisse signifikant werden. Es besteht eine zunehmende Sorge, dass viele wissenschaftliche Ergebnisse falsch-positiv sein könnten (Barch & Yarkoni, 2013; Jager & Leek, 2014; Nyberg, Graham, & Stokes, 1977). Es wird argumentiert, dass die derzeitigen wissenschaftlichen Vorgehensweisen […]


Regression zur Mitte

Regression zur Mitte ist ein Phänomen in der Statistik, dass besagt, dass wenn eine Variable in der ersten Messung einen extremen Messwert annimmt, wird der Messwert bei der zweiten Messung tendenziell näher am Mittelwert liegen. Nimmt hingegen die zweite Messung einen extremen Messwert an, wird die erste Messung tendenziell näher am Mittelwert gelegen haben (Stigler, 1997). Um zu […]


Regression, Regressionsanalyse

Regressionsanalyse ist der Name einer Klasse statistischer Verfahren, die versuchen, eine Variable (abhängige Variable, Kriterium) aus einer oder mehreren anderen Variablen vorherzusagen (unabhängige Variablen, Prädiktoren). Damit versucht Regressionsanalyse das Verhältnis von Variablen zueinander zu quantifizieren. Wenn über Regression ohne weitere Angaben gesprochen wird, meinen wir in der Regel einfache lineare Regression.


Autokorrelation

Autokorrelation (oder auch manchmal Kreuzautokorrelation) ist gegeben, wenn Beobachtungen in einer Zeitreihe nicht unabhängig voneinander sind. Genauer gesagt liegt Autokorrelation vor, wenn ein Teil einer Zeitreihe mit sich selbst zu einem anderen Zeitpunkt korreliert (dieser Zeitpunkt kann sowohl in der Vergangenheit, als auch der Zukunft liegen). Man könnte Autokorrelation deshalb auch „verzögerte Korrelation“ nennen.


Odds Ratio

Das Odds Ratio (abgekürzt OR) ist eines von drei gebräuchlichen Maßen, um die Stärke der Zusammenhangs zu quantifizieren. Genauer gesagt, macht das Odds ratio eine Aussage darüber, inwieweit das Vorhandensein bzw. Nichtvorhandensein eines Merkmals A mit dem Vorhandensein bzw. Nichtvorhandensein eines weiteren Merkmals B zusammenhängt. Merkmal A könnte hierbei beispielsweise eine fettreiche Ernährung sein und Merkmal B ein Herzinfarkt. […]


Risiko

In der Epidemiologie, ist das Risiko definiert als die Wahrscheinlichkeit, dass eine Krankheit in einer Population innerhalb eines Zeitintervalls auftritt. Das Risiko muss sich nicht zwangsläufig auf die Population beziehen, sondern kann auch für einen homogenen Teil der Population definiert werden (beispielsweise Menschen über 60 oder Personen, die bereits einen Schlaganfall hatten). Daher bezieht sich […]


Relatives Risiko

Das relative Risiko (abgekürzt RR; englisch Risk Ratio) ist ein Maß der deskriptiven Statistik und definiert als das Verhältnis der Wahrscheinlichkeit, dass ein Ereignis (z.B. eine Krankheit zu bekommen oder verletzt zu werden) in einer exponierten Gruppe auftritt, verglichen mit der Wahrscheinlichkeit, dass dasselbe Ereignis in einer nicht-exponierten Gruppe auftritt. Es ist damit ein Maß für die Stärke […]


gepoolte Varianz

Die gepoolte Varianz wird verwendet, um die Varianz von zwei oder mehr Grundgesamtheiten zu schätzen, wenn die Varianzen unbekannt sind, aber man davon ausgeht, dass sie (etwa) gleich sind. Geht man hingegen davon aus, dass die Varianzen der Stichproben ungleich sind, muss die Populationsvarianz ungepoolt berechnet werden. Mathematische Berechnung Hat man k Stichproben mit jeweils n1, […]