Kurtosis, Wölbung, Exzess

Unter Kurtosis versteht man die Abweichung der Form einer Verteilung von einer Normalverteilung im Hinblick darauf, ob die Mitte der Verteilung (der Gipfel) eher spitzer oder flacher ist. Sie wird meist mit dem Symbol β2 oder α4 abgekürzt. Verteilungen, die spitzer oder flacher als eine Normalverteilung sind, neigen auch dazu, in den Rändern eine andere […]


Stepped-Wedge-Design

Stepped-Wedge-randomisierte Studiendesigns sehen die sequentielle Einführung einer Intervention unter den Teilnehmenden (Einzelpersonen oder Cluster) über eine Reihe von Zeitpunkten vor. Bis zum Ende der Studie werden alle Teilnehmer die Intervention erhalten haben, wobei die Reihenfolge, in der die Teilnehmer die Intervention erhalten, nach dem Zufallsprinzip festgelegt wird. Insbesondere wenn die Intervention voraussichtlich mehr Gutes als […]


Bayes Faktor

Das Problem mehrere konkurrierende statistische Modelle zu vergleichen ist ein schwieriges und war im Laufe der Jahre Gegenstand zahlreicher Forschungsarbeiten. Für Statistiker mit einer Bayes’schen Veranlagung bietet der Bayes-Faktor eine einfache Möglichkeit, zwei Modelle (hier M1 und M2) miteinander zu vergleichen. Einfach definiert ist der Bayes-Faktor das Verhältnis zwischen der a-posteriori- und der a-priori-Wahrscheinlichkeit – […]


Einfaktorielle MANOVA: Post-hoc Tests #2: Paarweise Vergleiche

Wie bereits erwähnt, berechnen wir im letzten Schritt post-hoc Tests zwischen den einzelnen Gruppen, für jede der vorherigen signifikanten ANOVAs. Dies machen wir, da uns die einfaktorielle MANOVA und später die einfaktoriellen ANOVAs als Omnibusverfahren lediglich sagen, dass es einen Unterschied zwischen den Gruppen gab aber nicht wo. Wir haben zwei verschiedene Tests bei der […]


Einfaktorielle MANOVA: Post-hoc Tests #1: Einfaktorielle ANOVAs

Die einfaktorielle MANOVA ist ein omnibus Verfahren. Das heißt, dass uns ein signifikantes Modell zwar sagt, dass es einen signifikanten Unterschied zwischen den Gruppen gibt, aber nicht wo. Uns interessiert aber meistens gerade genau zwischen welchen Gruppen diese Unterschiede existieren. Um das herauszufinden, müssen wir weitere Tests durchführen, die post-hoc Tests. Bei univariaten ANOVA-Modellen müssen […]


Einfaktorielle MANOVA: Auswertung und Interpretation

Jetzt geht es an die Interpretation der eigentlichen MANOVA. Die wichtigste Tabelle hierfür ist Multivariate Tests, welche alle Informationen enthält, die wir zur Bestimmung des Effekts benötigen. In unserem Beispiel sieht die Tabelle wie unten aus: Multivariate Testsa Effekt Wert F Hypothese df Fehler df Sig. Partielles Eta-Quadrat Konstanter Term Pillai-Spur ,985 9746,260b 2,000 296,000 […]


Einfaktorielle MANOVA: Pillai-Spur, Wilks-Lambda, Hotelling-Spur oder Roy?

SPSS gibt uns insgesamt vier verschiedene Statistiken, wenn wir eine einfaktorielle MANOVA berechnen: Pillai-Spur (englisch: Pillai’s Trace) Wilks-Lambda Hotelling-Spur (englisch: Hotelling’s Trace) Größte charakteristische Wurzel nach Roy (englisch: Roy’s Largest Root und Roy’s Greatest Root) Alle vier Statistiken haben eine Sache gemeinsam: Sie versuchen, den Anteil der durch die unabhängige Variable aufgeklärte Varianz zu berechnen, […]


Einfaktorielle MANOVA: Weitere Voraussetzungen überprüfen

Als nächstes überprüfen wir die Voraussetzungen, die sich erst mit der Berechnung der MANOVA überprüfen lassen. Teil der Ausgabe von SPSS sind verschiedene weitere Tests, die vorrangig Homoskedastizität überprüfen. Dazu gehört der Levene-Test, der die Homoskedastizität der Fehlervarianzen überprüft, und der Box-Test, der die Homogenität unserer Varianz-Kovarianz Matrizen ermittelt. Levene-Test auf Gleichheit der Fehlervarianzen in […]


Datenrahmen in R nach mehreren Spalten sortieren

In diesem Artikel werden wir uns anschauen, wie man Datenrahmen (data.frame) nach mehreren Spalten sortiert (direkt zur Antwort).


Einfaktorielle MANOVA in SPSS berechnen

In diesem Artikel besprechen wir die eigentliche Berechnung der einfaktoriellen MANOVA. Hier wird auch gleichzeitig der Levene-Test berechnet, der die letzte Voraussetzung überprüft, die Varianzhomogenität. Aufteilung entfernen Unsere Datei ist immer noch aufgeteilt. Das heißt, dass alle weiteren Analysen jetzt auch getrennt nach Gruppe berechnet werden. Da wir die Aufteilung für die weiteren Analysen nicht […]


Einfaktorielle MANOVA: Datei aufteilen

Für die Überprüfung der Linearität und der multivariaten Ausreißen müssen wir unsere abhängigen getrennt nach Gruppe analysieren. Die einfachste Möglichkeit dies in SPSS zu bewerkstelligen ist, die Datei entlang des Faktors aufzuteilen. Dies tun wir in diesem Abschnitt. Die Datei aufteilen Im nächsten Schritt schauen wir, ob unser Datensatz multivariate Ausreißer enthält.


Einfaktorielle MANOVA: Multivariate Ausreißer: Mahalanobis-Distanz interpretieren

Im letzten Abschnitt haben wir die Mahalanobis-Distanz berechnet. Jetzt interpretieren wir sie. Mahalanobis-Distanz interpretieren Als Distanzmaß schauen wir, ob sich Werte überhalb einem definierten Wert liegen. Falls ja, handelt es sich dabei möglicherweise um einen Ausreißer. Cut-Offs der Mahalanobis-Distanz Die Cut-Off-Werte werden über die Chi²-Verteilung berechnet, wobei die Anzahl der abhängigen Variablen in unseren MANOVA […]


Einfaktorielle MANOVA: Voraussetzung #4: Multivariate Ausreißer finden

In einem vorherigen Schritt haben wir schon nach univariaten Ausreißern geschaut. In diesem Schritt schauen wir nach multivariaten Ausreißern. Dies ist eine spezielle Voraussetzung von verschiedenen multivariaten statistischen Verfahren, wie der MANOVA. Im Gegensatz zu univariaten Ausreißern sind multivariate Ausreißer sind nicht unbedingt durch extrem hohe oder niedrige Werte entlang einzelner Variablen gekennzeichnet. Um sie […]


Einfaktorielle MANOVA: Linearität interpretieren

Nachdem wir im vorherigen Schritt die Streudiagramme der abhängigen Variablen erstellt haben, interpretieren wie sie in diesem Schritt in Bezug auf ihre Linearität. Wir haben zwei abhängige Variablen und einen dreistufigen Zwischensubjektfaktor (unsere Gruppen) haben. Dadurch erhalten drei Matrix-Streudiagramme in unserer Ausgabe, die jeweils in einem 2×2 Raster angeordnet sind, wie unten: Die Interpretation erfolgt […]


Einfaktorielle MANOVA: Voraussetzung #5: Linearität überprüfen

Linearität ist die nächste Voraussetzung der einfaktoriellen MANOVA, die wir überprüfen. Die MANOVA geht davon aus, dass eine lineare Beziehung zwischen allen Paaren abhängiger Variablen für jede Stufe unseres Faktors besteht. Sollte keine oder nur eine schwache lineare Beziehung bestehen, ist dadurch die Power des Verfahrens gemindert. In unserem Beispiel haben wir zwei abhängige Variablen, […]


Datum und Zeit auf deutsch in R

Als international verfügbare Programmiersprache sprich R, in seiner Standardeinstellung, wie die meisten Programmiersprachen, englisch. Mit einer einzigen Zeile Code kann man das aber ändern.


Datenrahmen in R unterteilen

Gerade wenn wir mit großen Datensätzen arbeiten, interessiert uns oft nur ein kleiner Teil daraus für eine bestimmte Analyse. Wie also können wir all die überflüssigen Fremdvariablen und -beobachtungen aussortieren und nur diejenigen extrahieren, die wir tatsächlich benötigen? In diesem Artikel besprechen wir einige Möglichkeiten wie. Wenn man eine Untermenge aus Daten nimmt, erstellt man […]


Der %>% Operator: Pipes in R

Pipes sind ein mächtiges Werkzeug, um eine Abfolge von mehreren Operationen klar auszudrücken. Dadurch kann Code erheblich vereinfacht und die Abläufe intuitiver gestaltet werden. Es ist jedoch nicht die einzige Möglichkeit, Code zu schreiben und mehrere Operationen zu kombinieren. Tatsächlich existierte R viele Jahre lang ohne Pipes. Wir lernen die Alternativen zur Pipe, wann Pipes […]


Bonferroni–Holm Korrektur

Je mehr statistische Tests man durchführt, desto größer ist die Wahrscheinlichkeit einen p-Wert unter .05 zu erhalten und dadurch ein Ergebnis zu erhalten, was fälschlicherweise statistisch signifikant ist (Fehler erster Art). Dies ist eine logische Konsequenz der Vorgehensweise bei statistischen Testverfahren: Wir legen im ersten Schritt ein Signifikanzniveau fest (in den meisten Fällen .05) und […]


Cohen’s Kappa für zwei Rater berechnen

Die Kappa-Statistik wird häufig verwendet, um die Interrater-Reliabilität zu überprüfen. Die Bedeutung der Interrater-Reliabilität liegt darin, dass sie das Ausmaß darstellt, in dem die in der Studie gesammelten Daten korrekte Darstellungen der gemessenen Variablen sind. Die Messung des Ausmaßes, in dem die Rater den gleichen Wert derselben Variablen zuweisen, wird als Interrater-Reliabilität bezeichnet. Während es […]