Methodenberatung

 

Einfaktorielle Varianzanalyse

1. Einführung
2. Vorgehen
2.1. Modellformulierung
2.2. Berechnung der Teststatistik
2.2.1. Test auf Varianzhomogenität
2.3. Prüfung auf Signifikanz
2.4. Post-Hoc-Test
3. Varianzanalyse mit SPSS
4. Literatur

1. Einführung

Die Varianzanalyse ist eines der am häufigsten eingesetzten Verfahren. Unterschieden werden die Verfahren in der Anzahl der unabhängigen Variablen. Bei einer einfaktoriellen Varianzanalyse werden eine unabhängige Variable und eine abhängige Variable untersucht. Die abhängige Variable sollte dabei intervallskaliert und normalverteilt sein. Die unabhängige Variable ist normalerweise nominalskaliert und wird als Faktor, die einzelnen Ausprägungen als Faktorstufen bezeichnet.

Eine einfaktorielle Varianzanalyse lässt sich für unabhängige und verbundene Stichproben durchführen. Die Berechnung der Teststatistik erfolgt allerdings auf unterschiedliche Weise.

Im einfachsten Fall können mit einer Varianzanalyse die Mittelwertsunterschiede von mehreren unterschiedlichen Stichproben untersucht werden, beispielsweise zwischen verschiedenen Schulklassen. Am häufigsten werden diese Tests jedoch angewendet, um Mittelwertsunterschiede zwischen mehreren Experimentalgruppen oder mehreren Experimental- und einer oder mehr Kontrollgruppe zu untersuchen.

Beispiele für Anwendungen in den Erziehungswissenschaften

  • Unterscheiden sich die Schüler der Sekundarschule, der Realschule und des Progymnasiums bezüglich ihrer Mathematikleistungen?
  • Erachten die Schülerinnen und Schüler ihre Begabung, ihre Anstrengung oder ihre Lehrkraft für wichtiger für ihre Deutschnoten?
  • Sind die Schülerinnen und Schüler in städtischen, vorstädtischen und ländlichen Gebieten gleichermassen umweltbewusst?
  • Mit fünf Gruppen von Schülern wurde je ein Gedächtnistraining (A, B, C, D und Kontrollgruppe) durchgeführt. Unterscheidet sich die Erinnerungsleistung nach dem Training zwischen den Gruppen?

2. Vorgehen

2.1. Modellformulierung
2.2. Berechnung der Teststatistik
2.2.1. Test auf Varianzhomogenität
2.3. Prüfung auf Signifikanz
2.4. Post-Hoc-Test

Das Vorgehen bei der Durchführung einer einfaktoriellen Varianzanalyse wird an folgender Fragestellung erklärt:

Unterscheidet sich die Gedächtnisleistung in einem Gedächtnistest zwischen drei verschiedenen Schulklassen derselben Jahrgangsstufe?

Diese Frage kann beispielsweise dann von Interesse sein, wenn mehrere verschiedene Unterrichtsmethoden miteinander verglichen werden sollen.

2.1. Modellformulierung

Zur Beantwortung dieser Frage kann zunächst ein Modell erstellt werden. Für die Beispielfrage könnte dieses Modell so aussehen:

abb1
Abbildung 1: Beispielmodell

2.2. Berechnung der Teststatistik

Um das Modell zu überprüfen, wurden die folgenden Daten für drei verschiedene Schulklassen erhoben:

tab1
Tabelle 1: Beispieldaten

Die Mittelwerte lassen sich mit SPSS leicht in einem Diagramm darstellen. Dazu muss im Dialogfeld „einfaktorielle ANOVA“ unter Optionen „Diagramm der Mittelwerte“ ausgewählt werden:

abb2
Abbildung 2: Darstellung der Mittelwerte

Anhand des Diagramms lässt sich schnell erkennen, dass es einen Unterschied des Mittelwertes zwischen den Klassen gibt. Mit einer Varianzanalyse lässt sich nun überprüfen, ob dieser Unterschied auch statistisch signifikant ist.

Um dies nun zu überprüfen, muss die dazugehörige Teststatistik berechnet werden. Die Grundidee der Varianzanalyse besteht darin, die gesamte Stichprobenvarianz zu zerlegen und zu vergleichen.

Nimmt man an, dass kein Unterschied zwischen den Stichproben besteht müssten die Stichprobenmittelwerte gleich dem Gesamtmittelwert über alle Stichproben sein. Im Beispiel läge der Gesamtmittelwert etwa bei 21. Wie aus Tabelle 1 ersichtlich ist, ist dies für das Beispiel nicht der Fall. Die Streuung der Stichprobenmittelwerte um den Gesamtmittelwert lässt sich nun wie folgt berechnen:

f1

mit
j = Faktorstufe
k = Anzahl Faktorstufen
nj = Stichprobengrösse innerhalb einer Faktorstufe
ȳ = Gesamtmittelwert
ȳj = Mittelwert der Faktorstufe j

SS steht für „sum of squares“, im Deutschen meist als „Summe der Abweichungsquadrate“ übersetzt. Es handelt sich also um die Summe der quadrierten Abweichungen zwischen (between) den Faktorstufen.

Aber auch innerhalb der drei Stichproben streuen die erhobenen Werte um den jeweiligen Stichprobenmittelwert. Die Streuung der Merkmalsausprägungen um den Stichprobenmittelwert lässt sich wie folgt berechnen:

f2

mit
j = Faktorstufe
k = Anzahl Faktorstufen
nj = Stichprobengrösse innerhalb einer Faktorstufe
ȳj = Mittelwert der Faktorstufe j
yj,i = Merkmalsausprägung der i-ten Person in der Faktorstufe j

Hierbei handelt es sich also um die Summe der quadrierten Abweichungen innerhalb (within) der Faktorstufen.

Die Gesamtstreuung ist nun die Summe der beiden Teilstreuungen:

f3

oder genauer

f4

mit
j = Faktorstufe
k = Anzahl Faktorstufen
nj = Stichprobengrösse innerhalb einer Faktorstufe
ȳ = Gesamtmittelwert ȳj = Mittelwert der Faktorstufe j
yj,i = Merkmalsausprägung der i-ten Person in der Faktorstufe j

Der Summand SSw wird auch als Binnenvariation bezeichnet. Er beschreibt die Unterschiede zwischen den Merkmalsausprägungen innerhalb einer Stichprobe. Er enthält keine Informationen, die auf Unterschiedlichkeit zwischen verschiedenen Stichproben basieren, da er nur mit Merkmalsausprägungen von Personen berechnet wurde, die derselben Stichprobe angehören.

Der Summand SSb wird auch als Treatmentvariation bezeichnet. Zusätzlich zur Binnenvariation spiegelt er die Unterschiede wider, die aufgrund der Zugehörigkeit zu den verschiedenen Stichproben (z.B. durch verschiedenen Unterrichtsformen in den Schulklassen) entstanden sind. Gibt es keine Unterschiede zwischen den Stichproben, beschreibt SSb nur die Unterschiede aller Merkmalsausprägungen (genau wie SSw).

Durch Normierung erhält man aus der Binnen- und Treatmentvariation die Binnen- und Treatmentvarianz:

f5

f6

mit
n = Gesamtstichprobengrösse
k = Anzahl Faktorstufen

MS steht für „mean squares“, im Deutschen meist mit „Mittlere Abweichungsquadrate“ übersetzt.

Sind Binnen- und Treatmentvarianz nun etwa gleich gross, bedeutet das, dass man keine zusätzlichen Informationen aus der Berechnung der Treatmentvarianz erhält. In diesem Fall gibt es keine Unterschiede der Mitten zwischen den Stichproben. Genauso sieht es aus, wenn die Binnenvarianz grösser als die Treatmentvarianz ist. Ist jedoch die Treatmentvarianz bedeutend grösser als die Binnenvarianz deutet dies darauf hin, dass es Unterschiede gibt.

Die Teststatistik wird daher berechnet, indem die Binnenvarianz zur Treatmentvarianz ins Verhältnis gesetzt wird:

f7

Die berechnete Teststatistik ist F-verteilt und muss daher mit dem kritischen Wert auf der durch die Freiheitsgrade bestimmten theoretischen F-Verteilung verglichen werden.

2.2.1. Test auf Varianzhomogenität

Eine Voraussetzung für die Durchführung einer einfaktoriellen Varianzanalyse ist Varianzhomogenität zwischen den Stichproben. Bevor die Varianzanalyse also durchgeführt werden kann, muss ein Test auf Varianzhomogenität durchgeführt werden. Bei diesem Test handelt es sich um einen Levene-Test, der eine Erweiterung eines einfachen F-Tests darstellt. F-Test

Bei SPSS kann der Test auf Varianzhomogenität im Dialogfenster „Einfaktorielle ANOVA“ unter Optionen ausgewählt werden. Für das Beispiel gibt SPSS eine Signifikanz (p-Wert) von 0.589 für den Test auf Varianzhomogenität aus. Der Test sollte bei Varianzhomogenität nicht signifikant werden. Die zugehörige Signifikanz sollte also grösser als das festgelegte Signifikanzniveau sein (bei einen Test auf Varianzhomogenität oft 0.1 oder sogar noch höher, s. Hirsig, 2001).
Im Beispiel ist die ausgegebene Signifikanz von 0.589 grösser als das Signifikanzniveau von 0.1, so dass davon ausgegangen werden kann, dass Varianzhomogenität vorliegt.

Bei sehr grossen Stichprobenumfängen ist die einfaktorielle Varianzanalyse robust gegen die Verletzung der Annahme der Varianzhomogenität, so dass sie trotzdem durchgeführt werden kann.

2.3. Prüfung auf Signifikanz

Die berechnete Teststatistik muss nun noch auf Signifikanz überprüft werden. Der berechnete F-Wert wird hierzu mit dem kritischen Wert auf der theoretischen F-Verteilung verglichen. In SPSS lässt sich dieser Vergleich an der ausgegebenen Signifikanz ablesen.

Für das Beispiel wird eine Signifikanz (p-Wert) von 0.044 ausgegeben. Dieser Wert liegt noch knapp unter dem Signifikanzniveau von 0.05, so dass davon ausgegangen werden kann, dass mindestens einer der Mittelwerte signifikant von den anderen abweicht.

Da mit einer Varianzanalyse nur untersucht wird, ob Unterschiede vorliegen, sollte nach der Durchführung der Varianzanalyse noch ein so genannter Post Hoc Test durchgeführt werden, mit dem geprüft wird, welcher der Mittelwerte signifikant von den anderen abweicht.

2.4. Post-Hoc-Test

Durch die durchgeführte Varianzanalyse wurde nur festgestellt, dass es signifikante Unterschiede zwischen den Mittelwerten der drei Klassen gibt. Sie gibt allerdings keine Auskunft darüber, welche der Klassen sich signifikant von den anderen unterscheiden oder ob sich sogar alle drei voneinander signifikant unterscheiden.

Zur Überprüfung muss nun ein so genannter Post-Hoc-Test gerechnet werden. Im Prinzip werden dabei t-Tests für unabhängige Stichproben für alle möglichen Paarvergleichen gerechnet. Für das Beispiel müssen also insgesamt 3 Vergleiche gerechnet werden (A&B, A&C und B&C). t-Test für unabhängige Stichproben

Hierbei ist jedoch zu beachten, dass bei mehrfacher Testung eine so genannte α-Inflation auftritt. Dies bedeutet, dass bei mehrfachem Testen in derselben Grundgesamtheit die Wahrscheinlichkeit einen Fehler 1. Art zu begehen mit der Anzahl der Testdurchführungen ansteigt. Dependenzanalysen

Um dieses Problem zu beheben, wird das Signifikanzniveau durch die Anzahl der durchgeführten Testungen (im Beispiel also 3) korrigiert. Es gibt verschiedene Prozeduren, mit denen diese Korrektur durchgeführt werden kann. Bei SPSS können im Dialogfenster „einfaktorielle ANOVA“ unter „Post Hoc“ eine grosse Menge an unterschiedlichen Prozeduren ausgewählt werden.

Für das Beispiel kommen alle diese Prozeduren zum selben Ergebnis: Nur die Mittelwerte der Schulklassen A und B unterscheiden sich signifikant.

3. Varianzanalyse mit SPSS

Eine einfaktorielle Varianzanalyse lässt sich bei SPSS unter „einfaktorielle ANOVA“ aufrufen. Damit SPSS die Analyse rechnen kann, muss die unabhängige Variable (Stichprobenvariable) und die abhängige Variable in zwei Spalten eingetragen werden.

Die folgenden Abbildungen zeigen die Ergebnisse der einfaktoriellen Varianzanalyse in der Reihenfolge wie SPSS sie ausgibt:

abb3
Abbildung 3: Test auf Varianzhomogenität

Aus dieser Tabelle lässt sich ablesen, ob zwischen den Stichproben Varianzhomogenität vorliegt. Dabei sollte die Signifikanz grösser als ein Signifikanzniveau von 0.1 sein.

abb4
Abbildung 4: Teststatistik

Aus dieser Tabelle lässt sich die Signifikanz (p-Wert) für die Varianzanalyse ablesen.

abb5
Abbildung 5: Post Hoc Test

Diese Tabelle zeigt die Ergebnisse des Post-Hoc-Tests an (Scheffé-Prozedur). Rot markiert ist der Vergleich zwischen Schulklasse A und B. Nur dieser p-Wert liegt unter 0.05.

abb6
Abbildung 6: Darstellung der Mittelwerte

SPSS-Befehle

Klicksequenz: Analysieren > Mittelwerte vergleichen > Einfaktorielle ANOVA
Syntax: ONEWAY

SPSS-Datensatz

Verwendeter Beispieldatensatz zum Download

4. Literatur

Backhaus, K., Erichson, B., Plinke, W., & Weiber, R. (2006). Multivariate Analysemethode: Eine anwendungsorientierte Einführung (11. Auflage). Berlin: Springer.

Bortz, J. (2005). Statistik für Human- und Sozialwissenschaftler (6.Auflage). Heildelberg: Springer.

Hirsig, R. (2001). Statistische Methoden in den Sozialwissenschaften: Eine Einführung im Hinblick auf computergestützte Datenanalysen mit SPSS für Windows: Band 2 (3.Auflage). Zürich: Seismo.