Varianzanalyse Varianzanalyse Varianzanalyse - EAH-Jena

Transcrição

Varianzanalyse Varianzanalyse Varianzanalyse - EAH-Jena
Varianzanalyse
Varianzanalyse
Ziel
Deutlicher Unterschied zwischen Art 1 mit y1 = 43.4 und Art 2 mit y2 = 64.4 erkennbar,
weniger deutlich zwischen 2 und 3 mit y3 = 52.2 bzw. zwischen 1 und 3.
Überprüfung der Gleichheit der Erwartungswerte eines metrischen Merkmals
zwischen drei oder mehr Untergruppen,
somit Verallgemeinerung des T-Tests, der nur Erwartungswerte zwischen zwei
Gruppen vergleicht
Für Signifikanz ist nicht neben dem Unterschied der Mittelwerte die Streuung
innerhalb der Stichproben wichtig,
die beobachteten Stichprobenunterschiede sollten deutlich dominieren.
Fragestellungen
Analog zum T-Tests gibt es verschiedene Verfahren für verbundene und nicht
verbundene Stichproben, hier werden nur nicht verbundene Stichproben behandelt.
Beispiel
Gewichtszunahme von homogenen Labormäusen über gleichem Zeitraum unter
drei Fütterungsarten, Messungen an jeweils 5 Tieren
y1 = 43.4
Art 1: 47, 39, 40, 46, 45
y2 = 64.4
Art 2: 68, 65, 63, 59, 67
y3 = 52.2
Art 3: 59, 50, 51, 48, 53
Sind die in den Stichproben beobachteten Unterschiede der mittleren
Gewichtszunahme zwischen den 3 Fütterungsarten signifikant?
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 1
(1) Gibt es einen signifikanten Einfluss
(Effekt) der Fütterungsarten,
d.h. über Stichprobe hinaus?
(2) Wenn ja, zwischen welchen Arten
ist der Effekt signifikant?
Reihenfolge des Abtragens der Arten (Kategorien) auf der x-Achse ist willkürlich.
WS 2015/16
ANOVA 2
Prof. Dr. J. Schütze, FB GW
Varianzanalyse
Varianzanalyse
Faktor
Merkmal, das die Gruppen definiert, i.a. nominal
Abgrenzung zu wiederholter Anwendung von T-Tests
Faktorstufen
Ausprägungen des Faktors
jede Stufe definiert eine der zu vergleichenden Gruppen.
Merkmal, das zwischen den Gruppen verglichen wird, metrisch
Bei 3 Gruppen (Faktorstufen) sind 3 T-Tests erforderlich (1-2, 1-3, 2-3).
Bei 4 Gruppen sind es schon 6 Tests (1-2, 1-3, 1-4, 2-3, 2-4, 3-4)
im Fall von p Untergruppen ergeben sich p(p-1)/2 Paarvergleiche mittels T-Test.
Zielgröße
Einfaktorielle Varianzanalyse
Gruppen werden von einem Faktor erzeugt
Jeder dieser T-Tests hat das Risiko α für eine falsche Entscheidung.
Mehrfaktorielle Varianzanalyse
Gruppen werden von zwei oder mehr
Faktoren erzeugt
Mit der Anzahl der Tests steigt das globale Risiko, dass hierbei per Zufall falsch
signifikante Unterschiede gefunden werden.
Fütterungsart 1,..., Fütterungsart 3
Gewichtszunahme
P (mind. 1 falsche Entscheidung bei d Vergleichen) =
Im vorigen Beispiel ein Faktor
Faktor A mit 3 Ausprägungen:
Zielgröße:
1 − P (keine falsche Entscheidung bei d Vergleichen) = 1 − (1 − α) d
Beispiel für 2 Faktoren
Faktor A: Fütterungsart 1,..., Fütterungsart 3
Faktor B: Geschlecht
Untersuchung jedes Faktors sowie auf Vorliegen von Wechselwirkungen
Wechselwirkungen: Der Einfluss der Stufen von Faktor A hängt davon ab, welche
Stufe von Faktor B vorliegt.
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 3
Anzahl Tests d mit α = 0.05
1
2
3
4
5
6
Globales Risiko
0.05
0.10
0.14
0.19
0.23
0.26
Bei 3 Gruppen steigt demnach das globale Risiko auf 0.14, bei 4 Gruppen auf 0.26
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 4
Varianzanalyse
Einfaktorielle Varianzanalyse
Das globale Risiko nennt man versuchsbezogenes Risiko im Unterschied zum
vergleichsbezogenen Risiko (pro Paarvergleich).
Voraussetzungen
Um das versuchsbezogene Risiko durch α zu beschränken rechnet man zuerst
einen Globalvergleich über alle Gruppen mittels Varianzanalyse.
• Das Zielmerkmal ist metrisch, stetig
• Normalverteilung des Zielmerkmals
mit gleicher Varianz in allen Untergruppen
Nur wenn dieser Globalvergleich signifikant wird, darf man suchen, zwischen welchen
Gruppen signifikante Unterschiede vorliegen.
Für diese Paarvergleiche wurden geeignete Tests, die Post Hoc-Tests entwickelt,
mit denen das versuchsbezogene Risiko α nicht überschritten wird.
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 5
y1
Man berechnet die Streuung der
Gruppenmittelwerte um das Gesamtmittel.
Diese ist um so größer, je mehr sich die
y.. Gruppenmittel unterscheiden.
Diese Streuung vergleicht man mit der
Reststreuung der Einzelwerte um
das jeweilige Gruppenmittel.
Ist die Streuung der Gruppenmittelwerte ‚deutlich‘ größer als die Reststreuung, d.h.
übersteigt der Quotient beider Streuungen einen Schwellwert, sind die Unterschiede
der Gruppenmittel signifikant.
WS 2015/16
Ablehnung der Nullhypothese bedeutet, dass mindestens zwei Erwartungswerte
signifikant verschieden sind
d.h. der Effekt des Faktors (im Bsp. Fütterungsart) ist signifikant.
WS 2015/16
ANOVA 6
Prof. Dr. J. Schütze, FB GW
Bezeichnungen
Idee der Varianzanalyse
y3
EY1 = EY2 = EY3 (im Spezialfall von 3 Gruppen)
mindestens zwei der Erwartungswerte unterscheiden sich
Einfaktorielle Varianzanalyse
Einfaktorielle Varianzanalyse
y2
Nullhypothese:
Alternativhypothese:
Prof. Dr. J. Schütze, FB GW
ANOVA 7
Messwerte
yik
k Gruppenindex/Stufenindex,
1≤ k ≤ p
bei p Gruppen
i Wiederholungsindex,
1 ≤ i ≤ nk
nk Messungen in Gruppe k
p
N =  nk Gesamtanzahl Messwerte
k =1
n1
1
Gruppenmittel Gruppe 1: y1 =  yi1
n1 i =1
...
n
1 p
Gruppe p: y p =  yip
n p i =1
Effekte
WS 2015/16
Gesamtmittel y =
1
N
p
nk
 y
ik
k =1 i =1
Gruppe 1: α1 = y1 − y
...
Gruppe p: α p = y p − y
Prof. Dr. J. Schütze, FB GW
►3.1
ANOVA 8
Einfaktorielle Varianzanalyse
Einfaktorielle Varianzanalyse
Freiheitsgrade
Quadratsummen
Gesamtvarianz aller Werte um Gesamtmittel
p nk
1
MSY =

 ( yi k − y ) 2 = s 2y
N − 1 k =1 i =1
p
nk
SSY =  ( yi k − y ) 2
k =1 i =1
Varianz der Werte pro Gruppe um jeweiliges Gruppenmittel
p nk
1
MSE =

 ( yik − y k ) 2
N − p k =1 i =1
Varianz der Gruppenmittel y k um Gesamtmittelwert y
1 p nk
1 p
MSA =
( yk − y ) 2 =


 nk ⋅ ( y k − y ) 2
p − 1 k =1 i =1
p − 1 k =1
p
nk
SSE =  ( yik − yk ) 2
k =1 i =1
p
p
nk
p
Testgröße
F =
MSA = SSA/(p-1)
k =1
F=
SSE =  ( yik − yk ) 2
total
SSY =  ( yik − y ) 2
p
nk
N-p
Prof. Dr. J. Schütze, FB GW
ANOVA 10
Testgröße
p
innerhalb
der
Gruppen
►3.3
Nullhypothese: μ1 = μ 2 = μ 3 (gleiche Erwartungswerte)
Freiheits- mittlere
grade
Quadratsummen
p-1
gesamt: p Werte y1 ,..., y p
und y geschätzt
Einfaktorielle Varianzanalyse
Tafel der einfaktoriellen Varianzanalyse
SSA =  nk ( yk − y ) 2
p – 1 Freiheitsgrade
gesamt: N Werte
und y1 ,..., y p geschätzt
Es gilt N -1 = (N – p) + (p -1)
WS 2015/16
Einfaktorielle Varianzanalyse
zwischen
Gruppen
nk
k =1 i =1
ANOVA 9
gesamt: N Werte
und y geschätzt
nk
SSA =  ( y − yk ) 2
SSY = SSA + SSE
Prof. Dr. J. Schütze, FB GW
Quadratsummen
N – 1 Freiheitsgrade
k =1 i =1
k =1 i =1
p nk
►3.2
Variationsursache
nk
SSE =  ( yik − yk ) 2 N – p Freiheitsgrade
SSA =  ( yk − y ) 2
k =1 i =1
WS 2015/16
p
SSY =  ( yik − y ) 2
k =1 i =1
=  α k2
Varianzzerlegung: Für die Quadratsummen gilt
Sie sind für die Normierung der Quadratsummen zuständig und entsprechen
der Anzahl der jeweils frei wählbaren Elemente bei den Summen.
Diese berechnen sich i.a. aus der Differenz der eingehenden Werte und der
Anzahl der daraus schon geschätzten Parameter.
SSA / ( p − 1)
M SA
=
SSE / ( N − p ) M SE
ist unter der Nullhypothese F-verteilt mit p -1, N - p Freiheitsgraden
MSA
MSE
F ~ Fp −1, N − p
MSE = SSE/(N - p)
k =1 i =1
p
nk
Ablehnbereich der Nullhypothese bei Risiko α, falls
N-1
F > Fp −1, N − p ,1−α
k =1 i =1
(Quantil der F - Verteilung)
p: Anzahl Faktorstufen, nk : Anzahl Messungen in Stufe k, N: Gesamtzahl Messungen
►3.4
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 11
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 12
Einfaktorielle Varianzanalyse
Einfaktorielle Varianzanalyse
Modellgleichung
Balanciertes und unbalanciertes Design
Yik = μ k + Eik
Der Versuch heißt balanciert, wenn auf jeder Faktorstufe n Wiederholungen,
d.h. gleich viele Messungen vorliegen.
Dabei ist μ k ein von der Faktorstufe abhängiger fester Mittelwert
Eik : zufällige Versuchsfehler, die als unabhängig und N(0, σ²) vorausgesetzt werden
Liegt unterschiedliche Anzahl von Wiederholungen vor, heißt der Versuch
unbalanciert.
Dann hat man auf der k-ten Stufe nk Wiederholungen.
Die Mittelwerte μ k kann man weiter aufspalten in μ k = μ + α k
d.h. eine von der Faktorstufe unabhängige Konstante μ und die Effekte α k
Die Gesamtzahl der Messungen ist im balancierten Fall N = n·p,
Dabei sind die Effekte so normiert, dass ihre Summe (balanciert) gleich Null ist.
Yik = μ + α k + Eik
p
im unbalancierten Fall N =  nk
Die Nullhypothese H 0 : μ1 = ... = μ p kann auch für die Effekte formuliert werden als
k =1
H 0 : α1 = ... = α p = 0
Anzustreben ist stets ein balanciertes Design, da hier die ‚Chance‘ auf Nachweis
eines signifikanten Unterschieds am größten ist.
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 13
Einfaktorielle Varianzanalyse
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 14
Varianzhomogenität
Interpretation der Varianzanteile
SSE: Quadratsumme der Abweichungen der Messwerte vom Stufenmittelwert
Ursache für die Streuungen innerhalb einer Stufe sind die Unterschiede
zwischen den Objekten und die zufälligen Messfehler, zusammengefasst
zum Versuchsfehler
SSA: Quadratsumme der Abweichungen der Faktorstufenmittelwerte vom
Gesamtmittelwert
verursacht durch die Effekte der verschiedenen Faktorstufen + Versuchsfehler
Sind alle Stufenmittel gleich dem Gesamtmittel (H0), dann erwartet man für die
mittleren Quadratsummen MSA und MSE den gleichen Wert σ², den Versuchsfehler.
Bei ungleichen Stufenmitteln ist MSA > MSE zu erwarten.
Übersteigt die Testgröße MSA/MSE den Schwellwert aus der F-Verteilung,
lehnt man H0 ab, anderenfalls nicht.
Die Voraussetzung gleicher Varianzen in den Untergruppen ist insbesondere im
nicht balancierten Fall wichtig.
Getestet werden kann das mit dem Levene-Test, der auch für nicht normalverteilte
Grundgesamtheiten anwendbar ist.
Levene-Test
Nullhypothese: σ12 = ... = σ2p
Testverfahren
Man berechnet die Gruppenmittel auf jeder Faktorstufe und damit für jeden Messwert
den Betrag der Differenz des Messwerts zum jeweiligen Gruppenmittel.
Mit dem so gewonnenen neuen Datensatz führt man eine Varianzanalyse durch.
Erhält man keine Ablehnung, kann man von gleichen Varianzen ausgehen.
Erhält man eine Testgröße < 1, wird die Nullhypothese ebenfalls beibehalten,
allerdings gibt das einen Hinweis auf Verletzung von Voraussetzungen
(z.B. keine additive Überlagerung, Messfehler abhängig von den Faktorstufen, keine NV)
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 15
►3.5
WS 2015/16
Prof. Dr. J. Schütze, FB GW
ANOVA 16
Post Hoc - Vergleiche
Post Hoc - Vergleiche
Bei Signifikanz des Globaltests der Varianzanalyse ist es von Interesse, zwischen
welchen Gruppen Unterschiede vorliegen.
Dafür gibt es mehrere Verfahren, so genannte Post-Hoc-Tests.
Einfache wiederholte T-Tests sind wegen der Kumulation des α-Fehlers ungeeignet,
es kann aber mit korrigiertem α und Reststreuung der ANOVA getestet werden.
Multipler T-Test mit Bonferroni-Korrektur von α
Zum Vergleich der Mittelwerte zwischen zwei Stufen i und j berechnet man eine
Testgröße analog zum T-Test, aber mit dem Unterschied, dass die gepoolte Streuung sg
zweier Stufen durch die Reststreuung der ANOVA ersetzt wird.
Nullhypothese
Testgröße
H 0 : μi = μ j
T=
yi − y j
MSE 1 / ni + 1 / n j
~ t FG ( MSE )
Die Freiheitsgrade der t-Verteilung sind die von MSE aus Varianztabelle, d.h. N - p
Prof. Dr. J. Schütze, FB GW
ANOVA 17
Testgrößen:
Tik =
yi − yk
MSE / 2
⋅
1
1 / ni + 1 / nk
Tik > q p , N − p ,1−α
Umrechnung des Ablehnkriteriums ergibt, dass ein Mittelwertpaar mit
MSE 1 1
yi − yk > q p , N − p ,1−α
+
ni nk
2
signifikant ist bei Sicherheit 1 - α.
WS 2015/16
►3.6
Prof. Dr. J. Schütze, FB GW
ANOVA 18
Quantile der standardisierten Variationsbreite
Unter der Nullhypothese genügen diese Testgrößen der Verteilung der studentisierten
Variationsbreite mit m1 = p, m2 = N - p Freiheitsgraden (Quantile s. folgende Folie).
Ablehnbereich:
Das Verfahren funktioniert prinzipiell bei allen multiplen Vergleichen. Es ist konservativ,
d.h. es führt dazu, dass man oft nicht alle wahren Unterschiede entdeckt.
Bei p Faktorstufen muss man nach Bonferroni jeden der m = p(p-1)/2 anschließenden
T-Tests mit Risiko α/m rechnen, um ein vergleichsbezogenes Risiko α einzuhalten,
z.B. hat man bei 4 Stufen 6 Paarvergleiche, somit ist das Risiko der T-Tests α' = 0.05/6 .
WS 2015/16
Tukey-Test
zum Vergleich der Mittelwertpaare unter Einhaltung des versuchsbezogenen
Risikos α (weniger konservativ als Bonferroni !)
H 0ik : μ i = μ k
Möchte man nun ein versuchsbezogenes Risiko von α einhalten, ist man auf der
sicheren Seite, wenn man jeden Paarvergleich mit Risiko α' = α/m rechnet.
(α-Adjustierung nach Bonferroni)
Eine Modifikation ist die Korrektur nach Bonferroni-Holm, s. Sachs.
Post Hoc - Vergleiche
Nullhypothese:
Das versuchsbezogene Risiko ist bei m Paarvergleichen nach oben begrenzt
durch m · α, wobei α das Risiko bei jedem Paarvergleich ist.
Da für solche speziellen α´ keine Quantiltabellen vorliegen, ist das Verfahren nur mit
Computer zu rechnen.
Für die Ablehnung der Nullhypothese rechnet man nun mit Risikokorrektur α´ nach
Bonferroni-Methode und lehnt die Nullhypothese ab bei T > tN-p,1-α‘/2
WS 2015/16
Bonferroni-Korrektur des Risikos
Prof. Dr. J. Schütze, FB GW
►3.7
ANOVA 19
Schwellwerte für Tukey-Test, α = 0.05
2
3
m2 \ m1
1
17.97
26.98
2
6.08
8.33
3
4.50
5.91
4
3.93
5.04
5
3.64
4.60
6
3.46
4.34
7
3.34
4.16
8
3.26
4.04
9
3.20
3.95
10
3.15
3.88
11
3.11
3.82
12
3.08
3.77
13
3.06
3.74
14
3.03
3.70
15
3.01
3.67
16
3.00
3.65
17
2.98
3.63
18
2.97
3.61
19
2.96
3.59
20
2.95
3.58
24
2.92
3.53
30
2.89
3.49
40
2.86
3.44
60
2.83
3.40
120
2.80
3.36
∞
2.77
3.31
WS 2015/16
4
32.82
9.80
6.82
5.76
5.22
4.90
4.68
4.53
4.41
4.33
4.26
4.20
4.15
4.11
4.08
4.05
4.02
4.00
3.98
3.96
3.90
3.85
3.79
3.74
3.69
3.63
5
37.08
10.88
7.50
6.29
5.67
5.30
5.06
4.89
4.76
4.65
4.57
4.51
4.45
4.41
4.37
4.33
4.30
4.50
4.25
4.23
4.17
4.10
4.04
3.98
3.92
3.86
6
40.4
11.7
8.04
6.71
6.03
5.63
5.36
5.17
5.02
4.91
4.82
4.75
4.69
4.64
4.60
4.56
4.52
4.50
4.47
4.45
4.37
4.30
4.23
4.16
4.10
4.03
Prof. Dr. J. Schütze, FB GW
ANOVA 20
Varianzanalyse mit Blockbildung
Varianzanalyse mit Blockbildung
Bei zu großer Restvariation innerhalb der Gruppen gegenüber den Unterschieden
zwischen den Gruppenmittelwerten wird der Globaltest der ANOVA nicht signifikant.
Ziel
Reduktion des Versuchsfehlers durch geplante Berücksichtigung einer möglichen
Inhomogenität zwischen den Versuchseinheiten (Störgröße/Confounder)
Metrischer Confounder: Kovarianzanalyse (z.B. Alter, Anfangsgewicht,… s. Literatur)
Confounder B Störfaktor, der nicht konstant gehalten werden kann, aber nicht von
eigentlichem Interesse ist
(z.B. Bodenbeschaffenheit bei Zuchtversuch)
Vorgehen
Ähnliche Versuchseinheiten (z.B. benachbarte Parzellen) werden zu Gruppen, den
Blöcken zusammengefasst. Idealerweise enthält jeder Block mindestens so viele
Versuchseinheiten, wie Faktorstufen von A zu vergleichen sind.
Prof. Dr. J. Schütze, FB GW
Reduzierung des Versuchsfehlers ist dadurch möglich, dass man die Streuung,
die von verschiedenen Ausprägungen eines Störfaktors verursacht wird, aus
dem Versuchsfehler ‚herausrechnet‘.
bisher
Yik = Basiswert μ + Behandlungseffekt α k + Versuchsfehler Eik
Nominaler Confounder: Blockvarianzanalyse
WS 2015/16
Auswirkungen auf die Testgröße
MSA
vorhandene Mittelwertunterschiede werden signifikant, wenn T =
> Fp −1, N − p ,1−α
MSE
Ablehnkriterium wird leichter erfüllt bei kleinerem Versuchsfehler MSE
Blockvarianzanalyse 1
Blockvarianzanalyse
Yijk = Basiswert μ + Behandlungseffekt α k + Blockeffekt β j + Versuchsfehler Eijk



Versuchsfehler der einfachen Varianzanalyse
Im einfachsten Fall hat man keine Messwiederholung in den Kombinationen des
Blockeffektes j mit dem Behandlungseffekt k.
Dann kann der Messwiederholungsindex i weggelassen werden.
WS 2015/16
Prof. Dr. J. Schütze, FB GW
Blockbildung
Datenerhebung in Blöcken
Randomisierte Blockanlage
Randomisierte Blockanlage
Faktor A (Behandlungsfaktor) mit den Stufen k = 1,…, p Stufen
Blockfaktor B mit den Stufen j = 1,...,b
ergibt N = b·p Untersuchungseinheiten.
Beispiel
p = 3 Weizensorten sollen auf ihren Ertrag getestet werden,
Versuchsfehler soll um möglichen Effekt der Lage (Block)
im Feld reduziert werden.
Blöcke können homogene Altersgruppen, Wachstumsbedingungen,...sein.
Innerhalb jedes Blocks wird eine zufällige Zuordnung der Untersuchungseinheiten
zu den p Faktorstufen von A vorgenommen.
Wird jede der p Stufen von A in jeder Stufe von B genau einmal realisiert, ist die
Anzahl der Wiederholungen n = 1, insgesamt N =1·b·p = b·p Versuche
P1
P2
P3
B1
W3
W2
W1
B2
W1
W2
W3
B3
W1
W3
W2
B4
W2
W3
W1
B5
W2
W1
W3
Untersuchungsfaktor A: Weizenart mit 3 Ausprägungen (Sorten)
Blockfaktor B: Lage mit 5 Ausprägungen
5 Gruppen von je drei benachbarten, gleichartigen Parzellen P1, P2, P3
d.h. Einfluss der Lage kann damit ‚herausgerechnet‘ werden.
Messwerte yjk :
1≤ j ≤ n, Blockindex und
1≤ k ≤ p, Faktorstufenindex
WS 2015/16
Einteilung des Feldes in 5 homogene Blöcke, jeder Block hat
je 3 Parzellen, denen die 3 Sorten zufällig zugeordnet werden
somit je Sorte n = 5 Beobachtungen, jede in anderem Block
d.h. in jedem Block wird jede Sorte einmal angebaut
Blockvarianzanalyse 2
Prof. Dr. J. Schütze, FB GW
Blockvarianzanalyse 3
WS 2015/16
Prof. Dr. J. Schütze, FB GW
Blockvarianzanalyse 4
Effektgrößen
Schätzung der Effekte
Messwerte yjk : 1≤ j ≤ n, Blockindex und 1≤ k ≤ p, Faktorstufenindex
Blockfaktor B
1
Behandlungsfaktor A
2
...
p
1
y11
y12
y1p
Parameterschätzungen
y1.
Stufenmittel
von Blockfaktor B
2

n
Behandlungseffekt α k
Blockeffekt β j
aus allen n·p Beobachtungen
durch αˆ k = y.k − y.. aus allen n Beobachtungen der k-ten Spalte
durch βˆ j = y j . − y.. aus allen p Beobachtungen der j-ten Zeile
Die Summe der Blockeffekte ergibt Null, ebenso die der Behandlungseffekte.
yn1
yn2
y.1
y.2
...
ynp
yn.
y. p
y
Blockeffekt
(Störgröße)
βˆ j = y j . − y
Damit schätzt man die im Modell erwarteten Werte durch
yˆ jk = μˆ + αˆ k + βˆ j = y.. + ( y.k − y.. ) + ( y j . − y.. ) = y.k + y j. − y..
Entsprechend der Modellgleichung ist dann der Versuchsfehler
e jk = y jk − yˆ jk = y jk − μˆ + αˆ k + βˆ j = y jk − y.k − y j . + y..
Stufenmittel von Behandlungsfaktor A
Behandlungseffekt αˆ k = y.k − y
(
n
j =1 k =1
Blockvarianzanalyse 5
Prof. Dr. J. Schütze, FB GW
ANOVA-Tabelle
Blockeffekt
Versuchsfehler
Blockvarianzanalyse 6
Prof. Dr. J. Schütze, FB GW
p
p
p
j =1 k =1
p
n
k =1
n
k =1
n
j =1 k =1
p
n
j =1
SSA =  ( y.k − y.. ) 2 = n ( y.k − y.. ) 2 = n αˆ k2
FG = p - 1
Beispiel
SSB =  ( y j . − y.. ) 2 = p  ( y j . − y.. ) 2 = p  βˆ j2
FG = n - 1
Blockfaktor B
1
1
15
17
16
2
18
25
20
3
15
19
17
4
21
23
22
5
19
21
17
n
p
j =1
n
p
(
SSE =  e 2jk =  ( y jk − yˆ jk ) 2 =  y jk − ( y.. + αˆ k + βˆ j )
j =1 k =1
p
n
j =1 k =1
j =1 k =1
)
2
SSY =  ( y jk − y.. ) 2 = ( np − 1) s y2
Total
WS 2015/16
Daten der randomisierten Blockanlage
n
Behandlungseffekt
p
SSE =  e 2jk
Versuchsfehler der einfachen Varianzanalyse
WS 2015/16
)
Variation des Versuchsfehlers
Modell
Y jk = Basiswert μ + Behandlungseffekt α k + Blockeffekt β j + Versuchsfehler E jk



j =1 k =1
SSY = SSA + SSB + SSE
Quelle
SS
FG
MS
Testgröße
A
SSA
p -1
MSA
T = MSA/MSE
B
SSB
n -1
Rest
SSE
(p -1)(n -1)
Total
SSY
np -1
Nullhypothese:
Ablehnbereich bei Risiko α:
WS 2015/16
Schätzung
durch μˆ = y..
Basiswert μ
Behandlungsfaktor A
2
3
Behandlungsfaktor A auf p = 3 Stufen,
je eine Messung in n = 5 Blöcken
Besteht ein signifikanter Unterschied zwischen den Stufenmitteln von A?
MSE
Die Frage nach einem Einfluss des Blockfaktors steht hier vordergründig nicht,
das Blocken dient nur der Reduzierung des Versuchsfehlers!
Der Blockeffekt könnte aber prinzipiell analog getestet werden.
α1 = α2 = ... = α p
T > Fp −1,( n −1)( p −1),1−α
Prof. Dr. J. Schütze, FB GW
Blockvarianzanalyse 7
WS 2015/16
Prof. Dr. J. Schütze, FB GW
Blockvarianzanalyse 8
Daten der randomisierten Blockanlage
Effekte und Versuchsfehler
Stufenmittel und Abweichungen der Stufenmittel vom Gesamtmittel y.. = 19
Behandlungsfaktor A
1
2
3
Blockfaktor B
y j. =
1 n
 y jk βˆ j = y j. − y
p k =1
1
15
17
16
16
-3
2
18
25
20
21
2
3
15
19
17
17
-2
4
21
5
23
22
22
21
17
19
0
1 p
 y jk
n j =1
17.6
21
18.4
y.. = 19
0
αˆ k = y.k − y
-1.4
2
-0.6
0
y.k =
Die Abweichungen
der Stufenmittel
vom Gesamtmittel
summieren sich
jeweils zu Null!
Blockfaktor B
βˆ j
Behandlungsfaktor A
1
2
3
1
14.6
18
15.4
-3
1
15
17
16
2
19.6
23
20.4
2
2
18
25
20
3
15.6
19
16.4
-2
3
15
19
17
21.4
3
4
21
23
22
0
5
19
21
17
4
3
19
Behandlungsfaktor A
1
2
3
Blockfaktor B
Beobachtungswerte y jk
y.. = 19
Modellwerte yˆ jk = y.. + αˆ k + βˆ j
20.6
24
5
17.6
21
18.4
αˆ k
-1.4
2
-0.6
Versuchsfehler
p
n
SSE =  ( yˆ kj − ykj ) 2 =(14.6 − 15) 2 + (18 − 17) 2 + ... + (18.4 − 17) 2 = 14.4
k =1 j =1
WS 2015/16
Blockvarianzanalyse 9
Prof. Dr. J. Schütze, FB GW
Effekte und Versuchsfehler
SSY =  ( y jk − y.. ) = ( np − 1) s = 14 ⋅ 8.857 = 124
2
y
j =1 k =1
p
n
p
p
j =1 k =1
k =1
k =1
SSA =  ( y.k − y.. ) 2 = n ( y.k − y.. ) 2 = n αˆ k2
= 5(( −1.4) 2 + 22 + ( −0.6) 2 ) = 31.6
p
n
n
j =1
j =1
SSB =  ( y j . − y.. ) 2 = p  ( y j . − y.. ) 2 = p  βˆ j2
j =1 k =1
p
n
p
n
p
(
SSE =  e 2jk =  ( y jk − yˆ jk ) 2 =  y jk − ( y.. + αˆ k + βˆ j )
j =1 k =1
j =1 k =1
j =1 k =1
)
2
FG
MS
Testgröße
A
SSA = 31.6
p -1 = 2
MSA =15.8
T = MSA/MSE
B
SSB = 78.0
n -1 = 4
Rest
SSE = 14.4
(p-1)(n-1) = 8
Total
124
np-1 = 14
Testgröße
Ablehnbereich
MSE =1.8
Stufenmittel von A
H 0 : α1 = α 2 = α 3
MSA 15.8
T=
=
= 8.78
MSE 1.8
T > F2,8,0.95 = 4.48
Entscheidung: Wegen T > 4.48 wird die Gleichheit der Stufenmittelwerte abgelehnt.
SSE = SSY − SSA − SSB = 124 − 31.6 − 78 = 14.4
Prof. Dr. J. Schütze, FB GW
SS
= 14.4
Einfacher erhält man SSE wegen SSY = SSA + SSB + SSE als
WS 2015/16
Quelle
Nullhypothese
= 3(( −2) 2 + 32 + ( −3) 2 + 22 + 02 ) = 78
n
Varianzzerlegung
p
2
n
Blockvarianzanalyse 10
Prof. Dr. J. Schütze, FB GW
ANOVA-Tabelle
Zerlegung der Beobachtungswerte in erklärte Anteile und Versuchsfehler
n
WS 2015/16
In gleicher Weise könnte der Blockeffekt auf Signifikanz getestet werden, was aber
in dem Modell der Blockanlage nicht vordergründiges Ziel ist.
Blockvarianzanalyse 11
WS 2015/16
Prof. Dr. J. Schütze, FB GW
Blockvarianzanalyse 12

Documentos relacionados