Varianzanalyse Varianzanalyse Varianzanalyse - EAH-Jena
Transcrição
Varianzanalyse Varianzanalyse Varianzanalyse - EAH-Jena
Varianzanalyse Varianzanalyse Ziel Deutlicher Unterschied zwischen Art 1 mit y1 = 43.4 und Art 2 mit y2 = 64.4 erkennbar, weniger deutlich zwischen 2 und 3 mit y3 = 52.2 bzw. zwischen 1 und 3. Überprüfung der Gleichheit der Erwartungswerte eines metrischen Merkmals zwischen drei oder mehr Untergruppen, somit Verallgemeinerung des T-Tests, der nur Erwartungswerte zwischen zwei Gruppen vergleicht Für Signifikanz ist nicht neben dem Unterschied der Mittelwerte die Streuung innerhalb der Stichproben wichtig, die beobachteten Stichprobenunterschiede sollten deutlich dominieren. Fragestellungen Analog zum T-Tests gibt es verschiedene Verfahren für verbundene und nicht verbundene Stichproben, hier werden nur nicht verbundene Stichproben behandelt. Beispiel Gewichtszunahme von homogenen Labormäusen über gleichem Zeitraum unter drei Fütterungsarten, Messungen an jeweils 5 Tieren y1 = 43.4 Art 1: 47, 39, 40, 46, 45 y2 = 64.4 Art 2: 68, 65, 63, 59, 67 y3 = 52.2 Art 3: 59, 50, 51, 48, 53 Sind die in den Stichproben beobachteten Unterschiede der mittleren Gewichtszunahme zwischen den 3 Fütterungsarten signifikant? WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 1 (1) Gibt es einen signifikanten Einfluss (Effekt) der Fütterungsarten, d.h. über Stichprobe hinaus? (2) Wenn ja, zwischen welchen Arten ist der Effekt signifikant? Reihenfolge des Abtragens der Arten (Kategorien) auf der x-Achse ist willkürlich. WS 2015/16 ANOVA 2 Prof. Dr. J. Schütze, FB GW Varianzanalyse Varianzanalyse Faktor Merkmal, das die Gruppen definiert, i.a. nominal Abgrenzung zu wiederholter Anwendung von T-Tests Faktorstufen Ausprägungen des Faktors jede Stufe definiert eine der zu vergleichenden Gruppen. Merkmal, das zwischen den Gruppen verglichen wird, metrisch Bei 3 Gruppen (Faktorstufen) sind 3 T-Tests erforderlich (1-2, 1-3, 2-3). Bei 4 Gruppen sind es schon 6 Tests (1-2, 1-3, 1-4, 2-3, 2-4, 3-4) im Fall von p Untergruppen ergeben sich p(p-1)/2 Paarvergleiche mittels T-Test. Zielgröße Einfaktorielle Varianzanalyse Gruppen werden von einem Faktor erzeugt Jeder dieser T-Tests hat das Risiko α für eine falsche Entscheidung. Mehrfaktorielle Varianzanalyse Gruppen werden von zwei oder mehr Faktoren erzeugt Mit der Anzahl der Tests steigt das globale Risiko, dass hierbei per Zufall falsch signifikante Unterschiede gefunden werden. Fütterungsart 1,..., Fütterungsart 3 Gewichtszunahme P (mind. 1 falsche Entscheidung bei d Vergleichen) = Im vorigen Beispiel ein Faktor Faktor A mit 3 Ausprägungen: Zielgröße: 1 − P (keine falsche Entscheidung bei d Vergleichen) = 1 − (1 − α) d Beispiel für 2 Faktoren Faktor A: Fütterungsart 1,..., Fütterungsart 3 Faktor B: Geschlecht Untersuchung jedes Faktors sowie auf Vorliegen von Wechselwirkungen Wechselwirkungen: Der Einfluss der Stufen von Faktor A hängt davon ab, welche Stufe von Faktor B vorliegt. WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 3 Anzahl Tests d mit α = 0.05 1 2 3 4 5 6 Globales Risiko 0.05 0.10 0.14 0.19 0.23 0.26 Bei 3 Gruppen steigt demnach das globale Risiko auf 0.14, bei 4 Gruppen auf 0.26 WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 4 Varianzanalyse Einfaktorielle Varianzanalyse Das globale Risiko nennt man versuchsbezogenes Risiko im Unterschied zum vergleichsbezogenen Risiko (pro Paarvergleich). Voraussetzungen Um das versuchsbezogene Risiko durch α zu beschränken rechnet man zuerst einen Globalvergleich über alle Gruppen mittels Varianzanalyse. • Das Zielmerkmal ist metrisch, stetig • Normalverteilung des Zielmerkmals mit gleicher Varianz in allen Untergruppen Nur wenn dieser Globalvergleich signifikant wird, darf man suchen, zwischen welchen Gruppen signifikante Unterschiede vorliegen. Für diese Paarvergleiche wurden geeignete Tests, die Post Hoc-Tests entwickelt, mit denen das versuchsbezogene Risiko α nicht überschritten wird. WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 5 y1 Man berechnet die Streuung der Gruppenmittelwerte um das Gesamtmittel. Diese ist um so größer, je mehr sich die y.. Gruppenmittel unterscheiden. Diese Streuung vergleicht man mit der Reststreuung der Einzelwerte um das jeweilige Gruppenmittel. Ist die Streuung der Gruppenmittelwerte ‚deutlich‘ größer als die Reststreuung, d.h. übersteigt der Quotient beider Streuungen einen Schwellwert, sind die Unterschiede der Gruppenmittel signifikant. WS 2015/16 Ablehnung der Nullhypothese bedeutet, dass mindestens zwei Erwartungswerte signifikant verschieden sind d.h. der Effekt des Faktors (im Bsp. Fütterungsart) ist signifikant. WS 2015/16 ANOVA 6 Prof. Dr. J. Schütze, FB GW Bezeichnungen Idee der Varianzanalyse y3 EY1 = EY2 = EY3 (im Spezialfall von 3 Gruppen) mindestens zwei der Erwartungswerte unterscheiden sich Einfaktorielle Varianzanalyse Einfaktorielle Varianzanalyse y2 Nullhypothese: Alternativhypothese: Prof. Dr. J. Schütze, FB GW ANOVA 7 Messwerte yik k Gruppenindex/Stufenindex, 1≤ k ≤ p bei p Gruppen i Wiederholungsindex, 1 ≤ i ≤ nk nk Messungen in Gruppe k p N = nk Gesamtanzahl Messwerte k =1 n1 1 Gruppenmittel Gruppe 1: y1 = yi1 n1 i =1 ... n 1 p Gruppe p: y p = yip n p i =1 Effekte WS 2015/16 Gesamtmittel y = 1 N p nk y ik k =1 i =1 Gruppe 1: α1 = y1 − y ... Gruppe p: α p = y p − y Prof. Dr. J. Schütze, FB GW ►3.1 ANOVA 8 Einfaktorielle Varianzanalyse Einfaktorielle Varianzanalyse Freiheitsgrade Quadratsummen Gesamtvarianz aller Werte um Gesamtmittel p nk 1 MSY = ( yi k − y ) 2 = s 2y N − 1 k =1 i =1 p nk SSY = ( yi k − y ) 2 k =1 i =1 Varianz der Werte pro Gruppe um jeweiliges Gruppenmittel p nk 1 MSE = ( yik − y k ) 2 N − p k =1 i =1 Varianz der Gruppenmittel y k um Gesamtmittelwert y 1 p nk 1 p MSA = ( yk − y ) 2 = nk ⋅ ( y k − y ) 2 p − 1 k =1 i =1 p − 1 k =1 p nk SSE = ( yik − yk ) 2 k =1 i =1 p p nk p Testgröße F = MSA = SSA/(p-1) k =1 F= SSE = ( yik − yk ) 2 total SSY = ( yik − y ) 2 p nk N-p Prof. Dr. J. Schütze, FB GW ANOVA 10 Testgröße p innerhalb der Gruppen ►3.3 Nullhypothese: μ1 = μ 2 = μ 3 (gleiche Erwartungswerte) Freiheits- mittlere grade Quadratsummen p-1 gesamt: p Werte y1 ,..., y p und y geschätzt Einfaktorielle Varianzanalyse Tafel der einfaktoriellen Varianzanalyse SSA = nk ( yk − y ) 2 p – 1 Freiheitsgrade gesamt: N Werte und y1 ,..., y p geschätzt Es gilt N -1 = (N – p) + (p -1) WS 2015/16 Einfaktorielle Varianzanalyse zwischen Gruppen nk k =1 i =1 ANOVA 9 gesamt: N Werte und y geschätzt nk SSA = ( y − yk ) 2 SSY = SSA + SSE Prof. Dr. J. Schütze, FB GW Quadratsummen N – 1 Freiheitsgrade k =1 i =1 k =1 i =1 p nk ►3.2 Variationsursache nk SSE = ( yik − yk ) 2 N – p Freiheitsgrade SSA = ( yk − y ) 2 k =1 i =1 WS 2015/16 p SSY = ( yik − y ) 2 k =1 i =1 = α k2 Varianzzerlegung: Für die Quadratsummen gilt Sie sind für die Normierung der Quadratsummen zuständig und entsprechen der Anzahl der jeweils frei wählbaren Elemente bei den Summen. Diese berechnen sich i.a. aus der Differenz der eingehenden Werte und der Anzahl der daraus schon geschätzten Parameter. SSA / ( p − 1) M SA = SSE / ( N − p ) M SE ist unter der Nullhypothese F-verteilt mit p -1, N - p Freiheitsgraden MSA MSE F ~ Fp −1, N − p MSE = SSE/(N - p) k =1 i =1 p nk Ablehnbereich der Nullhypothese bei Risiko α, falls N-1 F > Fp −1, N − p ,1−α k =1 i =1 (Quantil der F - Verteilung) p: Anzahl Faktorstufen, nk : Anzahl Messungen in Stufe k, N: Gesamtzahl Messungen ►3.4 WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 11 WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 12 Einfaktorielle Varianzanalyse Einfaktorielle Varianzanalyse Modellgleichung Balanciertes und unbalanciertes Design Yik = μ k + Eik Der Versuch heißt balanciert, wenn auf jeder Faktorstufe n Wiederholungen, d.h. gleich viele Messungen vorliegen. Dabei ist μ k ein von der Faktorstufe abhängiger fester Mittelwert Eik : zufällige Versuchsfehler, die als unabhängig und N(0, σ²) vorausgesetzt werden Liegt unterschiedliche Anzahl von Wiederholungen vor, heißt der Versuch unbalanciert. Dann hat man auf der k-ten Stufe nk Wiederholungen. Die Mittelwerte μ k kann man weiter aufspalten in μ k = μ + α k d.h. eine von der Faktorstufe unabhängige Konstante μ und die Effekte α k Die Gesamtzahl der Messungen ist im balancierten Fall N = n·p, Dabei sind die Effekte so normiert, dass ihre Summe (balanciert) gleich Null ist. Yik = μ + α k + Eik p im unbalancierten Fall N = nk Die Nullhypothese H 0 : μ1 = ... = μ p kann auch für die Effekte formuliert werden als k =1 H 0 : α1 = ... = α p = 0 Anzustreben ist stets ein balanciertes Design, da hier die ‚Chance‘ auf Nachweis eines signifikanten Unterschieds am größten ist. WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 13 Einfaktorielle Varianzanalyse WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 14 Varianzhomogenität Interpretation der Varianzanteile SSE: Quadratsumme der Abweichungen der Messwerte vom Stufenmittelwert Ursache für die Streuungen innerhalb einer Stufe sind die Unterschiede zwischen den Objekten und die zufälligen Messfehler, zusammengefasst zum Versuchsfehler SSA: Quadratsumme der Abweichungen der Faktorstufenmittelwerte vom Gesamtmittelwert verursacht durch die Effekte der verschiedenen Faktorstufen + Versuchsfehler Sind alle Stufenmittel gleich dem Gesamtmittel (H0), dann erwartet man für die mittleren Quadratsummen MSA und MSE den gleichen Wert σ², den Versuchsfehler. Bei ungleichen Stufenmitteln ist MSA > MSE zu erwarten. Übersteigt die Testgröße MSA/MSE den Schwellwert aus der F-Verteilung, lehnt man H0 ab, anderenfalls nicht. Die Voraussetzung gleicher Varianzen in den Untergruppen ist insbesondere im nicht balancierten Fall wichtig. Getestet werden kann das mit dem Levene-Test, der auch für nicht normalverteilte Grundgesamtheiten anwendbar ist. Levene-Test Nullhypothese: σ12 = ... = σ2p Testverfahren Man berechnet die Gruppenmittel auf jeder Faktorstufe und damit für jeden Messwert den Betrag der Differenz des Messwerts zum jeweiligen Gruppenmittel. Mit dem so gewonnenen neuen Datensatz führt man eine Varianzanalyse durch. Erhält man keine Ablehnung, kann man von gleichen Varianzen ausgehen. Erhält man eine Testgröße < 1, wird die Nullhypothese ebenfalls beibehalten, allerdings gibt das einen Hinweis auf Verletzung von Voraussetzungen (z.B. keine additive Überlagerung, Messfehler abhängig von den Faktorstufen, keine NV) WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 15 ►3.5 WS 2015/16 Prof. Dr. J. Schütze, FB GW ANOVA 16 Post Hoc - Vergleiche Post Hoc - Vergleiche Bei Signifikanz des Globaltests der Varianzanalyse ist es von Interesse, zwischen welchen Gruppen Unterschiede vorliegen. Dafür gibt es mehrere Verfahren, so genannte Post-Hoc-Tests. Einfache wiederholte T-Tests sind wegen der Kumulation des α-Fehlers ungeeignet, es kann aber mit korrigiertem α und Reststreuung der ANOVA getestet werden. Multipler T-Test mit Bonferroni-Korrektur von α Zum Vergleich der Mittelwerte zwischen zwei Stufen i und j berechnet man eine Testgröße analog zum T-Test, aber mit dem Unterschied, dass die gepoolte Streuung sg zweier Stufen durch die Reststreuung der ANOVA ersetzt wird. Nullhypothese Testgröße H 0 : μi = μ j T= yi − y j MSE 1 / ni + 1 / n j ~ t FG ( MSE ) Die Freiheitsgrade der t-Verteilung sind die von MSE aus Varianztabelle, d.h. N - p Prof. Dr. J. Schütze, FB GW ANOVA 17 Testgrößen: Tik = yi − yk MSE / 2 ⋅ 1 1 / ni + 1 / nk Tik > q p , N − p ,1−α Umrechnung des Ablehnkriteriums ergibt, dass ein Mittelwertpaar mit MSE 1 1 yi − yk > q p , N − p ,1−α + ni nk 2 signifikant ist bei Sicherheit 1 - α. WS 2015/16 ►3.6 Prof. Dr. J. Schütze, FB GW ANOVA 18 Quantile der standardisierten Variationsbreite Unter der Nullhypothese genügen diese Testgrößen der Verteilung der studentisierten Variationsbreite mit m1 = p, m2 = N - p Freiheitsgraden (Quantile s. folgende Folie). Ablehnbereich: Das Verfahren funktioniert prinzipiell bei allen multiplen Vergleichen. Es ist konservativ, d.h. es führt dazu, dass man oft nicht alle wahren Unterschiede entdeckt. Bei p Faktorstufen muss man nach Bonferroni jeden der m = p(p-1)/2 anschließenden T-Tests mit Risiko α/m rechnen, um ein vergleichsbezogenes Risiko α einzuhalten, z.B. hat man bei 4 Stufen 6 Paarvergleiche, somit ist das Risiko der T-Tests α' = 0.05/6 . WS 2015/16 Tukey-Test zum Vergleich der Mittelwertpaare unter Einhaltung des versuchsbezogenen Risikos α (weniger konservativ als Bonferroni !) H 0ik : μ i = μ k Möchte man nun ein versuchsbezogenes Risiko von α einhalten, ist man auf der sicheren Seite, wenn man jeden Paarvergleich mit Risiko α' = α/m rechnet. (α-Adjustierung nach Bonferroni) Eine Modifikation ist die Korrektur nach Bonferroni-Holm, s. Sachs. Post Hoc - Vergleiche Nullhypothese: Das versuchsbezogene Risiko ist bei m Paarvergleichen nach oben begrenzt durch m · α, wobei α das Risiko bei jedem Paarvergleich ist. Da für solche speziellen α´ keine Quantiltabellen vorliegen, ist das Verfahren nur mit Computer zu rechnen. Für die Ablehnung der Nullhypothese rechnet man nun mit Risikokorrektur α´ nach Bonferroni-Methode und lehnt die Nullhypothese ab bei T > tN-p,1-α‘/2 WS 2015/16 Bonferroni-Korrektur des Risikos Prof. Dr. J. Schütze, FB GW ►3.7 ANOVA 19 Schwellwerte für Tukey-Test, α = 0.05 2 3 m2 \ m1 1 17.97 26.98 2 6.08 8.33 3 4.50 5.91 4 3.93 5.04 5 3.64 4.60 6 3.46 4.34 7 3.34 4.16 8 3.26 4.04 9 3.20 3.95 10 3.15 3.88 11 3.11 3.82 12 3.08 3.77 13 3.06 3.74 14 3.03 3.70 15 3.01 3.67 16 3.00 3.65 17 2.98 3.63 18 2.97 3.61 19 2.96 3.59 20 2.95 3.58 24 2.92 3.53 30 2.89 3.49 40 2.86 3.44 60 2.83 3.40 120 2.80 3.36 ∞ 2.77 3.31 WS 2015/16 4 32.82 9.80 6.82 5.76 5.22 4.90 4.68 4.53 4.41 4.33 4.26 4.20 4.15 4.11 4.08 4.05 4.02 4.00 3.98 3.96 3.90 3.85 3.79 3.74 3.69 3.63 5 37.08 10.88 7.50 6.29 5.67 5.30 5.06 4.89 4.76 4.65 4.57 4.51 4.45 4.41 4.37 4.33 4.30 4.50 4.25 4.23 4.17 4.10 4.04 3.98 3.92 3.86 6 40.4 11.7 8.04 6.71 6.03 5.63 5.36 5.17 5.02 4.91 4.82 4.75 4.69 4.64 4.60 4.56 4.52 4.50 4.47 4.45 4.37 4.30 4.23 4.16 4.10 4.03 Prof. Dr. J. Schütze, FB GW ANOVA 20 Varianzanalyse mit Blockbildung Varianzanalyse mit Blockbildung Bei zu großer Restvariation innerhalb der Gruppen gegenüber den Unterschieden zwischen den Gruppenmittelwerten wird der Globaltest der ANOVA nicht signifikant. Ziel Reduktion des Versuchsfehlers durch geplante Berücksichtigung einer möglichen Inhomogenität zwischen den Versuchseinheiten (Störgröße/Confounder) Metrischer Confounder: Kovarianzanalyse (z.B. Alter, Anfangsgewicht,… s. Literatur) Confounder B Störfaktor, der nicht konstant gehalten werden kann, aber nicht von eigentlichem Interesse ist (z.B. Bodenbeschaffenheit bei Zuchtversuch) Vorgehen Ähnliche Versuchseinheiten (z.B. benachbarte Parzellen) werden zu Gruppen, den Blöcken zusammengefasst. Idealerweise enthält jeder Block mindestens so viele Versuchseinheiten, wie Faktorstufen von A zu vergleichen sind. Prof. Dr. J. Schütze, FB GW Reduzierung des Versuchsfehlers ist dadurch möglich, dass man die Streuung, die von verschiedenen Ausprägungen eines Störfaktors verursacht wird, aus dem Versuchsfehler ‚herausrechnet‘. bisher Yik = Basiswert μ + Behandlungseffekt α k + Versuchsfehler Eik Nominaler Confounder: Blockvarianzanalyse WS 2015/16 Auswirkungen auf die Testgröße MSA vorhandene Mittelwertunterschiede werden signifikant, wenn T = > Fp −1, N − p ,1−α MSE Ablehnkriterium wird leichter erfüllt bei kleinerem Versuchsfehler MSE Blockvarianzanalyse 1 Blockvarianzanalyse Yijk = Basiswert μ + Behandlungseffekt α k + Blockeffekt β j + Versuchsfehler Eijk Versuchsfehler der einfachen Varianzanalyse Im einfachsten Fall hat man keine Messwiederholung in den Kombinationen des Blockeffektes j mit dem Behandlungseffekt k. Dann kann der Messwiederholungsindex i weggelassen werden. WS 2015/16 Prof. Dr. J. Schütze, FB GW Blockbildung Datenerhebung in Blöcken Randomisierte Blockanlage Randomisierte Blockanlage Faktor A (Behandlungsfaktor) mit den Stufen k = 1,…, p Stufen Blockfaktor B mit den Stufen j = 1,...,b ergibt N = b·p Untersuchungseinheiten. Beispiel p = 3 Weizensorten sollen auf ihren Ertrag getestet werden, Versuchsfehler soll um möglichen Effekt der Lage (Block) im Feld reduziert werden. Blöcke können homogene Altersgruppen, Wachstumsbedingungen,...sein. Innerhalb jedes Blocks wird eine zufällige Zuordnung der Untersuchungseinheiten zu den p Faktorstufen von A vorgenommen. Wird jede der p Stufen von A in jeder Stufe von B genau einmal realisiert, ist die Anzahl der Wiederholungen n = 1, insgesamt N =1·b·p = b·p Versuche P1 P2 P3 B1 W3 W2 W1 B2 W1 W2 W3 B3 W1 W3 W2 B4 W2 W3 W1 B5 W2 W1 W3 Untersuchungsfaktor A: Weizenart mit 3 Ausprägungen (Sorten) Blockfaktor B: Lage mit 5 Ausprägungen 5 Gruppen von je drei benachbarten, gleichartigen Parzellen P1, P2, P3 d.h. Einfluss der Lage kann damit ‚herausgerechnet‘ werden. Messwerte yjk : 1≤ j ≤ n, Blockindex und 1≤ k ≤ p, Faktorstufenindex WS 2015/16 Einteilung des Feldes in 5 homogene Blöcke, jeder Block hat je 3 Parzellen, denen die 3 Sorten zufällig zugeordnet werden somit je Sorte n = 5 Beobachtungen, jede in anderem Block d.h. in jedem Block wird jede Sorte einmal angebaut Blockvarianzanalyse 2 Prof. Dr. J. Schütze, FB GW Blockvarianzanalyse 3 WS 2015/16 Prof. Dr. J. Schütze, FB GW Blockvarianzanalyse 4 Effektgrößen Schätzung der Effekte Messwerte yjk : 1≤ j ≤ n, Blockindex und 1≤ k ≤ p, Faktorstufenindex Blockfaktor B 1 Behandlungsfaktor A 2 ... p 1 y11 y12 y1p Parameterschätzungen y1. Stufenmittel von Blockfaktor B 2 n Behandlungseffekt α k Blockeffekt β j aus allen n·p Beobachtungen durch αˆ k = y.k − y.. aus allen n Beobachtungen der k-ten Spalte durch βˆ j = y j . − y.. aus allen p Beobachtungen der j-ten Zeile Die Summe der Blockeffekte ergibt Null, ebenso die der Behandlungseffekte. yn1 yn2 y.1 y.2 ... ynp yn. y. p y Blockeffekt (Störgröße) βˆ j = y j . − y Damit schätzt man die im Modell erwarteten Werte durch yˆ jk = μˆ + αˆ k + βˆ j = y.. + ( y.k − y.. ) + ( y j . − y.. ) = y.k + y j. − y.. Entsprechend der Modellgleichung ist dann der Versuchsfehler e jk = y jk − yˆ jk = y jk − μˆ + αˆ k + βˆ j = y jk − y.k − y j . + y.. Stufenmittel von Behandlungsfaktor A Behandlungseffekt αˆ k = y.k − y ( n j =1 k =1 Blockvarianzanalyse 5 Prof. Dr. J. Schütze, FB GW ANOVA-Tabelle Blockeffekt Versuchsfehler Blockvarianzanalyse 6 Prof. Dr. J. Schütze, FB GW p p p j =1 k =1 p n k =1 n k =1 n j =1 k =1 p n j =1 SSA = ( y.k − y.. ) 2 = n ( y.k − y.. ) 2 = n αˆ k2 FG = p - 1 Beispiel SSB = ( y j . − y.. ) 2 = p ( y j . − y.. ) 2 = p βˆ j2 FG = n - 1 Blockfaktor B 1 1 15 17 16 2 18 25 20 3 15 19 17 4 21 23 22 5 19 21 17 n p j =1 n p ( SSE = e 2jk = ( y jk − yˆ jk ) 2 = y jk − ( y.. + αˆ k + βˆ j ) j =1 k =1 p n j =1 k =1 j =1 k =1 ) 2 SSY = ( y jk − y.. ) 2 = ( np − 1) s y2 Total WS 2015/16 Daten der randomisierten Blockanlage n Behandlungseffekt p SSE = e 2jk Versuchsfehler der einfachen Varianzanalyse WS 2015/16 ) Variation des Versuchsfehlers Modell Y jk = Basiswert μ + Behandlungseffekt α k + Blockeffekt β j + Versuchsfehler E jk j =1 k =1 SSY = SSA + SSB + SSE Quelle SS FG MS Testgröße A SSA p -1 MSA T = MSA/MSE B SSB n -1 Rest SSE (p -1)(n -1) Total SSY np -1 Nullhypothese: Ablehnbereich bei Risiko α: WS 2015/16 Schätzung durch μˆ = y.. Basiswert μ Behandlungsfaktor A 2 3 Behandlungsfaktor A auf p = 3 Stufen, je eine Messung in n = 5 Blöcken Besteht ein signifikanter Unterschied zwischen den Stufenmitteln von A? MSE Die Frage nach einem Einfluss des Blockfaktors steht hier vordergründig nicht, das Blocken dient nur der Reduzierung des Versuchsfehlers! Der Blockeffekt könnte aber prinzipiell analog getestet werden. α1 = α2 = ... = α p T > Fp −1,( n −1)( p −1),1−α Prof. Dr. J. Schütze, FB GW Blockvarianzanalyse 7 WS 2015/16 Prof. Dr. J. Schütze, FB GW Blockvarianzanalyse 8 Daten der randomisierten Blockanlage Effekte und Versuchsfehler Stufenmittel und Abweichungen der Stufenmittel vom Gesamtmittel y.. = 19 Behandlungsfaktor A 1 2 3 Blockfaktor B y j. = 1 n y jk βˆ j = y j. − y p k =1 1 15 17 16 16 -3 2 18 25 20 21 2 3 15 19 17 17 -2 4 21 5 23 22 22 21 17 19 0 1 p y jk n j =1 17.6 21 18.4 y.. = 19 0 αˆ k = y.k − y -1.4 2 -0.6 0 y.k = Die Abweichungen der Stufenmittel vom Gesamtmittel summieren sich jeweils zu Null! Blockfaktor B βˆ j Behandlungsfaktor A 1 2 3 1 14.6 18 15.4 -3 1 15 17 16 2 19.6 23 20.4 2 2 18 25 20 3 15.6 19 16.4 -2 3 15 19 17 21.4 3 4 21 23 22 0 5 19 21 17 4 3 19 Behandlungsfaktor A 1 2 3 Blockfaktor B Beobachtungswerte y jk y.. = 19 Modellwerte yˆ jk = y.. + αˆ k + βˆ j 20.6 24 5 17.6 21 18.4 αˆ k -1.4 2 -0.6 Versuchsfehler p n SSE = ( yˆ kj − ykj ) 2 =(14.6 − 15) 2 + (18 − 17) 2 + ... + (18.4 − 17) 2 = 14.4 k =1 j =1 WS 2015/16 Blockvarianzanalyse 9 Prof. Dr. J. Schütze, FB GW Effekte und Versuchsfehler SSY = ( y jk − y.. ) = ( np − 1) s = 14 ⋅ 8.857 = 124 2 y j =1 k =1 p n p p j =1 k =1 k =1 k =1 SSA = ( y.k − y.. ) 2 = n ( y.k − y.. ) 2 = n αˆ k2 = 5(( −1.4) 2 + 22 + ( −0.6) 2 ) = 31.6 p n n j =1 j =1 SSB = ( y j . − y.. ) 2 = p ( y j . − y.. ) 2 = p βˆ j2 j =1 k =1 p n p n p ( SSE = e 2jk = ( y jk − yˆ jk ) 2 = y jk − ( y.. + αˆ k + βˆ j ) j =1 k =1 j =1 k =1 j =1 k =1 ) 2 FG MS Testgröße A SSA = 31.6 p -1 = 2 MSA =15.8 T = MSA/MSE B SSB = 78.0 n -1 = 4 Rest SSE = 14.4 (p-1)(n-1) = 8 Total 124 np-1 = 14 Testgröße Ablehnbereich MSE =1.8 Stufenmittel von A H 0 : α1 = α 2 = α 3 MSA 15.8 T= = = 8.78 MSE 1.8 T > F2,8,0.95 = 4.48 Entscheidung: Wegen T > 4.48 wird die Gleichheit der Stufenmittelwerte abgelehnt. SSE = SSY − SSA − SSB = 124 − 31.6 − 78 = 14.4 Prof. Dr. J. Schütze, FB GW SS = 14.4 Einfacher erhält man SSE wegen SSY = SSA + SSB + SSE als WS 2015/16 Quelle Nullhypothese = 3(( −2) 2 + 32 + ( −3) 2 + 22 + 02 ) = 78 n Varianzzerlegung p 2 n Blockvarianzanalyse 10 Prof. Dr. J. Schütze, FB GW ANOVA-Tabelle Zerlegung der Beobachtungswerte in erklärte Anteile und Versuchsfehler n WS 2015/16 In gleicher Weise könnte der Blockeffekt auf Signifikanz getestet werden, was aber in dem Modell der Blockanlage nicht vordergründiges Ziel ist. Blockvarianzanalyse 11 WS 2015/16 Prof. Dr. J. Schütze, FB GW Blockvarianzanalyse 12