Variansanalyse

Fra testwiki
Sideversjon per 19. sep. 2022 kl. 17:04 av imported>4ing (standard rekkefølge på seksjoner)
(diff) ← Eldre sideversjon | Nåværende sideversjon (diff) | Nyere sideversjon → (diff)
Hopp til navigering Hopp til søk

Variansanalyse (ANOVA, fra det engelske «analysis of variance») er en fellesbetegnelse for en rekke statistiske metoder for å teste likhet mellom to eller flere utvalg, der én eller flere faktorer gjør seg gjeldende. Variansanalyse er i de enkle tilfellene et alternativ til Z/t-testene for å sammenligne gjennomsnitt i populasjoner.

De to grunnleggende formene for variansanalyse beskrives gjerne som 'enveis' og 'toveis' variansanalyse. I enveistilfellet hensyntar man kun én egenskap som varierer mellom gruppene, i toveistilfellet hensyntar man i tillegg egenskaper som varierer mellom individene i gruppene.

Variansanalyse med én faktor

Det enkleste tilfellet for variansanalyse er tilfellet der man har I grupper med like størrelser J, og ønsker å sammenligne gjennomsnittene til gruppene. Den brukes gjerne der man ønsker å sammenligne forskjeller i respons på forskjellige behandlinger (treatments) i forskjellige grupper.

Hypotesen man tester er for et antall populasjoner[1] I

  1. H0: μ1=μ2==μI
  2. HA: minst to av gruppene er forskjellige.

Forutsetningene for testen er at alle observasjonene er uavhengige normalfordelte tilfeldige variable med lik varians.

Kvadratavvik og varians

De fundamentale størrelsene i variansanalysen er kvadratavvik totalt (SST), kvadratavvik mellom individ og gruppe (SSE) og kvadratavvik mellom gruppe og totalt gjennomsnitt (SSTr). Disse er definert ved[2]
SST=ij(xijx..)2=ijxij2x..2IJ
SSTr=ij(xi.x..)2=iXi.2Jx..2IJ
SSE=ij(xijxi.)2

Sammenhengen mellom disse gir opphav til den fundamentale ANOVA-identiteten SST = SSTr + SSE.[3] Videre har vi at[4]
MSTr=SSTrI1
MSE=SSEI(J1)

Dette gir opphavet til det man kaller en ANOVA-tabell:[5]

Variasjonskilde Frihetsgrader Kvadratavvik Varians f-verdi
Grupper I - 1 SSTr MSTr = SSTr/(I - 1) MSTr/MSE
Error I(J - 1) SSE MSE = SSE/[I(J - 1)]
Total IJ - 1 SST

Test av nullhypotesen

For å teste nullhypotesen, bruker man ofte en f-test. Testobservatoren er gitt ved[4]
f=MSTrMSE

som er tilnærmet FI1,I(J1)-fordelt. Forkastningsområdet for H0 er fFα,I1,I(J1) for ønsket signifikansnivå α

Tukeys prosedyre


F-testen er ment for å sammenligne gjennomsnittene i flere populasjoner, men den gir ikke svar på hvilke av populasjonene som er signifikant ulike hverandre. Tukeys prosedyre bruker en Q-fordeling til å beregne hvilke intervaller gjennomsnittene i populasjonen kan ligge i for å være signifikant like hverandre. For et signifikansnivå α definerer vi w som

w=Qα,I,I(J1)MSE/J

De gjennomsnittene som har større differanse enn w er være signifikant ulike, med signifikansnivå α[6]

Relasjon til t-testen

For tilfellet med to populasjoner, vil variansanalyse og en alminnelig t-test gi samme resultat for hypotesen H0: μ1=μ2 mot HA: μ1μ2. T-testen er mer fleksibel, da man og kan teste hvorvidt et gjennomsnitt er større enn, eller mindre enn et annet.

For I>2 kan man i prinsippet også utføre t-tester for alle kombinasjoner av grupper, men dette vil gi større sannsynlighet for type 1-feil.[7]

Referanser

  1. Devore/Berk 2007, side 540.
  2. Devore/Berk 2007, side 544.
  3. Devore/Berk 2007, side 547.
  4. 4,0 4,1 Devore/Berk 2007, side 545.
  5. Devore/Berk 2007, side 548.
  6. Devore/Berk 2007, side 552.
  7. Devore/Berk 2007, side 557, 563.

Kilder

  • Jay L. Devore and Kenneth N. Berk: Modern Mathematical Statistics with Applications. Thomson 2007.

Mal:Statistikk

Mal:Autoritetsdata