Processing math: 100%

Minste kvadraters metode

Anta at vi har observasjonspar (xi,yi),i=1,2,,n og at vi antar en enkel lineær regresjonsmodell for disse dataene. Vi ønsker så å benytte de observerte verdiene til å bestemme den linja som passer best til de observerte dataene, dvs vi ønsker å finne estimater ˆβ0 og ˆβ1 for de to parametrene β0 og β1.

På temasiden du ser på nå diskuterer vi hvordan vi kan gjøre dette ved å benytte minste kvadraters metode. Et alternativ til denne metoden er å benytte sannsynlighetsmaksimeringsprinsippet og dermed regne ut sannsynlighetsmaksimeringsestimatorene.

Minste kvadraters metode

I minste kvadraters metode definerer man en «avstand» mellom observasjonspunktene og den tilpassede, eller estimerte, linja. Man lar så den estimerte linja være den linja som minimerer denne avstanden.

Notasjon

Notasjonen SSE definert i teoremet over er en forkortelse for «Sum of Squares of the Errors». På norsk er det vanlig å omtale dette som en kvadratsum.

Illustrasjon av SSE

Kriteriet SSE som blir benyttet i minste kvadraters metode er illustrert i figur 2, hvor observasjonsparene er vist i rødt, den estimerte regresjonslinja er blå og differensene yiˆyi som inngår i uttrykket for SSE er vist i grønt.

Figur 1: Illustrasjon av yiˆyi som inngår i kriteriet i minste kvadraters metode.

Minste kvadraters estimater

Ved å minimere kvadratsummen SSE med hensyn på ˆβ0 og ˆβ1 finner vi minste kvadratsums estimatorene.

Minste kvadraters estimatorene

Fra minste kvadraters estimatene får vi de tilhørende minste kvadraters estimatorene ved å erstatte de observerte verdier yi med tilhørende stokastiske variabler Yi i disse uttrykkene, ˆβ1=ni=1(xiˉx)Yini=1(xiˉx)2ˆβ0=ˉYˆβ1ˉx, der ˉY=1nni=1Yi. Egenskapene til disse estimatorene blir diskutert på temasiden «Egenskaper til regresjonsestimatorene».