Minste kvadraters metode
Anta at vi har observasjonspar (xi,yi),i=1,2,…,n og at vi antar en enkel lineær regresjonsmodell for disse dataene. Vi ønsker så å benytte de observerte verdiene til å bestemme den linja som passer best til de observerte dataene, dvs vi ønsker å finne estimater ˆβ0 og ˆβ1 for de to parametrene β0 og β1.
På temasiden du ser på nå diskuterer vi hvordan vi kan gjøre dette ved å benytte minste kvadraters metode. Et alternativ til denne metoden er å benytte sannsynlighetsmaksimeringsprinsippet og dermed regne ut sannsynlighetsmaksimeringsestimatorene.
Minste kvadraters metode
I minste kvadraters metode definerer man en «avstand» mellom observasjonspunktene og den tilpassede, eller estimerte, linja. Man lar så den estimerte linja være den linja som minimerer denne avstanden.
Notasjon
Notasjonen SSE definert i teoremet over er en forkortelse for «Sum of Squares of the Errors». På norsk er det vanlig å omtale dette som en kvadratsum.
Illustrasjon av SSE
Kriteriet SSE som blir benyttet i minste kvadraters metode er illustrert i figur 2, hvor observasjonsparene er vist i rødt, den estimerte regresjonslinja er blå og differensene yi−ˆyi som inngår i uttrykket for SSE er vist i grønt.
Minste kvadraters estimater
Ved å minimere kvadratsummen SSE med hensyn på ˆβ0 og ˆβ1 finner vi minste kvadratsums estimatorene.
Minste kvadraters estimatorene
Fra minste kvadraters estimatene får vi de tilhørende minste kvadraters estimatorene ved å erstatte de observerte verdier yi med tilhørende stokastiske variabler Yi i disse uttrykkene, ˆβ1=∑ni=1(xi−ˉx)Yi∑ni=1(xi−ˉx)2ˆβ0=ˉY−ˆβ1ˉx, der ˉY=1n∑ni=1Yi. Egenskapene til disse estimatorene blir diskutert på temasiden «Egenskaper til regresjonsestimatorene».