Egenskaper til regresjonsestimatorene
En enkel lineær regresjonsmodell har tre modellparametre, \(\beta_0,\) \(\beta_1\) og \(\sigma^2.\) Ved å benytte minste kvadraters metode får man estimatorer for \(\beta_0\) og \(\beta_1,\) mens ved å benytte sannsynlighetsmaksimeringsprinsippet får man sannsynlighetsmaksimeringsestimatorer for alle tre parametrene. På temasiden du ser på nå ser vi på egenskapene til disse estimatorene. Vi regner ut forventning og varians for estimatorene og diskuterer hvilke sannsynlighetsfordeling de har.
Egenskaper til regresjonsestimatorene
Vi ønsker her å bestemme egenskapene til estimatorene \[\begin{align}\widehat{\beta}_1 &= \frac{\sum_{i=1}^n (x_i-\bar{x})Y_i}{\sum_{i=1}^n (x_i-\bar{x})^2},\\ \widehat{\beta}_0 &= \bar{Y} - \widehat{\beta}_1 \bar{x}\\ \widehat{\sigma}^2 &= \frac{1}{n}\sum_{i=1}^n \left(Y_i-\widehat{\beta}_0-\widehat{\beta}_1x_i\right)^2.\end{align}\]
Estimatorene \(\widehat{\beta}_0\) og \(\widehat{\beta}_1\) fremkommer både ved å benytte minste kvadraters metode og som sannsynlighetsmaksimeringsestimatorer. Estimatoren \(\widehat{\sigma}^2\) får man ved å bruke sannsynlighetsmaksimeringsestimatorer, men ikke fra minste kvadraters metode. Vi formulerer nå teoremer som angir egenskaper til hver av de tre estimatorene. Utgangspunktet for å bevise disse teoremene er modellantagelsene spesifisert når vi utledet sannsynlighetsmaksimeringsestimatorene for en enkel lineær regresjonsmodell, dvs. vi antar at \(Y_1,Y_2\ldots,Y_n\) er uavhengige og at \[Y_i\sim \text{N}(\beta_0+\beta_1 x_i,\sigma^2).\]
Til slutt på denne temasiden formulerer vi teoremer som etablerer at noen størrelser relatert til de tre estimatorene er uavhengige. Disse uavhengighetsegenskapene er viktige når man skal gjøre inferens om regresjonsparametrene.
Kommentar
Teoremet gir altså at \[\widehat{\beta}_1 \sim \text{N}\!\left( \beta_1,\frac{\sigma^2}{\sum_{i=1}^n (x_i-\bar{x})^2}\right).\] Ved å standardisere får vi \[\frac{\widehat{\beta}_1-\beta_1}{\sqrt{\frac{\sigma^2}{\sum_{i=1}^n (x_i-\bar{x})^2}}}\sim\text{N}(0,1).\] Dette siste uttrykket blir viktig når man skal konstruere et konfidensintervall eller gjøre en hypotesetest om \(\beta_1.\)
Kommentar
Teoremet gir altså at \[\widehat{\beta}_0 \sim \text{N}\!\left( \beta_0,\frac{\sigma^2 \sum_{i=1}^n x_i^2}{n\sum_{i=1}^n (x_i-\bar{x})^2}\right).\] Ved å standardisere får vi \[\frac{\widehat{\beta}_0-\beta_0}{\sqrt{\frac{\sigma^2 \sum_{i=1}^n x_i^2}{n\sum_{i=1}^n (x_i-\bar{x})^2}}}\sim\text{N}(0,1).\] Dette siste uttrykket blir viktig når man skal konstruere et konfidensintervall eller gjøre en hypotesetest om \(\beta_0.\)
Forventningsverdien til \(\widehat{\sigma}^2\)
Siden forventningsverdien i en kjikvadratfordeling er lik antall frihetsgrader får vi fra resultatet i teoremet over at \[\text{E}\!\left[\frac{n\widehat{\sigma}^2}{\sigma^2}\right] = n-2.\] Ved å bruke at konstanter kan settes utenfor forventningsverdioperatoren \(\text{E}\) får man dermed \[\text{E}\!\left[\frac{n\widehat{\sigma}^2}{\sigma^2}\right] = \frac{n}{\sigma^2}\text{E}\!\left[\widehat{\sigma}^2\right] = n-2\] som gir at \[\text{E}\!\left[\widehat{\sigma}^2\right]= \frac{n-2}{n}\sigma^2.\] Vi ser dermed at sannsynlighetsmaksimeringsestimatoren \(\widehat{\sigma}^2\) ikke er forventningsrett, den er forventningsskjev.
Forventningsrett estimator for \(\sigma^2\)
Siden sannsynlighetsmaksimeringsestimatoren for \(\sigma^2,\) \(\widehat{\sigma}^2,\) er forventningsskjev er det ikke vanlig å benytte denne som estimator for \(\sigma^2\). Man benytter i stedet estimatoren \[S^2 = \frac{n}{n-2}\, \widehat{\sigma}^2 = \frac{1}{n-2}\sum_{i=1}^n \left(Y_i-\widehat{\beta}_0-\widehat{\beta}_1x_i\right)^2.\] Ut fra forventningsverdien til \(\widehat{\sigma}^2\) følger det at \(S^2\) er forventningsrett, \[\begin{align}\mbox{E}\!\left[S^2\right] &= \mbox{E}\!\left[ \frac{n}{n-2}\, \widehat{\sigma}^2\right]\\ &= \frac{n}{n-2}\mbox{E}\!\left[ \widehat{\sigma}^2\right]\\ &= \frac{n}{n-2}\cdot \frac{n-2}{n}\, \sigma^2\\ &= \sigma^2,\end{align}\] og siden \[\frac{(n-2)S^2}{\sigma^2}=\frac{n\widehat{\sigma}^2}{\sigma^2}\] følger det fra resultatet i teoremet over at \[\frac{(n-2)S^2}{\sigma^2} \sim \chi^2_{n-2}.\]
Uavhengighetsegenskaper mellom estimatorene
Det er noen uavhengighetsegenskaper mellom de tre estimatorene \(\widehat{\beta}_0,\) \(\widehat{\beta}_0\) og \(S^2,\) som blir viktige når man gjøre inferens om regresjonsparametrene \(\beta_0\) og \(\beta_1.\) Vi formulerer her disse uavhengighetsegenskapene i to teoremer. Det er kun resultatene i disse teoremene som er med i pensum i TMA4240/TMA4245, bevisene for teoremene er ikke innfor pensum i TMA4240/TMA4245 Statistikk.
Kommentar til teoremene
Man skal merke seg at uavhengighetsegenskapene som etableres i disse to teoremene ikke er intuitivt opplagte. For eksempel, siden \(\widehat{\beta}_0\) og \(S^2\) begge er funksjoner av de samme stokastiske variablene \(Y_1,Y_2,\ldots,Y_n\) skulle man intuitivt tro at de er avhengige, noe som altså er feil. Dette viser at vår intuisjon ikke alltid er riktig, og dermed hvor viktig det er at vi har en presis matematisk definisjon av begrepene vi benytter.