Regresjon analyse
Lagt inn: 09/05-2019 14:59
Hei,
Jeg jobber med noen eksamensoppgaver, og trenger veldig hjelp.
Jeg har dessverre ikke løsningsforslag og håper noen kan hjelpe meg her inne
Oppgaven lyder som følgende:
Anta vi har en linear regresjonsmodel:
[tex]U_i=\alpha_kY_{k,i}+u_i,[/tex] $i=1,2 .... , n,$
Hvor k er en indeks som vil bli brukt senere(det vil være den k'te kovariat i en mer generell lineær regresjonsmodell)
Det inste kvadrate estimaterer for $\alpha_k$ som vi vil kalle for $\hat{a}_k$, det er minimerer av:
[tex]L_k(a_k)= \sum_{i=1}^{n}(U_i-a_kY_{k,i})^2.[/tex]
Vis at første orden likningen [tex]\frac{d}{da_k}L_k(a_k)=0[/tex] har den eneste løsningen:
[tex]\hat{a}=\frac{\sum ^n_{i=1}Y_{k,i}X_k }{\sum ^n_{i=1}L^{2}_{k,i}}[/tex]
Det står også at at jeg kan anta at dette er minimumet av $L_k(a_k)$
Tusen takk for all hjelp
Jeg jobber med noen eksamensoppgaver, og trenger veldig hjelp.
Jeg har dessverre ikke løsningsforslag og håper noen kan hjelpe meg her inne
Oppgaven lyder som følgende:
Anta vi har en linear regresjonsmodel:
[tex]U_i=\alpha_kY_{k,i}+u_i,[/tex] $i=1,2 .... , n,$
Hvor k er en indeks som vil bli brukt senere(det vil være den k'te kovariat i en mer generell lineær regresjonsmodell)
Det inste kvadrate estimaterer for $\alpha_k$ som vi vil kalle for $\hat{a}_k$, det er minimerer av:
[tex]L_k(a_k)= \sum_{i=1}^{n}(U_i-a_kY_{k,i})^2.[/tex]
Vis at første orden likningen [tex]\frac{d}{da_k}L_k(a_k)=0[/tex] har den eneste løsningen:
[tex]\hat{a}=\frac{\sum ^n_{i=1}Y_{k,i}X_k }{\sum ^n_{i=1}L^{2}_{k,i}}[/tex]
Det står også at at jeg kan anta at dette er minimumet av $L_k(a_k)$
Tusen takk for all hjelp