Heisann, jeg kan jo prøve å komme med et lite svar, men jeg synes selv konvergens i sannsynlighetsregning er vanskelig å forstå, så jeg er åpen for enhver kritikk av mine argumenter.
Det viktigste først; vi har to typer konvergens i statistikken: konvergens i sannsynlighet og konvergens i fordeling. Dette tilfellet er konvergens i sannsynlighet. Vi sier at en følge tilfeldige variabler [tex]X_1, X_2, \ldots [/tex] konvergerer i sannsynlighet mot en tilfeldig variabel [tex]X[/tex] (eller en konstant [tex]\mu[/tex]) dersom for enhver [tex]\epsilon > 0[/tex]
[tex]\lim_{n \rightarrow \infty} P(|X_n - X| \geq \epsilon) = 0[/tex]
eventuelt
[tex]\lim_{n \rightarrow \infty} P(|X_n - \mu| \geq \epsilon) = 0[/tex].
Her vil jeg bruke det andre tilfellet. Jeg viser at en følge tilfeldige variabler [tex]\frac{X_1}{1}, \frac{X_2}{2}, \ldots [/tex] slik at [tex]X_i \sim \chi^{2}_{i} [/tex] for [tex]i=1,2,\ldots[/tex] konvergerer i sannsynlighet mot 1.
Må rege ut:
[tex]P(|\frac{X_n}{n}-1| \geq \epsilon) [/tex]
Du må vise at denne størrelsen går mot null. Kan komme tilbake til det, nå er jeg for trøtt
![Smile :)](./images/smilies/icon_smile.gif)
. Kanskje vha Chebushev?
Vi har da vist at
[tex] \frac{X_n}{n} \rightarrow 1[/tex] når [tex]n \rightarrow \infty[/tex] dersom [tex]X_i \sim \chi^{2}_{i}[/tex].
Håper det hjelper på forståelsen
![Smile :)](./images/smilies/icon_smile.gif)