Side 1 av 1

Statistikk/sannsynlighetsregning, chi-squared-greie

Lagt inn: 14/05-2009 13:07
av FredrikM
Apply the law of large numbers to show that [tex]\chi_\eta^2/\eta[/tex] approaches 1 as [tex]\eta[/tex] becomes large.
Her er altså [tex]\eta[/tex] degrees of freedom. Det jeg har problemer med å forstå, er hva det vil si at en tilfeldig variabel (random variable) går mot 1. Hva vil i så fall sannsynlighetsfordelingen til 1 være?

Om noen kunne forklare pittelitt, evt noen enkle linker, så ville jeg blitt glad.

Lagt inn: 14/05-2009 19:31
av drgz
jeg mener å huske at den fordelingen går mot en standard normalfordeling når antall frihetsgrader øker, så det kan vel kanskje være noe i det du kan benytte?

Lagt inn: 14/05-2009 23:29
av FredrikM
Men hva betyr det at en tilfeldig variabel går mot 1?

Det stemmer nok at den går mot en standard normalfordeling når frihetsgradene øker, pga central limit theorem, men vel.

Lagt inn: 15/05-2009 07:15
av drgz
FredrikM skrev:Men hva betyr det at en tilfeldig variabel går mot 1?

Det stemmer nok at den går mot en standard normalfordeling når frihetsgradene øker, pga central limit theorem, men vel.
ettersom du skal vise at [tex]\chi_{\eta}^{2}/\eta[/tex] går mot en, så ville jeg tolke det som

[tex]\displaystyle\lim_{\eta\to\infty}\frac{\chi_{\eta}^{2}}{\eta}=1[/tex], med andre ord vise at [tex]\chi_{\eta}^{2}\to\eta[/tex].

da tror jeg du kan benytte det faktum at forventningsverdien til en slik fordeling er lik antall frihetsgrader. :)

men det kan også tenkes at jeg er helt på bærtur, blitt noen år siden jeg hadde statistikk nå :o

Lagt inn: 15/05-2009 09:43
av Markonan
Jeg er enig jeg.

Den stokastiske variabelen er kjikvadratfordelt, og den deler du på skalaren eta. En stokastisk variabel delt på et tall gir en ny stokastisk variabel. Og denne stokastiske variabelen går mot én slik som forklart i posten over.

Lagt inn: 15/05-2009 11:55
av FredrikM
Jeg vet at (la Z være standard normalfordelt)

[tex]\chi_\eta^2=Z_1^2+...+Z_\eta^2[/tex]

Dette betyr at jeg skal vise at
[tex]\lim_{\eta\to\infty}\frac{Z_1^2+...+Z_\eta^2}{\eta} går mot én.[/tex]
Liten oppdatering på løsningsprosessen.

Ser at jeg gjorde noen feil i utledningene mine ovenfor. Fortsetter før feilen.

Altså skal jeg vise at

[tex]\lim_{\eta \to \infty}\frac{\chi_\eta^2}{\eta}=\lim_{\eta\to\infty}\frac{Z_1^2+...+Z_\eta^2}{\eta}[/tex]

Men den siste overgangen er bare lik "sample mean" [tex]\overset{\text{-}}{Z}[/tex]. Problemet kommer igjen; nå skal jeg iflg oppgaveteksten bruke "law of large numbers" til å vise at [tex]\lim_{\eta \to \infty}E[( \overset{\text{-}}{Z}-\mu)^2]=0[/tex]

Oj, oj. Revelation på gang! Nå ser jeg jo at [tex]E[( \overset{\text{-}}{Z}-\mu)^2] = V(\overset{\text{-}}{Z})[/tex]

Og det er nettopp det law of large numbers snakker om. Eller, mer presist (og kanskje også irriterende, for jeg har skrevet for mye):
If [tex]X_1,...,X_n[/tex] is a random sample from a distribution with mean [tex]\mu[/tex] and variance [tex]\sigma^2[/tex], then [tex]\overset{\text{-}}{X}[/tex] converges to [tex]\mu[/tex]
a) In mean square [tex]E[(\overset{\text{-}}{X}-\mu)^2] \to 0[/tex] as [tex]n \to \infty[/tex].
b) In probability [tex]P(|\overset{\text{-}}{X}-\mu| \geq \epsilon) \to 0[/tex] as [tex]n \to \infty[/tex].
Så dermed følger resultatet fra law of large numbers (som btw er bevist vha Chebyshev), og I'm done.

*tegne firkant*

Lagt inn: 15/05-2009 21:02
av drgz
FredrikM skrev: Men igjen; hva betyr det at en stokastisk variabel går mot én? Betyr det at forventningsverdien går mot én?
som nevnt, så tolker jeg problemet som at du skal vise at den stokatiske variabelen konvergerer mot forventningsverdien, og ikke mot 1.

men ser ut som at du er inne på noe, muligens dette også kan hjelpe litt?

http://en.wikipedia.org/wiki/Convergenc ... _variables :)

Lagt inn: 16/05-2009 01:00
av drgz
hadde dette vært lov(?) så kunne det vært en fin løsning, men tviler på at det stemmer :p

[tex]\lim_{\eta\to\infty}\frac{\chi_{\eta}^{2}}{\eta}=1\,\,\,\,\,\,\,\,\,\, |\mathbb{E}\{\cdot\}[/tex]

[tex]\mathbb{E}\{\lim_{\eta\to\infty}\}=\lim_{\eta\to\infty}\mathbb{E}\{\cdot\}[/tex]

[tex]\lim_{\eta\to\infty}\frac{\mathbb{E}\{\chi_{\eta}^{2}\}}{\eta}=\mathbb{E}\{1\}=1[/tex]

[tex]\lim_{\eta\to\infty}\frac{\eta}{\eta}=1[/tex]

[tex]\lim_{\eta\to\infty}1=1[/tex]

[tex]1\equiv 1[/tex]

Lagt inn: 17/05-2009 23:09
av FredrikM
[tex]\lim_{\eta\to\infty}\frac{\chi_{1}^2+...+\chi_{1}^2}{\eta}[/tex]
Forsetter på min egen lille utledning:

[tex]\lim_{\eta\to\infty}\frac{\chi_{1}^2+...+\chi_{1}^2}{\eta}=\lim_{\eta\to\infty}\frac{\eta\chi_1^2}{\eta}=\chi_1^2[/tex]

Men hva betyr dette?

Lagt inn: 18/05-2009 23:16
av zeta
Heisann, jeg kan jo prøve å komme med et lite svar, men jeg synes selv konvergens i sannsynlighetsregning er vanskelig å forstå, så jeg er åpen for enhver kritikk av mine argumenter.

Det viktigste først; vi har to typer konvergens i statistikken: konvergens i sannsynlighet og konvergens i fordeling. Dette tilfellet er konvergens i sannsynlighet. Vi sier at en følge tilfeldige variabler [tex]X_1, X_2, \ldots [/tex] konvergerer i sannsynlighet mot en tilfeldig variabel [tex]X[/tex] (eller en konstant [tex]\mu[/tex]) dersom for enhver [tex]\epsilon > 0[/tex]

[tex]\lim_{n \rightarrow \infty} P(|X_n - X| \geq \epsilon) = 0[/tex]

eventuelt

[tex]\lim_{n \rightarrow \infty} P(|X_n - \mu| \geq \epsilon) = 0[/tex].

Her vil jeg bruke det andre tilfellet. Jeg viser at en følge tilfeldige variabler [tex]\frac{X_1}{1}, \frac{X_2}{2}, \ldots [/tex] slik at [tex]X_i \sim \chi^{2}_{i} [/tex] for [tex]i=1,2,\ldots[/tex] konvergerer i sannsynlighet mot 1.

Må rege ut:

[tex]P(|\frac{X_n}{n}-1| \geq \epsilon) [/tex]

Du må vise at denne størrelsen går mot null. Kan komme tilbake til det, nå er jeg for trøtt :). Kanskje vha Chebushev?

Vi har da vist at

[tex] \frac{X_n}{n} \rightarrow 1[/tex] når [tex]n \rightarrow \infty[/tex] dersom [tex]X_i \sim \chi^{2}_{i}[/tex].

Håper det hjelper på forståelsen :)

Lagt inn: 19/05-2009 16:10
av zeta
Da kan jeg fullføre det jeg begynte på:

[tex]P(|\frac{X_n}{n}-1| \geq \epsilon)[/tex]

[tex]= P((\frac{X_n}{n}-1)^2 \geq \epsilon^2)[/tex]

[tex]\leq \frac{E(\frac{X_n}{n}-1)}{\epsilon^2}[/tex]

[tex]= \frac{E(\frac{X_n}{n}-E(\frac{X_n}{n}))}{\epsilon^2}[/tex]

[tex]= \frac{Var(\frac{X_n}{n})}{\epsilon^2}[/tex]

[tex]= \frac{\frac{1}{n^2} \cdot 2n}{\epsilon^2}[/tex]

[tex]= \frac{2}{n\epsilon^2}[/tex]

... som jo går mot 0 når [tex]n \rightarrow \infty [/tex]. Ulikheten kommer fra Chebychevs ulikhet.

Var det forståelig? :)

Lagt inn: 19/05-2009 21:43
av FredrikM
Takker for langt og omstendig svar.
Var det forståelig?
Svaret er "tja".

[tex]P((\frac{X_n}{n}-1)^2 \geq \epsilon^2) \leq \frac{E(\frac{X_n}{n}-1)}{\epsilon^2}[/tex]
Denne overgangen henger jeg ikke med på.
[tex] \frac{X_n}{n} \rightarrow 1[/tex]
Så at en tilfeldig variabel går mot én betyr at sannsynligheten for at X blir én er én? (eller formelt [tex]P(|X-1| \geq \eps)=0[/tex])?

Men tror jeg forstår en del mer nå. Får la det synke litt inn, og så lese innlegget nok en gang om en stund.

Lagt inn: 20/05-2009 20:41
av zeta
Hei igjen. Ulikheten kommer fra Chebychevs ulikhet, som er utrolig anvendelig i slike situasjoner. Den har mange varianter, alt etter hvor du befinner deg i matematikken og den versjonen jeg har benyttet her er formulert slik:

La [tex]X[/tex] være en tilfeldig variabel og la [tex]g(x)[/tex] være en ikke-negativ funksjon. Da har vi for enhver [tex]\epsilon > 0[/tex]

[tex]P(g(X) \geq \epsilon) \leq \frac{Eg(X)}{r}[/tex]

Beviset er kort og greit, sikkert bare å google hvis du er interessert.

Ja, du har riktig. [tex]{X_n}[/tex] konvergerer i sannsynlighet mot [tex]X[/tex] dersom sannsynligheten for at [tex]X_n[/tex] skal ligge utenfor et hvilket som helst intervall sentert om [tex]X[/tex] går mot null når n går mot uendelig. Dette er vanlig "epsilon-delta"-tankegang.

Zeta

Lagt inn: 21/05-2009 10:18
av zeta
zeta skrev: [tex]\leq \frac{E(\frac{X_n}{n}-1)}{\epsilon^2}[/tex]

[tex]= \frac{E(\frac{X_n}{n}-E(\frac{X_n}{n}))}{\epsilon^2}[/tex]
Her glemte jeg å opphøye i annen. Det skal selvsagt være

[tex]\leq \frac{E(\frac{X_n}{n}-1)^2}{\epsilon^2}[/tex]

[tex]= \frac{E(\frac{X_n}{n}-E(\frac{X_n}{n}))^2}{\epsilon^2}[/tex]

Lagt inn: 28/05-2009 13:38
av FredrikM
Jeg vet at (la Z være standard normalfordelt)

[tex]\chi_\eta^2=Z_1^2+...+Z_\eta^2[/tex]

Dette betyr at jeg skal vise at
[tex]\lim_{\eta\to\infty}\frac{Z_1^2+...+Z_\eta^2}{\eta}[/tex] går mot én.
Liten oppdatering på løsningsprosessen.

Ser at jeg gjorde noen feil i utledningene mine ovenfor. Fortsetter før feilen.

Altså skal jeg vise at

[tex]\lim_{\eta \to \infty}\frac{\chi_\eta^2}{\eta}=\lim_{\eta\to\infty}\frac{Z_1^2+...+Z_\eta^2}{\eta}[/tex]

Men den siste overgangen er bare lik "sample mean" [tex]\overset{\text{-}}{Z}[/tex]. Problemet kommer igjen; nå skal jeg iflg oppgaveteksten bruke "law of large numbers" til å vise at [tex]\lim_{\eta \to \infty}E[( \overset{\text{-}}{Z}-\mu)^2]=0[/tex]

Oj, oj. Revelation på gang! Nå ser jeg jo at [tex]E[( \overset{\text{-}}{Z}-\mu)^2] = V(\overset{\text{-}}{Z})[/tex]

Og det er nettopp det law of large numbers snakker om. Eller, mer presist (og kanskje også irriterende, for jeg har skrevet for mye):
If [tex]X_1,...,X_n[/tex] is a random sample from a distribution with mean [tex]\mu[/tex] and variance [tex]\sigma^2[/tex], then [tex]\overset{\text{-}}{X}[/tex] converges to [tex]\mu[/tex]
a) In mean square [tex]E[(\overset{\text{-}}{X}-\mu)^2] \to 0[/tex] as [tex]n \to \infty[/tex].
b) In probability [tex]P(|\overset{\text{-}}{X}-\mu| \geq \epsilon) \to 0[/tex] as [tex]n \to \infty[/tex].
Så dermed følger resultatet fra law of large numbers (som btw er bevist vha Chebyshev), og I'm done.

*tegne firkant*

EDIT: La merke til at jeg har redigert en tidligere post av meg ved et uhell til å bli lik denne. Uffda.