Fisher information til uniform fordeling

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

Svar
Gjest

Hei, sitter her med følgende oppgave:

"Consider the data model [tex]y_i \sim U\Big[\theta - \frac{1}{2}, \theta + \frac{1}{2}\Big][/tex] i.i.d. for [tex]i = 1, ..., n[/tex].

Compute the scalar Fisher information matrix [tex]J(\theta)[/tex] and the Cramer-Rao bound.
Interpret the unusual result. Can you relate it to what happens in ML estimation?"

Jeg startet med
[tex]J(\theta) = -E_{Y | \theta} \frac{\partial}{\partial \theta}\Big(\frac{\partial \ln f(Y|\theta)}{\partial \theta}\Big)^T[/tex]

For at fordelingen skal integreres til 1 må [tex]f(Y | \theta) = 1[/tex] i hele intervallet. [tex]\implies \frac{\partial \ln 1}{\partial \theta} = 0 \implies J(\theta) = 0[/tex].

[tex]CRB = J(\theta)^-1 = \infty[/tex]. Noe som virker helt meningsløst. Den laveste mulige variansen er [tex]\infty[/tex]? Hva er det jeg har misforstått her?

På forhånd takk!
Svar