lineær algebra, minste kvadrats metode i generelle vektorrom

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

Svar
student1989
Noether
Noether
Innlegg: 34
Registrert: 09/05-2013 13:58

Hei

Jeg lurer på om det finnes noe tilsvarende som minste kvadraters metode for generelle vektorrom?

Altså la oss si at vi har et indreprodukt rom V, med basis B = {v1, ..., vn}, og en indreproduktfunksjon <u,v> = r.

Og vi har p vektorer i V, som ikke nødvendigvis er lineært uavhengige eller ortogonale {k1,...kp}. I tillegg har vi en vektor b i V.

Vi ønsker å finne p reelle vekter, c1 til cp slik at.

c1*k1+...+cp*kp = b*, slik at b* er så nær b som mulig, når lengden er definert ved indreproduktet.

Det første jeg tenkte var å gjøre som Rn, ved å definere A = [ [k1]_B.........[kp]_B], og så løse ligningen

A'*A*c = A'*_B, men da har jeg jo ikke brukt indreproduktfunksjonen <u,v>.
([k]_B og _B, er transformasjonen fra det generelle vektorrommet til Rn, med hensyn på basisen B.)

Finnes det noen standardmåte for å gjøre dette?
Gustav
Tyrann
Tyrann
Innlegg: 4562
Registrert: 12/12-2008 12:44

Ja, si at du har et n-dimensjonalt indreproduktrom V og $p<n$ antall vektorer ($u_1,u_2,...,u_p$) som utspenner et underrom $U\subset V$. For en gitt vektor v i V fins det en unik vektor u i U som minimerer |v-u|.

Fremgangsmåten for å finne u er å "ortonormalisere" $u_i$-ene via Gram-Schmidt, og deretter projisere v ned på de ortonormale vektorene som utspenner U. Det hele er beskrevet i enhver bok i lineæralgebra.

http://en.wikipedia.org/wiki/Gram%E2%80 ... dt_process
student1989
Noether
Noether
Innlegg: 34
Registrert: 09/05-2013 13:58

Hei, takk for svar.

Jeg ser at dette gir en løsning, men hvis for eksempel u'iene ikke er lineært uavhengig, vil det bli flere svar? Altså jeg vet at projeksjonen er unik, men vektene som angir den er jo formelt det som er løsningen?

I Rn tar man hensyn til dette ved at A'*A ikke er inverterbar, og når man da løser A'*A*x=A'*b får man frie variabler. Hva hvordan får man fram disse frie variablene i den generelle tilfellet?
Gustav
Tyrann
Tyrann
Innlegg: 4562
Registrert: 12/12-2008 12:44

student1989 skrev:Hei, takk for svar.

Jeg ser at dette gir en løsning, men hvis for eksempel u'iene ikke er lineært uavhengig, vil det bli flere svar? Altså jeg vet at projeksjonen er unik, men vektene som angir den er jo formelt det som er løsningen?

I Rn tar man hensyn til dette ved at A'*A ikke er inverterbar, og når man da løser A'*A*x=A'*b får man frie variabler. Hva hvordan får man fram disse frie variablene i den generelle tilfellet?
Vet ikke om jeg helt skjønner hva du mener.

Vi er for det første nødt til å ha orthogonale vektorer for å kunne projisere i det generelle tilfellet.

Tenker du på systemer Ax=b der b ikke ligger i kolonnerommet til A? I så fall er $A^+b$ den vektoren som minimerer avstanden mellom Ax og b. (der $A^+$ er pseudoinversen)


Sammenhengen mellom de to tilfellene er at du kan se på kolonnevektorene til A som de p vektorene $u_i$ du snakket om i den første posten. Koeffisientene er dermed komponentene til vektoren x, og b er det samme som v.
Svar