Hei
Jeg lurer på om det finnes noe tilsvarende som minste kvadraters metode for generelle vektorrom?
Altså la oss si at vi har et indreprodukt rom V, med basis B = {v1, ..., vn}, og en indreproduktfunksjon <u,v> = r.
Og vi har p vektorer i V, som ikke nødvendigvis er lineært uavhengige eller ortogonale {k1,...kp}. I tillegg har vi en vektor b i V.
Vi ønsker å finne p reelle vekter, c1 til cp slik at.
c1*k1+...+cp*kp = b*, slik at b* er så nær b som mulig, når lengden er definert ved indreproduktet.
Det første jeg tenkte var å gjøre som Rn, ved å definere A = [ [k1]_B.........[kp]_B], og så løse ligningen
A'*A*c = A'*_B, men da har jeg jo ikke brukt indreproduktfunksjonen <u,v>.
([k]_B og _B, er transformasjonen fra det generelle vektorrommet til Rn, med hensyn på basisen B.)
Finnes det noen standardmåte for å gjøre dette?
lineær algebra, minste kvadrats metode i generelle vektorrom
Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Ja, si at du har et n-dimensjonalt indreproduktrom V og $p<n$ antall vektorer ($u_1,u_2,...,u_p$) som utspenner et underrom $U\subset V$. For en gitt vektor v i V fins det en unik vektor u i U som minimerer |v-u|.
Fremgangsmåten for å finne u er å "ortonormalisere" $u_i$-ene via Gram-Schmidt, og deretter projisere v ned på de ortonormale vektorene som utspenner U. Det hele er beskrevet i enhver bok i lineæralgebra.
http://en.wikipedia.org/wiki/Gram%E2%80 ... dt_process
Fremgangsmåten for å finne u er å "ortonormalisere" $u_i$-ene via Gram-Schmidt, og deretter projisere v ned på de ortonormale vektorene som utspenner U. Det hele er beskrevet i enhver bok i lineæralgebra.
http://en.wikipedia.org/wiki/Gram%E2%80 ... dt_process
-
- Noether
- Innlegg: 34
- Registrert: 09/05-2013 13:58
Hei, takk for svar.
Jeg ser at dette gir en løsning, men hvis for eksempel u'iene ikke er lineært uavhengig, vil det bli flere svar? Altså jeg vet at projeksjonen er unik, men vektene som angir den er jo formelt det som er løsningen?
I Rn tar man hensyn til dette ved at A'*A ikke er inverterbar, og når man da løser A'*A*x=A'*b får man frie variabler. Hva hvordan får man fram disse frie variablene i den generelle tilfellet?
Jeg ser at dette gir en løsning, men hvis for eksempel u'iene ikke er lineært uavhengig, vil det bli flere svar? Altså jeg vet at projeksjonen er unik, men vektene som angir den er jo formelt det som er løsningen?
I Rn tar man hensyn til dette ved at A'*A ikke er inverterbar, og når man da løser A'*A*x=A'*b får man frie variabler. Hva hvordan får man fram disse frie variablene i den generelle tilfellet?
Vet ikke om jeg helt skjønner hva du mener.student1989 skrev:Hei, takk for svar.
Jeg ser at dette gir en løsning, men hvis for eksempel u'iene ikke er lineært uavhengig, vil det bli flere svar? Altså jeg vet at projeksjonen er unik, men vektene som angir den er jo formelt det som er løsningen?
I Rn tar man hensyn til dette ved at A'*A ikke er inverterbar, og når man da løser A'*A*x=A'*b får man frie variabler. Hva hvordan får man fram disse frie variablene i den generelle tilfellet?
Vi er for det første nødt til å ha orthogonale vektorer for å kunne projisere i det generelle tilfellet.
Tenker du på systemer Ax=b der b ikke ligger i kolonnerommet til A? I så fall er $A^+b$ den vektoren som minimerer avstanden mellom Ax og b. (der $A^+$ er pseudoinversen)
Sammenhengen mellom de to tilfellene er at du kan se på kolonnevektorene til A som de p vektorene $u_i$ du snakket om i den første posten. Koeffisientene er dermed komponentene til vektoren x, og b er det samme som v.