Lineær algebra :p

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderators: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

Gitt

[tex]\mathbf{A}=\mathbf{W}\mathbf{T}\mathbf{W}[/tex]

der

[tex]\mathbf{A}=\begin{bmatrix}a_2 & a_1 \\ a_1 & a_2\end{bmatrix},\,\mathbf{W}=\begin{bmatrix}w_{11} & w_{12} \\ w_{21} & w_{22}\end{bmatrix},\,\mathbf{T}=\begin{bmatrix}t_2 & t_1 \\ t_1 & t_2\end{bmatrix}[/tex].

Vil det gå an å løse ut for [tex]\mathbf{W}[/tex] på noe vis ([tex]\mathbf{W}=\text{blablabla}[/tex])? Har prøvd så og si det meste jeg kan komme på som jeg lærte for x antall år siden, men uansett hva jeg gjør så blir det bare et nytt matriseprodukt som ikke lar seg løse.

Noen tips? Evnt bekreftelse på at det ikke går ;)
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

I og med at dette er et ikke-lineært likningssystem så vil du ikke ved ren manipulasjon av likningen ende opp med et lineært likningssystem.
drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

Det er sant. Men du har ikke tilfeldigvis noen tips til ting man kanskje kan se på for å komme nærmere noe ønskelig resultat?
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

Tja, hvis det faktisk nå er slik at AT er diagonaliserbar, kan man ganske enkelt finne en del løsninger i hvert fall:

La [tex]Y = WT[/tex], og likningen blir [tex]AT = WTWT=Y^2[/tex]. Skriv [tex]AT = P^{-1}DP[/tex].

Hvis [tex]D = \begin{bmatrix} a & 0 \\ 0 & b \end{bmatrix}[/tex], la [tex]D_1,D_2,D_3,D_4[/tex] henholdsvis være [tex]\begin{bmatrix} \sqrt{a} & 0 \\ 0 & \sqrt{b} \end{bmatrix},\begin{bmatrix} -\sqrt{a} & 0 \\ 0 & \sqrt{b} \end{bmatrix},\begin{bmatrix} \sqrt{a} & 0 \\ 0 & -\sqrt{b} \end{bmatrix},\begin{bmatrix} -\sqrt{a} & 0 \\ 0 & -\sqrt{b} \end{bmatrix} [/tex]

Vi har her valgt våre D_i slik at [tex]D_i^2 = D[/tex].

I så fall har vi fire løsninger for Y:[tex] P^{-1}D_1P, \ P^{-1}D_2P, \ P^{-1}D_3P, \ P^{-1}D_4P[/tex].

Siden Y = WT, gir dette opphav til et lineært likningssystem med fire likninger og fire variabler som kan løses ved radreduksjon. Hvis T videre er invertibel kan man sette W = blablabla som du ønsket!

Om dette faktisk nå er alle løsningene er jeg ikke sikker på. Merk at dette gjerne kan gi komplekse løsninger, men regningen forblir den samme.

Om AT ikke er diagonaliserbar kan du prøve å trikse litt med diverse andre faktoriseringer som kanskje kan fungere, men som jeg dessverre har glemt.
drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

Tusen takk for hjelpen - hadde helt glemt at jeg kunne prøve å diagonalisere. Men kom ingen vei da jeg ikke klarte å se at jeg kan bruke AT = WTWT. Skal definitivt se om jeg kan komme noe videre med dette her - virker lovende i alle fall!

Jeg tror med stor sannsynlighet at T er invertibel, og komplekse løsninger er noe jeg forventer ettersom alle elementene i alle matrisene er komplekse (representerer amplitude og fase for transmisjon gjennom to prober for målinger, som "dessverre" må karakteriseres før de kan benyttes til å måle på det man faktisk ønsker å måle på.)

Får neppe gjort så veldig mye før etter nyttår, men skal skrive her hvis det fører fram!

Ellers god jul! :)
espen180
Gauss
Gauss
Posts: 2578
Joined: 03/03-2008 15:07
Location: Trondheim

Eventuellt kan du jo bare skrive ut ligningssettet og løse på tungvindtmåten eller med Wolfram alpha.
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

Jeg tror ikke det er mulig å løse det på "tungvindmåten" generelt. Mistenker og tror at man vil ende opp med polynomer av grad mye større enn 5. Numerisk er det eneste reelle alternativet jeg kan tenke meg.
espen180
Gauss
Gauss
Posts: 2578
Joined: 03/03-2008 15:07
Location: Trondheim

Åssen går det til? Vi har to matriser som inneholder [tex]w_{ij}[/tex], så vi forventer vel 2. grads polynomer?

Bruker indeksnotasjon:

[tex]AB=A_{ij}B_{jk}=\left[\sum_{j=1}^2 A_{ij}B_{jk} \right][/tex]

[tex]A_{ij}=W_{ik}T_{kl}W_{lj}[/tex]

[tex]T_{12}=T_{21}[/tex] og [tex]T_{11}=T_{22}[/tex], så

[tex]A_{ij}=T_{11}\left(W_{i1}W_{1j}+W_{i2}W_{2j}\right)+T_{12}\left(W_{i1}W_{2j}+W_{i2}W_{1j}\right)[/tex]

Med mindre jeg tuller fælt, ser dette ut som 2. grads polynomer.
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

Hva skjer hvis du forsøker å løse for variablene analytisk?
espen180
Gauss
Gauss
Posts: 2578
Joined: 03/03-2008 15:07
Location: Trondheim

Da ser det ut som vi får rimelig kompliserte rasjonale funksjoner med høyere ordens tellere og nevnere. Ja vel, ser at det blir umulig.
drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

espen180 wrote:Åssen går det til? Vi har to matriser som inneholder [tex]w_{ij}[/tex], så vi forventer vel 2. grads polynomer?
Prøvde å løse dette med Maple før jeg spurte her, men som Charlatan har påpekt blir det ganske stygge ligninger. Ettersom jeg ikke er så kjent med Maple så kan det også hende at det ikke var noen entydig løsning heller, type sånn som MATLAB gir beskjed om ved å gi svar på formen RootOf(blablabla).

Så numerisk er nok tingen her. Nå er det bare å vente til uka og se om man kommer noen vei med målt data. :)
drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

Det viste seg at det var en dustete lineær transformasjon til inne i bildet som jeg ikke ble opplyst om til å begynne med, og som gjør det hele litt verre igjen.

I stedet for [tex]\hat{A}=W\hat{T}W[/tex] er problemet [tex]\hat{A}=W\hat{T}W^^T[/tex]

der både [tex]\hat{A}[/tex] og [tex]\hat{T}[/tex] er symmetriske. Ettersom jeg ikke finner noen måte å forenkle denne på blir det nok bare brute-force i MATLAB.
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

Hvis T er en reell matrise, har den en diagonalisering av ortogonale matriser, dvs [tex]T = Q^TDQ[/tex]. I så fall er
[tex]WTW^T=WQ^TDQW^T=(WQ^T)D(WQ^T)^T = (WQ^T)D_iD_i^T(WQ^T)^T=(WQ^TD_i)(WQ^TD_i)^T[/tex]
der D_i er en av de fire forskjellige foreslåtte kvadratrøttene for D.

La [tex]Y = WQ^TD_i.[/tex] La [tex]P^TSP[/tex] være en tilsvarende diagonalisering av A, dersom A er rell. I så fall har vi likningen

[tex]P^TSP = YY^T[/tex], dvs [tex]S = PYY^TP^T=(PY)(PY)^T[/tex].

Vi har øyeblikkelig minst fire løsninger til dette: [tex]PY=S_j[/tex], der S_j er en av de fire forskjellige foreslåtte kvadratrøttene til S. Vi må altså løse

[tex]PWQ^TD_i=S_j[/tex]. Lar vi [tex]X = PWQ^T[/tex], og løser gjennom radreduksjon [tex]XD_i = S_j[/tex], får vi [tex]W = P^TXQ[/tex].


Hvis T videre er invertibel, er D_i invertibel, så vi får direkte [tex]W = P^TS_jD_i^{-1}Q[/tex]

Dette gir 4x4=16 ikke nødvendigvis distinkte løsninger for W. Faktisk ser vi at dette gir 4 forskjellige løsninger dersom T er invertibel ved å sammenligne fortegn på verdiene i matrisene D_i og S_j, og færre dersom A ikke er invertibel. I begge tilfeller holder det å velge kun èn S_j, la oss si S_1. Altså får vi 4 ikke nødvendigvis distinkte løsninger for W. Og selvsagt er noen av løsningene ikke unike som løsninger i seg selv dersom T ikke er invertibel(de kan være linjer i planet).

Jeg kan heller ikke i dette tilfellet garantere at vi har funnet alle løsningene.

Hvis A og T er komplekse kan vi følge samme argument. De er ortogonalt diagonaliserbare siden de er hermitiske, og av samme grunn er egenverdiene relle, så [tex]D_iD_i^T=D_i^2[/tex] og [tex]S_1S_1^T=S_1^2[/tex], så metoden fungerer. Jeg antar selvsagt at ^T er komplekskonjugattransposisjon i dette tilfellet.
drgz
Fermat
Fermat
Posts: 757
Joined: 24/12-2008 23:22

Dette blir mer og mer komplisert ser jeg ;)

Alle matrisene mine er dessverre komplekse, og etter sjekk i MATLAB så har de fleste komplekse egenverdier også (er egentlig [tex]2\times2\times M[/tex] matriser, men ligningen holder for hver enkelt [tex]m\in[1,M][/tex], så det har ikke noe å si).

Ettersom du har gjort en del arbeid her, så skal jeg i alle fall gjøre et ærlig forsøk på å implementere det i MATLAB, og se om det kanskje blir bedre enn løsningen jeg har fått til med diverse optimalisering/minimeringsrutiner i MATLAB.

Ellers betyr [tex]A^T[/tex] i det opprinnelige uttrykke vanlig transponert, og ikke Hermitisk transponert ([tex]A^H[/tex]), så er litt usikker på om det er ødeleggende for argumentasjonen din. Hvis du har tatt utgangspunkt i Hermitisk transponert hele veien, så blir vel [tex]WTW^T=(WQ^H)D_iD_i^T(WQ^T)^T[/tex]?

Dette gitt at man tar utgangspunkt i diagonalisering med unitære matriser, type [tex]A = Q^HDQ[/tex], der [tex]Q^HQ=I[/tex].

Ellers må jeg si tusen takk for innspill, uansett om det fører fram for min del eller ei. Jeg får i alle fall frisket opp mye av triksene jeg lærte i lineær algebra for mange år siden. :)
Charlatan
Guru
Guru
Posts: 2499
Joined: 25/02-2007 17:19

Mener du at W^T betydde vanlig transposisjon av W (ikke konjugerttransposisjon)? Og er A og T symmetriske med hensyn på ^T (vanlig transposisjon) eller symmetriske med hensyn på konjugerttransposisjon?
Post Reply