Page 1 of 1

Utgreining av bevis ved bruk av vektorer

Posted: 21/02-2011 18:25
by gill
I boka skal de viser at hvis A matrisen er diagonaliserbar har den n lineært uavhengige vektorer

at en matrise A er diagonaliserbar vil si at at en matrise er similar til en diagonalmatrise D. Det vil si at


[tex]A=P^{-1}AP[/tex]

De skriver at AP=PD hvor P er alle kolonnevektorene [tex]v_i[/tex]
som er lineært uavhengige D er en diagonamatrise slik at:

[tex]PD=[d_1v_1, d_2v_2,...,d_nv_n][/tex]

hvor[tex]d_j[/tex] er egenverdiene

og [tex]AP=[Av_1, Av_2,...,Av_n][/tex]

og AP=PD så sier man at vektorene

[tex]Av_j=d_jv_j[/tex]

da er vektorene [tex]v_1, v_2,...,v_n[/tex]

egenvektorene til A asosiert med hver egenverdi
[tex]d_1, d_2,...,d_n[/tex]

HVa menes med det?

Betyr det dette:

A ganges med en kolonnevektor hvordan og man får et produkt som er lineære radoperasjoner av matrisen A hvis disse er lineært uavhengige kan ikke de komme fra et mindre antall lineært uavhengige vektorer i A. Derfor er alle vektorene i A lineært uavhengige. Sån har jeg skjønt det men jeg skjønner ikke hva de mener i boka.

Her er forklaring i boka

http://bildr.no/view/829146

Beklager at det er uklar skrift til høyre. Men det som står er:
(uklar skrift:

-diagonalizable, then it

-is similarto the diagonal

-But AP=PD because

-eigenvectors of A associated

-follows from theorem 2 in

-n eigenvectors of the matrix

-column vectors of the invertible

- matrix A having

-but also the specific diagonal-

-has the n eigenvectors as its

-diagonal elements of the diagonal

)

Re: Utgreining av bevis ved bruk av vektorer

Posted: 21/02-2011 19:06
by espen180
gill wrote: HVa menes med det?

Betyr det dette:

A ganges med en kolonnevektor hvordan og man får et produkt som er lineære radoperasjoner av matrisen A hvis disse er lineært uavhengige kan ikke de komme fra et mindre antall lineært uavhengige vektorer i A. Derfor er alle vektorene i A lineært uavhengige. Sån har jeg skjønt det men jeg skjønner ikke hva de mener i boka.
Beklager, jeg forstår ikke hva du prøver å si.

Allright, vi vet at hvis A har eigenverdier [tex]\lambda_1,...,\lambda_n[/tex] med eigenvektorer [tex]v_1,...,v_n[/tex] vil [tex]Av_i=\lambda_i v_i[/tex] være oppfylt for hver [tex]v_i[/tex]. Dette følger fra definisjonen av eigenverdi/eigenvektor-par. Ved å arrangere eigenvektorene i matrisen [tex]P=[v_1|...|v_n][/tex] oppnår vi [tex]AP=PD[/tex]. [tex]P[/tex] er inverterbar hvis og bare hvis [tex]A[/tex] har [tex]n[/tex] lineært uavhengige eigenvektorer, og i det tilfellet kan vi finne [tex]P^{-1}[/tex]. Da kan vi skrive [tex]A=PDP^{-1}[/tex] og dermed er [tex]A[/tex] diagonaliserbar per definisjon.

Posted: 22/02-2011 10:15
by gill
berklager jeg skal prøve å forklare det jeg mente litt bedre i hvert fall

A ganges med en kolonnevektor v og man får et produkt som er lineære radoperasjoner av matrisen A ganget med en konstant fra v



Vist under her er venste side av første ledd i matrisen
A[tex]v_i[/tex]=[tex]d_i[/tex][tex]v_i[/tex]


[tex]\begin{bmatrix} a & b \\ c & d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]

siden den er lik en lineært uavhengig matrise [tex]v_i[/tex] ganget med en konstant (som er høyresiden jeg ikke har skrevet ned over) og den består av kombinasjoner av kolonnevektore av A ganget med en konstant fra en av komponentene til [tex]v_i[/tex] og slike kombinasjoner utgjør alle kolonnene som er lik de lineære kolonnevektorene til [tex]v_i[/tex] så kan ikke et sett lineært uavhengige vektore i A bli flere lineært uavhengige vektorer ved kombinasjoner seg imellom derfor må A ha like mange lineært uavhengige vektorer som [tex]v_i[/tex] siden alle de lineært uavhengige vektorene som blir skapt med kombinasjoner av A utgjør et sett n lineært uavhengige vektorer.


Men det du forklarer det med er uansett (selv om min forklaring skulle holde mål) kanskje mer etter normalen. Jeg skjønner at P er inverterbar bare hvis den består av n uavhengige kolonnevektorer fordi at da kan man forenkle den til identitetsmatrisen og skape [tex]P^{-1}[/tex] ved å utføre de samme radopersjonene på identitetsmatrisen. Men hvorfor er A bestående av n lineært uavhengige vektorer. I boka står det:

sitat:

AP=PD

But the matrix P is invertible because its column vectors are linearly indcepndent. So we may multiply on the right by [tex]P^{-1}[/tex] to obtain

[tex]A=PDP^{-1}[/tex] (6)

Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D. It can be rewritten as [tex]D=P^{-1}AP[/tex], but the form in (6) is the one that should be memorized.

sitat slutt


lurer på hva de mener særlig med

Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D

Posted: 22/02-2011 14:06
by Gustav
Det de gjør er vel bare å si at dersom A er diagonaliserbar er A sine egenvektorer de samme som kolonnevektorene til P, og siden P er inverterbar er kolonnevektorene til P lineært uavhengige, så det følger at egenvektorene til A er lineært uavhengige.

Det du sier i siste avsnitt er bare at når A er diagonaliserbar med D=P^-1 A P, består D av egenverdiene til A, og P´s kolonnevektorer er de tilhørende egenvektorene til A.

Posted: 22/02-2011 16:11
by gill
bejklager at jegspør flere ganger. Men hvorfor må A bestå av lineært uavhengige vektorer.

AP=PD

P består av lineært uavhengige vektorer. Hvordan ser man fra AP=PD at A og består av lineært uavhengige vektorer.

Posted: 22/02-2011 16:46
by espen180
A behøver ikke ha lineært uavhengige rad-/kolonnevektorer. Det skal da greit kunne gjøres å finne en singulær diagonaliserbar matrise. Eksempel:

[tex]A=\left(\begin{matrix} 2 & 4 \\ 1 & 2 \end{matrix}\right)[/tex]

gir [tex]|\lambda I-A|=\lambda^2-4\lambda=0[/tex]

som gir [tex]\lambda_1=4 , \lambda_2=0[/tex] (Alle singulære matrise har minst én eigenverdi =0).

Dette gir eigenvektorer [tex]v_1=(1,2)[/tex] og [tex]v_2=(1,-2)[/tex] (Sjekk selv).

[tex]v_1[/tex] og [tex]v_2[/tex] er lineært uavhengige, altså er [tex]A[/tex] diagonaliserbar.

Posted: 22/02-2011 17:28
by gill
altså skal ikke si jeg blir klok på det sytemet her men

i boka står det definert at A bare erdiagonaliserbar hvis den har n lineært uavhengige egenvektorer.

http://bildr.no/view/829864

det står nederst til høyre på ligningen. Ligning (6) komer fra siden før som jeg har notert ned tidligere i den nest sister posten min før denne. (6) er:

[tex]|A=PDP^{-1}[/tex]

og den skal vise at A er lineært uavhengig gitt at P består av lineært uavhengige vektorer. Jeg skjønner ikke hvorfor A fra (6) må være av lineært uavhengige vektorer.

Det skal vel være

[tex]|A-\lambda I=0[/tex]

Posted: 22/02-2011 17:54
by espen180
Boken din sier aldri at A må ha n lineært uavhengige kolonnevektorer. Det må derimot P ha.

Posted: 22/02-2011 20:05
by gill
Men det står at hvis den er diagonaliserbar har den n lineært uavhengige egenvektorer. Stemmer ikke det?

Og det bevises ved at

Her er forklaring i boka

http://bildr.no/view/829146

Beklager at det er uklar skrift til høyre. Men det som står er:
(uklar skrift:

-diagonalizable, then it

-is similarto the diagonal

-But AP=PD because

-eigenvectors of A associated

-follows from theorem 2 in

-n eigenvectors of the matrix

-column vectors of the invertible

- matrix A having

-but also the specific diagonal-

-has the n eigenvectors as its

-diagonal elements of the diagonal

)

Posted: 22/02-2011 20:09
by espen180
At A har n lineært uavhengige eigenvektorer er ikke det samme som at A har n lineært uavhengige kolonnevektorer. Det er noe helt annet. :wink:

Posted: 23/02-2011 10:45
by gill
Her stopper det for meg. Vi har det generelle eksemplet



[tex]\begin{bmatrix} a b \\ c d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{j,1} \\ v_{j,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]=[tex]d_j[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]

hvorfor består da matrisen A helt til venstre av egenvektoren [tex]v_i[/tex]

Det vil være en av egenvektorene,[tex]v_j[/tex], som brukes her altså ser vi på:

[tex]Av_j=d_jv_j[/tex]

Posted: 23/02-2011 15:48
by espen180
Matrisen "består" ikke av [tex]v[/tex]! Det fins ulike matriser som spenner samme eigenrom. Eigenrommet til [tex]A[/tex] er definert som nullrommet av [tex]\lambda I-A[/tex], der [tex]\lambda[/tex] er en eigenverdi av A.

Det er viktig at du ikke blander sammen de forskjellige matriserommene. Enhver matrise har
-Et radrom
-Et kolonnerom
-Et nullrom
-Et eller flere eigenrom. Dvs, like mange eigenrom som [tex]A[/tex] har eigenverdier.

Disse rommene har ikke noe med hverandre å gjøre. (Bortsett fra at nullrommet er definert ved kolonnerommet.