I boka skal de viser at hvis A matrisen er diagonaliserbar har den n lineært uavhengige vektorer
at en matrise A er diagonaliserbar vil si at at en matrise er similar til en diagonalmatrise D. Det vil si at
[tex]A=P^{-1}AP[/tex]
De skriver at AP=PD hvor P er alle kolonnevektorene [tex]v_i[/tex]
som er lineært uavhengige D er en diagonamatrise slik at:
[tex]PD=[d_1v_1, d_2v_2,...,d_nv_n][/tex]
hvor[tex]d_j[/tex] er egenverdiene
og [tex]AP=[Av_1, Av_2,...,Av_n][/tex]
og AP=PD så sier man at vektorene
[tex]Av_j=d_jv_j[/tex]
da er vektorene [tex]v_1, v_2,...,v_n[/tex]
egenvektorene til A asosiert med hver egenverdi
[tex]d_1, d_2,...,d_n[/tex]
HVa menes med det?
Betyr det dette:
A ganges med en kolonnevektor hvordan og man får et produkt som er lineære radoperasjoner av matrisen A hvis disse er lineært uavhengige kan ikke de komme fra et mindre antall lineært uavhengige vektorer i A. Derfor er alle vektorene i A lineært uavhengige. Sån har jeg skjønt det men jeg skjønner ikke hva de mener i boka.
Her er forklaring i boka
http://bildr.no/view/829146
Beklager at det er uklar skrift til høyre. Men det som står er:
(uklar skrift:
-diagonalizable, then it
-is similarto the diagonal
-But AP=PD because
-eigenvectors of A associated
-follows from theorem 2 in
-n eigenvectors of the matrix
-column vectors of the invertible
- matrix A having
-but also the specific diagonal-
-has the n eigenvectors as its
-diagonal elements of the diagonal
)
Utgreining av bevis ved bruk av vektorer
Moderators: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Beklager, jeg forstår ikke hva du prøver å si.gill wrote: HVa menes med det?
Betyr det dette:
A ganges med en kolonnevektor hvordan og man får et produkt som er lineære radoperasjoner av matrisen A hvis disse er lineært uavhengige kan ikke de komme fra et mindre antall lineært uavhengige vektorer i A. Derfor er alle vektorene i A lineært uavhengige. Sån har jeg skjønt det men jeg skjønner ikke hva de mener i boka.
Allright, vi vet at hvis A har eigenverdier [tex]\lambda_1,...,\lambda_n[/tex] med eigenvektorer [tex]v_1,...,v_n[/tex] vil [tex]Av_i=\lambda_i v_i[/tex] være oppfylt for hver [tex]v_i[/tex]. Dette følger fra definisjonen av eigenverdi/eigenvektor-par. Ved å arrangere eigenvektorene i matrisen [tex]P=[v_1|...|v_n][/tex] oppnår vi [tex]AP=PD[/tex]. [tex]P[/tex] er inverterbar hvis og bare hvis [tex]A[/tex] har [tex]n[/tex] lineært uavhengige eigenvektorer, og i det tilfellet kan vi finne [tex]P^{-1}[/tex]. Da kan vi skrive [tex]A=PDP^{-1}[/tex] og dermed er [tex]A[/tex] diagonaliserbar per definisjon.
berklager jeg skal prøve å forklare det jeg mente litt bedre i hvert fall
A ganges med en kolonnevektor v og man får et produkt som er lineære radoperasjoner av matrisen A ganget med en konstant fra v
Vist under her er venste side av første ledd i matrisen
A[tex]v_i[/tex]=[tex]d_i[/tex][tex]v_i[/tex]
[tex]\begin{bmatrix} a & b \\ c & d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]
siden den er lik en lineært uavhengig matrise [tex]v_i[/tex] ganget med en konstant (som er høyresiden jeg ikke har skrevet ned over) og den består av kombinasjoner av kolonnevektore av A ganget med en konstant fra en av komponentene til [tex]v_i[/tex] og slike kombinasjoner utgjør alle kolonnene som er lik de lineære kolonnevektorene til [tex]v_i[/tex] så kan ikke et sett lineært uavhengige vektore i A bli flere lineært uavhengige vektorer ved kombinasjoner seg imellom derfor må A ha like mange lineært uavhengige vektorer som [tex]v_i[/tex] siden alle de lineært uavhengige vektorene som blir skapt med kombinasjoner av A utgjør et sett n lineært uavhengige vektorer.
Men det du forklarer det med er uansett (selv om min forklaring skulle holde mål) kanskje mer etter normalen. Jeg skjønner at P er inverterbar bare hvis den består av n uavhengige kolonnevektorer fordi at da kan man forenkle den til identitetsmatrisen og skape [tex]P^{-1}[/tex] ved å utføre de samme radopersjonene på identitetsmatrisen. Men hvorfor er A bestående av n lineært uavhengige vektorer. I boka står det:
sitat:
AP=PD
But the matrix P is invertible because its column vectors are linearly indcepndent. So we may multiply on the right by [tex]P^{-1}[/tex] to obtain
[tex]A=PDP^{-1}[/tex] (6)
Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D. It can be rewritten as [tex]D=P^{-1}AP[/tex], but the form in (6) is the one that should be memorized.
sitat slutt
lurer på hva de mener særlig med
Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D
A ganges med en kolonnevektor v og man får et produkt som er lineære radoperasjoner av matrisen A ganget med en konstant fra v
Vist under her er venste side av første ledd i matrisen
A[tex]v_i[/tex]=[tex]d_i[/tex][tex]v_i[/tex]
[tex]\begin{bmatrix} a & b \\ c & d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]
siden den er lik en lineært uavhengig matrise [tex]v_i[/tex] ganget med en konstant (som er høyresiden jeg ikke har skrevet ned over) og den består av kombinasjoner av kolonnevektore av A ganget med en konstant fra en av komponentene til [tex]v_i[/tex] og slike kombinasjoner utgjør alle kolonnene som er lik de lineære kolonnevektorene til [tex]v_i[/tex] så kan ikke et sett lineært uavhengige vektore i A bli flere lineært uavhengige vektorer ved kombinasjoner seg imellom derfor må A ha like mange lineært uavhengige vektorer som [tex]v_i[/tex] siden alle de lineært uavhengige vektorene som blir skapt med kombinasjoner av A utgjør et sett n lineært uavhengige vektorer.
Men det du forklarer det med er uansett (selv om min forklaring skulle holde mål) kanskje mer etter normalen. Jeg skjønner at P er inverterbar bare hvis den består av n uavhengige kolonnevektorer fordi at da kan man forenkle den til identitetsmatrisen og skape [tex]P^{-1}[/tex] ved å utføre de samme radopersjonene på identitetsmatrisen. Men hvorfor er A bestående av n lineært uavhengige vektorer. I boka står det:
sitat:
AP=PD
But the matrix P is invertible because its column vectors are linearly indcepndent. So we may multiply on the right by [tex]P^{-1}[/tex] to obtain
[tex]A=PDP^{-1}[/tex] (6)
Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D. It can be rewritten as [tex]D=P^{-1}AP[/tex], but the form in (6) is the one that should be memorized.
sitat slutt
lurer på hva de mener særlig med
Equation (6) expresses the n times n matrix A having n linearly independent eigenvectors in terms of the eigenvector matrix P and the diagonal eigenvalue matrix D
ærbødigst Gill
Det de gjør er vel bare å si at dersom A er diagonaliserbar er A sine egenvektorer de samme som kolonnevektorene til P, og siden P er inverterbar er kolonnevektorene til P lineært uavhengige, så det følger at egenvektorene til A er lineært uavhengige.
Det du sier i siste avsnitt er bare at når A er diagonaliserbar med D=P^-1 A P, består D av egenverdiene til A, og P´s kolonnevektorer er de tilhørende egenvektorene til A.
Det du sier i siste avsnitt er bare at når A er diagonaliserbar med D=P^-1 A P, består D av egenverdiene til A, og P´s kolonnevektorer er de tilhørende egenvektorene til A.
A behøver ikke ha lineært uavhengige rad-/kolonnevektorer. Det skal da greit kunne gjøres å finne en singulær diagonaliserbar matrise. Eksempel:
[tex]A=\left(\begin{matrix} 2 & 4 \\ 1 & 2 \end{matrix}\right)[/tex]
gir [tex]|\lambda I-A|=\lambda^2-4\lambda=0[/tex]
som gir [tex]\lambda_1=4 , \lambda_2=0[/tex] (Alle singulære matrise har minst én eigenverdi =0).
Dette gir eigenvektorer [tex]v_1=(1,2)[/tex] og [tex]v_2=(1,-2)[/tex] (Sjekk selv).
[tex]v_1[/tex] og [tex]v_2[/tex] er lineært uavhengige, altså er [tex]A[/tex] diagonaliserbar.
[tex]A=\left(\begin{matrix} 2 & 4 \\ 1 & 2 \end{matrix}\right)[/tex]
gir [tex]|\lambda I-A|=\lambda^2-4\lambda=0[/tex]
som gir [tex]\lambda_1=4 , \lambda_2=0[/tex] (Alle singulære matrise har minst én eigenverdi =0).
Dette gir eigenvektorer [tex]v_1=(1,2)[/tex] og [tex]v_2=(1,-2)[/tex] (Sjekk selv).
[tex]v_1[/tex] og [tex]v_2[/tex] er lineært uavhengige, altså er [tex]A[/tex] diagonaliserbar.
altså skal ikke si jeg blir klok på det sytemet her men
i boka står det definert at A bare erdiagonaliserbar hvis den har n lineært uavhengige egenvektorer.
http://bildr.no/view/829864
det står nederst til høyre på ligningen. Ligning (6) komer fra siden før som jeg har notert ned tidligere i den nest sister posten min før denne. (6) er:
[tex]|A=PDP^{-1}[/tex]
og den skal vise at A er lineært uavhengig gitt at P består av lineært uavhengige vektorer. Jeg skjønner ikke hvorfor A fra (6) må være av lineært uavhengige vektorer.
Det skal vel være
[tex]|A-\lambda I=0[/tex]
i boka står det definert at A bare erdiagonaliserbar hvis den har n lineært uavhengige egenvektorer.
http://bildr.no/view/829864
det står nederst til høyre på ligningen. Ligning (6) komer fra siden før som jeg har notert ned tidligere i den nest sister posten min før denne. (6) er:
[tex]|A=PDP^{-1}[/tex]
og den skal vise at A er lineært uavhengig gitt at P består av lineært uavhengige vektorer. Jeg skjønner ikke hvorfor A fra (6) må være av lineært uavhengige vektorer.
Det skal vel være
[tex]|A-\lambda I=0[/tex]
ærbødigst Gill
Boken din sier aldri at A må ha n lineært uavhengige kolonnevektorer. Det må derimot P ha.
Men det står at hvis den er diagonaliserbar har den n lineært uavhengige egenvektorer. Stemmer ikke det?
Og det bevises ved at
Her er forklaring i boka
http://bildr.no/view/829146
Beklager at det er uklar skrift til høyre. Men det som står er:
(uklar skrift:
-diagonalizable, then it
-is similarto the diagonal
-But AP=PD because
-eigenvectors of A associated
-follows from theorem 2 in
-n eigenvectors of the matrix
-column vectors of the invertible
- matrix A having
-but also the specific diagonal-
-has the n eigenvectors as its
-diagonal elements of the diagonal
)
Og det bevises ved at
Her er forklaring i boka
http://bildr.no/view/829146
Beklager at det er uklar skrift til høyre. Men det som står er:
(uklar skrift:
-diagonalizable, then it
-is similarto the diagonal
-But AP=PD because
-eigenvectors of A associated
-follows from theorem 2 in
-n eigenvectors of the matrix
-column vectors of the invertible
- matrix A having
-but also the specific diagonal-
-has the n eigenvectors as its
-diagonal elements of the diagonal
)
ærbødigst Gill
At A har n lineært uavhengige eigenvektorer er ikke det samme som at A har n lineært uavhengige kolonnevektorer. Det er noe helt annet. 

Her stopper det for meg. Vi har det generelle eksemplet
[tex]\begin{bmatrix} a b \\ c d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{j,1} \\ v_{j,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]=[tex]d_j[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]
hvorfor består da matrisen A helt til venstre av egenvektoren [tex]v_i[/tex]
Det vil være en av egenvektorene,[tex]v_j[/tex], som brukes her altså ser vi på:
[tex]Av_j=d_jv_j[/tex]
[tex]\begin{bmatrix} a b \\ c d \end{bmatrix}[/tex][tex]\begin{bmatrix} v_{j,1} \\ v_{j,2} \end{bmatrix}[/tex]=[tex]\begin{bmatrix} av_{1,1} + bv_{1,2} \\ cv_{1,1} + dv_{1,2} \end{bmatrix}[/tex]=[tex]d_j[/tex][tex]\begin{bmatrix} v_{1,1} \\ v_{1,2} \end{bmatrix}[/tex]
hvorfor består da matrisen A helt til venstre av egenvektoren [tex]v_i[/tex]
Det vil være en av egenvektorene,[tex]v_j[/tex], som brukes her altså ser vi på:
[tex]Av_j=d_jv_j[/tex]
ærbødigst Gill
Matrisen "består" ikke av [tex]v[/tex]! Det fins ulike matriser som spenner samme eigenrom. Eigenrommet til [tex]A[/tex] er definert som nullrommet av [tex]\lambda I-A[/tex], der [tex]\lambda[/tex] er en eigenverdi av A.
Det er viktig at du ikke blander sammen de forskjellige matriserommene. Enhver matrise har
-Et radrom
-Et kolonnerom
-Et nullrom
-Et eller flere eigenrom. Dvs, like mange eigenrom som [tex]A[/tex] har eigenverdier.
Disse rommene har ikke noe med hverandre å gjøre. (Bortsett fra at nullrommet er definert ved kolonnerommet.
Det er viktig at du ikke blander sammen de forskjellige matriserommene. Enhver matrise har
-Et radrom
-Et kolonnerom
-Et nullrom
-Et eller flere eigenrom. Dvs, like mange eigenrom som [tex]A[/tex] har eigenverdier.
Disse rommene har ikke noe med hverandre å gjøre. (Bortsett fra at nullrommet er definert ved kolonnerommet.