initialverdiproblem 3x3-matrise, diffligning [matte3]

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderatorer: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

Svar
Gjest

Hei! Holder på med dette oppgavesettet: og sliter litt med oppgave 3:
https://www.math.ntnu.no/emner/TMA4115/ ... ving12.pdf
fasit: https://www.math.ntnu.no/emner/TMA4115/ ... r/lf12.pdf

(oppgaven går ut på "Løs initialverdiproblemet Ay = y' ", når man har en 3x3-matrise (allerede funnet generell løsning), også får man oppgitt initialverdi for y(0)=y_0)

Tror jeg har forstått fremgangsmåten, men litt usikker. Fordi man kan løse ved å sette opp ett ligningssystem Ax=b, hvor systemets egenvektorer utgjør kolonnene i A, og b = y_0. Da fikk jeg dette systemet:
[tex]\left(\begin{matrix} 7 & 3 & 2 & 1 \\ -2 & -1 & 0 & 0 \\ 3 & 1 & 1 & 0 \end{matrix}\right)[/tex]

Når jeg løser dette (ved vanlig radreduksjon, har også sjekket at det er riktig) så får jeg at [tex]c_1 = -1, c_2 = 2, c_3 = 1[/tex], noe som ikke samsvarer med fasiten ([tex]c_1 =5/4, c_2 = -1/6, c_3=5/12[/tex])


Hvor er det jeg tråkker feil her? / Hva er det jeg misforstår...
Markus
Fermat
Fermat
Innlegg: 767
Registrert: 20/09-2016 13:48
Sted: NTNU

NB) Dette innlegget ble veldig langt (og jeg ser i ettertid at jeg mest sannsynlig har bommet på å svare på det du faktisk lurer på (se siste avsnitt hvis du bare er interessert i det)), men jeg prøver å forklare hvorfor det du kan gjøre i både oppgave 2 og 3 faktisk fungerer. Jeg håper andre som også kanskje lurer litt på diagonalisering kan ha nytte av denne posten.

Skriv $\mathbf{y}=\begin{pmatrix} y_1(x) \\ y_2(x) \\ y_3(x) \end{pmatrix}$ og , $\mathbf{y}'=\begin{pmatrix} y_1'(x) \\ y_2'(x) \\ y_3'(x) \end{pmatrix}$der $y_1,y_2,y_3$ er funksjoner av $x$. Dersom vi har et likningsystem av diff.likninger, si $$\begin{alignat*}{2} a_{11}y_1(x) + a_{12}y_2(x) + a_{13}y_3(x) &= y_1'(x) \\
a_{21}y_1(x)+a_{22}y_2(x) + a_{23}y_3(x) &= y_2'(x) \\
a_{31}y_1(x)+a_{32} y_2(x)+a_{33}y_3(x) &= y_3'(x) \end{alignat*}$$ så kan vi også skrive det med matriser som $A\mathbf{y}=\mathbf{y'}$. Dersom $A$ er diagonaliserbar kan vi gjøre problemet betraktelig mye enklere ved å diagonalisere matrisen. Dersom $A$ er diagonaliserbar vet vi at det finnes en ordnet basis $\gamma$ bestående av egenvektorer. Dersom $\beta$ er standardbasisen for $\mathbb{R}^3$, og $v_1,v_2,v_3$ er lineært uavhengige egenvektorer, vet vi at matrisen $Q$ (kalt koordinatskiftematrisen) sender standardbasisen til basisen bestående av egenvektorer. Det er veldig naturlig å tenke på dette som lineærtransformasjoner, nemlig identitetstransformasjonen bare at den skriver en vektor som en lineær kombinasjon av nye basisvektorer $Q:\mathbb{R}^3 \to \mathbb{R}^3$ definert ved matriserepresentasjonen $Q=[Q]_\beta^\gamma = \begin{pmatrix} v_1 & v_2 & v_3 \end{pmatrix}$. Man kan vise at denne lineærtransformasjonen er invertibel, og da vil $Q^{-1}$ sende gamma-koordinater til beta-koordinater. Hele poenget med diagonalisering er at vi skriver en lineærtransformasjon i en penere basis, slik at matriserepresentasjonen blir mye bedre. Hvis matriserepresentasjonen er en diagonalmatrise er den veldig pen.

La oss tenke på $A$ som matriserepresentasjonen til en lineær transformasjon $T: \mathbb{R}^3 \to \mathbb{R}^3$, og at vi istedenfor matriserepresentasjonen $[T]_\beta$ vil ha matriserepresentasjonen $[T]_\gamma$, der $\gamma$ er egenvektorbasisen vår. La oss starte med $T$ i $\beta$-basis. Deretter sender vi den over til $\gamma$-basisen ved hjelp av koordinatskiftematrisen våre $Q$. Nå som vi har $\gamma$-basisen kan vi anvende $T$ i $\gamma$ basis. Deretter kan vi sende den tilbake fra $\gamma$-basisien til $\beta$-basisen hvis vi ønsker svaret i $\beta$-basis. Skrevet litt annerledes $$[T]_\beta "=" (\text{send tilbake til } \beta\text{-basis}) \circ [T]_\gamma \circ (\text{send til } \gamma \text{-basis}) "=" [Q]_\beta^\gamma [T]_\gamma [Q^{-1}]_\gamma^\beta$$ Siden $T$ er diagonaliserbar, vil $[T]_\gamma$ være diagonal, så skriv $D=[T]_\gamma$ for en diagonalmatrise. Herifra ser vi hvor den velkjente formelen $A=QDQ^{-1}$ kommer fra.

Skriv nå $\mathbf{x(t)}=Q^{-1}\mathbf{y(t)}$ der $\mathbf{x}(t)=\begin{pmatrix} x_1(t) \\ x_2(t) \\ x_3(t) \end{pmatrix}$. Vi kan vise at $\mathbf{x'(t)}=Q^{-1}\mathbf{y'(t)}$ også er deriverbar. Vi får da $$(QDQ^{-1})(Q\mathbf{x})=QD\mathbf{x} = Q\mathbf{x'(t)}$$ eller med andre ord $D\mathbf{x} = \mathbf{x'}$ Dette er enkelt å løse! Dersom $\lambda_1,\lambda_2,\lambda_3$ er egenverdiene tilhørende egenvektorene $v_1,v_2,v_3$ er dette ekvivalent med likningssystemet $\lambda_1x_1(t)=x_1'(t), \lambda_2x_2(t)=x_2'(t),\lambda_3x_3(t)=x_3'(t)$. Dette er veldig enkle differensiallikninger med løsninger $x_i=C_ie^{\lambda_it}$. Husk nå på at $Q\mathbf{x(t)} = \mathbf{y(t)}$, så hvis du ganger tilbaker og sammenligner radene får du de endelige svarene for $y_1,y_2,y_3$.

Med initialverdibetingelser kan du finne de ukjente konstantene $C_1,C_2,C_3$. Da løser du likningssystemet $$\begin{pmatrix} -6 & -11 & 16 \\ 2 & 5 & -4 \\ -4 &-5 & 10 \end{pmatrix} \begin{pmatrix} y_1(0) \\ y_2(0) \\ y_3(0) \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}$$ for $C_1,C_2,C_3$. Hvis du får feil svar så må du huske på at fasiten kan være feil, eller at du har gjort en slurvefeil. Hvis du googler "gauss jordan elimination" eller "matrix solver" finner du fort noe som kan få et likningsystem over på redusert trappeform for deg.
Svar