Tusen takk for forklaringen!
Gausseliminasjon virker mer og mer magisk. I tillegg til at det ikke endrer nullrommet eller radrommet til en matrise, så endrer den heller ikke forholdet av lineær avhengighet mellom søylene, selv om den endrer søylerommet?
Radrom og søylerom
Moderators: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa
Ja, riktig.Aleks855 wrote:Tusen takk for forklaringen!
Gausseliminasjon virker mer og mer magisk. I tillegg til at det ikke endrer nullrommet eller radrommet til en matrise, så endrer den heller ikke forholdet av lineær avhengighet mellom søylene, selv om den endrer søylerommet?
Plutarco og Vektormannen: Enorm takk til dere begge. Føler jeg naila alle LinAlg-spørsmålene på eksamen idag. Satser på A, med forbehold om hvordan det gikk med grafikkprogrammeringa.
Å finne basis for nullrom, radrom og søylerom var en egen oppgave, og jeg fikk skrevet mye i tillegg til å gjøre selve utregninga.
Lurer samtidig på en ting.
Etter å ha funnet egenverdier og -vektorer til en matrise, skulle vi diagonalisere matrisen, og finne D og K slik at:
[tex]A = KDK^{-1}[/tex]
Det gikk greit. Men så kom oppgaven Finn et uttrykk for [tex]A^n[/tex], som jeg svarte på med følgende. Lurer på om noen kan bekrefte at det er en tilfredsstillende metode å vise det på.
[tex]A = KDK^{-1} \\ \\ A^n = (KDK^{-1})^n \\ A^n = KDK^{-1}KDK^{-1} \cdots KDK^{-1} \\ A^n = KDIDI \cdots IDK^{-1} \\ A^n = KDDD \cdots DK^{-1} \\ A^n = KD^nK^{-1}[/tex]
Ikke den mest ryddige metoden, men jeg overbeviste og tilfredsstilte meg selv der jeg satt og kludra.
Å finne basis for nullrom, radrom og søylerom var en egen oppgave, og jeg fikk skrevet mye i tillegg til å gjøre selve utregninga.
Lurer samtidig på en ting.
Etter å ha funnet egenverdier og -vektorer til en matrise, skulle vi diagonalisere matrisen, og finne D og K slik at:
[tex]A = KDK^{-1}[/tex]
Det gikk greit. Men så kom oppgaven Finn et uttrykk for [tex]A^n[/tex], som jeg svarte på med følgende. Lurer på om noen kan bekrefte at det er en tilfredsstillende metode å vise det på.
[tex]A = KDK^{-1} \\ \\ A^n = (KDK^{-1})^n \\ A^n = KDK^{-1}KDK^{-1} \cdots KDK^{-1} \\ A^n = KDIDI \cdots IDK^{-1} \\ A^n = KDDD \cdots DK^{-1} \\ A^n = KD^nK^{-1}[/tex]
Ikke den mest ryddige metoden, men jeg overbeviste og tilfredsstilte meg selv der jeg satt og kludra.

Hei, og takk for sist! 
Ble B så jeg konter naturligvis.
Sitter med en flervalgsoppgave, som av en eller annen grunn er min svakhet har jeg merka.
Det gjelder en vilkårlig matrise med 6 lineære likninger og 8 variabler, og et av følgende utsagn er galt.
1. Systemet har minst 2 frie variable.
2. Rangen til koeffisientmatrisen er aldri større enn 6.
3. Systemet vil alltid ha en løsning.
4. Systemet vil ha ingen eller uendelig mange løsninger.
5. Om rangen til koeffisientmatrisen er 6 så har systemet uendelig mange løsninger
Min tankegang er som så:
1 stemmer, siden vi har 2 flere variabler enn likninger
2 stemmer, siden rangen ikke kan overstige antall rader
Alternativer 3, 4 og 5 får jeg ikke til å vurdere med god begrunnelse. Jeg ser at svar 3 er det gale svaret (som dermed er det riktige svaret...) men bare fordi jeg er vant til å se ikke-kvadratiske systemer som er selvmotsigende. Jeg skulle gjerne hatt litt forklaringer på nettopp hvorfor utsagn 3 er feil, og 4 og 5 stemmer.

Ble B så jeg konter naturligvis.
Sitter med en flervalgsoppgave, som av en eller annen grunn er min svakhet har jeg merka.
Det gjelder en vilkårlig matrise med 6 lineære likninger og 8 variabler, og et av følgende utsagn er galt.
1. Systemet har minst 2 frie variable.
2. Rangen til koeffisientmatrisen er aldri større enn 6.
3. Systemet vil alltid ha en løsning.
4. Systemet vil ha ingen eller uendelig mange løsninger.
5. Om rangen til koeffisientmatrisen er 6 så har systemet uendelig mange løsninger
Min tankegang er som så:
1 stemmer, siden vi har 2 flere variabler enn likninger
2 stemmer, siden rangen ikke kan overstige antall rader
Alternativer 3, 4 og 5 får jeg ikke til å vurdere med god begrunnelse. Jeg ser at svar 3 er det gale svaret (som dermed er det riktige svaret...) men bare fordi jeg er vant til å se ikke-kvadratiske systemer som er selvmotsigende. Jeg skulle gjerne hatt litt forklaringer på nettopp hvorfor utsagn 3 er feil, og 4 og 5 stemmer.
4. De 8 kolonnevektorene til koeffisientmatrisen vil utspenne et underrom av R^6 og kan umulig være lineært uavhengige. (som er kravet for én unik løsning)
5. Dersom rangen er 6 vil kolonnevektorene til koeff.matrisen utspenne hele [tex]R^6[/tex] (siden det vil eksistere 6 lineært uavhengige kolonnevektorer), og det vil alltid være minst én løsning. Siden 8 kolonnevektorer av dimensjon 6 ikke kan være lineært uavhengige vil det være uendelig mange løsninger.
5. Dersom rangen er 6 vil kolonnevektorene til koeff.matrisen utspenne hele [tex]R^6[/tex] (siden det vil eksistere 6 lineært uavhengige kolonnevektorer), og det vil alltid være minst én løsning. Siden 8 kolonnevektorer av dimensjon 6 ikke kan være lineært uavhengige vil det være uendelig mange løsninger.
Nei, man må se på kolonnevektorene. Bakgrunnen for at man ser på kolonnevektorene er at man skriver ligningssystemet på formenAleks855 wrote:Nice!
Ser logikken i det. Men er det noen grunn til at du drøfter kolonnevektorene istedet for radvektorene? Kan man også konkludere det samme ved å ta høyde for radvektorene i stedet?
[tex]\sum_{i}x_i\vec{c_i}=\vec{b}[/tex] der [tex]c_i[/tex] er i-te kolonnevektor i koeffisientmatrisen, og [tex]x_i[/tex] er i-te komponent av løsningsvektoren [tex]\vec{x}[/tex]. (her er alle vektorene kolonnevektorer)
Dersom [tex]\vec{b}[/tex] ligger i rommet utspent av kolonnevektorene [tex]\vec{c_i}[/tex] vil systemet ha uendelig mange løsninger (fordi 8 6-dimensjonale vektorer ikke kan være lineært uavhengige). Dersom [tex]\vec{b}[/tex] ikke ligger i rommet utspent av kolonnevektorene er det ingen løsning. (fordi det ikke fins noen lineærkombinasjon som "når" bort til [tex]\vec{b}[/tex])