Radrom og søylerom

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderators: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Tusen takk for forklaringen!

Gausseliminasjon virker mer og mer magisk. I tillegg til at det ikke endrer nullrommet eller radrommet til en matrise, så endrer den heller ikke forholdet av lineær avhengighet mellom søylene, selv om den endrer søylerommet?
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

Aleks855 wrote:Tusen takk for forklaringen!

Gausseliminasjon virker mer og mer magisk. I tillegg til at det ikke endrer nullrommet eller radrommet til en matrise, så endrer den heller ikke forholdet av lineær avhengighet mellom søylene, selv om den endrer søylerommet?
Ja, riktig.
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Awesome! Pløyer gjennom disse oppgavene i blinde nå som jeg forstår sånne ting. Stor takk til dere begge!

Har eksamen nå på mandag, så ser ikke bort fra at denne tråden alene øker karakteren.
Image
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Plutarco og Vektormannen: Enorm takk til dere begge. Føler jeg naila alle LinAlg-spørsmålene på eksamen idag. Satser på A, med forbehold om hvordan det gikk med grafikkprogrammeringa.

Å finne basis for nullrom, radrom og søylerom var en egen oppgave, og jeg fikk skrevet mye i tillegg til å gjøre selve utregninga.

Lurer samtidig på en ting.

Etter å ha funnet egenverdier og -vektorer til en matrise, skulle vi diagonalisere matrisen, og finne D og K slik at:

[tex]A = KDK^{-1}[/tex]

Det gikk greit. Men så kom oppgaven Finn et uttrykk for [tex]A^n[/tex], som jeg svarte på med følgende. Lurer på om noen kan bekrefte at det er en tilfredsstillende metode å vise det på.

[tex]A = KDK^{-1} \\ \\ A^n = (KDK^{-1})^n \\ A^n = KDK^{-1}KDK^{-1} \cdots KDK^{-1} \\ A^n = KDIDI \cdots IDK^{-1} \\ A^n = KDDD \cdots DK^{-1} \\ A^n = KD^nK^{-1}[/tex]

Ikke den mest ryddige metoden, men jeg overbeviste og tilfredsstilte meg selv der jeg satt og kludra. :lol:
Image
espen180
Gauss
Gauss
Posts: 2578
Joined: 03/03-2008 15:07
Location: Trondheim

Joda, det funker. Alternativet er å gjøre det ved induksjon.
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Hei, og takk for sist! :D

Ble B så jeg konter naturligvis.

Sitter med en flervalgsoppgave, som av en eller annen grunn er min svakhet har jeg merka.

Det gjelder en vilkårlig matrise med 6 lineære likninger og 8 variabler, og et av følgende utsagn er galt.

1. Systemet har minst 2 frie variable.
2. Rangen til koeffisientmatrisen er aldri større enn 6.
3. Systemet vil alltid ha en løsning.
4. Systemet vil ha ingen eller uendelig mange løsninger.
5. Om rangen til koeffisientmatrisen er 6 så har systemet uendelig mange løsninger

Min tankegang er som så:

1 stemmer, siden vi har 2 flere variabler enn likninger
2 stemmer, siden rangen ikke kan overstige antall rader

Alternativer 3, 4 og 5 får jeg ikke til å vurdere med god begrunnelse. Jeg ser at svar 3 er det gale svaret (som dermed er det riktige svaret...) men bare fordi jeg er vant til å se ikke-kvadratiske systemer som er selvmotsigende. Jeg skulle gjerne hatt litt forklaringer på nettopp hvorfor utsagn 3 er feil, og 4 og 5 stemmer.
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

4. De 8 kolonnevektorene til koeffisientmatrisen vil utspenne et underrom av R^6 og kan umulig være lineært uavhengige. (som er kravet for én unik løsning)

5. Dersom rangen er 6 vil kolonnevektorene til koeff.matrisen utspenne hele [tex]R^6[/tex] (siden det vil eksistere 6 lineært uavhengige kolonnevektorer), og det vil alltid være minst én løsning. Siden 8 kolonnevektorer av dimensjon 6 ikke kan være lineært uavhengige vil det være uendelig mange løsninger.
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Nice!

Ser logikken i det. Men er det noen grunn til at du drøfter kolonnevektorene istedet for radvektorene? Kan man også konkludere det samme ved å ta høyde for radvektorene i stedet?
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

Aleks855 wrote:Nice!

Ser logikken i det. Men er det noen grunn til at du drøfter kolonnevektorene istedet for radvektorene? Kan man også konkludere det samme ved å ta høyde for radvektorene i stedet?
Nei, man må se på kolonnevektorene. Bakgrunnen for at man ser på kolonnevektorene er at man skriver ligningssystemet på formen

[tex]\sum_{i}x_i\vec{c_i}=\vec{b}[/tex] der [tex]c_i[/tex] er i-te kolonnevektor i koeffisientmatrisen, og [tex]x_i[/tex] er i-te komponent av løsningsvektoren [tex]\vec{x}[/tex]. (her er alle vektorene kolonnevektorer)

Dersom [tex]\vec{b}[/tex] ligger i rommet utspent av kolonnevektorene [tex]\vec{c_i}[/tex] vil systemet ha uendelig mange løsninger (fordi 8 6-dimensjonale vektorer ikke kan være lineært uavhengige). Dersom [tex]\vec{b}[/tex] ikke ligger i rommet utspent av kolonnevektorene er det ingen løsning. (fordi det ikke fins noen lineærkombinasjon som "når" bort til [tex]\vec{b}[/tex])
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Så dette betyr at antall pivotsøyler i matrisen bestemmer hvor mange dimensjoner koeff.-matrisen utspenner? 6 pivotsøyler betyr 6 lineært uavhengige søyler, som betyr 6 dimensjoner i rommet utspent av matrisa?

Du sier også at det må være minst én løsning i dette tilfellet. Hvordan ser man det?
Image
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Da ble det omsider gjort. Fikk A i både matematikk og i LinAlg.

Tusen takk til alle som svarte på spørsmål mens jeg preppa! Det hadde ikke skjedd av seg selv! :)
Image
Post Reply