Radrom og søylerom

Her kan du stille spørsmål vedrørende problemer og oppgaver i matematikk på høyskolenivå. Alle som har kunnskapen er velkommen med et svar. Men, ikke forvent at admin i matematikk.net er spesielt aktive her.

Moderators: Vektormannen, espen180, Aleks855, Solar Plexsus, Gustav, Nebuchadnezzar, Janhaa

Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Ok, så jeg har litt mer LinAlg-spørsmål.

Jeg benytter følgende metoder for å finne basis for radrommet og søylerommet til en matrise:

Jeg finner [tex]\text{rref}(A)[/tex].

Finner basisen til søylerommet ved å hente ut pivotsøylene til den normerte trappematrisen.

EDIT: Henter de korresponderende søylene i A, ikke rref(A)

Finner basisen til radrommet ved å hente ut pivotradene til [tex]\text{rref}(A)[/tex], transponere dem, og voila!

Er dette en grei metode? Merk at matrisene vi jobber med er stort sett 3x3-matriser med reelle tall, så det er ikke doktorgradsnivå. Jeg vil anta at den samme metoden ikke alltid vil fungere for alle mxn-matriser.
Image
Vektormannen
Euler
Euler
Posts: 5889
Joined: 26/09-2007 19:35
Location: Trondheim
Contact:

Det stemmer dette, er vel sånn det vanligvis gjøres. :) Viktig presisering du kom med i redigeringen, søylevektorene i rref(A) er ikke generelt en basis for søylerommet til A, men de korresponderende vektorene i A er det. (Radrommet forandrer seg ikke under radreduseringen, så der vil radvektorene i rref(A) danne en basis for radrommet til A.)
Elektronikk @ NTNU | nesizer
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Konge, da har jeg vel det på greip. Takk for tilbakemeldinga!

Ser at de fleste eksamenssettene har slik oppgave, men da også med basis for nullrom.

Med nullrom så kan man vel også si at N(A) = N(rref(A)) eller hva? Er dette et resultat av det du nevner om at radrommet ikke forandres under radredusering?
Image
Vektormannen
Euler
Euler
Posts: 5889
Joined: 26/09-2007 19:35
Location: Trondheim
Contact:

Ja, det er riktig. Hele poenget med Gauss-eliminasjon og radredusering er at man bevarer nullrommet. Hvis ikke ville det ikke vært mulig å bruke Gauss-eliminasjon til å løse ligningssystemer, siden det resulterende systemet ikke ville hatt samme løsningsmengde som det opprinnelige.

At radrommet ikke forandres er enkelt og greit fordi man i hvert steg i radreduseringen lager nye lineærkombinasjoner av radvektorene. En lineærkombinasjon av vektorer er nødt til å ligge i samme rom som vektorene spenner ut, ikke sant?
Elektronikk @ NTNU | nesizer
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Ja det er klart, for en lineærkombinasjon av en vektor er jo den samme vektoren, bare skalert?

Ser også av "Rank-nullity"-teoremet at i en matrise mxn så er rang(A) + nullity(A) = n, der "nullity" betegner antall vektorer i basisen til nullrommet.

Dette må vel da bety at antall nullrader i rref(A) = antall vektorer i basisen til nullrommet?

Det vil si, antall frie variabler = antall vektorer i basisen til N(A)?
Image
Vektormannen
Euler
Euler
Posts: 5889
Joined: 26/09-2007 19:35
Location: Trondheim
Contact:

Det stemmer!

(En lineærkombinasjon av en vektor er som du sier bare samme vektoren skalert -- altså ligger den i rommet som er spent ut av vektoren. En lineærkombinasjon av flere ikke-parallelle vektorer vil på samme måte måtte ligge i rommet som er spent ut av vektorene som er lineærkombinert. Tenk f.eks. på et plan, der har man to basisvektorer. Uansett hvordan de lineærkombineres, får man en ny vektor i planet de spenner ut.)
Elektronikk @ NTNU | nesizer
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Så det er derfor [1, 0] og [0, 1] anses som standardbasis for [tex]\mathbb{R}^2[/tex] og liknende for [tex]\mathbb R ^n[/tex]?

...der vi kaller det standard, fordi det er den som brukes mest selv om [tex]\mathbb{R}^2[/tex] også kan baseres på to andre vektorer?

Det jeg stusser litt på, er... La oss si at vi har et rom utspent av en basis med tre vektorer, som hver har tre komponenter.

Hvorfor kan det finnes vektorer som IKKE ligger i dette rommet, selv om alle vektorene i basisen er lineært uavhengige? Jeg ser for meg at alle tre-komponents vektorer kan skrives som en lin-komb av tre andre, så lenge de tre er L.U.
Image
Vektormannen
Euler
Euler
Posts: 5889
Joined: 26/09-2007 19:35
Location: Trondheim
Contact:

Jeg vet ikke om jeg forstår helt hva du mener? Hvis du f.eks. har tre lineært uavhengige vektorer med tre komponenter, så vil disse utgjøre en basis for [tex]\mathbb{R}^3[/tex]. Hvis det skal finnes en vektor som ikke ligger i dette rommet så må den ha flere enn tre komonenter.
Elektronikk @ NTNU | nesizer
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Ah, jeg beklager. Jeg huska oppgaven feil! Da falt forståelsen plutselig på plass. Underrommet hadde en basis med bare to vektorer, så det fantes selvfølgelig vektorer som ikke falt innen for underrommet.

Takk så mye for dialogen. Den har vært ekstremt lærerik! =)
Image
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Her er forresten oppgaven:

http://imgur.com/kgoBv

Slik jeg visualiserer det i hodet, så blir det vel slik at de to vektorene i basisen danner et plan, og alle vektorer som tilhører det underrommet ligger i planet.

Siden det fjerde alternativet ikke kan skrives som en lineær kombinasjon av basisvektorene, så ligger den vel utenfor planet, eller krysser planet ved å ikke være parallell med det?
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

Ganske riktig
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Biter av puslespillet faller på plass nå!

VM nevner også at radrommet ikke endres gjennom Gauss-eliminasjon, fordi vi bare lager nye lineærkombinasjoner av de samme vektorene. Men hva med søylerommet?

Er det like lett å forklare hvorfor søylerommet kan finnes ved å finne pivotsøyer og hente ut de korresponderende søylene fra den opprinnelige matrisen?
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

Det som kan vises er at radoperasjoner ikke endrer lineær avhengighet/uavhengighet mellom mengder av kolonnevektorer. Siden mengden av pivotsøyler i den radekvivalente matrisen er en maksimal mengde lineært uavhengige kolonnevektorer vil de korresponderende kolonnene i den opprinnelige matrisen være en maksimal mengde lineært uavhengige kolonnevektorer og derfor utgjøre en basis for kolonnerommet for denne matrisen.

La f.eks. [tex]c_i[/tex] være kolonnevektorer i en matrise C.

Disse er lineært avhengige dersom det fins konstanter (ikke alle ulik null) slik at [tex]a_1c_1+a_2c_2+...a_nc_n=0[/tex]. Utfører vi radoperasjoner på C vil denne lineære avhengigheten bli bevart. Tenk over hva det betyr å utføre radoperasjoner i forhold til ligningen over..
Aleks855
Rasch
Rasch
Posts: 6874
Joined: 19/03-2011 15:19
Location: Trondheim
Contact:

Ah. Når vi utfører radoperasjonene så endrer vi vel ikke strukturen på søylerommet, siden vi utfører operasjoner på alle søylene samtidig. Så selv for søylerommet så lager vi bare nye lineærkombinasjoner, og finner ut hvilke søylevektorer som er lineært avhengig av de andre?

Det jeg ser for meg er at matrisen bare kan transponeres så kan man utføre radoperasjonene. Da vil vi jo strengt tatt kunne gjøre det samme som ved basis for radrommet. Men det er fascinerende at radoperasjonene endrer så lite med tanke på underrommene.
Image
Gustav
Tyrann
Tyrann
Posts: 4563
Joined: 12/12-2008 12:44

Aleks855 wrote:Ah. Når vi utfører radoperasjonene så endrer vi vel ikke strukturen på søylerommet, siden vi utfører operasjoner på alle søylene samtidig. Så selv for søylerommet så lager vi bare nye lineærkombinasjoner, og finner ut hvilke søylevektorer som er lineært avhengig av de andre?
Vel, radoperasjoner vil i høyeste grad endre søylerommet, men de vil ikke endre den lineære avhengigheten mellom mengder av korresponderende søylevektorer: La A og B være to radekvivalente matriser (altså at matrise B fremkommer ved å utføre en serie radoperasjoner på A).

Eksempel:

[tex]A=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}[/tex]

[tex]B=\begin{pmatrix}a_{11}+a_{21}&a_{12}+a_{22}\\a_{21}&a_{22}\end{pmatrix}[/tex]

A og B er radekvivalente siden B fremkommer ved å legge til den nederste raden i A til den øverste raden.

Ser på tilfellet der de to søylevektorene i matrisen A er lineært avhengige:

Per definisjon fins det konstanter [tex]k_1[/tex] og [tex]k_2[/tex] (der minst én av dem er ulik 0) slik at

[tex]k_1\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}+k_2\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}=\vec{0}^T[/tex].

Tenkte nå å vise at det følger at de to søylevektorene i B nødvendigvis også må være lineært avhengige:

Av ligningen over følger nemlig at

[tex]k_1\begin{pmatrix}a_{11}+a_{21}\\a_{21}\end{pmatrix}+k_2\begin{pmatrix}a_{12}+a_{22}\\a_{22}\end{pmatrix}=\vec{0}^T[/tex].

. Siden minst én av konstantene [tex]k_i[/tex] er ulik 0 betyr det at søylevektorene i B er lineært avhengige.

Dette resultatet generaliseres på en åpenbar måte, og vil i siste instans implisere at pivotsøylene i en radekvivalent matrise på echelon form korresponderer med basisvektorer for søylerommet i den opprinnelige matrisen.
Post Reply