Matriseproblem

Her kan brukere av forum utfordre hverandre med morsomme oppgaver og nøtter man ønsker å dele med andre. Dette er altså ikke et sted for desperate skrik om hjelp, de kan man poste i de andre forumene, men et sted for problemløsing på tvers av trinn og fag.

Matriseproblem

Innlegg Gustav » 06/06-2017 11:48

La $A$ og $B$ være $2\times 2$-matriser med heltallige matriseelementer, slik at $A, A+B, A+2B, A+3B$ og $A+4B$ alle er invertible og slik at alle inversene har heltallige matriseelementer.

Vis at $A+5B$ er invertibel med heltallige matriseelementer.
Beware of the Ratmen during the full moon for they grow stronger as the moon gets fuller
Gustav offline
Tyrann
Tyrann
Brukerens avatar
Innlegg: 4276
Registrert: 12/12-2008 12:44

Re: Matriseproblem

Innlegg Markus » 19/11-2018 21:57

Fant denne da jeg så på gamle problem i dette underforumet. Er vel dessuten en fin oppvarming til eksamen i Lineær Algebra som kommer snart.

Starter med et lemma; Hvis $A$ er en $2x2$-matrise med heltallselementer har $A^{-1}$ heltallselementer hvis og bare hvis $\det(A)=\pm 1$.

Bevis
$(\Longleftarrow)$ For en $2x2$-matrise $A=\begin{pmatrix}a & b\\ c & d \end{pmatrix}$ er $A^{-1} = \frac{1}{\det(A)} \begin{pmatrix}d & -b\\ -c & a \end{pmatrix}$. Siden $a,b,c,d \in \mathbb{Z}$ og $\det(A)=\pm 1 \therefore \frac{1}{\det(A)} = \pm 1$, vil $A^{-1}$ også ha heltallselementer.
$(\Longrightarrow)$ Vi har at $I=AA^{-1}$, så $1=\det(I)=\det(AA^{-1}) = \det(A)\det(A^{-1})$. Dette gir at $\frac{1}{\det(A^{-1})}=\det(A)$. Siden $A$ kun har heltallselementer er det klart at $\det(A)\in \mathbb{Z} \backslash \{0\}$. Den eneste måten dette kan skje på er hvis $\det(A^{-1})=\pm 1$,for ellers ville det vært en motsigelse til at $\det(A) \in \mathbb{Z}$. Dette fullfører beviset.

Nå over til det faktiske problemet.
La $D(n)=\det(A+Bn)$ der $A,B$ er matriser og $n \in \mathbb{Z}_{\geq 0}$. Vi vet fra informasjonen gitt i oppgaven og det lemmaet vi nettopp viste at $D(0)=\pm 1, D(1) = \pm 1, D(2) = \pm 1,D(3)= \pm 1 $ og $D(4) = \pm 1$. La $A=\begin{pmatrix}a_1 & a_2\\ a_3 & a_4 \end{pmatrix}$ og $B=\begin{pmatrix}b_1 & b_2\\ b_3 & b_4 \end{pmatrix}$. Nå er $$D(n)=(a_1+nb_1)(a_4+nb_4) - (a_2+nb_2)(a_3+nb_3)=n^2(b_1b_4-b_2b_3)+n(a_1b_4+a_4b_1-a_2b_3-a_3b_2)+(a_1a_4-a_2a_3)$$ som vi ser er et polynom i $n$ av grad $2$. Da må $D'(n)$ være lineær, men se nå på $D(0),D(1),D(2),D(3),D(4)$ Siden alle disse verdiene er lik $\pm 1$, og vi har $5$ slike, må $D(n)$ enten være lik $-1$ eller $1$ minst $3$ ganger. Siden $D'(n)$ er lineær kan vi maksimalt skjære $x$-aksen 2 ganger, og da kan samme verdi på $y$-aksen oppnås maks $2$ ganger. Den eneste muligheten er at $D(n)$ er konstant lik $+1$ eller $-1$. Da har vi at $D(5)=\pm 1$, som er ekvivalent med at $\left(A+5B\right)^{-1}$ har heltallselementer av lemmaet.
Markus offline
Fermat
Fermat
Innlegg: 759
Registrert: 20/09-2016 12:48
Bosted: NTNU

Re: Matriseproblem

Innlegg Gustav » 20/11-2018 01:35

Ser bra ut!
Beware of the Ratmen during the full moon for they grow stronger as the moon gets fuller
Gustav offline
Tyrann
Tyrann
Brukerens avatar
Innlegg: 4276
Registrert: 12/12-2008 12:44

Re: Matriseproblem

Innlegg Markus » 26/12-2018 16:06

En liten forsinket romjulsoppfølger til deg Gustav;

La $A,B$ være to distinkte kvadratiske matriser med reelle elementer, slik at $A^3=B^3$ og $A^2B = B^2A$. Er $A^2+B^2$ invertibel?
Markus offline
Fermat
Fermat
Innlegg: 759
Registrert: 20/09-2016 12:48
Bosted: NTNU

Re: Matriseproblem

Innlegg Kay » 27/12-2018 18:37

Vi vet at [tex]A^3=B^3 \wedge A^2B=B^2A[/tex] Derfor følger det fra disse betingelsene [tex](A^2+B^2)(A-B)=A^3-2A^2B+2B^2A-B^3=0[/tex], og ettersom at [tex]A\neq B[/tex] har [tex]A^2+B^2[/tex] en nulldivisor, derfor er ikke [tex]A^2+B^2[/tex] invertibel.

Litt mer standard oppfølger:

La [tex]A[/tex] være en reell [tex]2\ \times \ 2[/tex]-matrise med minst en reell egenverdi.

Anta så at det finnes en reell [tex]2\ \times \ 2[/tex]-matrise [tex]B[/tex] som ikke har noen reelle egenverdier slik at [tex]AB=BA[/tex].

Vis at [tex]A=\begin{bmatrix} a & 0\\ 0 & a \end{bmatrix}[/tex] for en [tex]a\in \mathbb{R}[/tex]
[tex]e=\pi=3[/tex]
Kay online
Galois
Galois
Innlegg: 550
Registrert: 13/06-2016 18:23

Re: Matriseproblem

Innlegg Markus » 27/12-2018 23:33

Kay skrev:Vi vet at [tex]A^3=B^3 \wedge A^2B=B^2A[/tex] Derfor følger det fra disse betingelsene [tex](A^2+B^2)(A-B)=A^3-2A^2B+2B^2A-B^3=0[/tex], og ettersom at [tex]A\neq B[/tex] har [tex]A^2+B^2[/tex] en nulldivisor, derfor er ikke [tex]A^2+B^2[/tex] invertibel.

Er jo for så vidt rett svar, og det er flott, men jeg forstår ikke helt hva du mener med at $A^2+B^2$ har en nulldivisor? Du er inne på noe med faktoriseringen din, men med mindre jeg har misforstått må du argumentere litt mer for å komme i mål. Slik løste jeg den:
[+] Skjult tekst
Som du selv påpeker er $(A^2+B^2)(A-B)=0$ (regner med du bare slurva i utregninga forresten;$(A^2+B^2)(A-B)=A^3-A^2B+B^2A-B^3\neq A^3-2A^2B+2B^2A-B^3$). Siden $A\neq B$, vet vi at vi kan velge en vektor $\mathbf{u}$ slik at $\mathbf{v}=(A-B)\mathbf{u} \neq \mathbf{0}$, da må $(A^2+B^2)((A-B)\mathbf{u})=(A^2+B^2)\mathbf{v}=\mathbf{0}$. Men $\mathbf{v}$ er ikke lik nullvektoren, altså har det homogene likningsystemet $(A^2+B^2)\mathbf{v}=\mathbf{0}$ ikke bare den trivielle løsningen, og derfor er $A^2+B^2$ ikke invertibel (av invertible matrix theorem).
Oppgaven er fra Putnam 1991.


Kay skrev:Litt mer standard oppfølger:
La [tex]A[/tex] være en reell [tex]2\ \times \ 2[/tex]-matrise med minst en reell egenverdi.
Anta så at det finnes en reell [tex]2\ \times \ 2[/tex]-matrise [tex]B[/tex] som ikke har noen reelle egenverdier slik at [tex]AB=BA[/tex].
Vis at [tex]A=\begin{bmatrix} a & 0\\ 0 & a \end{bmatrix}[/tex] for en [tex]a\in \mathbb{R}[/tex]

Mulig jeg overser noe, og jeg tviler egentlig ikke, og nå har jeg sett på dette så lenge at jeg må ha noen andre øyne til å se på det, men jeg får ikke dette til å stemme. Hvis $A$ har minst en egenverdi så $\exists \lambda \in \mathbb{R}$ slik at $A\mathbf{x}=\lambda\mathbf{x}$. Nå er $A(B\mathbf{x})=BA\mathbf{x}=B\lambda\mathbf{x}=\lambda (B\mathbf{x})$. Således må vi enten ha at $B\mathbf{x}$ og $\mathbf{x}$ er egenvektorer av $A$ med samme egenverdi, eller så er $B\mathbf{x}=\mathbf{0}$. Hvis sistnevnte så er $\lambda = 0$ en egenverdi til $B$ siden $B\mathbf{x}=0\mathbf{x}=\mathbf{0}$, men da har $B$ en reell egenverdi, som er en selvmotsigelse, så anta videre at $B\mathbf{x}$ og $\mathbf{x}$ er slik at $B\mathbf{x}=k\mathbf{x}$ der $k\in \mathbb{R} \backslash \{0\}$. Hvis $k=1$ er $B$ lik identitetsmatrisen, men identitetsmatrisen har selvfølgelig egenverdien $\lambda = 1$. På samme måte kan vi skrive $B\mathbf{x}=kI \mathbf{x}$ og få egenverdien $k$. Konklusjonen her er at uansett så vil $B$ ha en reell egenverdi, selvmotsigende mot antagelsene i oppgaven.
Markus offline
Fermat
Fermat
Innlegg: 759
Registrert: 20/09-2016 12:48
Bosted: NTNU

Re: Matriseproblem

Innlegg Gustav » 28/12-2018 18:59

Markus skrev:Mulig jeg overser noe, og jeg tviler egentlig ikke, og nå har jeg sett på dette så lenge at jeg må ha noen andre øyne til å se på det, men jeg får ikke dette til å stemme. Hvis $A$ har minst en egenverdi så $\exists \lambda \in \mathbb{R}$ slik at $A\mathbf{x}=\lambda\mathbf{x}$. Nå er $A(B\mathbf{x})=BA\mathbf{x}=B\lambda\mathbf{x}=\lambda (B\mathbf{x})$. Således må vi enten ha at $B\mathbf{x}$ og $\mathbf{x}$ er egenvektorer av $A$ med samme egenverdi, eller så er $B\mathbf{x}=\mathbf{0}$. Hvis sistnevnte så er $\lambda = 0$ en egenverdi til $B$ siden $B\mathbf{x}=0\mathbf{x}=\mathbf{0}$, men da har $B$ en reell egenverdi, som er en selvmotsigelse, så anta videre at $B\mathbf{x}$ og $\mathbf{x}$ er slik at $B\mathbf{x}=k\mathbf{x}$ der $k\in \mathbb{R} \backslash \{0\}$. Hvis $k=1$ er $B$ lik identitetsmatrisen, men identitetsmatrisen har selvfølgelig egenverdien $\lambda = 1$. På samme måte kan vi skrive $B\mathbf{x}=kI \mathbf{x}$ og få egenverdien $k$. Konklusjonen her er at uansett så vil $B$ ha en reell egenverdi, selvmotsigende mot antagelsene i oppgaven.


Du overser vel her muligheten for at egenrommet tilhørende $\lambda$ er hele R^2. Da vil Bx og x godt kunne være lineært uavhengige (ikke parallelle) vektorer, selv med samme tilhørende egenverdi. Det gjør at A vil ha kun én egenverdi, $\lambda$.
Beware of the Ratmen during the full moon for they grow stronger as the moon gets fuller
Gustav offline
Tyrann
Tyrann
Brukerens avatar
Innlegg: 4276
Registrert: 12/12-2008 12:44

Re: Matriseproblem

Innlegg Markus » 28/12-2018 20:29

Gustav skrev:Du overser vel her muligheten for at egenrommet tilhørende $\lambda$ er hele R^2. Da vil Bx og x godt kunne være lineært uavhengige (ikke parallelle) vektorer, selv med samme tilhørende egenverdi. Det gjør at A vil ha kun én egenverdi, $\lambda$.

Selvfølgelig! :oops:

Da har det karakteristiske polynomet tilhørende $A$ kun en løsning. Den eneste matrisa der egenrommet tilhørende egenverdien spanner hele $\mathbb{R}^2$ og der det karakteristiske polynomet kun har en løsning er $A$-en i oppgaveteksten.
Markus offline
Fermat
Fermat
Innlegg: 759
Registrert: 20/09-2016 12:48
Bosted: NTNU

Hvem er i forumet

Brukere som leser i dette forumet: Ingen registrerte brukere og 6 gjester