Slik jeg tenker så er selve teoremet ganske greit grunnet det faktum at hvis det er noen kolonner i [tex]\mathbf{H}[/tex] som er lineært avhengige, så vil det i resultant-matrisen [tex]\mathbf{H}^T\mathbf{H}[/tex] være en nullvektor (radvektor) som vil føre til at det[tex]\left(\mathbf{H}^T\mathbf{H}\right)=\mathbf{0}[/tex], og den inverse vil ikke eksistere.
Men så er det det med å vise dette med et fint bevis da

Ellers tenker jeg at for matrisen [tex]\mathbf{H}[/tex] må følgende være tilfredsstilt:
- [tex]m > n[/tex]. (Hvis [tex]m < n[/tex] så eksisterer ikke [tex]\left(\mathbf{H}^T\mathbf{H}\right)^{-1}[/tex]).
- [tex]\text{rank}\left(\mathbf{H}\right) \leq \text{min}\left(m,n\right)=n[/tex]. Dvs at [tex]\mathbf{H}[/tex] har full rank.
Hvis dette stemmer vil [tex]\text{rank}\left(\mathbf{H}^T\mathbf{H}\right)\leq \text{min}\left\{\text{rank}\left(\mathbf{H}\right),\text{rank}\left(\mathbf{H}^T\right)\right\}=n[/tex],
og dermed vil vel [tex]\left(\mathbf{H}^T\mathbf{H}\right)[/tex] være inverterbar (?).
Noen tips til forenkling / forbedring / etc?
