Jeg svarte: Av kjerneregelen har vi at [tex]\frac {\delta h} {\delta x} = \frac {\delta f} {\delta u} \cdot \frac {\delta u} {\delta x} + \frac {\delta f} {\delta v} \cdot \frac {\delta v} {\delta x}[/tex] og tilsvarende for [tex]y[/tex], så [tex]{\nabla} h(x,y) = \left [\frac {\delta f} {\delta u} \cdot \frac {\delta u} {\delta x} + \frac {\delta f} {\delta v} \cdot \frac {\delta v} {\delta x} , \frac {\delta f} {\delta u} \cdot \frac {\delta u} {\delta y} + \frac {\delta f} {\delta v} \cdot \frac {\delta v} {\delta y} \right ]= \left [ \frac {\delta f} {\delta u}, \frac {\delta f} {\delta v} \right ] \cdot \left( \begin{array} \frac {\delta u} {\delta x} (x,y) & \frac {\delta u} {\delta y} (x,y) \\ \frac {\delta v} {\delta x} (x,y) & \frac {\delta v} {\delta y} (x,y)\end{array} \right) = {\nabla} h(x,y) = {\nabla} f(u, v) \left( \begin{array} \frac {\delta u} {\delta x} (x,y) & \frac {\delta u} {\delta y} (x,y) \\ \frac {\delta v} {\delta x} (x,y) & \frac {\delta v} {\delta y} (x,y)\end{array} \right)[/tex], som var det vi ville vise.Del 1 av oppgaven wrote:I denne oppgaven er [tex]u, v: \mathbb{R}^2 \rightarrow \mathbb{R}[/tex] to deriverbare funksjoner. Definer [tex]h(x,y)=f(u(x,y), v(x,y))[/tex] der [tex]f: \mathbb{R}^2 \rightarrow \mathbb{R}[/tex] er deriverbar, så er
[tex]{\nabla} h(x,y) = {\nabla} f(u(x,y,), v(x,y)) \left( \begin{array} \frac {\delta u} {\delta x} (x,y) & \frac {\delta u} {\delta y} (x,y) \\ \frac {\delta v} {\delta x} (x,y) & \frac {\delta v} {\delta y} (x,y)\end{array} \right)[/tex] for alle [tex]x,y \in \mathbb{R}^2[/tex].
Jeg svarte: Om betingelsen i oppgaven er oppfylt har vi [tex]f(u(x,y), v(x,y))=0[/tex]. [tex]f[/tex] er av betingelsene i oppgaven deriverbar, så om vi deriverer på begge sider får vi av første deloppgave [tex]{\nabla} f(u, v) \left( \begin{array} \frac {\delta u} {\delta x} (x,y) & \frac {\delta u} {\delta y} (x,y) \\ \frac {\delta v} {\delta x} (x,y) & \frac {\delta v} {\delta y} (x,y)\end{array} \right ) = 0[/tex]. Kall matrisen i produktet for [tex]A[/tex]. Anta at det finnes [tex]x,y \in \mathbb{R}^2[/tex] slik at Jacobi-determinanten ikke er lik 0. Da er [tex]A[/tex] inverterbar med invers [tex]A^{-1}[/tex]. Ganger vi likningen med [tex]A^{-1}[/tex] fra høyre står vi igjen med [tex]{\nabla} f(u,v) =0[/tex], men per betingelsene i oppgaven er ikke dette tilfellet for noen [tex]u,v \in \mathbb{R}^2[/tex], så vi har en motsigelse. Altså var antagelsen vår gal, og det finnes ingen [tex]x,y \in \mathbb{R}^2[/tex] slik at Jacobi-determinanten til [tex]A[/tex] ikke er lik null, som er det samme som å si at Jacobi-determinanten til [tex]A[/tex] er lik null for alle [tex]x,y \in \mathbb{R}^2[/tex], og vi er ferdige.Del 2 av oppgaven wrote: Vi sier at [tex] u[/tex] og [tex]v[/tex] er funksjonelt avhengige dersom det finnes en deriverbar funksjon [tex]f: \mathbb{R}^2 \rightarrow \mathbb{R}[/tex] slik at [tex]\nabla f(u,v) \neq 0[/tex] for alle [tex]u, v \in \mathbb {R} ^2[/tex] og [tex]f(u(x,y), v(x,y))=0[/tex] for alle [tex]u, v \in \mathbb {R} ^2[/tex]. Vis at dersom [tex]u[/tex] og [tex]v[/tex] er funksjonelt avhengige så er Jacobi-determinanten [tex]\left | \begin{array} \frac {\delta u} {\delta x} (x,y) & \frac {\delta u} {\delta y} (x,y) \\ \frac {\delta v} {\delta x} (x,y) & \frac {\delta v} {\delta y} (x,y)\end{array} \right |[/tex] lik null for alle [tex]x, y \in \mathbb {R} ^2[/tex].
Om vi ser bortifra at jeg kanskje ikke burde skrevet 'deriverte' og heller skrevet 'funnet gradienten av' - er det noen feil i dette beviset? Er forøvrig mulig denne tråden burde vært postet i Bevisskolen-underforumet.