\( \def\pause{} \newcommand{\alert}[1]{\color{red}{#1}} \def\ds{\displaystyle} \let\epsilon\varepsilon \let\subseteq\subseteqq \let\supseteq\supseteqq \let\setminus\smallsetminus \let\le\leqq \let\leq\leqq \let\ge\geqq \let\geq\geqq \newcommand{\NN}{\mathbb N} \newcommand{\RR}{\mathbb R} \renewcommand{\limsup}{\mathop{\overline{\mathrm{lim}}}} \renewcommand{\liminf}{\mathop{\underline{\mathrm{lim}}}} \newcommand{\redlimsup}{\mathop{\color{red}{\overline{\mathrm{lim}}}}} \newcommand{\redliminf}{\mathop{\color{red}{\underline{\mathrm{lim}}}}} \newcommand{\konv}[1][]{\mathbin{\mathop{\longrightarrow}\limits_{#1}}} \newcommand{\bigset}[2]{\left\{{#1}\left|\strut \vphantom{#1}\vphantom{#2}\right.\, {#2}\right\}} \newcommand{\set}[2]{\left\{\smash{#1}\left|% \vphantom{\smash{#1}}\vphantom{\smash{#2}}\right.\,\smash{#2}\right\}} \newcommand{\E}{\mathrm{e}} \newcommand{\I}{\mathrm{i}} \newcommand{\diff}{\mathop{\mathrm{\kern0pt d}}} \newcommand{\diffAt}[3]{\frac{\diff}{\diff{#2}}\,\left.{\vphantom{\frac00}#1}\,\right|_{#2=#3}} \newcommand{\partAt}[3]{\frac{\partial}{\partial{#2}}\,\left.{\vphantom{\frac00}#1}\,\right|_{#2=#3}} \newcommand{\diffgleich}{\mathbin{\,\mathop{=}\limits^{\,\prime}}\,} \newcommand{\grad}{\mathop{\mathrm{grad}}} \newcommand{\Jac}[2]{\mathrm{J}{#1}\left(#2\right)} \newcommand{\Jaco}[2]{\mathrm{J}{#1}#2} \newcommand{\Hesse}[2]{\mathrm{H}{#1}\left(#2\right)} \newcommand{\Hesso}[1]{\mathrm{H}{#1}} \newcommand{\transp}{^{^{\scriptstyle\intercal}}} \newcommand{\inn}[1]{{#1}^\circ} \newcommand{\Cf}[2]{\mathcal C^{#1}(#2)} \newcommand{\skalp}{\mathbin{\scriptstyle\bullet}} \)

4.8. Differentiationsregeln

Aus den Differentiationsregeln für Funktionen einer Veränderlichen (vgl. 2.2.1) erhalten wir:

4.8.1. Lemma.

Es seien \( f,g\in\Cf1D \) und \( a\in\inn D \).

Dann gilt auch \( f+g\in\Cf1D \) und \( f\,g\in\Cf1D \).

Hat \(g\) keine Nullstelle in \(D\), so gilt auch \( \frac fg\in\Cf1D \).

Weiter gilt:

  1. \( \grad(f+g)(a) \) \( = \grad f(a)+\grad g(a) \).
  2. \( \grad(f\,g)(a) \) \( = g(a)\,\grad f(a) + f(a)\,\grad g(a) \).
  3. \( \grad\left(\dfrac fg\right)(a) \) \( = \dfrac{g(a)\,\grad f(a)-f(a)\,\grad g(a)}{g(a)^2} \).

Man beachte: Bei Ausdrücken der Form \(g(a)\,\grad f(a)\) wird der Vektor \(\grad f(a)\) mit dem Skalar \(g(a)\) multipliziert.

Wir zeigen die zweite Aussage:

Die Produktregel liefert \( (f\,g)_{x_j^{}}(a) \) \( = f_{x_j^{}}(a)\,g(a) + f(a)\,g_{x_j^{}}(a) \).

Hieraus folgt: \( \grad(f\,g)(a) \) \( = \left( \begin{array}{c} g(a)\,f_{x_1^{}}(a)\\ \vdots\\\pause g(a)\,f_{x_n^{}}(a) \end{array}\right) + \left( \begin{array}{c} f(a)\,g_{x_1^{}}(a)\\ \vdots\\ f(a)\,g_{x_n^{}}(a) \end{array}\right) \) \( = g(a)\,\left( \begin{array}{c} f_{x_1^{}}(a)\\ \vdots\\\pause f_{x_n^{}}(a) \end{array}\right) + f(a)\,\left( \begin{array}{c} g_{x_1^{}}(a)\\ \vdots\\ g_{x_n^{}}(a) \end{array}\right) \) \( = g(a)\,\grad f(a) + f(a)\,\grad g(a) \).

4.8.2. Bemerkung.

Da die Jacobi-Matrix sich zusammensetzt aus den Transponierten der Gradienten der Komponentenfunktionen, gilt die erste der Aussagen aus 4.8.1 ganz analog für total differenzierbare vektorwertige Funktionen (die anderen beiden lassen sich nicht übertragen, weil man Vektoren nicht multiplizieren oder dividieren kann):

\( \Jac{(f+g)}a= \Jac fa+\Jac ga \).

4.8.3. Kettenregel.

Es seien \( D\subseteq\RR^n \) und \( E\subseteq\RR^k \) jeweils offene Mengen, und es seien \( f\colon D\to\RR^k \) und \( g\colon E\to\RR^\ell \) Abbildungen derart, dass \( f(D)\subseteq E \).

Außerdem sei \(f\) total differenzierbar an der Stelle \( a\in D \), und \(g\) sei total differenzierbar an der Stelle \( b := f (a) \).

Dann ist die Komposition \( g\circ f \colon D\to \RR^\ell \) total differenzierbar an der Stelle \(a\), und es gilt:

\( \Jac{(g\circ f)}a \) \( = \bigl(\Jac g{b}\bigr) \,\bigl(\Jac fa\bigr) \).

Die Multiplikation der Jacobi-Matrizen \( \Jac g{b} = \Jac g{f(a)} \) und \( \Jac fa \) entspricht dabei der Komposition der linearen Approximationen:

Die Hintereinanderausführung der Funktionen \(f\) und \(g\) wird also linear approximiert von der Hintereinanderausführung der linearen Approximationen.

Sind \(f\) und \(g\) reellwertige Funktionen in einer Veränderlichen, so spezialisiert sich die allgemeine Kettenregel 4.8.3 natürlich auf die aus der Schule bekannte Kettenregel 2.2.3:

Die Jacobi-Matrizen haben dann die Größe \(1\times1\) (sind also einfach reelle Zahlen), und die Multiplikation mit \(\Jac fa = f'(a)\) ist die Multiplikation mit der inneren Ableitung.

Beispiel:

Sehen Sie sich die lineare Approximation der Polarkoordinaten-Parametrisierung in 4.7.6 noch einmal an:

Die Abbildung

\( f\colon D\to\RR^2\colon{} \) \( \binom r\varphi \mapsto \binom {r\,\cos\varphi}{r\,\sin\varphi} \)

wird linear approximiert mit Hilfe der Jacobi-Matrix

\( \Jaco {f}{\binom{r_0^{}}{\varphi_0^{}}} \) \( = \left( \begin{array}{cc} \cos\varphi_0^{} & -r_0^{}\,\sin\varphi_0^{} \\\pause \sin\varphi_0^{} & r_0^{}\,\cos\varphi_0^{} \end{array} \right) \),

die wir als Produkt schreiben können:

\( \Jaco {f}{\binom{r_0^{}}{\varphi_0^{}}} \) \( = \left( \begin{array}{cc} \cos\varphi_0^{} & -\sin\varphi_0^{} \\\pause \sin\varphi_0^{} & \cos\varphi_0^{} \end{array} \right) \left( \begin{array}{cc} 1 & 0 \\ 0 & r_0^{} \end{array} \right) \).

Die lineare Approximation wird damit zerlegt in die Komposition einer Achsenstreckung — beschrieben durch die Matrix

\( \left( \begin{array}{cc} 1 & 0 \\ 0 & r_0^{} \end{array} \right) \)

gefolgt von einer Drehung — beschrieben durch die Matrix

\( \left( \begin{array}{cc} \cos\varphi_0^{} & -\sin\varphi_0^{} \\\pause \sin\varphi_0^{} & \cos\varphi_0^{} \end{array} \right) \).

Datenschutz  *  Impressum