\( \def\pause{} \def\,{\kern.2em} \def\implies{\Longrightarrow} \newcommand{\alert}[1]{\color{red}{#1}} \def\ds{\displaystyle} \let\epsilon\varepsilon \let\subseteq\subseteqq \let\supseteq\supseteqq \let\setminus\smallsetminus \let\le\leqq \let\leq\leqq \let\ge\geqq \let\geq\geqq \newcommand{\NN}{\mathbb N} \newcommand{\RR}{\mathbb R} \renewcommand{\limsup}{\mathop{\overline{\mathrm{lim}}}} \renewcommand{\liminf}{\mathop{\underline{\mathrm{lim}}}} \newcommand{\redlimsup}{\mathop{\color{red}{\overline{\mathrm{lim}}}}} \newcommand{\redliminf}{\mathop{\color{red}{\underline{\mathrm{lim}}}}} \newcommand{\konv}[1][]{\mathbin{\mathop{\longrightarrow}\limits_{#1}}} \newcommand{\bigset}[2]{\left\{{#1}\left|\strut \vphantom{#1}\vphantom{#2}\right.\, {#2}\right\}} \newcommand{\set}[2]{\left\{\smash{#1}\left|% \vphantom{\smash{#1}}\vphantom{\smash{#2}}\right.\,\smash{#2}\right\}} \newcommand{\E}{\mathrm{e}} \newcommand{\I}{\mathrm{i}} \newcommand{\diff}{\mathop{\mathrm{\kern0pt d}}} \newcommand{\diffAt}[3]{\frac{\diff}{\diff{#2}}\,\left.{\vphantom{\frac00}#1}\,\right|_{#2=#3}} \newcommand{\partAt}[3]{\frac{\partial}{\partial{#2}}\,\left.{\vphantom{\frac00}#1}\,\right|_{#2=#3}} \newcommand{\diffgleich}{\mathbin{\,\mathop{=}\limits^{\,\prime}}\,} \newcommand{\grad}{\mathop{\mathrm{grad}}} \newcommand{\Jac}[2]{\mathrm{J}{#1}\left(#2\right)} \newcommand{\Jaco}[2]{\mathrm{J}{#1}#2} \newcommand{\Hesse}[2]{\mathrm{H}{#1}\left(#2\right)} \newcommand{\Hesso}[1]{\mathrm{H}{#1}} \newcommand{\transp}{^{^{\scriptstyle\intercal}}} \newcommand{\inn}[1]{{#1}^\circ} \newcommand{\Bar}[1]{\overline{#1}} \renewcommand{\implies}{\Longrightarrow} \)

4.7. Differentiation vektorwertiger Funktionen

Schon bei der Frage nach der Stetigkeit einer vektorwertigen Funktion

\( f\colon D\to\RR^k \colon x\mapsto f(x) \) \( = \left( \begin{array}{c} f_1(x) \\ \vdots\\ f_k(x) \end{array} \right) \)

in \(n\) Variablen (also mit \( D\subseteq\RR^n \)) konnten wir uns auf die Komponentenfunktionen \( f_j \) für \( 1\le j\le k \) zurückziehen (vgl. 4.2.20).

Ebenso betrachten wir für eine vektorwertige Funktion zunächst die partielle Differenzierbarkeit der Komponentenfunktionen.

Wenn die partiellen Ableitungen existieren, fassen wir die Gradienten der Komponentenfunktionen als Zeilen einer Matrix zusammen.

Es wird sich zeigen, dass diese Matrix die lineare Approximation an die betrachtete Funktion beschreibt, und dass sich auch die lineare Approximation einer Hintereinanderausführung durch Hintereinanderausführung der linearen Approximationen (und damit in das Produkt der entsprechenden Matrizen) übersetzt.

4.7.1. Definition.

Für \( D=\inn D\subseteq\RR^n \) und \( f\colon D\to\RR^k \) seien die Komponentenfunktionen \( f_1,\ldots,f_k \) sämtlich nach jeder Variablen \(x_1,\dots,x_n\) partiell differenzierbar.

Dann ist die Jacobi-Matrix (Funktionalmatrix) gegeben durch

\( \alert{\Jac fa} := \) \( \left( \begin{array}{c} \grad f_1(a)\transp \\[2ex] \vdots \\[2ex] \grad f_k(a)\transp \end{array} \right) \) \( = \left( \begin{array}{ccc} \ds\frac{\partial f_1}{\partial x_1}(a) & \cdots & \ds\frac{\partial f_1}{\partial x_n}(a) \\ \vdots & \ddots & \vdots \\ \ds\frac{\partial f_k}{\partial x_1}(a) & \cdots & \ds\frac{\partial f_k}{\partial x_n}(a) \end{array} \right) \) \( = \left( \begin{array}{ccc} \ds\frac{\partial f}{\partial x_1}(a) \rlap{\,,} & \cdots \rlap{\,,} & \ds\frac{\partial f}{\partial x_n}(a) \end{array} \right) \,. \)

Die Spalten können wir auffassen als partielle Ableitungen der vektorwertigen Funktion:

In der Tat ergibt sich die \({\color{blue}{j}}\)-te Spalte als

\( \lim\limits_{h\to 0}\dfrac{f\bigl(a+h\,e_{\color{blue}{j}}^{}\bigr)-f(a)}{h} \) \( = \lim\limits_{h\to 0}\left( \begin{array}{c} \dfrac{f_1^{}\bigl(a+h\,e_{\color{blue}{j}}^{}\bigr)-f_1^{}(a)}{h} \\[4ex] \vdots \\[4ex]\pause \dfrac{f_k^{}\bigl(a+h\,e_{\color{blue}{j}}^{}\bigr)-f_k^{}(a)}{h} \\ \end{array} \right) \) \( = \left( \begin{array}{c} \lim\limits_{h\to 0}\dfrac{f_1^{}\bigl(a+h\,e_{\color{blue}{j}}^{}\bigr)-f_1^{}(a)}{h} \\[4ex] \vdots \\[4ex]\pause \lim\limits_{h\to 0}\dfrac{f_k^{}\bigl(a+h\,e_{\color{blue}{j}}^{}\bigr)-f_k^{}(a)}{h} \\ \end{array} \right) \) \( = \left( \begin{array}{c} \dfrac{\partial f_1}{\partial x_{\color{blue}{j}}}(a) \\[4ex] \vdots \\[4ex]\pause \dfrac{\partial f_k}{\partial x_{\color{blue}{j}}}(a) \\ \end{array} \right) \) \( =: \alert{\dfrac{\partial f}{\partial x_{\color{blue}{j}}}(a)} \,, \)

weil man diesen Grenzwert komponentenweise bestimmt.

4.7.2. Satz.

Es sei \( D\subseteq\RR^n \) und \( f\colon D\to\RR^k \) eine stetige Funktion derart, dass alle partiellen Ableitungen \( \partial_j^{} f_\ell^{}(a) \) (mit \( a\in\inn D \) und \( 1\le j\le n \) sowie \( 1\le\ell\le k \)) existieren und stetig sind.

Dann ist \(f\) linear approximierbar:

Es gilt \( f(x) \) \( = \) \( f(a) + \Jac fa\,(x-a) \) \( + o(|x-a|) \).

4.7.3. Bemerkung.

Wenn eine Abbildung \(f\) linear approximierbar ist, ist die lineare Approximation an der Stelle \(a\) eindeutig bestimmt:

Gilt

\( f(x) \) \( = f(a) + A\,(x-a) + o(|x-a|) \) \( = f(a) + B\,(x-a) + o(|x-a|) \)

für alle \(x\) in einer Umgebung von \(a\), so folgt \(A=B\).

Wir werden linear approximierbare vektorwertige Funktionen auch total differenzierbar nennen, die (eindeutig bestimmte) lineare Approximation \( \Jac fa \) heißt auch totale Ableitung von \(f\) in \(a\).

4.7.4. Spezialfälle.

  1. Für \(k = 1\) ist \( \Jac fa = \grad f(a)\transp \) eine Zeile, und 4.7.2 reduziert sich auf 4.4.4.
  2. Für \(n = 1\) lässt sich \(f\) interpretieren als Parametrisierung einer Kurve in \(\RR^k\).

    In diesem Fall ist \( \Jac ft = f'(t) \) eine Spalte.

    Ist \( t_0^{}\in\inn D \) mit \( |\Jac f{\smash{t_0^{}}}|\ne0 \), so erhält man die Tangente an diese Kurve im Punkt \( f(t_0^{}) \) als die Gerade

    \( f(t_0^{}) + \RR\, \Jac f{\smash{t_0^{}}} \) \( = f(t_0^{}) + \RR\, f'(t_0^{}) \,. \)

    Den Vektor \( f'(t_0) \) kann man interpretieren als die (momentane) Geschwindigkeit (zum Zeitpunkt \(t_0\)) eines Punktes (nämlich \(f(t)\)), dessen Bewegung auf der Kurve durch \(f\) beschrieben wird.

    Wenn \(f\) zweimal differenzierbar ist, beschreibt \( f''(t_0) \) die (momentane) Beschleunigung zum Zeitpunkt \(t_0\).

4.7.5. Beispiel.

Es sei \( f\colon\RR^n\to\RR^k \) eine lineare Abbildung.

Mit anderen Worten:

Es gibt eine \((k\times n)\)-Matrix \(A\) derart, dass \( f(x)=A\,x \).

Dann ist \(f\) an jeder Stelle \( a\in\RR^n \) total differenzierbar, die Jacobi-Matrix stimmt mit \(A\) überein: \( \Jac fa=A \).

Da die Abbildung \(f\) selbst linear ist, stimmt sie mit ihrer linearen Approximation überein, vgl. 4.7.3.

4.7.6. Beispiel: Polarkoordinaten.

Wir betrachten den (halben) Parallelstreifen

\( D:=\bigset{\ds\binom r\varphi}{\begin{array}{c}0\le r \lt +\infty, \\0\le\varphi \lt 2\,\pi\end{array}} \)

und die Abbildung \( f\colon D\to\RR^2\colon{} \) \( \binom r\varphi \mapsto \binom {r\,\cos\varphi}{r\,\sin\varphi} \).

Der Wertebereich von \(f\) ist ganz \(\RR^2\), die Einschränkung auf

\( D' := D\setminus \bigset{\binom{0}{\varphi}}{0\le\varphi \lt 2\pi} \)

liefert eine Bijektion von \( D' \) auf \( \RR^2\setminus\left\{\binom00\right\} \).

Die Abbildung \(f\) ist total differenzierbar, die Jacobi-Matrix ist

\( \Jaco {f}{\binom{r_0^{}}{\varphi_0^{}}} \) \( = \left( \begin{array}{cc} \frac{\partial f}{\partial r}{\binom{r_0^{}}{\varphi_0^{}}} & \frac{\partial f}{\partial\varphi}{\binom{r_0^{}}{\varphi_0^{}}} \end{array} \right) \) \( = \left( \begin{array}{cc} \cos\varphi_0^{} & -r_0^{}\,\sin\varphi_0^{} \\\pause \sin\varphi_0^{} & r_0^{}\,\cos\varphi_0^{} \end{array} \right) \) \( = \left( \begin{array}{cc} \cos\varphi_0^{} & -\sin\varphi_0^{} \\\pause \sin\varphi_0^{} & \cos\varphi_0^{} \end{array} \right) \left( \begin{array}{cc} 1 & 0 \\ 0 & r_0^{} \end{array} \right) \).

In der folgenden Skizze sehen Sie einen Ausschnitt aus der komplexen Zahlenebene, darunter den Parallelstreifen \(D\) angedeutet.

(Beachten Sie, dass für diesen Streifen die vertikale Achse enger skaliert wurde, um das Bild übersichtlich zu halten.)

Sie können die beiden Ecken \(A\) und \(B\) eines Rechtecks in \(D\) variieren. Die Skizze zeigt das Bild dieses Rechtecks unter der Abbildung \(f\).

Wenn Sie wollen, können Sie dazu (mit den rechteckigen Auswahlfeldern rechts oben) das Bild unter der affin linearen Approximation an \(f\) an der Stelle \(M=\frac12(A+B)\) einschalten: Diese bildet \(\binom xy\) ab auf \( f(M) + \Jac{f}{M} \left(\binom xy-M\right) \).

(Der Punkt \(M\) ist der rote Mittelpunkt zwischen \(A\) und \(B\), das Bild des Rechtecks unter der affin linearen Abbildung ist wieder ein Rechteck mit Mittelpunkt \(f(M)\), die Abbildung \(f\) krümmt das Bild des Rechtecks umso stärker, je höher das Rechteck ist.

Und ja, das sieht nicht nur ähnlich aus wie eine Taylor-Entwicklung, das ist eine...