Plots added, Jokes added, diffbar -> differenzierbar

bis Kapitel Mittelwertsatz
This commit is contained in:
henrydatei 2018-03-29 14:36:30 +02:00
parent 29daeda015
commit 789e8fd896
5 changed files with 397 additions and 215 deletions

View file

@ -1,7 +1,7 @@
\section{Ableitung} \setcounter{equation}{0}
\proplbl{section_ableitung}
\begin{*definition}
\begin{*definition}[differenzierbar, Ableitung]
Sei $f: D\subset \mathbb{R}^n \to K^m$, $D$ offen, heißt \begriff{differenzierbar} in $x\in D$, falls es lineare Abbildung $A\in L(K^n, K^m)$ gibt mit \begin{align}
\proplbl{definition_ableitung}
\Aboxed{f(x) &= f(x_0) + A(x-x_0) + o(\vert x-x_0 \vert), x\to x_0}
@ -124,12 +124,12 @@
\end{alignat}
\emph{beachte:} \begin{itemize}
\item $f$ \gls{diffbar} in $x_0$ $\Leftrightarrow$ Differentialquotient existiert in $x_0$
\item $f$ \gls{differenzierbar} in $x_0$ $\Leftrightarrow$ Differentialquotient existiert in $x_0$
\item \propref{differentialquotient} nicht erklärt im Fall von $n>1$
\end{itemize}
\begin{interpretation}[ für $m > 1$]
$f'(x_0)$ heißt \begriff{Tangentenvektor} an die Kurve in $f(x_0)$. Falls $f$ nicht \gls{diffbar} in $x_0$ bzw. $x_0$ Randpunkt in $D$ und ist $f(x_0)$ definiert, so betrachtet man in \propref{differentialquotient} auch einseitige Grenzwerte (vgl. \propref{einseitige_grenzwerte}).
$f'(x_0)$ heißt \begriff{Tangentenvektor} an die Kurve in $f(x_0)$. Falls $f$ nicht \gls{differenzierbar} in $x_0$ bzw. $x_0$ Randpunkt in $D$ und ist $f(x_0)$ definiert, so betrachtet man in \propref{differentialquotient} auch einseitige Grenzwerte (vgl. \propref{einseitige_grenzwerte}).
$\lim\limits_{t\downarrow 0} \frac{f(x_0 + t) - f(x_0)}{t} = f_r'(x_0)$ heißt \begriff[Ableitung!]{rechtsseitige} \uline{Ableitung} von $f$ in $x_0$ (falls existent), analog \begriff[Ableitung!]{linksseitige} \uline{Ableitung} $f_l'(x_0)$.
\end{interpretation}
@ -145,7 +145,7 @@
\begin{conclusion}
Sei $f:D\subset K\to K^n$, $D$ offen. Dann:
\begin{align}
\notag& \text{$f$ ist diffbar in $x_0\in D$ mit Ableitung $f'(x_0)\in L(K, K^m)$} \\
\notag& \text{$f$ ist differenzierbar in $x_0\in D$ mit Ableitung $f'(x_0)\in L(K, K^m)$} \\
\Leftrightarrow\quad
& \proplbl{differentialquotient_prop} \exists f'(x_0) \in L(K, K^m): \lim\limits_{y\to 0} \frac{f(x_0 + y) - f(x_0)}{y} = f'(x_0) \\
\notag
@ -154,7 +154,7 @@
\end{conclusion}
\subsection{Einfache Beispiele für Ableitungen}
\begin{example}
\begin{example}[affin lineare Funktionen]
\proplbl{ableitung_linear}
Sei $f:K^n\to K^m$ affin linear, d.h. \begin{align*}
f(x) = A\cdot x + a\quad \forall x\in K^n, \text{ mit } A\in L(K^n, K^m), \, a\in K^m \text{ fest}
@ -167,11 +167,25 @@
\end{align*}
\zeroAmsmathAlignVSpaces
\begin{align*}
\xRightarrow{(\ref{definition_ableitung})}\;\; \text{$f$ ist \gls{diffbar} in $x_0$ mit } f'(x_0) = A
\xRightarrow{(\ref{definition_ableitung})}\;\; \text{$f$ ist \gls{differenzierbar} in $x_0$ mit } f'(x_0) = A
\end{align*}
Insbesondere gilt für konstante Funktionen $f'(x_0) = 0$
Insbesondere gilt für konstante Funktionen $f'(x_0) = 0$\\
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {2*x};
\addlegendentry{$2x$}
\addplot+[mark=none, dashed] {2};
\addlegendentry{$2$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[quadratische Funktion]
\proplbl{ableitung_beispiel_euklidische_norm}
Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert ^2\;\forall x\in\mathbb{R}^n$
@ -184,10 +198,24 @@
\end{flalign*}
(vgl. auch \propref{spezialfall_ableitung_m1} im Spezialfall \ref{spezialfall_ableitung_m1_item})
Wegen $2x_0\in L(\mathbb{R}^n, \mathbb{R})$ folgt $f = \vert \cdot \vert^2$ ist \gls{diffbar} in $x_0$ mit $f'(x_0) = 2 x_0\;\forall x_0\in\mathbb{R}$
Wegen $2x_0\in L(\mathbb{R}^n, \mathbb{R})$ folgt $f = \vert \cdot \vert^2$ ist \gls{differenzierbar} in $x_0$ mit $f'(x_0) = 2 x_0\;\forall x_0\in\mathbb{R}$\\
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {abs(x)^2};
\addlegendentry{$\vert x\vert^2$}
\addplot+[mark=none, dashed] {2*x};
\addlegendentry{$2x$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[Funktionen mit höhrerem Exponent]
Sei $f:K\to K$, $f(x) = x^k$, $k\in\mathbb{N}$.
\begin{itemize}[leftmargin=\widthof{$\,k=0$:\ }]
\item[$k=0$:] $f(x) = 1\;\forall x$ $\Rightarrow$ $f'(x_0) = 0\;\forall x_0\in\mathbb{C}$ (vgl. \propref{ableitung_linear})
@ -199,38 +227,80 @@
$\xRightarrow{(\ref{definition_ableitung})}$ & $f'(x_0)$ & $= k\cdot x_0^{k-1}$
\end{tabularx}
\end{itemize}
\emph{beachte:} gilt in $\mathbb{C}$ und $\mathbb{R}$.
\emph{beachte:} gilt in $\mathbb{C}$ und $\mathbb{R}$. \\
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {x^3};
\addlegendentry{$x^3$}
\addplot+[mark=none, dashed] {3*x^2};
\addlegendentry{$3x^2$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[Betragsfunktion]
\proplbl{ableitung_beispiel_betrag}
Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert$ $\forall x\in\mathbb{R}^n$.
$f$ ist nicht \gls{diffbar} in $x_0=0$, denn angenommen die Ableitung $f'(0)\in\mathbb{R}^n$ ($\cong \mathbb{R}^{1 \times n}$) existiert, dann fixiere $x\in\mathbb{R}^n$ mit $\vert x \vert = 1$, und
$f$ ist nicht \gls{differenzierbar} in $x_0=0$, denn angenommen die Ableitung $f'(0)\in\mathbb{R}^n$ ($\cong \mathbb{R}^{1 \times n}$) existiert, dann fixiere $x\in\mathbb{R}^n$ mit $\vert x \vert = 1$, und
\begin{alignat*}{2}
&& \vert t\cdot x\vert &= 0 + \langle f'(0), t\cdot x \rangle + o(t),\;t\to 0,\; t\in\mathbb{R}_{\neq 0} \marginnote{$\left| \cdot \frac{1}{t}\right.$} \\
\xRightarrow{t\neq 0}\;&& \underbrace{\frac{\vert t \vert \cdot \vert x \vert}{t}}_{=\pm 1} &= \underbrace{\langle f'(0), x\rangle}_{\mathclap{\text{feste Zahl in $\mathbb{R}$}}} + \underbrace{\frac{o(t)}{t}}_{\mathclap{\xrightarrow{t\to 0}0}} \quad\Rightarrow \text{\Lightning}
\end{alignat*}
\emph{Anschaulich:} Es gibt keine Tangentialebene an den Graph von $f$ in $(0, \vert 0 \vert )\in\mathbb{R}^{n\times 1}$.\\
\emph{folglich:} $f$ stetig in $x_0$ $\cancel{\Rightarrow}$ $f$ \gls{diffbar} in $x_0$, d.h. Umkehrung von \propref{diffbar_impl_stetig} gilt i.A. nicht.
\emph{folglich:} $f$ stetig in $x_0$ $\cancel{\Rightarrow}$ $f$ \gls{differenzierbar} in $x_0$, d.h. Umkehrung von \propref{diffbar_impl_stetig} gilt i.A. nicht.
\begin{hint}
Es gibt stetige Funktion $f:\mathbb{R}\to \mathbb{R}$, die in keinem Punkt $x$ \gls{diffbar} ist (siehe Hildebrand, Analysis 1 S. 192 oder Königsberger Analysis 1, Kap. 9.11)
Es gibt stetige Funktion $f:\mathbb{R}\to \mathbb{R}$, die in keinem Punkt $x$ \gls{differenzierbar} ist (siehe Hildebrand, Analysis 1 S. 192 oder Königsberger Analysis 1, Kap. 9.11)
\end{hint}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {abs(x)};
\addlegendentry{$\vert x \vert$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[Exponentialfunktion]
Sei $f:K\to K$ mit $f(x) = e^x\;\forall x\in K$.\\
$\Rightarrow$ $f$ ist \gls{diffbar} mit $f'(x_0) = e^{x_0}\;\forall x_0\in K = \mathbb{R}\lor K=\mathbb{C}$.
$\Rightarrow$ $f$ ist \gls{differenzierbar} mit $f'(x_0) = e^{x_0}\;\forall x_0\in K = \mathbb{R}\lor K=\mathbb{C}$.
Denn: nach \propref{lemma_13_10} ist \begin{align}
& \proplbl{exp_limit_1} \lim\limits_{y\to 0} \frac{e^y - 1}{y} = 1 \text{ in } \mathbb{C} \\
\notag \Rightarrow\;& \lim\limits_{y\to 0} \frac{e^{x_0 + y} - e^{x_0}}{y} = \lim\limits_{y\to 0} e^{x_0} \cdot \frac{e^y - 1}{y} = e^{x_0} \;\xRightarrow{\eqref{differentialquotient_prop}}\; \text{Beh.}
\end{align}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {e^x};
\addlegendentry{$e^x$}
\addplot+[mark=none, dashed] {e^x};
\addlegendentry{$e^x$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[Sinus und Cosinus]
$\sin, \cos: K\to K$ ($\mathbb{R}$ bzw. $\mathbb{C}$) $\forall x_0\in K$.
Denn:{\zeroAmsmathAlignVSpaces
@ -245,17 +315,46 @@
\end{align*}}
Analog für den Kosinus.
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {sin(deg(x))};
\addlegendentry{$\sin(x)$}
\addplot+[mark=none, dashed] {cos(deg(x))};
\addlegendentry{$\cos(x)$}
\end{axis}
\end{tikzpicture}
\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {cos(deg(x))};
\addlegendentry{$\cos(x)$}
\addplot+[mark=none, dashed] {- sin(deg(x))};
\addlegendentry{$-\sin(x)$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\subsection{Rechenregeln}
\begin{*definition}
Sei $f:D\subset K^n \to K^m$, $D$ offen.
Falls $f$ \gls{diffbar} in allen $x_0\in D$, dann heißt $f$ \begriff{differenzierbar} auf $D$ und Funktion $f':D\to L(K^n, K^m)$ heißt \begriff{Ableitung} von $f$.
Falls $f$ \gls{differenzierbar} in allen $x_0\in D$, dann heißt $f$ \begriff{differenzierbar} auf $D$ und Funktion $f':D\to L(K^n, K^m)$ heißt \begriff{Ableitung} von $f$.
Ist zusätzlich Funktion $f': D\to L(K^n, K^m)$ stetig, dann heißt Funktion $f$ \begriff{stetig differenzierbar} (auf $D$) bzw. \mathsymbol{C1}{$C^1$}\emph{-Funktion} (auf $D$).
$C^1(D, K^m):= \left\lbrace f: D\to K^m \mid f \text{ stetig \gls{diffbar} auf } D \right\rbrace$
$C^1(D, K^m):= \left\lbrace f: D\to K^m \mid f \text{ stetig \gls{differenzierbar} auf } D \right\rbrace$
\end{*definition}
\begin{example}
@ -276,7 +375,20 @@
\begin{example}
\proplbl{ableitung_beipsiel_unstetige_ableitung}
Sei $f:\mathbb{R}\to \mathbb{R}$ mit $f(0) = 0$, $f(x= ) x^2\cdot \sin\left(\frac{1}{x}\right)$ $\forall x\neq 0$.
Sei $f:\mathbb{R}\to \mathbb{R}$ mit $f(0) = 0$, $f(x)=x^2\cdot \sin\left(\frac{1}{x}\right)$ $\forall x\neq 0$.
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {x^2*sin(deg(1/x))};
\addlegendentry{$x^2\cdot \sin(\frac{1}{x})$}
\end{axis}
\end{tikzpicture}\end{center}
Wegen \begin{align*}
\frac{\vert x^2 \cdot \sin \frac{1}{x}\vert}{\vert x \vert} \le \vert x \vert \xrightarrow{x\neq 0} 0
@ -284,7 +396,7 @@
folgt{ \zeroAmsmathAlignVSpaces \begin{align*}
& f(x) = o(\vert x \vert), x\to 0 \\
\Rightarrow\;& f(x) = f(0) + 0\cdot (x - 0) + o(\vert x - 0\vert), x\to 0 \\
\Rightarrow\;& f \text{ \gls{diffbar} in $x=0$ mit $f'(0) = 0$}
\Rightarrow\;& f \text{ \gls{differenzierbar} in $x=0$ mit $f'(0) = 0$}
\end{align*}}
Rechenregeln liefern $x\neq 0$: \begin{align*}
@ -311,8 +423,8 @@
\begin{proposition}[Rechenregeln]
\proplbl{ableitung_rechenregeln}
Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{diffbar} in $x_0\in D$ \\
$\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{diffbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{diffbar} in $x_0$, falls $\lambda(x_0)\neq 0$
Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{differenzierbar} in $x_0\in D$ \\
$\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{differenzierbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{differenzierbar} in $x_0$, falls $\lambda(x_0)\neq 0$
mit
\begin{enumerate}[label={\alph*)}]
\item $(f\pm g)'(x_0) = f'(x_0) \pm g'(x_0)\in K^{m\times 1}$
@ -324,8 +436,8 @@
\begin{conclusion}
\proplbl{ableitung_quotientenregel}
Seien $\lambda$, $\mu:D\to K$ \gls{diffbar} in $x_0$, $D$ offen und $\lambda(x_0)\neq 0$ \\
$\Rightarrow$ $\left( \frac{\mu}{\lambda} \right): D\to K$ \gls{diffbar} in $x_0$ mit \begin{align*}
Seien $\lambda$, $\mu:D\to K$ \gls{differenzierbar} in $x_0$, $D$ offen und $\lambda(x_0)\neq 0$ \\
$\Rightarrow$ $\left( \frac{\mu}{\lambda} \right): D\to K$ \gls{differenzierbar} in $x_0$ mit \begin{align*}
\left( \frac{\mu}{\lambda} \right)' (x_0) = \frac{\lambda(x_0)\cdot \mu'(x_0) - \mu(x_0) \cdot \lambda'(x_0)}{\lambda(x_0)^2}\in K^{1\times n}
\end{align*}
\end{conclusion}
@ -354,21 +466,21 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\end{proof}
\begin{example}
Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{diffbar} in $x_0\in D$\\
Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{differenzierbar} in $x_0\in D$\\
$\xRightarrow{\ref{ableitung_rechenregeln}\ b)} (c\cdot f) = c\cdot f'(x_0)$ (da $c$ konst. Funktion $D\to K$)
\end{example}
\begin{example}[Polynom]
Sei $f:K\to K$, Polynom $f(x) = \sum_{l=0}^{k}a_l x^l$ \\
$\Rightarrow$ $f$ \gls{diffbar} $\forall x_0\in K$ mit $f'(x_0) = \sum_{l=1}^k l a_l x_0^{l-1}$
Sei $f:K\to K$, Polynom $f(x) = \sum\limits_{l=0}^{k}a_l x^l$ \\
$\Rightarrow$ $f$ \gls{differenzierbar} $\forall x_0\in K$ mit $f'(x_0) = \sum\limits_{l=1}^k l a_l x_0^{l-1}$
\end{example}
\begin{example}
Sei $f=\frac{f_1}{f_2}$ rationale Funktion auf $\mathbb{R}$ (d.h. $f_1, f_2:K\to K$ Polynom) \\
$\Rightarrow$ $f$ ist \gls{diffbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$
$\Rightarrow$ $f$ ist \gls{differenzierbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$
\end{example}
\begin{example}
\begin{example}[Tangens und Cotangens]
\proplbl{ableitung_beispiel_tangens}
$\tan: K\setminus \{ \frac{\pi}{2} + k\cdot \pi \mid k\in\mathbb{Z} \}\to K$, $\cot:K\setminus \{ k\cdot \pi \mid k\in\mathbb{Z} \} \to K$ \\[\dimexpr - \baselineskip / 2 \relax]
\zeroAmsmathAlignVSpaces \begin{alignat*}{3}
@ -376,12 +488,42 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
&& &= \frac{\cos^2(x_0) + \sin^2(x_0)}{\cos^2(x_0)} = \frac{1}{\cos^2(x_0)} && \forall x_0\in \text{ Definitionsbereich} \\
&& \cot'(x_0) &= - \frac{1}{\sin^2(x_0)}&&\forall x_0\in\text{ Definitionsbereich}
\end{alignat*}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
restrict y to domain=-5:5
]
\addplot+[mark=none] {tan(deg(x))};
\addlegendentry{$\tan(x)$}
\addplot+[mark=none, dashed] {1/(cos(deg(x)))^2};
\addlegendentry{$\frac{1}{\cos^2(x)}$}
\end{axis}
\end{tikzpicture}
\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
restrict y to domain=-5:5
]
\addplot+[mark=none] {cot(deg(x))};
\addlegendentry{$\cot(x)$}
\addplot+[mark=none, dashed] {-1/(sin(deg(x)))^2};
\addlegendentry{$-\frac{1}{\sin^2(x)}$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{proposition}[Kettenregel]
\proplbl{ableitung_kettenregel}
Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{diffbar} in $x_0\in D$, $g$ \gls{diffbar} in $f(x_0)\in\tilde{D}$ \\
$\Rightarrow$ $g\circ f: D\to K^l$ \gls{diffbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$)
Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{differenzierbar} in $x_0\in D$, $g$ \gls{differenzierbar} in $f(x_0)\in\tilde{D}$ \\
$\Rightarrow$ $g\circ f: D\to K^l$ \gls{differenzierbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$)
\end{proposition}
\begin{proof}
@ -396,7 +538,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
$\xRightarrow{\ref{definition_ableitung_proposition}\,c)}$ Behauptung
\end{proof}
\begin{example}
\begin{example}[$x$ im Exponenten]
\proplbl{ableitung_beispiel_exponentialfunktion}
Sei $f:\mathbb{R}\to \mathbb{R}$, $f(x) = a^x$ ($a\in\mathbb{R}_{\ge 0}$, $a\neq 1$).
@ -407,9 +549,23 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\zeroAmsmathAlignVSpaces \begin{alignat*}{2}
\xRightarrow{\text{\propref{ableitung_kettenregel}}}\quad&& f'(x_0) &= g'(x_0\cdot \ln a)\cdot f'(x_0) = e^{x_0\cdot \ln a}\cdot \ln a = a^x\cdot \ln a \quad\forall x_0\in\mathbb{R}
\end{alignat*}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {2^x};
\addlegendentry{$2^x$}
\addplot+[mark=none, dashed] {2^x*ln(2)};
\addlegendentry{$2^x\cdot \ln(2)$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
\begin{example}[Logarithmus]
\proplbl{ableitung_beispiel_logarithmus}
Sei $f:\mathbb{R}_{>0} \to \mathbb{R}$, $f(x) = \log_a x$ ($a\in\mathbb{R}_{>0}\setminus\{1\}$)
@ -421,6 +577,20 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\end{alignat*}
Spezialfall: $(\ln(x))' = \frac{1}{x}$ $\forall x>0$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {log2(x)};
\addlegendentry{$\log_2(x)$}
\addplot+[mark=none, dashed] {1/(x*ln(2))};
\addlegendentry{$\frac{1}{x\cdot\ln(2)}$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
@ -440,7 +610,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\begin{proposition}[Reduktion auf skalare Funktionen]
\proplbl{ableitung_proposition_reduktion}
Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $x_0\in D$. Dann gilt:\begin{center}
$f$ \gls{diffbar} in $x_0$ $\Leftrightarrow$ alle $f_j$ \gls{diffbar} in $x_0$ $\forall j=1,\dotsc,m$
$f$ \gls{differenzierbar} in $x_0$ $\Leftrightarrow$ alle $f_j$ \gls{differenzierbar} in $x_0$ $\forall j=1,\dotsc,m$
\end{center}
Im Fall der Differenzierbarkeit hat man: \begin{align}
@ -452,7 +622,21 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\end{pmatrix} \in K^{m\times n}
\end{align}
\end{proposition}
\smiley{} Wenn Sie das nächste mal aus der Disko kommen, zuviel getrunken haben und den Namen
ihrer Freundin nicht mehr kennen, sollten sie sich daran aber noch erinnern: \smiley{} \\
\begin{proof}
\begin{itemize}
\item Hinrichtung: man hat $f(x)=f(x_0)+f'(x_0)(x-x_0)+R(x)(x-x_0)$ mit $R(x)\to 0$, da
$f'(x_0),R(x)\in L(K^n,K^k\times K^l) \Rightarrow f'(x_0)y=(A_1y,A_2y)$, $R(x)y=(R_1(x)y,
R_2(x)y)$ mit $A_1,R_1\in L(K^n,K^k)$, $A_2,R_2\in L(K^n,K^l)$ \\
$\Rightarrow f_j(x)=f_j(x_0)+A_j(x-x_0)+R_j(x-x_0)$ mit $R_j\to 0$ und $j=\{1,2\}\quad (*)$ \\
$\Rightarrow f_j$ ist differenzierbar in $x_0$ it $f'_j(x_0)=A_j\Rightarrow$ Behauptung
\item Rückrichtung: es gilt $(*)$ mit $A_j=f'_j(x_0)$. Setze $A=\begin{pmatrix}f'_1(x_0) \\ f'_2(x_0)\end{pmatrix}$ und $R(x)=\begin{pmatrix}R_1(x) \\ R_2(x)\end{pmatrix} \Rightarrow
AR(x)\in L(K^n,K^k\times K^l)$ \\
$\Rightarrow f(x)=f(x_0)+A(x-x_0)+R(x)(x-x_0)$, $R(x)\to 0\Rightarrow f$ differenzierbar in
$x_0\Rightarrow$ Behauptung
\end{itemize}
\end{proof}
\begin{remark}
Mit \propref{ableitung_proposition_reduktion} kann man die Berechnungen der Ableitungen stets auf skalare Funktionen $f:D\subset K^n\to K$ zurückführen. Die Matrix in \propref{ableitung_jacobimatrix} besteht aus $m$ Zeilen $f_j'(x_0)\in K^{1\times m}$.
@ -473,7 +657,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\proplbl{ableitung_spezialfall_reduktion_proposition}
Sei $f=(f_1, f_2):D\subset K^n\to K^k\times K^l$, $D$ offen, $x_0\in D$.
Funktion $f$ ist \gls{diffbar} in $x_0$ genau dann, wenn $f_1:D\to K^k$ und $f_2 :D\to K^l$ \gls{diffbar} in $x_0$.
Funktion $f$ ist \gls{differenzierbar} in $x_0$ genau dann, wenn $f_1:D\to K^k$ und $f_2 :D\to K^l$ \gls{differenzierbar} in $x_0$.
Im Falle der Differenzierbarkeit gilt\begin{align}
\proplbl{ableitung_spezialfall_reduktion}
@ -504,7 +688,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\notag\Rightarrow&\;\;& f'(x_0) &= (A_1, A_2), \; R(x) = \big( R_1(x), R_2(x) \big))
\intertext{mit $A_1, R_1(x)\in L(K^n, K^k)$, $A_2, R(x)\in L(K^n, K^l)$}
\proplbl{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung} \xRightarrow{\eqref{ableitung_beweis_lemma_spezialfall_reduktion}}&& f_j(x)&= f_j(x_0) + A_j \cdot (x - x_0) + R_j(x) (x - x_0),\;R_j(x)\xrightarrow{x\to x_0}0 \\
\notag\Rightarrow&& f_j & \text{ ist \gls{diffbar} in $x_0$ mit $f_j'(x_0) = A_j$, $j=1,2$}
\notag\Rightarrow&& f_j & \text{ ist \gls{differenzierbar} in $x_0$ mit $f_j'(x_0) = A_j$, $j=1,2$}
\end{alignat}
$\Rightarrow$ Behauptung
\item["`$\Leftarrow$"'] (es gilt auch \eqref{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung} mit $A_j = f_j'(x_0)$)
@ -518,7 +702,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\xRightarrow{\eqref{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung}}\;& A, R(x)\in L(K^n, K^k\times K^l) \\
\xRightarrow{\text{mit }A_j=f_j'(x_0)}\; & f(x)= f(x_0) + A(x - x_0) + R(x)(x - x_0), R(x)\xrightarrow{x\to x_0}0
\end{align*}
$\Rightarrow$ $f$ \gls{diffbar} in $x_0$ und \eqref{ableitung_spezialfall_reduktion} gilt.\hfill\csname\InTheoType Symbol\endcsname
$\Rightarrow$ $f$ \gls{differenzierbar} in $x_0$ und \eqref{ableitung_spezialfall_reduktion} gilt.\hfill\csname\InTheoType Symbol\endcsname
\end{itemize}
\end{proof}

View file

@ -1,5 +1,5 @@
\section{Mittelwertsatz und Anwendung}\setcounter{equation}{0}
\begin{*definition}
\begin{*definition}[Maximum, Minimum]
Wir sagen, $f:D\subset \mathbb{R}^n\to \mathbb{R}$ besitzt \begriff{Minimum} bzw. \begriff{Maximum} auf $D$, falls eine \begriff{Minimalstelle} bzw. \begriff{Maximalstelle} $x_0\in D$ existiert mit \begin{align}
\proplbl{mittelwertsatz_extremalstellen}
f(x_0) &\le f(x) & f(x) &\ge f(x) & \forall x&\in D
@ -21,7 +21,7 @@
\begin{theorem}[notwendige Optimalitätsbedingung]
\proplbl{mittelwertsatz_optimalitaetsbedingung}
Sei $f:D\subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ sei \gls{diffbar} in $x\in D$ und habe lokales Minimum bzw. Maximum in $x_0$. Dann: \begin{align}
Sei $f:D\subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ sei \gls{differenzierbar} in $x\in D$ und habe lokales Minimum bzw. Maximum in $x_0$. Dann: \begin{align}
\proplbl{mittelwertsatz_optimalitaetsbedingung_eq}
f'(x_0) &= 0 \quad (\in\mathbb{R}^{1\times n})
\end{align}
@ -45,7 +45,7 @@
\parbox{\widthof{\phantom{$\xRightarrow{t\to 0}$}}}{\hfill$\Rightarrow$} & $\exists \delta > 0: x_0 + t\cdot z\in D$ $\forall t\in (-\delta, \delta)$
\end{tabularx}
f \gls{diffbar} in $x_0$, Minimum in $x_0$ \\
f \gls{differenzierbar} in $x_0$, Minimum in $x_0$ \\
\begin{tabularx}{\linewidth}{rX}
$\Rightarrow$ & $ 0\le f(x_0 + t\cdot z) - f(x_0) = t\cdot f'(z_0) \cdot z + o(t)$, $t\to 0$ \marginnote{$\left| \cdot \frac{1}{t}\right.$} \\
$\xRightarrow{t>0}$ & $0\le f'(x_0)\cdot z + o(1)$ \\
@ -58,7 +58,7 @@
Einfache, aber wichtige Anwendung:
\begin{proposition}[Satz von Rolle]
\proplbl{mittelwertsatz_rolle}
Sei $f:[a,b]\in\mathbb{R}\to\mathbb{R}$ stetig, $-\infty < a < b < \infty$, $f$ \gls{diffbar} auf $(a,b)$ und $f(a) = f(b)$.\\
Sei $f:[a,b]\in\mathbb{R}\to\mathbb{R}$ stetig, $-\infty < a < b < \infty$, $f$ \gls{differenzierbar} auf $(a,b)$ und $f(a) = f(b)$.\\
$\Rightarrow$ $\exists \xi\in(a,b): f(\xi) = 0$
\end{proposition}
@ -73,7 +73,7 @@ Einfache, aber wichtige Anwendung:
\end{itemize}
\end{proof}
\begin{*definition}
\begin{*definition}[abgeschlossenes, offenes Segment]
Setze für $x,y\in K^n$
\begin{itemize}
\item $[x,y] := \{ x + t(y - x)\in\mathbb{R}^n \mid t\in [0,1] \}$ \begriff[Segment!]{abgeschlossenes} \begriff{Segment} (abgeschlossene Verbindungsstrecke)
@ -83,7 +83,7 @@ Einfache, aber wichtige Anwendung:
\begin{theorem}[Mittelwertsatz]
\proplbl{mittelwertsatz_mittelwertsatz}
Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{diffbar} auf $D$ und seien $x,y\in D$ mit $[x,y]\subset D$. Dann \begin{align}
Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} auf $D$ und seien $x,y\in D$ mit $[x,y]\subset D$. Dann \begin{align}
\proplbl{mittelwertsatz_mittelwertsatz_eq}
\exists \xi\in(x,y): f(y) - f(x) = f'(\xi) \overset{\star}{\cdot} (y - x)\marginnote{$\star$: Skalarprodukt}
\end{align}
@ -95,7 +95,7 @@ Einfache, aber wichtige Anwendung:
f'(\xi) = \frac{f(y) - f(x)}{y - x} \quad\text{falls }x\neq y.
\end{align*}
\item Der \gls{mws} gilt \emph{nicht} für $\mathbb{C}$ oder $m\neq 1$.
\item \propref{mittelwertsatz_mittelwertsatz} gilt bereits für $D\subset\mathbb{R}^n$ beliebig, $f$ stetig auf $[x,y]\subset D$, $f$ \gls{diffbar} auf $(x,y) \subset \inn D$.
\item \propref{mittelwertsatz_mittelwertsatz} gilt bereits für $D\subset\mathbb{R}^n$ beliebig, $f$ stetig auf $[x,y]\subset D$, $f$ \gls{differenzierbar} auf $(x,y) \subset \inn D$.
\end{itemize}
\end{remark}
@ -103,10 +103,10 @@ Einfache, aber wichtige Anwendung:
\NoEndMark
Setzte $\phi(t) = f(x + t(y - x)) - \big( f(y) - f(x) \big) t$ $\forall t\in[0,1]$ \\
\begin{tabularx}{\linewidth}{rX}
\parbox{\widthof{$\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$}}{\hfill$\xRightarrow{\text{$f$ \gls{diffbar}}}$}& $\phi: [0,1]\to \mathbb{R}$ stetig, $\phi(0) = \phi(1) = f(x)$
\parbox{\widthof{$\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$}}{\hfill$\xRightarrow{\text{$f$ \gls{differenzierbar}}}$}& $\phi: [0,1]\to \mathbb{R}$ stetig, $\phi(0) = \phi(1) = f(x)$
\end{tabularx}
$\phi$ \gls{diffbar} auf $(0,1)$ (verwende Kettenregel) mit \begin{align}
$\phi$ \gls{differenzierbar} auf $(0,1)$ (verwende Kettenregel) mit \begin{align}
\proplbl{mittelwertsatz_mittelwertsatz_beweis_eq}
\phi'(t) = f'(x + t(y - x)) \cdot (y - x) - \big( f(y) - f(x) \big)
\end{align}
@ -119,7 +119,7 @@ Einfache, aber wichtige Anwendung:
\begin{proposition}[Verallgemeinerter Mittelwertsatz in $\mathbb{R}$]
\proplbl{mittelwertsatz_mittelwertsatz_verallgemeinert}
Seien $f,g: [x,y]\subset \mathbb{R}\to\mathbb{R}$ stetig und \gls{diffbar} auf $(x,y)$ ($x,y\in\mathbb{R}$, $x < y$). Dann \begin{align*}
Seien $f,g: [x,y]\subset \mathbb{R}\to\mathbb{R}$ stetig und \gls{differenzierbar} auf $(x,y)$ ($x,y\in\mathbb{R}$, $x < y$). Dann \begin{align*}
\exists \xi\in (x,y): \big( f(y) - f(x) \big)\cdot g'(\xi) = \big( g(y) - g(x) \big) f'(\xi)
\end{align*}
\end{proposition}
@ -128,17 +128,16 @@ Einfache, aber wichtige Anwendung:
\NoEndMark
Sei $h(t) := \big( f(y) - f(x) \big) g(t) - \big( g(y) - g(x) \big) f(t)$ $\forall t\in [x,y]$ \\
\begin{tabularx}{\linewidth}{rX@{}}
$\Rightarrow$ & $h:[x,y]\to\mathbb{R}$ stetig, \gls{diffbar} auf $(x,y)$, $h(x) = h(y)$ \\
$\Rightarrow$ & $h:[x,y]\to\mathbb{R}$ stetig, \gls{differenzierbar} auf $(x,y)$, $h(x) = h(y)$ \\
$\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$ & $\exists \xi \in(x,y): 0 = h'(\xi) = \big( f(y) - f(x) \big) g'(\xi) - \big( g(y) - g(x) \big) f'(\xi)$ \\
$\Rightarrow$ & Behauptung\hfill\csname\InTheoType Symbol\endcsname
\end{tabularx}
\end{proof}
\begin{underlinedenvironment}[Frage]
Der \gls{mws} gilt für $m=1$. Was ist bei $m > 1$?
\end{underlinedenvironment}
\textbf{Frage:} Der \gls{mws} gilt für $m=1$. Was ist bei $m > 1$?
\begin{conclusion}
Sei $f = (f_1, \dotsc, f_m): D\subset\mathbb{R}^n \to \mathbb{R}^m$, $D$ offen, \gls{diffbar} auf $D$, $[x,y]\subset D$. Dann
Sei $f = (f_1, \dotsc, f_m): D\subset\mathbb{R}^n \to \mathbb{R}^m$, $D$ offen, \gls{differenzierbar} auf $D$, $[x,y]\subset D$. Dann
\begin{align}
\proplbl{mittelwertsatz_mittelwertsatz_m_gt_eins_eq}
\exists \xi_1, \dotsc, \xi_m \in (x,y): f(y) - f(x) = \left( \begin{matrix}
@ -154,9 +153,7 @@ Einfache, aber wichtige Anwendung:
und diese Folgen direkt aus \propref{mittelwertsatz_mittelwertsatz} für $f_j: D\to \mathbb{R}$.
\end{proof}
\begin{underlinedenvironment}[Frage]
Ist in \eqref{mittelwertsatz_mittelwertsatz_m_gt_eins_eq} auch $\xi_1 = \dotsc = \xi_m$ möglich? Im Allgemeinen nein.
\end{underlinedenvironment}
\textbf{Frage:} Ist in \eqref{mittelwertsatz_mittelwertsatz_m_gt_eins_eq} auch $\xi_1 = \dotsc = \xi_m$ möglich? Im Allgemeinen nein.
\begin{example}
Sei $f:\mathbb{R}\to\mathbb{R}^2$ mit $f(x) = \binom{\cos x}{\sin x}$ $\forall x\in\mathbb{R}$.
@ -169,13 +166,11 @@ Einfache, aber wichtige Anwendung:
\end{tabularx}
\end{example}
\begin{underlinedenvironment}[Ausweg]
Für $m>1$ gilt statt \eqref{mittelwertsatz_mittelwertsatz_eq} Abschätzung \eqref{mittelwertsatz_schrankensatz_eq}, die meist ausreicht und ebenso richtig ist wie der \gls{mws}.
\end{underlinedenvironment}
\textbf{Ausweg:} Für $m>1$ gilt statt \eqref{mittelwertsatz_mittelwertsatz_eq} Abschätzung \eqref{mittelwertsatz_schrankensatz_eq}, die meist ausreicht und ebenso richtig ist wie der \gls{mws}.
\begin{theorem}[Schrankensatz]
\proplbl{mittelwertsatz_schrankensatz}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} auf $D$. Seien $x,y\in D$, $[x,y]\subset D$. Dann\begin{align}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} auf $D$. Seien $x,y\in D$, $[x,y]\subset D$. Dann\begin{align}
\proplbl{mittelwertsatz_schrankensatz_eq}
\exists \xi\in (x,y): \vert f(y) - f(x) \vert \le \vert f'(\xi) (y - x)\vert \le \Vert f'(\xi) \Vert \cdot \vert y - x\vert
\end{align}
@ -187,9 +182,9 @@ Einfache, aber wichtige Anwendung:
Sei $f(x) \neq f(y)$ (sonst klar). Setzte $v:= \frac{f(y) - f(x)}{\vert f(y) - f(x)\vert} \in K^m$, offenbar $\vert v \vert = 1$.
Betrachte $\phi: [0,1] \to\mathbb{R}$ mit $\phi(t) := \Re \langle f(x + t (y - x)), v\rangle\marginnote{$\langle u,v\rangle = \sum_{i=1}^{n}\overline{u_i} v_i$}$
Da $f$ \gls{diffbar}, gilt \begin{align*}
Da $f$ \gls{differenzierbar}, gilt \begin{align*}
\langle f(x + s(y - x)), v\rangle = \langle f(x + t(y - x)), v\rangle + \langle f'(x + t(y - x))\cdot (s - t)(y - x), v \rangle + \underbrace{o(\vert s - t\vert \cdot \vert y - x\vert)}_{=o(\vert s - t\vert)}, \; s\to t
\end{align*} und damit ist auch $\phi$ \gls{diffbar} auf $(0,1)$ mit \begin{align*}
\end{align*} und damit ist auch $\phi$ \gls{differenzierbar} auf $(0,1)$ mit \begin{align*}
\phi'(t) &= \Re \langle f'(x + t(y - x))\cdot (y - x), v \rangle \quad \forall t\in (0,1)
\end{align*}
\propref{mittelwertsatz_mittelwertsatz} liefert: $\exists \tau \in (0,1): \underbrace{\phi(1) - \phi(0)}_{=\Re \langle f(y) - f(x), v\rangle} = \phi(\tau) \cdot (1 - 0)$ \\
@ -200,12 +195,10 @@ Einfache, aber wichtige Anwendung:
\end{alignat*} \hfill\csname\InTheoType Symbol\endcsname
\end{proof}
\begin{underlinedenvironment}[Wdh]
$M\subset K^n$ heißt konvex, falls $[x,y]\subset M$ $\forall x,y\in M$
\end{underlinedenvironment}
\textbf{Wiederholung:} $M\subset K^n$ heißt konvex, falls $[x,y]\subset M$ $\forall x,y\in M$
\begin{proposition}[\person{Lipschitz}-Stetigkeit]
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ stetig \gls{diffbar} auf $D$. Sei $M\subset D$ kompakt und konvex. Dann \begin{align}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ stetig \gls{differenzierbar} auf $D$. Sei $M\subset D$ kompakt und konvex. Dann \begin{align}
\proplbl{mittelwertsatz_lipschitzstetigkeit_eq}
\vert f(y) - f(x) \vert \le L \cdot \vert y - x\vert \quad \forall x,y\in M
\end{align}
@ -223,16 +216,14 @@ Einfache, aber wichtige Anwendung:
$\xRightarrow{\text{\propref{chap_15_3}}}$ $\Vert f'(\xi)\Vert$ besitzt Maxium auf $M$ und die Behauptung folgt aus \propref{mittelwertsatz_schrankensatz}.
\end{proof}
\begin{underlinedenvironment}[bekanntlich]
$f(x) = \mathrm{const}$ $\forall x$ $\Rightarrow$ $f'(x) = $
\end{underlinedenvironment}
\textbf{bekanntlich:} $f(x) = \mathrm{const}$ $\forall x$ $\Rightarrow$ $f'(x) = 0$
\begin{proposition}
\proplbl{mittelwertsatz_ableitung_null_konstante_funktion}
Sei $f:D\subset K^n\to K^m$, $D$ offen, und zusammenhängend.
\begin{tabularx}{\linewidth}{XcX}
\hfill$f$ \gls{diffbar} auf $D$ mit $f'(x) = 0$ $\forall x\in D$ & $\Rightarrow$ & $f(x) = \mathrm{const}$ $\forall x\in D$.
\hfill$f$ \gls{differenzierbar} auf $D$ mit $f'(x) = 0$ $\forall x\in D$ & $\Rightarrow$ & $f(x) = \mathrm{const}$ $\forall x\in D$.
\end{tabularx}
\end{proposition}
@ -264,7 +255,7 @@ Einfache, aber wichtige Anwendung:
\end{proof}
\begin{example}
Sei $f:D = (0,1)\cup (2,3) \to \mathbb{R}$ \gls{diffbar}, sei $f'(x) = 0$ auf $D$ \\
Sei $f:D = (0,1)\cup (2,3) \to \mathbb{R}$ \gls{differenzierbar}, sei $f'(x) = 0$ auf $D$ \\
\begin{tabularx}{\linewidth}{rX}
$\xRightarrow{\text{\propref{mittelwertsatz_ableitung_null_konstante_funktion}}}$ & $f(x) = \mathrm{const}$ auf $(0,1)$ und $(2,3)$, aber auf jedem Intervall kann die Konstante anders sein.
\end{tabularx}
@ -272,7 +263,7 @@ Einfache, aber wichtige Anwendung:
\rule{0.4\linewidth}{0.1pt}
Zurück zur Frage nach 18.11: \\ \begin{tabularx}{\linewidth}{XcX}
\hfill part Ableitung existiert & $\Rightarrow$ & Ableitung existiert?
\hfill partielle Ableitung existiert & $\Rightarrow$ & Ableitung existiert?
\end{tabularx}
Nein! \uline{Aber:}
@ -291,7 +282,7 @@ Nein! \uline{Aber:}
Betrachte die Eckpunkt eines Quaders in $D$: $a_0 = x, a_k := a_{k - 1} + y_k e_k$ für $k = 1,\dotsc,n$ \\
$\Rightarrow$ $a_n = x + y$.
Offenbar $\phi_k(t) = f(a_{k-1} + t e_k y_k) - f(a_{k - 1}) - tf_{x_k}(a_{k - 1}) y_k$ stetig auf $[0,1]$, \gls{diffbar} auf $(0,1)$ mit \begin{align*}\phi_k'(t) = f_{x_k}(a_{k - 1} + t e_k y_k) y_k - f_{x_k}(a_{k-1}) y_k
Offenbar $\phi_k(t) = f(a_{k-1} + t e_k y_k) - f(a_{k - 1}) - tf_{x_k}(a_{k - 1}) y_k$ stetig auf $[0,1]$, \gls{differenzierbar} auf $(0,1)$ mit \begin{align*}\phi_k'(t) = f_{x_k}(a_{k - 1} + t e_k y_k) y_k - f_{x_k}(a_{k-1}) y_k
\end{align*}
$\xRightarrow{\text{\propref{mittelwertsatz_schrankensatz}}}$ $\vert \phi_k(1) - \phi_k(0)\vert = \vert f(a_k) - f(a_{k - 1}) - f_{x_k} (a_{k +1}) y_k \vert \le \sup\limits_{t\in (0,1)} \vert \phi_k'(\xi)\vert$, $k = 1,\dotsc,n$
@ -307,14 +298,14 @@ Nein! \uline{Aber:}
\begin{tabularx}{\linewidth}{rX@{}}
$\Rightarrow$ & $f(x + y) = f(y) + Ay + R(y)$ mit $\frac{\vert R(y)\vert}{y} \le \rho(y) \xrightarrow{y\to 0} 0$ (d.h. $R(y) = o(\vert y)$) \\
$\xLeftrightarrow{\propref{definition_ableitung_proposition}}$ & $f$ ist \gls{diffbar} in $x$ mit $f'(x) = A$\hfill\csname\InTheoType Symbol\endcsname
$\xLeftrightarrow{\propref{definition_ableitung_proposition}}$ & $f$ ist \gls{differenzierbar} in $x$ mit $f'(x) = A$\hfill\csname\InTheoType Symbol\endcsname
\end{tabularx}
\end{proof}
\subsection{Anwendung des Mittelwertsatzes in $\mathbb{R}$}
\begin{proposition}[Monotonie]
\proplbl{mittelwertsatz_anwendung_monotonie}
Sei $f:(a,b)\subset\mathbb{R}\to \mathbb{R}$ \gls{diffbar}, dann gilt:
Sei $f:(a,b)\subset\mathbb{R}\to \mathbb{R}$ \gls{differenzierbar}, dann gilt:
\begin{enumerate}[label={\roman*)}]
\item \proplbl{mittelwertsatz_anwendung_monotonie_aussage_eins}$f'(x) \ge 0$ ($\le 0$) $\forall x\in (a,b)$ $\Leftrightarrow$ $f$ monoton wachsend (monoton fallend)
\item \proplbl{mittelwertsatz_anwendung_monotonie_aussage_zwei} $f'(x) > 0$ ($< 0$) $\forall x\in (a,b)$ $\Rightarrow$ $f$ streng monoton wachsend (fallend)
@ -340,7 +331,7 @@ Nein! \uline{Aber:}
\end{proof}
\begin{proposition}[Zwischenwertsatz für Ableitungen]
Sei $f:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{diffbar}, $a < x_1 < x_2 < b$. Dann
Sei $f:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{differenzierbar}, $a < x_1 < x_2 < b$. Dann
\begin{center}
\begin{tabular}{r@{$\;\;$}c@{\ \ }l}
@ -351,7 +342,7 @@ Nein! \uline{Aber:}
\end{proposition}
\begin{proof}
Sei $g:(a,b)\to \mathbb{R}$ mit $g(x) = f(x) - \gamma x$ ist \gls{diffbar} auf $(a,b)$
Sei $g:(a,b)\to \mathbb{R}$ mit $g(x) = f(x) - \gamma x$ ist \gls{differenzierbar} auf $(a,b)$
\begin{tabularx}{\linewidth}{r@{\ \ }X@{}}
$\xRightarrow{\text{Weierstraß}}$ & $\exists \tilde{x}\in [x_1,x_2]$ mit $g(\tilde{x}) \le g(x)$ $\forall x\in[x_1,x_2]$ \\
@ -369,7 +360,7 @@ Betrachte nun "`unbestimme Grenzwerte"' $\lim\limits_{y\to x} \frac{f(x)}{g(x)}$
\begin{proposition}[Regeln von \person{de l'Hospital}]
\proplbl{mittelwertsatz_krankenhaus}
Seien $f,g:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{diffbar}, $g'(x) \neq 0$ $\forall x\in(a,b)$ und entwender
Seien $f,g:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{differenzierbar}, $g'(x) \neq 0$ $\forall x\in(a,b)$ und entwender
\begin{enumerate}[label={\roman*)}]
\item $\lim\limits_{x\downarrow a} f(x) = 0$, $\lim\limits_{x\downarrow 0} g(x) = 0$, oder
\item $\lim\limits_{x\downarrow a} f(x) =\infty$, $\lim\limits_{x\downarrow a} g(x) = \infty$

View file

@ -1,28 +1,24 @@
\section{Richtungsableitung und partielle Ableitung}\proplbl{richtungsableitung} \setcounter{equation}{0}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\begin{underlinedenvironment}[Ziel]
Zurückführung der Berechnung der Ableitung $f(x)$ auf die Berechnung der Ableitung für Funktionen $\tilde{f}:\tilde{D}\subset K\to K$
\textbf{Ziel:} Zurückführung der Berechnung der Ableitung $f(x)$ auf die Berechnung der Ableitung für Funktionen $\tilde{f}:\tilde{D}\subset K\to K$
\begin{itemize}
\item Reduktionssatz $\Rightarrow$ man kann sich bereits auf $m=1$ einschränken
\item für Berechnung der Ableitung von $f$ ist neben den Rechen- und Kettenregeln auch der Differentialquotient verfügbar
\end{itemize}
\end{underlinedenvironment}
\begin{underlinedenvironment}[Idee]
Betrachte $f$ auf Geraden $t\to x + t\cdot z$ durch $x$ $\Rightarrow$ skalares Argument $t$, $t\in K$ $\Rightarrow$ Differentialquotient.
\textbf{Idee:} Betrachte $f$ auf Geraden $t\to x + t\cdot z$ durch $x$ $\Rightarrow$ skalares Argument $t$, $t\in K$ $\Rightarrow$ Differentialquotient.
Spezialfall: $z = e_j$ $\Rightarrow$ Partielle Ableitung
\end{underlinedenvironment}
\begin{*definition}
\begin{*definition}[Richtungsableitung]
Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$, $z\in K^n$.
Falls $a\in L(K, K^m)$ ($\cong K^m$) existiert mit\begin{align}
\proplbl{richtungsableitung_definition}
f(x + t\cdot z) = f(x) + t\cdot a + o(t),\;t\to 0,\; t\in K,
\end{align}
dann heißt $f$ \gls{diffbar} in $x$ \begriff[differenzierbar!]{in Richtung $z$} und \mathsymbol{Dz}{$\mathrm{D}_z$}$f(x) := a$ heißt \begriff{Richtungsableitung} von $f$ in $x$ in Richtung $z$ (andere Bezeichnungen: $f(x; z)$, $\partial_z f(x)$, $\frac{\partial f}{\partial z}(x)$, $\partial f(x,z)$, $\dotsc$)
dann heißt $f$ \gls{differenzierbar} in $x$ \begriff[differenzierbar!]{in Richtung $z$} und \mathsymbol{Dz}{$\mathrm{D}_z$}$f(x) := a$ heißt \begriff{Richtungsableitung} von $f$ in $x$ in Richtung $z$ (andere Bezeichnungen: $f(x; z)$, $\partial_z f(x)$, $\frac{\partial f}{\partial z}(x)$, $\partial f(x,z)$, $\dotsc$)
\end{*definition}
\begin{*remark}
\begin{itemize}[topsep=\dimexpr -\baselineskip / 2\relax]
@ -35,7 +31,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\proplbl{richtungsableitung_prop_equivalente_definition}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$, $z\in K^n$. Dann:
\begin{align}
\notag &\text{$f$ \gls{diffbar} in $x$ in Richtung $z$ mit $\mathrm{D}_z f(x)\in L(K, K^m)$} \\
\notag &\text{$f$ \gls{differenzierbar} in $x$ in Richtung $z$ mit $\mathrm{D}_z f(x)\in L(K, K^m)$} \\
\proplbl{richtungsableitung_definition_prop_eins}
\Leftrightarrow\;\; & \text{für }\phi(t) = f(x + t\cdot z) \text{ existiert }\phi'(0) \text{ und } \mathrm{D}_z f(x) = \phi'(0) \\
\proplbl{richtungsableitung_definitnion_prop_zwei}
@ -54,13 +50,11 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
$\xRightarrow{\eqref{richtungsableitung_definition_prop_eins}}$ Richtungsableitung von $f$ existiert für alle $ x = (x_1, 0)$ \emph{nur} in Richtung $z=(z_1, 0)$ mit $\mathrm{D}_z f(x) = 2x_1 z_1$
\end{example}
\begin{underlinedenvironment}[Frage]
Existiert $\mathrm{D}_z f(x)$ $\forall z$, falls $f$ \gls{diffbar} in $x$?
\end{underlinedenvironment}
\textbf{Frage:} Existiert $\mathrm{D}_z f(x)$ $\forall z$, falls $f$ \gls{differenzierbar} in $x$?
\begin{proposition}
\proplbl{richtungsableitung_prop_existenz_prop}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$.\\
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$.\\
$\Rightarrow$ Richtungsableitung $\mathrm{D}_z f(x)$ existiert $\forall z\in K^n$ und \begin{align}
\proplbl{richtungsableitung_prop_existenz}
\mathrm{D}_z f(x) = f'(x) \cdot z \;(\in K^{m\times 1})
@ -70,7 +64,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\begin{proof}
\NoEndMark
$f$ \gls{diffbar} in $x$ \\
$f$ \gls{differenzierbar} in $x$ \\
\begin{tabularx}{\linewidth}{r@{\ \ }X}
$\Rightarrow$ &$f(y) = f(x) + f'(x) (y - x) + o(\vert y - x\vert)$, $y\to x$ \\
$\xRightarrow{y=x+t\cdot z}$& $f(x + tz) = f(x) + t\cdot f'(x)\cdot z + o(t)$, $t\to 0$ \\
@ -97,15 +91,15 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\end{example}
\subsection{Anwendung: Eigenschaften des Gradienten}
\begin{*definition}
Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{diffbar} in $x\in D$.
\begin{*definition}[Niveaumenge]
Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$.
$N_C:= \{ y\in D \mid f(x) = f(y) \}$ heißt \begriff{Niveaumenge} von $f$ für $x\in \mathbb{R}$.
\end{*definition}
\begin{*definition}
Sei $\gamma: (-\delta, \delta)\to N_C$ ($\delta > 0$) Kurve mit $\gamma(0) = 0$, $\gamma$ \gls{diffbar} in $0$.
\begin{*definition}[Tangentialvektor]
Sei $\gamma: (-\delta, \delta)\to N_C$ ($\delta > 0$) Kurve mit $\gamma(0) = 0$, $\gamma$ \gls{differenzierbar} in $0$.
Ein $z\in\mathbb{R}\setminus \{0\}$ mit $z = \gamma'(0)$ für eine derartige Kurve $\gamma$ heißt \begriff{Tangentialvektor} an $N_C$ in $x$.
@ -120,7 +114,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\begin{proposition}[Eigenschaften des Gradienten]
\proplbl{richtungsableitung_gradient_eigenschaften}
Sei $f:D\subset\mathbb{R}^n\to\mathbb{R}$, $D$ offen, $f$ \gls{diffbar} in $x\in D$. Dann:
Sei $f:D\subset\mathbb{R}^n\to\mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$. Dann:
\begin{enumerate}[label={\arabic*)}]
\item Gradient $f'(x)$ steht senkrecht auf der Niveaumenge $N_{f(x)}$, d.h. $\langle f'(x), z\rangle = 0$ $\forall$ Tangentialvektoren $z$ an $N_{f(x)}$ in $x$
\item Richtungsableitung $\mathrm{D}_z f(x) = 0$ $\forall$ Tangentialvektoren $z$ an $N_{f(x)}$ in $x$
@ -139,31 +133,29 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$.
\item für $\vert z \vert = 1$ gilt
\zeroAmsmathAlignVSpaces \begin{align*}
&\mathrm{D}_z f(x) = \langle f'(x), z \rangle = \vert f'(x) \vert \langle \tilde{z},z\rangle \\
\overset{\star}{\le}\; &\vert f'(x) \vert \vert \tilde{z}\vert \vert z \vert = \vert f'(x)\vert = \frac{\langle f'(x), f'(x)\rangle}{\vert f'(x) \vert} = \langle f'(x), \tilde{z} \rangle \overset{\eqref{richtungsableitung_prop_existenz}}{=} \mathrm{D}_{\tilde{z}}f(x)\marginnote{$\star$:\person{Cauchy} - \person{Schwarz}}
\overset{\star}{\le}\; &\vert f'(x) \vert \vert \tilde{z}\vert \vert z \vert = \vert f'(x)\vert = \frac{\langle f'(x), f'(x)\rangle}{\vert f'(x) \vert} = \langle f'(x), \tilde{z} \rangle \overset{\eqref{richtungsableitung_prop_existenz}}{=} \mathrm{D}_{\tilde{z}}f(x)\marginnote{$\star$: \person{Cauchy} - \person{Schwarz}}
\end{align*}
$\Rightarrow$ Behauptung
\end{enumerate}
\end{proof}
\begin{underlinedenvironment}[Feststellung]
für $f:D\subset K^n\to K^m$: die lineare Abbildung $f'(x):K^n\to K^m$ ist durch Kenntnis für $n$ linear unabhängige Vektoren bestimmt\\
\textbf{Feststellung:} für $f:D\subset K^n\to K^m$: die lineare Abbildung $f'(x):K^n\to K^m$ ist durch Kenntnis für $n$ linear unabhängige Vektoren bestimmt\\
$\xRightarrow{\eqref{richtungsableitung_prop_existenz}}$ $f'(x)$ eindeutig bestimmt durch Kenntnis von \begin{align*}
\mathrm{D}_{e_j} f(x) = f'(x) \cdot e_j \;(\in K^{m\times 1}) \text{ für } j = 1,\dotsc,n
\end{align*}
\end{underlinedenvironment}
\begin{*definition}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$ (nicht notwendigerweise \gls{diffbar} in $x$).
\begin{*definition}[partielle Ableitung]
Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$ (nicht notwendigerweise \gls{differenzierbar} in $x$).
Falls Richtungsableitung $D_{e_j} f(x)$ existiert, heißt $f$ \begriff{partiell \gls{diffbar}} bezüglich $x_j$ im Punkt $x$ und $D_{e_j} f(x)$ heißt \begriff{partielle Ableitung} von $f$ bezüglich $x_j$ in $x$.
Falls Richtungsableitung $D_{e_j} f(x)$ existiert, heißt $f$ \begriff{partiell \gls{differenzierbar}} bezüglich $x_j$ im Punkt $x$ und $D_{e_j} f(x)$ heißt \begriff{partielle Ableitung} von $f$ bezüglich $x_j$ in $x$.
\emph{Bezeichnung:} $\frac{\partial }{\partial z}f(x), \frac{\partial f}{\partial x_j}(x), \mathrm{D}_j f(x), f_{x_j}(x), \dotsc$
Schreibweisen: $\frac{\partial }{\partial z}f(x), \frac{\partial f}{\partial x_j}(x), \mathrm{D}_j f(x), f_{x_j}(x), \dotsc$
\end{*definition}
Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ liefert \propref{richtungsableitung_prop_equivalente_definition}:
\begin{conclusion}
Sei $f:D\subset\mathbb{R}^n\to K^m$, $D$ offen. Dann: \zeroAmsmathAlignVSpaces\begin{align}
\notag & f \text{ ist partiell \gls{diffbar} bezüglich $x_j$ in $x$ mit Ableitung $\frac{\partial}{\partial x_j}f(x)$} \\
\notag & f \text{ ist partiell \gls{differenzierbar} bezüglich $x_j$ in $x$ mit Ableitung $\frac{\partial}{\partial x_j}f(x)$} \\
\Leftrightarrow\;\; & \lim\limits_{t\to 0} \frac{f(x_1, \dotsc, x_{j-1}, x_j, x_{j+1}, \dotsc, x_n) - f(x_1, \dotsc, x_j, \dotsc, x_n)}{t} = a \text{ existiert}\\
\notag & \text{ und } \frac{\partial }{\partial x_j}f(x) = a
\end{align}
@ -181,7 +173,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li
\begin{conclusion}
\proplbl{richtungsableitung_prop_partielle_ableitung_ausrechnen}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$ \zeroAmsmathAlignVSpaces \begin{align}
Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$ \zeroAmsmathAlignVSpaces \begin{align}
\proplbl{richtungsableitung_partielle_ableitung_ausrechnen}
\Rightarrow \;\; D_z f(x) = \sum_{j=1}^n z_j \frac{\partial}{\partial x_j} f(x) \quad \forall z = (z_1, \dotsc, z_n)\in\mathbb{R}
\end{align}
@ -195,14 +187,14 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li
\end{proof}
\begin{example}
Sei $f:\mathbb{R}^n\to \mathbb{R}$ mit $f(x) = \vert x \vert ^2 = \sum_{j=1}^n x_j^2$. $f$ ist \gls{diffbar} nach \propref{richtungsableitung_example_euklidische_norm} \\
Sei $f:\mathbb{R}^n\to \mathbb{R}$ mit $f(x) = \vert x \vert ^2 = \sum_{j=1}^n x_j^2$. $f$ ist \gls{differenzierbar} nach \propref{richtungsableitung_example_euklidische_norm} \\
$\rightarrow$ $\frac{\partial}{\partial x_j} f(x) = 2 x_j$ und $j=1,\dotsc,n$ \\
$\xRightarrow{\eqref{richtungsableitung_partielle_ableitung_ausrechnen}}$ $\mathrm{D}_z f(x) = \sum_{j=1}^n 2x_j\cdot z_j = 2\langle x,z\rangle$ (vgl. \propref{richtungsableitung_example_euklidische_norm})
\end{example}
\begin{theorem}[Vollständige Reduktion]
\proplbl{richtungsableitung_vollstaendige_reduktion}
Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$. Dann:
Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$. Dann:
\begin{align}
\proplbl{richtungsableitung_vollstaendige_reduktion_eq}
f'(x) \overset{(a)}{=}\begin{pmatrix}
@ -216,7 +208,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li
\end{theorem}
\begin{remark}
Falls $f$ \gls{diffbar} in $x$, dann reduziert \propref{richtungsableitung_vollstaendige_reduktion} die Berechnung von $f'(x)$ auf Ableitung skalarer Funktionen $\tilde{f}:\tilde{D}\subset K\to K$.
Falls $f$ \gls{differenzierbar} in $x$, dann reduziert \propref{richtungsableitung_vollstaendige_reduktion} die Berechnung von $f'(x)$ auf Ableitung skalarer Funktionen $\tilde{f}:\tilde{D}\subset K\to K$.
\end{remark}
\begin{proof}[\propref{richtungsableitung_vollstaendige_reduktion}]\hspace*{0pt}
@ -227,9 +219,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li
\end{enumerate}
\end{proof}
\begin{underlinedenvironment}[Frage]
Gilt die Umkehrung von \propref{richtungsableitung_vollstaendige_reduktion} (\propref{richtungsableitung_prop_existenz_prop}), d.h. falls alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f(x)$ bzw. alle Richtungsableitungen $\mathrm{D}_z f(x)$ existieren, ist dann $f$ \gls{diffbar} in $x$? Nein!
\end{underlinedenvironment}
\textbf{Frage:} Gilt die Umkehrung von \propref{richtungsableitung_vollstaendige_reduktion} (\propref{richtungsableitung_prop_existenz_prop}), d.h. falls alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f(x)$ bzw. alle Richtungsableitungen $\mathrm{D}_z f(x)$ existieren, ist dann $f$ \gls{differenzierbar} in $x$? Nein!
\begin{example}
Betrachte $f:\mathbb{R}^2\to\mathbb{R}$ mit \begin{align*}
@ -247,23 +237,21 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li
& D_{(0,z_2)} f(0) = \lim\limits_{t\to 0} \frac{0}{t} = 0 \\
\Rightarrow\;\;& \mathrm{D}_z f(0) \text{ existiert } \forall z\in\mathbb{R}^2
\end{alignat*}
\emph{aber} ist $f$ überhaupt \gls{diffbar}? $\lim\limits_{n\to 0} f\left(\frac{1}{n^2},\frac{1}{n}\right) = \lim\limits_{n\to 0} \dfrac{\frac{1}{n^2}}{\frac{1}{n^2}} = 1 \; \neq \; 0 = f(0)$ \\
$\Rightarrow$ $f$ nicht stetig in $x=0$ $\xRightarrow{\text{\propref{diffbar_impl_stetig}}}$ $f$ \emph{nicht \gls{diffbar}}.
\emph{aber} ist $f$ überhaupt \gls{differenzierbar}? $\lim\limits_{n\to 0} f\left(\frac{1}{n^2},\frac{1}{n}\right) = \lim\limits_{n\to 0} \dfrac{\frac{1}{n^2}}{\frac{1}{n^2}} = 1 \; \neq \; 0 = f(0)$ \\
$\Rightarrow$ $f$ nicht stetig in $x=0$ $\xRightarrow{\text{\propref{diffbar_impl_stetig}}}$ $f$ \emph{nicht \gls{differenzierbar}}.
\end{example}
\begin{underlinedenvironment}[Ausblick]
Sind alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f_j(x)$ stetige Funktionen in $x\in D$ \\
$\Rightarrow$ $f$ \gls{diffbar} in $x$ und \propref{richtungsableitung_vollstaendige_reduktion_eq} gilt.
\end{underlinedenvironment}
\textbf{Ausblick:} Sind alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f_j(x)$ stetige Funktionen in $x\in D$ \\
$\Rightarrow$ $f$ \gls{differenzierbar} in $x$ und \propref{richtungsableitung_vollstaendige_reduktion_eq} gilt.
\subsection{$\mathbf{\mathbb{R}}$-differenzierbar und $\mathbf{\mathbb{C}}$-differenzierbar}
Sei $f:D\subset K^n\to K^m$ ist \gls{diffbar} in $z_0 \in D$, $D$ offen
Sei $f:D\subset K^n\to K^m$ ist \gls{differenzierbar} in $z_0 \in D$, $D$ offen
$\Leftrightarrow$ eine $k$-lineare Abbildung $A:K^n\to K^m$ existiert, die die Funktion $f$ in $z_0$ "`lokal approximiert"'.
$\rightarrow$ man müsste eigentlich genauer sagen: $f$ ist $k$-\gls{diffbar} in $z_0$ wegen $\mathbb{R}\subset\mathbb{C}$. Jeder \gls{vr} über $\mathbb{C}$ kann auch als \gls{vr} über $\mathbb{R}$ betrachtet werden (nicht umgekehrt!) und jede $\mathbb{C}$-lineare Abbildung zwischen $\mathbb{C}$-\gls{vr} kann auch als $\mathbb{R}$-linear betrachtet werden
$\rightarrow$ man müsste eigentlich genauer sagen: $f$ ist $k$-\gls{differenzierbar} in $z_0$ wegen $\mathbb{R}\subset\mathbb{C}$. Jeder \gls{vr} über $\mathbb{C}$ kann auch als \gls{vr} über $\mathbb{R}$ betrachtet werden (nicht umgekehrt!) und jede $\mathbb{C}$-lineare Abbildung zwischen $\mathbb{C}$-\gls{vr} kann auch als $\mathbb{R}$-linear betrachtet werden
$\Rightarrow$ jede $\mathbb{C}$-\gls{diffbar}e Funktion $f:D\subset \mathbb{C}^n\to \mathbb{C}^m$ ist auch $\mathbb{R}$-\gls{diffbar}.
$\Rightarrow$ jede $\mathbb{C}$-\gls{differenzierbar}e Funktion $f:D\subset \mathbb{C}^n\to \mathbb{C}^m$ ist auch $\mathbb{R}$-\gls{differenzierbar}.
Die Umkehrung gilt i.A. nicht!
@ -273,23 +261,23 @@ Die Umkehrung gilt i.A. nicht!
\item $f$ ist additiv und $f(tz) = t\cdot f(z)$ $\forall t\in \mathbb{R}$. \\
$\Rightarrow$ $f$ ist $\mathbb{R}$-linear.
Wegen $f(z) = \overline{z} = \overline{z_0} + \overline{z - z_0} = f(z_0) + f(z - z_0) + 0$ folgt: $\mathbb{R}$-\gls{diffbar} in $z_0$ $\forall Z-0\in\mathbb{C}$ mit $\mathbb{R}$-Ableitung $f'(z_0) = 1$
Wegen $f(z) = \overline{z} = \overline{z_0} + \overline{z - z_0} = f(z_0) + f(z - z_0) + 0$ folgt: $\mathbb{R}$-\gls{differenzierbar} in $z_0$ $\forall Z-0\in\mathbb{C}$ mit $\mathbb{R}$-Ableitung $f'(z_0) = 1$
\item Angenommen, $f$ ist $\mathbb{C}$-\gls{diffbar} in $z_0\in\mathbb{C}$.\\
\item Angenommen, $f$ ist $\mathbb{C}$-\gls{differenzierbar} in $z_0\in\mathbb{C}$.\\
$\Rightarrow$ $f'(z_0) = \lim\limits_{z\to 0} \frac{\overline{z_0 + z} - \overline{z}}{z} = \lim\limits_{z\to 0} \frac{\overline{z}}{z} = \pm 1$ $\Rightarrow$ \Lightning\ (Grenzwert existiert nicht) \\
$\Rightarrow$ $f$ nicht $\mathbb{C}$-\gls{diffbar}
$\Rightarrow$ $f$ nicht $\mathbb{C}$-\gls{differenzierbar}
\end{enumerate}
\end{example}
\begin{*definition}
$f:D\subset X\to Y$, $D$ offen, $(X,Y) = (\mathbb{R}^n, \mathbb{C}^m)$ bzw. $(\mathbb{C}^n,\mathbb{R}^m)$ oder $(\mathbb{C}^n, \mathbb{C}^m)$ heißt \begriff{$\mathbb{R}$-\gls{diffbar}} in $z_0\in D$, falls \eqref{definition_ableitung} im \propref{section_ableitung} gilt mit entsprechender $\mathbb{R}$-linearer Abbildung $A:X\to Y$ gibt.
\begin{*definition}[$\mathbb{R}$-differenzierbar]
$f:D\subset X\to Y$, $D$ offen, $(X,Y) = (\mathbb{R}^n, \mathbb{C}^m)$ bzw. $(\mathbb{C}^n,\mathbb{R}^m)$ oder $(\mathbb{C}^n, \mathbb{C}^m)$ heißt \begriff{$\mathbb{R}$-\gls{differenzierbar}} in $z_0\in D$, falls \eqref{definition_ableitung} im \propref{section_ableitung} gilt mit entsprechender $\mathbb{R}$-linearer Abbildung $A:X\to Y$ gibt.
\uline{beachte:} falls $X$ oder $Y$ nur \gls{vr} über $\mathbb{R}$, dann $\mathbb{C}$-\gls{diffbar} nicht erklärt.
\uline{beachte:} falls $X$ oder $Y$ nur \gls{vr} über $\mathbb{R}$, dann $\mathbb{C}$-\gls{differenzierbar} nicht erklärt.
\vspace*{1.5em}
\begin{underlinedenvironment}[Spezialfall]
Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Vergleiche $\mathbb{R}$-\gls{diffbar} und $\mathbb{C}$-\gls{diffbar}:
Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Vergleiche $\mathbb{R}$-\gls{differenzierbar} und $\mathbb{C}$-\gls{differenzierbar}:
Sei $f$ $\mathbb{R}$-\gls{diffbar} in $z_0$, d.h. es existiert eine $\mathbb{R}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ mit {\zeroAmsmathAlignVSpaces**\begin{align}
Sei $f$ $\mathbb{R}$-\gls{differenzierbar} in $z_0$, d.h. es existiert eine $\mathbb{R}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ mit {\zeroAmsmathAlignVSpaces**\begin{align}
\proplbl{richtungsableitung_differenzierbarkeit_r_diffbar}
f(z_0 + z) = f(z_0) + A\cdot z + o(\vert z \vert z),\; z\to z_0
\end{align}}
@ -301,7 +289,7 @@ Die Umkehrung gilt i.A. nicht!
\end{alignat}
\end{underlinedenvironment}
Nenne $f_x(z_0)$, $f_y(z_0)$ \begriff[Ableitung!]{partielle Ableitung}[!$\mathbb{C}$] von $f$ in $z_0$. Sei $f$ \begriff[Ableitung!]{$\mathbb{C}$-\gls{diffbar}} in $x_z$, d.h. \begin{align}
Nenne $f_x(z_0)$, $f_y(z_0)$ \begriff[Ableitung!]{partielle Ableitung}[!$\mathbb{C}$] von $f$ in $z_0$. Sei $f$ \begriff[Ableitung!]{$\mathbb{C}$-\gls{differenzierbar}} in $x_z$, d.h. \begin{align}
\notag &f(z_0 + z) = f(z_0) + \underbrace{f'(z_0)}_{\in\mathbb{C}}\cdot z + o(\vert z \vert) \\
\proplbl{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann}
\xRightarrow{\eqref{richtungsableitung_differenzierbar_partiell_y}} \;& f'(z_0) = f_x(z_0) = -i f_y(x_0)
@ -311,7 +299,7 @@ Die Umkehrung gilt i.A. nicht!
\begin{proposition}
Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Dann: \begin{align}
\proplbl{richtungsableitung_differenzierbarkeit_equivalenz_c_r_diffbar}
f\;\mathbb{C}\text{-\gls{diffbar} in }z_0 \; \; \Leftrightarrow \;\;f\;\mathbb{R}\text{-\gls{diffbar} in }z_0 \text{ mit }f_x(z) = -i f_y(z_0)
f\;\mathbb{C}\text{-\gls{differenzierbar} in }z_0 \; \; \Leftrightarrow \;\;f\;\mathbb{R}\text{-\gls{differenzierbar} in }z_0 \text{ mit }f_x(z) = -i f_y(z_0)
\end{align}
\end{proposition}
@ -349,12 +337,10 @@ Lineare Algebra: $A:\mathbb{C}\to\mathbb{C}$ linear $\Leftrightarrow$ $\exists w
Selbststudium
\end{proof}
\begin{underlinedenvironment}[Somit]
$\mathbb{C}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ entspricht \emph{spezieller} $\mathbb{R}$-linearen Abbildung $\mathbb{R}^2\to\mathbb{R}^2$
\end{underlinedenvironment}
\textbf{Somit:} $\mathbb{C}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ entspricht \emph{spezieller} $\mathbb{R}$-linearen Abbildung $\mathbb{R}^2\to\mathbb{R}^2$
\begin{*definition}
Falls $\mathbb{R}$-\gls{diffbar} in $z_0$ liefert \eqref{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann} \begin{align*}
\begin{*definition}[\person{Cauchy}-\person{Riemann}-Differentialgleichungen]
Falls $\mathbb{R}$-\gls{differenzierbar} in $z_0$ liefert \eqref{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann} \begin{align*}
f_x(z_0) &= u_x(x_0, y_0) + i v_x(x_0, y_0),& f_y(z_0) &= u_y(x_0, y_0) + iv_y(x_0, y_0)
\end{align*}
folglich \begin{align}
@ -365,8 +351,7 @@ folglich \begin{align}
\end{align}
\end{*definition}
\begin{underlinedenvironment}[Somit]
$\mathbb{C}$-lineare Abbilung $z \to f'(z_0)$ entspricht $\mathbb{R}$-linearer Abbildung \begin{align*}
\textbf{Somit:} $\mathbb{C}$-lineare Abbilung $z \to f'(z_0)$ entspricht $\mathbb{R}$-linearer Abbildung \begin{align*}
\begin{pmatrix}
x \\ y
\end{pmatrix}\to \begin{pmatrix}
@ -375,10 +360,9 @@ folglich \begin{align}
x \\ y
\end{pmatrix}
\end{align*}
\end{underlinedenvironment}
\begin{hint}
$\mathbb{C}$-\gls{diffbar}e Funktionen $f:D\subset \mathbb{C}\to\mathbb{C}$ werden in der Funktionentheorie untersucht.
$\mathbb{C}$-\gls{differenzierbar}e Funktionen $f:D\subset \mathbb{C}\to\mathbb{C}$ werden in der Funktionentheorie untersucht.
Es gilt z.B. $f$ $\mathbb{C}$-\gls{diffbar} auf $D$ $\Rightarrow$ Ableitung $f':D\to\mathbb{C}$ auch $\mathbb{C}$-\gls{diffbar} auf $D$ $\Rightarrow$ $f$ beliebig oft \gls{diffbar} auf $D$!
Es gilt z.B. $f$ $\mathbb{C}$-\gls{differenzierbar} auf $D$ $\Rightarrow$ Ableitung $f':D\to\mathbb{C}$ auch $\mathbb{C}$-\gls{differenzierbar} auf $D$ $\Rightarrow$ $f$ beliebig oft \gls{differenzierbar} auf $D$!
\end{hint}

View file

@ -6,13 +6,13 @@ Sei $K^n$ $n$-dim. \gls{vr} über Körper mit $K=\mathbb{R}$ oder $K=\mathbb{C},
\item alle Normen auf $K^n$ sind äquivalent (\propref{aeqv_norm}) \\
$\Rightarrow$ Kovergenz unabhängig von der Norm
Verwende idR euklidische Norm $\vert x \vert_2 = \vert x \vert = \sqrt{\sum_{i}\vert x_i \vert^2}$
Verwende in der Regel euklidische Norm $\vert x \vert_2 = \vert x \vert = \sqrt{\sum\limits_{i}\vert x_i \vert^2}$
\item \begriff{Skalarprodukt}
\begin{itemize}
\item $\langle x,y \rangle = \sum_{j=1}^{n} x_j y_j$ in $\mathbb{R}$
\item $\langle x,y \rangle = \sum_{j=1}^{n} \overline{x_j} y_j$ in $\mathbb{C}$
\item $\langle x,y \rangle = \sum\limits_{j=1}^{n} x_j\cdot y_j$ in $\mathbb{R}$
\item $\langle x,y \rangle = \sum\limits_{j=1}^{n} \overline{x}_j\cdot y_j$ in $\mathbb{C}$
\end{itemize}
\item \textsc{Cauchy}-\text{Schwarz}-Ungleichung ($\vert \langle x,y\rangle \vert \le \vert x \vert + \vert y \vert\,\forall x,y\in K^n$)
\item \textsc{Cauchy}-\textsc{Schwarz}-Ungleichung ($\vert \langle x,y\rangle \vert \le \vert x \vert + \vert y \vert\,\quad\forall x,y\in K^n$)
\end{itemize}
\subsection{Lineare Abbildungen}
@ -38,8 +38,8 @@ Eine \begriff{lineare Abbildung} ist homogen und additiv (siehe \propref{defLine
\item $L(K^n, K^m)$ ist isomorph zu $K^{m\times n}$ als \gls{vr} \\
$\Rightarrow$ $L(K^n, K^m)$ ist $m\cdot n$-dim. \gls{vr} ($\Rightarrow$ alle Normen äquivalent, $\Rightarrow$ Konvergenz von $\{A_n\}$ von linearer Abbildungen in $L(K^n, K^m)$ ist normunabhängig)
Nehmen idR statt $\Vert A \Vert$ \person{euklidische} Norm $\vert A \vert = \sqrt{\sum_{k,l} \vert A_{k,l} \vert ^2}$.\\
Es gilt: \[ \vert Ax \vert \le \Vert A \Vert \vert x \vert \text{ und } \vert Ax\vert \le \vert A \vert \vert x \vert \]
Nehmen in der Regel statt $\Vert A \Vert$ \person{euklidische} Norm $\vert A \vert = \sqrt{\sum\limits_{k,l} \vert A_{k,l} \vert ^2}$.\\
Es gilt: \[ \vert Ax \vert \le \Vert A \Vert\cdot \vert x \vert \text{ und } \vert Ax\vert \le \vert A \vert \cdot\vert x \vert \]
\end{itemize}
\item Abbildung $\tilde{f}: K^n \to K^m$ heißt \begriff[linear!]{affin} \highlight{linear}, falls $\tilde{f}(x) = Ax + a$ für lineare Abbildung $A:K^n\to K^m, a\in K^m$
\end{itemize}
@ -93,10 +93,17 @@ Sei $f:D\subset K^n \to K^m$, $g:D\subset K^n \to K$, $x_0 \in \overline{D}$. Da
\end{flalign*}
Der Graph von $f$ liegt in der Nähe von $x_0$ in immer flacheren, kegelförmigen Mengen\\
$\Rightarrow$ Graph "`schmiegt sich"' an eine horizontale Ebene an den Punkt $(x_0, f(x_0))$ an.
\item \emph{Beobachtung:} horizontale Ebene ist Graph einer affin linearen Funktion $\tilde{A}: \mathbb{R}^n\to\mathbb{R}^n$, daher\\
\emph{Zentrale Frage:} Existiert zu gesuchter Funktion $f: D\subset\mathbb{R}^n \to K^m$, $x_0\in\mathbb{R}$ eine affin lineare Funktion $\tilde{A}:K^n\to K^m$, sodass sich in der Nähe von $x_0$ der Graph von $f$ an den Graph von $\tilde{A}$ "`anschmiegt"'?
Wegen $f(x_0) = \tilde{A}(x_0)$ folgt $\tilde{A}(x) = A(x-x_0) + f(x_0)$. Was heißt "`anschmiegen"'? $f(x) + \underbrace{f(x_0) + A(x-x_0)}_{\tilde{A}(x)} = o(\vert x-x_0\vert)$, d.h. die Abweichung wird schneller klein als $\vert x-x_0\vert$!
\end{enumerate}
\end{example}
\textbf{Beobachtung:} horizontale Ebene ist Graph einer affin linearen Funktion $\tilde{A}: \mathbb{R}^n\to\mathbb{R}^n$, daher\\
\textbf{Zentrale Frage:} Existiert zu gesuchter Funktion $f: D\subset\mathbb{R}^n \to K^m$, $x_0\in\mathbb{R}$ eine affin lineare Funktion $\tilde{A}:K^n\to K^m$, sodass sich in der Nähe von $x_0$ der Graph von $f$ an den Graph von $\tilde{A}$ "`anschmiegt"'?\\
\textbf{Antwort} Ja, wegen $f(x_0) = \tilde{A}(x_0)$ folgt $\tilde{A}(x) = A(x-x_0) + f(x_0)$.
\end{example}
\begin{*definition}[Anschmiegen]
$f(x) + \underbrace{f(x_0) + A(x-x_0)}_{\tilde{A}(x)} = o(\vert x-x_0\vert)$, \\
d.h. die Abweichung wird schneller klein als $\vert x-x_0\vert$!
\end{*definition}
\smiley{} Vielleicht hatten Sie eine andere Vorstellung von "'anschmiegen"', aber wir machen hier
Mathematik \smiley{}

View file

@ -45,6 +45,13 @@
\usepackage[table]{xcolor}
\usepackage{graphicx}
\usepackage{pgfplots}
\usepackage{pgf}
\usepackage{tikz}
\usetikzlibrary{patterns,arrows,calc,decorations.pathmorphing}
\usetikzlibrary{matrix}
\usepackage{color}
\usepackage{wasysym}
\usepackage{enumerate}
\usepackage{enumitem} %customize label
@ -96,87 +103,95 @@
}
\newmdtheoremenv[%
style=boxedtheorem,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
linecolor=darkgrey,%
backgroundcolor=lightgrey,%
style=boxedtheorem,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
linecolor=darkgrey,%
backgroundcolor=lightgrey,%
]{theorem}{Theorem}[section]
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
]{proposition}[theorem]{Satz}
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
backgroundcolor=lightgrey,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
backgroundcolor=lightgrey,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
]{lemma}[theorem]{Lemma}
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0,%
innerbottommargin=-3pt,%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0,%
innerbottommargin=-3pt,%
]{definition}[theorem]{Definition}
\newmdtheoremenv[%
outerlinewidth=3pt,%
linecolor=black,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0pt,%
innerbottommargin=-0pt,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
skipbelow=10pt,%
outerlinewidth=3pt,%
linecolor=black,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0pt,%
innerbottommargin=-0pt,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
skipbelow=10pt,%
]{conclusion}[theorem]{Folgerung}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=0pt,%
skipabove=5pt,%
innerleftmargin=10pt,%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=0pt,%
skipabove=5pt,%
innerleftmargin=10pt,%
]{remark}[theorem]{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=10pt,%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=10pt,%
]{example}[theorem]{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel}
%unnumbered theorems
\theoremstyle{nonumberbreak}
\theoremindent0cm
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=1pt,%
innerbottommargin=1pt,%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=1pt,%
innerbottommargin=1pt,%
]{*definition}{Definition}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
innerleftmargin=10pt,%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
innerleftmargin=10pt,%
]{*remark}{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=10pt,%
hidealllines=true,%
innerleftmargin=10pt,%
]{*example}{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel}
%Hinweis-Theoremstyle and environment
@ -460,6 +475,7 @@ innerleftmargin=10pt,%
\newacronym{hp}{HP}{\begriff{Häufungspunkt}}
\newacronym{vr}{VR}{Vektorraum}
\newacronym{diffbar}{diffbar}{differenzierbar}
\newacronym{differenzierbar}{differenzierbar}{differenzierbar}
\newacronym{mws}{MWS}{Mittelwertsatz}
\title{\textbf{Analysis 2. Semester (SS2018)}}