diff --git a/2. Semester/ANAG/TeX_files/Ableitung.tex b/2. Semester/ANAG/TeX_files/Ableitung.tex index 71ee9dc..ecfb1d6 100644 --- a/2. Semester/ANAG/TeX_files/Ableitung.tex +++ b/2. Semester/ANAG/TeX_files/Ableitung.tex @@ -1,7 +1,7 @@ \section{Ableitung} \setcounter{equation}{0} \proplbl{section_ableitung} -\begin{*definition} +\begin{*definition}[differenzierbar, Ableitung] Sei $f: D\subset \mathbb{R}^n \to K^m$, $D$ offen, heißt \begriff{differenzierbar} in $x\in D$, falls es lineare Abbildung $A\in L(K^n, K^m)$ gibt mit \begin{align} \proplbl{definition_ableitung} \Aboxed{f(x) &= f(x_0) + A(x-x_0) + o(\vert x-x_0 \vert), x\to x_0} @@ -124,12 +124,12 @@ \end{alignat} \emph{beachte:} \begin{itemize} - \item $f$ \gls{diffbar} in $x_0$ $\Leftrightarrow$ Differentialquotient existiert in $x_0$ + \item $f$ \gls{differenzierbar} in $x_0$ $\Leftrightarrow$ Differentialquotient existiert in $x_0$ \item \propref{differentialquotient} nicht erklärt im Fall von $n>1$ \end{itemize} \begin{interpretation}[ für $m > 1$] - $f'(x_0)$ heißt \begriff{Tangentenvektor} an die Kurve in $f(x_0)$. Falls $f$ nicht \gls{diffbar} in $x_0$ bzw. $x_0$ Randpunkt in $D$ und ist $f(x_0)$ definiert, so betrachtet man in \propref{differentialquotient} auch einseitige Grenzwerte (vgl. \propref{einseitige_grenzwerte}). + $f'(x_0)$ heißt \begriff{Tangentenvektor} an die Kurve in $f(x_0)$. Falls $f$ nicht \gls{differenzierbar} in $x_0$ bzw. $x_0$ Randpunkt in $D$ und ist $f(x_0)$ definiert, so betrachtet man in \propref{differentialquotient} auch einseitige Grenzwerte (vgl. \propref{einseitige_grenzwerte}). $\lim\limits_{t\downarrow 0} \frac{f(x_0 + t) - f(x_0)}{t} = f_r'(x_0)$ heißt \begriff[Ableitung!]{rechtsseitige} \uline{Ableitung} von $f$ in $x_0$ (falls existent), analog \begriff[Ableitung!]{linksseitige} \uline{Ableitung} $f_l'(x_0)$. \end{interpretation} @@ -145,7 +145,7 @@ \begin{conclusion} Sei $f:D\subset K\to K^n$, $D$ offen. Dann: \begin{align} - \notag& \text{$f$ ist diffbar in $x_0\in D$ mit Ableitung $f'(x_0)\in L(K, K^m)$} \\ + \notag& \text{$f$ ist differenzierbar in $x_0\in D$ mit Ableitung $f'(x_0)\in L(K, K^m)$} \\ \Leftrightarrow\quad & \proplbl{differentialquotient_prop} \exists f'(x_0) \in L(K, K^m): \lim\limits_{y\to 0} \frac{f(x_0 + y) - f(x_0)}{y} = f'(x_0) \\ \notag @@ -154,7 +154,7 @@ \end{conclusion} \subsection{Einfache Beispiele für Ableitungen} -\begin{example} +\begin{example}[affin lineare Funktionen] \proplbl{ableitung_linear} Sei $f:K^n\to K^m$ affin linear, d.h. \begin{align*} f(x) = A\cdot x + a\quad \forall x\in K^n, \text{ mit } A\in L(K^n, K^m), \, a\in K^m \text{ fest} @@ -167,11 +167,25 @@ \end{align*} \zeroAmsmathAlignVSpaces \begin{align*} - \xRightarrow{(\ref{definition_ableitung})}\;\; \text{$f$ ist \gls{diffbar} in $x_0$ mit } f'(x_0) = A + \xRightarrow{(\ref{definition_ableitung})}\;\; \text{$f$ ist \gls{differenzierbar} in $x_0$ mit } f'(x_0) = A \end{align*} - Insbesondere gilt für konstante Funktionen $f'(x_0) = 0$ + Insbesondere gilt für konstante Funktionen $f'(x_0) = 0$\\ + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {2*x}; + \addlegendentry{$2x$} + \addplot+[mark=none, dashed] {2}; + \addlegendentry{$2$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[quadratische Funktion] \proplbl{ableitung_beispiel_euklidische_norm} Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert ^2\;\forall x\in\mathbb{R}^n$ @@ -184,10 +198,24 @@ \end{flalign*} (vgl. auch \propref{spezialfall_ableitung_m1} im Spezialfall \ref{spezialfall_ableitung_m1_item}) - Wegen $2x_0\in L(\mathbb{R}^n, \mathbb{R})$ folgt $f = \vert \cdot \vert^2$ ist \gls{diffbar} in $x_0$ mit $f'(x_0) = 2 x_0\;\forall x_0\in\mathbb{R}$ + Wegen $2x_0\in L(\mathbb{R}^n, \mathbb{R})$ folgt $f = \vert \cdot \vert^2$ ist \gls{differenzierbar} in $x_0$ mit $f'(x_0) = 2 x_0\;\forall x_0\in\mathbb{R}$\\ + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {abs(x)^2}; + \addlegendentry{$\vert x\vert^2$} + \addplot+[mark=none, dashed] {2*x}; + \addlegendentry{$2x$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[Funktionen mit höhrerem Exponent] Sei $f:K\to K$, $f(x) = x^k$, $k\in\mathbb{N}$. \begin{itemize}[leftmargin=\widthof{$\,k=0$:\ }] \item[$k=0$:] $f(x) = 1\;\forall x$ $\Rightarrow$ $f'(x_0) = 0\;\forall x_0\in\mathbb{C}$ (vgl. \propref{ableitung_linear}) @@ -199,38 +227,80 @@ $\xRightarrow{(\ref{definition_ableitung})}$ & $f'(x_0)$ & $= k\cdot x_0^{k-1}$ \end{tabularx} \end{itemize} - \emph{beachte:} gilt in $\mathbb{C}$ und $\mathbb{R}$. + \emph{beachte:} gilt in $\mathbb{C}$ und $\mathbb{R}$. \\ + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {x^3}; + \addlegendentry{$x^3$} + \addplot+[mark=none, dashed] {3*x^2}; + \addlegendentry{$3x^2$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[Betragsfunktion] \proplbl{ableitung_beispiel_betrag} Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert$ $\forall x\in\mathbb{R}^n$. - $f$ ist nicht \gls{diffbar} in $x_0=0$, denn angenommen die Ableitung $f'(0)\in\mathbb{R}^n$ ($\cong \mathbb{R}^{1 \times n}$) existiert, dann fixiere $x\in\mathbb{R}^n$ mit $\vert x \vert = 1$, und + $f$ ist nicht \gls{differenzierbar} in $x_0=0$, denn angenommen die Ableitung $f'(0)\in\mathbb{R}^n$ ($\cong \mathbb{R}^{1 \times n}$) existiert, dann fixiere $x\in\mathbb{R}^n$ mit $\vert x \vert = 1$, und \begin{alignat*}{2} && \vert t\cdot x\vert &= 0 + \langle f'(0), t\cdot x \rangle + o(t),\;t\to 0,\; t\in\mathbb{R}_{\neq 0} \marginnote{$\left| \cdot \frac{1}{t}\right.$} \\ \xRightarrow{t\neq 0}\;&& \underbrace{\frac{\vert t \vert \cdot \vert x \vert}{t}}_{=\pm 1} &= \underbrace{\langle f'(0), x\rangle}_{\mathclap{\text{feste Zahl in $\mathbb{R}$}}} + \underbrace{\frac{o(t)}{t}}_{\mathclap{\xrightarrow{t\to 0}0}} \quad\Rightarrow \text{\Lightning} \end{alignat*} \emph{Anschaulich:} Es gibt keine Tangentialebene an den Graph von $f$ in $(0, \vert 0 \vert )\in\mathbb{R}^{n\times 1}$.\\ - \emph{folglich:} $f$ stetig in $x_0$ $\cancel{\Rightarrow}$ $f$ \gls{diffbar} in $x_0$, d.h. Umkehrung von \propref{diffbar_impl_stetig} gilt i.A. nicht. + \emph{folglich:} $f$ stetig in $x_0$ $\cancel{\Rightarrow}$ $f$ \gls{differenzierbar} in $x_0$, d.h. Umkehrung von \propref{diffbar_impl_stetig} gilt i.A. nicht. \begin{hint} - Es gibt stetige Funktion $f:\mathbb{R}\to \mathbb{R}$, die in keinem Punkt $x$ \gls{diffbar} ist (siehe Hildebrand, Analysis 1 S. 192 oder Königsberger Analysis 1, Kap. 9.11) + Es gibt stetige Funktion $f:\mathbb{R}\to \mathbb{R}$, die in keinem Punkt $x$ \gls{differenzierbar} ist (siehe Hildebrand, Analysis 1 S. 192 oder Königsberger Analysis 1, Kap. 9.11) \end{hint} + + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {abs(x)}; + \addlegendentry{$\vert x \vert$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[Exponentialfunktion] Sei $f:K\to K$ mit $f(x) = e^x\;\forall x\in K$.\\ - $\Rightarrow$ $f$ ist \gls{diffbar} mit $f'(x_0) = e^{x_0}\;\forall x_0\in K = \mathbb{R}\lor K=\mathbb{C}$. + $\Rightarrow$ $f$ ist \gls{differenzierbar} mit $f'(x_0) = e^{x_0}\;\forall x_0\in K = \mathbb{R}\lor K=\mathbb{C}$. Denn: nach \propref{lemma_13_10} ist \begin{align} & \proplbl{exp_limit_1} \lim\limits_{y\to 0} \frac{e^y - 1}{y} = 1 \text{ in } \mathbb{C} \\ \notag \Rightarrow\;& \lim\limits_{y\to 0} \frac{e^{x_0 + y} - e^{x_0}}{y} = \lim\limits_{y\to 0} e^{x_0} \cdot \frac{e^y - 1}{y} = e^{x_0} \;\xRightarrow{\eqref{differentialquotient_prop}}\; \text{Beh.} \end{align} + + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {e^x}; + \addlegendentry{$e^x$} + \addplot+[mark=none, dashed] {e^x}; + \addlegendentry{$e^x$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[Sinus und Cosinus] $\sin, \cos: K\to K$ ($\mathbb{R}$ bzw. $\mathbb{C}$) $\forall x_0\in K$. Denn:{\zeroAmsmathAlignVSpaces @@ -245,17 +315,46 @@ \end{align*}} Analog für den Kosinus. + + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {sin(deg(x))}; + \addlegendentry{$\sin(x)$} + \addplot+[mark=none, dashed] {cos(deg(x))}; + \addlegendentry{$\cos(x)$} + \end{axis} + \end{tikzpicture} + \begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {cos(deg(x))}; + \addlegendentry{$\cos(x)$} + \addplot+[mark=none, dashed] {- sin(deg(x))}; + \addlegendentry{$-\sin(x)$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} \subsection{Rechenregeln} \begin{*definition} Sei $f:D\subset K^n \to K^m$, $D$ offen. - Falls $f$ \gls{diffbar} in allen $x_0\in D$, dann heißt $f$ \begriff{differenzierbar} auf $D$ und Funktion $f':D\to L(K^n, K^m)$ heißt \begriff{Ableitung} von $f$. + Falls $f$ \gls{differenzierbar} in allen $x_0\in D$, dann heißt $f$ \begriff{differenzierbar} auf $D$ und Funktion $f':D\to L(K^n, K^m)$ heißt \begriff{Ableitung} von $f$. Ist zusätzlich Funktion $f': D\to L(K^n, K^m)$ stetig, dann heißt Funktion $f$ \begriff{stetig differenzierbar} (auf $D$) bzw. \mathsymbol{C1}{$C^1$}\emph{-Funktion} (auf $D$). - $C^1(D, K^m):= \left\lbrace f: D\to K^m \mid f \text{ stetig \gls{diffbar} auf } D \right\rbrace$ + $C^1(D, K^m):= \left\lbrace f: D\to K^m \mid f \text{ stetig \gls{differenzierbar} auf } D \right\rbrace$ \end{*definition} \begin{example} @@ -276,7 +375,20 @@ \begin{example} \proplbl{ableitung_beipsiel_unstetige_ableitung} - Sei $f:\mathbb{R}\to \mathbb{R}$ mit $f(0) = 0$, $f(x= ) x^2\cdot \sin\left(\frac{1}{x}\right)$ $\forall x\neq 0$. + Sei $f:\mathbb{R}\to \mathbb{R}$ mit $f(0) = 0$, $f(x)=x^2\cdot \sin\left(\frac{1}{x}\right)$ $\forall x\neq 0$. + + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {x^2*sin(deg(1/x))}; + \addlegendentry{$x^2\cdot \sin(\frac{1}{x})$} + \end{axis} + \end{tikzpicture}\end{center} Wegen \begin{align*} \frac{\vert x^2 \cdot \sin \frac{1}{x}\vert}{\vert x \vert} \le \vert x \vert \xrightarrow{x\neq 0} 0 @@ -284,7 +396,7 @@ folgt{ \zeroAmsmathAlignVSpaces \begin{align*} & f(x) = o(\vert x \vert), x\to 0 \\ \Rightarrow\;& f(x) = f(0) + 0\cdot (x - 0) + o(\vert x - 0\vert), x\to 0 \\ - \Rightarrow\;& f \text{ \gls{diffbar} in $x=0$ mit $f'(0) = 0$} + \Rightarrow\;& f \text{ \gls{differenzierbar} in $x=0$ mit $f'(0) = 0$} \end{align*}} Rechenregeln liefern $x\neq 0$: \begin{align*} @@ -311,8 +423,8 @@ \begin{proposition}[Rechenregeln] \proplbl{ableitung_rechenregeln} - Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{diffbar} in $x_0\in D$ \\ - $\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{diffbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{diffbar} in $x_0$, falls $\lambda(x_0)\neq 0$ + Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{differenzierbar} in $x_0\in D$ \\ + $\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{differenzierbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{differenzierbar} in $x_0$, falls $\lambda(x_0)\neq 0$ mit \begin{enumerate}[label={\alph*)}] \item $(f\pm g)'(x_0) = f'(x_0) \pm g'(x_0)\in K^{m\times 1}$ @@ -324,8 +436,8 @@ \begin{conclusion} \proplbl{ableitung_quotientenregel} - Seien $\lambda$, $\mu:D\to K$ \gls{diffbar} in $x_0$, $D$ offen und $\lambda(x_0)\neq 0$ \\ - $\Rightarrow$ $\left( \frac{\mu}{\lambda} \right): D\to K$ \gls{diffbar} in $x_0$ mit \begin{align*} + Seien $\lambda$, $\mu:D\to K$ \gls{differenzierbar} in $x_0$, $D$ offen und $\lambda(x_0)\neq 0$ \\ + $\Rightarrow$ $\left( \frac{\mu}{\lambda} \right): D\to K$ \gls{differenzierbar} in $x_0$ mit \begin{align*} \left( \frac{\mu}{\lambda} \right)' (x_0) = \frac{\lambda(x_0)\cdot \mu'(x_0) - \mu(x_0) \cdot \lambda'(x_0)}{\lambda(x_0)^2}\in K^{1\times n} \end{align*} \end{conclusion} @@ -354,21 +466,21 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \end{proof} \begin{example} - Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{diffbar} in $x_0\in D$\\ + Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{differenzierbar} in $x_0\in D$\\ $\xRightarrow{\ref{ableitung_rechenregeln}\ b)} (c\cdot f) = c\cdot f'(x_0)$ (da $c$ konst. Funktion $D\to K$) \end{example} \begin{example}[Polynom] - Sei $f:K\to K$, Polynom $f(x) = \sum_{l=0}^{k}a_l x^l$ \\ - $\Rightarrow$ $f$ \gls{diffbar} $\forall x_0\in K$ mit $f'(x_0) = \sum_{l=1}^k l a_l x_0^{l-1}$ + Sei $f:K\to K$, Polynom $f(x) = \sum\limits_{l=0}^{k}a_l x^l$ \\ + $\Rightarrow$ $f$ \gls{differenzierbar} $\forall x_0\in K$ mit $f'(x_0) = \sum\limits_{l=1}^k l a_l x_0^{l-1}$ \end{example} \begin{example} Sei $f=\frac{f_1}{f_2}$ rationale Funktion auf $\mathbb{R}$ (d.h. $f_1, f_2:K\to K$ Polynom) \\ - $\Rightarrow$ $f$ ist \gls{diffbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$ + $\Rightarrow$ $f$ ist \gls{differenzierbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$ \end{example} -\begin{example} +\begin{example}[Tangens und Cotangens] \proplbl{ableitung_beispiel_tangens} $\tan: K\setminus \{ \frac{\pi}{2} + k\cdot \pi \mid k\in\mathbb{Z} \}\to K$, $\cot:K\setminus \{ k\cdot \pi \mid k\in\mathbb{Z} \} \to K$ \\[\dimexpr - \baselineskip / 2 \relax] \zeroAmsmathAlignVSpaces \begin{alignat*}{3} @@ -376,12 +488,42 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung && &= \frac{\cos^2(x_0) + \sin^2(x_0)}{\cos^2(x_0)} = \frac{1}{\cos^2(x_0)} && \forall x_0\in \text{ Definitionsbereich} \\ && \cot'(x_0) &= - \frac{1}{\sin^2(x_0)}&&\forall x_0\in\text{ Definitionsbereich} \end{alignat*} + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + restrict y to domain=-5:5 + ] + \addplot+[mark=none] {tan(deg(x))}; + \addlegendentry{$\tan(x)$} + \addplot+[mark=none, dashed] {1/(cos(deg(x)))^2}; + \addlegendentry{$\frac{1}{\cos^2(x)}$} + \end{axis} + \end{tikzpicture} + \begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + restrict y to domain=-5:5 + ] + \addplot+[mark=none] {cot(deg(x))}; + \addlegendentry{$\cot(x)$} + \addplot+[mark=none, dashed] {-1/(sin(deg(x)))^2}; + \addlegendentry{$-\frac{1}{\sin^2(x)}$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} \begin{proposition}[Kettenregel] \proplbl{ableitung_kettenregel} - Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{diffbar} in $x_0\in D$, $g$ \gls{diffbar} in $f(x_0)\in\tilde{D}$ \\ - $\Rightarrow$ $g\circ f: D\to K^l$ \gls{diffbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$) + Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{differenzierbar} in $x_0\in D$, $g$ \gls{differenzierbar} in $f(x_0)\in\tilde{D}$ \\ + $\Rightarrow$ $g\circ f: D\to K^l$ \gls{differenzierbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$) \end{proposition} \begin{proof} @@ -396,7 +538,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung $\xRightarrow{\ref{definition_ableitung_proposition}\,c)}$ Behauptung \end{proof} -\begin{example} +\begin{example}[$x$ im Exponenten] \proplbl{ableitung_beispiel_exponentialfunktion} Sei $f:\mathbb{R}\to \mathbb{R}$, $f(x) = a^x$ ($a\in\mathbb{R}_{\ge 0}$, $a\neq 1$). @@ -407,9 +549,23 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \zeroAmsmathAlignVSpaces \begin{alignat*}{2} \xRightarrow{\text{\propref{ableitung_kettenregel}}}\quad&& f'(x_0) &= g'(x_0\cdot \ln a)\cdot f'(x_0) = e^{x_0\cdot \ln a}\cdot \ln a = a^x\cdot \ln a \quad\forall x_0\in\mathbb{R} \end{alignat*} + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {2^x}; + \addlegendentry{$2^x$} + \addplot+[mark=none, dashed] {2^x*ln(2)}; + \addlegendentry{$2^x\cdot \ln(2)$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} -\begin{example} +\begin{example}[Logarithmus] \proplbl{ableitung_beispiel_logarithmus} Sei $f:\mathbb{R}_{>0} \to \mathbb{R}$, $f(x) = \log_a x$ ($a\in\mathbb{R}_{>0}\setminus\{1\}$) @@ -421,6 +577,20 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \end{alignat*} Spezialfall: $(\ln(x))' = \frac{1}{x}$ $\forall x>0$ + \begin{center}\begin{tikzpicture} + \begin{axis}[ + xmin=-5, xmax=5, xlabel=$x$, + ymin=-5, ymax=5, ylabel=$y$, + samples=400, + axis y line=middle, + axis x line=middle, + ] + \addplot+[mark=none] {log2(x)}; + \addlegendentry{$\log_2(x)$} + \addplot+[mark=none, dashed] {1/(x*ln(2))}; + \addlegendentry{$\frac{1}{x\cdot\ln(2)}$} + \end{axis} + \end{tikzpicture}\end{center} \end{example} \begin{example} @@ -440,7 +610,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \begin{proposition}[Reduktion auf skalare Funktionen] \proplbl{ableitung_proposition_reduktion} Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $x_0\in D$. Dann gilt:\begin{center} - $f$ \gls{diffbar} in $x_0$ $\Leftrightarrow$ alle $f_j$ \gls{diffbar} in $x_0$ $\forall j=1,\dotsc,m$ + $f$ \gls{differenzierbar} in $x_0$ $\Leftrightarrow$ alle $f_j$ \gls{differenzierbar} in $x_0$ $\forall j=1,\dotsc,m$ \end{center} Im Fall der Differenzierbarkeit hat man: \begin{align} @@ -452,7 +622,21 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \end{pmatrix} \in K^{m\times n} \end{align} \end{proposition} - +\smiley{} Wenn Sie das nächste mal aus der Disko kommen, zuviel getrunken haben und den Namen +ihrer Freundin nicht mehr kennen, sollten sie sich daran aber noch erinnern: \smiley{} \\ +\begin{proof} + \begin{itemize} + \item Hinrichtung: man hat $f(x)=f(x_0)+f'(x_0)(x-x_0)+R(x)(x-x_0)$ mit $R(x)\to 0$, da + $f'(x_0),R(x)\in L(K^n,K^k\times K^l) \Rightarrow f'(x_0)y=(A_1y,A_2y)$, $R(x)y=(R_1(x)y, + R_2(x)y)$ mit $A_1,R_1\in L(K^n,K^k)$, $A_2,R_2\in L(K^n,K^l)$ \\ + $\Rightarrow f_j(x)=f_j(x_0)+A_j(x-x_0)+R_j(x-x_0)$ mit $R_j\to 0$ und $j=\{1,2\}\quad (*)$ \\ + $\Rightarrow f_j$ ist differenzierbar in $x_0$ it $f'_j(x_0)=A_j\Rightarrow$ Behauptung + \item Rückrichtung: es gilt $(*)$ mit $A_j=f'_j(x_0)$. Setze $A=\begin{pmatrix}f'_1(x_0) \\ f'_2(x_0)\end{pmatrix}$ und $R(x)=\begin{pmatrix}R_1(x) \\ R_2(x)\end{pmatrix} \Rightarrow + AR(x)\in L(K^n,K^k\times K^l)$ \\ + $\Rightarrow f(x)=f(x_0)+A(x-x_0)+R(x)(x-x_0)$, $R(x)\to 0\Rightarrow f$ differenzierbar in + $x_0\Rightarrow$ Behauptung + \end{itemize} +\end{proof} \begin{remark} Mit \propref{ableitung_proposition_reduktion} kann man die Berechnungen der Ableitungen stets auf skalare Funktionen $f:D\subset K^n\to K$ zurückführen. Die Matrix in \propref{ableitung_jacobimatrix} besteht aus $m$ Zeilen $f_j'(x_0)\in K^{1\times m}$. @@ -473,7 +657,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \proplbl{ableitung_spezialfall_reduktion_proposition} Sei $f=(f_1, f_2):D\subset K^n\to K^k\times K^l$, $D$ offen, $x_0\in D$. - Funktion $f$ ist \gls{diffbar} in $x_0$ genau dann, wenn $f_1:D\to K^k$ und $f_2 :D\to K^l$ \gls{diffbar} in $x_0$. + Funktion $f$ ist \gls{differenzierbar} in $x_0$ genau dann, wenn $f_1:D\to K^k$ und $f_2 :D\to K^l$ \gls{differenzierbar} in $x_0$. Im Falle der Differenzierbarkeit gilt\begin{align} \proplbl{ableitung_spezialfall_reduktion} @@ -504,7 +688,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \notag\Rightarrow&\;\;& f'(x_0) &= (A_1, A_2), \; R(x) = \big( R_1(x), R_2(x) \big)) \intertext{mit $A_1, R_1(x)\in L(K^n, K^k)$, $A_2, R(x)\in L(K^n, K^l)$} \proplbl{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung} \xRightarrow{\eqref{ableitung_beweis_lemma_spezialfall_reduktion}}&& f_j(x)&= f_j(x_0) + A_j \cdot (x - x_0) + R_j(x) (x - x_0),\;R_j(x)\xrightarrow{x\to x_0}0 \\ - \notag\Rightarrow&& f_j & \text{ ist \gls{diffbar} in $x_0$ mit $f_j'(x_0) = A_j$, $j=1,2$} + \notag\Rightarrow&& f_j & \text{ ist \gls{differenzierbar} in $x_0$ mit $f_j'(x_0) = A_j$, $j=1,2$} \end{alignat} $\Rightarrow$ Behauptung \item["`$\Leftarrow$"'] (es gilt auch \eqref{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung} mit $A_j = f_j'(x_0)$) @@ -518,7 +702,7 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung \xRightarrow{\eqref{ableitung_beweis_lemma_spezialfall_reduktion_einzelableitung}}\;& A, R(x)\in L(K^n, K^k\times K^l) \\ \xRightarrow{\text{mit }A_j=f_j'(x_0)}\; & f(x)= f(x_0) + A(x - x_0) + R(x)(x - x_0), R(x)\xrightarrow{x\to x_0}0 \end{align*} - $\Rightarrow$ $f$ \gls{diffbar} in $x_0$ und \eqref{ableitung_spezialfall_reduktion} gilt.\hfill\csname\InTheoType Symbol\endcsname + $\Rightarrow$ $f$ \gls{differenzierbar} in $x_0$ und \eqref{ableitung_spezialfall_reduktion} gilt.\hfill\csname\InTheoType Symbol\endcsname \end{itemize} \end{proof} diff --git a/2. Semester/ANAG/TeX_files/Mittelwertsatz.tex b/2. Semester/ANAG/TeX_files/Mittelwertsatz.tex index 45abf1e..12a3a18 100644 --- a/2. Semester/ANAG/TeX_files/Mittelwertsatz.tex +++ b/2. Semester/ANAG/TeX_files/Mittelwertsatz.tex @@ -1,5 +1,5 @@ \section{Mittelwertsatz und Anwendung}\setcounter{equation}{0} -\begin{*definition} +\begin{*definition}[Maximum, Minimum] Wir sagen, $f:D\subset \mathbb{R}^n\to \mathbb{R}$ besitzt \begriff{Minimum} bzw. \begriff{Maximum} auf $D$, falls eine \begriff{Minimalstelle} bzw. \begriff{Maximalstelle} $x_0\in D$ existiert mit \begin{align} \proplbl{mittelwertsatz_extremalstellen} f(x_0) &\le f(x) & f(x) &\ge f(x) & \forall x&\in D @@ -21,7 +21,7 @@ \begin{theorem}[notwendige Optimalitätsbedingung] \proplbl{mittelwertsatz_optimalitaetsbedingung} - Sei $f:D\subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ sei \gls{diffbar} in $x\in D$ und habe lokales Minimum bzw. Maximum in $x_0$. Dann: \begin{align} + Sei $f:D\subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ sei \gls{differenzierbar} in $x\in D$ und habe lokales Minimum bzw. Maximum in $x_0$. Dann: \begin{align} \proplbl{mittelwertsatz_optimalitaetsbedingung_eq} f'(x_0) &= 0 \quad (\in\mathbb{R}^{1\times n}) \end{align} @@ -45,7 +45,7 @@ \parbox{\widthof{\phantom{$\xRightarrow{t\to 0}$}}}{\hfill$\Rightarrow$} & $\exists \delta > 0: x_0 + t\cdot z\in D$ $\forall t\in (-\delta, \delta)$ \end{tabularx} - f \gls{diffbar} in $x_0$, Minimum in $x_0$ \\ + f \gls{differenzierbar} in $x_0$, Minimum in $x_0$ \\ \begin{tabularx}{\linewidth}{rX} $\Rightarrow$ & $ 0\le f(x_0 + t\cdot z) - f(x_0) = t\cdot f'(z_0) \cdot z + o(t)$, $t\to 0$ \marginnote{$\left| \cdot \frac{1}{t}\right.$} \\ $\xRightarrow{t>0}$ & $0\le f'(x_0)\cdot z + o(1)$ \\ @@ -58,7 +58,7 @@ Einfache, aber wichtige Anwendung: \begin{proposition}[Satz von Rolle] \proplbl{mittelwertsatz_rolle} - Sei $f:[a,b]\in\mathbb{R}\to\mathbb{R}$ stetig, $-\infty < a < b < \infty$, $f$ \gls{diffbar} auf $(a,b)$ und $f(a) = f(b)$.\\ + Sei $f:[a,b]\in\mathbb{R}\to\mathbb{R}$ stetig, $-\infty < a < b < \infty$, $f$ \gls{differenzierbar} auf $(a,b)$ und $f(a) = f(b)$.\\ $\Rightarrow$ $\exists \xi\in(a,b): f(\xi) = 0$ \end{proposition} @@ -73,7 +73,7 @@ Einfache, aber wichtige Anwendung: \end{itemize} \end{proof} -\begin{*definition} +\begin{*definition}[abgeschlossenes, offenes Segment] Setze für $x,y\in K^n$ \begin{itemize} \item $[x,y] := \{ x + t(y - x)\in\mathbb{R}^n \mid t\in [0,1] \}$ \begriff[Segment!]{abgeschlossenes} \begriff{Segment} (abgeschlossene Verbindungsstrecke) @@ -83,7 +83,7 @@ Einfache, aber wichtige Anwendung: \begin{theorem}[Mittelwertsatz] \proplbl{mittelwertsatz_mittelwertsatz} - Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{diffbar} auf $D$ und seien $x,y\in D$ mit $[x,y]\subset D$. Dann \begin{align} + Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} auf $D$ und seien $x,y\in D$ mit $[x,y]\subset D$. Dann \begin{align} \proplbl{mittelwertsatz_mittelwertsatz_eq} \exists \xi\in(x,y): f(y) - f(x) = f'(\xi) \overset{\star}{\cdot} (y - x)\marginnote{$\star$: Skalarprodukt} \end{align} @@ -95,7 +95,7 @@ Einfache, aber wichtige Anwendung: f'(\xi) = \frac{f(y) - f(x)}{y - x} \quad\text{falls }x\neq y. \end{align*} \item Der \gls{mws} gilt \emph{nicht} für $\mathbb{C}$ oder $m\neq 1$. - \item \propref{mittelwertsatz_mittelwertsatz} gilt bereits für $D\subset\mathbb{R}^n$ beliebig, $f$ stetig auf $[x,y]\subset D$, $f$ \gls{diffbar} auf $(x,y) \subset \inn D$. + \item \propref{mittelwertsatz_mittelwertsatz} gilt bereits für $D\subset\mathbb{R}^n$ beliebig, $f$ stetig auf $[x,y]\subset D$, $f$ \gls{differenzierbar} auf $(x,y) \subset \inn D$. \end{itemize} \end{remark} @@ -103,10 +103,10 @@ Einfache, aber wichtige Anwendung: \NoEndMark Setzte $\phi(t) = f(x + t(y - x)) - \big( f(y) - f(x) \big) t$ $\forall t\in[0,1]$ \\ \begin{tabularx}{\linewidth}{rX} - \parbox{\widthof{$\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$}}{\hfill$\xRightarrow{\text{$f$ \gls{diffbar}}}$}& $\phi: [0,1]\to \mathbb{R}$ stetig, $\phi(0) = \phi(1) = f(x)$ + \parbox{\widthof{$\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$}}{\hfill$\xRightarrow{\text{$f$ \gls{differenzierbar}}}$}& $\phi: [0,1]\to \mathbb{R}$ stetig, $\phi(0) = \phi(1) = f(x)$ \end{tabularx} - $\phi$ \gls{diffbar} auf $(0,1)$ (verwende Kettenregel) mit \begin{align} + $\phi$ \gls{differenzierbar} auf $(0,1)$ (verwende Kettenregel) mit \begin{align} \proplbl{mittelwertsatz_mittelwertsatz_beweis_eq} \phi'(t) = f'(x + t(y - x)) \cdot (y - x) - \big( f(y) - f(x) \big) \end{align} @@ -119,7 +119,7 @@ Einfache, aber wichtige Anwendung: \begin{proposition}[Verallgemeinerter Mittelwertsatz in $\mathbb{R}$] \proplbl{mittelwertsatz_mittelwertsatz_verallgemeinert} - Seien $f,g: [x,y]\subset \mathbb{R}\to\mathbb{R}$ stetig und \gls{diffbar} auf $(x,y)$ ($x,y\in\mathbb{R}$, $x < y$). Dann \begin{align*} + Seien $f,g: [x,y]\subset \mathbb{R}\to\mathbb{R}$ stetig und \gls{differenzierbar} auf $(x,y)$ ($x,y\in\mathbb{R}$, $x < y$). Dann \begin{align*} \exists \xi\in (x,y): \big( f(y) - f(x) \big)\cdot g'(\xi) = \big( g(y) - g(x) \big) f'(\xi) \end{align*} \end{proposition} @@ -128,17 +128,16 @@ Einfache, aber wichtige Anwendung: \NoEndMark Sei $h(t) := \big( f(y) - f(x) \big) g(t) - \big( g(y) - g(x) \big) f(t)$ $\forall t\in [x,y]$ \\ \begin{tabularx}{\linewidth}{rX@{}} - $\Rightarrow$ & $h:[x,y]\to\mathbb{R}$ stetig, \gls{diffbar} auf $(x,y)$, $h(x) = h(y)$ \\ + $\Rightarrow$ & $h:[x,y]\to\mathbb{R}$ stetig, \gls{differenzierbar} auf $(x,y)$, $h(x) = h(y)$ \\ $\xRightarrow{\text{\propref{mittelwertsatz_rolle}}}$ & $\exists \xi \in(x,y): 0 = h'(\xi) = \big( f(y) - f(x) \big) g'(\xi) - \big( g(y) - g(x) \big) f'(\xi)$ \\ $\Rightarrow$ & Behauptung\hfill\csname\InTheoType Symbol\endcsname \end{tabularx} \end{proof} -\begin{underlinedenvironment}[Frage] - Der \gls{mws} gilt für $m=1$. Was ist bei $m > 1$? -\end{underlinedenvironment} +\textbf{Frage:} Der \gls{mws} gilt für $m=1$. Was ist bei $m > 1$? + \begin{conclusion} - Sei $f = (f_1, \dotsc, f_m): D\subset\mathbb{R}^n \to \mathbb{R}^m$, $D$ offen, \gls{diffbar} auf $D$, $[x,y]\subset D$. Dann + Sei $f = (f_1, \dotsc, f_m): D\subset\mathbb{R}^n \to \mathbb{R}^m$, $D$ offen, \gls{differenzierbar} auf $D$, $[x,y]\subset D$. Dann \begin{align} \proplbl{mittelwertsatz_mittelwertsatz_m_gt_eins_eq} \exists \xi_1, \dotsc, \xi_m \in (x,y): f(y) - f(x) = \left( \begin{matrix} @@ -154,9 +153,7 @@ Einfache, aber wichtige Anwendung: und diese Folgen direkt aus \propref{mittelwertsatz_mittelwertsatz} für $f_j: D\to \mathbb{R}$. \end{proof} -\begin{underlinedenvironment}[Frage] - Ist in \eqref{mittelwertsatz_mittelwertsatz_m_gt_eins_eq} auch $\xi_1 = \dotsc = \xi_m$ möglich? Im Allgemeinen nein. -\end{underlinedenvironment} +\textbf{Frage:} Ist in \eqref{mittelwertsatz_mittelwertsatz_m_gt_eins_eq} auch $\xi_1 = \dotsc = \xi_m$ möglich? Im Allgemeinen nein. \begin{example} Sei $f:\mathbb{R}\to\mathbb{R}^2$ mit $f(x) = \binom{\cos x}{\sin x}$ $\forall x\in\mathbb{R}$. @@ -169,13 +166,11 @@ Einfache, aber wichtige Anwendung: \end{tabularx} \end{example} -\begin{underlinedenvironment}[Ausweg] - Für $m>1$ gilt statt \eqref{mittelwertsatz_mittelwertsatz_eq} Abschätzung \eqref{mittelwertsatz_schrankensatz_eq}, die meist ausreicht und ebenso richtig ist wie der \gls{mws}. -\end{underlinedenvironment} +\textbf{Ausweg:} Für $m>1$ gilt statt \eqref{mittelwertsatz_mittelwertsatz_eq} Abschätzung \eqref{mittelwertsatz_schrankensatz_eq}, die meist ausreicht und ebenso richtig ist wie der \gls{mws}. \begin{theorem}[Schrankensatz] \proplbl{mittelwertsatz_schrankensatz} - Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} auf $D$. Seien $x,y\in D$, $[x,y]\subset D$. Dann\begin{align} + Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} auf $D$. Seien $x,y\in D$, $[x,y]\subset D$. Dann\begin{align} \proplbl{mittelwertsatz_schrankensatz_eq} \exists \xi\in (x,y): \vert f(y) - f(x) \vert \le \vert f'(\xi) (y - x)\vert \le \Vert f'(\xi) \Vert \cdot \vert y - x\vert \end{align} @@ -187,9 +182,9 @@ Einfache, aber wichtige Anwendung: Sei $f(x) \neq f(y)$ (sonst klar). Setzte $v:= \frac{f(y) - f(x)}{\vert f(y) - f(x)\vert} \in K^m$, offenbar $\vert v \vert = 1$. Betrachte $\phi: [0,1] \to\mathbb{R}$ mit $\phi(t) := \Re \langle f(x + t (y - x)), v\rangle\marginnote{$\langle u,v\rangle = \sum_{i=1}^{n}\overline{u_i} v_i$}$ - Da $f$ \gls{diffbar}, gilt \begin{align*} + Da $f$ \gls{differenzierbar}, gilt \begin{align*} \langle f(x + s(y - x)), v\rangle = \langle f(x + t(y - x)), v\rangle + \langle f'(x + t(y - x))\cdot (s - t)(y - x), v \rangle + \underbrace{o(\vert s - t\vert \cdot \vert y - x\vert)}_{=o(\vert s - t\vert)}, \; s\to t - \end{align*} und damit ist auch $\phi$ \gls{diffbar} auf $(0,1)$ mit \begin{align*} + \end{align*} und damit ist auch $\phi$ \gls{differenzierbar} auf $(0,1)$ mit \begin{align*} \phi'(t) &= \Re \langle f'(x + t(y - x))\cdot (y - x), v \rangle \quad \forall t\in (0,1) \end{align*} \propref{mittelwertsatz_mittelwertsatz} liefert: $\exists \tau \in (0,1): \underbrace{\phi(1) - \phi(0)}_{=\Re \langle f(y) - f(x), v\rangle} = \phi(\tau) \cdot (1 - 0)$ \\ @@ -200,12 +195,10 @@ Einfache, aber wichtige Anwendung: \end{alignat*} \hfill\csname\InTheoType Symbol\endcsname \end{proof} -\begin{underlinedenvironment}[Wdh] - $M\subset K^n$ heißt konvex, falls $[x,y]\subset M$ $\forall x,y\in M$ -\end{underlinedenvironment} +\textbf{Wiederholung:} $M\subset K^n$ heißt konvex, falls $[x,y]\subset M$ $\forall x,y\in M$ \begin{proposition}[\person{Lipschitz}-Stetigkeit] - Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ stetig \gls{diffbar} auf $D$. Sei $M\subset D$ kompakt und konvex. Dann \begin{align} + Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ stetig \gls{differenzierbar} auf $D$. Sei $M\subset D$ kompakt und konvex. Dann \begin{align} \proplbl{mittelwertsatz_lipschitzstetigkeit_eq} \vert f(y) - f(x) \vert \le L \cdot \vert y - x\vert \quad \forall x,y\in M \end{align} @@ -223,16 +216,14 @@ Einfache, aber wichtige Anwendung: $\xRightarrow{\text{\propref{chap_15_3}}}$ $\Vert f'(\xi)\Vert$ besitzt Maxium auf $M$ und die Behauptung folgt aus \propref{mittelwertsatz_schrankensatz}. \end{proof} -\begin{underlinedenvironment}[bekanntlich] - $f(x) = \mathrm{const}$ $\forall x$ $\Rightarrow$ $f'(x) = $ -\end{underlinedenvironment} +\textbf{bekanntlich:} $f(x) = \mathrm{const}$ $\forall x$ $\Rightarrow$ $f'(x) = 0$ \begin{proposition} \proplbl{mittelwertsatz_ableitung_null_konstante_funktion} Sei $f:D\subset K^n\to K^m$, $D$ offen, und zusammenhängend. \begin{tabularx}{\linewidth}{XcX} - \hfill$f$ \gls{diffbar} auf $D$ mit $f'(x) = 0$ $\forall x\in D$ & $\Rightarrow$ & $f(x) = \mathrm{const}$ $\forall x\in D$. + \hfill$f$ \gls{differenzierbar} auf $D$ mit $f'(x) = 0$ $\forall x\in D$ & $\Rightarrow$ & $f(x) = \mathrm{const}$ $\forall x\in D$. \end{tabularx} \end{proposition} @@ -264,7 +255,7 @@ Einfache, aber wichtige Anwendung: \end{proof} \begin{example} - Sei $f:D = (0,1)\cup (2,3) \to \mathbb{R}$ \gls{diffbar}, sei $f'(x) = 0$ auf $D$ \\ + Sei $f:D = (0,1)\cup (2,3) \to \mathbb{R}$ \gls{differenzierbar}, sei $f'(x) = 0$ auf $D$ \\ \begin{tabularx}{\linewidth}{rX} $\xRightarrow{\text{\propref{mittelwertsatz_ableitung_null_konstante_funktion}}}$ & $f(x) = \mathrm{const}$ auf $(0,1)$ und $(2,3)$, aber auf jedem Intervall kann die Konstante anders sein. \end{tabularx} @@ -272,7 +263,7 @@ Einfache, aber wichtige Anwendung: \rule{0.4\linewidth}{0.1pt} Zurück zur Frage nach 18.11: \\ \begin{tabularx}{\linewidth}{XcX} - \hfill part Ableitung existiert & $\Rightarrow$ & Ableitung existiert? + \hfill partielle Ableitung existiert & $\Rightarrow$ & Ableitung existiert? \end{tabularx} Nein! \uline{Aber:} @@ -291,7 +282,7 @@ Nein! \uline{Aber:} Betrachte die Eckpunkt eines Quaders in $D$: $a_0 = x, a_k := a_{k - 1} + y_k e_k$ für $k = 1,\dotsc,n$ \\ $\Rightarrow$ $a_n = x + y$. - Offenbar $\phi_k(t) = f(a_{k-1} + t e_k y_k) - f(a_{k - 1}) - tf_{x_k}(a_{k - 1}) y_k$ stetig auf $[0,1]$, \gls{diffbar} auf $(0,1)$ mit \begin{align*}\phi_k'(t) = f_{x_k}(a_{k - 1} + t e_k y_k) y_k - f_{x_k}(a_{k-1}) y_k + Offenbar $\phi_k(t) = f(a_{k-1} + t e_k y_k) - f(a_{k - 1}) - tf_{x_k}(a_{k - 1}) y_k$ stetig auf $[0,1]$, \gls{differenzierbar} auf $(0,1)$ mit \begin{align*}\phi_k'(t) = f_{x_k}(a_{k - 1} + t e_k y_k) y_k - f_{x_k}(a_{k-1}) y_k \end{align*} $\xRightarrow{\text{\propref{mittelwertsatz_schrankensatz}}}$ $\vert \phi_k(1) - \phi_k(0)\vert = \vert f(a_k) - f(a_{k - 1}) - f_{x_k} (a_{k +1}) y_k \vert \le \sup\limits_{t\in (0,1)} \vert \phi_k'(\xi)\vert$, $k = 1,\dotsc,n$ @@ -307,14 +298,14 @@ Nein! \uline{Aber:} \begin{tabularx}{\linewidth}{rX@{}} $\Rightarrow$ & $f(x + y) = f(y) + Ay + R(y)$ mit $\frac{\vert R(y)\vert}{y} \le \rho(y) \xrightarrow{y\to 0} 0$ (d.h. $R(y) = o(\vert y)$) \\ - $\xLeftrightarrow{\propref{definition_ableitung_proposition}}$ & $f$ ist \gls{diffbar} in $x$ mit $f'(x) = A$\hfill\csname\InTheoType Symbol\endcsname + $\xLeftrightarrow{\propref{definition_ableitung_proposition}}$ & $f$ ist \gls{differenzierbar} in $x$ mit $f'(x) = A$\hfill\csname\InTheoType Symbol\endcsname \end{tabularx} \end{proof} \subsection{Anwendung des Mittelwertsatzes in $\mathbb{R}$} \begin{proposition}[Monotonie] \proplbl{mittelwertsatz_anwendung_monotonie} - Sei $f:(a,b)\subset\mathbb{R}\to \mathbb{R}$ \gls{diffbar}, dann gilt: + Sei $f:(a,b)\subset\mathbb{R}\to \mathbb{R}$ \gls{differenzierbar}, dann gilt: \begin{enumerate}[label={\roman*)}] \item \proplbl{mittelwertsatz_anwendung_monotonie_aussage_eins}$f'(x) \ge 0$ ($\le 0$) $\forall x\in (a,b)$ $\Leftrightarrow$ $f$ monoton wachsend (monoton fallend) \item \proplbl{mittelwertsatz_anwendung_monotonie_aussage_zwei} $f'(x) > 0$ ($< 0$) $\forall x\in (a,b)$ $\Rightarrow$ $f$ streng monoton wachsend (fallend) @@ -340,7 +331,7 @@ Nein! \uline{Aber:} \end{proof} \begin{proposition}[Zwischenwertsatz für Ableitungen] - Sei $f:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{diffbar}, $a < x_1 < x_2 < b$. Dann + Sei $f:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{differenzierbar}, $a < x_1 < x_2 < b$. Dann \begin{center} \begin{tabular}{r@{$\;\;$}c@{\ \ }l} @@ -351,7 +342,7 @@ Nein! \uline{Aber:} \end{proposition} \begin{proof} - Sei $g:(a,b)\to \mathbb{R}$ mit $g(x) = f(x) - \gamma x$ ist \gls{diffbar} auf $(a,b)$ + Sei $g:(a,b)\to \mathbb{R}$ mit $g(x) = f(x) - \gamma x$ ist \gls{differenzierbar} auf $(a,b)$ \begin{tabularx}{\linewidth}{r@{\ \ }X@{}} $\xRightarrow{\text{Weierstraß}}$ & $\exists \tilde{x}\in [x_1,x_2]$ mit $g(\tilde{x}) \le g(x)$ $\forall x\in[x_1,x_2]$ \\ @@ -369,7 +360,7 @@ Betrachte nun "`unbestimme Grenzwerte"' $\lim\limits_{y\to x} \frac{f(x)}{g(x)}$ \begin{proposition}[Regeln von \person{de l'Hospital}] \proplbl{mittelwertsatz_krankenhaus} - Seien $f,g:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{diffbar}, $g'(x) \neq 0$ $\forall x\in(a,b)$ und entwender + Seien $f,g:(a,b)\subset\mathbb{R}\to\mathbb{R}$ \gls{differenzierbar}, $g'(x) \neq 0$ $\forall x\in(a,b)$ und entwender \begin{enumerate}[label={\roman*)}] \item $\lim\limits_{x\downarrow a} f(x) = 0$, $\lim\limits_{x\downarrow 0} g(x) = 0$, oder \item $\lim\limits_{x\downarrow a} f(x) =\infty$, $\lim\limits_{x\downarrow a} g(x) = \infty$ diff --git a/2. Semester/ANAG/TeX_files/Richtungsableitung.tex b/2. Semester/ANAG/TeX_files/Richtungsableitung.tex index 4b9f4c3..0061d61 100644 --- a/2. Semester/ANAG/TeX_files/Richtungsableitung.tex +++ b/2. Semester/ANAG/TeX_files/Richtungsableitung.tex @@ -1,28 +1,24 @@ \section{Richtungsableitung und partielle Ableitung}\proplbl{richtungsableitung} \setcounter{equation}{0} Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. -\begin{underlinedenvironment}[Ziel] - Zurückführung der Berechnung der Ableitung $f(x)$ auf die Berechnung der Ableitung für Funktionen $\tilde{f}:\tilde{D}\subset K\to K$ +\textbf{Ziel:} Zurückführung der Berechnung der Ableitung $f(x)$ auf die Berechnung der Ableitung für Funktionen $\tilde{f}:\tilde{D}\subset K\to K$ \begin{itemize} \item Reduktionssatz $\Rightarrow$ man kann sich bereits auf $m=1$ einschränken \item für Berechnung der Ableitung von $f$ ist neben den Rechen- und Kettenregeln auch der Differentialquotient verfügbar \end{itemize} -\end{underlinedenvironment} -\begin{underlinedenvironment}[Idee] - Betrachte $f$ auf Geraden $t\to x + t\cdot z$ durch $x$ $\Rightarrow$ skalares Argument $t$, $t\in K$ $\Rightarrow$ Differentialquotient. +\textbf{Idee:} Betrachte $f$ auf Geraden $t\to x + t\cdot z$ durch $x$ $\Rightarrow$ skalares Argument $t$, $t\in K$ $\Rightarrow$ Differentialquotient. Spezialfall: $z = e_j$ $\Rightarrow$ Partielle Ableitung -\end{underlinedenvironment} -\begin{*definition} +\begin{*definition}[Richtungsableitung] Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$, $z\in K^n$. Falls $a\in L(K, K^m)$ ($\cong K^m$) existiert mit\begin{align} \proplbl{richtungsableitung_definition} f(x + t\cdot z) = f(x) + t\cdot a + o(t),\;t\to 0,\; t\in K, \end{align} - dann heißt $f$ \gls{diffbar} in $x$ \begriff[differenzierbar!]{in Richtung $z$} und \mathsymbol{Dz}{$\mathrm{D}_z$}$f(x) := a$ heißt \begriff{Richtungsableitung} von $f$ in $x$ in Richtung $z$ (andere Bezeichnungen: $f(x; z)$, $\partial_z f(x)$, $\frac{\partial f}{\partial z}(x)$, $\partial f(x,z)$, $\dotsc$) + dann heißt $f$ \gls{differenzierbar} in $x$ \begriff[differenzierbar!]{in Richtung $z$} und \mathsymbol{Dz}{$\mathrm{D}_z$}$f(x) := a$ heißt \begriff{Richtungsableitung} von $f$ in $x$ in Richtung $z$ (andere Bezeichnungen: $f(x; z)$, $\partial_z f(x)$, $\frac{\partial f}{\partial z}(x)$, $\partial f(x,z)$, $\dotsc$) \end{*definition} \begin{*remark} \begin{itemize}[topsep=\dimexpr -\baselineskip / 2\relax] @@ -35,7 +31,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. \proplbl{richtungsableitung_prop_equivalente_definition} Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$, $z\in K^n$. Dann: \begin{align} - \notag &\text{$f$ \gls{diffbar} in $x$ in Richtung $z$ mit $\mathrm{D}_z f(x)\in L(K, K^m)$} \\ + \notag &\text{$f$ \gls{differenzierbar} in $x$ in Richtung $z$ mit $\mathrm{D}_z f(x)\in L(K, K^m)$} \\ \proplbl{richtungsableitung_definition_prop_eins} \Leftrightarrow\;\; & \text{für }\phi(t) = f(x + t\cdot z) \text{ existiert }\phi'(0) \text{ und } \mathrm{D}_z f(x) = \phi'(0) \\ \proplbl{richtungsableitung_definitnion_prop_zwei} @@ -54,13 +50,11 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. $\xRightarrow{\eqref{richtungsableitung_definition_prop_eins}}$ Richtungsableitung von $f$ existiert für alle $ x = (x_1, 0)$ \emph{nur} in Richtung $z=(z_1, 0)$ mit $\mathrm{D}_z f(x) = 2x_1 z_1$ \end{example} -\begin{underlinedenvironment}[Frage] - Existiert $\mathrm{D}_z f(x)$ $\forall z$, falls $f$ \gls{diffbar} in $x$? -\end{underlinedenvironment} +\textbf{Frage:} Existiert $\mathrm{D}_z f(x)$ $\forall z$, falls $f$ \gls{differenzierbar} in $x$? \begin{proposition} \proplbl{richtungsableitung_prop_existenz_prop} - Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$.\\ + Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$.\\ $\Rightarrow$ Richtungsableitung $\mathrm{D}_z f(x)$ existiert $\forall z\in K^n$ und \begin{align} \proplbl{richtungsableitung_prop_existenz} \mathrm{D}_z f(x) = f'(x) \cdot z \;(\in K^{m\times 1}) @@ -70,7 +64,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. \begin{proof} \NoEndMark - $f$ \gls{diffbar} in $x$ \\ + $f$ \gls{differenzierbar} in $x$ \\ \begin{tabularx}{\linewidth}{r@{\ \ }X} $\Rightarrow$ &$f(y) = f(x) + f'(x) (y - x) + o(\vert y - x\vert)$, $y\to x$ \\ $\xRightarrow{y=x+t\cdot z}$& $f(x + tz) = f(x) + t\cdot f'(x)\cdot z + o(t)$, $t\to 0$ \\ @@ -97,15 +91,15 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. \end{example} \subsection{Anwendung: Eigenschaften des Gradienten} -\begin{*definition} - Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{diffbar} in $x\in D$. +\begin{*definition}[Niveaumenge] + Sei $f:D\subset\mathbb{R}^n\to \mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$. $N_C:= \{ y\in D \mid f(x) = f(y) \}$ heißt \begriff{Niveaumenge} von $f$ für $x\in \mathbb{R}$. \end{*definition} -\begin{*definition} - Sei $\gamma: (-\delta, \delta)\to N_C$ ($\delta > 0$) Kurve mit $\gamma(0) = 0$, $\gamma$ \gls{diffbar} in $0$. +\begin{*definition}[Tangentialvektor] + Sei $\gamma: (-\delta, \delta)\to N_C$ ($\delta > 0$) Kurve mit $\gamma(0) = 0$, $\gamma$ \gls{differenzierbar} in $0$. Ein $z\in\mathbb{R}\setminus \{0\}$ mit $z = \gamma'(0)$ für eine derartige Kurve $\gamma$ heißt \begriff{Tangentialvektor} an $N_C$ in $x$. @@ -120,7 +114,7 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. \begin{proposition}[Eigenschaften des Gradienten] \proplbl{richtungsableitung_gradient_eigenschaften} - Sei $f:D\subset\mathbb{R}^n\to\mathbb{R}$, $D$ offen, $f$ \gls{diffbar} in $x\in D$. Dann: + Sei $f:D\subset\mathbb{R}^n\to\mathbb{R}$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$. Dann: \begin{enumerate}[label={\arabic*)}] \item Gradient $f'(x)$ steht senkrecht auf der Niveaumenge $N_{f(x)}$, d.h. $\langle f'(x), z\rangle = 0$ $\forall$ Tangentialvektoren $z$ an $N_{f(x)}$ in $x$ \item Richtungsableitung $\mathrm{D}_z f(x) = 0$ $\forall$ Tangentialvektoren $z$ an $N_{f(x)}$ in $x$ @@ -139,31 +133,29 @@ Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$. \item für $\vert z \vert = 1$ gilt \zeroAmsmathAlignVSpaces \begin{align*} &\mathrm{D}_z f(x) = \langle f'(x), z \rangle = \vert f'(x) \vert \langle \tilde{z},z\rangle \\ - \overset{\star}{\le}\; &\vert f'(x) \vert \vert \tilde{z}\vert \vert z \vert = \vert f'(x)\vert = \frac{\langle f'(x), f'(x)\rangle}{\vert f'(x) \vert} = \langle f'(x), \tilde{z} \rangle \overset{\eqref{richtungsableitung_prop_existenz}}{=} \mathrm{D}_{\tilde{z}}f(x)\marginnote{$\star$:\person{Cauchy} - \person{Schwarz}} + \overset{\star}{\le}\; &\vert f'(x) \vert \vert \tilde{z}\vert \vert z \vert = \vert f'(x)\vert = \frac{\langle f'(x), f'(x)\rangle}{\vert f'(x) \vert} = \langle f'(x), \tilde{z} \rangle \overset{\eqref{richtungsableitung_prop_existenz}}{=} \mathrm{D}_{\tilde{z}}f(x)\marginnote{$\star$: \person{Cauchy} - \person{Schwarz}} \end{align*} $\Rightarrow$ Behauptung \end{enumerate} \end{proof} -\begin{underlinedenvironment}[Feststellung] - für $f:D\subset K^n\to K^m$: die lineare Abbildung $f'(x):K^n\to K^m$ ist durch Kenntnis für $n$ linear unabhängige Vektoren bestimmt\\ +\textbf{Feststellung:} für $f:D\subset K^n\to K^m$: die lineare Abbildung $f'(x):K^n\to K^m$ ist durch Kenntnis für $n$ linear unabhängige Vektoren bestimmt\\ $\xRightarrow{\eqref{richtungsableitung_prop_existenz}}$ $f'(x)$ eindeutig bestimmt durch Kenntnis von \begin{align*} \mathrm{D}_{e_j} f(x) = f'(x) \cdot e_j \;(\in K^{m\times 1}) \text{ für } j = 1,\dotsc,n \end{align*} -\end{underlinedenvironment} -\begin{*definition} - Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$ (nicht notwendigerweise \gls{diffbar} in $x$). +\begin{*definition}[partielle Ableitung] + Sei $f:D\subset K^n\to K^m$, $D$ offen, $x\in D$ (nicht notwendigerweise \gls{differenzierbar} in $x$). - Falls Richtungsableitung $D_{e_j} f(x)$ existiert, heißt $f$ \begriff{partiell \gls{diffbar}} bezüglich $x_j$ im Punkt $x$ und $D_{e_j} f(x)$ heißt \begriff{partielle Ableitung} von $f$ bezüglich $x_j$ in $x$. + Falls Richtungsableitung $D_{e_j} f(x)$ existiert, heißt $f$ \begriff{partiell \gls{differenzierbar}} bezüglich $x_j$ im Punkt $x$ und $D_{e_j} f(x)$ heißt \begriff{partielle Ableitung} von $f$ bezüglich $x_j$ in $x$. - \emph{Bezeichnung:} $\frac{\partial }{\partial z}f(x), \frac{\partial f}{\partial x_j}(x), \mathrm{D}_j f(x), f_{x_j}(x), \dotsc$ + Schreibweisen: $\frac{\partial }{\partial z}f(x), \frac{\partial f}{\partial x_j}(x), \mathrm{D}_j f(x), f_{x_j}(x), \dotsc$ \end{*definition} Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ liefert \propref{richtungsableitung_prop_equivalente_definition}: \begin{conclusion} Sei $f:D\subset\mathbb{R}^n\to K^m$, $D$ offen. Dann: \zeroAmsmathAlignVSpaces\begin{align} - \notag & f \text{ ist partiell \gls{diffbar} bezüglich $x_j$ in $x$ mit Ableitung $\frac{\partial}{\partial x_j}f(x)$} \\ + \notag & f \text{ ist partiell \gls{differenzierbar} bezüglich $x_j$ in $x$ mit Ableitung $\frac{\partial}{\partial x_j}f(x)$} \\ \Leftrightarrow\;\; & \lim\limits_{t\to 0} \frac{f(x_1, \dotsc, x_{j-1}, x_j, x_{j+1}, \dotsc, x_n) - f(x_1, \dotsc, x_j, \dotsc, x_n)}{t} = a \text{ existiert}\\ \notag & \text{ und } \frac{\partial }{\partial x_j}f(x) = a \end{align} @@ -181,7 +173,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li \begin{conclusion} \proplbl{richtungsableitung_prop_partielle_ableitung_ausrechnen} - Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$ \zeroAmsmathAlignVSpaces \begin{align} + Sei $f:D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$ \zeroAmsmathAlignVSpaces \begin{align} \proplbl{richtungsableitung_partielle_ableitung_ausrechnen} \Rightarrow \;\; D_z f(x) = \sum_{j=1}^n z_j \frac{\partial}{\partial x_j} f(x) \quad \forall z = (z_1, \dotsc, z_n)\in\mathbb{R} \end{align} @@ -195,14 +187,14 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li \end{proof} \begin{example} - Sei $f:\mathbb{R}^n\to \mathbb{R}$ mit $f(x) = \vert x \vert ^2 = \sum_{j=1}^n x_j^2$. $f$ ist \gls{diffbar} nach \propref{richtungsableitung_example_euklidische_norm} \\ + Sei $f:\mathbb{R}^n\to \mathbb{R}$ mit $f(x) = \vert x \vert ^2 = \sum_{j=1}^n x_j^2$. $f$ ist \gls{differenzierbar} nach \propref{richtungsableitung_example_euklidische_norm} \\ $\rightarrow$ $\frac{\partial}{\partial x_j} f(x) = 2 x_j$ und $j=1,\dotsc,n$ \\ $\xRightarrow{\eqref{richtungsableitung_partielle_ableitung_ausrechnen}}$ $\mathrm{D}_z f(x) = \sum_{j=1}^n 2x_j\cdot z_j = 2\langle x,z\rangle$ (vgl. \propref{richtungsableitung_example_euklidische_norm}) \end{example} \begin{theorem}[Vollständige Reduktion] \proplbl{richtungsableitung_vollstaendige_reduktion} - Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $f$ \gls{diffbar} in $x\in D$. Dann: + Sei $f=(f_1, \dotsc, f_m): D\subset K^n\to K^m$, $D$ offen, $f$ \gls{differenzierbar} in $x\in D$. Dann: \begin{align} \proplbl{richtungsableitung_vollstaendige_reduktion_eq} f'(x) \overset{(a)}{=}\begin{pmatrix} @@ -216,7 +208,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li \end{theorem} \begin{remark} - Falls $f$ \gls{diffbar} in $x$, dann reduziert \propref{richtungsableitung_vollstaendige_reduktion} die Berechnung von $f'(x)$ auf Ableitung skalarer Funktionen $\tilde{f}:\tilde{D}\subset K\to K$. + Falls $f$ \gls{differenzierbar} in $x$, dann reduziert \propref{richtungsableitung_vollstaendige_reduktion} die Berechnung von $f'(x)$ auf Ableitung skalarer Funktionen $\tilde{f}:\tilde{D}\subset K\to K$. \end{remark} \begin{proof}[\propref{richtungsableitung_vollstaendige_reduktion}]\hspace*{0pt} @@ -227,9 +219,7 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li \end{enumerate} \end{proof} -\begin{underlinedenvironment}[Frage] - Gilt die Umkehrung von \propref{richtungsableitung_vollstaendige_reduktion} (\propref{richtungsableitung_prop_existenz_prop}), d.h. falls alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f(x)$ bzw. alle Richtungsableitungen $\mathrm{D}_z f(x)$ existieren, ist dann $f$ \gls{diffbar} in $x$? Nein! -\end{underlinedenvironment} +\textbf{Frage:} Gilt die Umkehrung von \propref{richtungsableitung_vollstaendige_reduktion} (\propref{richtungsableitung_prop_existenz_prop}), d.h. falls alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f(x)$ bzw. alle Richtungsableitungen $\mathrm{D}_z f(x)$ existieren, ist dann $f$ \gls{differenzierbar} in $x$? Nein! \begin{example} Betrachte $f:\mathbb{R}^2\to\mathbb{R}$ mit \begin{align*} @@ -247,23 +237,21 @@ Wegen $f(x + t e_j) = f(x_1, \dotsc, x_{j-1}, x_j + t, x_{j+1}, \dotsc, x_n)$ li & D_{(0,z_2)} f(0) = \lim\limits_{t\to 0} \frac{0}{t} = 0 \\ \Rightarrow\;\;& \mathrm{D}_z f(0) \text{ existiert } \forall z\in\mathbb{R}^2 \end{alignat*} - \emph{aber} ist $f$ überhaupt \gls{diffbar}? $\lim\limits_{n\to 0} f\left(\frac{1}{n^2},\frac{1}{n}\right) = \lim\limits_{n\to 0} \dfrac{\frac{1}{n^2}}{\frac{1}{n^2}} = 1 \; \neq \; 0 = f(0)$ \\ - $\Rightarrow$ $f$ nicht stetig in $x=0$ $\xRightarrow{\text{\propref{diffbar_impl_stetig}}}$ $f$ \emph{nicht \gls{diffbar}}. + \emph{aber} ist $f$ überhaupt \gls{differenzierbar}? $\lim\limits_{n\to 0} f\left(\frac{1}{n^2},\frac{1}{n}\right) = \lim\limits_{n\to 0} \dfrac{\frac{1}{n^2}}{\frac{1}{n^2}} = 1 \; \neq \; 0 = f(0)$ \\ + $\Rightarrow$ $f$ nicht stetig in $x=0$ $\xRightarrow{\text{\propref{diffbar_impl_stetig}}}$ $f$ \emph{nicht \gls{differenzierbar}}. \end{example} -\begin{underlinedenvironment}[Ausblick] - Sind alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f_j(x)$ stetige Funktionen in $x\in D$ \\ - $\Rightarrow$ $f$ \gls{diffbar} in $x$ und \propref{richtungsableitung_vollstaendige_reduktion_eq} gilt. -\end{underlinedenvironment} +\textbf{Ausblick:} Sind alle partiellen Ableitungen $\frac{\partial}{\partial x_j} f_j(x)$ stetige Funktionen in $x\in D$ \\ + $\Rightarrow$ $f$ \gls{differenzierbar} in $x$ und \propref{richtungsableitung_vollstaendige_reduktion_eq} gilt. \subsection{$\mathbf{\mathbb{R}}$-differenzierbar und $\mathbf{\mathbb{C}}$-differenzierbar} -Sei $f:D\subset K^n\to K^m$ ist \gls{diffbar} in $z_0 \in D$, $D$ offen +Sei $f:D\subset K^n\to K^m$ ist \gls{differenzierbar} in $z_0 \in D$, $D$ offen $\Leftrightarrow$ eine $k$-lineare Abbildung $A:K^n\to K^m$ existiert, die die Funktion $f$ in $z_0$ "`lokal approximiert"'. -$\rightarrow$ man müsste eigentlich genauer sagen: $f$ ist $k$-\gls{diffbar} in $z_0$ wegen $\mathbb{R}\subset\mathbb{C}$. Jeder \gls{vr} über $\mathbb{C}$ kann auch als \gls{vr} über $\mathbb{R}$ betrachtet werden (nicht umgekehrt!) und jede $\mathbb{C}$-lineare Abbildung zwischen $\mathbb{C}$-\gls{vr} kann auch als $\mathbb{R}$-linear betrachtet werden +$\rightarrow$ man müsste eigentlich genauer sagen: $f$ ist $k$-\gls{differenzierbar} in $z_0$ wegen $\mathbb{R}\subset\mathbb{C}$. Jeder \gls{vr} über $\mathbb{C}$ kann auch als \gls{vr} über $\mathbb{R}$ betrachtet werden (nicht umgekehrt!) und jede $\mathbb{C}$-lineare Abbildung zwischen $\mathbb{C}$-\gls{vr} kann auch als $\mathbb{R}$-linear betrachtet werden -$\Rightarrow$ jede $\mathbb{C}$-\gls{diffbar}e Funktion $f:D\subset \mathbb{C}^n\to \mathbb{C}^m$ ist auch $\mathbb{R}$-\gls{diffbar}. +$\Rightarrow$ jede $\mathbb{C}$-\gls{differenzierbar}e Funktion $f:D\subset \mathbb{C}^n\to \mathbb{C}^m$ ist auch $\mathbb{R}$-\gls{differenzierbar}. Die Umkehrung gilt i.A. nicht! @@ -273,23 +261,23 @@ Die Umkehrung gilt i.A. nicht! \item $f$ ist additiv und $f(tz) = t\cdot f(z)$ $\forall t\in \mathbb{R}$. \\ $\Rightarrow$ $f$ ist $\mathbb{R}$-linear. - Wegen $f(z) = \overline{z} = \overline{z_0} + \overline{z - z_0} = f(z_0) + f(z - z_0) + 0$ folgt: $\mathbb{R}$-\gls{diffbar} in $z_0$ $\forall Z-0\in\mathbb{C}$ mit $\mathbb{R}$-Ableitung $f'(z_0) = 1$ + Wegen $f(z) = \overline{z} = \overline{z_0} + \overline{z - z_0} = f(z_0) + f(z - z_0) + 0$ folgt: $\mathbb{R}$-\gls{differenzierbar} in $z_0$ $\forall Z-0\in\mathbb{C}$ mit $\mathbb{R}$-Ableitung $f'(z_0) = 1$ - \item Angenommen, $f$ ist $\mathbb{C}$-\gls{diffbar} in $z_0\in\mathbb{C}$.\\ + \item Angenommen, $f$ ist $\mathbb{C}$-\gls{differenzierbar} in $z_0\in\mathbb{C}$.\\ $\Rightarrow$ $f'(z_0) = \lim\limits_{z\to 0} \frac{\overline{z_0 + z} - \overline{z}}{z} = \lim\limits_{z\to 0} \frac{\overline{z}}{z} = \pm 1$ $\Rightarrow$ \Lightning\ (Grenzwert existiert nicht) \\ - $\Rightarrow$ $f$ nicht $\mathbb{C}$-\gls{diffbar} + $\Rightarrow$ $f$ nicht $\mathbb{C}$-\gls{differenzierbar} \end{enumerate} \end{example} -\begin{*definition} - $f:D\subset X\to Y$, $D$ offen, $(X,Y) = (\mathbb{R}^n, \mathbb{C}^m)$ bzw. $(\mathbb{C}^n,\mathbb{R}^m)$ oder $(\mathbb{C}^n, \mathbb{C}^m)$ heißt \begriff{$\mathbb{R}$-\gls{diffbar}} in $z_0\in D$, falls \eqref{definition_ableitung} im \propref{section_ableitung} gilt mit entsprechender $\mathbb{R}$-linearer Abbildung $A:X\to Y$ gibt. +\begin{*definition}[$\mathbb{R}$-differenzierbar] + $f:D\subset X\to Y$, $D$ offen, $(X,Y) = (\mathbb{R}^n, \mathbb{C}^m)$ bzw. $(\mathbb{C}^n,\mathbb{R}^m)$ oder $(\mathbb{C}^n, \mathbb{C}^m)$ heißt \begriff{$\mathbb{R}$-\gls{differenzierbar}} in $z_0\in D$, falls \eqref{definition_ableitung} im \propref{section_ableitung} gilt mit entsprechender $\mathbb{R}$-linearer Abbildung $A:X\to Y$ gibt. - \uline{beachte:} falls $X$ oder $Y$ nur \gls{vr} über $\mathbb{R}$, dann $\mathbb{C}$-\gls{diffbar} nicht erklärt. + \uline{beachte:} falls $X$ oder $Y$ nur \gls{vr} über $\mathbb{R}$, dann $\mathbb{C}$-\gls{differenzierbar} nicht erklärt. \vspace*{1.5em} \begin{underlinedenvironment}[Spezialfall] - Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Vergleiche $\mathbb{R}$-\gls{diffbar} und $\mathbb{C}$-\gls{diffbar}: + Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Vergleiche $\mathbb{R}$-\gls{differenzierbar} und $\mathbb{C}$-\gls{differenzierbar}: - Sei $f$ $\mathbb{R}$-\gls{diffbar} in $z_0$, d.h. es existiert eine $\mathbb{R}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ mit {\zeroAmsmathAlignVSpaces**\begin{align} + Sei $f$ $\mathbb{R}$-\gls{differenzierbar} in $z_0$, d.h. es existiert eine $\mathbb{R}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ mit {\zeroAmsmathAlignVSpaces**\begin{align} \proplbl{richtungsableitung_differenzierbarkeit_r_diffbar} f(z_0 + z) = f(z_0) + A\cdot z + o(\vert z \vert z),\; z\to z_0 \end{align}} @@ -301,7 +289,7 @@ Die Umkehrung gilt i.A. nicht! \end{alignat} \end{underlinedenvironment} - Nenne $f_x(z_0)$, $f_y(z_0)$ \begriff[Ableitung!]{partielle Ableitung}[!$\mathbb{C}$] von $f$ in $z_0$. Sei $f$ \begriff[Ableitung!]{$\mathbb{C}$-\gls{diffbar}} in $x_z$, d.h. \begin{align} + Nenne $f_x(z_0)$, $f_y(z_0)$ \begriff[Ableitung!]{partielle Ableitung}[!$\mathbb{C}$] von $f$ in $z_0$. Sei $f$ \begriff[Ableitung!]{$\mathbb{C}$-\gls{differenzierbar}} in $x_z$, d.h. \begin{align} \notag &f(z_0 + z) = f(z_0) + \underbrace{f'(z_0)}_{\in\mathbb{C}}\cdot z + o(\vert z \vert) \\ \proplbl{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann} \xRightarrow{\eqref{richtungsableitung_differenzierbar_partiell_y}} \;& f'(z_0) = f_x(z_0) = -i f_y(x_0) @@ -311,7 +299,7 @@ Die Umkehrung gilt i.A. nicht! \begin{proposition} Sei $f:D\subset\mathbb{C}\to\mathbb{C}$, $D$ offen, $z_0\in D$. Dann: \begin{align} \proplbl{richtungsableitung_differenzierbarkeit_equivalenz_c_r_diffbar} - f\;\mathbb{C}\text{-\gls{diffbar} in }z_0 \; \; \Leftrightarrow \;\;f\;\mathbb{R}\text{-\gls{diffbar} in }z_0 \text{ mit }f_x(z) = -i f_y(z_0) + f\;\mathbb{C}\text{-\gls{differenzierbar} in }z_0 \; \; \Leftrightarrow \;\;f\;\mathbb{R}\text{-\gls{differenzierbar} in }z_0 \text{ mit }f_x(z) = -i f_y(z_0) \end{align} \end{proposition} @@ -349,12 +337,10 @@ Lineare Algebra: $A:\mathbb{C}\to\mathbb{C}$ linear $\Leftrightarrow$ $\exists w Selbststudium \end{proof} -\begin{underlinedenvironment}[Somit] - $\mathbb{C}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ entspricht \emph{spezieller} $\mathbb{R}$-linearen Abbildung $\mathbb{R}^2\to\mathbb{R}^2$ -\end{underlinedenvironment} +\textbf{Somit:} $\mathbb{C}$-lineare Abbildung $A:\mathbb{C}\to \mathbb{C}$ entspricht \emph{spezieller} $\mathbb{R}$-linearen Abbildung $\mathbb{R}^2\to\mathbb{R}^2$ -\begin{*definition} -Falls $\mathbb{R}$-\gls{diffbar} in $z_0$ liefert \eqref{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann} \begin{align*} +\begin{*definition}[\person{Cauchy}-\person{Riemann}-Differentialgleichungen] +Falls $\mathbb{R}$-\gls{differenzierbar} in $z_0$ liefert \eqref{richtungsableitung_differenzierbarkeit_vorform_cauchy_riemann} \begin{align*} f_x(z_0) &= u_x(x_0, y_0) + i v_x(x_0, y_0),& f_y(z_0) &= u_y(x_0, y_0) + iv_y(x_0, y_0) \end{align*} folglich \begin{align} @@ -365,8 +351,7 @@ folglich \begin{align} \end{align} \end{*definition} -\begin{underlinedenvironment}[Somit] - $\mathbb{C}$-lineare Abbilung $z \to f'(z_0)$ entspricht $\mathbb{R}$-linearer Abbildung \begin{align*} +\textbf{Somit:} $\mathbb{C}$-lineare Abbilung $z \to f'(z_0)$ entspricht $\mathbb{R}$-linearer Abbildung \begin{align*} \begin{pmatrix} x \\ y \end{pmatrix}\to \begin{pmatrix} @@ -375,10 +360,9 @@ folglich \begin{align} x \\ y \end{pmatrix} \end{align*} -\end{underlinedenvironment} \begin{hint} - $\mathbb{C}$-\gls{diffbar}e Funktionen $f:D\subset \mathbb{C}\to\mathbb{C}$ werden in der Funktionentheorie untersucht. + $\mathbb{C}$-\gls{differenzierbar}e Funktionen $f:D\subset \mathbb{C}\to\mathbb{C}$ werden in der Funktionentheorie untersucht. - Es gilt z.B. $f$ $\mathbb{C}$-\gls{diffbar} auf $D$ $\Rightarrow$ Ableitung $f':D\to\mathbb{C}$ auch $\mathbb{C}$-\gls{diffbar} auf $D$ $\Rightarrow$ $f$ beliebig oft \gls{diffbar} auf $D$! + Es gilt z.B. $f$ $\mathbb{C}$-\gls{differenzierbar} auf $D$ $\Rightarrow$ Ableitung $f':D\to\mathbb{C}$ auch $\mathbb{C}$-\gls{differenzierbar} auf $D$ $\Rightarrow$ $f$ beliebig oft \gls{differenzierbar} auf $D$! \end{hint} \ No newline at end of file diff --git a/2. Semester/ANAG/TeX_files/Wiederholung_und_Motivation.tex b/2. Semester/ANAG/TeX_files/Wiederholung_und_Motivation.tex index 8e4f7ff..8d10bad 100644 --- a/2. Semester/ANAG/TeX_files/Wiederholung_und_Motivation.tex +++ b/2. Semester/ANAG/TeX_files/Wiederholung_und_Motivation.tex @@ -6,13 +6,13 @@ Sei $K^n$ $n$-dim. \gls{vr} über Körper mit $K=\mathbb{R}$ oder $K=\mathbb{C}, \item alle Normen auf $K^n$ sind äquivalent (\propref{aeqv_norm}) \\ $\Rightarrow$ Kovergenz unabhängig von der Norm - Verwende idR euklidische Norm $\vert x \vert_2 = \vert x \vert = \sqrt{\sum_{i}\vert x_i \vert^2}$ + Verwende in der Regel euklidische Norm $\vert x \vert_2 = \vert x \vert = \sqrt{\sum\limits_{i}\vert x_i \vert^2}$ \item \begriff{Skalarprodukt} \begin{itemize} - \item $\langle x,y \rangle = \sum_{j=1}^{n} x_j y_j$ in $\mathbb{R}$ - \item $\langle x,y \rangle = \sum_{j=1}^{n} \overline{x_j} y_j$ in $\mathbb{C}$ + \item $\langle x,y \rangle = \sum\limits_{j=1}^{n} x_j\cdot y_j$ in $\mathbb{R}$ + \item $\langle x,y \rangle = \sum\limits_{j=1}^{n} \overline{x}_j\cdot y_j$ in $\mathbb{C}$ \end{itemize} - \item \textsc{Cauchy}-\text{Schwarz}-Ungleichung ($\vert \langle x,y\rangle \vert \le \vert x \vert + \vert y \vert\,\forall x,y\in K^n$) + \item \textsc{Cauchy}-\textsc{Schwarz}-Ungleichung ($\vert \langle x,y\rangle \vert \le \vert x \vert + \vert y \vert\,\quad\forall x,y\in K^n$) \end{itemize} \subsection{Lineare Abbildungen} @@ -38,8 +38,8 @@ Eine \begriff{lineare Abbildung} ist homogen und additiv (siehe \propref{defLine \item $L(K^n, K^m)$ ist isomorph zu $K^{m\times n}$ als \gls{vr} \\ $\Rightarrow$ $L(K^n, K^m)$ ist $m\cdot n$-dim. \gls{vr} ($\Rightarrow$ alle Normen äquivalent, $\Rightarrow$ Konvergenz von $\{A_n\}$ von linearer Abbildungen in $L(K^n, K^m)$ ist normunabhängig) - Nehmen idR statt $\Vert A \Vert$ \person{euklidische} Norm $\vert A \vert = \sqrt{\sum_{k,l} \vert A_{k,l} \vert ^2}$.\\ - Es gilt: \[ \vert Ax \vert \le \Vert A \Vert \vert x \vert \text{ und } \vert Ax\vert \le \vert A \vert \vert x \vert \] + Nehmen in der Regel statt $\Vert A \Vert$ \person{euklidische} Norm $\vert A \vert = \sqrt{\sum\limits_{k,l} \vert A_{k,l} \vert ^2}$.\\ + Es gilt: \[ \vert Ax \vert \le \Vert A \Vert\cdot \vert x \vert \text{ und } \vert Ax\vert \le \vert A \vert \cdot\vert x \vert \] \end{itemize} \item Abbildung $\tilde{f}: K^n \to K^m$ heißt \begriff[linear!]{affin} \highlight{linear}, falls $\tilde{f}(x) = Ax + a$ für lineare Abbildung $A:K^n\to K^m, a\in K^m$ \end{itemize} @@ -93,10 +93,17 @@ Sei $f:D\subset K^n \to K^m$, $g:D\subset K^n \to K$, $x_0 \in \overline{D}$. Da \end{flalign*} Der Graph von $f$ liegt in der Nähe von $x_0$ in immer flacheren, kegelförmigen Mengen\\ $\Rightarrow$ Graph "`schmiegt sich"' an eine horizontale Ebene an den Punkt $(x_0, f(x_0))$ an. - - \item \emph{Beobachtung:} horizontale Ebene ist Graph einer affin linearen Funktion $\tilde{A}: \mathbb{R}^n\to\mathbb{R}^n$, daher\\ - \emph{Zentrale Frage:} Existiert zu gesuchter Funktion $f: D\subset\mathbb{R}^n \to K^m$, $x_0\in\mathbb{R}$ eine affin lineare Funktion $\tilde{A}:K^n\to K^m$, sodass sich in der Nähe von $x_0$ der Graph von $f$ an den Graph von $\tilde{A}$ "`anschmiegt"'? - - Wegen $f(x_0) = \tilde{A}(x_0)$ folgt $\tilde{A}(x) = A(x-x_0) + f(x_0)$. Was heißt "`anschmiegen"'? $f(x) + \underbrace{f(x_0) + A(x-x_0)}_{\tilde{A}(x)} = o(\vert x-x_0\vert)$, d.h. die Abweichung wird schneller klein als $\vert x-x_0\vert$! \end{enumerate} -\end{example} \ No newline at end of file + + \textbf{Beobachtung:} horizontale Ebene ist Graph einer affin linearen Funktion $\tilde{A}: \mathbb{R}^n\to\mathbb{R}^n$, daher\\ + \textbf{Zentrale Frage:} Existiert zu gesuchter Funktion $f: D\subset\mathbb{R}^n \to K^m$, $x_0\in\mathbb{R}$ eine affin lineare Funktion $\tilde{A}:K^n\to K^m$, sodass sich in der Nähe von $x_0$ der Graph von $f$ an den Graph von $\tilde{A}$ "`anschmiegt"'?\\ + \textbf{Antwort} Ja, wegen $f(x_0) = \tilde{A}(x_0)$ folgt $\tilde{A}(x) = A(x-x_0) + f(x_0)$. +\end{example} + +\begin{*definition}[Anschmiegen] + $f(x) + \underbrace{f(x_0) + A(x-x_0)}_{\tilde{A}(x)} = o(\vert x-x_0\vert)$, \\ + d.h. die Abweichung wird schneller klein als $\vert x-x_0\vert$! +\end{*definition} + +\smiley{} Vielleicht hatten Sie eine andere Vorstellung von "'anschmiegen"', aber wir machen hier +Mathematik \smiley{} \ No newline at end of file diff --git a/2. Semester/ANAG/Vorlesung ANAG.tex b/2. Semester/ANAG/Vorlesung ANAG.tex index f9beb89..770bb0a 100644 --- a/2. Semester/ANAG/Vorlesung ANAG.tex +++ b/2. Semester/ANAG/Vorlesung ANAG.tex @@ -45,6 +45,13 @@ \usepackage[table]{xcolor} \usepackage{graphicx} +\usepackage{pgfplots} +\usepackage{pgf} +\usepackage{tikz} +\usetikzlibrary{patterns,arrows,calc,decorations.pathmorphing} +\usetikzlibrary{matrix} +\usepackage{color} +\usepackage{wasysym} \usepackage{enumerate} \usepackage{enumitem} %customize label @@ -96,87 +103,95 @@ } \newmdtheoremenv[% -style=boxedtheorem,% -innertopmargin=\topskip,% -innerbottommargin=\topskip,% -linecolor=darkgrey,% -backgroundcolor=lightgrey,% + style=boxedtheorem,% + innertopmargin=\topskip,% + innerbottommargin=\topskip,% + linecolor=darkgrey,% + backgroundcolor=lightgrey,% ]{theorem}{Theorem}[section] + \newmdtheoremenv[% -style=boxedtheorem,% -linecolor=darkgrey,% -topline=false,% -rightline=false,% -bottomline=false,% -innertopmargin=\topskip,% -innerbottommargin=\topskip,% -backgroundcolor=lightgrey,% + style=boxedtheorem,% + linecolor=darkgrey,% + topline=false,% + rightline=false,% + bottomline=false,% + innertopmargin=\topskip,% + innerbottommargin=\topskip,% + backgroundcolor=lightgrey,% ]{proposition}[theorem]{Satz} + \newmdtheoremenv[% -style=boxedtheorem,% -linecolor=darkgrey,% -topline=false,% -rightline=false,% -bottomline=false,% -backgroundcolor=lightgrey,% -innertopmargin=\topskip,% -innerbottommargin=\topskip,% + style=boxedtheorem,% + linecolor=darkgrey,% + topline=false,% + rightline=false,% + bottomline=false,% + backgroundcolor=lightgrey,% + innertopmargin=\topskip,% + innerbottommargin=\topskip,% ]{lemma}[theorem]{Lemma} + \newmdtheoremenv[% -style=boxedtheorem,% -linecolor=red,% -topline=false,% -rightline=false,% -bottomline=false,% -innertopmargin=0,% -innerbottommargin=-3pt,% + style=boxedtheorem,% + linecolor=red,% + topline=false,% + rightline=false,% + bottomline=false,% + innertopmargin=0,% + innerbottommargin=-3pt,% ]{definition}[theorem]{Definition} + \newmdtheoremenv[% -outerlinewidth=3pt,% -linecolor=black,% -topline=false,% -rightline=false,% -bottomline=false,% -innertopmargin=0pt,% -innerbottommargin=-0pt,% -frametitlefont=\normalfont\bfseries\color{black},% -skipabove=5pt,% -skipbelow=10pt,% + outerlinewidth=3pt,% + linecolor=black,% + topline=false,% + rightline=false,% + bottomline=false,% + innertopmargin=0pt,% + innerbottommargin=-0pt,% + frametitlefont=\normalfont\bfseries\color{black},% + skipabove=5pt,% + skipbelow=10pt,% ]{conclusion}[theorem]{Folgerung} + \newmdtheoremenv[% -hidealllines=true,% -frametitlefont=\normalfont\bfseries\color{black},% -innerleftmargin=0pt,% -skipabove=5pt,% -innerleftmargin=10pt,% + hidealllines=true,% + frametitlefont=\normalfont\bfseries\color{black},% + innerleftmargin=0pt,% + skipabove=5pt,% + innerleftmargin=10pt,% ]{remark}[theorem]{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung} + \newmdtheoremenv[% -hidealllines=true,% -frametitlefont=\normalfont\bfseries\color{black},% -innerleftmargin=10pt,% + hidealllines=true,% + frametitlefont=\normalfont\bfseries\color{black},% + innerleftmargin=10pt,% ]{example}[theorem]{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel} %unnumbered theorems \theoremstyle{nonumberbreak} \theoremindent0cm \newmdtheoremenv[% -style=boxedtheorem,% -linecolor=red,% -topline=false,% -rightline=false,% -bottomline=false,% -innertopmargin=1pt,% -innerbottommargin=1pt,% + style=boxedtheorem,% + linecolor=red,% + topline=false,% + rightline=false,% + bottomline=false,% + innertopmargin=1pt,% + innerbottommargin=1pt,% ]{*definition}{Definition} + \newmdtheoremenv[% -hidealllines=true,% -frametitlefont=\normalfont\bfseries\color{black},% -skipabove=5pt,% -innerleftmargin=10pt,% + hidealllines=true,% + frametitlefont=\normalfont\bfseries\color{black},% + skipabove=5pt,% + innerleftmargin=10pt,% ]{*remark}{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung} + \newmdtheoremenv[% -hidealllines=true,% -innerleftmargin=10pt,% + hidealllines=true,% + innerleftmargin=10pt,% ]{*example}{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel} %Hinweis-Theoremstyle and environment @@ -460,6 +475,7 @@ innerleftmargin=10pt,% \newacronym{hp}{HP}{\begriff{Häufungspunkt}} \newacronym{vr}{VR}{Vektorraum} \newacronym{diffbar}{diffbar}{differenzierbar} +\newacronym{differenzierbar}{differenzierbar}{differenzierbar} \newacronym{mws}{MWS}{Mittelwertsatz} \title{\textbf{Analysis 2. Semester (SS2018)}}