2018-02-25 21:32:57 +01:00
\section { Wiederholung und Motivation}
Sei $ K ^ n $ $ n $ -dim. \gls { vr} über Körper mit $ K = \mathbb { R } $ oder $ K = \mathbb { C } , n \in \mathbb { N } _ { \ge 0 } $ .
\begin { itemize}
\item Elemente sind alle $ x = ( x _ 1 , \dotsc , x _ n ) \in K ^ n $ mit $ x _ 1 , \dotsc , x _ n \in K $ .
\item \begriff { Standardbasis} ist $ \{ e _ 1 , \dotsc , e _ n \} $ mit $ e _ j = ( 0 , \dotsc , 0 , \underbrace { 1 } _ { \text { $ j$ - te Stelle } } , 0 , \dotsc , 0 ) $
\item alle Normen auf $ K ^ n $ sind äquivalent (\propref { aeqv_ norm} ) \\
$ \Rightarrow $ Kovergenz unabhängig von der Norm
2018-03-29 14:36:30 +02:00
Verwende in der Regel euklidische Norm $ \vert x \vert _ 2 = \vert x \vert = \sqrt { \sum \limits _ { i } \vert x _ i \vert ^ 2 } $
2018-02-25 21:32:57 +01:00
\item \begriff { Skalarprodukt}
\begin { itemize}
2018-03-29 14:36:30 +02:00
\item $ \langle x,y \rangle = \sum \limits _ { j = 1 } ^ { n } x _ j \cdot y _ j $ in $ \mathbb { R } $
\item $ \langle x,y \rangle = \sum \limits _ { j = 1 } ^ { n } \overline { x } _ j \cdot y _ j $ in $ \mathbb { C } $
2018-02-25 21:32:57 +01:00
\end { itemize}
2018-03-29 14:36:30 +02:00
\item \textsc { Cauchy} -\textsc { Schwarz} -Ungleichung ($ \vert \langle x,y \rangle \vert \le \vert x \vert + \vert y \vert \, \quad \forall x,y \in K ^ n $ )
2018-02-25 21:32:57 +01:00
\end { itemize}
2018-03-04 23:58:36 +01:00
\subsection { Lineare Abbildungen}
2018-02-25 21:32:57 +01:00
\proplbl { definition_ tensorprodukt}
Eine \begriff { lineare Abbildung} ist homogen und additiv (siehe \propref { defLinearFunction} ).
\begin { itemize}
\item Lineare Abbildung $ A: K ^ n \rightarrow K ^ m $ ist darstellbar durch $ m \times n $ -Matrizen bezüglich der Standardbasis
(\emph { beachte:} $ A $ sowohl Abbildung als auch Matrix)
\begin { itemize}
\item lineare Abbildung ist stetig auf endlich-dimensionalen Räumen (unabhängig von der Norm, siehe \propref { chap_ 15_ 5} )
\item transponierte Matrix: $ A ^ T \in K ^ { m \times n } $
\begin { hint}
$ x = ( x _ 1 , \dotsc , x _ n ) \in K ^ n $ idR platzsparender als Zeilenvektor geschrieben, \emph { aber} bei Matrix-Multiplikation $ x $ Spalten-Vektor, $ x ^ T $ Zeilenvektor, d.h. \begin { align*}
x^ T \cdot y & = \langle x,y\rangle , & & \text { falls $ m = n $ } \\
x \cdot y^ T & = x \otimes y\in K^ { m\times n} , & & \text { sog. \begriff { Tensorprodukt} }
\end { align*}
\end { hint}
\end { itemize}
\item \mathsymbol { L} { $ L ( K ^ n, K ^ m ) $ } $ = \{ A: K ^ n \to K ^ m, \text { $ A$ linear } \} $ (Menge der linearen Abbildung, ist normierter Raum)
\begin { itemize}
\item \mathsymbol { |A|} { $ \Vert A \Vert $ } $ = \sup \{ \vert Ax \vert \mid \vert x \vert \le 1 \} $ (\begriff { Operatornorm} , $ \Vert A \Vert $ hängt i.A. von Normen auf $ K ^ n, K ^ m $ ab)
\item $ L ( K ^ n, K ^ m ) $ ist isomorph zu $ K ^ { m \times n } $ als \gls { vr} \\
$ \Rightarrow $ $ L ( K ^ n, K ^ m ) $ ist $ m \cdot n $ -dim. \gls { vr} ($ \Rightarrow $ alle Normen äquivalent, $ \Rightarrow $ Konvergenz von $ \{ A _ n \} $ von linearer Abbildungen in $ L ( K ^ n, K ^ m ) $ ist normunabhängig)
2018-03-29 14:36:30 +02:00
Nehmen in der Regel statt $ \Vert A \Vert $ \person { euklidische} Norm $ \vert A \vert = \sqrt { \sum \limits _ { k,l } \vert A _ { k,l } \vert ^ 2 } $ .\\
Es gilt: \[ \vert Ax \vert \le \Vert A \Vert \cdot \vert x \vert \text { und } \vert Ax \vert \le \vert A \vert \cdot \vert x \vert \]
2018-02-25 21:32:57 +01:00
\end { itemize}
\item Abbildung $ \tilde { f } : K ^ n \to K ^ m $ heißt \begriff [linear!] { affin} \highlight { linear} , falls $ \tilde { f } ( x ) = Ax + a $ für lineare Abbildung $ A:K ^ n \to K ^ m, a \in K ^ m $
\end { itemize}
2018-03-04 23:58:36 +01:00
\subsection { \textsc { Landau} -Symbole}
2018-02-25 21:32:57 +01:00
Sei $ f:D \subset K ^ n \to K ^ m $ , $ g:D \subset K ^ n \to K $ , $ x _ 0 \in \overline { D } $ . Dann:
\begin { itemize}
\item $ f ( x ) = o ( g ( x ) ) $ für $ x \to x _ o $ \gls { gdw} $ \lim \limits _ { \substack { x \to x _ 0 \\ x \neq x _ 0 } } \frac { \vert f ( x ) \vert } { g ( x ) } = 0 $
\item $ f ( x ) = \mathcal { O } ( g ( x ) ) $ für $ x \to x _ 0 $ \gls { gdw} $ \exists \delta > 0 , c \ge 0 : \frac { \vert f ( x ) \vert } { \vert g ( x ) \vert } \le c \; \forall x \in \left ( B _ \delta ( x _ 0 ) \setminus \{ x _ 0 \} \right ) \cap D $
\emph { wichtiger Spezialfall:} $ g ( x ) = \vert x - x _ 0 \vert ^ k, k \in \mathbb { N } $
\end { itemize}
\begin { example}
Sei $ f:D \subset K ^ n \to K ^ m $ , $ x _ 0 \in D $ \gls { hp} von $ D $ . Dann:
\begin { align}
\notag f\text { stetig in } x_ 0 & \Leftrightarrow \lim \limits _ { \substack { x\to x_ 0 \\ x\neq x_ 0} } f(x) = f(x_ 0) \\
\notag & \Leftrightarrow \lim \limits _ { \substack { x\to x_ 0 \\ x\neq x_ 0} } \frac { f(x) - f(x_ 0)} { 1} = 0 \\
& \Leftrightarrow \boxed { f(x) = f(x_ 0) + o(1)} \text { für } x\to x_ 0\proplbl { chap15specialCase}
\end { align}
2018-03-18 19:26:30 +01:00
\begin { underlinedenvironment} [Interpretation von \propref { chap15specialCase} ]{ }
2018-02-25 21:32:57 +01:00
Setze $ r ( x ) : = f ( x ) - f ( x _ 0 ) $
\zeroAmsmathAlignVSpaces
\begin { flalign}
& \notag \overset { \text { (\ref { chap15specialCase} )} } { \Rightarrow } r(x) = o(1) \text { für } x\to x_ 0& \\
& \label { chap15interpretationSpecialCase} \Rightarrow r(x) \overset { x\to x_ 0} { \longrightarrow } 0,&
\end { flalign}
d.h. $ o ( 1 ) $ ersetzt eine "`Rest-Funktion"' $ r ( x ) $ mit Eigenschaft (\ref { chap15interpretationSpecialCase} ).
2018-03-18 19:26:30 +01:00
\end { underlinedenvironment}
2018-02-25 21:32:57 +01:00
Wegen $ o ( 1 ) = o ( \vert x - x _ 0 \vert ^ 0 ) $ (d.h. $ k = 0 $ ) sagt man auch, \propref { chap15specialCase} ist die Approximation 0. Ordnung der Funktion $ f $ in der Nähe von $ x _ 0 $ .
\end { example}
\begin { example}
Sei $ f:D \subset \mathbb { R } ^ n \to \mathbb { R } $ , $ x _ 0 \in D $ , $ D $ offen. Was bedeutet \begin { align}
\proplbl { chap15meaningSpecialCase} f(x) = f(x_ 0) + o(\vert x-x_ 0\vert ),\; x\to x_ 0?
\end { align}
\begin { enumerate} [label={ \alph * )} ]
\item Betrachte $ f $ auf Strahl $ x = x _ 0 + ty $ , $ y \in \mathbb { R } ^ n $ fest, $ \vert y \vert = 1 $ , $ t \in \mathbb { R } $ .
\begin { align*}
2018-03-26 14:51:23 +02:00
\text { \propref { chap15meaningSpecialCase} } \Rightarrow \; & 0 = \lim \limits _ { \substack { x\to x_ 0 \\ x\neq x_ 0} } \frac { \vert f(x) - f(x_ 0)\vert } { \vert x - x_ 0\vert } = \lim \limits _ { \substack { x\to x_ 0 \\ x\neq x_ 0} } \frac { \vert f(x_ 0 + ty) - f(x_ 0) \vert } { \vert t \vert }
2018-02-25 21:32:57 +01:00
\end { align*}
\item \zeroAmsmathAlignVSpaces [\dimexpr -\baselineskip - \parskip\relax]
\begin { flalign*}
2018-03-26 14:51:23 +02:00
\text { \propref { chap15meaningSpecialCase} } \; \Rightarrow \; & f(x) = f(x_ 0) + \underbrace { \frac { o(\vert x - x_ 0\vert )} { \vert x - x_ 0\vert } } _ { =o(1)} \cdot \vert x - x_ 0\vert , \; x\to \infty & \\
\Rightarrow \; & f(x) = f(x) + \underbrace { o(1)} _ { \mathclap { \text { anstatt } r(x)\text { gemäß (\ref { chap15interpretationSpecialCase} )} } } \cdot \vert x-x_ 0\vert , \; x\to x_ 0 & \\
\Rightarrow \; & f(x) = f(x_ 0) + r(x) \cdot \vert x - x_ 0\vert & \\
\Rightarrow \; & \vert f(x) - f(x_ 0)\vert \le \rho (t) \cdot \vert x - x_ 0\vert ,& \\
2018-02-25 21:32:57 +01:00
& \rho (t) := \sup \limits _ { \vert x - x_ 0\vert \le t} \vert r(x)\vert \xrightarrow { t\to \infty } 0
\end { flalign*}
Der Graph von $ f $ liegt in der Nähe von $ x _ 0 $ in immer flacheren, kegelförmigen Mengen\\
$ \Rightarrow $ Graph "`schmiegt sich"' an eine horizontale Ebene an den Punkt $ ( x _ 0 , f ( x _ 0 ) ) $ an.
\end { enumerate}
2018-03-29 14:36:30 +02:00
\textbf { Beobachtung:} horizontale Ebene ist Graph einer affin linearen Funktion $ \tilde { A } : \mathbb { R } ^ n \to \mathbb { R } ^ n $ , daher\\
\textbf { Zentrale Frage:} Existiert zu gesuchter Funktion $ f: D \subset \mathbb { R } ^ n \to K ^ m $ , $ x _ 0 \in \mathbb { R } $ eine affin lineare Funktion $ \tilde { A } :K ^ n \to K ^ m $ , sodass sich in der Nähe von $ x _ 0 $ der Graph von $ f $ an den Graph von $ \tilde { A } $ "`anschmiegt"'?\\
\textbf { Antwort} Ja, wegen $ f ( x _ 0 ) = \tilde { A } ( x _ 0 ) $ folgt $ \tilde { A } ( x ) = A ( x - x _ 0 ) + f ( x _ 0 ) $ .
\end { example}
\begin { *definition} [Anschmiegen]
$ f ( x ) + \underbrace { f ( x _ 0 ) + A ( x - x _ 0 ) } _ { \tilde { A } ( x ) } = o ( \vert x - x _ 0 \vert ) $ , \\
d.h. die Abweichung wird schneller klein als $ \vert x - x _ 0 \vert $ !
\end { *definition}
\smiley { } Vielleicht hatten Sie eine andere Vorstellung von "'anschmiegen"', aber wir machen hier
Mathematik \smiley { }