Ergänze bis Gram-Matrix, entferne überflüssige \label{}s

This commit is contained in:
Julius Leon Quasebarth 2018-02-26 13:42:01 +01:00
parent beddd97d9c
commit 1d898d91d5

View file

@ -449,7 +449,7 @@ F"ur die Negation der Quantoren gilt:
\end{itemize}
\end{relation}
\begin{exa} \label{} \
\begin{exa} \
\(f: X\to Y\) ist surjektiv \(\iff \forall y\in Y \exists x\in X : f(x)=y\).\\
Also: \(f: X\to Y\) ist \textbf{nicht} surjektiv \(\iff \exists y\in Y \forall x\in X : f(x)\not=y\).
\end{exa}
@ -595,7 +595,7 @@ von den Primzahlen \(p_1, ..., p_n\) gibt Rest \(1\).
Wir werden die Aussage: wenn \(q\) eine gerade Primzahl ist \(\implies q=2\)
beweisen.
\begin{prof}[Direkter Beweis] \label{} \
\begin{prof}[Direkter Beweis] \
\begin{enumerate}
\item \(q\) ist gerade \(\implies q\) ist durch \(2\) Teilbar f"ur \(k\in\mathbb{N}\)
\item \(q\) ist aber eine Primzahl \(\implies\) einer der Faktoren in \(2\cdot k\) ist
@ -604,7 +604,7 @@ gerade \(1\), \(2\not= 1\)
\end{enumerate}
\end{prof}
\begin{prof}[Kontraposition] \label{} \
\begin{prof}[Kontraposition] \
Wir m"ussen zeigen: \(q\not= 2\implies\) (\(q\) ungerade) \(\vee\) (\(q\) keine
Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl)
\(\implies q\) ist ungerade!
@ -614,7 +614,7 @@ Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl)
\end{enumerate}
\end{prof}
\begin{prof}[Widerspruchsbeweis] \label{} \
\begin{prof}[Widerspruchsbeweis] \
Annahme: \(q\) ist gerade, \(q\) ist eine Primzahl, \(q\not= 2\). Wir wollen einen
Widerspruch herleiten.
@ -656,7 +656,7 @@ Die komplexen Zahlen \(\mathbb{C}\) sind die Menge der Paare \((a,b)\in
Multiplikation \((a,b)\cdot (c,d)=(ac-bd, bc+ad)\).
\end{definition}
\begin{notation}[] \label{} \
\begin{notation}[] \
\begin{itemize}
\item Statt \((a,b)\) schreibt man auch \((a+bi)\in \mathbb{C}\).
\item \(i:=(0,1)=0+1\cdot i\):
@ -676,7 +676,7 @@ gelten (\emph{K"orperaxiome}): F"ur \(z_1, z_2, z_3 \in \mathbb{C}\) gilt, z.B.:
\end{itemize}
\end{relation}
\begin{notte}[] \label{}
\begin{notte}[]
\((\mathbb{R},+,\cdot)\subsetneq (\mathbb{C},+,\cdot)\) auf nat"urliche Weise als
der der Form \(a+0\cdot i = (a,0)\), \(a\in \mathbb{R}\).
\end{notte}
@ -704,7 +704,7 @@ F"ur \(z\in \mathbb{C}\) heisst die Zahl \(\overline{z}:=a-bi\) die komplex
konjugierte Zahl zu \(a+bi\).
\end{definition}
\begin{exa} \label{}
\begin{exa}
\(\overline{1+i}=1-i\)
\end{exa}
@ -723,7 +723,7 @@ konjugierte Zahl zu \(a+bi\).
Das Inverse einer Komplexen Zahl ist gegeben durch: \(\forall z\not= 0\; \exists z^{-1} = \frac{\overline{z}}{|z|^2}\) mit \(z \cdot z^{-1}=1\)
\end{definition}
\begin{exa} \label{} \
\begin{exa} \
\((1+i)^{-1}=\frac{1-i}{2}\)
\end{exa}
@ -750,12 +750,12 @@ Es folgt:
\(a=|z|\cdot \cos(\varphi)\) und \(b=|z|\cdot \sin(\varphi)\)
\end{relation}
\begin{notte}[] \label{}
\begin{notte}[]
\(\varphi\) ist nicht eindeutig bestimmt, sondern bis auf Addition von eines
vielfachen von \(2\pi\).
\end{notte}
\begin{exa} \label{}
\begin{exa}
\(\varphi=\frac{\pi}{4}\) und \(\varphi=-\frac{7\pi}{4}\) sind im geometrischen Bild von
\(\mathbb{C}\) "aquivalent.
\end{exa}
@ -771,11 +771,11 @@ Das Argument von \(z\) ist die Menge von allen \(\varphi \in R\) mit
\]
\end{definition}
\begin{notte}[] \label{}
\begin{notte}[]
\(\operatorname{arg}z= {\operatorname{arg}z +2\pi k\; \forall k\in \mathbb{Z}}\)
\end{notte}
\begin{exa} \label{} \
\begin{exa} \
Seien \(z_1=|z_1|\cdot \cos(\varphi_1)+i\cdot \sin(\varphi_1)\), \(z_2=|z_2|\cdot
\cos(\varphi_2)+i\cdot \sin(\varphi_2)\) zwei komplexe Zahlen.\\
@ -804,7 +804,7 @@ also der Rotation gegen den Urzeigersinn um \(\varphi\).
\section{Exponentialform der komplexen Zahlen}
\label{sec:orgb4d9f14}
\begin{notation}[] \label{} \
\begin{notation}[] \
\begin{itemize}
\item Exponentialform: \(\cos(\varphi)+i\cdot \sin(\varphi):=e^{i\cdot \varphi}\)
\item es gilt \(e^{i(\varphi_k)},\; k\in\mathbb{R}\) sind die Zahlen auf dem Einheitskreis
@ -822,7 +822,7 @@ Mit dieser Notation folgt:
\varphi}=\cos(n\cdot\varphi)+i\cdot\sin(n\cdot\varphi)\) f"ur alle \(n\in\mathbb{N}\)
\end{relation}
\begin{exa} \label{}\
\begin{exa} \
\begin{align*}
(\cos(\varphi)+i\cdot \sin(\varphi))^2 & = \cos^2(\varphi)-\sin^2(\varphi)+2\cdot i\cdot\sin(\varphi)\cdot\cos(\varphi) \\
& = \cos(2\varphi) + 2\cdot i \cdot\sin(2\varphi) \\
@ -852,13 +852,13 @@ und dann reduzieren wir den allgemeinen Fall darauf.
Eine Zahl \(z\in \mathbb{C}\) heisst \(n\text{-te}\) Einheitswurzel, wenn \(z^n=1\).
\end{definition}
\begin{proposition}[] \label{}
\begin{proposition}[]
F"ur jedes \(n\geq, n\in\mathbb{N}\) existieren genau \(n\)
Einheitswurzeln in \(\mathbb{C}\). Sie sind durch die Formel
\(z_k=e^{\frac{2\pi\cdot k\cdot i}{n}} \text{ mit } k=0,1,...,n-1\) gegeben.
\end{proposition}
\begin{prof}[] \label{} \
\begin{prof}[] \
\(z_k\) sind \(n\text{-te}\) Einheitswurzeln denn:
\begin{align*}
z_k^n & = (e^{\frac{2\cdot\pi\cdot k}{n}})^n \\
@ -967,7 +967,7 @@ mit Elementen aus \(K\).
\[A=(a_{ij})_{\substack{i=1,\cdots,m \\ j=1,\cdots,n}}\]
\end{definition}
\begin{exa} \label{}
\begin{exa}
\[
A=\left( \begin{matrix} 1& 1\\ 2& -3\end{matrix} \right)
\]
@ -1028,7 +1028,7 @@ Folge.
\end{enumerate}
\end{definition}
\begin{exa} \label{} \
\begin{exa} \
\[
\begin{pmatrix}
0 & a_{12} & a_{13} \\
@ -1183,7 +1183,7 @@ mit \(A\cdot B \in K^{p\times n}\)
\section{Eigenschaften der Matrix-Multiplikation}
\label{sec:org8eaaee0}
\begin{notation}[] \label{}
\begin{notation}[]
\begin{itemize}
\item wenn \(\alpha_1,...,\alpha_n\in K\) dann notieren wir \(\alpha_1+...+\alpha_n :=
\sum_{i=1}^{n}{\alpha_i}\)
@ -1203,7 +1203,7 @@ Matrixmultiplikation ist \emph{linear}: \(A\cdot (\lambda B_1 + \lambda_2 A B_2)
Analog:
\end{relation}
\begin{prof}[] \label{}
\begin{prof}[]
Sei \(C=A\cdot (\lambda_1 B_1 + \lambda_2 B_2)\)
\end{prof}
@ -1211,7 +1211,7 @@ Sei \(C=A\cdot (\lambda_1 B_1 + \lambda_2 B_2)\)
Die Matrixmultiplikation ist assoziativ: \(A\cdot (B\cdot C)=(A\cdot B)\cdot C\)
\end{relation}
\begin{prof}[] \label{}
\begin{prof}[]
\end{prof}
@ -1235,22 +1235,22 @@ F"ir alle \(A\in K^{p\times m}\) gilt:
\end{itemize}
\end{theo}
\begin{prof}[] \label{}
\begin{prof}[]
\end{prof}
\begin{notation}[] \label{Vorsicht!}
\begin{notation}[]
Die Matrix Multiplikation ist nicht Konjunktiv: \(A\cdot B\not= B\cdot A\) im
Allgemeinen, selbst wenn beide Produkte definiert sind und die gleiche Gr"osse
haben.
\end{notation}
\begin{exa} \label{}
\begin{exa}
\end{exa}
\begin{notation}[] \label{}
\begin{notation}[]
Die \(i\text{te}\) Spalten der Einheitsmatrix wird durch \(e_i=()\) bezeichnet.
\end{notation}
@ -1291,7 +1291,7 @@ t \}\) fuer ein \(r\geq 0, \phi\)
0\) (es gibt mindestens eine freie Variable).
\end{bem}
\begin{exa} \label{}
\begin{exa}
Finde ein reelles Polynom von Grad 2.
Die Frage ist aequivalent zu dem LGS:
@ -1324,7 +1324,7 @@ folgenden Eigenschaften:
\end{itemize}
\end{definition}
\begin{exa} \label{}
\begin{exa}
\begin{enumerate}
\item \(K\) ist selbst ein Vektorraum mit \(+\) und \(\cdot\)
\item \(K^{n}:=K^{n\times 1}\) ist ein K-Vektorraum mit:
@ -1351,7 +1351,7 @@ L"osungen auch ein Vekorraum bzgl. der Operatoren aus \(K^n\)
\end{enumerate}
\end{exa}
\begin{notte}[] \label{}
\begin{notte}[]
Bei der Entwicklung der Vektorraumtheorie ist es oft n"utzlich, an das Beispiel
\(V=K^n\) zu denken.
\end{notte}
@ -1375,14 +1375,14 @@ Die Menge der Vektoren heist linear Unabh"angig wenn: \$\$ (Nur die Triviale
linearkombination ergibt 0). Andernfalls heist die Menge linear abh"angig.
\end{definition}
\begin{exa} \label{}
\begin{exa}
\(\begin{pmatrix}1\\0\end{pmatrix}\begin{pmatrix}0\\1\end{pmatrix}\)
\end{exa}
\begin{exa} \label{}
\begin{exa}
\(\{v_1,v_2\}\) sind linear abhaengig wenn sie Proportional sind.
\begin{prof}[] \label{}
\begin{prof}[]
\end{prof}
\end{exa}
@ -1390,7 +1390,7 @@ linearkombination ergibt 0). Andernfalls heist die Menge linear abh"angig.
\begin{lemma}
Die Menge ist linear abh"angig. \(v_i\) ist eine Linearkombination von \$\$
\end{lemma}
\begin{prof}[] \label{}
\begin{prof}[]
Wenn \(v_i=\lambda_1 v_1\), dann \(0=\) Denn \(-1\) ist ein nicht-trivialer
Linearfaktor.
@ -1398,7 +1398,7 @@ Linearfaktor.
\(\exists i : \lambda_i \not= 0\) Also gilt folglich
\end{prof}
\begin{notte}[] \label{}
\begin{notte}[]
Eine L"osung des LGS \(Ax=b\) ist eine Spalte \$\$ mit
Deis heisst, das LGS \(Ax=b\) zu l"osen ist genau linearkombinationen von spalten
zu finden, welche \(b\) ergeben.
@ -1409,7 +1409,7 @@ zu finden, welche \(b\) ergeben.
eine Linearkombination von \(v_1,...,v_n\) wenn linear abh"angig ist.
\end{lemma}
\begin{prof}[] \label{}
\begin{prof}[]
(\(\implies\)) Sei Dann gilt , also ist linear ab"angig.
Sei .. linear abh"angig Dann
@ -1421,7 +1421,7 @@ Es gilt: \(\lambda \not= 0\) (wenn .. linearunabh"angig.) Also gilt \(v=-\lambd
Darstellung ist eindeutig ganau dann, wenn linear unabh"angig sind.
\end{lemma}
\begin{prof}[] \label{}
\begin{prof}[]
\((\implies)\) Sei die Darstellung eindeutig \$v=..\$ Wenn jetzt \$\$, dan gilt \(v=\)
Eindeutigkeit der Darstellung ergibt:
@ -1431,7 +1431,7 @@ Spalten von \(A\) linear unabhaenig sind, hat das LGS \(Ax=b\) h"ochstens eine
L"osung, folglich hat \(Ax=0\) genau eine L"osung x=0.
\end{prof}
\begin{notte}[zu geometrischer Interpretation] \label{}
\begin{notte}[zu geometrischer Interpretation]
Wichitige Beispiele von Vektorr"aumen sind: \(V=\mathbb{R}^2\) (Ebene),
\(V=\mathbb{R}^3\) (3D-Raum).
\end{notte}
@ -1453,7 +1453,7 @@ In drei Dimensionen:
\(v_1,...,v_n\) ist. Wenn \(m>n\), dann sind \(w_1,...,w_n\) linear abhaengig.
\end{proposition}
\begin{prof}[] \label{}
\begin{prof}[]
Seien
\begin{align*}
w_1= a_{11} v_1 + a_{12} v_2 + ... + a_{nn} v_n \\
@ -1473,7 +1473,7 @@ sind linear unabh"angig.
Vektoren in \$\$ sind linear unabh"angig.
\end{korollar}
\begin{prof}[von Korollar] \label{}
\begin{prof}[von Korollar]
Seien \(e_i\) die Spalten der Einheitsmatrix sind linear unabh"angig.
Dies zeigt auch, dass jeder Vektor in \(R\) eine Linearkombination von \(e_i\) ist.
@ -1493,7 +1493,7 @@ In anderen Worten: Eine Teilmenge von \(V\) die selbst ein Vektorraum ist bzgl.
der von \(V\) vererbten Operationen.
\end{definition}
\begin{notte}[] \label{}
\begin{notte}[]
(1) und (3) \(\implies\) \(0\in U\)
\end{notte}
@ -1504,12 +1504,12 @@ von \(S\)) \(<S>:=\{\}\) (Menge aller Linearkombinationen von Vektoren in \(S\))
Alternative Notation: \(<s>=\text{span S}\).
\end{definition}
\begin{notte}[] \label{}
\begin{notte}[]
\(<s>\) ist der kleinste Untervektorraum in \(V\), der \(S\) enth"alt.
\(<\varnothing >:=\{0\}\)
\end{notte}
\begin{exa} \label{}
\begin{exa}
Seien \(v_1, v_2 \in \mathbb{R}^3\).
\(<v1,v2>\) ist eine Gerade wenn \(v_1,v_2\) linear abh. Ist Ebene wenn \(v_1,v_2\)
linear unbh.
@ -1541,7 +1541,7 @@ Jeder endlichedimensionale Vektorraum \(V\) hat eine Basis, Je zwei Basen von \
haben gleich viele Elemente.
\end{theo}
\begin{prof}[] \label{}
\begin{prof}[]
Sei \(S\) ein endliches Erzeugendensyste von \(V\), Wenn \(S\) lin. unabh. ist, ist es
eine Basis und wir haben gewonnen. Wenn \(S\) linear abh"angig ist $\implies$
(Lemma) einer von den Vektoren in \(S\) ist eine Linearkombination von den
@ -1562,7 +1562,7 @@ Sei \(V\) ein endlichdimensionaler Vektorraum. Die Anzahl der Vektoren in einer
(folglich in jeder) Basis von \(V\) heist Dimension von V. \emph{Bezeichung}: \(\dim V\).n
\end{definition}
\begin{exa}[s] \label{}
\begin{exa}[s]
\(\dim K^{n}=n\) weil \ldots{} eine Basis bilden.
\end{exa}
@ -1582,7 +1582,7 @@ Eine Teilmenge \(S'\in V\) ist maximal linear unabh., wenn aus \(S\)
linear unabh. folgt.
\end{definition}
\begin{prof}[1] \label{}
\begin{prof}[1]
Sei linear unabh.
Zwei F"alle: entweder ist \(S\) schon maximal (dann sind wir fertig) oder man kann
S erweitern. Wenn wir \(S\) erweitern k"onnen, f"ugen wir neue Vektoren hinzu, bis
@ -1593,7 +1593,7 @@ hoechstens \(\dim V\) viele Vektoren enthalten kann. (Prop. "uber lineare unabh.
von vektoren aus linearkombinartionen der Basis.)
\end{prof}
\begin{prof}[2] \label{}
\begin{prof}[2]
Sei \(S\in V\) maximal linear unabh"angig. Wir habe zu zeigen: \(<S>=V\) (Def. einer
Basis). Wenn $\ldots{}$ d.h. aber, aber \(S\cup {v}\) ist linear unabh. (lemma) $\implies$
\(S\) dann nicht maximal.
@ -1609,18 +1609,16 @@ Wenn \(V=K^n, S\in V\) linear unabh. \(\rightarrow\) man kann zur erweiterung pa
Spalten der Einheitsmatrix.
\end{notte}
\begin{notte}[] \label{}
\begin{notte}[]
Man kann bei der obrigen Proposition das Wort "endlichdimensional" fallen
lassen, aber es braucht ein bisschen mehr Mengenlehre (Auswahlaxiom).x
\end{notte}
\begin{theo}{}{}
Sei V ein endlichdimensionaler Vektorraum und \(U\in V\) ein Untervektorraum. Dann
gillt: \(\dim U \leq \dim V\). \(\dim U = \dim V \iff U=V\)
\end{theo}
\begin{prof}[] \label{}
\begin{prof}[]
Sei eine maximale linear unabh. Teilmenge in U. (so eine Teilmenge existiert
weil V endlich ist.)
Nach Proposition (2) ist \ldots{} eine Basis in \(U\), also gilt \(\dim U = k\) Erweitere
@ -1643,11 +1641,7 @@ Die Definition einer Basis garantiert, dass hierdurch eine Bijektion \ldots{} en
Diese Korrespondenz kommt auf die Wahl der Basis an.
\end{notte}
\begin{exa} \label{}
\end{exa}
\begin{exa} \label{}
\begin{exa}
Sei \(Ax=0\) ein h. LGS
\end{exa}
@ -1657,7 +1651,7 @@ Sei \(Ax=0\) ein h. LGS
Die Spalten von \(\Phi\) bilden eine Basis in L.
\end{lemma}
\begin{prof}[] \label{}
\begin{prof}[]
Die Spalten von \(\Phi\) sind linear unabhaenig. (sonst abb. nicht injektiv)
Ferner spannen sie das ganze L auf (Surjektiv).
@ -1691,15 +1685,15 @@ Seien \(V, W\) zwei K-Vektorr"aume. Eine Abbildung \(f: V\rightarrow W\) heißt
\end{definition}
\begin{exa} \label{}
\begin{exa}
$f_{A}: K^n\rightarrow K^m, x\mapsto A\cdot x$, für $A \in K^{m\times n}$ ist eine lineare Abbildung.
\end{exa}
\begin{exa} \label{}
\begin{exa}
\(V=\mathbb{R}[x]_5,\;W=\mathbb{R}[x]_4\). $f: V\rightarrow W, p \mapsto \frac{dp}{dx}$ ist eine lineare Abbildung, die jedem Polynom seine Ableitung zuordnet.
\end{exa}
\begin{exa} \label{}
\begin{exa}
$V=W=\{f:\mathbb{R}\rightarrow\mathbb{R}\}$ die Menge aller reellen, reellwertiger Funktionen. Für eine gegebene Abbildung $g:\mathbb{R}\rightarrow\mathbb{R}$ ist die Abbildung $mg: V\rightarrow W, f\mapsto g\cdot f, (g\cdot f)(x)=g(x)\cdot f(x)$ linear.
\end{exa}
@ -1707,7 +1701,7 @@ $V=W=\{f:\mathbb{R}\rightarrow\mathbb{R}\}$ die Menge aller reellen, reellwertig
Sei $f:V\rightarrow W$eine Lineare Abbildung. Der Kern von \(f\) wird definiert als \[Ker\: f := f^{-1}(0) = \{v\in V|f(v)=0\}\] Der Kern der Abbildung f ist also die Menge aller Elemente in V, die auf das Nullelement von W abgebildet werden.
\end{definition}
\begin{exa} \label{}
\begin{exa}
$f=f_A: K^n\rightarrow K^m \quad x\mapsto A\cdot x$\\
$Ker (f_A) = \{x\in K^n|A\cdot x = 0\}$, also die Lösung des homogenen LGS mit der Koeffizientenmatrix A.
\end{exa}
@ -1725,7 +1719,7 @@ $Ker (f_A) = \{x\in K^n|A\cdot x = 0\}$, also die Lösung des homogenen LGS mit
$\Rightarrow$ Das Bild einer linearen Abbildung ist ein Untervektorraum.
\end{beobachtung}
\begin{exa} \label{}
\begin{exa}
$Im(f_A )=\{b\in K^m \:|\: \exists x \in K^n: A\cdot x=b \}=\{b\in K^m\:|\:LGS Ax=b\; l"osbar\} $
\end{exa}
@ -1739,7 +1733,7 @@ $Im(f_A )=\{b\in K^m \:|\: \exists x \in K^n: A\cdot x=b \}=\{b\in K^m\:|\:LGS A
$\iff$ \(Ker(f)=\{0\}\)
\end{proposition}
\begin{prof}[] \label{}
\begin{prof}[]
f injektiv $\iff v_1 \neq v_2 \in V: f(v_1)\neq f(v_2) \iff f(v_1)-f(v_2)\neq 0 \iff f(v_1 -v_2)\neq 0 \iff v_1,v_2 \in V, v_1-v_2\neq 0: f(v_1 -v_2)\neq 0 \iff v\neq 0: f(v)\neq 0 \iff Ker(f) = \{0\}$
\end{prof}
@ -1749,7 +1743,7 @@ zwischen \(V\) und \(W\). \(V\) und \(W\) heißen isomorph, wenn es einen
Vektorraumisomorphismus \(f: V\rightarrow W\) gibt.
\end{definition}
\begin{exa} \label{}
\begin{exa}
Sei \(V\) ein Vektorraum, \(S\subseteq V = \{v_1, v_2, ..., v_n\}\). Die
Aufspannabbildung $\varphi_S: K^n \rightarrow V$ wird definiert als $\varphi_S(\lambda)=\sum_{i=1}^{n}\lambda_i v_i$
@ -1780,11 +1774,11 @@ Sei \(f:V\to W\) eine Lineare Abbildung, sei \(V\) endlich dimensional. Dann gil
\begin{lemma} sei \(f\) wie oben. Sei \(U \subseteq \mKer(f)\) ein Untervektorraum mit \(U \cap \mKer(f) = \{0\}\). Dann ist \(f|_U:U\to f(U)\) ein Isomorphismus.
\end{lemma}
\begin{prof}[Beweis des Lemmas] \label{}
\begin{prof}[Beweis des Lemmas]
\(f|_U:U\to f(U)\) ist surjektiv nach Konstruktion. Zu zeigen: \(f|_U\) injkektiv \(\iff \mKer f|_U = \{0\}\). Sei \(u\in \mKer f|_U \). Dann gilt \(u\in U \land u \in \mKer(f) \implies u \in U \cap \mKer f \implies u = 0\)
\end{prof}
\begin{prof}[Beweis der Dimensionsformel] \label{}
\begin{prof}[Beweis der Dimensionsformel]
W"ahle eine Basis \({e_1, ..., e_k}\) in \(\mKer f\) und erg"anze sie zu einer Basis
\({e_1, ..., e_n}\) in \(V\).
@ -3092,7 +3086,7 @@ Der Satz "uber die Existenz von Orthogonalbasen ist nicht besonders konstruktiv,
Sei $F=(f_1, \dots, f_n)\subset V$ eine Basis, sei
\[A:= M_F(b)=\begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn}\end{pmatrix}\] Sei $A_k$ die \gq{obere linke} ($k\times k$) -
Untermatrix von \(A\), also \((A_k)_{ij} = A_{ij}\;\forall i,j=\overline{1,k}\).
Sei $\delta_k:= \det A_k$ der Eckminor von $A$. Sei ausserdem $V_K=\langle
Sei $\delta_k:= \det A_k$ der Eckminor von $A$. Sei ausserdem $V_k=\langle
f_1,\ldots, f_k \rangle, V_0:=\{0\}, \delta_0=1$. Daher ist \(A_k = M_{\{f_1,\dots, f_k\}}(b|_{V_k})\).
\end{relation}
\begin{comm}
@ -3101,7 +3095,7 @@ Der Satz "uber die Existenz von Orthogonalbasen ist nicht besonders konstruktiv,
\begin{satz}{Gram-Schmidt-Verfahren}{}
Sei $b$ eine Bilinearform auf $V$, $F\subset V$ eine Basis in V wie oben. Sei
au"serdem $\delta_k \neq 0\;\forall k=\overline{0,n}$. Dann existiert eine eindeutig
bestimmte Orthogonalbasis $(e_1,\ldots,e_n)$ in $V$, so dass \(e_k\in (f_k + V_{k-1})\;\forall k =1,\dots, n\), zudem gilt \(q(e_k) = b(e_k, e_k) = \frac{\delta_k}{\delta_{k-1}}\)
bestimmte Orthogonalbasis $(e_1,\ldots,e_n)$ in $V$, so dass \(e_k\in (f_k + V_{k-1})\;\forall k =1,\dots, n\) (\(\iff (e_1,\dots,e_k)\) spannen den gleichen Untervektorraum auf wie \((f_1,\dots,f_k)\)), zudem gilt \(q(e_k) = b(e_k, e_k) = \frac{\delta_k}{\delta_{k-1}}\)
\end{satz}
\begin{prof}
Induktion "uber $n=\dim V$: (IA, $n=1$) $V=\langle f_1 \rangle, \delta_1 = \frac{\delta_1}{\delta_0} = b(f_1, f_1) \neq 0$ (IS) nach Induktionsvoraussetzung gilt die gilt die Aussage f"ur
@ -3111,7 +3105,7 @@ Der Satz "uber die Existenz von Orthogonalbasen ist nicht besonders konstruktiv,
&= b(f_n, e_j) + \lambda_j\underbrace{b(e_j, e_j)}_{\neq 0} \\
\lambda_j &= -\frac{b(f_n, e_j)}{b(e_j, e_j)}
\end{align*}
Bleibt zu zeigen: \(q(e_i) = \frac{\delta_n}{\delta_{n-1}}\) -- Wir wissen bereits: \(e_k \in f_k + V_{k-1}\;\forall k=1,\dots,n\). Die Basiswechselmatrix von \(F = (f_1,\dots, f_n)\) zu \(\mathcal{E} = (e_1, \dots, e_n)\) sieht so aus:
Bleibt zu zeigen: \(q(e_i) = \frac{\delta_n}{\delta_{n-1}}\). Wir wissen bereits: \(e_k \in f_k + V_{k-1}\;\forall k=1,\dots,n\). Die Basiswechselmatrix von \(F = (f_1,\dots, f_n)\) zu \(\mathcal{E} = (e_1, \dots, e_n)\) sieht so aus:
\[ S=
\begin{pmatrix}
1 & & * \\
@ -3130,175 +3124,168 @@ Der Satz "uber die Existenz von Orthogonalbasen ist nicht besonders konstruktiv,
$f_1=\begin{pmatrix}1\\ 1\\ 1\\\end{pmatrix},\;f_2=\begin{pmatrix}1\\ 2\\ 1\\\end{pmatrix},\;f_3=\begin{pmatrix}0\\ 0\\ 1\\\end{pmatrix}$
\end{exa}
Geometrische Interpreatation:
Geometrische Interpretation:
\begin{relation}
Man subtrahiert passende Linearkombinationen von bereits orthogonalisierten
Vektoren, um Orthogonalit"at erzwingen.
Vektoren, um Orthogonalit"at zu erzwingen.
\end{relation}
\begin{notte}
Symetrische Bilinearformen entsprechen ihren quadratischen Formen:
\[
b(x,y) = \frac{1}{2}(q(x+y)-q(x)-q(y))
\].
\]
Daher benutzen wir diese Begriffe fortan Synonym.
\end{notte}
Sei \(\mathcal{E} = (e_1,\dots,e_n)\) eine Orthogonalbasis bez"uglich \(b\):
\[M_{\mathcal{E}}(b) =
\begin{pmatrix}
q(e_1) & & 0 \\
& \ddots & \\
0 & & q(e_n)
\end{pmatrix}
\]
Wenn \(K=\mathbb{R}\), kann man durch Streckungen und Permutationen der Basisvektoren eine Basis \(\mathcal{E}' = (e_1',\dots,e_n')\) finden, so dass \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1,-1,\dots,-1,0,\dots,0)\), indem wir \(e_j' = \lambda_ie_i\) setzen. Dann soll \(q(e_j') \in \{1, -1, 0\}\) sein, also: \[q(e_j') = q(\lambda_ie_i) = \lambda_i^2q(e_i) \implies \lambda_i =
\begin{cases}
1 & \text{ falls } q(e_i) = 0 \\
\sqrt{\frac{1}{q(e_i)}} & \text{ falls } q(e_i) > 0 \\
\sqrt{\frac{-1}{q(e_i)}} & \text{ falls } q(e_i) < 0
\end{cases}
\]
Man bemerkt: Wenn \(K=\mathbb{C}\), dann kann man das \(\lambda_i\) auch komplex machen und somit eine Matrix der Form \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1, 0,\dots, 0)\) erreichen.
\begin{relation}
Diagonalformen f"ur $b$ entsprechen der Tatsache, dass $q$ in Koordinaten derr
Diagonalformen f"ur $b$ entsprechen der Tatsache, dass $q$ in Koordinaten der
Basis $\mathcal{E}'$ eine Summe von Quadraten ist.
Wir haben bereits gesehen, dass bei Basiswechsel die Matrix der Bilinearform
so transformiert:
\[
M_{B'}=S^T\cdot M_B(b)\cdot S \\
M_{B'}=S^T\cdot M_B(b)\cdot S\qquad (S = M_B^{B'}) \\
\implies \mRg M_B(b)=\mRg (b) \text{ ist eine Invariante von } b
\]
In Diagonalform ist der Rang gleich der Anzahl von Nicht-Null-Eintr"agen. In
$\mathbb{}$ folgt: Der Rang ist die einzige IInvariante der (symetrsichen)
Bilinearforme''.
$\mathbb{C}$ folgt: Der Rang ist die einzige Invariante der (symmetrsichen)
Bilinearformen.
"Uber $\mathbb{R}$ taucht die folgende Frage auf: Ist die Anzahl von $1$ und
$-1$ auf der Diagonale unabh"angig von der Basis?
\end{relation}
\begin{definition}{Positive Definiertheit}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum , $q(x)=b(x,y)$ eine quadratische Form auf
V. Sei $U\supseteq V$ ein Untervektorraum.
Sei $V$ ein $\mathbb{R}$ Vektorraum , $q(x)=b(x,x)$ eine quadratische Form auf
\(V\) (zu einer symmetrischen Bilinearform). Sei $U\subseteq V$ ein Untervektorraum.
\begin{itemize}
\item $q$ heisst \textbf{positiv definit} auf $U$, wenn $q(u) > 0\; \forall
\item $q$ hei"st \emph{positiv definit} auf $U$, wenn $q(u) > 0\; \forall
u\in U\setminus\{0\}$
\item $q$ heisst \textbf{negativ definit} auf $U$, wenn $q(u) < 0\; \forall
\item $q$ hei"st \emph{negativ definit} auf $U$, wenn $q(u) < 0\; \forall
u\in U\setminus\{0\}$
\item $q$ heisst \textbf{indefinit} sonst
\item $q$ hei"st \emph{indefinit} sonst
\end{itemize}
\end{definition}
\begin{exa}
\(V = \mathbb{R}^3, b(x, y) = x^T\cdot\mDiag (1, 1, -1)\cdot y, q(x) = b(x,x) = x_1^2 + x_2^2 - x_3^2\):
\begin{itemize}
\item \(q\) ist negativ definit auf \(\spn \{e_3\}\), weil \(q(\lambda\cdot e_3) = \lambda^2q(e_3) = -\lambda^2 < 0\)
\item \(q\) ist positiv definit auf \(\spn \{e_1, e_2\}\), weil \(q(x_1e_1 + x_2e_2) = x_1^2 + x_2^2 > 0\)
\item \(q\) ist indefinit auf \(\mathbb{R}^3\), weil es Vektoren gibt mit \(q(x) > 0\) und welche mit \(q(x) < 0\)
\end{itemize}
\end{exa}
\begin{relation}
Wenn ....
Allgemeiner: Wenn \[M_{\mathcal{E}'}(b) = \mDiag (\underbrace{1,\dots,1}_{r_+},\underbrace{-1,\dots,-1}_{r_-},0,\dots,0)\] Dann ist \(q(x) = b(x,x)\) positiv definit auf \(\spn\{e_1,\dots,e_{r_+}\}\) und negativ definit auf \(\spn\{e_{r_++1},\dots,e_{r_++r_-}\}\)
\end{relation}
\begin{satz}{Bestimmung von $r_+, r_-$ durch Definiertheit}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \rightarrow \mathbb{R}$.
Sei $\mathcal{E}$ eine Basis mit ...
\begin{definition}{Signatur}{}
Das Paar \((r_+,r_-)\) hei"st \emph{Signatur} von \(b\).
\end{definition}
\begin{exa}
Die Minkowski-Bilinearform hat die Matrix \(\mDiag (1, -1, -1, -1)\) und Signatur \((1, 3)\).
\end{exa}
\begin{satz}{Bestimmung von $r_+, r_-$ durch Definitheit}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \to \mathbb{R}$ eine symmetrische Bilinearform, \(\mathcal{E}'\) eine Basis in \(V\) mit \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1,-1,\dots,-1,0,\dots,0)\).
Dan gilt:
\begin{align*}
r_+=\max
r_+&=\max\{\dim U\mid U\subseteq\text{ Untervektorraum, } q \text{ positiv definit auf } U\} \\
r_-&=\max\{\dim U\mid U\subset \text{ Untervektorraum, }q\text{ negativ definit auf } U\}
\end{align*}
\end{satz}
\begin{definition}{Signatur}{}
Das Paar ($r_+,r_-$) heisst \textbf{Signatur} von $b$.
\end{definition}
\begin{prof}
Sei $U:=$...
Sei \(U:=\spn\{e_1,\dots,e_{r_+}\}\), \(q\) positiv definit auf \(U\). Dann ist \(\max\{\dim U\mid q\text{ positiv definit}\}\geq r_+\). Andererseits: Wenn \(W\subseteq V\) mit \(\dim W > r_+\), dann ist \(W\cap \spn\{e_{r_++1},\dots,e_n\}\neq \{0\}\) (denn nach der Dimensionsformel: \(\dim W + \dim \spn\{e_{r_++1},\dots,e_n\} = \dim W + n - r_+ > n = \dim V\)). Wenn \(v\neq 0\) ein Vektor aus diesem Durchschnitt ist, folgt \(v\in \{e_{r_++1},\dots,e_n\} \implies q(v)\leq 0\implies\) nicht positiv definit auf \(W\). Die Aussage f"ur \(r_-\) folgt durch Ersetzen \(q \rightarrow -q\).
\end{prof}
\begin{satz}{Jakobi}{}
\begin{satz}{Jacobi}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \rightarrow \mathbb{R}$
eine Bilinearforme, so dass: ...
wobei ....
Betrachte die Folge....
Dann gilt $r_-=\text{Anzahl der Vorzeichenwechsel in dieser Folge}$. Ein
Vorzeichenwechsel liegt vor, wenn ....
eine Bilinearform, so dass \[\delta_k = \det A_k \neq 0, \qquad k=1,\dots,n\]
wobei \(A = M_B(b)\) die Matrix von \(b\) bez"uglich einer Basis \(B\) ist. Betrachte die Folge \((1 = \delta_0, \delta_1,\dots,\delta_n)\). Dann gilt: \(r_- = \) Anzahl der Vorzeichnenwechsel in dieser Folge. Ein Vorzeichenwechsel liegt vor, wenn \(\delta_i\cdot\delta_{i+1} < 0\).
\end{satz}
\begin{prof}
....
Nach dem Gram-Schmidt-Verfahren existiert eine Orthogonalbasis \(\mathcal{E}\) mit \(M_{\mathcal{E}}(b) = \mDiag (\frac{\delta_1}{\delta_0}, \frac{\delta_2}{\delta_1},\dots,\frac{\delta_n}{\delta_{n-1}})\). Nach dem Satz "uber die Signatur gilt: \(r_- = \) Anzahl von negativen Zahlen in der Folge \((\frac{\delta_1}{\delta_0},\frac{\delta_2}{\delta_1},\dots,\frac{\delta_n}{\delta_{n-1}})\)
\end{prof}
\begin{korollar}{Sylvester-Kriterium}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \rightarrow \mathbb{R}$
eine symetrische Bilinearform, $A=M_B(b)$, $\delta_k = \det A_k$ - Eckminore
von $A$.
eine symmetrische Bilinearform (\(q\) die zugeh"orige quadratische Form), $A=M_B(b)$, $\delta_k = \det A_k$ die Eckminore von $A$.
Es giltL $q$ positiv definiert auf $v \iff \delta_K > 0 \forall k=\bar{1,n}$.
Es gilt: $q$ positiv definit auf $V \iff \delta_K > 0 \forall k=\overline{1,n}$.
\end{korollar}
\begin{prof}
Wenn $q$ pos. def. $\iff$ alle $\delta_k\not= 0$, weil man sonst einen Vektor
$v\in V$ mit $q(v)=0$ h"atte ($q$ w"ahre ausgeartet); wenden nun den Satz von
Jakobi an.
Wenn $q$ positiv definit $\implies$ alle $\delta_k\neq 0$, weil man sonst einen Vektor
$v\in V, v\neq 0$ mit $q(v)=0$ h"atte ($q$ w"are ausgeartet); wenden nun den Satz von
Jacobi an.
\end{prof}
\begin{exa}
\end{exa}
\chapter{Euklidische Vektorr"aume}
\label{sec:evr}
\begin{definition}{Euklidischer Vektorraum}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum. Das Paar $(V, \langle\cdot,\cdot\rangle)$ heisst
euklidischer Vektorraum, wenn $\langle\cdot,\rangle: V\times V \rightarrow \mathbb{R}$
eine positiv definierte Bilinearform ist. $\langle\cdot,\rangle$ heisst Skalarprodukt.
Skalarprodukt liefert die geometrische Struktur auf $V$, die uns erlaubt, von
L"angen der Vektoren und Winkeln zwischen Vektoren zu reden.
Sei $V$ ein $\mathbb{R}$ Vektorraum. Das Paar $(V, \langle\cdot,\cdot\rangle)$ hei"st
euklidischer Vektorraum, wenn $\langle\cdot,\cdot\rangle: V\times V \rightarrow \mathbb{R}$
eine positiv definite Bilinearform ist. $\langle\cdot,\cdot\rangle$ hei"st Skalarprodukt.
\end{definition}
Skalarprodukt liefert die geometrische Struktur auf $V$, die uns erlaubt, von L"angen der Vektoren und Winkeln zwischen Vektoren zu reden.
\begin{definition}{Orthogonalit"at}{}
$x,y\in V$ heissen \textbf{orthogonal}, wenn $\langle x,y\rangle=0$
$x,y\in V$ hei"sen \emph{orthogonal}, wenn $\langle x,y\rangle=0$
\end{definition}
\begin{definition}{Norm / L"ange}{}
Die Norm / L"ange eines Vektors \(x\) in \((V, \langle\cdot , \cdot\rangle)\) ist \(||x|| = \sqrt{\langle x,x\rangle}\).
\end{definition}
\begin{exa}
\(\mathbb{R}^n\) mit \(\langle x, y\rangle_{st} = \sum_{i=1}^nx_iy_i\) ist ein euklidischer VR.
\end{exa}
\begin{definition}{Orthogonalit"at}{}
$x,y\in V$ heissen \textbf{orthogonal}, wenn $\langle x,y \rangle=0$
\end{definition}
\begin{satz}{Cauchy Schwarz}{}
\[\langle x,y \rangle\leq ||x||\cdot ||y||\]
\begin{satz}{Cauchy-Schwarz-Gleichung}{}
\[|\langle x,y \rangle |\leq ||x||\cdot ||y||\] in einem euklidischen Vektorraum \(V\).
\end{satz}
\begin{prof}
Wenn \(x, y\) linear abh"angig sind, z.B. \(x = \lambda y\), dann ist \(|\langle x, y\rangle | = ||x||\cdot ||y||\). Wenn \(x, y\) linear unabh"angig sind, dann ist \[A =
\begin{pmatrix}
\langle x, x\rangle & \langle x, y\rangle \\
\langle x, y\rangle & \langle y, y\rangle
\end{pmatrix}
\] die Matrix von \(\langle\cdot , \cdot\rangle\) auf dem Vektorraum \(\spn\{x, y\}\). Nach dem Sylvesterkriterium gilt: \(0 < \det A = ||x||^2\cdot ||y||^2 - \langle x, y\rangle ^2\).
\end{prof}
\begin{exa}
\(V = C([0, 1], \mathbb{R}), \langle f, g\rangle := \int_0^1f(x)g(x)\dif x \forall f, g \in V\)
\begin{align*}
(\int_0^1f(x)g(x)\dif x)^2 &\leq \int f(x)^2\dif x\int g(x)^2\dif x \\
\left(\int_0^1f(x)g(x)\dif x\right)^2 &\leq \sqrt{\int_0^1 f(x)^2\dif x\int_0^1 g(x)^2\dif x} \\
\implies (\int_0^1 f(x))
\end{align*}
\end{exa}
\begin{definition}{Winkel}{}
Sei $(V, \langle {\cdot,\cdot} \rangle)$ ein eukl. VR. Der \textbf{Winkel}
Sei $(V, \langle {\cdot,\cdot} \rangle)$ ein euklidischer Vektorraum. Der \emph{Winkel}
$\Theta_{v,w}$ zwischen zwei Winkeln $v,w\in V$ wird gegeben durch die Gleichung: \[\cos
\Theta_{v,w} = \frac{\langle{v,w}}{||v||\cdot ||w||}\]
\Theta_{v,w} = \frac{\langle v, w\rangle}{||v||\cdot ||w||}\]
\end{definition}
\begin{definition}{Gram Matrix}{}
Die \textbf{Gram Matrix} der Vektoren $v_1, \ldots, v_n \in V$ ist definiert
Die \emph{Gram Matrix} der Vektoren $v_1, \ldots, v_n \in V$ ist definiert
als die Matrix ihrer Paarweisen Skalarprodukte:
\[G(v_1, \ldots, v_n):= (\langle {v_i, v_j} \rangle)_{i,j=1\ldots n}\]
\[G(v_1, \ldots, v_n):= (\langle v_i, v_j \rangle)_{i,j=1\ldots n}\]
\end{definition}
\begin{satz}{Positivit"at der Determinante der Gram Matrix}
Es gilt stets $\det G(v_1, \ldots, v_n) \geq 0$. Gleichheit gilt wenn Vektoren
\begin{satz}{Positivit"at der Determinante der Gram Matrix}{}
Es gilt stets $\det G(v_1, \ldots, v_n) \geq 0$. Gleichheit gilt genau dann, wenn \(v_1,\dots,v_n\)
linear abha"ngig sind.
\end{satz}
\begin{prof}
Wenn eine nichttriviale Linearkombination \(\sum_{i=1}^k \lambda_iv_i\) gleich null ist, dann gilt aufgrund der Linearit"at von \(\langle ., .\rangle\) in der 1. Variable \begin{align*}\sum_{i=1}^k \lambda_i\langle v_i, v_j\rangle &= 0 \forall j\in \{1, \dots, n\} \\ \implies \det G(v_1, \dots, v_n) &= 0\end{align*} (Linearit"at von \(\det\) in Zeilen)
Sind \(v_1, \dots, v_k\) linear unabh"angig, dann bilden sie eine Basis ihrer linearen H"ulle \(U = span(v_1, \dots, v_k)\) (mit \(k \in \{1,\dots, n\}\)). Die Gram-Matrix ist genau die Matrix des Skalarproduktes bez"uglich dieser Basis. Nach dem Silvester-Kriterium ist sie positiv.
\end{prof}
\begin{definition}{Orthonormalbasis}{}
Eine Basis $\mathcal{E} = \{e_1, \ldots, e_n\} \subset V$ heisst
\textbf{Orthonomalbasis}, wenn $G(e_1, \ldots, e_n) = 1_n$ ist. ($\iff \langle