Merge branch 'anotherthread' of https://github.com/henrydatei/TUD_MATH_BA into anotherthread

This commit is contained in:
epsilonbelowzero 2018-08-04 15:50:06 +02:00
commit 898a75121d
204 changed files with 61783 additions and 1337 deletions

View file

@ -104,7 +104,7 @@
\begriff{Komposition} $g \circ f$ die Abbildung
\begin{align}
g \circ f := \begin{cases}
X \to Z \\ x \mapsto g(f(x))
X \to Z \\ x \mapsto f(g(x))
\end{cases}\notag
\end{align} Man kann
die Komposition auffassen als eine Abbildung $\circ: \Abb(Y,Z) \times \Abb(X,Y) \to \Abb(X,Z)$.
@ -188,4 +188,4 @@
\begin{remark}
In anderen Vorlesungen wird die Zielmenge nicht immer als Teil der Definition einer Abbildung aufgefasst, d.h. man betrachtet zwei Abbildungen $f:X\to Y$ und $g:X\to Z$ mit gleicher Definitionsmenge dann als gleich, wenn $f(x)=g(x)$ für alle $x\in X$. Dies ist gleichbedeutend mit $\Gamma_f=\Gamma_g$. So würde man dann zum Beispiel $f_1$ und $f_2$ aus \propref{1_2_2} als gleich auffassen.
\end{remark}
\end{remark}

View file

@ -1,9 +1,11 @@
\section{Basis und Dimension}
\begin{definition}[Basis]
Eine Familie $(x_i)$ von Elementen von $V$ ist eine \begriff{Basis} von $V$, wenn gilt: \\
(B1): Die Familie ist linear unabhängig. \\
(B2): Die Familie erzeugt $V$, also $\Span_K(x_i) = V$.
Eine Familie $(x_i)$ von Elementen von $V$ ist eine \begriff{Basis} von $V$, wenn gilt:
\begin{itemize}
\item (B1): Die Familie ist linear unabhängig.
\item (B2): Die Familie erzeugt $V$, also $\Span_K(x_i) = V$.
\end{itemize}
\end{definition}
\begin{remark}

View file

@ -3,7 +3,7 @@
In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselement.
\begin{remark}
Wir erinnern uns an die symmetrische Gruppe $S_n$, die aus den Permutationen der Menge $X=\{1,..,n\}$ (also den
Wir erinnern uns an die symmetrische Gruppe $S_n$ aus \propref{1_3_7}, die aus den Permutationen der Menge $X=\{1,..,n\}$ (also den
bijektiven Abbildungen $X\to X$) mit der Komposition als Verknüpfung. Es ist $\vert S_n\vert =n!$ und $S_2\cong \mathbb Z\backslash 2 \mathbb Z$,
doch für $n\ge 3$ ist $S_n$ nicht abelsch. Wir schreiben $\sigma_1\sigma_2$ für $\sigma_1\circ \sigma_2$ und notieren $\sigma\in S_n$
auch als \\
@ -77,9 +77,16 @@ In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselem
\begin{proof}
Durchläuft $(i,j)$ alle Paare $1\le i<j\le n$, so durchläuft $\{\sigma(i),\sigma(j)\}$ alle zweielementigen Teilmengen von $\{1,...,
n\}$. Das Produkt $\prod_{i<j} \sigma(j)-\sigma(i)$ hat also bis auf das Vorzeichen die selben Faktoren wie das Produkt
$\prod_{i<j} j-i=\prod_{i<j} |j-i|$ und $\prod_{i<j} \sigma(j)-\sigma(i)=\prod_{i<j,\sigma(i)<\sigma(j)}
\sigma(j)-\sigma(i) \cdot \prod_{i<j,\sigma(i)>\sigma(j)} \sigma(j)-\sigma(i)=(-1)^{f(\sigma)}\cdot \prod_{i<j}
|\sigma(j)-\sigma(i)|=\sgn(\sigma)\cdot \prod_{i<j} j-i$.
\begin{align}
\prod_{i<j} j-i=\prod_{i<j} |j-i|\notag
\end{align}
und
\begin{align}
\prod_{i<j} \sigma(j)-\sigma(i)&=\prod_{i<j,\sigma(i)<\sigma(j)}
\sigma(j)-\sigma(i) \cdot \prod_{i<j,\sigma(i)>\sigma(j)} \sigma(j)-\sigma(i) \notag \\
&=(-1)^{f(\sigma)}\cdot \prod_{i<j} |\sigma(j)-\sigma(i)| \notag \\
&=\sgn(\sigma)\cdot \prod_{i<j} j-i \notag
\end{align}
\end{proof}
\begin{proposition}
@ -87,16 +94,32 @@ In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselem
Die Abbildung $\sgn: S_n \to \mathbb Z^{\times}=\mu_2$ ist ein Gruppenhomomorphismus.
\end{proposition}
\begin{proof}
Seien $\sigma,\tau\in S_n$. Dann ist\\
$\sgn(\sigma\tau)=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{j-i}=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(
\tau(i))}{\tau(j)-\tau(i)}\cdot \prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}$. Da mit $\{i,j\}$ auch $\{\tau(i),\tau(j)\}$ alle
zweielementigen Teilmengen von $\{1,...,n\}$ und $\frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\frac{\sigma(\tau(i))-
\sigma(\tau(j))}{\tau(i)-\tau(j)}$ ist $\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\prod_
{i<j} \frac{\sigma(j)-\sigma(i)}{j-i}=\sgn(\sigma)$ und $\prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}=sng(\tau)$. \\
Seien $\sigma,\tau\in S_n$. Dann ist
\begin{align}
\sgn(\sigma\tau)&=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{j-i} \notag \\
&=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}\cdot \prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i} \notag
\end{align}
Da mit $\{i,j\}$ auch $\{\tau(i),\tau(j)\}$ alle
zweielementigen Teilmengen von $\{1,...,n\}$ und
\begin{align}
\frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\frac{\sigma(\tau(i))-
\sigma(\tau(j))}{\tau(i)-\tau(j)} \notag
\end{align}
ist
\begin{align}
\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}&=\prod_
{i<j} \frac{\sigma(j)-\sigma(i)}{j-i} \notag \\
&=\sgn(\sigma) \notag
\end{align}
und
\begin{align}
\prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}=\sgn(\tau) \notag
\end{align}
Somit ist $\sgn(\sigma\tau)=\sgn(\sigma)\cdot \sgn(\tau)$.
\end{proof}
\begin{conclusion}
\proplbl{4_1_8}
Für $\sigma\in S_n$ ist
\begin{align}
\sgn(\sigma^{-1})=\sgn(\sigma)\notag
@ -117,12 +140,17 @@ In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselem
\end{proof}
\begin{conclusion}
\proplbl{4_1_10}
Die geraden Permutationen $A_n=\{\sigma \in S_n \mid \sgn(\sigma)=1\}$ bilden einen Normalteiler von $S_n$,
genannt die \begriff{alternierende Gruppe}. Ist $\tau\in S_n$ mit $\sgn(\tau)=-1$, so gilt für $A_n\tau=\{\sigma\tau \mid \sigma\in A_n\}$:
$A_n \cup A_n\tau = S_n$ und $A_n \cap A_n\tau=\emptyset$.
\end{conclusion}
\begin{proof}
Es ist $A_n=Ker(\sgn)$ und damit ist dieser auch ein Normalteiler. Ist $\sigma\in S_n\backslash A_n$, so ist $\sgn(\sigma\tau^{-1})=
\sgn(\sigma)\cdot \sgn(\tau)^{-1}=(-1)(-1)^{-1}=1$, also $\sigma=\sigma\tau^{-1}\in A_n\tau$, somit $A_n\cup A_n\tau=S_n$. Ist
Es ist $A_n=Ker(\sgn)$ und nach \propref{3_2_13} ist dieser auch ein Normalteiler. Ist $\sigma\in S_n\backslash A_n$, so ist
\begin{align}
\sgn(\sigma\tau^{-1})=
\sgn(\sigma)\cdot \sgn(\tau)^{-1}=(-1)(-1)^{-1}=1\notag
\end{align}
also $\sigma=\sigma\tau^{-1}\in A_n\tau$, somit $A_n\cup A_n\tau=S_n$. Ist
$\sigma\in A_n$, so ist $\sgn(\sigma\tau)=-1$, also $A_n\cap A_n\tau=\emptyset$.
\end{proof}

View file

@ -11,14 +11,16 @@ In diesem Kapitel sei $K$ ein Körper.
\begin{definition}[Vektorraum]
Ein $K$-\begriff{Vektorraum} (auch Vektorraum über $K$) ist ein Tripel $(V,+,\cdot)$
bestehend aus einer Menge $V$, einer Verknüpfung $+: V \times V \to V$, genannt Addition, und einer Abbildung
$\cdot: K \times V \to V$, genannt Skalarmultiplikation, für die gelten: \\
(V1): $(V,+)$ ist eine abelsche Gruppe \\
(V2): Addition und Skalarmultiplikation sind verträglich:
$\cdot: K \times V \to V$, genannt Skalarmultiplikation, für die gelten:
\begin{itemize}
\item $\lambda(x+y)=(\lambda\cdot x)+(\lambda\cdot y)$
\item $(\lambda+\mu)\cdot x = (\lambda\cdot x)+(\mu\cdot x)$
\item $\lambda(\mu\cdot x)=(\lambda\cdot\mu)\cdot x$
\item $1\cdot x = x$
\item (V1): $(V,+)$ ist eine abelsche Gruppe
\item (V2): Addition und Skalarmultiplikation sind verträglich:
\begin{itemize}
\item $\lambda(x+y)=(\lambda\cdot x)+(\lambda\cdot y)$
\item $(\lambda+\mu)\cdot x = (\lambda\cdot x)+(\mu\cdot x)$
\item $\lambda(\mu\cdot x)=(\lambda\cdot\mu)\cdot x$
\item $1\cdot x = x$
\end{itemize}
\end{itemize}
\end{definition}
@ -79,9 +81,12 @@ In diesem Kapitel sei $K$ ein Körper.
\begin{definition}[Untervektorraum]
Sei $V$ ein $K$-Vektorraum. Ein \begriff{Untervektorraum} (Untervektorraum) von $V$ ist eine nichtleere
Teilmenge $W \subseteq V$ mit: \\
(UV1): Für $x,y \in W$ ist $x+y\in W$. \\
(UV2): Für $x \in W$ und $\lambda \in K$ ist $\lambda\cdot x\in W$.
Teilmenge $W \subseteq V$ mit:
\begin{itemize}
\item (UV1): Für $x,y \in W$ ist $x+y\in W$.
\item (UV2): Für $x \in W$ und $\lambda \in K$ ist $\lambda\cdot x\in W$.
\end{itemize}
\end{definition}
\begin{proposition}

View file

@ -1,8 +1,9 @@
\section{Der Vektorraum der linearen Abbildungen}
Seien $V$ und $W$ zwei $K$-VR.
Seien $V$ und $W$ zwei $K$-Vektorräume.
\begin{proposition}
\proplbl{3_5_1}
Sei $(x_i)$ eine Basis von $V$ und $(y_i)$ eine Familie in $W$. Dann gibt es genau eine lineare
Abbildung $f:V\to W$ mit $f(x_i)=y_i$. Diese Abbildung ist durch $f(\sum \lambda_ix_i)=\sum \lambda_iy_i$
(*) ($\lambda_i\in K$, fast alle gleich 0) gegeben und erfüllt
@ -12,7 +13,7 @@ Seien $V$ und $W$ zwei $K$-VR.
\end{itemize}
\end{proposition}
\begin{proof}
Ist $f:V\to W$ linear mit $f(x_i)=y_i$, so folgt $f(\sum \lambda_ix_i)=\sum \lambda_iy_i$. Da sich jedes
Ist $f:V\to W$ linear mit $f(x_i)=y_i$, so folgt aus \propref{3_4_6} $f(\sum \lambda_ix_i)=\sum \lambda_iy_i$. Da sich jedes
$x\in V$ als $x=\sum \lambda_ix_i$ schreiben lässt, ist $f$ dadurch schon eindeutig bestimmt. Andererseits wird
durch (*) eine wohldefinierte Abbildung beschrieben, da die Darstellung von $x$ eindeutig ist (denn $x_i$ sind
linear unabhängig). Es bleibt zu zeigen, dass die durch (*) definierte Abbildung $f:V\to W$ tatsächlich linear ist.
@ -20,8 +21,8 @@ Seien $V$ und $W$ zwei $K$-VR.
\sum (\lambda_i+\lambda'_i)y_i=\sum \lambda_iy_i+\sum \lambda'_iy_i=f(x)+f(x')$. $f(\lambda x)=f(\sum \lambda
\lambda_ix_i)=\sum \lambda\lambda_iy_i=\lambda\sum\lambda_iy_i=\lambda f(x)$.
\begin{itemize}
\item $\Image(f)$ ist ein UVR von $W$ und $\{y_i\}\subset \Image(f)\subset \Span_K(y_i)$, somit $\Image(f)=\Span_K(y_i)$
\item $f$ ist injektiv $\iff \Ker(f)=\{0\}$ \\
\item $\Image(f)$ ist ein Untervektorraum nach \propref{3_4_6} von $W$ und $\{y_i\}\subset \Image(f)\subset \Span_K(y_i)$, somit $\Image(f)=\Span_K(y_i)$
\item \propref{3_4_11}: $f$ ist injektiv $\iff \Ker(f)=\{0\}$ \\
$\iff \lambda_i\in K$ gilt: $f(\sum \lambda_ix_i)=0\Rightarrow \sum \lambda_ix_i=0$ \\
$\iff \lambda_i\in K$ gilt: $\sum\lambda_iy_i=0\Rightarrow \lambda_i=0$ \\
$\iff (y_i)$ linear unabhängig.
@ -33,9 +34,8 @@ Seien $V$ und $W$ zwei $K$-VR.
eine Familie in $W$, so gibt es eine lineare Abbildung $f:V\to W$ mit $f(x_i)=y_i$
\end{conclusion}
\begin{proof}
Nach dem Basisergänzungssatz können wir die Familie $(x_i)$ zu einer Basis $x_1,...,x_m$ ergänzen. Die Behauptung
folgt aus dem vorherigen Satz für beliebige $y_{n+1},...,y_m\in W$.
%TODO: Wo ist der Basisergänzungssatz?
Nach dem Basisergänzungssatz (\propref{2_3_12}) können wir die Familie $(x_i)$ zu einer Basis $x_1,...,x_m$ ergänzen. Die Behauptung
folgt aus \propref{3_5_1} für beliebige $y_{n+1},...,y_m\in W$.
\end{proof}
\begin{conclusion}
@ -44,20 +44,21 @@ Seien $V$ und $W$ zwei $K$-VR.
$f:V\to W$ mit $f(x_i)=y_i$.
\end{conclusion}
\begin{proof}
Sei $f$ wie im ersten Satz. $(y_i)$ ist Erzeugendensystem $\Rightarrow \Image(f)=\Span_K(y_i)=W$, also $f$ surjektiv.
Sei $f$ wie in \propref{3_5_1}. $(y_i)$ ist Erzeugendensystem $\Rightarrow \Image(f)=\Span_K(y_i)=W$, also $f$ surjektiv.
$(y_i)$ linear abhängig $\Rightarrow f$ ist injektiv.
\end{proof}
\begin{conclusion}
Zwei endlichdimensionale $K$-VR sind genau dann isomorph, wenn sie dieselbe Dimension haben.
Zwei endlichdimensionale $K$-Vektorräume sind genau dann isomorph, wenn sie dieselbe Dimension haben.
\end{conclusion}
\begin{proof}
\propref{3_5_3} und letztes Kapitel
\propref{3_5_3} und \propref{3_4_10}
\end{proof}
\begin{conclusion}
\proplbl{3_5_5}
Ist $B=(v_1,...,v_n)$ eine Basis von $V$, so gibt es genau einen Isomorphismus $\Phi_B:K^n\to
V$ mit $\Phi_B(e_i)=v_i$. Insbesondere ist jeder endlichdimensionale $K$-VR zu einem Standardraum isomorph, nämlich zu
V$ mit $\Phi_B(e_i)=v_i$. Insbesondere ist jeder endlichdimensionale $K$-Vektorraum zu einem Standardraum isomorph, nämlich zu
$K^n$ für $n=\dim_K(V)$.
\end{conclusion}
@ -68,7 +69,7 @@ Seien $V$ und $W$ zwei $K$-VR.
\end{definition}
\begin{proposition}
Die Menge $\Hom_K(V,W)$ ist eine UVR des $K$-VR $\Abb(V,W)$.
Die Menge $\Hom_K(V,W)$ ist ein Untervektorraum des $K$-Vektorraums $\Abb(V,W)$.
\end{proposition}
\begin{proof}
Seien $f,g\in \Hom_K(V,W)$ und $\eta \in K$.
@ -83,7 +84,7 @@ Seien $V$ und $W$ zwei $K$-VR.
\begin{lemma}
\proplbl{3_5_8}
Sei $U$ ein weiterer $K$-VR. Sind $f,f_1,f_2\in \Hom_K(V,W)$ und $g,g_1,g_2\in \Hom_K(U,V)$, so ist
Sei $U$ ein weiterer $K$-Vektorraum. Sind $f,f_1,f_2\in \Hom_K(V,W)$ und $g,g_1,g_2\in \Hom_K(U,V)$, so ist
$f\circ (g_1+g_2)=f\circ g_1+f\circ g_2$ und $(f_1+f_2)\circ g=f_1\circ g+f_2\circ g$.
\end{lemma}
\begin{proof}
@ -95,31 +96,34 @@ Seien $V$ und $W$ zwei $K$-VR.
\end{proof}
\begin{conclusion}
\proplbl{3_5_9}
Unter der Komposition wird $\End_K(V)$ zu einem Ring mit Einselement $\id_V$ und $\End_K(V)^{\times}=
\Aut_K(V)$.
\end{conclusion}
\begin{proof}
$(\End_K(V),+)$ ist eine abelsche Gruppe, die Komposition eine Verknüpfung auf $\End_K(V)$ ist assoziativ und die
$(\End_K(V),+)$ ist eine abelsche Gruppe (\propref{3_4_9}), die Komposition eine Verknüpfung auf $\End_K(V)$ ist assoziativ und die
Distributivgesetze gelten (\propref{3_5_8}).
\end{proof}
\begin{remark}
Die Menge der strukturverträglichen Abbildungen zwischen $K$-VR trägt also wieder die Struktur
eines $K$-VR. Wir können diesen mit unseren Mitteln untersuchen und z.B. nach Dimension und Basis fragen.
Die Menge der strukturverträglichen Abbildungen zwischen $K$-Vektorräumen trägt also wieder die Struktur
eines $K$-Vektorraums. Wir können diesen mit unseren Mitteln untersuchen und z.B. nach Dimension und Basis fragen.
\end{remark}
\begin{lemma}
\proplbl{3_5_11}
Seien $m,n,r\in \mathbb N$, $A\in \Mat_{m\times n}(K)$, $B\in \Mat_{n\times r}(K)$. Für die linearen
Abbildungen $f_A\in \Hom_K(K^n,K^m)$, $f_B\in \Hom_K(K^r,K^n)$ gilt dann $f_{AB}=f_A\circ f_B$.
Abbildungen $f_A\in \Hom_K(K^n,K^m)$, $f_B\in \Hom_K(K^r,K^n)$ aus \propref{3_4_5} gilt dann $f_{AB}=f_A\circ f_B$.
\end{lemma}
\begin{proof}
Sind $A=(a_{ij})$ und $B=(b_{jk})$, so ist $(f_A\circ f_B)(e_k)=f_A(f_B(e_k))=f_A(Be_k)=f_A(b_{1k},...,b_{nk})^t=
A\cdot (b_{1k},...,b_{nk})^t=(\sum_{j=1}^n a_{ij}b_{jk},...,\sum_{j=1}^n a_{mj}b_{jk})^t=AB\cdot e_k=
f_{AB}(e_k)$ für $k=1,...,r$, also $f_A\circ f_B=f_{AB}$.
f_{AB}(e_k)$ für $k=1,...,r$, also $f_A\circ f_B=f_{AB}$ nach \propref{3_5_1}.
\end{proof}
\begin{proposition}
Die Abbildung $A\to f_A$ liefert einen Isomorphismus von $K$-VR $F_{m\times n}\!\!: \Mat_{m\!\times\!n}(K)
\proplbl{3_5_12}
Die Abbildung $A\to f_A$ aus \propref{3_4_5} liefert einen Isomorphismus von $K$-Vektorräumen $F_{m\times n}\!\!: \Mat_{m\!\times\!n}(K)
\!\to\! \Hom_K(K^n\!,K^m)$ sowie einen Ringisomorphismus $F_n:\Mat_n(F)\to \End_K(K^n)$ der $\GL_n(K)$ auf $\Aut_K(K^n)$
abbildet.
\end{proposition}
@ -129,14 +133,18 @@ Seien $V$ und $W$ zwei $K$-VR.
\item $F$ ist linear: Sind $A,B\in Mat-{n\times m}(K)$ und $\lambda,\mu\in K$, so ist $F(\lambda A+\mu B)(x)=
f_{\lambda A+\mu B}(x)=(\lambda A+\mu B)x=\lambda Ax+\mu Bx=\lambda f_A(x)+\mu f_B(x)=(\lambda F(A)+\mu F(B))(x)$,
also ist $F$ linear.
\item $F$ ist injektiv: Es genügt zu zeigen, dass $\Ker(f)=\{0\}$. Ist $A=(a_{ij})\in \Mat_{n\times m}(K)$ mit $F(A)=0$,
\item $F$ ist injektiv: Es genügt zu zeigen, dass $\Ker(f)=\{0\}$ (\propref{3_4_11}). Ist $A=(a_{ij})\in \Mat_{n\times m}(K)$ mit $F(A)=0$,
so insbesondere $0=F(A)(e_j)=f_A(e_j)=Ae_j=(a_{1j},...,a_{mj})^t$, also $A=0$.
\item $F$ ist surjektiv: Sei $f\in \Hom_K(V,W)$. Schreibe $f(e_j)=(a_{1j},...,a_{mj})^t$ und setze $A=(a_{ij})\in
\Mat_{n\times m}(K)$. Dann ist $f_A\in \Hom_K(K^n,K^m)$ mit $f_A(e_j)=Ae_j=f(e_j)$, also $f=f_A=F(A)\in \Image(f)$.
\item $F_n$ ist eine Ringhomomorphismus: \\
\Mat_{n\times m}(K)$. Dann ist $f_A\in \Hom_K(K^n,K^m)$ mit $f_A(e_j)=Ae_j=f(e_j)$, also $f=f_A=F(A)\in \Image(f)$ nach \propref{3_5_1}.
\item $F_n$ ist eine Ringhomomorphismus (\propref{3_5_11}): \\
(RH1) aus (L1) \\
(RH2) aus $f_{AB}=f_A\circ f_B$.
\item Somit ist $F_n$ eine Ringisomorphismus $\Rightarrow F_n(\Mat_n(K)^{\times})=\End_K(V)^{\times}$, also $F_n(
\GL_n(K))=\Aut_K(V)$.
\GL_n(K))=\Aut_K(V)$ nach \propref{3_5_9}.
\end{itemize}
\end{proof}
\end{proof}
\begin{remark}
Wir sehen also, dass die linearen Abbildungen zwischen Standardräumen sehr konkret durch Matrizen beschrieben werden können. Da jeder endlichdimensionale Vektorraum zu einem Standardraum isomorph ist (\propref{3_5_5}), kann man diese Aussage auf solche Vektorräume erweitern. Dies wollen wir im nächsten Abschnitt tun.
\end{remark}

View file

@ -12,7 +12,8 @@
\end{remark}
\begin{remark}
Wir hatten bereits definiert: $\det(A)=ad-bc$ mit
\proplbl{4_2_3}
Wir hatten bereits definiert: $\det(A)=ad-bc$ (\propref{3_1_13}) mit
\begin{align}
A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\in \Mat_2(K)\notag
\end{align} und hatten
@ -54,21 +55,31 @@
\item Für $\lambda\in R$ ist $\det(\lambda x_1,x_2)=\det(x_1,\lambda x_2)=\lambda\cdot \det(x_1,x_2)$
\item Für $x_i=x'_i+x''_i$ ist $\det(x_1,x_2)=\det(x'_1,x_2) + \det(x''_1,x_2)$
\item Ist $x_1=x_2$, so ist $\det A=0$
\item $\det(1_2)=1$
\item $\det(\mathbbm{1}_2)=1$
\end{itemize}
\end{remark}
\begin{definition}[Determinantenabbildung]
Eine Abbildung $\delta:\Mat_n(R)\to R$ heißt \begriff{Determinantenabbildung}, wenn gilt: \\
(D1): $\delta$ ist linear in jeder Zeile: sind $a_1,...,a_n$ die Zeilen von $A$ und ist $i\in \{1,...,n\}$ und $a_i=\lambda'a'_i +
\lambda''a''_i$ mit $\lambda',\lambda''\in R$ und den Zeilenvektoren $a'_i,a''_i$, so ist $\delta(A)=\lambda'\cdot \delta(a_1,...,
a'_i,...,a_n) + \lambda''\cdot \det(a_1,...,a''_i,...,a_n)$. \\
(D2): $\delta$ ist alternierend: sind $a_1,...,a_n$ die Zeilen von $A$ und $i,j\in \{1,...,n\}$, $i\neq j$ mit $a_i=a_j$, so ist
$\delta(A)=0$. \\
(D3): $\delta$ ist normiert: $\delta(\mathbbm{1}_n)=1$.
Eine Abbildung $\delta:\Mat_n(R)\to R$ heißt \begriff{Determinantenabbildung}, wenn gilt:
\begin{itemize}
\item (D1): $\delta$ ist linear in jeder Zeile: sind $a_1,...,a_n$ die Zeilen von $A$ und ist $i\in \{1,...,n\}$ und $a_i=\lambda'a'_i +
\lambda''a''_i$ mit $\lambda',\lambda''\in R$ und den Zeilenvektoren $a'_i,a''_i$, so ist $\delta(A)=\lambda'\cdot \delta(a_1,...,
a'_i,...,a_n) + \lambda''\cdot \det(a_1,...,a''_i,...,a_n)$.
\item (D2): $\delta$ ist alternierend: sind $a_1,...,a_n$ die Zeilen von $A$ und $i,j\in \{1,...,n\}$, $i\neq j$ mit $a_i=a_j$, so ist
$\delta(A)=0$.
\item (D3): $\delta$ ist normiert: $\delta(\mathbbm{1}_n)=1$.
\end{itemize}
\end{definition}
\begin{mathematica}[Determinante]
Die Determinante einer Matrix lässt sich in Mathematica bzw. WolframAlpha wie folgt berechnen:
\begin{align}
\texttt{Det[\{\{1, 4\}, \{2, 5\}\}]}\notag
\end{align}
\end{mathematica}
\begin{example}
\proplbl{4_2_5}
Sei $\delta:\Mat_n(K)\to K$ eine Determinantenabbildung. Ist $A\in \Mat_n(K)$ nicht invertierbar, so sind die Zeilen
$a_1,...,a_n$ von $A$ linear abhängig, es gibt also ein $i$ mit $a_i=\sum_{j\neq i} \lambda_j\cdot a_j$. Es folgt $\delta(A)=
\delta(a_1,...,a_n)=\sum_{j\neq i} \lambda_j\cdot \delta(a_1,...,a_j,...,a_n)$ mit $a_i=a_j$ mit D2: $\sum_{j\neq i}
@ -76,6 +87,7 @@
\end{example}
\begin{lemma}
\proplbl{4_2_6}
Erfüllt $\delta:\Mat_n(R) \to R$ die Axiome D1 und D2, so gilt für jedes $\sigma\in S_n$ und die Zeilenvektoren
$a_1,...,a_n$:
\begin{align}
@ -83,13 +95,20 @@
\end{align}
\end{lemma}
\begin{proof}
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen. \\
$0=\delta(a_1,...,a_i+a_j,...,a_j+a_i,....,a_n)=\delta(a_1,...,a_i,...,a_j,...,a_n)+\delta(a_1,...,a_i,...,a_i,...,a_n)+\delta(a_1,...,a_j,
...,a_j,...,a_n)+\delta{a_1,...,a_j,...,a_i,...,a_n}=\delta(a_1,...,a_n)+\delta(a_{\sigma(1)},...,a_{\sigma(n)})=0$. Mit $\sgn(\sigma)=
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen (\propref{4_1_7}). \\
\begin{align}
0&=\delta(a_1,...,a_i+a_j,...,a_j+a_i,....,a_n) \notag \\
&=\delta(a_1,...,a_i,...,a_j,...,a_n)+\delta(a_1,...,a_i,...,a_i,...,a_n)+\delta(a_1,...,a_j,
...,a_j,...,a_n)+\delta{a_1,...,a_j,...,a_i,...,a_n} \notag \\
&=\delta(a_1,...,a_n)+\delta(a_{\sigma(1)},...,a_{\sigma(n)}) \notag \\
&=0 \notag
\end{align}
Mit $\sgn(\sigma)=
\sgn(\tau_{ij})=-1$ folgt die Behauptung.
\end{proof}
\begin{lemma}
\proplbl{4_2_7}
Erfüllt $\delta:\Mat_n(R)\to R$ die Axiome D1 und D2, so gilt für $A=(a_{ij})\in \Mat_n(R)$:
\begin{align}
\delta(A)=\delta(\mathbbm{1}_n)
@ -97,14 +116,24 @@
\end{align}
\end{lemma}
\begin{proof}
Schreibe $a_i=(a_{j_1},...,a_{in})=\sum_{j=1}^n a_{ij}\cdot e_j$. Wiederholtes Anwenden von D1 gibt $\delta(A)=\delta(
a_1,...,a_n)=\sum_{j_1=1}^n a_{1j_1}\cdot \delta(e_{j_1},a_2,...,a_n)=\sum_{j_1=1}^n ... \sum_{j_n=1}^n \delta(
e_{j_1},...,e_{j_n})\cdot \prod_{i=1}^n a_{ij_i}$. Wegen D2 ist $\delta(e_{j_1},...,e_{j_n})=0$ falls $j_i=j_{i'}$ für ein $i\neq i'$.
Andernfalls ist $\sigma(i)=j_i$ einer Permutation von $\{1,...,n\}$ und $\delta(e_{j_1},...,e_{j_n})=\delta(e_{\sigma(1)},...,e_{\sigma(n)})=
\sgn(\sigma)\cdot \delta(e_1,...,e_n)=\sgn(\sigma)\cdot \delta(\mathbbm{1}_n)$.
Schreibe $a_i=(a_{j_1},...,a_{in})=\sum_{j=1}^n a_{ij}\cdot e_j$. Wiederholtes Anwenden von D1 gibt
\begin{align}
\delta(A)&=\delta(a_1,...,a_n) \notag \\
&=\sum_{j_1=1}^n a_{1j_1}\cdot \delta(e_{j_1},a_2,...,a_n) \notag \\
&=\sum_{j_1=1}^n ... \sum_{j_n=1}^n \delta(e_{j_1},...,e_{j_n})\cdot \prod_{i=1}^n a_{ij_i} \notag
\end{align}
Wegen D2 ist $\delta(e_{j_1},...,e_{j_n})=0$ falls $j_i=j_{i'}$ für ein $i\neq i'$.
Andernfalls ist $\sigma(i)=j_i$ einer Permutation von $\{1,...,n\}$ und
\begin{align}
\delta(e_{j_1},...,e_{j_n})&=\delta(e_{\sigma(1)},...,e_{\sigma(n)}) \notag \\
&=\sgn(\sigma)\cdot \delta(e_1,...,e_n) \notag \\
&=\sgn(\sigma)\cdot \delta(\mathbbm{1}_n) \notag
\end{align}
nach \propref{4_2_6}.
\end{proof}
\begin{theorem}
\proplbl{4_2_8}
Es gibt genau eine Determinantenabbildung $\delta:\Mat_n(R)\to R$ und diese ist gegeben durch die
Leibnitzformel
\begin{align}
@ -113,17 +142,27 @@
\end{align}
\end{theorem}
\begin{proof}
Eindeutigkeit der Abbildung folgt wegen D3. Bleibt nur noch zu zeigen, dass $\det$ auch die Axiome D1 bis D3 erfüllt. \\
Eindeutigkeit der Abbildung folgt wegen D3 aus \propref{4_2_7}. Bleibt nur noch zu zeigen, dass $\det$ auch die Axiome D1 bis D3 erfüllt. \\
D1: klar \\
D3: klar \\
D2: Seien $\mu\neq v$ mit $a_{\mu}=a_v$. Mit $\tau=\tau_{\mu v}$ ist $S_n\backslash A_n = A_n\tau$, somit $\det(a_{ij})=
\sum_{\sigma\in A_n} \prod_{i=1}^n a_{i,\sigma(i)}-\sum_{\sigma\in A_n\tau} \prod_{i=1}^n a_{i,\sigma\tau(i)}=
\sum_{\sigma\in A_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} - \prod_{i=1}^n a_{i,\sigma\tau(i)} \right). Da a_{ij}=a_{\tau(i),j}$
für alle $i,j$ ist $\prod_{i=1}^n a_{i,\sigma(i)}=\prod_{i=1}^n a_{\tau(i),\sigma\tau(i)}=\prod_{i=1}^n a_{i,\sigma\tau(i)}$
D2: Seien $\mu\neq v$ mit $a_{\mu}=a_v$. Mit $\tau=\tau_{\mu v}$ ist $S_n\backslash A_n = A_n\tau$, somit
\begin{align}
\det(a_{ij})&=
\sum_{\sigma\in A_n} \prod_{i=1}^n a_{i,\sigma(i)}-\sum_{\sigma\in A_n\tau} \prod_{i=1}^n a_{i,\sigma\tau(i)} \notag \\
&=
\sum_{\sigma\in A_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} - \prod_{i=1}^n a_{i,\sigma\tau(i)} \right) \notag
\end{align}
nach \propref{4_1_10}. Da $a_{ij}=a_{\tau(i),j}$
für alle $i,j$ ist
\begin{align}
\prod_{i=1}^n a_{i,\sigma(i)}&=\prod_{i=1}^n a_{\tau(i),\sigma\tau(i)} \notag \\
&=\prod_{i=1}^n a_{i,\sigma\tau(i)} \notag
\end{align}
für jedes $\sigma\in S_n$, woraus $\det(a_{ij})=0$ folgt.
\end{proof}
\begin{example}
\proplbl{4_2_9}
\begin{itemize}
\item $n=2$, $S_2=\{\id, \tau_{12}\}$,
\begin{align}
@ -158,8 +197,14 @@
anstatt Zeilen.
\end{conclusion}
\begin{proof}
Mit $\rho=\sigma^{-1}$ gilt $\sgn(\rho)=\sgn(\sigma)$ und somit $\det(A)=\sum_{\sigma\in S_n} \sgn(\sigma) \cdot \prod_
{i=1}^n a_{i,\sigma(i)}=\sum_{\rho\in S_n} \sgn(\rho)\cdot \prod_{i=1}^n a_{\rho(i),i}=\det(A^t)$.
Mit $\rho=\sigma^{-1}$ gilt $\sgn(\rho)=\sgn(\sigma)$ nach \propref{4_1_8} und somit
\begin{align}
\det(A)&=\sum_{\sigma\in S_n} \sgn(\sigma) \cdot \prod_
{i=1}^n a_{i,\sigma(i)} \notag \\
&=\sum_{\rho\in S_n} \sgn(\rho)\cdot \prod_{i=1}^n a_{\rho(i),i} \notag \\
&=\det(A^t) \notag
\end{align}
nach \propref{4_2_8}.
\end{proof}
\begin{theorem}[Determinantenmultiplikationssatz]
@ -184,7 +229,7 @@
\end{conclusion}
\begin{proof}
Aus $AA^{-1}=\mathbbm{1}_n$ folgt $\det(A^{-1})*\det(A)=\det(\mathbbm{1}_n)=1$, insbesondere $\det(A)\in R^{\times}$. Der zweite Teil folgt wegen
$K^{\times}=K\backslash \{0\}$.
$K^{\times}=K\backslash \{0\}$ (\propref{4_2_5}).
\end{proof}
\begin{conclusion}
@ -193,9 +238,14 @@
\end{conclusion}
\begin{conclusion}
\proplbl{4_2_14}
Elementare Zeilenumformungen vom Typ II ändern die Determinante nicht, elementare Zeilenumformungen vom
Typ III ändern nur das Vorzeichen der Determinante.
\end{conclusion}
\begin{proof}
$\det(Q_{ij}(\mu)A)=\det(Q_{ij}(\mu)) \cdot \det(A)= 1\cdot \det(A) = \det(A)$, Rest analog.
\end{proof}
$\det(Q_{ij}(\mu)A)=\det(Q_{ij}(\mu)) \cdot \det(A)= 1\cdot \det(A) = \det(A)$ (\propref{4_2_9}), Rest analog.
\end{proof}
\begin{remark}
Aus \propref{4_2_14} und \propref{4_2_9} erhält man eine praktische Methode zur Berechnung der Determinante. Man bringt die Matrix mit dem \person{Gauss}-Algorithmus \propref{3_9_11} auf Zeilenstufenform, bildet das Produkt über die Diagonale und multipliziert mit -1, falls am eine ungerade Anzahl von Zeilenvertauschungen vorgenommen hat.
\end{remark}

View file

@ -1,8 +1,9 @@
\section{Determinante und Spur von Endomorphismen}
Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
Sei $n\in \mathbb N$ und $V$ ein $K$-Vektorraum mit $\dim_K(V)=m$.
\begin{proposition}
\proplbl{4_4_1}
Sei $f\in \Hom_K(V,W)$, $A'$ eine Basis von $V$ und $A=M_{A'}(f)$. Sei weiter $B\in \Mat_n(K)$. Genau
dann gibt es eine Basis $B'$ von $V$ mit $B=M_{B'}(f)$, wenn es $S\in \GL_n(K)$ mit $B=SAS^{-1}$ gibt.
\end{proposition}
@ -10,8 +11,8 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
Ist $B'$ eine Basis von $V$ mit $B=M_{B'}(f)$, so ist $B=SAS^{-1}$ mit $S=T^{A'}_{B'}$. Sei umgekehrt $B=SAS^{-1}$ mit
$S\in \GL_n(K)$. Es gibt eine Basis $B'$ von $V$ mit $T^{A'}_{B'}=S$, also $M_{B'}(f)=T^{A'}_{B'}\cdot M_{A'}(f)\cdot (
T^{A'}_{B'})^{-1}=SAS^{-1}=B$: Mit $B'=(\Phi_{A'}(f_s^{-1}(e_1)),...,\Phi_{A'}(f_s^{-1}(e_n)))$ ist $\Phi_{A'}\circ f_s^{-1}=
id_V\circ \Phi_{B'}$, also $T^{A'}_{B'}=M_{A'}^{A'}(id_V)=S^{-1}$. Folglich ist $T^{A'}_{B'}=(T_{A'}^{B'})^{-1}=(S^{-1})^{-1}
=S$.
\id_V\circ \Phi_{B'}$, also $T^{A'}_{B'}=M_{A'}^{A'}(\id_V)=S^{-1}$. Folglich ist $T^{A'}_{B'}=(T_{A'}^{B'})^{-1}=(S^{-1})^{-1}
=S$ nach \propref{3_6_2}.
\end{proof}
\begin{definition}[Ähnlichkeit]
@ -31,13 +32,14 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\end{proof}
\begin{proposition}
\proplbl{4_4_4}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist
\begin{align}
\det(A)=\det(B)\notag
\end{align}
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)$, $\det(B)=\det(S)\cdot \det(A)\cdot \det(S)^{-1}=\det(A)$
$B=SAS^{-1}$, $S\in \GL_n(R)$, $\det(B)=\det(S)\cdot \det(A)\cdot \det(S)^{-1}=\det(A)$ nach \propref{4_2_11} und \propref{4_2_12}
\end{proof}
\begin{definition}[Determinante eines Endomorphismus]
@ -45,7 +47,7 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\begin{align}
\det(f)=\det(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist.
wobei $B$ eine Basis von $V$ ist. (Diese ist wohldefiniert nach \propref{4_4_1} und \propref{4_4_4})
\end{definition}
\begin{proposition}
@ -57,7 +59,11 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\end{itemize}
\end{proposition}
\begin{proof}
sollte klar sein, evtl. mit \propref{4_2_11}
\begin{itemize}
\item klar
\item folgt aus \propref{3_6_6} und \propref{4_2_11}
\item folgt aus \propref{3_6_5} und \propref{4_2_12}
\end{itemize}
\end{proof}
\begin{definition}[Spur einer Matrix]
@ -67,7 +73,15 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\end{align}
\end{definition}
\begin{mathematica}[Spur einer Matrix]
Auch für die Spur einer Matrix hat Mathematica bzw. WolframAlpha eine Funktion:
\begin{align}
\texttt{Tr[\{\{1, 2, 3\}, \{4, 5, 6\}, \{7, 8, 9\}\}]}\notag
\end{align}
\end{mathematica}
\begin{lemma}
\proplbl{4_4_8}
Seien $A,B\in \Mat_n(R)$
\begin{itemize}
\item $\tr: \Mat_n(R)\to R$ ist $R$-linear
@ -80,10 +94,11 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\end{proof}
\begin{proposition}
\proplbl{4_4_9}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist $\tr(A)=\tr(B)$.
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)\Rightarrow \tr(B)=\tr(SAS^{-1})=\tr(AS^{-1}S)=\tr(A)$
$B=SAS^{-1}$, $S\in \GL_n(R)\Rightarrow \tr(B)=\tr(SAS^{-1})\overset{\propref{4_4_8}}{=}\tr(AS^{-1}S)=\tr(A)$
\end{proof}
\begin{definition}[Spur eines Endomorphismus]
@ -91,11 +106,11 @@ Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\begin{align}
\tr(f)=\tr(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist.
wobei $B$ eine Basis von $V$ ist (Diese ist wohldefiniert nach \propref{4_4_1} und \propref{4_4_9})
\end{definition}
\begin{remark}
Im Fall $K=\mathbb R$ kann man den Absolutbetrag der Determinante eines $f\in \End_K(K^n)$
Im Fall $K=\mathbb R$ kann man wie in \propref{4_2_3} den Absolutbetrag der Determinante eines $f\in \End_K(K^n)$
geometrisch interpretieren, nämlich als das Volumen von $f(Q)$, wobei $Q=[0,1]^n$ der Einheitsquader ist, und somit
als Volumenänderung durch $f$. Auch das Vorzeichen von $\det(f)$ hat eine Bedeutung: Es gibt an, ob $f$
orientierungserhaltend ist. Für erste Interpretationen der Spur siehe A100.

View file

@ -3,11 +3,15 @@
\begin{definition}[(Halb-)Gruppe]
Sei $G$ eine Menge. Eine (innere, zweistellige) Verknüpfung
auf $G$ ist eine Abbildung $*: G \times G \to G, (x,y) \mapsto x*y$. Das Paar $(G,*)$ ist eine
\begriff[Gruppe!]{Halbgruppe}, wenn das folgende Axiom erfüllt ist: \\
(G1) Für $x,y,z \in G$ ist $(x*y)*z=x*(y*z)$. \\
Eine Halbgruppe $(G,*)$ ist ein \begriff{Monoid}, wenn zusätzlich das folgende Axiom gilt: \\
(G2) Es gibt ein Element $e \in G$, welches für alle $x \in G$ die Gleichung $x*e=e*x=x$
erfüllt. Dieses Element heißt dann \begriff{neutrales Element} der Verknüpfung $*$.
\begriff[Gruppe!]{Halbgruppe}, wenn das folgende Axiom erfüllt ist:
\begin{itemize}
\item (G1) Für $x,y,z \in G$ ist $(x*y)*z=x*(y*z)$.
\end{itemize}
Eine Halbgruppe $(G,*)$ ist ein \begriff{Monoid}, wenn zusätzlich das folgende Axiom gilt:
\begin{itemize}
\item (G2) Es gibt ein Element $e \in G$, welches für alle $x \in G$ die Gleichung $x*e=e*x=x$
erfüllt. Dieses Element heißt dann \begriff{neutrales Element} der Verknüpfung $*$.
\end{itemize}
\end{definition}
\begin{example}
@ -30,12 +34,16 @@
ist $e_1=e_1 * e_2=e_2$. Damit besitzt $(G,*)$ höchstens ein neutrales Element, also genau ein neutrales Element.
\end{proof}
\begin{definition}[abelsche Gruppe]
Eine Gruppe ist ein Monoid $(G,*)$ mit dem neutralen Element
$e$, in dem zusätzlich das folgende Axiom gilt: \\
(G3) Für jedes $x \in G$ gibt es ein $x' \in G$ mit $x'*x=x*x'=e$. \\
Gilt weiterhin \\
(G4) Für alle $x,y \in G$ gilt $x*y=y*x$, so heißt diese Gruppe \begriff[Gruppe!]{abelsch}.
\begin{definition}[(abelsche) Gruppe]
Eine \begriff{Gruppe} ist ein Monoid $(G,*)$ mit dem neutralen Element
$e$, in dem zusätzlich das folgende Axiom gilt:
\begin{itemize}
\item (G3) Für jedes $x \in G$ gibt es ein $x' \in G$ mit $x'*x=x*x'=e$.
\end{itemize}
Gilt weiterhin
\begin{itemize}
\item (G4) Für alle $x,y \in G$ gilt $x*y=y*x$, so heißt diese Gruppe \begriff[Gruppe!]{abelsch}.
\end{itemize}
\end{definition}
Ein $x'$ heißt \begriff{inverses Element} zu $x$. \\
@ -58,6 +66,7 @@ Ein $x'$ heißt \begriff{inverses Element} zu $x$. \\
\end{proof}
\begin{example}
\proplbl{1_3_7}
\begin{itemize}
\item Eine triviale Gruppe besteht nur aus ihrem neutralen Element. Tatsächlich ist $G=\{e\}$ mit
$e*e=e$ eine Gruppe.
@ -85,8 +94,8 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\begin{proposition}
Sei $(G,\cdot)$ eine Gruppe. Für $x,y \in G$ gelten
\begin{align}
(x^{-1})^{-1}=x \notag \\
(xy)^{-1}=x^{-1} \cdot x^{-1} \notag
(x^{-1})^{-1} &= x \notag \\
(xy)^{-1} &= x^{-1} \cdot y^{-1} \notag
\end{align}
\end{proposition}
\begin{proof}
@ -140,7 +149,7 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\hline
\end{tabular}
\end{center}
\item die Gruppe $S_2= \Sym(\{1,2\}) = \{id_{\{1,2\}},f\}$, wobei $f(1)=2$ und $f(2)=1$
\item die Gruppe $S_2= \Sym(\{1,2\}) = \{\id_{\{1,2\}},f\}$, wobei $f(1)=2$ und $f(2)=1$
\begin{center}
\begin{tabular}{|c|c|c|}
\hline
@ -157,9 +166,11 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\begin{definition}[Untergruppe]
Eine \begriff{Untergruppe} einer Gruppe $(G,\cdot)$ ist eine
nichtleere Teilmenge $H \subset G$, für die gilt: \\
(UG1) Für alle $x,y \in H$ ist $x \cdot y \in H$ (Abgeschlossenheit unter Multiplikation). \\
(UG2) Für alle $x \in H$ ist $x^{-1} \in H$ (Abgeschlossenheit unter Inversen).
nichtleere Teilmenge $H \subset G$, für die gilt:
\begin{itemize}
\item (UG1) Für alle $x,y \in H$ ist $x \cdot y \in H$ (Abgeschlossenheit unter Multiplikation).
\item (UG2) Für alle $x \in H$ ist $x^{-1} \in H$ (Abgeschlossenheit unter Inversen).
\end{itemize}
\end{definition}
\begin{proposition}
@ -185,18 +196,18 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\begin{remark}
Wir nennen nicht nur die Menge $H$ eine Untergruppe von $G$, sondern auch die Gruppe $(H,\cdot_H)$.
Wir schreiben $H \le G$.
Wir schreiben $H \subseteq G$.
\end{remark}
\begin{example}
\proplbl{1_3_16}
\begin{itemize}
\item Jede Gruppe $G$ hat die triviale Untergruppe $H=\{e_G\}$ und $H=G$
\item Ist $H \le G$ und $K \le H$, so ist $K \le G$ (Transitivität)
\item Unter Addition ist $\mathbb{Z} \le \mathbb{Q} \le \mathbb{R}$ eine Kette von Untergruppen
\item Unter Multiplikation ist $\mu_2 \le \mathbb{Q}^+ \le \mathbb{R}^+$ eine Kette von
\item Ist $H \subseteq G$ und $K \subseteq H$, so ist $K \subseteq G$ (Transitivität)
\item Unter Addition ist $\mathbb{Z} \subseteq \mathbb{Q} \subseteq \mathbb{R}$ eine Kette von Untergruppen
\item Unter Multiplikation ist $\mu_2 \subseteq \mathbb{Q}^+ \subseteq \mathbb{R}^+$ eine Kette von
Untergruppen
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z} := \{nx \mid x \in \mathbb{Z}\} \le \mathbb{Z}$
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z} := \{nx \mid x \in \mathbb{Z}\} \subseteq \mathbb{Z}$
\end{itemize}
\end{example}
@ -211,9 +222,9 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\item $H \neq \emptyset:$ Für jedes $i \in I$ ist $e_G \in H$, also auch $e_G \in \bigcap
H_i =H$
\item (UG1): Seien $x,y \in H$. Für jedes $i \in I$ ist $x,y \in H_i$, somit $xy \in H_i$,
da $H_i \le G$. Folglich ist $xy \in \bigcap H_i=H$.
da $H_i \subseteq G$. Folglich ist $xy \in \bigcap H_i=H$.
\item (UG2): Sei $x \in H$. Für jedes $i \in I$ ist $x \in H_i$, somit $x^{-1} \in H_i$,
da $H_i \le G$. Folglich ist $x^{-1} \in \bigcap H_i=H$.
da $H_i \subseteq G$. Folglich ist $x^{-1} \in \bigcap H_i=H$.
\end{itemize}
\end{proof}
@ -226,12 +237,12 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
Sei $\mathcal{H}$ die Menge aller Untergruppen von $G$, die $X$ enthalten. Nach \propref{1_3_17}
ist $H:=
\bigcap \mathcal{H} := \bigcap H$ eine Untergruppe von $G$. Da $X \subset H'$ für jedes $H' \in
\mathcal H$ ist auch $X \subset H$. Nach Definition ist $H$ in jedem $H' \le G$ mit $X \subset H'$
\mathcal H$ ist auch $X \subset H$. Nach Definition ist $H$ in jedem $H' \subseteq G$ mit $X \subset H'$
enhalten.
\end{proof}
\begin{definition}[erzeugte Untergruppe]
Ist $G$ eine Gruppe und $X \le G$, so nennt man diese
Ist $G$ eine Gruppe und $X \subseteq G$, so nennt man diese
kleinste Untergruppe von $G$, die $X$ enthält, die von $X$ \begriff[Untergruppe!]{erzeugte Untergruppe} von $G$ und
bezeichnet diese mit $\langle X\rangle$, falls $X = \{x_1,x_2,...,x_n\}$ enthält auch mit $\langle x_1,x_2,
...,x_n\rangle$. Gibt es eine endliche Menge $X \subset G$ mit $G=\langle X\rangle$, so nennt man $G$ endlich
@ -240,10 +251,10 @@ In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeic
\begin{example}
\begin{itemize}
\item Die leere Menge $X=\emptyset \le G$ erzeugt stets die triviale Untergruppe $\langle \emptyset\rangle
=\{e\} \le G$
\item Die leere Menge $X=\emptyset \subseteq G$ erzeugt stets die triviale Untergruppe $\langle \emptyset\rangle
=\{e\} \subseteq G$
\item Jede endliche Gruppe $G$ ist endlich erzeugt $G=\langle G\rangle$
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z}=\langle n\rangle \le \mathbb{Z}$. Nach \propref{1_3_16} ist $n\in n\whole\le\whole$. Ist $H \le \mathbb{Z}$
mit $n \in H$, so ist auch $kn=nk=n+n+...+n \in H$ und somit auch $n\mathbb{Z} \le H$.
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z}=\langle n\rangle \subseteq \mathbb{Z}$. Nach \propref{1_3_16} ist $n\in n\whole\subseteq\whole$. Ist $H \subseteq \mathbb{Z}$
mit $n \in H$, so ist auch $kn=nk=n+n+...+n \in H$ und somit auch $n\mathbb{Z} \subseteq H$.
\end{itemize}
\end{example}
\end{example}

View file

@ -3,8 +3,10 @@
Seien $G,H$ zwei multiplikativ geschriebene Gruppen.
\begin{definition}[Gruppenhomomorphismus]
Eine Abbildung $f: G \to H$ ist ein \begriff{Gruppenhomomorphismus}, wenn gilt: \\
(GH): $f(xy)=f(x)\cdot f(y)$ \\
Eine Abbildung $f: G \to H$ ist ein \begriff{Gruppenhomomorphismus}, wenn gilt:
\begin{itemize}
\item (GH): $f(xy)=f(x)\cdot f(y)$
\end{itemize}
Die Menge der Homomorphismen $f:G\to H$ bezeichnet man mit $\Hom(G,H)$.
\end{definition}
@ -60,10 +62,13 @@ Seien $G,H$ zwei multiplikativ geschriebene Gruppen.
\end{proof}
\begin{definition}[Arten von Homomorphismen]
Ein Homomorphismus ist \\
ein \begriff{Monomorphismus}, wenn $f$ injektiv ist, \\
ein \begriff{Epimorphismus}, wenn $f$ surjektiv ist, \\
ein \begriff{Isomorphismus}, wenn $f$ bijektiv ist. Die Gruppen $G$ und $H$ heißen \begriff{isomorph}, in Zeichen $G\cong H$, wenn
Ein Homomorphismus ist
\begin{itemize}
\item ein \begriff{Monomorphismus}, wenn $f$ injektiv ist
\item ein \begriff{Epimorphismus}, wenn $f$ surjektiv ist
\item ein \begriff{Isomorphismus}, wenn $f$ bijektiv ist.
\end{itemize}
Die Gruppen $G$ und $H$ heißen \begriff{isomorph}, in Zeichen $G\cong H$, wenn
es einen Isomorphismus $G\to H$ gibt.
\end{definition}

View file

@ -4,9 +4,11 @@ Seien $R,S$ und $T$ Ringe.
\begin{definition}[Ringhomomorphismus]
Eine Abbildung $f:R\to S$ ist ein \begriff{Ringhomomorphismus}, wenn für $x,y\in R$
gilt: \\
(RH1:) $f(x+y)=f(x)+f(y)$ \\
(RH2:) $f(xy)=f(x)\cdot f(y)$ \\
gilt:
\begin{itemize}
\item (RH1:) $f(x+y)=f(x)+f(y)$
\item (RH2:) $f(xy)=f(x)\cdot f(y)$
\end{itemize}
Die Menge der Ringhomomorphismen $f:R\to R$ wird mit $\Hom(R,S)$ bezeichnet. Ein Homomorphismus $f:R\to S$ ist ein
Mono-, Epi- oder Isomorphismus, wenn $f$ injektiv, surjektiv oder bijektiv ist. Gibt es einen Isomorphismus
$f:R\to S$, so nennt man $R$ und $S$ isomorph und schreibt $R\cong S$. Die Elemente von $\End(R):= \Hom(R,R)$ nennt
@ -70,10 +72,10 @@ Seien $R,S$ und $T$ Ringe.
\begin{definition}[Ideal]
Ist $I$ eine Untergruppe von $(R,+)$ und $xa,ax\in I$ mit $x\in R$ und $a\in I$, so nennt
man $I$ ein \begriff{Ideal} von $R$ und schreibt $I\vartriangleleft R$.
man $I$ ein \begriff{Ideal} von $R$ und schreibt $I\unlhd R$.
\end{definition}
\begin{example}
Der Kern des Ringhomomorphismus $\mathbb Z\to \mathbb Z\backslash n\mathbb Z$ mit $a\mapsto
\overline a$ ist das Ideal $I=n\mathbb Z\vartriangleleft \mathbb Z$.
\overline a$ ist das Ideal $I=n\mathbb Z\unlhd \mathbb Z$.
\end{example}

View file

@ -1,12 +1,14 @@
\section{Homomorphismen von Vektorräumen}
Seien $U,V,W$ drei $K$-VR. \\
Seien $U,V,W$ drei $K$-Vektorraum. \\
\begin{definition}[linear]
Eine Abbildung $f: V \to W$ heißt $K$-\begriff{linear}er Homomorphismus von $K$-VR, wenn für
alle $x,y\in V$ und $\lambda\in K$ gilt: \\
(L1): $f(x+y)=f(x)+f(y)$ \\
(L2): $f(\lambda x)=\lambda \cdot f(x)$ \\
Eine Abbildung $f: V \to W$ heißt $K$-\begriff{linear}er Homomorphismus von $K$-Vektorraum, wenn für
alle $x,y\in V$ und $\lambda\in K$ gilt:
\begin{itemize}
\item (L1): $f(x+y)=f(x)+f(y)$
\item (L2): $f(\lambda x)=\lambda \cdot f(x)$
\end{itemize}
Die Menge der $K$-linearen Abbildungen $f: V\to W$ wird mit $\Hom_K(V,W)$ bezeichnet. Die Elemente von $\End_K(V)
:= \Hom_K(V,V)$ nennt man die Endomorphismen von $V$. Ein $f\in \Hom_K(V,W)$ ist ein Mono-, Epi- bzw. Isomorphismus,
falls $f$ injektiv, surjektiv bzw. bijektiv ist. Einen Endomorphismus der auch ein Isomorphismus ist, nennt man
@ -16,7 +18,7 @@ Seien $U,V,W$ drei $K$-VR. \\
\begin{remark}
Eine $K$-lineare Abbildung $f: V\to W$ ist also ein Homomorphismus der abelschen Gruppen $(V,+)
\to(W,+)$, der mit der Skalarmultiplikation verträglich ist, d.h. eine strukturverträgliche Abbildung zwischen VR.
\to(W,+)$, der mit der Skalarmultiplikation verträglich ist, d.h. eine strukturverträgliche Abbildung zwischen Vektorräumen.
\end{remark}
\begin{proposition}
@ -35,8 +37,8 @@ Seien $U,V,W$ drei $K$-VR. \\
\begin{itemize}
\item $\id_V: V\to V$ ist ein Automorphismus von $V$
\item $c_0:V\to W$ mit $x\mapsto 0$ ist $K$-linear
\item Für einen UVR $V_0\le V$ ist $\iota: V_0\to V$ ein Monomorphismus
\item Im $K$-VR $K[X]$ kann man die (formale) Ableitung definieren: $(\sum_{i=0}^n a_iX^i)' := \sum
\item Für einen Untervektorraum $V_0\le V$ ist $\iota: V_0\to V$ ein Monomorphismus
\item Im $K$-Vektorraum $K[X]$ kann man die (formale) Ableitung definieren: $(\sum_{i=0}^n a_iX^i)' := \sum
_{i=1}^n ia_iX^{i-1}$. Diese Abbildung $K[X]\to K[X]$ mit $f\mapsto f'$ ist ein $K$-Endomorphismus von $K[X]$.
\end{itemize}
\end{example}
@ -71,8 +73,8 @@ Seien $U,V,W$ drei $K$-VR. \\
\item Sind $(x_1)$ aus $V$, $(\lambda_i)$ aus $K$, fast alle gleich 0, so ist $f(\sum_{i\in I} \lambda_i
\cdot x_i)=\sum_{i\in I} \lambda_i\cdot f(x)$.
\item Ist $(x_i)$ linear abhängig in $V$, so ist $f(x_i)$ linear abhängig in $W$.
\item Ist $V_0\le V$ ein UVR von $V$, so ist $f(V_0)\le W$ ein UVR.
\item Ist $W_0\le W$ ein UVR von $W$, so ist $f^{-1}(W_0)\le V$ ein UVR.
\item Ist $V_0\le V$ ein Untervektorraum von $V$, so ist $f(V_0)\le W$ ein Untervektorraum.
\item Ist $W_0\le W$ ein Untervektorraum von $W$, so ist $f^{-1}(W_0)\le V$ ein Untervektorraum.
\end{itemize}
\end{proposition}
\begin{proof}
@ -108,6 +110,7 @@ Seien $U,V,W$ drei $K$-VR. \\
\end{proof}
\begin{proposition}
\proplbl{3_4_9}
Sei $f:V\to W$ linear. Genau dann ist $f$ ein Isomorphismus, wenn es eine lineare Abbildung $f':W
\to V$ gibt mit $(f'\circ f)=\id_V$ und $(f\circ f')=\id_W$.
\end{proposition}
@ -117,14 +120,16 @@ Seien $U,V,W$ drei $K$-VR. \\
\end{proof}
\begin{remark}
Wie auch bei Gruppen sehen wir hier bei VR, dass Isomorphismen genau die strukturerhaltenden
\proplbl{3_4_10}
Wie auch bei Gruppen sehen wir hier bei Vektorräumen, dass Isomorphismen genau die strukturerhaltenden
Abbildungen sind. Wieder können wir uns einen Isomorphismus $f:V\to W$ so vorstellen, dass wir nur die Elemente von
$V$ umbenennen. Alle Aussagen, die sich nur aus der Struktur selbst ergeben, bleiben damit wahr, wie z.B. $\dim_K(V)=
\dim_K(W)\iff V=W$. Insbesondere ist $K^n \cong K^m$ für $n=m$.
\end{remark}
\begin{proposition}
Ist $f:V\to W$ eine lineare Abbildung, so ist $\Ker(f)$ ein UVR von $V$. Genau dann ist $f$ ein
\proplbl{3_4_11}
Ist $f:V\to W$ eine lineare Abbildung, so ist $\Ker(f)$ ein Untervektorraum von $V$. Genau dann ist $f$ ein
Monomorphismus, wenn $\Ker(f)=\{0\}$.
\end{proposition}
\begin{proof}

View file

@ -1,6 +1,6 @@
\section{Koordinatendarstellung linearer Abbildungen}
Seien $V,W$ endlichdimensionale $K$-VR mit den Basen $B=(x_1,...,x_n)$ und $C=(y_1,...,y_m)$.
Seien $V,W$ endlichdimensionale $K$-Vektorräume mit den Basen $B=(x_1,...,x_n)$ und $C=(y_1,...,y_m)$.
\begin{definition}[darstellende Matrix]
Sei $f\in \Hom_K(V,W)$. Für $j=1,...,n$ schreiben wir $f(x_j)=\sum_{
@ -27,23 +27,23 @@ Seien $V,W$ endlichdimensionale $K$-VR mit den Basen $B=(x_1,...,x_n)$ und $C=(y
Sei zunächst $A=M_C^B(f)$. Für $j=1,...,n$ ist $\Phi_C(f_A(e_j))=\Phi_C((a_{1j},...,a_{mj})^t)=\sum_{i=1}^m
a_{ij}\cdot y_i=f(x_j)=f(\Phi_B(e_j))$, also $\Phi_C\circ f_A=f \circ \Phi_B$. \\
Sei umgekehrt $A\in \Mat_{m\times n}(K)$ mit $\Phi_C\circ f_A=f\circ\Phi_B$. Da $\Phi_B$ und $\Phi_C$ Isomorphismen
sind, ist $f_A$ eindeutig bestimmt: $f_A=\Phi_C^{-1}\circ f \circ \Phi_B$ und deshalb auch $A$.
sind, ist $f_A$ eindeutig bestimmt: $f_A=\Phi_C^{-1}\circ f \circ \Phi_B$ und deshalb auch $A$ (\propref{3_5_12}).
\end{proof}
\begin{conclusion}
\proplbl{3_6_3}
Die Abbildung $M_C^B$: $\Hom_K(V,W)\to \Mat_{m\times n}(K)$ ist ein Isomorphismus von $K$-VR.
Die Abbildung $M_C^B$: $\Hom_K(V,W)\to \Mat_{m\times n}(K)$ ist ein Isomorphismus von $K$-Vektorräumen.
\end{conclusion}
\begin{proof}
Definiere $A$: $\Hom_K(V,W)\to \Mat_{m\times n}(K)$ mit $f\mapsto \Phi_C^{-1}\circ f \circ \Phi_B$. $A(f)=F_{m\times n}
(M_C^B(f))$, also $A=F_{m\times n}\circ M_C^B$. Die Abbildung ist bijektiv, da $\Phi_B$ und $\Phi_C$ bijektiv sind,
und linear, da $\Phi_B$ und $\Phi_C$ linear sind. Also ist $A$ ein Isomorphismus. Da auch $F_{m\times n}^{-1}$ ein
Isomorphismus ist, ist folglich auch $M_C^B=F_{m\times n}^{-1}\circ A$.
und linear, da $\Phi_B$ und $\Phi_C$ linear sind (\propref{3_5_8}). Also ist $A$ ein Isomorphismus. Da auch $F_{m\times n}^{-1}$ ein
Isomorphismus ist (\propref{3_5_12}), ist folglich auch $M_C^B=F_{m\times n}^{-1}\circ A$.
\end{proof}
\begin{lemma}
\proplbl{3_6_4}
Sei $U$ ein weitere $K$-VR mit endlicher Basis $D$. Für $f\in \Hom_K(V,W)$ und $g\in \Hom_K(U,V)$ ist
Sei $U$ ein weiterer $K$-Vektorraum mit endlicher Basis $D$. Für $f\in \Hom_K(V,W)$ und $g\in \Hom_K(U,V)$ ist
\begin{align}
M_C^B(f)\cdot M_B^D(g)=M_C^D(f\circ g)\notag
\end{align}
@ -72,8 +72,8 @@ Seien $V,W$ endlichdimensionale $K$-VR mit den Basen $B=(x_1,...,x_n)$ und $C=(y
(m-2-1) edge node [below] {$f\circ g$} (m-2-2)
(m-1-2) edge node [right] {$\Phi_C$} (m-2-2);
\end{tikzpicture}\end{center}
Die Eindeutigkeit impliziert deshalb, dass $F_{m\times n}(M_C^B(f))\circ F_{r\times m}(M_B^D(g))=F_{r\times n}
(M_C^D(f\circ g))$. Da $F_{r\times n}$ injektiv ist, folgt $M_C^B(f)\cdot M_B^D(g)=M_C^D(f\circ g)$.
Die Eindeutigkeit in \propref{3_6_2} impliziert deshalb, dass $F_{m\times n}(M_C^B(f))\circ F_{r\times m}(M_B^D(g))=F_{r\times n}
(M_C^D(f\circ g))$. Da $F_{r\times n}$ injektiv ist, folgt mit \propref{3_5_11} und \propref{3_5_12} $M_C^B(f)\cdot M_B^D(g)=M_C^D(f\circ g)$.
\end{proof}
\begin{conclusion}
@ -82,12 +82,13 @@ Seien $V,W$ endlichdimensionale $K$-VR mit den Basen $B=(x_1,...,x_n)$ und $C=(y
diesem Fall ist $M_B^C(f^{-1})=M_C^B(f)^{-1}$.
\end{conclusion}
\begin{proof}
Sei $A=M_C^B(f)$. $f$ ist genau dann ein Isomorphismus, wenn $f_A$ einer ist, und in diesem Fall ist $m=n$. Zudem ist
$f_A$ genau dann ein Isomorphismus, wenn $A\in \GL_(K)$. Ist $f$ ein Isomorphismus, so ist $M_B^C(f^{-1})\cdot
M_C^B(f)=M_C^C(f^{-1}\circ f)=1_n$, also $M_B^C(f^{-1})=M_C^B(f)^{-1}$.
Sei $A=M_C^B(f)$. Nach \propref{3_6_2} ist $f$ genau dann ein Isomorphismus, wenn $f_A$ einer ist, und in diesem Fall ist $m=n$. Zudem ist
$f_A$ genau dann ein Isomorphismus, wenn $A\in \GL_(K)$ (\propref{3_5_12}). Ist $f$ ein Isomorphismus, so ist $M_B^C(f^{-1})\cdot
M_C^B(f)=M_C^C(f^{-1}\circ f)=1_n$, also $M_B^C(f^{-1})=M_C^B(f)^{-1}$ (\propref{3_6_4}).
\end{proof}
\begin{conclusion}
\proplbl{3_6_6}
Die Abbildung $M_B:=M_B^B$: $\End_K(V)\to \Mat_n(K)$ ist ein Ringisomorphismus, der $\Aut_K(V)$ auf
$\GL_(K)$ abbildet.
\end{conclusion}
@ -114,9 +115,9 @@ Seien $V,W$ endlichdimensionale $K$-VR mit den Basen $B=(x_1,...,x_n)$ und $C=(y
\end{align}
\end{proposition}
\begin{proof}
$f=\id_W\circ f \circ \id_V$ mit den Basen $B',B,C,C'$ und erhält $M_{C'}^{B'}(f)=M_{C'}^C(\id_W)\cdot M_C^B(f)\cdot
$f=\id_W\circ f \circ \id_V$ mit den Basen $B',B,C,C'$ und erhält (\propref{3_6_4}) $M_{C'}^{B'}(f)=M_{C'}^C(\id_W)\cdot M_C^B(f)\cdot
M_B^{B'}(\id_V)=T_{C'}^C\cdot M_C^B(f)\cdot T_B^{B'}$ und $T_B^{B'}=M_B^{B'}(\id_V)=M_B^{B'}(\id_V^{-1})=M_{B'}^B(\id_V)^
{-1}=(T_{B'}^B)^{-1}$.
{-1}=(T_{B'}^B)^{-1}$ nach \propref{3_6_5}.
\end{proof}
\begin{conclusion}

View file

@ -7,6 +7,20 @@ Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
Diese heißt \begriff{homogen}, wenn $b=0$, sonst \begriff{inhomogen} und $L(A,b)=\{x\in K^n\mid Ax=b\}$ ist sein \begriff{Lösungsraum}.
\end{definition}
\begin{mathematica}[Lineare Gleichungssysteme]
Für das Lösen von Linearen Gleichungssystemen gibt es in WolframAlpha bzw. Mathematica verschiedene Verfahren:
\begin{itemize}
\item \texttt{Solve[]}:
\begin{align}
\texttt{Solve[a == 2 b \&\& b == 5 \&\& c + a == b, \{a, b, c\}]}\notag
\end{align}
\item \texttt{LinearSolve[]}: Braucht 2 Argumente: Zum einen die Koeffizientenmatrix $A$ und den Ergebnisvektor $b$. Rückgabe ist dann der Variablenvektor $x$.
\begin{align}
\texttt{LinearSolve[\{\{1, 1\}, \{0, 1\}\}, \{6, 10\}]}\notag
\end{align}
\end{itemize}
\end{mathematica}
\begin{remark}
Ist $A=(a_{ij})$, $b=(b_1,...,b_m)^t$, so schreibt man das Lineare Gleichungssystem $Ax=b$ auch
\begin{align}
@ -56,6 +70,7 @@ Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
\end{proof}
\begin{proposition}
\proplbl{3_9_6}
Sei $A$ in Zeilenstufenform.
\begin{itemize}
\item Ist $b_i\neq 0$ für ein $r<i\le m$, so ist $L(A,b)=\emptyset$.
@ -130,6 +145,13 @@ Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
nach endlich vielen Schritten ab.
\end{proof}
\begin{mathematica}[\person{Gauss}-Verfahren]
Auch für das \person{Gauss}-Verfahren hat Mathematica bzw. WolframAlpha eine Funktion. Sie gibt die Matrix nach Ausführung des \person{Gauss}-Algorithmus zurück.
\begin{align}
\texttt{RowReduce[\{\{1, 4\}, \{2, 5\}\}]}\notag
\end{align}
\end{mathematica}
\begin{conclusion}
Zu jeder Matrix $A$ gibt es eine invertierbare Matrix $S\in \GL_n(K)$ für die $SA$ in Zeilenstufenform ist.
\end{conclusion}
@ -138,10 +160,10 @@ Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
\end{proof}
\begin{remark}
Der Beweis für das Eliminierungsverfahren liefert ein Verfahren, die Elementarmatrizen $E_1,...,E_l$ zu finden.
Der Beweis für das Eliminierungsverfahren (\propref{3_9_11}) liefert ein Verfahren, die Elementarmatrizen $E_1,...,E_l$ zu finden.
Damit erhält man ein Verfahren ein lineares Gleichungssystem zu lösen. Setzt man $S=E_l\cdot ... \cdot E_1$, $A'=SA$ und $b'=Sb$, so
ist $L(A,b)=L(A',b')$: $Ax=b\Rightarrow SAx=Sb$ bzw. $A'x=b' \Rightarrow S^{-1}A'x=S^{-1}b'$. \\
Das Gleichungssystem kann dann gelöst werden. Praktisch führt man die elementaren Zeilenumformungen an $A$ parallel dazu auch an $b$
Das Gleichungssystem kann dann mit \propref{3_9_6} gelöst werden. Praktisch führt man die elementaren Zeilenumformungen an $A$ parallel dazu auch an $b$
durch.
\end{remark}
@ -150,7 +172,7 @@ Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
einer Matrix $A\in \Mat_n(K)$ prüfen und ggf. das Inverse bestimmen: Ist $E_l\cdot ... \cdot E_1\cdot A$ in Zeilenstufenform, so ist $A$
genau dann invertierbar, wenn alle Zeilen von Null verschieden sind. Ist dies der Fall, so ist $r=n$ und $k_i=i$ für alle $i$,
und man findet weitere Elementarmatrizen $E_{l+1},...,E_s$ vom Typ I und II, für die $E_s\cdot ... \cdot E_1\cdot A=1_n$. Dann ist
$S'=E_s\cdot ... \cdot E_1\cdot A=A^{-1}$. Praktisch erhält man $A^{-1}$, indem man die Zeilenumformungen an $A$ parallel dazu
$S'=E_s\cdot ... \cdot E_1\cdot A=A^{-1}$ (vgl. \propref{3_8_11}). Praktisch erhält man $A^{-1}$, indem man die Zeilenumformungen an $A$ parallel dazu
auch an $1_n$ ausführt.
\end{remark}

View file

@ -87,6 +87,14 @@ Sei $V$ ein $K$-Vektorraum.
\end{itemize}
\end{definition}
\begin{mathematica}[Lineare Unabhängigkeit]
In WolframAlpha kann man mittels
\begin{align}
\texttt{linear independence (1,2,3), (4,5,6)}\notag
\end{align}
überprüfen, ob die Vektoren $(1,2,3)^T$ und $(4,5,6)^T$ linear unabhängig sind.
\end{mathematica}
\begin{remark}
\begin{itemize}
\item Offenbar hängt die Bedingung (*) nicht von der Reihenfolge der $x_1,...,x_n$ ab und ist $(x_1,...,x_k)$ linear

View file

@ -111,7 +111,7 @@ Wir werden die Grundlagen der Logik und der Mengenlehre kurz ansprechen.
\end{example}
\begin{example}[leere Menge]
Es gibt genau eine Menge, die keine Elemente hat, die leere Menge $0 := \{\}$.
Es gibt genau eine Menge, die keine Elemente hat, die leere Menge $\emptyset := \{\}$.
\end{example}
@ -154,4 +154,4 @@ Sind $X$ und $Y$ endliche Mengen, so gilt:
\begin{itemize}
\item $|X \times Y| = |X| \cdot |Y|$
\item $|\mathcal P(X)| = 2^{|X|}$
\end{itemize}
\end{itemize}

View file

@ -20,6 +20,19 @@ Sei $K$ ein Körper.
\begriff[Matrix!]{transponierte Matrix} $A^t := (a_{ij})_{j,i} \in \Mat_{n\times m}(K)$.
\end{definition}
\begin{mathematica}[Matrizen]
Matrizen werden in Mathematica bzw. WolframAlpha folgendermaßen dargestellt:
\begin{align}
&\begin{pmatrix}1&2&3\\4&5&6\\7&8&9\end{pmatrix}\notag \\
\Rightarrow&\Big\lbrace\texttt{\{1,2,3\},\{4,5,6\},\{7,8,9\}}\Big\rbrace\notag
\end{align}
Wenn Mathematica als Ergebnis eine Matrix ausgibt, so lässt sich diese als Zeile schlecht lesen. Mit dem Suffix \texttt{//MatrixForm} lässt sich der Output als Matrix formatieren:
\begin{align}
&\texttt{\{\{1,2,3\},\{4,5,6\},\{7,8,9\}\}*3 //MatrixForm}\notag \\
\Rightarrow&\begin{pmatrix}3&6&9\\12&15&18\\21&24&27\end{pmatrix}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{itemize}
\item Die \begriff{Nullmatrix} ist $0=(0)_{i,j} \in \Mat_{m\times n}(K)$.
@ -39,9 +52,17 @@ Sei $K$ ein Körper.
$\lambda \in K$. Man definiert auf $\Mat_{m\times n}(K)$ eine koeffizientenweise \begriff[Matrix!]{Addition} und \begriff[Matrix!]{Skalarmultiplikation}.
\end{definition}
\begin{mathematica}[Matrizenoperationen]
Die komponentenweise Addition bzw. Skalarmultiplikation von Matrizen $A$ und $B$ lässt sich in Mathematica bzw. WolframAlpha folgendermaßen realisieren:
\begin{align}
\texttt{A+B}\notag \\
\texttt{A*B}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{3_1_4}
$(\Mat_{m\times n},+,\cdot)$ ist ein $K$-VR der Dimension $\dim_K(\Mat_{m\times n})=n\cdot m$ mit
$(\Mat_{m\times n},+,\cdot)$ ist ein $K$-Vektorraum der Dimension $\dim_K(\Mat_{m\times n})=n\cdot m$ mit
Basismatrix als Basis.
\end{proposition}
\begin{proof}
@ -55,6 +76,13 @@ Sei $K$ ein Körper.
$c_{ik}=\sum_{j=1}^n a_{ij}\cdot b_{jk}$. Kurz geschrieben "'Zeile $\cdot$ Spalte"'.
\end{definition}
\begin{mathematica}[Matrizenmultiplikation]
Die Matrizenmultiplikation in Mathematica und WolframAlpha für Matrizen $A$ und $B$ geht so:
\begin{align}
\texttt{A.B}\text{ oder }\texttt{Dot[A,B]}\notag
\end{align}
\end{mathematica}
\begin{example}
\proplbl{3_1_6}
\begin{itemize}
@ -127,7 +155,16 @@ Sei $K$ ein Körper.
-Matrizen heißt \begriff{allgemeine Gruppe}.
\end{definition}
\begin{mathematica}[Matizen invertieren]
Das Inverse einer Matrix $A$ in Mathematica bzw. WolframAlpha lässt sich mit der Funktion
\begin{align}
\texttt{Inverse[A]}\notag
\end{align}
berechnen.
\end{mathematica}
\begin{example}
\proplbl{3_1_13}
Sei $n=2$. Zu
\begin{align}
A=\begin{pmatrix}a & b\\c & d\\\end{pmatrix} \in \Mat_2(K)\notag

View file

@ -32,6 +32,7 @@ Seien $m,n\in \mathbb N$.
\end{definition}
\begin{lemma}
\proplbl{4_3_2}
Sei $A\in \Mat_n(R)$ mit Spalten $a_1,...,a_n$. Für $i,j\in \{1,..,n\}$ gilt:
\begin{itemize}
\item $\det(A_{ij})=(-1)^{i+j}\cdot \det(A'_{ij})$
@ -44,7 +45,7 @@ Seien $m,n\in \mathbb N$.
\begin{align}
\det(A_{ij})&=(-1)^{(i-1)+
(j-1)} \cdot \det(\begin{pmatrix}1&0&...&0 \\ 0 & \; & \; & \; \\ \vdots & \; & A'_{ij} & \; \\ 0 & \; & \; & \; \\ \end{pmatrix})\notag \\
&=(-1)^{i+j}\cdot \det(\mathbbm{1}_n)\cdot \det(A'_{ij})\notag
&\overset{\propref{4_2_9}}{=}(-1)^{i+j}\cdot \det(\mathbbm{1}_n)\cdot \det(A'_{ij})\notag
\end{align}
\item Man erhält $A_{ij}$ aus $(a_1,...,e_i,...,a_n)$ durch elementare Spaltenumformungen vom Typ II.
\end{itemize}
@ -58,13 +59,21 @@ Seien $m,n\in \mathbb N$.
\end{align}
\end{proposition}
\begin{proof}
$(A^\#A)_{ij}=\sum_{k=1}^n a^\#_{ik}\cdot a_{kj}=\sum_{k=1}^n a_{kj}\cdot \det(A_{kj})=\sum_{k=1}^n a_{kj}\cdot
\det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n)=\det(a_1,...,a_{i-1},\sum_{k=1}^n a_{kj}e_k,a_{i+1},...,a_n) = \det(a_1,...,a_{i-1},a_j,
a_{i+1},...,a_n)=\delta_{ij}\cdot \det(A)=(\det(A)\cdot \mathbbm{1}_n)_{ij}$. Analog bestimmt man die Koeffizienten von $AA^\#$, wobei man
\begin{align}
(A^\#A)_{ij}&=\sum_{k=1}^n a^\#_{ik}\cdot a_{kj} \notag \\
&=\sum_{k=1}^n a_{kj}\cdot \det(A_{kj}) \notag \\
&\overset{\propref{4_3_2}}{=}\sum_{k=1}^n a_{kj}\cdot \det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n) \notag \\
&=\det(a_1,...,a_{i-1},\sum_{k=1}^n a_{kj}e_k,a_{i+1},...,a_n) \notag \\
&= \det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n) \notag \\
&=\delta_{ij}\cdot \det(A) \notag \\
&=(\det(A)\cdot \mathbbm{1}_n)_{ij} \notag
\end{align}
Analog bestimmt man die Koeffizienten von $AA^\#$, wobei man
$\det(A_{jk})=\det(A_{jk}^t)=\det((A^t)_{kj})$ benutzt.
\end{proof}
\begin{conclusion}
\proplbl{4_3_4}
Es ist $\GL_n(R)=\{A\in \Mat_n(R) \mid \det(A)\in R^{\times}\}$ und für $A\in \GL_n(R)$ ist $A^{-1}=
\frac{1}{\det(A)}\cdot A^\#$.
\end{conclusion}
@ -81,8 +90,13 @@ Seien $m,n\in \mathbb N$.
Gleiches gilt auch für Spalten.
\end{proposition}
\begin{proof}
$\det(A)=(AA^\#)_{ij}=\sum_{j=1}^n a_{ij}\cdot a^\#_{ij} = \sum_{j=1}^n a_{ij}\cdot \det(A_{ij})=\sum_
{j=1}^n a_{ij}\cdot (-1)^{i+j}\cdot \det(A'_{ij})$. Analog auch für Spalten.
Nach \propref{4_3_3} ist
\begin{align}
\det(A)=(AA^\#)_{ij}&=\sum_{j=1}^n a_{ij}\cdot a^\#_{ij} \notag \\
&= \sum_{j=1}^n a_{ij}\cdot \det(A_{ij}) \notag \\
&=\sum_{j=1}^n a_{ij}\cdot (-1)^{i+j}\cdot \det(A'_{ij}) \notag
\end{align}
Analog auch für Spalten.
\end{proof}
\begin{proposition}[\person{Cramer}'sche Regel]
@ -93,9 +107,13 @@ Seien $m,n\in \mathbb N$.
\end{align}
\end{proposition}
\begin{proof}
$x_i=(A^{-1}b)_i=\sum_{j=1}^n (A^{-1})_{ij}\cdot b_j=\frac{1}{\det(A)}\cdot \sum_{j=1}^n a^\#_{ij}\cdot b_j =
\frac{1}{\det(A)}\cdot \sum_{j=1}^n b_j\cdot \det(a_1,...,a_{i-1},e_i,a_{i+1},...,a_n)=\frac{1}{\det(A)}\cdot \det(a_1,...,
a_{i-1},b_j,a_{i+1},...,a_n)$.
\begin{align}
x_i&=(A^{-1}b)_i \notag \\
&=\sum_{j=1}^n (A^{-1})_{ij}\cdot b_j \notag \\
&\overset{\propref{4_3_4}}{=}\frac{1}{\det(A)}\cdot \sum_{j=1}^n a^\#_{ij}\cdot b_j \notag \\
&\overset{\propref{4_3_2}}{=} \frac{1}{\det(A)}\cdot \sum_{j=1}^n b_j\cdot\det(a_1,...,a_{i-1},e_i,a_{i+1},...,a_n) \notag \\
&=\frac{1}{\det(A)}\cdot \det(a_1,...,a_{i-1},b_j,a_{i+1},...,a_n) \notag
\end{align}
\end{proof}
\begin{definition}[Minor]

View file

@ -33,7 +33,7 @@ $\newline$
Mit diesen Verknüpfungen wird $R[X]$ zu einem kommutativen Ring mit Einselement. Diesen Ring nennt man
Polynomring (in einer Variablen $X$) über $R$. Ein $(a_k)_{k \in \mathbb N_0} \in R[X]$ heißt Polynom mit
den Koeffizienten $a_0,...,a_n$. Wenn wir $a \in R$ mit der Folge $(a,0,0,...,0) := (a,\delta_{k,0})_{k \in \mathbb N_0}$
identifizieren, wird $R$ zu einem Unterrring von $R[X]$.
identifizieren, wird $R$ zu einem Unterring von $R[X]$.
$\newline$
Definiert man $X$ als die Folge $(0,1,0,..,0) := (\delta_{k,1})_{k \in \mathbb N_0}$ (die Folge hat an der $k$-ten
@ -56,7 +56,7 @@ man $f$ \begriff[Polynom!]{konstant}, \begriff[Polynom!]{linear} bzw. \begriff[P
\begin{proposition}
Seien $f,g \in R[X]$
\begin{itemize}
\item Es ist $\deg(f+g)\le max\{\deg(f), \deg(g)\}$.
\item Es ist $\deg(f+g)\le \max\{\deg(f), \deg(g)\}$.
\item Es ist $\deg(f\cdot g) \le \deg(f)+\deg(g)$.
\item Ist $R$ nullteilerfrei, so ist $\deg(f\cdot g) = \deg(f)+\deg(g)$ und auch $R[X]$ ist nullteilerfrei.
\end{itemize}

View file

@ -1,6 +1,6 @@
\section{Quotientenräume}
Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
Seien $V,W$ $K$-Vektorräume und $U\subseteq V$ ein Untervektorraum.
\begin{definition}[affiner Unterraum]
Ein \begriff{affiner Unterraum} von $V$ ist eine Teilmenge der Form
@ -11,6 +11,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\end{definition}
\begin{lemma}
\proplbl{3_7_2}
Für $x,x'\in V$ sind äquivalent:
\begin{itemize}
\item $x+U=x'+U$
@ -48,7 +49,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $x_1+U=x'_1+U$, $x_2+U=x'_2+U\Rightarrow x'_1-x_1,x'_2-x_2\in U\Rightarrow (x'_1+x'_2)-(x_1+x_2)=(x'_1-x_1)-(x'_2-x_2)\in U
\item $x_1+U=x'_1+U$, $x_2+U=x'_2+U\Rightarrow x'_1-x_1,x'_2-x_2\in U\text{ \propref{3_7_2} }\Rightarrow (x'_1+x'_2)-(x_1+x_2)=(x'_1-x_1)-(x'_2-x_2)\in U
\Rightarrow (x_1+x_2)+U=(x'_1+x'_2)+U$
\item $x_1+U=x'_1+U\Rightarrow x'_1-x_1\in U\Rightarrow \lambda x'_1-\lambda x_1\in U\Rightarrow \lambda x'_1+U=\lambda x_1+U$
\end{itemize}
@ -66,7 +67,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\end{definition}
\begin{proposition}
Der Quotientenraum \qraum{$V$}{$U$} ist ein $K$-VR und $\pi_U$ ein Epimorphismus mit Kern $U$.
Der Quotientenraum \qraum{$V$}{$U$} ist ein $K$-Vektorraum und $\pi_U$ ein Epimorphismus mit Kern $U$.
\end{proposition}
\begin{proof}
\begin{itemize}
@ -76,7 +77,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\item neutrales Element: $0+U=U$
\item inverses Element: $-(x+U)=(-x)+U$
\end{itemize}
\item $($\qraum{$V$}{$U$}$,+)$ ist $K$-VR: (V2) überträgt sich von $(V,+,\cdot)$
\item $($\qraum{$V$}{$U$}$,+)$ ist $K$-Vektorraum: (V2) überträgt sich von $(V,+,\cdot)$
\item $\pi_U$ surjektiv: nach Definition von \qraum{$V$}{$U$}
\item $\pi_U$ linear: nach Definition von $+$ und $\cdot$ auf \qraum{$V$}{$U$}
\item $\Ker(\pi_U)=\{x\in V \mid x+U=U\}=\{x\in V \mid x\in 0+U\}=U$
@ -116,6 +117,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\end{proof}
\begin{conclusion}
\proplbl{3_7_10}
Für $f\in \Hom_K(V,W)$ ist $\Image(f)\cong $\qraum{$V$}{$\Ker(f)$}. Insbesondere gilt: Ist $f$ ein Epimorphismus, so
ist $W\cong $\qraum{$V$}{$\Ker(f)$}.
\end{conclusion}
@ -142,11 +144,12 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
Ist $\dim_K(V)<\infty$, so ist $\dim_K($\qraum{$V$}{$U$}$)=\dim_K(V)-\dim_K(U)$.
\end{conclusion}
\begin{proof}
Es existiert ein lineares Komplement $U'$ zu $U$ in $V$ (d.h. $V=U\oplus U'$) und $\dim_K(U')=\dim_K(V)-\dim_K(U)$. Es gilt \qraum{$V$}
Nach \propref{2_4_10} existiert ein lineares Komplement $U'$ zu $U$ in $V$ (d.h. $V=U\oplus U'$) und $\dim_K(U')=\dim_K(V)-\dim_K(U)$. Es gilt \qraum{$V$}
{$U$}=$U'$.
\end{proof}
\begin{conclusion}
\proplbl{3_7_13}
Ist $\dim_K(V)<\infty$ und $f\in \Hom_K(V,W)$, so ist $\dim_K(V)=\dim_K(\Ker(f))+\dim_K(\Image(f))$.
\end{conclusion}
\begin{proof}
@ -154,6 +157,7 @@ Seien $V,W$ $K$-VR und $U\subseteq V$ ein Untervektorraum.
\end{proof}
\begin{conclusion}
\proplbl{3_7_14}
Ist $\dim_K(V)<\infty$ und $f\in \End_K(V)$, so sind äquivalent:
\begin{itemize}
\item $f\in \Aut_K(V)$

View file

@ -1,18 +1,19 @@
\section{Rang}
Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
Seien $V,W$ zwei endlichdimensionale $K$-Vektorräume und $f\in \Hom_K(V,W)$.
\begin{definition}[Rang]
Der \begriff{Rang} von $f$ ist $\rk(f)=\dim_K(\Image(f))$.
\end{definition}
\begin{remark}
Es ist $\rk(f)=\dim_K(V)-\dim_K(\Ker(f))$. Also ist $f$ genau dann injektiv, wenn $\rk(f)=\dim_K(V)$. Auch sehen wir,
Nach \propref{3_7_13} ist $\rk(f)=\dim_K(V)-\dim_K(\Ker(f))$. Also ist $f$ genau dann injektiv, wenn $\rk(f)=\dim_K(V)$. Auch sehen wir,
dass $\rk(f)\le \min\{\dim_K(V),\dim_K(W)\}$.
\end{remark}
\begin{lemma}
Sei $U$ ein weiterer endlichdimensionaler $K$-VR und $g\in \Hom_K(U,V)$.
\proplbl{3_8_3}
Sei $U$ ein weiterer endlichdimensionaler $K$-Vektorraum und $g\in \Hom_K(U,V)$.
\begin{itemize}
\item Ist $g$ surjektiv, dann ist $\rk(f\circ g)=\rk(f)$.
\item Ist $f$ injektiv, dann ist $\rk(f\circ g)=\rk(g)$.
@ -23,6 +24,7 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
\end{proof}
\begin{proposition}
\proplbl{3_8_4}
Sei $r\in \mathbb N_0$. Genau dann ist $\rk(f)=r$, wenn es $B$ von $V$ und $C$ von $W$ gibt, für die
\begin{align}
M_C^B(f)=E_r&=\sum_{i=1}^r E_{ii}\notag \\
@ -41,8 +43,8 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
\item Rückrichtung: Ist $M_C^B(f)=E_r$ und $C=(y_1,...,y_n)$, so ist $\Image(f)=\Span_K(y_1,...,y_r)$, also $\rk(f)=r$.
\item Hinrichtung: Sei $r=\rk(f)$. Setze $U=\Ker(f)$ und $W=\Image(f)$. Wähle Basis $(y_1,...,y_r)$ und ergänze diese zu einer Basis $C$ von
$W$. Wähle für $i=1,...,r$ ein $x_i\in f^{-1}(y_i)$. Dann ist $(x_1,...,x_r)$ linear unabhängig und mit $U'=\Span_K(x_1,...,x_r)$ ist
$f|_{U'}:U'\to W_0$ ein Isomorphismus. Insbesondere ist $U\cap U'=\{0\}$ und es folgt $V=U\oplus U'$. Ist also $(x_{r+1},...,x_n)$
eine Basis von $U$, so ist $B=(x_1,...,x_n)$ eine Basis von $V$. Diese Basis erfüllt $M_C^B(f)=E_r$.
$f|_{U'}:U'\to W_0$ ein Isomorphismus nach \propref{3_5_1}. Insbesondere ist $U\cap U'=\{0\}$ und mit \propref{3_7_11} folgt $V=U\oplus U'$. Ist also $(x_{r+1},...,x_n)$
eine Basis von $U$, so ist $B=(x_1,...,x_n)$ eine Basis von $V$ (\propref{2_4_9}). Diese Basis erfüllt $M_C^B(f)=E_r$.
\end{itemize}
\end{proof}
@ -51,7 +53,15 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
die durch $A$ beschriebene lineare Abbildung ist.
\end{definition}
\begin{mathematica}[Rang einer Matrix]
Auch für den Rang einer Matrix $A$ hat Mathematica bzw. WolframAlpha eine Funktion
\begin{align}
\texttt{MatrixRank[A]}\notag
\end{align}
\end{mathematica}
\begin{remark}
\proplbl{3_8_6}
Sei $A=(a_{ij})\in \Mat_{m\times n}(K)$. Man fasst die Spalten $a_j=(a_{1j},...,a_{mj})^t$ als Elemente des $K^m$ auf
und definiert den Spaltenraum $\SR(A)=\Span_K(a_1,...,a_n)\subseteq K^m$. Entsprechend definiert man den Zeilenraum $\ZR(A)=\Span_K(
\tilde a_1^t,..,\tilde a_m^t)\subseteq K^n$. Es ist $\Image(f_A)=\SR(A)$ und folglich $\rk(A)=\dim_K(\SR(A))$. Außerdem ist $\SR(A^t)=\ZR(A)$
@ -63,7 +73,7 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
Ist $A\in \Mat_{m\times n}(K)$, $S\in \GL_m(K)$, $T\in \GL_n(K)$, so ist $\rk(SAT)=\rk(A)$.
\end{lemma}
\begin{proof}
$\rk(SAT)=\rk(f_{SAT})=\rk(f_S\circ f_A\circ f_T)=\rk(f_A)=\rk(A)$, da $f_S$ und $f_T$ bijektiv sind.
$\rk(SAT)=\rk(f_{SAT})=\rk(f_S\circ f_A\circ f_T)=\rk(f_A)=\rk(A)$, da $f_S$ und $f_T$ bijektiv sind (\propref{3_8_3}).
\end{proof}
\begin{proposition}
@ -71,23 +81,25 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
Für jedes $A\in \Mat_{m\times n}(K)$ gibt es $S\in \GL_m(K)$ und $T\in \GL_n(K)$ mit $SAT=E_r$, wobei $r=\rk(A)$.
\end{proposition}
\begin{proof}
Es gibt Basen $B$ von $K^n$ und $C$ von $K^m$ mit $M_C^B(f_A)=E_r$. Mit den Standardbasen $E_n$ bzw. $E_m$ gilt: $M_C^B(f_A)=T_C^{E_m}
Es gibt Basen $B$ von $K^n$ und $C$ von $K^m$ mit $M_C^B(f_A)=E_r$ (\propref{3_8_4}). Mit den Standardbasen $E_n$ bzw. $E_m$ gilt: $M_C^B(f_A)=T_C^{E_m}
\cdot M_{E_m}^{E_n}(f_A)\cdot (T_B^{E_n})^{-1}=SAT$ mit $S=T_C^{E_m}\in \GL_m(K)$ und $T=(T_B^{E_n})^{-1}\in \GL_n(K)$.
\end{proof}
\begin{conclusion}
\proplbl{3_8_9}
Seien $A,B\in \Mat_{m\times n}(K)$. Genau dann gibt es $S\in \GL_m(K)$ und $T\in \GL_n(K)$ mit $B=SAT$, wenn
$\rk(A)=\rk(B)$.
\end{conclusion}
\begin{proof}
\begin{itemize}
\item Hinrichtung: \propref{3_8_7}
\item Rückrichtung: $r=\rk(A)=\rk(B)\Rightarrow$ es gibt $S_1,S_2\in \GL_m(K)$ und $T_1,T_2\in \GL_n(K)$ mit $S_1AT_1=E_r=S_2BT_2 \Rightarrow
\item Rückrichtung: $r=\rk(A)=\rk(B)\Rightarrow$ Nach \propref{3_8_8} gibt $S_1,S_2\in \GL_m(K)$ und $T_1,T_2\in \GL_n(K)$ mit $S_1AT_1=E_r=S_2BT_2 \Rightarrow
B=S_2^{-1}\cdot SAT_1\cdot T_2^{-1}$.
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{3_8_10}
Für $A\in \Mat_{m\times n}(K)$ ist $\rk(A)=\rk(A^t)$, anders gesagt: $\dim_K(\SR(A))=\dim_K(\ZR(A))$.
\end{proposition}
\begin{proof}
@ -96,6 +108,7 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
\end{proof}
\begin{conclusion}
\proplbl{3_8_11}
Für $A\in \Mat_n(K)$ sind äquivalent:
\begin{itemize}
\item $A\in \GL_n(K)$, d.h. es gibt $S\in \GL_n(K)$ mit $SA=AS=1_n$
@ -108,8 +121,10 @@ Seien $V,W$ zwei endlichdimensionale $K$-VR und $f\in \Hom_K(V,W)$.
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $1\iff 2$: $A\in \GL_n(K)\iff f_A\in Aut_K(K^n)\iff f_A$ surjektiv $\iff \rk(f_A)=n\iff \rk(A)=n$
\item $4\iff 2 \iff 3$
\item $1\Rightarrow 5,6 \Rightarrow 2$
\item $(1)\iff (2)$: \propref{3_5_11} und \propref{3_7_14}
\item $(2)\iff (3)$: \propref{3_8_6}
\item $(2)\iff (4)$: \propref{3_8_6} und \propref{3_8_10}
\item $(1)\iff (5)\land (6)$: trivial
\item $(5)\land (6)\iff (2)$: \propref{3_8_9}
\end{itemize}
\end{proof}

View file

@ -4,10 +4,12 @@
Ein \begriff{Ring} ist ein Tripel $(R,+,\cdot)$ bestehend aus einer Menge
$R$, einer Verknüpfung $+: R \times R \to R$ (Addition) und einer anderen Verknüpfung
$\cdot: R \times R \to R$ (Multiplikation), sodass diese zusammen die folgenden Axiome
erfüllen: \\
(R1) $(R,+)$ ist eine abelsche Gruppe. \\
(R2) $(R,\cdot)$ ist eine Halbgruppe. \\
(R3) Für $a,x,y \in R$ gelten die Distributivgesetze $a(x+y)=ax+ay$ und $(x+y)a=xa+ya$. \\
erfüllen:
\begin{itemize}
\item (R1) $(R,+)$ ist eine abelsche Gruppe.
\item (R2) $(R,\cdot)$ ist eine Halbgruppe.
\item (R3) Für $a,x,y \in R$ gelten die Distributivgesetze $a(x+y)=ax+ay$ und $(x+y)a=xa+ya$.
\end{itemize}
Ein Ring heißt kommutativ, wenn $xy=yx$ für alle $x,y \in R$.\\
Ein neutrales Element der Multiplikation heißt Einselement von $R$.\\
Ein Unterring eines Rings $(R,+,\cdot)$ ist eine Teilmenge, die mit der geeigneten
@ -46,7 +48,7 @@
\end{remark}
\begin{theorem}
\proplbl{ring_theorem_1}
\proplbl{1_4_6}
Sei $b \neq 0 \in \mathbb{Z}$. Für jedes $a \in \mathbb{Z}$ gibt es
eindeutig bestimmte $q,r \in \mathbb{Z}$ ($r$ ist "'Rest"'), mit $a=qb+r$ und $0 \le r < \vert b\vert$.
\end{theorem}
@ -82,7 +84,7 @@
Insbesondere besteht $a+n\mathbb{Z}$ nur aus den ganzen Zahlen, die bei der Division durch $n$ den selben Rest lassen wie $a$.
\end{proof}
Aus \propref{ring_theorem_1} folgt weiter, dass $\mathbb{Z}/n\mathbb{Z} := \{\overline{a} \mid a \in \mathbb{Z}\}
Aus \propref{1_4_6} folgt weiter, dass $\mathbb{Z}/n\mathbb{Z} := \{\overline{a} \mid a \in \mathbb{Z}\}
= \{\overline{0}, \overline{1},..., \overline{n-1}\}$ eine Menge der Mächtigkeit n ist (sprich:
"'$\mathbb{Z} \bmod n\mathbb{Z}$"'). \\
$\newline$

View file

@ -73,6 +73,7 @@ Sei $V$ ein $K$-Vektorraum und $(W_i)$ eine Familie von Untervektorräumen von $
\end{conclusion}
\begin{proposition}
\proplbl{2_4_9}
Sind $W_1,W_2$ Untervektorräume von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
I_2 = \emptyset$, so sind äquivalent:
\begin{itemize}
@ -95,6 +96,7 @@ Sei $V$ ein $K$-Vektorraum und $(W_i)$ eine Familie von Untervektorräumen von $
\end{proof}
\begin{conclusion}
\proplbl{2_4_10}
Ist $\dim_K(V)<\infty$, so ist jeder Untervektorraum ein direkter Summand: Ist $W$ ein Untervektorraum von $V$, so
gibt es einen Untervektorraum $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
ist

View file

@ -0,0 +1,19 @@
Schön, dass du unser Skript für die Vorlesung \textit{Lineare Algebra und analytische Geometrie 1} bei Prof. Dr. Arno Fehm im WS2017/18 gefunden hast! \footnote{Obwohl man sagen kann, dass es in dieser Vorlesung nur um Lineare Algebra ging, der Teil mit der analytischen Geometrie wurde vernachlässigt. Liegt wahrscheinlich auch daran, dass es demnächst eine Reform der Studienordnung gibt, in der aus der Vorlesung \textit{Lineare Algebra und analytische Geometrie} die Vorlesung \textit{Einführung in die Lineare Algebra} wird.}
Wir verwalten dieses Skript mittels Github \footnote{Github ist eine Seite, mit der man Quelltext online verwalten kann. Dies ist dahingehend ganz nützlich, dass man die Quelltext-Dateien relativ einfach miteinander synchronisieren kann, wenn man mit mehren Leuten an einem Projekt arbeitet.}, d.h. du findest den gesamten \LaTeX-Quelltext auf \url{https://github.com/henrydatei/TUD_MATH_BA}. Unser Ziel ist, für alle Pflichtveranstaltungen von \textit{Mathematik-Bachelor} ein gut lesbares Skript anzubieten. Für die Programme, die in den Übungen zur Vorlesung \textit{Programmieren für Mathematiker} geschrieben werden sollen, habe ich ein eigenes Repository eingerichtet; es findet sich bei \url{https://github.com/henrydatei/TU_PROG}.
Du kannst dir gerne dort die \LaTeX-Quelldateien herunterladen, die Dateien für exakt dieses Skript sind im Ordner \texttt{1. Semester/LAAG ueberarbeitet}. Es lohnt sich auf jeden Fall während des Studiums die Skriptsprache \LaTeX{} zu lernen, denn Dokumente, die viele mathematische oder physikalische Formeln enthalten, lassen sich sehr gut mittels \LaTeX{} darstellen, in Word oder anderen Office-Programmen sieht so etwas dann eher dürftig aus.
\LaTeX{} zu lernen ist gar nicht so schwierig, ich habe dafür am Anfang des ersten Semesters wenige Wochen benötigt, dann kannte ich die wichtigsten Befehle und konnte den Vorgänger dieses Skriptes schreiben (\texttt{1. Semester/LAAG}, Vorsicht: hässlich, aber der Quelltext ist relativ gut verständlich).
Es sei an dieser Stelle darauf hingewiesen (wie in jedem anderem Skript auch \smiley{}), dass dieses Skript nicht den Besuch der Vorlesungen ersetzen kann. Es könnte sein, dass Prof. Fehm seine Vorlesung immer mal wieder an die Studenten anpasst; wahrscheinlich immer dann, wenn die Prüfungsergebnisse zu schlecht waren. Nichtsdestotrotz veröffentlicht Prof. Fehm sein Skript auf seiner Homepage \url{http://www.math.tu-dresden.de/~afehm/lehre.html}. Allerdings ist dieses Skript recht hässlich, besonders was die Übersichtlichkeit angeht.
Wir möchten deswegen ein Skript bereitstellen, dass zum einen übersichtlich ist, zum anderen \textit{alle} Inhalt aus der Vorlesung enthält, das sind insbesondere Diagramme, die sich nicht im offiziellen Skript befinden, aber das Verständnis des Inhalts deutlich erleichtern. Ich denke, dass uns dies erfolgreich gelungen ist.
Trotz intensivem Korrekturlesen können sich immer noch Fehler in diesem Skript befinden. Es wäre deswegen ganz toll von dir, wenn du auf unserer Github-Seite \url{https://github.com/henrydatei/TUD_MATH_BA} ein neues Issue erstellst und damit auch anderen hilfst, dass dieses Skript immer besser wird.
Und jetzt viel Spaß bei \textit{Lineare Algebra und analytische Geometrie}!
\begin{flushright}
Henry, Pascal und Daniel
\end{flushright}

View file

@ -5,20 +5,23 @@
\usepackage[onehalfspacing]{setspace}
\ifpdf
\usepackage[utf8]{inputenc} %not recommended with lualatex
\usepackage[T1]{fontenc}
%\usepackage[T1]{fontenc}
\usepackage{chngcntr}
\fi
\usepackage{zref-base}
\usepackage{etoolbox}
\usepackage{xparse}%better macros
\usepackage{chngcntr}
\usepackage{calc}
\usepackage{xstring}
\usepackage[bb=boondox]{mathalfa} %spezielle Null mit \mathbb{0}, sollte auch mit 1 klappen, aber dafür haben wir \mathbbm{1}
\usepackage{scalerel,stackengine}
\usepackage{tocloft}
\ifluatex
\usepackage{fontspec}
\usepackage{eufrac}
%awesome package for debugging spacing issues
%\usepackage{lua-visual-debug}
%\usepackage{luacode}
@ -52,8 +55,10 @@
\usepgfplotslibrary{fillbetween}
\usepackage{pgf}
\usepackage{tikz}
\usetikzlibrary{patterns,arrows,calc,decorations.pathmorphing}
\usetikzlibrary{patterns,arrows,calc,decorations.pathmorphing,backgrounds, positioning,fit,petri}
\usetikzlibrary{matrix}
\usetikzlibrary{arrows,cd} % for commutative diagrams
\usetikzlibrary{babel}
\usepackage{color}
\usepackage{wasysym}
\usepackage{tcolorbox}
@ -82,7 +87,7 @@
citecolor=green,
filecolor=green,
linkcolor=blue,
urlcolor=green
urlcolor=blue
}
\usepackage{cleveref}
\usepackage{bookmark}
@ -200,19 +205,20 @@
innerleftmargin=10pt,%
]{*example}{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel}
\newmdtheoremenv[%
outerlinewidth=3pt,%
linecolor=black,%
topline=false,%
rightline=false,%
bottomline=false,%
leftline=false,
innertopmargin=0pt,%
innerbottommargin=-0pt,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
skipbelow=10pt,%
]{overview}[theorem]{Überblick}
%\newmdtheoremenv[%
% outerlinewidth=3pt,%
% linecolor=black,%
% topline=false,%
% rightline=false,%
% bottomline=false,%
% leftline=false,
% innertopmargin=0pt,%
% innerbottommargin=-0pt,%
% frametitlefont=\normalfont\bfseries\color{black},%
% skipabove=5pt,%
% skipbelow=10pt,%
%]{overview}[theorem]{Überblick}
\newtheorem{overview}[theorem]{Überblick}
\newmdtheoremenv[%
style=boxedtheorem,%
@ -225,6 +231,17 @@
backgroundcolor=lightgrey,%
]{*anmerkung}{Anmerkung}
\newmdtheoremenv[%
style=boxedtheorem,%
topline=false,%
rightline=false,%
leftline=false,
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
]{mathematica}{Mathematica/WolframAlpha-Befehle}
%Hinweis-Theoremstyle and environment
%To get rid of the parentheses, a new theorem style is neccessary (definition of nonumberbreak from ntheorem.sty)
%to achieve the underlining, this needed to put in the theoremstyle definition
@ -329,7 +346,7 @@
\ifnumcomp{\value{chapter}}{=}{\zref@extractdefault{#1@chapter}{default}{0}}%
{%same chapter
\ifmmode
\cref{#1}%
\ref{#1}%
\else
\mbox{\cref{#1}}%
\fi
@ -342,7 +359,7 @@
\csname cref@\propositionref@current@type @name\endcsname ~##2\rom{\zref@extractdefault{#1@chapter}{default}{1}}.##1##3%
}%
\ifmmode
\cref{#1}%
\ref{#1}%
\else
\mbox{\cref{#1}}%
\fi
@ -360,7 +377,7 @@
\IfBooleanTF{#1}%
{\index{#2#3#4}}%
{%
\uline{#3}%
\uline{#3} %
\index{#2#3#4}%
}%
}
@ -535,8 +552,11 @@
\DeclareMathOperator{\diam}{diam}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\Aff}{Aff}
\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\Hom}{Hom}
\DeclareMathOperator{\Abb}{Abb}
\DeclareMathOperator{\Bil}{Bil}
\DeclareMathOperator{\Eig}{Eig}
\DeclareMathOperator{\Mat}{Mat}
\DeclareMathOperator{\Ker}{Ker}
@ -549,7 +569,6 @@
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\Span}{span}
\DeclareMathOperator{\Image}{Im}
\DeclareMathOperator{\Abb}{Abb}
\DeclareMathOperator{\Sym}{Sym}
\DeclareMathOperator{\Hau}{Hau}
\DeclareMathOperator{\pr}{pr}
@ -558,6 +577,8 @@
\DeclareMathOperator{\Uni}{U}
\DeclareMathOperator{\SU}{SU}
\DeclareMathOperator{\SL}{SL}
\DeclareMathOperator{\ggT}{ggT}
\DeclareMathOperator{\kgV}{kgV}
%change headings:
\titlelabel{\thetitle.\quad}%. behind section/sub... (3. instead of 3)
@ -611,7 +632,7 @@
\markright{\thesection.\ #1}{}}
%change numbering of equations to be section by section
%\counterwithout{equation}{section}
\counterwithout{equation}{section}
\title{\textbf{Lineare Algebra WS2017/18}}
\author{Dozent: Prof. Dr. Arno Fehm}
@ -637,6 +658,9 @@
\pagenumbering{arabic}
\pagestyle{fancy}
\chapter*{Vorwort}
\input{./TeX_files/Vorwort}
\chapter{Grundbegriffe der Linearen Algebra}
\input{./TeX_files/Logik_und_Mengen}
\include{./TeX_files/Abbildungen}
@ -707,9 +731,10 @@
\if\relax\detokenize{#3}\relax\else%
{\hspace*{2.2ex}#3}%
\fi%
}%
}
\StrBetween[1,2]{#5}{.}{.}[\thm@@thmline@name@chap@num]%get the chapter number for roman transliteration
\ifx\\#5\\%
\@dottedtocline{-2}{0em}{2.3em}%
\@dottedtocline{-2}{0em}{2.4em}%
{#1 \protect\numberline{#2\thm@@thmline@name@tmp}{}}%
{#4}
\else
@ -718,8 +743,8 @@
{#1 \protect\numberline{#2:}\thm@@thmline@name@tmp}%
{\hyper@linkstart{link}{#5}{#4}\hyper@linkend}%
\else
\@dottedtocline{-2}{0em}{1.3em}%
{#1 \protect\numberline{#2:}\thm@@thmline@name@tmp}%
\@dottedtocline{-2}{0em}{2.4em}%
{#1 \protect\numberline{\rom{\thm@@thmline@name@chap@num}.#2:}\thm@@thmline@name@tmp}%
{\hyper@linkstart{link}{#5}{#4}\hyper@linkend}%
\fi
\fi
@ -734,7 +759,13 @@
\pagebreak
\section{Liste der benannten Sätze}
\theoremlisttype{optname}
\listtheorems{proposition}
\listtheorems{proposition, lemma}
\pagebreak
\section{Liste der Mathematica/WolframAlpha-Befehle}
\smiley{} für faule Mathematiker \smiley{} \\
\theoremlisttype{allname}
\listtheorems{mathematica}
%\printglossary[type=\acronymtype]

44374
1. Semester/PROG/Fortran95.pdf Normal file

File diff suppressed because one or more lines are too long

Binary file not shown.

View file

@ -1,7 +1,14 @@
\documentclass[ngerman,a4paper]{report}
\usepackage[table]{xcolor}
\usepackage[T1]{fontenc}
\usepackage[bookmarks=true]{hyperref}
\hypersetup{
colorlinks,
citecolor=green,
filecolor=green,
linkcolor=blue,
urlcolor=green
}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{amsfonts}
@ -24,10 +31,9 @@
\usepackage{tabularx}
\usepackage{multirow}
\usepackage{booktabs}
\usepackage{cleveref}
\usepackage{xfrac}%sfrac -> fractions e.g. 3/4
\usepackage{parskip}%split paragraphs by vspace instead of intendations
\usepackage{cleveref}
\usepackage{cancel}
\usepackage{chngcntr}
@ -45,14 +51,6 @@
\usepackage[xindy,acronym]{glossaries}
\makeglossaries
\usepackage[bookmarks=true]{hyperref}
\hypersetup{
colorlinks,
citecolor=green,
filecolor=green,
linkcolor=blue,
urlcolor=green
}
\usepackage{bookmark}
\renewcommand{\mvchr}[1]{\mbox{\mvs\symbol{#1}}} %change the use of lightning symbol globally
@ -1982,7 +1980,7 @@ Sei stets $f: D \subset X \to Y,X,Y$ metrische Räume, $D = \mathcal{D}(f)$.
\begin{example}
\begin{enumerate}[label={\arabic*)}]
\item $x \in [0,2\pi] \to (x,\sin x) \in \mathbb{R}^2$ ist Kurve in $\mathbb{R}^2$
\item $x \in [0,1] \to e^{î\pi x} \in \mathbb{C}$ oder $x \in [0,\pi]\to e^{i\pi} \in \mathbb{C}$ sind Kurven in $\mathbb{C}$
\item $x \in [0,1] \to e^{i\pi x} \in \mathbb{C}$ oder $x \in [0,\pi]\to e^{i\pi} \in \mathbb{C}$ sind Kurven in $\mathbb{C}$
\item Sei $Y$ normierter Raum, $a,b \in Y,f:[0,1] \to Y$ mit $f(t) = (1-t)\cdot a + t\cdot b$ ist Kurve (Strecke von $a$ nach $b$)
\end{enumerate}
\end{example}
@ -2104,7 +2102,7 @@ Sei stets $f: D \subset X \to Y,X,Y$ metrische Räume, $D = \mathcal{D}(f)$.
Sei $R: \mathbb{C} \to \mathbb{C}$ rationale Funktion, $z_0 \in \mathbb{C}$ Pol der Ordnung $k\geq 1 \Rightarrow \,\exists ! a_1,\dots,a_k \in \mathbb{C},a_k\neq 0$ und $\exists !$ Polynom $\tilde{p}$ mit
\[
R(z) = \sum_{i=1}^{k}
\frac{a_i}{(z-z_0)^{î}} + \frac{\tilde{p}(z)}{\tilde{g}(z)} = H(z) +\frac{\tilde{p}(z)}{\tilde{g}(z)}
\frac{a_i}{(z-z_0)^{i}} + \frac{\tilde{p}(z)}{\tilde{g}(z)} = H(z) +\frac{\tilde{p}(z)}{\tilde{g}(z)}
\]
$H(z)$ heißt Hauptteil von $R \text{ in } z_0$. Beachte das $\frac{\tilde{p}}{\tilde{g}}$ keine Pole in $z_0$ hat.
\end{lemma}

View file

@ -12,7 +12,7 @@
Andere Schreibweisen: $\frac{\partial f}{\partial x}(x_0), \left.\frac{\partial f(x)}{\partial x}\right|_{x=x_0}, \mathrm{d}f(x_0), \dotsc$
Somit ist \propref{definition_ableitung} gleichwertig mit \begin{align}
\proplbl{definition_ableitung_zwei_stern}\Aboxed{f(x) &= f(x_0) + f'(x_0) \cdot (x - x_0) + o(x - x_0), \text{ für } x\to x_0}
\proplbl{definition_ableitung_zwei}\Aboxed{f(x) &= f(x_0) + f'(x_0) \cdot (x - x_0) + o(x - x_0), \text{ für } x\to x_0}
\end{align}
\end{*definition}
@ -100,24 +100,11 @@
\end{proposition}
\begin{proof}
\NoEndMark \hspace*{0pt}
\begin{enumerate}[label={zu \arabic*)},topsep=-5pt,leftmargin=\widthof{\ zu\ a)\ :\ }]
\item \propref{definition_ableitung_zwei} liefert \begin{align*}
& \lim\limits_{x\to x_0} f(x) = \lim\limits_{x\to x_0} \left( f(x_0) + f'(x_0) \cdot \underbrace{(x - x_0)}_{=0} + R(x) \underbrace{(x - x_0)}_{=0} \right) = f(x_0) \\
\Rightarrow & \text{ Behauptung}
\end{align*}
\item Angenommen, $A_1, A_2\in L(K^n, K^m)$ sind Ableitungen von $f$ in $x_0$. Seien $R_1, R_2$ die zugehörigen Terme in \propref{definition_ableitung_zwei}. Dann gilt für $x=x_0 + ty \;\forall y\in K^n, t\in \mathbb{R}$:
\vspace*{2mm} \ \\
\renewcommand{\arraystretch}{1.2}
\begin{tabularx}{\linewidth}{r@{\ \ }r@{\ }X}
& $\vert (A_1 - A_2)(t\cdot y)\vert$ & $\le \vert R_1(x_0 + ty) \cdot (t y)\vert + \vert R_2(x_0 + ty) \cdot (ty) \vert$ \\
& & $\le \vert R_1(x_0 + ty)\vert \cdot \vert ty \vert + \vert R_2(x_0 + ty)\vert \cdot \vert ty\vert$ \marginnote{$\left| \cdot \frac{1}{\vert t \vert}\right.$}[-0.4em]\\
$\xRightarrow{t \neq 0}$ & $0 \le \vert (A_1 - A_2) \cdot y\vert$ & $\le \big( \vert R_1(x_0 + ty) \vert + \vert R_2(x_0 + t y)\vert \big) \cdot \vert y \vert \xrightarrow{t\to 0} 0$ \\
$\Rightarrow$ & \multicolumn{2}{l}{$(A_1 - A_2) \cdot y = 0 \quad \forall y\in K^n$} \\
$\Rightarrow$ & \multicolumn{2}{l}{$A_1 = A_2 \quad \Rightarrow \text{Behauptung}$ }
\end{tabularx}
\hfill\csname\InTheoType Symbol\endcsname
\begin{enumerate}
\item Sei $A,\tilde{A}\in L(K^n,K^m)$ Ableitungen von $f$ in $x_0$, betrachte $x=x_0+ty$, wobei $y\in K^n$ mit $\vert y\vert =1$ fest, $t\in\real_{>0}$ (offenbar $\vert x-x_0\vert=t$) \\
$\Rightarrow (A-\tilde{A})(ty)=o(\vert ty\vert)\Rightarrow (A-\tilde{A})(y)=\frac{o(t)}{t}\to 0$ \\
$\Rightarrow (A-\tilde{A})(y)=0\Rightarrow A-\tilde{A}=0\Rightarrow A=\tilde{A}\beha$
\item $\lim f(x)=1=\lim\big(f(x_0)+f'(x_0)(x-x_0)+o(\vert x-x_0\vert)\big)=f(x_0)\beha$
\end{enumerate}
\end{proof}
@ -133,7 +120,7 @@
\end{align}
Graph von $f$ ist Fläche im $\mathbb{R}^{n\times 1}$, genannt \begriff{Tangentialebene} vom Graphen von $f$ in $\big(x_0, f(x_0)\big)$.
\item \proplbl{spezialfall_ableitung_n1} \uline{$n=1\negthickspace: f\negthickspace: D\subset \mathbb{R}\to \mathbb{R}^n$}\ \ (z.B. $D=(a,b)$)\\[0.6ex]
\item \proplbl{spezialfall_ableitung_n1} \uline{$n=1\negthickspace: f\negthickspace: D\subset \mathbb{R}\to \mathbb{R}^n$}\\[0.6ex]
$f$ (bzw. Bild $f[D]$) ist Kurve im $\mathbb{R}^n$ ($\cong \mathbb{R}^{m\times 1}$). \propref{definition_ableitung_zwei} kann man schreiben als \begin{align*}
f(x_0 + t) = \underbrace{f(x_0) + t\cdot f'(x_0)}_{\mathclap{\text{Affin lineare Abb. }\tilde{A}:\mathbb{R}\to \mathbb{R}^m \text{ (in $t$)}}} + o(t), t\to 0, t\in\mathbb{R}
\end{align*}
@ -205,20 +192,17 @@
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[quadratische Funktion]
\proplbl{ableitung_beispiel_euklidische_norm}
Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert ^2\;\forall x\in\mathbb{R}^n$
Offenbar gilt:
\begin{flalign*}
\vert x - x_0 \vert ^2 &= \langle x - x_0, x - x_0 \rangle \marginnote{Erweitert mit $\langle x_0, x_0\rangle$} &\\
&= \langle x \rangle^2 - 2 \langle x_0, x\rangle + 2 \langle x_0, x_0 \rangle - \langle x_0, x_0\rangle& \\
&= \vert x \vert ^2 - 2 \langle x_0, x - x_0 \rangle - \vert x_0 \vert ^2 &\\
\qquad\Rightarrow \qquad f(x) &= f(x_0) + \langle 2x_0, x - x_0 \rangle + \underbrace{\vert x - x_0\vert^2}_{\mathclap{=o\big( \langle x - x_0 \rangle \big)}}&
\end{flalign*}
(vgl. auch \propref{spezialfall_ableitung_m1} im Spezialfall \ref{spezialfall_ableitung_m1_item})
Wegen $2x_0\in L(\mathbb{R}^n, \mathbb{R})$ folgt $f = \vert \cdot \vert^2$ ist \gls{diffbar} in $x_0$ mit $f'(x_0) = 2 x_0\;\forall x_0\in\mathbb{R}$
Sei $f:\real^n\to \real$ mit $f(x)=\vert x\vert^2$ \\
für beliebiges $x_0$ gilt:
\begin{align}
\vert x-x_0\vert^2 &= \langle x-x_0,x-x_0\rangle \notag \\
&= \vert x\vert^2 - \vert x_0\vert^2 - 2\langle x_0,x-x_0\rangle \notag
\end{align}
$\Rightarrow f(x) = f(x_0) + 2\langle \underbrace{2x_0}_{\text{Ableitung}},x-x_0\rangle + \underbrace{\vert x-x_0\vert^2}_{o(\vert x-x_0\vert)}$ \\
$\Rightarrow f$ ist differenzierbar in $x_0$ mit $f'(x_0)=2x_0$, offenbar ist $f'$ stetig, also $f\in C^1(\real^n)$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
@ -264,18 +248,33 @@
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[Exponentialfunktion]
$f:K\to K$ mit $f(x)=e^x$ \\
mit Differentialquotient $\Rightarrow$ $f$ ist differenzierbar mit $f'(x_0)=e^{x_0}\Rightarrow f\in C^1(K)$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {e^x};
\addlegendentry{$e^x$}
\addplot+[mark=none, dashed] {e^x};
\addlegendentry{$e^x$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[Betragsfunktion]
\proplbl{ableitung_beispiel_betrag}
Sei $f:\mathbb{R}^n\to \mathbb{R}$, $f(x) = \vert x \vert$ $\forall x\in\mathbb{R}^n$.
$f:\real^n\to \real$ mit $f(x)=\vert x\vert$ \\
$f$ ist nicht differenzierbar in $x_0=0$, denn angenommen, $f'(x_0)\in\real^n$ existiert und fixiere $y\in\real^n$, $\vert y\vert=1$ \\
$\Rightarrow \vert ty\vert=0+\langle f'(0),ty\rangle + o(\vert t\vert)$, $t\to 0$ \\
$\Rightarrow t\neq 0\Rightarrow \frac{\vert t\vert}{t}=\langle f'(0),y\rangle+\frac{o(t)}{t}\Rightarrow\pm 1 =$ feste Zahl in $\real_+\to 0\Rightarrow\lightning\beha$
$f$ ist nicht \gls{diffbar} in $x_0=0$, denn angenommen die Ableitung $f'(0)\in\mathbb{R}^n$ ($\cong \mathbb{R}^{1 \times n}$) existiert, dann fixiere $x\in\mathbb{R}^n$ mit $\vert x \vert = 1$, und
\begin{alignat*}{2}
&& \vert t\cdot x\vert &= 0 + \langle f'(0), t\cdot x \rangle + o(t),\;t\to 0,\; t\in\mathbb{R}_{\neq 0} \marginnote{$\left| \cdot \frac{1}{t}\right.$} \\
\xRightarrow{t\neq 0}\;&& \underbrace{\frac{\vert t \vert \cdot \vert x \vert}{t}}_{=\pm 1} &= \underbrace{\langle f'(0), x\rangle}_{\mathclap{\text{feste Zahl in $\mathbb{R}$}}} + \underbrace{\frac{o(t)}{t}}_{\mathclap{\xrightarrow{t\to 0}0}} \quad\Rightarrow \text{\Lightning}
\end{alignat*}
\emph{Anschaulich:} Es gibt keine Tangentialebene an den Graph von $f$ in $(0, \vert 0 \vert )\in\mathbb{R}^{n\times 1}$.\\
\emph{folglich:} $f$ stetig in $x_0$ $\cancel{\Rightarrow}$ $f$ \gls{diffbar} in $x_0$, d.h. Umkehrung von \propref{diffbar_impl_stetig} gilt i.A. nicht.
\emph{Folglich:} $f$ stetig in $x_0\not\Rightarrow f$ differenzierbar in $x_0$, das heißt Umkehrung von \propref{diffbar_impl_stetig} gilt nicht!
\begin{hint}
Es gibt stetige Funktion $f:\mathbb{R}\to \mathbb{R}$, die in keinem Punkt $x$ \gls{diffbar} ist (siehe Hildebrand, Analysis 1 S. 192 oder Königsberger Analysis 1, Kap. 9.11)
@ -295,29 +294,41 @@
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[Exponentialfunktion]
Sei $f:K\to K$ mit $f(x) = e^x\;\forall x\in K$.\\
$\Rightarrow$ $f$ ist \gls{diffbar} mit $f'(x_0) = e^{x_0}\;\forall x_0\in K = \mathbb{R}\lor K=\mathbb{C}$.
Denn: nach \propref{lemma_13_10} ist \begin{align}
& \proplbl{exp_limit_1} \lim\limits_{y\to 0} \frac{e^y - 1}{y} = 1 \text{ in } \mathbb{C} \\
\notag \Rightarrow\;& \lim\limits_{y\to 0} \frac{e^{x_0 + y} - e^{x_0}}{y} = \lim\limits_{y\to 0} e^{x_0} \cdot \frac{e^y - 1}{y} = e^{x_0} \;\xRightarrow{\eqref{differentialquotient_prop}}\; \text{Beh.}
\end{align}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {e^x};
\addlegendentry{$e^x$}
\addplot+[mark=none, dashed] {e^x};
\addlegendentry{$e^x$}
\end{axis}
\end{tikzpicture}\end{center}
\begin{proposition}[Rechenregeln]
\proplbl{ableitung_rechenregeln}
Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{diffbar} in $x_0\in D$ \\
$\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{diffbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{diffbar} in $x_0$, falls $\lambda(x_0)\neq 0$
mit
\begin{enumerate}[label={\alph*)}]
\item $(f\pm g)'(x_0) = f'(x_0) \pm g'(x_0)\in K^{m\times 1}$
\item $(\lambda\cdot f)'(x_0) = \lambda (x_0)\cdot f'(x_0) + f(x_0)\cdot \lambda'(x_0)\in K^{m\times n}$
\item $(f\cdot g)' (x_0) = \transpose{f(x_0)}\cdot g'(x_0) + \transpose{g(x_0)}\cdot f'(x_0)\in K^{m\times n}$
\item $\left( \frac{\mu}{\lambda}\right)'(x_0) = \frac{\mu'(x_0)\cdot\lambda(x_0)-\mu(x_0)\cdot \lambda'(x_0)}{(\lambda(x_0))^2}$
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $f(x_0)\pm g(x_0)+(f'(x_0))(x-x_0)\pm (g'(x_0))(x-x_0)+o(\vert x-x_0\vert) =f(x_0)\pm g(x_0)+\big(f'(x_0)\pm g'(x_0)\big)(x-x_0)+o(\vert x-x_0\vert)\beha$
\item $\lambda(x)f(x)=\big(\lambda(x_0)+\lambda'(x_0)(x-x_0)+o(\vert x-x_0\vert)\big)\cdot\big(f(x_0)+f'(x_0)(x-x_0)+o(\vert x-x_=\vert)\big) = \lambda(x_0)f(x_0) - \big(\lambda'(x_0)f(x_0)+\lambda(x_0)f'(x_0)\big)(x-x_0)+o(\vert x-x_0\vert)\beha$
\item analog
\item zeige $\left(\frac{1}{\lambda}\right)'(x_0)=-\frac{\lambda'(x_0)}{\lambda(x_0)^2}$, Rest folgt mit $f=\mu$ \\
$\frac{1}{\lambda(x)}-\frac{1}{\lambda(x_0)}=\frac{\lambda(x_0)-\lambda(x)}{\lambda(x)\lambda(x_0)} = ... = \left(\frac{-\lambda'(x_0)}{\lambda(x_0)^2}\right)(x-x_0)+o(\vert x-x_0\vert)\beha$
\end{itemize}
\end{proof}
\begin{example}
Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{diffbar} in $x_0\in D$\\
$\xRightarrow{\ref{ableitung_rechenregeln}\ b)} (c\cdot f) = c\cdot f'(x_0)$ (da $c$ konst. Funktion $D\to K$)
\end{example}
\begin{example}[Polynom]
Sei $f:K\to K$, Polynom $f(x) = \sum\limits_{l=0}^{k}a_l x^l$ \\
$\Rightarrow$ $f$ \gls{diffbar} $\forall x_0\in K$ mit $f'(x_0) = \sum\limits_{l=1}^k l a_l x_0^{l-1}$
\end{example}
\begin{example}
Sei $f=\frac{f_1}{f_2}$ rationale Funktion auf $\mathbb{R}$ (d.h. $f_1, f_2:K\to K$ Polynom) \\
$\Rightarrow$ $f$ ist \gls{diffbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$
\end{example}
\begin{example}[Sinus und Cosinus]
@ -441,18 +452,7 @@
\end{itemize}
\end{boldenvironment}
\begin{proposition}[Rechenregeln]
\proplbl{ableitung_rechenregeln}
Sei $D\in K^n$ offen, $f,g: D\to K^m$, $\lambda: D\to K$ \gls{diffbar} in $x_0\in D$ \\
$\Rightarrow$ $(f\pm g): D\to K^m, (\lambda\cdot f):D\to K^m, (f\cdot g):D\to K$ sind \gls{diffbar} in $x_0\in D$ und $\frac{1}{\lambda}:D\to K$ ist \gls{diffbar} in $x_0$, falls $\lambda(x_0)\neq 0$
mit
\begin{enumerate}[label={\alph*)}]
\item $(f\pm g)'(x_0) = f'(x_0) \pm g'(x_0)\in K^{m\times 1}$
\item $(\lambda\cdot f)'(x_0) = \lambda (x_0)\cdot f'(x_0) + f(x_0)\cdot \lambda'(x_0)\in K^{m\times n}$
\item $(f\cdot g)' (x_0) = \transpose{f(x_0)}\cdot g'(x_0) + \transpose{g(x_0)}\cdot f'(x_0)\in K^{m\times n}$
\item $\left( \frac{1}{\lambda}\right)'(x_0) = - \frac{1}{\lambda(x_0)^2}\cdot \lambda'(x_0)\in K^{1\times n}$
\end{enumerate}
\end{proposition}
\begin{conclusion}
\proplbl{ableitung_quotientenregel}
@ -466,38 +466,76 @@
Setzte in \propref{ableitung_rechenregeln} $f=\mu$ (d.h. $m=1$) und betr. Produkt $\frac{1}{\lambda}\cdot \mu$.
\end{proof}
\begin{proof}[\propref{ableitung_rechenregeln}]
Nach \propref{definition_ableitung_proposition} c) existieren $P,Q: D\to L(K^n, K^m)$, $\Lambda:D\to L(K^n, K)$ mit
\begin{itemize}[topsep=\dimexpr -\baselineskip / 3\relax]
\item $f(x) = f(x_0) + P(x) \cdot (x - x_0)$, $\lim\limits_{x\to x_0} P(x) = f'(x_0)$
\item $g(x) = g(x_0) + Q(x) \cdot (x - x_0)$, $\lim\limits_{x\to x_0} Q(x) = g'(x_0)$
\item $\lambda(x) = \lambda(x_0) + \Lambda(x_0) \cdot (x - x_0)$, $\lim\limits_{x\to x_0} \Lambda(x) = \lambda'(x_0)$
\end{itemize}
und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung wie folgt:
\begin{enumerate}[label={\alph*)}]
\item $f(x) + g(x) = f(x_0) + g(x_0) + \underbrace{\big( P(x) + Q(x) \big)}_{\mathclap{x\to x_0:\; f'(x_0) + g'(x_0)\in L(K^n, K^m)}}\cdot (x - x_0)$ \\
\begin{proposition}[Kettenregel]
\proplbl{ableitung_kettenregel}
Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{diffbar} in $x_0\in D$, $g$ \gls{diffbar} in $f(x_0)\in\tilde{D}$ \\
$\Rightarrow$ $g\circ f: D\to K^l$ \gls{diffbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$)
\end{proposition}
\begin{proof}
\begin{align}
(g\circ f)(x) = g(f(x)) &= g(f(x_0)) + g'(f(x_0))(f(x)-f(x_0)) + o(\vert f(x)-f(x_0)\vert) \notag \\
&= (g\circ f)(x_0) + g'(f(x_0))\cdot f(x_0)(x-x_0) + o(\vert x-x_0\vert)
\end{align}
$\Rightarrow$ Behauptung
\item $\lambda(x)\cdot f(x) = \lambda(x_0) \cdot f(x_0) + \underbrace{\left[ \lambda(x_0) \cdot P(x) + \underbrace{f(x_0)\cdot \Lambda(x)}_{\in K^{m\times n}} + \underbrace{\Lambda(x_) \cdot (x - x_0)}_{\in K} \cdot P(x) \right]}_{\xrightarrow{x\to x_0}\lambda(x_0)\cdot f'(x_0) + f(x_0)\cdot \lambda'(x_0)\in L(K^m, K^n)} \cdot (x - x_0)$ \\
$\Rightarrow$ Behauptung
\item analog zu b)
\item $\frac{1}{\lambda(x)} = \frac{1}{\lambda(x_0)} - \frac{\lambda(x) - \lambda(x_0)}{\lambda(x_0)\cdot \lambda(x)} = \frac{1}{\lambda(x_0)} + \underbrace{\left( - \frac{1}{\lambda(x_0)\cdot\lambda(x)}\cdot \Lambda(x)\right)}_{\mathclap{\xrightarrow{x\to x_0}-\frac{1}{\lambda(x_0)^2}\cdot \lambda'(x_0)\in L(K^n, K)}} (x - x_0)$\\
$\Rightarrow$ Behauptung
\end{enumerate}
\end{proof}
\begin{example}
Sei $f:D\in K^n\to K^m$, $c\in K$, $f$ \gls{diffbar} in $x_0\in D$\\
$\xRightarrow{\ref{ableitung_rechenregeln}\ b)} (c\cdot f) = c\cdot f'(x_0)$ (da $c$ konst. Funktion $D\to K$)
\begin{example}[$x$ im Exponenten]
\proplbl{ableitung_beispiel_exponentialfunktion}
$f:\mathbb{R}\to \mathbb{R}$, $f(x) = a^x$ ($a\in\mathbb{R}_{\ge 0}$, $a\neq 1$).
Offenbar $a^x = \left(e^{\ln a}\right)^x = e^{x\cdot \ln a}$\\
$\Rightarrow$ $f(x) = g(h(x))$ mit $g(y) = e^y$, $h(x) = x\cdot \ln a$
$\Rightarrow g'(y)=e^y$, $h'(x)=\ln a\Rightarrow f'(x)=e^{x\cdot \ln a}\cdot \ln a=a^x\cdot\ln a$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {2^x};
\addlegendentry{$2^x$}
\addplot+[mark=none, dashed] {2^x*ln(2)};
\addlegendentry{$2^x\cdot \ln(2)$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[Polynom]
Sei $f:K\to K$, Polynom $f(x) = \sum\limits_{l=0}^{k}a_l x^l$ \\
$\Rightarrow$ $f$ \gls{diffbar} $\forall x_0\in K$ mit $f'(x_0) = \sum\limits_{l=1}^k l a_l x_0^{l-1}$
\begin{example}[Logarithmus]
\proplbl{ableitung_beispiel_logarithmus}
$f:\real_{>0}\to \real$ mit $f(x)=\log_a x$, $a\in\real_{>0}$ und $a\neq 1$, $x_0\in \real_{>0}$ \\
mit $y=\log_a x$, $y_0=\log_a x_0$ ist $x-x_0=a^y-a^{y_0}$ \\
Differentialquotient $\Rightarrow f'(x)=\frac{1}{x\cdot\ln a}$, also $f\in C^1(\real_{>0})$
Spezialfall: $(\ln(x))' = \frac{1}{x}$ $\forall x>0$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {log2(x)};
\addlegendentry{$\log_2(x)$}
\addplot+[mark=none, dashed] {1/(x*ln(2))};
\addlegendentry{$\frac{1}{x\cdot\ln(2)}$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
Sei $f=\frac{f_1}{f_2}$ rationale Funktion auf $\mathbb{R}$ (d.h. $f_1, f_2:K\to K$ Polynom) \\
$\Rightarrow$ $f$ ist \gls{diffbar} auf $K\setminus \{ \text{Nullstellen von }f_2 \}$
Sei $f:\mathbb{R}_{>0}\to \mathbb{R}$, $f(x) = x^r$ ($r\in\mathbb{R}$)
Wegen $x^r = e^{r\cdot \ln x}$ liefert Kettenregeln (analog zu \propref{ableitung_beispiel_exponentialfunktion}) \begin{align*}
f'(x_0) = \frac{r\cdot e^{r\cdot \ln x_0}}{x_0} = \frac{r\cdot x_0^r}{x_0} = r\cdot x_0^{r - 1} \quad\forall x_0>0
\end{align*}
Spezialfall: $f(x) = \frac{1}{x^k}$ $\Rightarrow$ $f'(x) = - \frac{k}{x^{k+1}}$
Zu \propref{ableitung_beipsiel_unstetige_ableitung}:\begin{align*}
f'(x) = 2x\cdot \sin\frac{1}{x} + x^2\cdot \cos\frac{1}{x} \cdot \left( - \frac{1}{x^2}\right) = 2x\cdot \sin\frac{1}{x} - \cos\frac{1}{x}
\end{align*}
\end{example}
\begin{example}[Tangens und Cotangens]
@ -540,92 +578,9 @@ und mit \propref{definition_ableitung_proposition} c) ergibt sich die Behauptung
\end{tikzpicture}\end{center}
\end{example}
\begin{proposition}[Kettenregel]
\proplbl{ableitung_kettenregel}
Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^m\to K^l$, $D$,$\tilde{D}$ offen, $f$ \gls{diffbar} in $x_0\in D$, $g$ \gls{diffbar} in $f(x_0)\in\tilde{D}$ \\
$\Rightarrow$ $g\circ f: D\to K^l$ \gls{diffbar} in $x_0$ mit $(g\circ f)' = g'(f(x))\cdot f'(x)$ ($\in K^{l\times n}$)
\end{proposition}
\begin{proof}
Nach \propref{definition_ableitung_proposition} c) exisitert $P:D\to L(K^n, K^m)$, $Q:\tilde{D}\to K(K^m, K^l)$ mit
\zeroAmsmathAlignVSpaces**
\begin{alignat}{2}
\proplbl{ableitung_kettenregel_beweis_f} && f(x) &= f(x_0) + P(x)(x - x_0), \lim\limits_{x\to x_0} P(x) = f'(x_0) \\
\proplbl{ableitung_kettenregel_beweis_g} && g(y) &= g(f(x_0)) + Q(y)(y - f(x_0)), \lim\limits_{y\to f(x_0)} Q(y) = g'(f(x_0)) \\
\notag \Rightarrow\quad && (g\circ f)(x) &= g(f(x)) \overset{\eqref{ableitung_kettenregel_beweis_g}}{=} g(f(x_0)) + Q(f(x)(f(x) - f(x_0)) \\
\notag&& &= (g\circ f)(x_0) + \underbrace{\left[ Q(f(x)) \cdot P(x)\right]}_{\mathclap{\xrightarrow{x\to x_0}g'(f(x_0))\cdot f'(x_0)}} (x - x_0)
\end{alignat}
$\xRightarrow{\ref{definition_ableitung_proposition}\,c)}$ Behauptung
\end{proof}
\begin{example}[$x$ im Exponenten]
\proplbl{ableitung_beispiel_exponentialfunktion}
Sei $f:\mathbb{R}\to \mathbb{R}$, $f(x) = a^x$ ($a\in\mathbb{R}_{\ge 0}$, $a\neq 1$).
Offenbar $a^x = \left(e^{\ln a}\right)^x = e^{x\cdot \ln a}$\\
$\Rightarrow$ $f(x) = g(h(x))$ mit $g(y) = e^y$, $h(x) = x\cdot \ln a$
Wegen $g'(y) = e^y$ $\forall y\in\mathbb{R}$, $h'(x) = \ln a$ $\forall x\in K$ \\[\dimexpr -\baselineskip / 2 \relax]
\zeroAmsmathAlignVSpaces \begin{alignat*}{2}
\xRightarrow{\text{\propref{ableitung_kettenregel}}}\quad&& f'(x_0) &= g'(x_0\cdot \ln a)\cdot f'(x_0) = e^{x_0\cdot \ln a}\cdot \ln a = a^x\cdot \ln a \quad\forall x_0\in\mathbb{R}
\end{alignat*}
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {2^x};
\addlegendentry{$2^x$}
\addplot+[mark=none, dashed] {2^x*ln(2)};
\addlegendentry{$2^x\cdot \ln(2)$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}[Logarithmus]
\proplbl{ableitung_beispiel_logarithmus}
Sei $f:\mathbb{R}_{>0} \to \mathbb{R}$, $f(x) = \log_a x$ ($a\in\mathbb{R}_{>0}\setminus\{1\}$)
Fixiere $x_0\in \mathbb{R}_{>0}$, sei $\{x_n\}$ beliebige Folge in $\mathbb{R}_{>0}$ mit $x_n\to x_0$
\zeroAmsmathAlignVSpaces*[5pt] \begin{alignat*}{1}
\xRightarrow{\text{$f$ stetig}}\;& y:= \log_a x_n \to \log_a x_0 =: y_0 \\
\Rightarrow\;\;&\!\! \lim\limits_{n\to \infty} \frac{f(x_n) - f(x_0)}{x_n - x_0} = \lim\limits_{n\to \infty} \frac{\log_a(x_n) - \log_a(x_0)}{a^{\log_a(x_n)} - a^{\log_a(x_0)}} = \lim\limits_{n\to \infty} \dfrac{1}{\frac{a^{y_n} - a^{y_0}}{y_n - y_0}} \overset{\ref{ableitung_beispiel_exponentialfunktion}}{=}{\frac{1}{a^{y_0}\cdot \ln(a)}} \\
\xRightarrow{\{x_n\}\text{ bel.}}\;& f'(x_0) = \frac{1}{x_0\cdot \ln a}\quad\forall x>0
\end{alignat*}
Spezialfall: $(\ln(x))' = \frac{1}{x}$ $\forall x>0$
\begin{center}\begin{tikzpicture}
\begin{axis}[
xmin=-5, xmax=5, xlabel=$x$,
ymin=-5, ymax=5, ylabel=$y$,
samples=400,
axis y line=middle,
axis x line=middle,
]
\addplot+[mark=none] {log2(x)};
\addlegendentry{$\log_2(x)$}
\addplot+[mark=none, dashed] {1/(x*ln(2))};
\addlegendentry{$\frac{1}{x\cdot\ln(2)}$}
\end{axis}
\end{tikzpicture}\end{center}
\end{example}
\begin{example}
Sei $f:\mathbb{R}_{>0}\to \mathbb{R}$, $f(x) = x^r$ ($r\in\mathbb{R}$)
Wegen $x^r = e^{r\cdot \ln x}$ liefert Kettenregeln (analog zu \propref{ableitung_beispiel_exponentialfunktion}) \begin{align*}
f'(x_0) = \frac{r\cdot e^{r\cdot \ln x_0}}{x_0} = \frac{r\cdot x_0^r}{x_0} = r\cdot x_0^{r - 1} \quad\forall x_0>0
\end{align*}
Spezialfall: $f(x) = \frac{1}{x^k}$ $\Rightarrow$ $f'(x) = - \frac{k}{x^{k+1}}$
Zu \propref{ableitung_beipsiel_unstetige_ableitung}:\begin{align*}
f'(x) = 2x\cdot \sin\frac{1}{x} + x^2\cdot \cos\frac{1}{x} \cdot \left( - \frac{1}{x^2}\right) = 2x\cdot \sin\frac{1}{x} - \cos\frac{1}{x}
\end{align*}
\end{example}
\begin{proposition}[Reduktion auf skalare Funktionen]
\proplbl{ableitung_proposition_reduktion}

View file

@ -1,661 +0,0 @@
\setcounter{dummy}{16}
\addtocounter{section}{15}
\addtocounter{chapter}{4}
\chapter{Differentiation}
Differentiation ist lokale Linearisierung.
\section{Wiederholung und Motivation}
\begin{ueberblick}
$K^n$ ist ein $n$-dimensionaler VR über dem vollständigen Körper $K=\real$
oder $K=\comp$. Die Elemente sind $x=(x_1,...,x_n)\in K^n$ mit
$x_1,...,x_n\in K$. Basis ist die Standardbasis $(e_1,...,e_n)$. \\
Alle Normen sind auf $K^n$ äquivalent $\Rightarrow$ Konvergenz ist
unabhängig von der Norm. Trotzdem verwenden wir die euklidische Norm:
$|x|=\sqrt{\sum\limits_{j=1}^n |x_j|^2}$. \\
\underline{Skalarprodukt:} $\langle x,y \rangle=\sum\limits_{j=1}^n x_j\cdot y_j$ in
$\real$ bzw. $\langle x,y \rangle=\sum\limits_{j=1}^n \overline{x_j}
\cdot y_j$ in $\comp$. \\
\underline{\person{Cauchy}-\person{Schwarz}-Ungleichung:} $|\langle x,y \rangle| \le
|x|\cdot |y|$. \\
lineare Abbildung: $A:K^n \to K^m$, Darstellung mittels $m\times n$-Matrix
bezüglich Standardbasen in $K^n$ und $K^m$. Beachte: $A$ steht für die
lineare Abbildung und die Matrix, die die lineare Abbildung beschreibt.
Lineare Abbildungen sind stets stetig (unabhängig von der Norm). Hinweis:
$x=(x_1,...,x_n)$ in der Regel als Zeilenvektor geschrieben, aber bei
Matrixmultiplikation ist $x$ Spaltenvektor und $x^t$ Zeilenvektor, d.h. \\
$x^t\cdot y=\langle x,y \rangle$, falls $m=n$ \\
$x\cdot y^t=x\otimes y$, sogenanntes Tensor-Produkt \\
$L(K^n,K^m)=\{A: K^n \to K^m \mid A \text{ linear}\}$ Menge aller
linearen Abbildungen mit $||A||=\sup\{|Ax| \mid |x|\le 1\} \to$ Norm
hängt im Allgemeinen von Normen auf $K^n$ und $K^m$ ab. \\
$L(K^n,K^m)$ ist isomorph zu $Mat_{m\times n}(K)$ ist isomorph zu $K^{mn}$
jeweils als VR $\Rightarrow$ $L(K^n,K^m)$ ist ein $m\cot n$-dimensionaler
VR $\Rightarrow$ alle Normen sind äquivalent $\Rightarrow$ Konvergenz von
$\{A_n\}$ in $L(K^n,K^m)$ unabhängig von Norm, nehme in der Regel statt
$||A||$ die euklidische Norm $|A|=\sqrt{\sum\limits_{k=1}^n \sum\limits_
{l=1}^n |a_{kl}|^2} \Rightarrow$ es gilt: $|Ax|\le ||A||\cdot |x|$ und
$|Ax|\le |A|\cdot |x|$. \\
Abbildung $f:K^n\to K^m$ heißt affin linear falls $f(x)=Ax+a$ für eine
lineare Abbildung $A:K^n\to K^m$. \\
\underline{\person{Landau}-Symbole}: Sei $f:D\subset K^n \to K^m$, $g:D\subset K^n\to K$,
$x_0\in \overline{D}$
\begin{compactitem}
\item $f(x)=o(g(x))$ für $x\to x_0$ genau dann, wenn $\lim\limits_{\substack{x\to x_0 \\ x\neq x_0}} \frac{|f(x)|}{g(x)}=0$
\item $f(x)=O(g(x))$ für $x\to x_0$ genau dann, wenn $\exists\delta>0$, $0\le c<\infty$ mit
$\frac{|f(x)|}{|g(x)|}\le c \quad \forall x\in (B_{\delta}(x_0)\backslash \{x_0\})\cap D$
\end{compactitem}
\end{ueberblick}
%TODO was soll der wichtige Spezialfall im Skript? Ist der wichtig?
\begin{beispiel}[$f: D\subset K^n \to K^m$]
$x_0\in D$, $x_0$ Häufungspunkt von $D$. Dann: $f$ stetig in $x_0 \iff \lim\limits_{x\to x_0} f(x)
=f(x_0)\iff \lim\limits_{x\to x_0} \frac{|f(x)-f(x_0)|}{1}=0 \iff f(x)=f(x_0)+o(1)$ für $x\to x_0$ \\
Interpretation: Setze $r(x)=f(x)-f(x_0)\Rightarrow r(x)=o(1)$ für $x\to x_0\Rightarrow r(x)\to 0$,
d.h. $o(1)$ ersetzt die Restfunktion $f(x)-f(x_0)$. Wegen $o(1)=o(|x-x_0|^0)$ sagt man auch,
dass $f(x)=f(x_0)+o(1)$ die Approximation 0-ter Ordnung der Funktion $f$ in der Nähe von $x_0$.
\end{beispiel}
\begin{beispiel}[$f:D\subset \real^n \to \real$]
$x_0\in D$, $D$ offen, das bedeutet: $f(x)=f(x_0)+o(|x-x_0|)$, $x\to x_0 \quad (*)$
\begin{compactitem}
\item betrachte $f$ auf Strahl $x=x_0+ty$, $y\in \real^n$ fest, $|y|=1$, $t\in \real$ \\
$(*)\Rightarrow 0=\lim\limits_{\substack{x\to x_0 \\ x\neq x_0}} \frac{|f(x)-f(x_0)|}{|x-x_0|}=
\lim\limits_{\substack{t\to 0 \\ t\neq 0}} \frac{|f(x_0+ty)-f(x_0)|}{|t|} \Rightarrow \frac
{|\Delta f|}{|t|}=|\text{Anstieg der Sekante}|\to 0$
\item $(*)\Rightarrow f(x)=f(x_0)+\underbrace{\frac{o(|x-x_0|)}{|x-x_0|}}_{o(1)}|x-x_0|
\Rightarrow f(x)=f(x_0)+o(1)|x-x_0| \Rightarrow f(x)=f(x_0)+r(x)|x-x_0|\Rightarrow
|f(x)-f(x_0)| \le \varrho(t)|x-x_0|$ falls $|x-x_0|\le t$ mit $\varrho(t)=\sup\limits_{|x-x_0|\le t}
|r(x)|\to 0$ \\
Graph von $f$ liegt nahe $x_0$ in "'immer flacheren kegelförmigen Mengen"' $\Rightarrow$
Graph "'schmiegt sich"' an horizontale Ebene durch Punkt $(x_0,f(x_0))$
\item $(*)$ erfüllt offenbar nicht die Beobachtung: horizontale Ebene ist Graph einer affin
linearen Funktion $\tilde A: \real^n \to \real$
\end{compactitem}
\end{beispiel}
\textbf{zentrale Frage:} Gibt es zur Funktion $f:D\subset K^n \to K^m$, $x_0\in D$, eine affin
lineare Funktion $\tilde A:K^n\to K^m$, so dass sich in der Nähe von $x_0$ der Graph von $f$
an den Graph von $\tilde A$ "'anschmiegt"'? \\
\textbf{Antwort:} Ja, wegen $f(x_0)=\tilde A|x_0|$ folgt $\tilde Ax=A(x-x_0)+f(x_0)$
\begin{definition}[Anschmiegen]
$f(x_0)-(f(x_0)+A(x-x_0))=o(|x-x_0|)$ \\
d.h. die Abweichung wird schneller kleiner als $|x-x_0|$! \\
\end{definition}
\smiley{} Vielleicht hatten Sie bisher eine andere Vorstellung von "'anschmiegen"', aber wir machen hier Mathematik! \smiley{}
\section{Ableitung}
Sei $f:D\subset K^n \to K^m$, $D$ offen.
\begin{definition}[differenzierbar im Punkt]
$f$ heißt differenzierbar im Punkt $x_0\in D$ falls es eine lineare Abbildung $A\in L(K^n,K^m)$ gibt,
mit der Eigenschaft $f(x)=f(x_0)+A(x-x_0)+o(|x-x_0|)$ , $x\to x_0$.
\end{definition}
\begin{definition}[Ableitung]
$A$ heißt Ableitung von $f$ an der Stelle $x=x_0$ und wird mit $f'(x_0)=A$ bzw. $Df(x_0)$
bezeichnet. Man kann auch totales Differential, Fréchet-Ableitung, Jacobimatrix oder
Funktionalmatrix sagen. \\
Andere Bezeichnungen sind: $\frac{\partial f}{\partial x}(x_0)$, $\frac{\partial f(x)}{\partial x}\vert_
{x=x_0}$, d$f(x_0)$,... \\
Somit gilt: $f(x)=f(x_0)+f'(x_0)(x-x_0)+o(|x-x_0|)$, $x\to x_0$
\end{definition}
\begin{bemerkung}
$f'(x_0)$ ist im Allgemeinen eine von $x_0$ abhängige Matrix! \\
$\Rightarrow$ lineare Funktion $\tilde A(x)=f(x_0)+f'(x_0)(x-x_0)$ appromximiert Funktion $f$
in der Nähe von $x_0$ und heißt Linearisierung von $f$ in $x_0$.
\end{bemerkung}
\begin{satz}\label{satz:diffbar_abb}
Sei $f:D\subset K^n \to K^m$, $D$ offen. $f$ ist differenzierbar in $x_0\in D$ mit Abbildung $f'(x_0)\in L(K^n,K^m)$ genau dann, wenn die folgenden Bedingungen erfüllt sind:
\begin{compactitem}
\item für ein $r:D\to K^m$ mit $\lim\limits_{\substack{x\to x_0 \\ x\neq x_0}}
\frac{r(x)}{|x-x_0|}=0$ \\
$f(x)=f(x_0)+f'(x_0)(x-x_0)+r(x)\quad\forall x\in D$
\item für ein $R:D\to L(K^n,K^m)$ mit $\lim\limits_{x\to x_0} R(x)=0$ \\
$f(x)=f(x_0)+f'(x_0)(x-x_0)+R(x)(x-x_0)\quad\forall x\in D$
\item für ein $Q:D\to L(K^n,K^m)$ mit $\lim\limits_{x\to x_0} Q(x)=f'(x_0)$ \\
$f(x)=f(x_0)+Q(x)(x-x_0)\quad\forall x\in D$
\end{compactitem}
\end{satz}
\begin{beweis}
\begin{compactitem}
\item offenbar ist $r(x)=o(|x-x_0|)$, $x\to x_0$, folglich ist dies äquivalent zu: $f$
differenzierbar in $x_0$ mit Abbildung $f'(x_0)$
\item $1\Rightarrow 2$: Sei $R:D\to K^{m\times n}$ gegeben durch $R(x_0)=0$, $R(x)=
\frac{r(x)}{|x-x_0|^2}\cdot (x-x_0)^t$, $x\neq x_0 \Rightarrow R(x)(x-x_0)=\frac{r(x)}
{|x-x_0|^2}\langle x-x_0,x-x_0\rangle=r(x)$ \\
wegen $0=r(x_0)=R(x_0)(x-x_0)$ folgt $r(x)=R(x)(x-x_0)\quad\forall x\in D\Rightarrow 2$ \\
wegen $|r(x)(x-x_0)^t|=|r(x)||x-x_0|$ folgt $\lim\limits_{x\to x_0} |R(x)|=\lim\limits_
{\substack{x\to x_0 \\ x\neq x_0}} \frac{|r(x)\cdot (x-x_0)^t|}{|x-x_0|^2}=\lim\limits_
{\substack{x\to x_0 \\ x\neq x_0}} \frac{|r(x)||x-x_0|}{|x-x_0|^2}=0\Rightarrow 2$
\item $2\Rightarrow 3$: setze $Q(x)=f'(x_0)+R(x)\quad\forall x\in D\Rightarrow 3$ \\
wegen $\lim\limits_{x\to x_0} Q(x)=f'(x_0)$ folgt 3
\item $3\Rightarrow 1$: setze $r(x)=(Q(x)-f'(x))(x-x_0)$ wegen $|r(x)|\le |Q(x)-f'(x)||x-x_0|$
folgt $\lim\limits_{\substack{x\to x_0 \\ x\neq x_0}} \frac{|r(x)|}{|x-x_0|}=\lim\limits_{x\to x_0}
|Q(x)-f'(x_0)|=0\Rightarrow$ Definition Ableitung
\end{compactitem}
\end{beweis}
\begin{satz}\label{satz:eindeutig_x}
Sei $f:D\subset K^n \to K^m$, $D$ offen, $f$ differenzierbar in $x_0\in D$. Dann:
\begin{compactitem}
\item $f$ ist stetig in $x_0$.
\item Ableitung $f'(x_0)$ ist eindeutig bestimmt.
\end{compactitem}
\end{satz}
\begin{beweis}
\begin{compactitem}
\item $\lim\limits_{x\to x_0} f(x)=\lim\limits_{x\to x_0} (f(x_0)+f'(x_0)(x-x_0)+R(x)(x-x_0))=f(x_0)
\Rightarrow$ Behauptung
\item angenommen $A_1,A_2\in L(K^n,K^m)$ sind Ableitungen von $f$ in $x_0$. Seien $R_1,R_2$
zugehörige Terme. Dann gilt für $x=x_0+ty$: $|(A_1-A_2)(ty)|=|R_1(x_0+ty)(ty)|+|R_2(x_0+ty)
(ty)| \le |R_1(x+ty)||ty|+|R_2(x_0+ty)||ty|\Rightarrow 0\le |(A_1-A_2)(y)|\le (|R_1(x_0+ty)|+|R_2
(x_0+ty)|)|y|\to 0\Rightarrow (A_1-A_2)(y)=0\Rightarrow A_1=A_2\Rightarrow$ Behauptung
\end{compactitem}
\end{beweis}
\subsection{Spezialfälle für $K=\real$:}
\begin{compactitem}
\item $m=1$, $f:D\subset \real^n\to \real$ \\
$f'(x_0)\in \real^{1\times n}$ ist Zeilenvektor, $f'(x_0)$ betrachtet als Vektor in $\real^n$ heißt auch
Gradient. Offenbar $f'(x_0)y=\langle f'(x_0),y\rangle \quad\forall y\in \real^n\Rightarrow f(x)=
f(x_0)+\langle f'(x_0),x-x_0 \rangle + o(|x-x_0|)$
\item $n=1$, $f:D\subset \real\to \real^m$, z.B. $D=(a,b)$ \\
$f$ bzw. Bild $D(f)$ ist Kurve in $\real^m$, $f'(x_0)$ ist Spaltenvektor im $\real^m$. Man kann
schreiben: $f(x_0+t)=f(x_0)+tf'(x_0)+o(|t|)$ \\
$\iff \underbrace{\frac{f(x_0+t)-f(x_0)}{t}}_{\text{heißt Differenzenquotient von
}f\text{ in }x_0}=f'(x_0)+o(1)$, $t\to 0\quad \frac{o(t)}{t}=o(1)$ \\
$\iff \underbrace{\lim\limits_{t\to 0}\frac{f(x_0+t)-f(x_0)}{t}}_{\text{heißt Differentialquotient von
}f\text{ in }x_0}=f'(x_0)$ \\
\textbf{Bemerkungen:} $f$ differentierbar $\iff$ Diffentialquotient existiert in $x_0$, aber nicht
erklärt für den Fall $n>1$! \\
\textbf{Interpretation für $m>1$:} \begin{compactitem}
\item Tangente an Kurve: Bild von $\tilde A(\real)$ ist Gerade und heißt Tangente an Kurve
$f(x_0)$
\item Tangentenvektor an Kurve in $f(x_0)$ ist $f'(x)$ \\
Falls $f$ nicht differenzierbar in $x_0$ bzw. $x_0$ Randpunkt von $D$ und $f(x_0)$
definiert, betrachtet man einseitige Grenzwerte.
\item rechtsseitige Ableitung: $\lim\limits_{t\downarrow 0}\frac{f(x_0+t)-f(x_0)}{t}=f'_r(x_0)$
heißt rechtsseitige Ableitung von $f$ in $x_0$ (falls existent), analog linksseitige Ableitung
\end{compactitem}
\item $n=m=1$, $f:D\subset \real\to \real$ \\
$f'(x_0)\in \real$ ist Zahl und es gilt: \begin{compactitem}
\item Graph von $f$ ist Kurve in $\real^2$
\item Graph von $\tilde{A}$ ist Tangente an Graph von $f$ in $(x_0,f(x_0))$ und hat Anstieg
$f'(x_0)$
\end{compactitem}
\end{compactitem}
\begin{folgerung}
Sei $f:D\subset K\to K^m$, $D$ offen. Dann: \\
$f$ ist differenzierbar in $x_0\in D$ mit Ableitung $f'(x_0)\in L(K,K^m)\iff \exists f'(x_0)\in
L(K,K^m):\lim\limits_{y\to 0} \frac{f(x_0+t)-f(x_0)}{y}=f'(x_0)$.
\end{folgerung}
\subsection{einfache Beispiele für Ableitungen}
\begin{beispiel}[$f:K^n\to K^m$ affin linear]
Für beliebige $x_0\in K^n$ gilt: $f(x)=Ax_0+a+A(x-x_0)=f(x_0)+A(x-x_0)+0\Rightarrow f$ ist
differenzierbar in $x_0$ mit $f'(x_0)=A$
\end{beispiel}
\begin{beispiel}[$f:\real^n\to \real$ mit $f(x)=|x|^2$]
$|x-x_0|^2=\langle x-x_0,x-x_0\rangle=|x|^2-2\langle x_0,x\rangle+2\langle x_0,x_0\rangle-|x_0|^2=
|x|^2-2\langle x_0,x-x_0\rangle-|x_0|^2\Rightarrow f(x)=f(x_0)+2\langle x_0,x-x_0\rangle+
\underbrace{|x-x_0|^2}_{o(|x-x_0|)}$ \\
wegen $2x_0\in L(\real^n,\real)$ folgt $f=|\cdot |^2$ ist differenzierbar in $x_0$ mit $f'(x_0)=2x_0
\quad\forall x_0\in \real^n$
\end{beispiel}
\begin{beispiel}[$f:K\to K$ mit $f(x)=x^k$]
\begin{compactitem}
\item $k=0$: $f(x)=1\Rightarrow f'(x)=0$
\item $k=1$: $f(x_0+y)=(x_0+y)^k=\sum\limits_{j=0}^{k} \binom{k}{j} x_0^{k-j}y^j=x_0^k+
kx_0^{k-1}y+o(y)=f(x_0)+k\cdot f(x_0)y+o(y)$, $y\to 0\Rightarrow f'(x_0)=kx_0^{k-1}
\quad\forall x_0\in K$
\end{compactitem}
\end{beispiel}
\begin{beispiel}[$f:\real^n\to\real$ mit $f(x)=|x|$]
$f$ ist nicht differenzierbar in $x_0=0$, denn, angenommen Ableitung $f'(0)\in \real^n$ existiert,
fixiere $x\in \real^n$ mit $|x|=1\Rightarrow |tx|=0+\langle f'(0),tx\rangle+o(t)$, $t\to 0\Rightarrow
\frac{|t|}{t}=\langle f'(x),x \rangle + \frac{o(t)}{t}=\pm 1 \Rightarrow$ Widerspruch \\
anschaulich: es gibt keine Tangentialebene an Graph von $f$ in $(0,|0|)\in \real^{n+1}$ \\
folglich: $f$ ist stetig in $x_0\not\Rightarrow f$ ist differenzierbar in $x_0$.
\end{beispiel}
\begin{bemerkung}
Es gibt stetige Funktionen $f:\real\to \real$ die in keinem Punkt differenzierbar sind! \\
z.B. $\sum\limits_{k=1}^{\infty} f_n$
\end{bemerkung}
\begin{beispiel}[$f:K\to K$ mit $f(x)=e^x$]
$f$ ist differenzierbar mit $f'(x_0)=e^{x_0}\quad\forall x_0\in K$. Denn es ist $\lim\limits_{y\to 0}
\frac{e^y-1}{y}=1$ in $\comp \Rightarrow \lim\limits_{y\to 0} \frac{e^{x_0+y}-e^{x_0}}{y}=
\lim\limits_{y\to 0} e^{x_0}\frac{e^y-1}{y}=e^{x_0}$
\end{beispiel}
\begin{beispiel}[$\sin,\cos:K\to K$ für $\real$ und $\comp$]
$\sin'(x_0)=\cos(x_0)$ und $\cos'(x_0)=-\sin(x_0)$ \\
Denn: $\frac{\sin y}{y}=\frac{e^{iy}-e^{-iy}}{2iy}=\frac{1}{2}\left( \frac{e^{iy}-1}{iy}+
\frac{e^{iy}-1}{-iy}\right) \to 1$ \\
$\Rightarrow \lim\limits_{y\to 0} \frac{\sin(x_0+y)-\sin(x_0)}{y}=\lim\limits_{y\to 0} \left(
\frac{1}{y}2\sin(\frac{y}{2})\cos(x_0+\frac{y}{2}) \right) =\cos(x_0)$ \\
analog für $\cos$
\end{beispiel}
\textbf{Schwierigkeit:}
\begin{compactitem}
\item Spezialfälle 1 und 2 sind häufig ungeeignet zur Bestimmung von $f'(x_0)$
\item Spezialfall 3 ist nützlich bei $m=n=1 \Rightarrow$ Zurückführung auf diese einfachen Fälle
durch Rechenregeln und Reduktion
\end{compactitem}
\begin{satz}[Rechenregeln]
Sei $D\subset K^n$ offen, $f,g:D\to K^m$, $\lambda:D\to K$ differenzierbar in $x_0\in D
\Rightarrow (f\pm g):D\to K^m$ und $(\lambda\cdot f):D\to K^m$ und $(f\cdot g):D\to K^m$ sind
differenzierbar in $x_0$ und $\frac{1}{\lambda}:D\to K$ ist differenzierbar in $x_0$ falls
$\lambda(x_0)\neq 0$ mit:
\begin{compactitem}
\item $(f\pm g)'(x_0)=f'(x_0)\pm g'(x_0)$
\item $(\lambda\cdot f)'(x_0)=\lambda(x_0)f'(x_0)+\lambda'(x_0)f(x_0)$
\item $(f\cdot g)'(x_0)=f(x_0)^tg'(x_0)+f'(x_0)g(x_0)^t$
\item $\left( \frac{1}{y}\right)'(x_0)=-\frac{1}{\lambda(x)^2}\cdot\lambda'(x_0) $
\end{compactitem}
\end{satz}
\begin{beweis}
Nach Satz 17.2 existieren $P,Q:D\to L(K^n,K^m), \Lambda:D\to L(K^n,K)$ mit \\
$f(x)=f(x_0)+P(x)(x-x_0)$, $\lim\limits_{x\to x_0} P(x)=f'(x_0)$ \\
$g(x)=g(x_0)+Q(x)(x-x_0)$, $\lim\limits_{x\to x_0} Q(x)=g'(x_0)$ \\
$\lambda(x)=\lambda(x_0)+\Lambda(x)(x-x_0)$, $\lim\limits_{x\to x_0} \Lambda(x)=\lambda'(x_0)$ \\
mit Satz 17.2 ergibt sich die Behauptung wie folgt:
\begin{compactitem}
\item $f(x)\pm g(x)=f(x_0)\pm g(x_0)+\underbrace{(P(x)\pm Q(x))}_{\to f'(x_0)\pm g(x_0) \in
L(K^n,K^m)}(x-x_0)\Rightarrow$ Behauptung
\item $\lambda(x)\cdot f(x)=\lambda(x_0)f(x_0)+\underbrace{\left(\lambda(x_0)P(x)+
f(x_0)\Lambda(x)+\Lambda(x)(x-x_0)P(x) \right)}_{\to \lambda(x_0)f'(x_0)+\lambda'(x_0)
f(x_0)\in L(K^n,K^m)}(x-x_0)\Rightarrow$ Behauptung
\item analog
\item $\frac{1}{\lambda(x)}=\frac{1}{\lambda(x_0)}-\frac{\lambda(x)-\lambda(x_0)}
{\lambda(x)\lambda(x_0)}=\frac{1}{\lambda(x_0)}+\underbrace{\left( -\frac{1}
{\lambda(x_0)\lambda(x)}\cdot\Lambda(x) \right)}_{\to -\frac{1}{\lambda(x_0)^2}\lambda'(x_0)}
(x-x_0)\Rightarrow$ Behauptung
\end{compactitem}
\end{beweis}
\begin{folgerung}
Seien $\lambda, \mu:D\to K$ differenzierbar in $x_0\in K$, $D\subset K^n$ offen, $\lambda(x_0)
\neq 0$ \\
$\Rightarrow \left( \frac{\mu}{\lambda} \right):D\to K$ differenzierbar in $x_0$ mit $\left(
\frac{\mu}{\lambda}\right)'(x_0)=\frac{\lambda(x_0)\mu'(x_0)-\lambda'(x_0)-\mu(x_0)}
{\lambda(x_0)^2}$
\end{folgerung}
\begin{beweis}
Setze in 17.12 $f=\mu$ (d.h. $m=1$) und betrachte das Produkt $\frac{1}{\lambda}\cdot \mu$.
\end{beweis}
\begin{beispiel}[Konstanten]
$f:D\subset K^n\to K^m$, $c\in K$, $f$ differenzierbar in $x_0\in D$ \\
$\Rightarrow (cf)'(x_0)=cf'(x_0)$
\end{beispiel}
\begin{beispiel}[Polynome]
$f:K\to K$ Polynom $f(x)=\sum\lim\limits_{l=0}^k a_kx^l \Rightarrow f$ differenzierbar
$\forall x\in K$ mit $f'(x_0)=\sum\limits_{l=1}^k la_lx^{l-1}$
\end{beispiel}
\begin{beispiel}[rationale Funktionen]
Sei $f=\frac{f_1}{f_2}$ rationale Funktion auf $K \Rightarrow f$ ist differenzierbar auf
$K\backslash${Nullstellen von $f_2$}
\end{beispiel}
\begin{beispiel}[$\tan$ und $\cot$]
$\tan:K\backslash\left\lbrace \frac{\pi}{2} + k\pi \mid k\in\whole \right\rbrace\to K$ \\
$\cot:K\backslash\left\lbrace k\pi \mid k\in\whole\right\rbrace\to K$ \\
$\Rightarrow \tan'(x_0)=\frac{\sin'(x_0)-\cos(x_0)\sin(x_0)}{\cos^2(x_0)}=\frac{\cos^2(x_0)+
\sin^2(x_0)}{\cos^2(x_0)}=\frac{1}{\cos^2(x_0)}$ \\
$\Rightarrow \cot'(x_0)=-\frac{1}{\sin^2(x_0)}$
\end{beispiel}
\begin{satz}[Kettenregel]
Sei $f:D\subset K^n\to K^m$, $g:\tilde{D}\subset K^n\to K^m$, $D,\tilde D$ offen. Sei $f$
differenzierbar in $x_0\in D$ und $g$ differenzierbar in $f(x_0)\subset \tilde D$ \\
$\Rightarrow g\circ f:D\to K^l$ differenzierbar in $x_0$ mit $(g\circ f)'(x_0)=g'(f(x_0))\cdot
f'(x_0)$.
\end{satz}
\begin{beweis}
INach Satz 17.2 existieren $P:D\to L(K^n,K^m)$ und $Q:\tilde{D}\to L(K^m,K^l)$ mit \\
$f(x)=f(x_0)+P(x)(x-x_0)$, $\lim\limits_{x\to x_0}P(x)=f'(x_0)$ \\
$g(x)=g(x_0)+Q(x)(x-x_0)$, $\lim\limits_{x\to x_0}Q(x)=g'(x_0)$ \\
$(g\circ f)(x)=g(f(x))=g(f(x_0))+Q(f(x))(f(x)-f(x_0))=(g\circ f)(x_0)+\underbrace{Q(f(x))\cdot P(x)}
_{\to g'(f(x_0))\cdot f'(x_0)}(x-x_0)\Rightarrow$ Behauptung
\end{beweis}
\begin{beispiel}[$f:\real\to\real$ mit $f(x)=a^x$]
$a\in\real_{>0}, a\neq 1$ \\
offenbar $a^x=\left( e^{\ln a} \right)^x=e^{x\ln a}\Rightarrow f(x)=g(h(x))$ mit $g(y)=e^y$ und
$h(x)=x\ln a$ \\
Satz 17.18 liefert: $f'(x_0)=g'\left( e^{x_0\ln a}\right)h'(x)=e^{x_0\ln a}\cdot \ln a=a^{x_0}\ln a$
\end{beispiel}
\begin{beispiel}[$f:\real_{>0}\to \real$ mit $f(x)=\log_a x$]
$a\in\real_{>0}, a\neq 1$ \\
fixiere $x_0\in \real_{>0}$, sei $\{x_n\}$ beliebige Folge in $\real_{>0}$ mit $x_n\to x_0\Rightarrow
y_n = \log_a x_n\to \log_a x_0 = y_0$ \\
$\Rightarrow \lim\limits_{n\to \infty} \frac{f(x_n)-f(x_0)}{x_n-x_0}=\lim\limits_{n\to\infty}
\frac{\log_a x_n - \log_a x_0}{a^{\log_a x_n}-a^{\log_a x_0}}=\lim\limits_{n\to\infty}\frac{1}
{\frac{a^{y_n}-a^{y_0}}{y_n-y_0}}=\frac{1}{a^{y_0}\ln a}$ \\
$f'(x_0)=\frac{1}{x_0\ln a}$ \\
\textbf{Spezialfall:} $(\ln x)'=\frac{1}{x}$
\end{beispiel}
\begin{beispiel}[$f:\real_{>0}\to\real$ mit $f(x)=x^r$]
$r\in \real$ \\
wegen $x^r=e^{r\ln x}$ liefert Kettenregel $f'(x_0)=\frac{re^{r\ln x_0}}{x_0}=\frac{rx_0^r}{x_0}=
rx_0^{r-1}$ \\
\textbf{Spezialfall:} $f(x)=\frac{1}{x^k}\Rightarrow f'(x)=-\frac{k}{x^{k+1}}$
\end{beispiel}
\begin{satz}[Reduktion]
Sei $f=(f_1,f_2):D\subset K^n \to K^k\times K^l$, $D$ offen, $x_0\in D$. Dann: \\
$f$ differenzierbar in $x_0\iff f_1:D\to K^k$ und $f_2:D\to K^l$ differenzierbar in $x_0$. Dann gilt:
\begin{equation}
f'(x_0)=\begin{pmatrix}f'_1(x_0) \\ f'_2(x_0)\end{pmatrix}
\end{equation}
\end{satz}
\smiley{} Wenn Sie das nächste mal aus der Disko kommen, zuviel getrunken haben und den Namen
ihrer Freundin nicht mehr kennen, sollten sie sich daran aber noch erinnern: \smiley{} \\
\begin{beweis}
\begin{compactitem}
\item Hinrichtung: man hat $f(x)=f(x_0)+f'(x_0)(x-x_0)+R(x)(x-x_0)$ mit $R(x)\to 0$, da
$f'(x_0),R(x)\in L(K^n,K^k\times K^l) \Rightarrow f'(x_0)y=(A_1y,A_2y)$, $R(x)y=(R_1(x)y,
R_2(x)y)$ mit $A_1,R_1\in L(K^n,K^k)$, $A_2,R_2\in L(K^n,K^l)$ \\
$\Rightarrow f_j(x)=f_j(x_0)+A_j(x-x_0)+R_j(x-x_0)$ mit $R_j\to 0$ und $j=\{1,2\}\quad (*)$ \\
$\Rightarrow f_j$ ist differenzierbar in $x_0$ it $f'_j(x_0)=A_j\Rightarrow$ Behauptung
\item Rückrichtung: es gilt $(*)$ mit $A_j=f'_j(x_0)$. Setze $A=\begin{pmatrix}f'_1(x_0) \\ f'_2(x_0)\end{pmatrix}$ und $R(x)=\begin{pmatrix}R_1(x) \\ R_2(x)\end{pmatrix} \Rightarrow
AR(x)\in L(K^n,K^k\times K^l)$ \\
$\Rightarrow f(x)=f(x_0)+A(x-x_0)+R(x)(x-x_0)$, $R(x)\to 0\Rightarrow f$ differenzierbar in
$x_0\Rightarrow$ Behauptung
\end{compactitem}
\end{beweis}
\begin{folgerung}
Sei $f=(f_1,...,f_m):D\subset K^n\to K^m$, $D$ offen, $x_0\in D$. Dann: \\
$f$ differenzierbar in $x_0\iff f_j:D\to K$ differenzierbar in $x_0$ $\forall j=1,...,m$. Dann gilt:
\begin{equation}
f'(x_0)=\begin{pmatrix}f'_1(x_0) \\ \vdots \\ f'_m(x_0)\end{pmatrix}
\end{equation}
\end{folgerung}
\begin{beweis}
mehrfache Anwendung von Satz 17.22
\end{beweis}
\begin{bemerkung}
Mit Folgerung 17.23 kann man Berechnungen der Ableitung stets auf Funktion $\tilde f:D\subset
K^n\to K$ zurückführen!
\end{bemerkung}
\begin{beispiel}[$f:\real\to\real^2$ mit $f(t)=\begin{pmatrix}t\cos (2\pi t) \\ t\sin(2\pi t) \end{pmatrix}$]
$f'(t)=\begin{pmatrix}\cos(2\pi t)-t(\sin(2\pi t)2\pi) \\ \sin(2\pi t)-t(\cos(2\pi t)2\pi)\end{pmatrix}$ \\
Reduktion, Kettenregel, Produktregel, $f'(0)=(1,0)^t$, $f'(1)=(1,2\pi)^t$
\end{beispiel}
\begin{definition}[differenzierbar auf $D$, Ableitung, stetig differenzierbar]
Sei $f:D\subset K^n\to K^m$, $D$ offen. Falls $f$ differenzierbar in allen $x_0\in D$, dann
heißt $f$ differenzierbar bzw. differenzierbar auf $D$ und die Funktion $f':D\to L(K^n,K^m)$
heißt Ableitung von $f$. \\
Ist die Funktion $f':D\to L(K^n,K^m)$ stetig auf $D$, dann heißt $f$ stetig differenzierbar auf
$D$ bzw. $C^1$-Funktion auf $D$.
\end{definition}
\begin{ueberblick}
\begin{compactitem}
\item $f'$ stetig in $x_0\iff \lim\limits_{x\to x_0}f'(x)=f'(x_0)$
\item Konvergenz von Matrix $\iff$ alle Einträge konvergieren
\item $C^1(D,K^m)=\{f:D\to K^m \mid f \text{ stetig differenzierbar auf }D\}$
\end{compactitem}
\end{ueberblick}
\begin{beispiel}
\begin{compactitem}
\item $f(x)=x^k\Rightarrow f'(x)=kx^{k-1}\Rightarrow f\in C^1(\real,\real)$
\item $f(x)=e^x\Rightarrow f'(x)=e^x\Rightarrow f\in C^1(\comp,\comp)$
\item $f(x)=|x|^2\Rightarrow f'(x)=2x\Rightarrow f\in C^1(\real^n,\real)$
\end{compactitem}
\end{beispiel}
\begin{beispiel}[zusammengesetze Funktion]
$\newline$ %TODO: Funktion etwas, aber nicht zu viel nach oben schieben
$f:\real\to\real$ mit $f(x)=\begin{cases}x^2\sin(\frac{1}{x}) & x\neq 0 \\ 0 & x=0\end{cases}$ \\
wegen $\frac{|x^2\sin(\frac 1 x)|}{|x|}\le |x|\to 0$ folgt $f(x)=o(|x|)$, $x\to 0$ \\
$\Rightarrow f(x)=f(0)+0\cdot (x-0)+o(|x-0|)$, $x\to 0 \Rightarrow f$ ist differenzierbar in
$x=0$ mit $f'(0)=0$ \\
Rechenregeln liefern für $x\neq 0$: $f'(x)=2x\sin(\frac 1 x)-\cos x$ \\
für $x_k=\frac{1}{k\pi}$ gilt: $\lim\limits_{k\to\infty} 2x_k\sin(\frac{1}{x_k})=0$ und
$\lim\limits_{x\to\infty} \cos(\frac{1}{x_k})\pm 1\Rightarrow \lim\limits_{x\to 0} f'(x)$ existiert nicht
$\Rightarrow f\notin C^1(\real,\real)$! \\
\textbf{Das heißt, dass die Ableitung nicht stetig sein muss!}
\end{beispiel}
\section{Richtungsableitung und partielle Ableitung}
Sei $f:D \subset K^n \to K^m$, $D$ offen, $x\in D$.\\
\textbf{Ziel:} Zurückführung der Berechnung der Ableitung $f^{'}(x)$ auf Berechnung der Ableitung der Funktion $\tilde{f} : \tilde{D} \subset \mathbb{K} \to \mathbb{K}$. Bisher:
\begin{compactitem}
\item Reduktionsansatz $\Longrightarrow$ man kann sich bereits auf $m=1$ beschränken
\item für Berechnung der Ableitung von $\tilde{f}$ ist dann neben Rechenregeln auch Differentialquotient (mit leistungsfähigen Grenzwertkalkül!) verfügbar
\end{compactitem}
\textbf{Idee:} Betrachte Funktion $f$ auf Gerade $t \to x + tz$ durch $x$ ($z$ Richtungsvektor) $\Longrightarrow$ skalares Argument $t \in \mathbb{K} \longrightarrow$ Differentialquotient\\
\textbf{Spezialfälle:} $z=e_j \Rightarrow$ partielle Ableitung
Sei $f:D \subset K^n \to K^m$, $D$ offen, $x \in D$, $z \in K^n$. Falls $a \in \LinAbb(K,K^m)\;(\sim K^m)$ existiert mit
\begin{align}
f(x+tz) = f(x) +ta + o(t), t \to 0, t \in K\\
\end{align}
dann heißt $f$ differenzierbar in $x$ in Richtung $z$ und $\Diff_z f(x):= a$ heißt \begriff{Richtungsableitung} $f$ in $x$ in Richtung $z$ andere Bezeichnungen $\partial_z f(x), \frac{\partial f(x)}{\partial_z}(x), \delta f(x;z), f^{'}(x;z), \dots$
\begin{bemerkung}
\begin{compactitem}
\item wegen $B_{\epsilon}(x) \subset D$ für ein $\epsilon > 0$ existiert ein $\tilde{\epsilon} > 0$ mit $x+tz \in D \forall t \in B_{\epsilon}(0) \in K$
\item $\Diff_z f(x)$ existiert offenbar stets für $z=0$ mit $\Diff_0 f(x) = 0$
\end{compactitem}
\end{bemerkung}
\begin{folgerung}{\label{folg:äquiv_richtungsableit}}
Sei $f: D \subset K^n \to K^m$, $D$ offen, $x\in D$, $z \in K^n$. Dann
\begin{align} %TODO Add numbering!
&f \text{ ist differenzierbar in } x \text{ in Richtung } z \text{ mit } \Diff_z f(x) \in \LinAbb(K, K^m)\;(\sim K^m)\\
&\Leftrightarrow \text{ für } \varphi(t) = f(x + tz) \text{ existiert } \varphi^{\prime}(0) \text{ und } \Diff_z f(x) = \varphi^{\prime}(0)\\
&\Leftrightarrow \lim_{t \to 0} \frac{f(x + tz) - f(x)}{t} = a \in \LinAbb(K,K^m) \text{ existiert und } \Diff_z f(x) = a
\end{align}
\end{folgerung}
\begin{beispiel}
Sei $f: \mathbb{R}^2 \to \mathbb{R}, f(x_1,x_2) = x_1^2 + \vert x_2\vert$. Existiert Richtungsableitung in $x=(x_1,0)$? Sei $\phi(t) = f(x + tz) = (x_1 + tz_1)^2 + \vert tz_2\vert = \underbrace{x_1^2 + 2tx_1 z_1 + t^2 z_1^2}_{:= \varphi_1(t)} + \underbrace{\vert t \vert \vert z \vert}_{=: \varphi_2(t)} \Rightarrow \varphi^{\prime}(0) = 2x_1z_1\;\forall x_1, z_1 \in \mathbb{R}, \varphi(\prime)(0) = 0$ existiert \textbf{nur} für $z_2 = 0$ (vgl. Bsp 5.1.4) %TODO set ref.\\
$\Rightarrow \varphi^{\prime}(0) = 2x_1 z_1$ existiert \textbf{nur} für $x_1, z_1 \in \mathbb{R}, z_2 = 0 \overset{5.8}{\Rightarrow}$ Richtungsableitung von $f$ existiert für alle $x=(x_1,0)$ \textbf{nur} in Richtung $z=(z_1,0)$ mit $\Diff_z f(x) = 2x_1 z_1$
\end{beispiel}
\textbf{Frage:} Existiert $\Diff_z f(x)\; \forall z$ falls $f$ differenzierbar in $x$?
\begin{satz}\label{satz:Richtungsableitung_linear}
Sei $f : D \subset K^m \to K^m$, $D$ offen, $f$ differenzierbar in $x \in D \Rightarrow$ Richtungsableitung $\Diff_z f(x)$ existiert $\forall z \in K^n$ und
\begin{align}
\Diff_z f(x) = f^{\prime}(x)\cdot z
\end{align}
\end{satz}
\begin{proof}
$f$ differenzierbar in $x \Rightarrow f(y) = f(x) + f^{\prime}(x)(y-x) + o(\vert y-x\vert) \overset{y=x+tz}{\Rightarrow} f(x+tz) = f(x) t(f^{\prime}(x)z + o(t), t \to 0, y \to x \overset{5.7}{\Rightarrow}$ Behauptung.
\end{proof}
\begin{bemerkung}
Richtungsableitung ist \textbf{linear} in $z$!
\end{bemerkung}
\begin{beispiel}
Betrachte $f: \mathbb{R}^n \to \mathbb{R}$ mit $f(x) = \vert x \vert^2$
\begin{compactitem}
\item[a)] (5.8) liefert $\varphi(t) = \vert x + tz\vert^2 = \sum_{i=1}^{n} (x_i t z_i)^2 = \sum_{i=1}^{n} x_i^2 + 2t x_i z_i + t^2 z_i^2 \Rightarrow \varphi^{\prime}(t) = \sum_{i=1}^{n} 2x_i z_i + 2t z_i^2 \overset{(5.8)}{\Rightarrow} \varphi^{\prime}(0) = 2 \sum_{i=1}^{n} x_i z_i = \langle x,z \rangle = \Diff_z f(x)\; \forall x,z \in \mathbb{R}^n$
\item[b)] Beispiel 5.1.2 liefert $f^{\prime}(x) = 2x \forall x \in \mathbb{R}^n \overset{(5.10)}{\Rightarrow} \Diff_z f(x) = 2x \cdot z = 2 \langle x,z \rangle \forall x,z \in \mathbb{R}^n$ folglich gilt für $\vert z \vert = 1$ und $x \in \mathbb{R}^n$ fest:
\begin{compactitem}[\textbullet]
\item $\Diff_z f(x) \Longleftrightarrow x \perp z$
\item $\Diff_z f(x)$ maximal $\Longleftrightarrow z = \frac{x}{\vert x \vert}$
\end{compactitem}
\end{compactitem}
\end{beispiel}
\subsection{Anwendung: Eigenschaft des Gradienten}
Sei $f: D \subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ differenzierbar in $x\in D$.\\
\begin{definition}
$N_c := \{x \in D \mid f(x) = c\}$ heißt \begriff{Niveaumenge} von f.\\
Sei $\gamma := (-\delta, \delta) \to N_c(\delta > 0)$ Kurve mit $\gamma(0) = x$ (*), $\gamma$ differenzierbar in $0$.\\
Ein $z \in \mathbb{R}^n\setminus\{0\}$ mit $z = \gamma^{\prime}$ für eine Kurve $\gamma$ gemäß (*) heißt \begriff{Tangentialvektor} an $N_c$ in $x_0$.
\end{definition}
Offenbar $\varphi(t) := f(\gamma(t)) = c \forall t \in (-\delta, \delta)\\ \overset{Kettenregel}{\Longrightarrow} \varphi^{\prime}(0) = f^{\prime}(\gamma(0))\cdot \gamma^{\prime}(0) = 0 \overset{Satz \ref{satz:Richtungsableitung_linear}}{\Longrightarrow} \Diff_{\gamma^{\prime}(0)}f(x) = \langle f^{\prime}(x),\gamma^{\prime}(0)\rangle =0$ (**)
\begin{satz}[Eigenschaften Gradienten]\label{satz:egs_grad}
Sei $f: D \subset \mathbb{R}^n \to \mathbb{R}$, $D$ offen, $f$ differenzierbar in $x \in D$. Dann
\begin{compactitem}
\item[1)] Gradient $f^{\prime}(x)$ steht senkrecht auf Niveaumenge $N_{f(x)}$, d.h. $\langle f^{\prime}(x), z\rangle = 0 \quad\forall$ Tangentialebenen $z$ an $N_{f(x)}$ in $x$.
\item[2)] Richtungsableitung $\Diff_z f(x) = 0 \forall$ Tangentialebenen $z$ an $N_{f(x)}$ in $x$.
\item[3)] Gradient $f^{\prime}(x)$ zeigt in Richtung des ``steilsten Anstiegs'' von $f$ in $x$, d.h. falls $f^{\prime}(x) \neq 0$ gilt für die Richtung $\bar{z} = \frac{f(x)}{\vert f(x) \vert} \Diff_z f(x) = \max\{\Diff_z f(x) \in \mathbb{R} \mid z \in \mathbb{R}^n \text{ und } \vert z \vert = 1\} = \vert f^{\prime}(x)\vert.$
\end{compactitem}
\end{satz}
\begin{proof}
1), 2) folgen direkt aus (**) und 5.10\\
zu 3) für $\vert z \vert = 1$ gilt $\Diff_z f(x) \overset{5.10}{=} \langle f^{\prime}(x), z \rangle$ $\overset{\text{Def. } \bar{z}}{=} \vert f^{\prime}(x)\vert \langle \tilde{z}, z\rangle \overset{\text{CSU}}{\leq} \vert f^{\prime}(x)\vert \vert \tilde{z}\vert \vert z\vert = \vert f^{\prime}(x)\vert = \frac{\langle f^{\prime}(x),f^{\prime}(x)}{\vert f^{\prime}(x) \vert} = \langle f^{\prime}(x), \tilde{z}\rangle \Diff_z f(x) \Rightarrow$ Behauptung. %TODO validate proof!
\end{proof}
\underline{Feststellung:} für $f: D \subset K^n \to K^m$:
\begin{definition}[partiell differenzierbar und partielle Ableitung]
lineare Abbildung $f^{\prime}(x): K^n \to K^m$ durch Kenntnis für $n$ lineare unabhängiger Vektoren bestimmt $\overset{5.10}{\Rightarrow} f^{\prime}(x)$ eindeutig bestimmt durch Kenntnis von $\Diff_{e_j}f(x) = f^{\prime}(x)\cdot e_j (\subset K^{^m\times n})$ für $j = 1,\dots,n$. Sei $f: D\subset K^n \to K^m$, $D$ offen, $x \in D$ (nicht notwendigerweise differenzierbar in $x$!).\\
Falls Richtungsabbleitung $\Diff_{e_j}f(x)$ existiert heißt $f$ \highlight{partiell differenzierbar bzgl.} $x_j$ \highlight{im Punkt} $x$ und $D_{e_j}f(x)$ heißt \begriff{partielle Ableitung} \highlight{von} $f$ bzgl. $x_j$ in $x$.
Andere Bezeichnungen: $\frac{\partial}{\partial x_j}f(x),\frac{\partial f}{\partial x_j}(x), \Diff_j f(x),f_{x_j}(x),\dots$
\end{definition}
Wegen $f(x+te_j) = f(x_1,\dots,x_{j-1},x_j+t,x_{j+1},\dots,x_n)$ liefert Folgerung \ref{folg:äquiv_richtungsableit}:
\begin{folgerung}
Sei $f: D\subset K^n \to K^m$, $D$ offen. Dann
\begin{align}
&f \text{ partiell differenzierbar bzgl. } x_j \text{ in } x \text{ mit Ableitung } \frac{\partial}{\partial x_j}f(x) \nonumber\\
&\Longleftrightarrow \lim_{t\to 0} \frac{f(x_1,\dots,x_{j-1},x_j+t),\dots,x_n)-f(x_1,\dots,x_{j}+t,\dots,x_n)}{t}\label{eq:equiv_richtungsabl}\\
&a \in K^{m\times n} \text{ existiert und } \frac{\partial}{\partial x_j}f(x) = a.
\end{align}
\end{folgerung}
\begin{beispiel}\label{beis:beispiel_1}
$f: \mathbb{R}^3 \to \mathbb{R}, f(x_1,x_2,x_3) = x_1^{^2}\sin x_2^2 + e^{x_3-x_1}$
\begin{compactitem}
\item $\frac{\partial}{\partial x_1}f(x) = 2x_1 \sin x_2 - e^{x_3 -x_1}$
\item $\frac{\partial}{\partial x_2}f(x) = x_1^2 \cos x_2$
\item $\frac{\partial}{\partial x_3}f(x) = e^{x_3 -x_1}$
\end{compactitem}
\end{beispiel}
\begin{folgerung}\label{folg:diffbar_x}
Sei $f: D \subset K^n \to K^m$, $D$ offen, $f$ differenzierbar in $x \in D$.
\begin{align}
\Rightarrow D: zf(x) = \sum_{j=1}^{n} z_j \frac{\partial}{\partial x_j}f(x)\quad \forall z \in (z_1,\dots, z_n) \in \mathbb{R}^n \label{eq:diffbar_x}
\end{align}
\end{folgerung}
\begin{proof}
Folgerung \ref{satz:Richtungsableitung_linear} liefert: $\Diff_z f(x) = f^{\prime}(x) = \sum_{j=1}^{n}z_je_j = \sum_{j=1}^{n}z_j(f^{\prime}(x)\cdot e_j) = \sum_{j=1}^{n} z_j \frac{\partial}{\partial x_j}f(x).$
\end{proof}
\begin{beispiel}%TODO fix equationref!
$f: \mathbb{R}^n \to \mathbb{R}, f(x) = \vert x \vert^2 = \sum_{j=1}^{n}x_j^2, f$ differenzierbar nach Beispiel \ref{beis:beispiel_1} $\frac{\partial f(x)}{\partial x_j}= 2x_j, j = 1, \dots,n \overset{\text{\eqref{eq:diffbar_x}}}{\Longrightarrow} \Diff_z f(x) = \sum_{j=!}^{n}2 x_j \cdot z_j = 2 \langle x,z \rangle \; \forall x,z \in \mathbb{R}^n$ (vgl. Beispiel \ref{beis:beispiel_1})
\end{beispiel}
\begin{theorem}[vollständige Reduktion]\label{theo:voll_redukt}
Sei $f = (f_1,\dots,f_m): D \subset K^n \to K^m$, $D$ offen, $f$ differenzierbar in $x \in D$. Dann
\begin{align}%TODO check indices!!!
f^{\prime}(x) \overset{\text{(a)}}{=}
\begin{pmatrix}
f_1^{\prime}(x) \\ \vdots \\ f_m^{\prime}(x)
\end{pmatrix}
\overset{\text{(b)}}{=}
(\sfrac{\partial}{\partial x_1}f(x), \dots, \sfrac{\partial}{\partial x_n}f(x)) \overset{\text{(c)}}{=}
\begin{pmatrix}
\frac{\partial}{\partial x_1}f_1(x) & \hdots & \frac{\partial}{\partial x_n}f_1(x) \\ \vdots & & \vdots \\ \frac{\partial}{\partial x_1}f_m(x) & \hdots & \frac{\partial}{\partial x_n}f_m(x)
\end{pmatrix} \in K^{m\times n}
\end{align}
(Jacobimatrix)
\text{Bemerkung:} Falls $f$ differenzierbar in $x$, dann reduziert Theorem \ref{theo:voll_redukt} die Berechung von $f^{\prime}(x)$ auf Ableitung von skalaren Funktionen $\tilde{f}: D\subset K \to K$!
\end{theorem}
\begin{proof}
\begin{compactitem}
\item[a)] Folgerung 5.1.8
\item[b)] benutze $f^{\prime}(x)\cdot z = \Diff_z f(x)$ und Folgerung \ref{folg:diffbar_x}
\item[c)] entweder $\frac{\partial}{\partial x_j}f(x)
\begin{pmatrix}
\sfrac{\partial}{\partial x_j}f_1(x) \\ \hdots \\ \sfrac{\partial}{\partial x_j}f_n(x)
\end{pmatrix}^T$ analog zu a) oder $f^{\prime}(x) = (\sfrac{\partial}{\partial x_1}f_j(x)) \dots \sfrac{\partial}{\partial x_n}f_j(x))^T$
\end{compactitem}
\end{proof}
\textbf{Frage:} Gilt Umkehrung von Theorem \ref{theo:voll_redukt} und Satz \ref{satz:egs_grad}? D.h. falls alle partiellen Ableitungen $\sfrac{\partial}{\partial x_j}f_i(x)$ bzw. alle Richtungsableitungen $\Diff_zf(x)$ existieren, ist dann $f$ differenzierbar in $x$? Nein!
\begin{beispiel}
$f: \mathbb{R}^2 \to \mathbb{R}, f(x_1,x_2) =
\begin{cases}
\frac{x_2^2}{x_1} & \text{, } x_1 \neq 0 \\
0 & \text{, } x_1 = 0
\end{cases}$\\
Brechne alle Richtungsableitungen in $x=0$ mittels \ref{folg:äquiv_richtungsableit}:\\
$\Diff_zf(0) = \lim_{t \to 0} \frac{f(0 + tz) - f(0)}{t} = \lim_{t \to 0}\frac{f(tz)}{t} \Rightarrow \Diff_z f(0) = \lim_{t\to 0} \frac{t^2 z_2^2}{t^2 z_1} = \frac{z_2^2}{z_1} \forall z \in \mathbb{R}^2, z_1 \neq 0$\\
$\Diff_{0,z_2}f(0) = \lim_{t\to 0} \frac{0}{t} = 0 \Rightarrow \Diff_z f(0)$ existiert $\forall z \in \mathbb{R}^2$\\
\textbf{aber:} $\lim_{n\to \infty} f\Big(\frac{1}{n^2}\frac{1}{n}\Big) = \lim_{n\to \infty} \frac{\frac{1}{n^2}}{\frac{1}{n^2}}=1 \neq 0 f(0) \Rightarrow f$ stetig in $0 \overset{\text{Satz \ref{satz:eindeutig_x}}}{\Rightarrow} f$ nicht differenzierbar in $x = 0$.
\end{beispiel}
\begin{folgerung}
Sei $f: D\subset K^n \to K^m$, $D$ offen, $f$ differenzierbar in $x \in D$
\begin{align}
\Rightarrow \Diff_z f(x) = \sum_{j=1}^{n}z_j\frac{\partial}{\partial x_j}f(x) \quad \forall z = (z_1,\dots, z_m) \in \mathbb{R}^n
\end{align}
\end{folgerung}
\subsection{$\mathbb{R}$-differenzierbar und $\mathbb{C}$-differenzierbar}
$\mathbf{A}(x_1+x_2) = \mathbf{A}(x_1) + \mathbf{A}(x_1), \mathbf{A}(\alpha x) = \alpha\mathbf{A}(x)$
\begin{definition}[$K$-differenzierbar]
$f: D \subset K^n \to K^m$ ist differenzierbar in $z_0 \in D$ (offen) gdw. $\exists K$-lineare Abbildung $\mathbf{A} : K^n \to K^m$ die Funktion $f$ in $z_0$ ``lokal approximieren'' (d.h. Satz \ref{satz:diffbar_abb} gilt). Man müsste genauer sagen: $f$ ist \begriff{$K$-differenzierbar} in $z_0$.
\end{definition}
Wegen $\mathbb{R} \subset \mathbb{C}$: jeder Vektorraum über $\mathbb{C}$ kann als Vektorraum über $\mathbb{R}$ betrachtet werden (nicht umgekehrt!) und jede $\mathbb{C}$-lineare Abbildung zwischen $\mathbb{C}$-Vektorraum kann als $\mathbb{R}$-linear betrachtet werden $\Rightarrow$ jede $\mathbb{C}$-differenzierbare Abbildung $f: D \subset \mathbb{C}^n \to \mathbb{C}^m$ ist auch $\mathbb{R}$-differenzierbar, Umkehrung gilt i.A. nicht!
\begin{beispiel}
Sei $f: \mathbb{C} \to \mathbb{C}$ mit $f(z) = \bar{z}$
\begin{compactitem}
\item[a)] $f$ ist additiv (d.h. $f(z_1 + z_2) = f(z_1) + f(z_2))$ und $f(tz) = tf(z)\forall t \in \mathbb{R} \Rightarrow f$ ist $\mathbb{R}$-linear wegen $f(z) = \bar{z} = \bar{z}_0 + \overline{z - z_0} = f(z_0) + f(z-z_0) \Rightarrow f$ $\mathbb{R}$-differenzierbar in $z_0 \forall z_0 \in \mathbb{C}$
\item[b)] angenommen $f$ $\mathbb{C}$-differenzierbar in $z_0 \in \mathbb{C} \Rightarrow f^{\prime}(z_0) = \lim_{z\to 0}\frac{\overline{z_0 + z} - \bar{z}_0}{z} = \lim_{z\to 0} \frac{\bar{z}}{z}$ (``$=$''$\{1,-1\}$) existiert nicht! $f$ nicht $\mathbb{C}$-differenzierbar
\end{compactitem}
\end{beispiel}
\textbf{Allgemein:} $f: D \subset X \to Y$, $D$ offen, $(X,Y) = (\mathbb{R}^n,\mathbb{C}^m)$ oder $(\mathbb{C}^n,\mathbb{R}^n)$ oder $(\mathbb{C}^n,\mathbb{C}^m)$ heißt $\mathbb{R}$-differenzierbar in $z_0$ falls \ref{satz:eindeutig_x} mit entsprechender $\mathbb{R}$-linearen Abbildung $\mathbf{A}: X \to Y$ gilt (beachte: falls $X,Y$ nur Vektorraum über $\mathbb{R}$, dann $\mathbb{C}$-differenzierbar nicht erklärt!)
\textbf{Spezialfall:} $f: D \subset \mathbb{C} \to \mathbb{C}$, $D$ offen, $z_0 \in D$, vergleiche $\real$-differenzierbar und $\comp$-differenzierbar:
\begin{compactitem}
\item Sei $f$ $\real$-differenzierbar in $z_0$, d.h. $\exists \real$-lineare Abbildung $\mathbf{A}: \comp \to \comp$ mit
\begin{align}
f(z_0 + z) = f(z_0) + \mathbf{A}z + o(\vert z \vert), z \to z_0
\end{align}
\begin{align}
\begin{rcases}
&\text{für } z = x,x \in \real\colon \mathbf{A}(1) = \lim\limits_{\substack{x\to 0 \\ x\in \real}} \frac{f(z_0 + x) - f(z_0)}{x} =: f_x(z_0)\\
&\text{für } z = iy,y \in \real\colon \mathbf{A}(i) = \lim\limits_{\substack{y\to 0 \\ y\in \real}} \frac{f(z_0 + x) - f(z_0)}{x} =: f_y(z_0) \label{eq:R-diffbar}
\end{rcases}
\text{nenne } f_x(z_0),f_y(z_0) \text{ \highlight{partielle Ableitung} von } f \text{ in } x_0
\end{align}
\item Sei $f$ $\comp$-differenzierbar in $z_0$, d.h. $f(z_0 +z) = f(z_0) +\underbrace{}$
\end{compactitem}

View file

@ -2,7 +2,7 @@
\subsection{Lokale Extrema ohne Nebenbedingung}
Betrachte $f:D\subset\mathbb{R}^n\to\mathbb{R}$\marginnote{Zielraum $\mathbb{R}$ wegen Ordnung}, $D$ offen, $f$ \gls{diffbar}.
\begin{boldenvironment}[notwendige Bedingung:] (\propref{mittelwertsatz_optimalitaetsbedingung}): $f$ hat lokales Minimum / Maximum in $x\in D$ $\Rightarrow$ $f'(x) = 0$
\begin{boldenvironment}[notwendige Bedingung] (\propref{mittelwertsatz_optimalitaetsbedingung}): $f$ hat lokales Minimum / Maximum in $x\in D$ $\Rightarrow$ $f'(x) = 0$
\end{boldenvironment}
\begin{boldenvironment}[Frage]

View file

@ -10,41 +10,55 @@ Betrachte $f_k:D\subset K^n\to K^m$, $D$ offen, $f_k$ \gls{diffbar} für $k\in\m
alle $f_k$ stetig, $f_k\to f$ gleichmäig auf $D$ $\xRightarrow{\text{\propref{chap_14_19}}}$ $f$ stetig
\end{boldenvironment}
\begin{example}
\begin{*example}
Sei $f_k:\mathbb{R}\to\mathbb{R}$ mit $f_k(x) = \frac{\sinh^2 x}{k}$.
Wegen $\vert f_k(x)\vert \le \frac{1}{k}$ $\forall k$ $\Rightarrow$ $f_k\to f$ gleichmäßig auf $\mathbb{R}$ für $f=0$
Aber $f_k'(x) = k\cdot\cosh^2 x \cancel{\rightarrow} f'(x) = 0$
\end{*example}
\begin{example}
Sei $f_k:\mathbb{R}\to\mathbb{R}$ mit $f_k(x) = \sqrt{x^2 + \frac{1}{k}}$, wobei $f(x) = \vert x \vert$\\
$\Rightarrow$ alle $f_k$ \gls{diffbar}, $f_k \to f$ gleichmäßig auf $[-1,1]$
und $(\vert f_k(x) - f(x)\vert \le f_k(0)\frac{1}{\sqrt{k}}$ \emph{aber} $f$ nicht \gls{diffbar} %TODO abbildung
\end{example}
\begin{example}
Sei $f_k:\mathbb{R}\to\mathbb{R}$ mit $f_k(x) = \frac{\sin kx}{x}$, $\Rightarrow f_k \to f(x) = 0$ gleichmäßig auf $\real$ (da $\vert f_k(x) \vert \le \frac{1}{k} \forall x \in \real$) \\
\emph{aber} $f^{'}_{k}(x) = \cos kx \not\to f^{'}(x) = 0$
\end{example}
\begin{proposition}[Differentiation bei Funktionsfolgen]
\proplbl{funktionsfolgen_differentiation}
Sei $f_K:D\subset K^n\to K^n$, $D$ offen, beschränkt, $f_k$ \gls{diffbar} $\forall k$ und\begin{enumerate}[label={(\alph*)}]
\item $f_k'\rightarrow: g$ gleichmäßig auf $B_r(x)\subset D$
\item \proplbl{funktionsfolgen_differentiation_b} $\{ f_k(x_0)\}$ konvergiert für ein $x_0\in B_r(x)$
Sei $f_K:D\subset K^n\to K^m$, $D$ offen, beschränkt, $f_k$ \gls{diffbar} $\forall k$ und\begin{enumerate}[label={(\alph*)}]
\item $f_k'\to: g$ gleichmäßig auf $B_r(x)\subset D$
\item \proplbl{funktionsfolgen_differentiation_b} $\{ f_k(x_0)\}_{k}$ konvergiert für ein $x_0\in B_r(x)$
\end{enumerate}
$\Rightarrow$ $f_k\rightarrow: f$ gleichmäßig auf $B_r(x)$ und $f$ ist \gls{diffbar} auf $B_r(x)$ mit \begin{align*}
$\Rightarrow$ $f_k\to: f$ gleichmäßig auf $B_r(x)$ und $f$ ist \gls{diffbar} auf $B_r(x)$ mit
\begin{align*}
f_k'(y) \rightarrow f'(y) \quad\forall y\in B_r(x)
\end{align*}
\end{proposition}
\begin{underlinedenvironment}[Hinweis]
Betrachte $f_k(x) := \frac{x^k}{k^2} + k$ auf $(0,1)$ um zu sehen, dass Voraussetzung \ref{funktionsfolgen_differentiation_b} wichtig ist.
Betrachte $f_k(x) := \frac{\sin x}{k} + k$ auf $\real$ um zu sehen ($g = 0$), dass Voraussetzung \ref{funktionsfolgen_differentiation_b} wichtig ist.
\end{underlinedenvironment}
\begin{proof}
Für $\epsilon > 0$ $\exists k\in \mathbb{N}$ mit \begin{align}
Für $\epsilon > 0$ $\exists k_0\in \mathbb{N}$ mit
\begin{align}
\proplbl{funktionsfolgen_differentiation_beweis_1}
\vert f_k(x_0) - f_l(x_0)\vert < \epsilon \quad k,l \ge k_0
\vert f_k(x_0) - f_l(x_0)\vert < \epsilon \quad \forall k,l \ge k_0 \text{ und }\\
\Vert g(y) - f^{y}_k\Vert < \epsilon, \Vert f^{'}_k(y) - f^{'}_k(y)\Vert < \epsilon \forall k,l \ge k_0, y \in B_r(x)
\end{align}
Weiter gilt (eventuell für größeres $k_0$) $\Vert g(z) - f_k'(z)\Vert < \epsilon$ und \begin{align}
\proplbl{funktionsfolgen_differentiation_beweis_2}
\Vert f_k'(y) - f_l'(y)\Vert < \epsilon \quad\forall k,l\ge k_0,\;z,y\in B_r(x)
\end{align}
Schrankensatz: $\forall z,y\in B_r(x)$, $k,l\ge k_0$ $\exists \xi\in [z,y]$ mit {\zeroAmsmathAlignVSpaces**\begin{align}
Schrankensatz: $\forall z,y\in B_r(x)$, $k,l\ge k_0$ $\exists \xi\in [y,z]$ mit {\zeroAmsmathAlignVSpaces**\begin{align}
\proplbl{funktionsfolgen_differentiation_beweis_3}
\left\vert \left(f_k(y) - f_l(y)\right) - \left( f_k(z) - f_l(z)\right)\right\vert \le \Vert f_k'(\xi) - f_l'(\xi)\Vert \cdot \vert y - z\vert \le \epsilon \vert y -z\vert < 2r\cdot\epsilon
\left\Vert \left(f_k(y) - f_l(y)\right) - \left( f_k(z) - f_l(z)\right)\right\Vert \le \Vert f_k'(\xi) - f_l'(\xi)\Vert \cdot \vert y - z\vert \le \epsilon \vert y -z\vert < 2r\cdot\epsilon
\end{align}}
{\zeroAmsmathAlignVSpaces*\begin{flalign}
\notag\Rightarrow\;\;\vert f_k(y) - f_l(y)\vert &\le \vert \big(f_k(y) - f_l(y)\big) - \big(f_k(x_0) - f_l(x_0)\big)\vert + \vert f_k(x_0) - f_l(x_0)\vert& \\
@ -80,13 +94,14 @@ Betrachte $f_k:D\subset K^n\to K^m$, $D$ offen, $f_k$ \gls{diffbar} für $k\in\m
\end{proof}
\subsection{Anwendung auf Potenzreihen}
Sei $f:B_r(x_0)\subset K\to K$ gegen durch eine Potenzreihe \begin{align}
\proplbl{funktionsfolgen_potenzreihe}
f(x) &= \sum_{k=0}^\infty a_k(x - x_0)^k\quad\forall x\in B_{\underbrace{\text{\scriptsize$R$}}_{\mathclap{\text{Konvergenzradius}}}}(x_0)
\end{align}
Sei $f:B_R(x_0)\subset K\to K$ gegeben durch eine Potenzreihe
\begin{align}
\proplbl{funktionsfolgen_potenzreihe}
f(x) &= \sum_{k=0}^\infty a_k(x - x_0)^k\quad\forall x\in B_{\underbrace{\text{\scriptsize$R$}}_{\mathclap{\text{Konvergenzradius}}}}(x_0)
\end{align}
\begin{boldenvironment}[Wiederholung]
$R=\frac{1}{\limsup \sqrt[k]{\vert a_k\vert}}$
$R=\frac{1}{\limsup_{k\to \infty} \sqrt[k]{\vert a_k\vert}}$
\end{boldenvironment}
\begin{boldenvironment}[Frage]
@ -96,15 +111,17 @@ Sei $f:B_r(x_0)\subset K\to K$ gegen durch eine Potenzreihe \begin{align}
\begin{proposition}
\proplbl{funktionsfolgen_satz_3}
Sei $f:B_r(x_0)\subset K\to K$ Potenzreihe gemäß \eqref{funktionsfolgen_potenzreihe} \\
\hspace*{1.5ex}$\Rightarrow$ $f$ ist \gls{diffbar} auf $B_r(x_0)$ mit \begin{align}
\hspace*{1.5ex}$\Rightarrow$ $f$ ist \gls{diffbar} auf $B_r(x_0)$ mit
\begin{align}
\proplbl{funktionsfolgen_satz_3_eq}
f'(x) &= \sum_{k=1}^\infty k a_k (x - x_0)^{k-1}\quad\forall x\in B_r(x_0)
\end{align}
\end{proposition}
\begin{conclusion}
Sei $f:B_r(x_0)\subset K\to K$ Potenzreihe gemäß \eqref{funktionsfolgen_potenzreihe} \\
\hspace*{1.5ex}$\Rightarrow$ $f\in C^\infty (B_r(x_0), K)$ und \begin{align}
Sei $f:B_R(x_0)\subset K\to K$ Potenzreihe gemäß \eqref{funktionsfolgen_potenzreihe} \\
\hspace*{1.5ex}$\Rightarrow$ $f\in C^\infty (B_R(x_0), K)$ und
\begin{align}
\proplbl{funktionsfolgen_eq_8}
a_k = \frac{1}{k!}\cdot f^{(k)})(x_0)
\end{align}
@ -113,20 +130,24 @@ Sei $f:B_r(x_0)\subset K\to K$ gegen durch eine Potenzreihe \begin{align}
\begin{proof}
$k$-fache Anwendung von \cref{funktionsfolgen_satz_3} liefert $f\in C^k(B_r(x_0), K)$ $\forall k\in \mathbb{N}$\\
\ $\xRightarrow{\eqref{funktionsfolgen_satz_3_eq}}$ $f'(x) = a_1$, $f''(x_0) = 2a_k$, $\dotsc$ rekursiv folgt \eqref{funktionsfolgen_eq_8}.
$\xRightarrow{\eqref{funktionsfolgen_satz_3_eq}}$ $f'(x) = a_1$, $f''(x_0) = 2a_k$, $\dotsc$ rekursiv folgt \eqref{funktionsfolgen_eq_8}.
\end{proof}
\begin{proof}[\propref{funktionsfolgen_satz_3}]
Betrache die Partialsummen\begin{align*}
f_k(x) := \sum_{j=0}^k a_j(x- x_0)^j\quad\forall x\in B_r(x_0)
Betrache die Partialsummen
\begin{align*}
f_k(x) := \sum_{j=0}^k a_j(x- x_0)^j\quad\forall x\in B_R(x_0)
\end{align*}
\ $\Rightarrow$ $f_k(x_0)\xrightarrow{k\to\infty} f(x_0)$ und $f_k$ \gls{diffbar} mit \begin{align*}
f_k'(x) = \sum_{j=1}^k j a_j(x - x_0)^{j-1}\quad\forall x\in B_r(x_0)
$\Rightarrow$ $f_k(x_0)\xrightarrow{k\to\infty} f(x_0)$ und $f_k$ \gls{diffbar} mit
\begin{align*}
f_k'(x) = \sum_{j=1}^k j a_j(x - x_0)^{j-1}\quad\forall x\in B_R(x_0)
\end{align*}
Wegen \begin{align*}
\limsup\limits_{k\to\infty} \sqrt[k]{(k+1)\vert a_{k+1}\vert} = \limsup \sqrt[k]{k\left(1 + \frac{1}{k}\right)} \cdot \left( \sqrt[k+1]{\vert a_{k+1}\vert}\right)^{\frac{k+1}{k}} = \limsup \sqrt[k]{\vert a_k\vert} = \frac{1}{R}
Wegen
\begin{align*}
\limsup\limits_{k\to\infty} \sqrt[k]{(k+1)\vert a_{k+1}\vert} = \limsup \sqrt[k]{k\left(1 + \frac{1}{k}\right)} \cdot \left( \sqrt[k+1]{\vert a_{k+1}\vert}\right)^{\frac{k+1}{k}} = \limsup \sqrt[k]{\vert a_k\vert} = \frac{1}{R}
\end{align*}
hat die Potenzreihe \begin{align*}
hat die Potenzreihe
\begin{align*}
g(x) := \sum_{k=1}^\infty k a_k(x-x_0)^{k-1}
\end{align*}
den Konvergenzradius $R$ \\
@ -141,16 +162,18 @@ Sei $f:B_r(x_0)\subset K\to K$ gegen durch eine Potenzreihe \begin{align}
\begin{example}
Es gilt \begin{align}
\proplbl{funktionsfolgen_eq_9}
\ln(1+x) = \sum_{k=0}^\infty \frac{(-1)^k}{k+1}x^{k+1}\quad\forall x\in (-1,1)\subset \mathbb{R}
\ln(1+x) = f(x) = \sum_{k=0}^\infty \frac{(-1)^k}{k+1}x^{k+1}\quad\forall x\in (-1,1)\subset \mathbb{R}
\end{align}
\end{example}
\begin{proof}
$f(x)$ sei Potenzreihe \eqref{funktionsfolgen_eq_9}, hat Konvergenzradius $R=1$, $x_0=0$ \\
$\xRightarrow{\text{\cref{funktionsfolgen_satz_3}}}$ $f$ \gls{diffbar} auf $(-1,1)$ und \begin{align*}
$f(x)$ sei Potenzreihe in \eqref{funktionsfolgen_eq_9}, hat Konvergenzradius $R=1$, $x_0=0$ \\
$\xRightarrow{\text{\cref{funktionsfolgen_satz_3}}}$ $f$ \gls{diffbar} auf $(-1,1)$ und
\begin{align*}
f'(x) = \sum_{k=0}^\infty (-x)^k = \frac{1}{1-(-x)} = \frac{1}{1+x}\qquad\text{geometrische Reihe}
\end{align*}
und\begin{align*}
und
\begin{align*}
\frac{\D}{\D x}\ln (1+x) &= \frac{1}{1+x} = f'(x) \\
f(x) &= \ln(1+x) + \mathrm{const}
\end{align*}

View file

@ -466,7 +466,7 @@ Analoge Rechnung liefert allgemein
\begin{proof}[\propref{taylor_partielle_ableitung_schwarz}]
\gls{obda} $m=1$. Fixiere $\epsilon > 0$ $\Rightarrow$ $\exists \delta > 0$ mit \begin{align*}
\alpha + s\cdot e_i + t\cdot e_j\in D\quad\forall s,t\in (-\delta,\delta)
x + s\cdot e_i + t\cdot e_j\in D\quad\forall s,t\in (-\delta,\delta)
\end{align*}
und
\begin{align}

View file

@ -164,4 +164,24 @@ Mathematik \smiley{}
\item $\frac{r_k(x)\cdot \tilde{r}_l(x)}{\vert x-x_0\vert^{k+l}}=\frac{r_k(x)}{\vert x-x_0\vert^k}\cdot\frac{\tilde{r}_l(x)}{\vert x-x_0\vert^l}\to 0$ \\
$\frac{\vert r_k(x)\cdot R_l(x)\vert}{\vert x-x_0\vert^{k+l}}=\frac{\vert r_k(x)\vert}{\vert x-x_0\vert^k}\cdot\frac{\vert R_l(x)\vert}{\vert x-x_0\vert^l}\to 0$
\end{enumerate}
\end{proof}
\end{proof}
\begin{example}
\begin{itemize}
\item offenbar in $K^n$: $\vert x-x_0\vert^k=\mathcal{O}(\vert x-x_0\vert^k)=o(\vert x-x_0\vert^{k-1})$, $x\to x_0$
\item sei $f:D\subseteq K^n\to K^m$ stetig in $x_0\in D$, dann gilt für $x\to x_0$
\begin{itemize}
\item $f(x)\cdot o(\vert x-x_0\vert^k)=(f(x_0)+o(1))\cdot o(\vert x-x_0\vert^k)=o(\vert x-x_0\vert^k)$
\item $\frac{1}{f(x)+o(1)}=\frac{1}{f(x)}+o(1)=\frac{1}{f(x_0)}+o(1)$, da alle Terme gegen $\frac{1}{f(x_0)}$ konvergieren. \\
\emph{beachte:} $o(1)$ steht jeweils für verschiedene Funktionen mit dieser Eigenschaft
\end{itemize}
\item in $\real$ gilt für $x\to 0$:
\begin{itemize}
\item $x^5=o(\vert x\vert^4)$, $x^5=o(\vert x\vert)$, $x^5=\mathcal{O}(\vert x\vert^5)$, $x^5=\mathcal{O}(\vert x\vert^3)$
\item $e^x=\mathcal{O}(1)=3+\mathcal{O}(1)$, $e^x=1+o(1)\neq 2+o(1)$
\item $\sin(x)=\mathcal{O}(\vert x\vert)$, $\sin(x)=o(1)$, $x^3\cdot\sin(x)=o(\vert x\vert^3)$, $e^x\cdot \sin(x)=o(1)$
\item $(1-\cos(x))x^2=\mathcal{O}(\vert x\vert^2)x^2=o(\vert x\vert^3)$
\item $\frac{1}{o(1)+\cos(x)}=e^x+o(1)=1+o(1)$
\end{itemize}
\end{itemize}
\end{example}

Binary file not shown.

View file

@ -4,7 +4,7 @@
\usepackage[ngerman]{babel}
\ifpdf
\usepackage[utf8]{inputenc} %not recommended with lualatex
\usepackage[T1]{fontenc}
%\usepackage[T1]{fontenc}
\fi
\usepackage{zref-base}
@ -339,7 +339,7 @@
\IfBooleanTF{#1}%
{\index{#2#3#4}}%
{%
\uline{#3}%
\uline{#3} %
\ifnumcomp{\value{section}}{<}{16}%
{\index[semester1]{#2#3#4}}%
{\index[semester2]{#2#3#4}}%
@ -506,7 +506,7 @@
\newacronym{gdw}{gdw.}{genau dann wenn}
\newacronym{fa}{fa.}{fast alle}
\newacronym{fü}{f.ü.}{fast überall}
\newacronym{fue}{f.ü.}{fast überall}
\newacronym{obda}{oBdA}{ohne Beschränkung der Allgemeinheit}
\newacronym{tf}{TF}{\begriff{Teilfolge}}
\newacronym{hw}{Hw}{\begriff{Häufungswert}}

View file

@ -0,0 +1,191 @@
\section{Abbildungen}
\begin{overview}[Abbildungen]
Eine \begriff{Abbildung} $f$ von eine Menge $X$ in einer Menge $Y$ ist eine Vorschrift, die jedem $x \in X$
auf eindeutige Weise genau ein Element $f(x) \in Y$ zuordnet. Man schreibt dies als
\begin{align}
f:
\begin{cases}
X \to Y \\ x \mapsto y
\end{cases}\notag
\end{align}
oder $f: X \to Y, x \mapsto y$ oder noch einfacher $f: X \to Y$. Dabei heißt $X$ die
\begriff{Definitionsmenge} und $Y$ die \begriff{Zielmenge} von $f$. Zwei Abbildungen heißen \begriff[Abbildung!]{gleich}, wenn ihre
Definitionsmengen und Zielmengen gleich sind und sie jedem $x \in X$ das selbe Element
$y \in Y$ zuordnen. Die Abbildungen von $X$ nach $Y$ bilden wieder eine Menge, welche wir
mit $\Abb(X,Y)$ bezeichnen.
\end{overview}
\begin{example}
\proplbl{1_2_2}
\begin{itemize}
\item Abbildungen mit Zielmenge $\mathbb R$ nennt man Funktion: $f: \mathbb R \to \mathbb
R, x \mapsto x^2$
\item Abbildungen mit Zielmenge $\subset$ Definitionsmenge: $f: \mathbb R \to \mathbb
R_{\le 0}, x \mapsto x^2$ \\
$\to$ Diese Abbildungen sind verschieden, da sie nicht die selbe Zielmenge haben.
\item $f: \{0,1\} \to \mathbb R, x \mapsto x^2$
\item $f: \{0,1\} \to \mathbb R, x \mapsto x$ \\
$\to$ Diese Funktionen sind gleich. Sie haben die gleichen Definitions- und Zielmengen
und sie ordnen jedem Element der Definitionsmenge das gleiche Element der Zielmenge zu.
\end{itemize}
\end{example}
\begin{example}
\begin{itemize}
\item auf jeder Menge $X$ gibt es die \begriff[Abbildung!]{identische Abbildung} (Identität) \\ $\id: X \to X, x
\mapsto x$
\item allgemein kann man zu jeder Teilmenge $A \subset X$ die \begriff[Abbildung!]{Inklusionsabbildung} zuordnen
$\iota_A: A \to X, x \mapsto x$
\item zu je zwei Mengen $X$ und $Y$ und einem festen $y_0 \in Y$ gibt es die \begriff[Abbildung!]{konstante
Abbildung} $c_{y_0}: X \to Y x \mapsto y_0$
\item zu jder Menge $X$ und Teilmenge $A \subset X$ definiert man die \begriff{charakteristische
Funktion}\\ $\chi_A: X \to \mathbb R,
\begin{cases}
x \mapsto 1 \quad(x \in A) \\ x \mapsto 0 \quad(x \notin A)
\end{cases}
$
\item zu jeder Menge $X$ gibt es die Abbildung \\ $f: X \times X \to \mathbb R, (x,y) \mapsto
\delta_{x,y} \begin{cases} 1 \quad (x=y) \\ 0 \quad (x \neq y) \end{cases}$
\end{itemize}
\end{example}
\begin{example}[Eigenschaften von Funktionen]
\begin{itemize}
\item \begriff{injektiv}: Zuordnung ist eindeutig: $F(m_1) = F(m_2) \Rightarrow m_1=m_2$ \\
Bsp: $x^2$ ist nicht injektiv, da $F(-2)=F(2)=4$
\item \begriff{surjektiv}: $F(M)=N$ ($\forall n \in N \; \exists m \in M \mid F(m)=n$) \\
Bsp: $\sin(x)$ ist nicht surjektiv, da es kein $x$ für $y=27$ gibt
\item \begriff{bijektiv}: injektiv und surjektiv
\end{itemize}
\end{example}
\begin{example}
\begin{itemize}
\item Die identische Abbildung $\id_X:X\to X$ ist stets bijektiv.
\item Für jede Teilmenge $A\subseteq X$ ist die Inklusionsabbildung $\iota_A:A\to X$ injektiv, aber im Allgemeinen nicht surjektiv.
\item Die Funktion $f:\real\to\real_{\ge 0}$ mit $x\mapsto x^2$ ist surjektiv, aber nicht injektiv.
\item Die Funktion $f:\real\to\real$ mit $x\mapsto x^3$ ist bijektiv.
\end{itemize}
\end{example}
\begin{definition}[Einschränkung]
\proplbl{1_2_6}
Sei $f: x \mapsto y$ eine Abbildung. Für $A \subset X$
definiert man die \begriff{Einschränkung}/Restrikton von $f$ auf $A$ als die Abbildung
\begin{align}
f \vert_A:\begin{cases}
A \to Y \\ a \mapsto f(a)
\end{cases}\notag
\end{align}
Das \begriff{Bild} von $A$ unter $f$ ist $f(A) := \{f(a): a \in A\}$. \\
Das \begriff{Urbild} einer Menge $B \subset Y$ unter $f$ ist $f^{-1} := \{x \in X: f(x) \in B\}$. \\
Man nennt $\Image(f) := f(X)$ das Bild von $f$.
\end{definition}
\begin{remark}
\proplbl{1_2_7}
Man ordnet der Abbildung $f: X \to Y$ auch die Abbildungen $\mathcal P(X) \to \mathcal P(Y)$ und
$\mathcal P(Y) \to \mathcal P(X)$ auf den Potenzmengen zu. Man benutzt hier das gleiche
Symbol $f()$ sowohl für die Abbildung $f: X \to Y$ als auch für $f: P(X) \to P(Y)$, was
unvorsichtig ist, aber keine Probleme bereiten sollte. \\
In anderen Vorlesungen wird für $y \in Y$ auch $f^{-1}(y)$ statt $f^{-1}(\{y\})$ geschrieben. \\
\end{remark}
\begin{remark}
\proplbl{1_2_8}
Genau dann ist $f: X \to Y$ surjektiv, wenn $\Image(f)=Y$ \\
Genau dann ist $f: X \to Y \begin{cases} $injektiv$ \\ $surjektiv$ \\ $bijektiv$ \end{cases}$, wenn
$|f^{-1}(\{y\})| = \begin{cases} \le 1 \\ \ge 1 \\ =1 \end{cases} \quad \forall y \in Y$ \\
\end{remark}
\begin{definition}[Komposition]
Sind $f: X \to Y$ und $g: Y \to Z$ Abbildungen, so ist die
\begriff{Komposition} $g \circ f$ die Abbildung
\begin{align}
g \circ f := \begin{cases}
X \to Z \\ x \mapsto f(g(x))
\end{cases}\notag
\end{align} Man kann
die Komposition auffassen als eine Abbildung $\circ: \Abb(Y,Z) \times \Abb(X,Y) \to \Abb(X,Z)$.
\end{definition}
\begin{proposition}
\proplbl{1_2_10}
Die Abbildung von Kompositionen ist assoziativ, d.h. es gilt:
\begin{align}
h \circ (g \circ f) = (h \circ g)\circ f\notag
\end{align}.
\end{proposition}
\begin{proof}
Sowohl $h\circ (g\circ f)$ als auch $(h\circ g)\circ f$ haben die Definitionsmenge $X$ und die Zielmenge
$W$ und für jedes $x\in X$ ist $(h\circ (g\circ f))(x)=h((g\circ f)(x))=h(g(f(x)))=(h\circ g)(f(x)) =
((h\circ g)\circ f)(x)$.
\end{proof}
\begin{definition}[Umkehrabbildung]
Ist $f: X \to Y$ bijektiv, so gibt es zu jedem $y \in Y$
genau ein $x_y \in X$ mit $f(x_y)=y$ (\propref{1_2_7}), durch
\begin{align}
f^{-1}: \begin{cases}
Y \to X \\ y \mapsto x_y
\end{cases}\notag
\end{align} wird also eine
Abbildung definiert, die \begriff{Umkehrabbildung} zu $f$.
\end{definition}
\begin{proposition}
Ist die Abbildung $f: X \to Y$ bijektiv, so gelten
\begin{align}
f^{-1} \circ f = id_x \notag \\
f \circ f^{-1} = id_y \notag
\end{align}
\end{proposition}
\begin{proof}
Es ist $f^{-1}\in \Abb(X,X)$ und $f\circ f^{-1}\in \Abb(Y,Y)$. Für $y\in Y$ ist $(f\circ f^{-1})(x)=
f(f^{-1}(y))=y=\id_Y$. Für $x\in X$ ist deshalb $f((f^{-1}\circ f)(x))=(f\circ (f^{-1}\circ f))(x)\overset{\propref{1_2_10}}{=}
((f\circ f^{-1})\circ f)(x)=(\id_Y \circ f)(x)=f(x)$. Da $f$ injektiv, folgt $f^{-1}\circ f=\id_X$.
\end{proof}
\begin{remark}
\proplbl{1_2_13}
Achtung, wir verwenden hier das selbe Symbol $f^{-1}$ für zwei verschiedene Dinge: Die Abbildung
$f^{-1}: \mathcal P(X) \to \mathcal P(Y)$ aus \propref{1_2_6} existiert für jede Abbildung $f: X \to Y$, aber die
Umkehrabbildung $f^{-1}: Y \to X$ aus \propref{1_2_10} existiert nur für bijektive Abbildungen $f: X \to Y$.
\end{remark}
\begin{definition}[Familie]
Seien $I$ und $X$ Mengen. Eine Abbildung $x: I \to X, i \mapsto
x_i$ nennt man \begriff{Familie} von Elementen von $X$ mit einer Indexmenge I (oder I-Tupel von
Elementen von $X$) und schreibt diese auch als $(x_i)_{i \in I}$. Im Fall $I=\{1,2,...,n\}$
identifiziert man die I-Tupel auch mit den n-Tupeln aus \propref{1_1_8}. Ist $(x_i)_{i \in I}$ eine Familie von
Teilmengen einer Menge $X$, so ist
\begin{itemize}
\item $\bigcup X_i = \{x \in X \mid \exists i \in I(x \in X)\}$
\item $\bigcap X_i = \{x \in X \mid \forall i \in I(x \in X)\}$
\item $\prod X_i = \{f \in \Abb(I,X) \mid \forall i \in I(f(i) \in X_i)\}$
\end{itemize}
Die Elemente von $\prod X_i$ schreibt man in der Regel als Familien $(x_i)_{i \in I}$.
\end{definition}
\begin{example}
Eine Folge ist eine Familie $(x_i)_{i \in I}$ mit der Indexmenge $\mathbb{N}_0$.
\end{example}
\begin{definition}[Graph]
Der \begriff{Graph} einer Abbildung $f: X \to Y$ ist die Menge
\begin{align}
\Gamma f: \{(x,y) \in X \times Y \mid y=f(x)\}\notag
\end{align}
\end{definition}
\begin{remark}[Formal korrekte Definition einer Abbildung]
Eine Abbildung $f$ ist ein Tripel $(X,Y,\Gamma)$, wobei $\Gamma \subset X \times Y \quad \forall
x \in X$ genau ein Paar $(x,y)$ mit $y \in Y$ enthält. Die Abbildungsvorschrift schickt dann
$x \in X$ auf das eindeutig bestimmte $y \in Y$ mit $(x,y) \in \Gamma$. Es ist dann $\Gamma =
\Gamma_f$.
\end{remark}
\begin{remark}
In anderen Vorlesungen wird die Zielmenge nicht immer als Teil der Definition einer Abbildung aufgefasst, d.h. man betrachtet zwei Abbildungen $f:X\to Y$ und $g:X\to Z$ mit gleicher Definitionsmenge dann als gleich, wenn $f(x)=g(x)$ für alle $x\in X$. Dies ist gleichbedeutend mit $\Gamma_f=\Gamma_g$. So würde man dann zum Beispiel $f_1$ und $f_2$ aus \propref{1_2_2} als gleich auffassen.
\end{remark}

View file

@ -0,0 +1,193 @@
\section{Basis und Dimension}
\begin{definition}[Basis]
Eine Familie $(x_i)$ von Elementen von $V$ ist eine \begriff{Basis} von $V$, wenn gilt:
\begin{itemize}
\item (B1): Die Familie ist linear unabhängig.
\item (B2): Die Familie erzeugt $V$, also $\Span_K(x_i) = V$.
\end{itemize}
\end{definition}
\begin{remark}
Kurz gesagt ist eine Basis ein linear unabhängiges Erzeugendensystem.
\end{remark}
\begin{proposition}
Sei $(x_i)$ eine Familie von Elementen von $V$. Genau dann ist $(x_i)$ eine Basis von $V$,
wenn sich jedes $x \in V$ auf eindeutige Weise als Linearkombination der $(x_i)$ schreiben lässt.
\end{proposition}
\begin{proof}
Dies folgt sofort aus \propref{2_2_10}
\end{proof}
\begin{example}
\begin{itemize}
\item Die leere Familie ist eine Basis des Nullraums.
\item Die \begriff{Standardbasis} $(e_1,...,e_n)$ ist eine Basis des Standardraums.
\item Die Monome $(X^i)$ bilden eine Basis des $K$-Vektorraum $K[X]$.
\item Die Basis des $\mathbb R$-Vektorraum $\mathbb C$ ist gegeben durch $(1,i)$, eine Basis des $\mathbb C$-
Vektorraum $\mathbb C$ ist gegeben durch $(1)$
\item Der $\mathbb C$-Vektorraum $\mathbb C$ hat viele weitere Basen.
\end{itemize}
\end{example}
\begin{proposition}
\proplbl{2_3_5}
Für eine Familie $(x_i)$ von Elementen von $V$ sind äquivalent:
\begin{itemize}
\item $B$ ist eine Basis von $V$.
\item $B$ ist ein minimales Erzeugendensystem.
\item $B$ ist maximal linear unabhängig, d.h. $B$ ist linear unabhängig, aber wenn Elemente zur Basis
hinzugefügt werden, ist diese nicht mehr linear unabhängig.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $1 \Rightarrow 2$: Sei $B$ eine Basis von $V$ und $J$ eine echte Teilmenge von $I$. Nach Definition ist $B$ ein
Erzeugendensystem. Wähle $i_0 \in I\backslash J$. Da $(x_i)$ linear unabhängig ist, ist $x_{i_0}$ keine Element
$\Span_K((x_i)_{i \in I\backslash \{i_0\}}) \supseteq \Span_K((x_i)_{i \in J})$ (\propref{2_2_9}). Insbesondere ist $(x_i)_{i\in J}$ kein
Erzeugendensystem von $V$.
\item $2 \Rightarrow 3$: Sei $B$ ein minimales Erzeugendensystem und $(x_i)_{i \in J}$ eine Familie mit $J$ echter
Obermenge von $I$. Wäre $(x_i)$ linear abhängig, so gäbe es ein $i_0$ mit $\Span_K((x_i)_{i \in I\backslash
\{i_0\}}) = \Span_K((x_i)_{i \in I})=V$ im Widerspruch zur Minimalität von $B$. Also ist $B=(x_i)$ linear
unabhängig. Wähle $j_0 \in J\backslash I$. Dann ist $x_{j_0} \in V=\Span_K(x_i) \le \Span_K((x_i)_{i \in
J\backslash \{j_0\}})$ und somit ist $(x_i)_{i\in J}$ linear abhängig nach \propref{2_2_9}.
\item $3 \Rightarrow 1$: Sei $B$ nun maximal linear unabhängig. Angenommen $B$ wäre kein Erzeugendensystem.
Dann gibt es ein $x\in V \backslash \Span_K(x_i)$. Definiere $J=I \cup \{j_0\}$ mit $j_0 \notin I$ und $x_{j_0}:=x$.
Aufgrund der Maximalität von $B$ ist $(x_i)$ linear abhängig, es gibt als Skalare $\lambda$, $(\lambda_i)$, nicht
alle gleich 0, mit $\lambda\cdot x+\sum_{i \in I} \lambda_i\cdot x_i=0$. Da $(x_i)$ linear abhängig ist,
muss $\lambda \neq 0$ sein, woraus der Widerspruch $x=\lambda^{-1}\cdot\sum_{i \in I} \lambda_i\cdot x_i
\in \Span_K(x_i)$. Somit ist $B$ ein Erzeugendensystem.
\end{itemize}
\end{proof}
\begin{theorem}[Basisauswahlsatz]
\proplbl{2_3_6}
Jedes endliche Erzeugendensystem von $V$ besitzt eine Basis als
Teilfamilie: Ist $(x_i)$ ein endliches Erzeugendensystem von $V$, so gibt es eine Teilmenge $J\subseteq I$,
für die $(x_i)_{i\in J}$ eine Basis von $V$ ist.
\end{theorem}
\begin{proof}
Sei $(x_i)$ ein endliches Erzeugendensystem von $V$. Definiere $\mathcal J:=\{J \subseteq I \mid (x_i)_{i\in J}\;
\text{J ist Erzeugendensystem von }V\}$. Da $I$ endlich ist, ist auch $\mathcal J$ endlich. Da $(x_i)$
Erzeugendensystem ist, ist $I\in J$, insbesondere $\mathcal J\neq\emptyset$. Es gibt deshalb ein bezüglich
Inklusion minimales $J_0\in \mathcal J$, d.h. $J_1 \in \mathcal J$ so gilt nicht $J_1 \subsetneq J_0$. Deshalb
ist $(x_i)_{i\in J_0}$ eine Basis von $V$ (\propref{2_3_5}).
\end{proof}
\begin{conclusion}
\proplbl{2_3_7}
Jeder endlich erzeugte $K$-Vektorraum besitzt eine endliche Basis.
\end{conclusion}
\begin{remark}
Der Beweis von \propref{2_3_6} liefert ein konstruktives Verfahren: Ist $(x_1,...,x_n)$ ein endliches
Erzeugendensystem von $V$, so prüfe man, ob es ein $i_0$ mit $x_{i_0} \in \Span_K((x_i)_{i\neq i_0})$ gibt.
Falls Nein, ist $(x_1,...,x_n)$ eine Basis von $V$. Falls Ja, macht man mit $(x_1,...,x_{i_{0-1}}, x_{i_{0+1}},
...,x_n)$ weiter.
\end{remark}
\begin{remark}
Man kann jedoch zeigen, dass jeder Vektorraum eine Basis besitzt. Die Gültigkeit der Aussage hängt jedoch
von bestimmten mengentheoretischen Axiomen ab, auf die wir an dieser Stelle nicht eingehen werden. Siehe dazu
LAAG 2. Semester.
\end{remark}
\begin{lemma}[Austauschlemma]
\proplbl{2_3_9}
Sei $B=(x_1,...,x_n)$ eine Basis von $V$. Sind $\lambda_1,...,\lambda_n \in K$ und
$y=\sum_{i=1}^n \lambda_i\cdot x_i$, so ist für jedes $j\in \{1,2,...,n\}$ mit $\lambda_j\neq 0$ auch
$B'=(x_1,...,x_{j-1},y,x_{j+1},...,x_n)$ eine Basis von $V$.
\end{lemma}
\begin{proof}
oBdA. sei $j=1$, also $B'=(y,x_2,...,x_n)$. Wegen $\lambda_1\neq 0$ ist $x_1=\lambda_1^{-1}\cdot y - \sum
_{i=2}^n \lambda_i\cdot x_i \in \Span_K(y,x_2,...,x_n)$ und somit ist $B'$ ein Erzeugendensystem. Sind
$\mu_1,...,\mu_n \in K$ mit $\mu_1\cdot y - \sum_{i=2}^n \mu_i\cdot x_i=0$, so folgt $0=\mu_1(\sum
_{i=1}^n \lambda_i\cdot x_i + \sum_{i=2}^n \mu_i\cdot x_i)=\mu_1\cdot \lambda_1\cdot x_1 + \sum
_{i=2}^n (\mu_1\cdot \lambda_i + \mu_i)x_i$ und aus der linearen Unabhängigkeit von $B$ somit $\mu_1\cdot
\lambda_1=0$, $\mu_1\cdot \lambda_2 + \mu_2 =0$, ..., $\mu_1\cdot\lambda_n + \mu_n=0$. Wegen $\lambda_1\neq 0$ folgt
$\mu_1=0$ und daraus $\mu_i=0$. Folglich ist $B'$ linear unabhängig.
\end{proof}
\begin{theorem}[\person{Steinitz}'scher Austauschsatz]
\proplbl{2_3_10}
Sei $B=(x_1,...,x_n)$ eine Basis von $V$ und $\mathcal F=(y_1,...
,y_r)$ eine linear unabhängige Familie in $V$. Dann ist $r\le n$ und es gibt $i_1,...,i_{n-r} \in \{1,...,n\}$, für
die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-r}})$ eine Basis von $V$ ist.
\end{theorem}
\begin{proof}
Induktion nach $r$\\
Für $r=0$ ist nichts zu zeigen. \\
Sei nun $r\ge 1$ und gelte die Aussage für $(y_1,...,y_{r-1})$. Insbesondere ist $r-1\le n$ und es gibt $i_1,..,
i_{n-(r-1)} \in \{1,...,n\}$ für die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-(r-1)}})$ eine Basis von $V$ ist. Da $y_r
\in V=\Span_K(B')$ ist $y_r=\sum_{i=1}^{r-1} \lambda_i\cdot y_1 + \sum_{j=0}^{n-(r-1)} \mu_j\cdot
x_{i_j}$. Da $(y_1,...,y_r)$ linear unabhängig, ist $y_r \notin \Span_K(y_1,...,y_{r-1})$. Folglich gibt es $j_0 \in
\{1,...,n-(r-1)\}$ mit $\mu_{j_0}\neq 0$. Insbesondere ist $n-(r-1)\ge 1$, also $r\le n$. oBdA. $j_0=1$, dann
ergibt sich mit dem Austauschlemma (\propref{2_3_9}), dass auch $(y_1,...,y_{r-1},y_r,x_{i_2},...,x_{i_{n-(r-1)}})$ eine Basis von
$V$ ist.
\end{proof}
\begin{conclusion}[Basisergänzungssatz]
\proplbl{2_3_12}
Ist $V$ endlich erzeugt, so lässt sich jede linear unabhängige Familie zu einer Basis ergänzen:
Ist $(x_1,...,x_n)$ linear unabhängig, so gibt es $m\ge n$ und $x_{n+1},x_{n+2},...,x_m$ für die $(x_1,...,x_n,
x_{n+1},...,x_m)$ eine Basis von $V$ ist.
\end{conclusion}
\begin{proof}
Nach dem Basisauswahlsatz (\propref{2_3_6} und \propref{2_3_7}) besitzt $V$ eine endliche Basis, die Behauptung folgt somit aus dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}).
\end{proof}
\begin{conclusion}
\proplbl{2_3_12}
Sind $(x_i)$ und $(x_j)$ Basen von $V$ und ist $I$ endlich, so ist $|I|=|J|$.
\end{conclusion}
\begin{proof}
Da $(y_r)$ linear unabhängig ist, ist $|J|\le |I|$ nach dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}). Insbesondere ist $J$
endlich, also $|I|\le |J|$ nach dem Austauschsatz (\propref{2_3_10}).
\end{proof}
\begin{conclusion}
Ist $V$ endlich erzeugt, so haben alle Basen von $V$ die gleiche Mächtigkeit.
\end{conclusion}
\begin{proof}
$V$ besitzt eine endliche Basis (\propref{2_3_7}), deshalb folgt die Behauptung aus \propref{2_3_12}.
\end{proof}
\begin{definition}[Dimension]
Ist $V$ endlich erzeugt, so ist die \begriff{Dimension} des Vektorraum $V$ die Mächtigkeit $\dim_K(V)$
einer Basis von $V$. Andernfalls sagt man, dass $V$ unendliche Dimensionen hat und schreibt $\dim_K(V)= \infty$.
\end{definition}
\begin{example}
\begin{itemize}
\item $\dim_K(K^n)=n$
\item $\dim_K(K[X])=\infty$
\item $\dim_K(K[X]_{\le n})=n+1$
\item $\dim_{\mathbb R}(\mathbb C)=2$
\item $\dim_{\mathbb C}(\mathbb C)=1$
\end{itemize}
\end{example}
\begin{remark}
\begin{itemize}
\item $V$ ist genau dann endlich erzeugt, wenn $\dim_K(V)< \infty$.
\item Mit \propref{2_3_5} $\dim_K(V)=\min\{|B| \mid \Span_K(B)=V\}=\max\{|B| \mid B\text{ linear unabhängig}\}$
\end{itemize}
\end{remark}
\begin{proposition}
Sei $V$ endlich erzeugt und $W\le V$ ein Untervektorraum.
\begin{itemize}
\item Es ist $\dim_K(W)\le \dim_K(V)$. Insbesondere ist $W$ endlich erzeugt.
\item Ist $\dim_K(W)=\dim_K(V)$, so ist auch $W=V$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Ist $F$ eine linear unabhängige Familie in $W$, so ist auch $F$ linear unabhängig in $V$ und somit $|F|\le
\dim_K(V)$. Insbesondere gibt es eine maximal linear unabhängige Familie $B$ in $W$ und es folgt $\dim_K(W)=|B|
\le \dim_K(V)$.
\item Sei $B$ eine Basis von $W$. Dann ist $B$ auch in $V$ linear unabhängig. Ist $\dim_K(W)=\dim_K(V)$, so muss
auch $B$ in $V$ maximal linear unabhängig sein. Insbesondere ist $W=\Span_K(B)=V$.
\end{itemize}
\end{proof}

View file

@ -0,0 +1,136 @@
\section{Bilinearformen und Sesquilinearformen}
Sei $K=\real$ oder $K=\comp$.
\begin{definition}[Bilinearform, Sesquilinearform]
Eine \begriff{Bilinearform} ($K=\real$) bzw. \begriff{Sesquilinearform} ($K=\comp$) ist eine Abbildung $s:V\times V\to K$ für die gilt:
\begin{itemize}
\item Für $x,x',y\in V$ ist $s(x+x',y)=s(x,y)+s(x',y)$
\item Für $x,y,y'\in V$ ist $s(x,y+y')=s(x,y)+s(x,y')$
\item Für $x,y\in V$, $\lambda\in K$ ist $s(\lambda x,y)=\lambda s(x,y)$
\item Für $x,y\in V$, $\lambda\in K$ ist $s(x,\lambda y)=\kringel{white}{\overline{\lambda}} s(x,y)$
\end{itemize}
\end{definition}
\begin{remark}
Im Fall $K=\real$ ist $\lambda=\overline{\lambda}$. Wir werden der Einfachheit halber auch in diesem Fall von Sesquilinearformen sprechen, vgl. \propref{6_1_12}
\end{remark}
\begin{example}
Für $A=(a_{ij})_{i,j}\in\Mat_n(K)$ ist $s_A:K^n\times K^n\to K^n$ gegeben durch
\begin{align}
s_A(x,y)=x^tA\overline{y}=x^t\left( \sum_{j=1}^n a_{ij}\overline{y}_j\right)_i=\sum_{i,j=1}^n a_{ij}x_i\overline{y}_j\notag
\end{align}
eine Sesquilinearform auf $V=K^n$.
\end{example}
\begin{definition}
Sei $s$ eine Sesquilinearform auf $V$ und $B=(v_1,...,v_n)$ eine Basis von $V$. Die \begriff[Sesquilinearform!]{darstellende Matrix} von $s$ bzgl. $B$ ist
\begin{align}
M_B(s)=(s(v_i,v_j))_{i,j}\in\Mat_n(K)\notag
\end{align}
\end{definition}
\begin{example}
Die darstellende Matrix des Standardskalarprodukts $s=s_{\mathbbm{1}_n}$ auf den Standardraum $V=K^n$ bzgl. der Standardbasis $\mathcal{E}$ ist
\begin{align}
M_{\mathcal{E}}(s)=\mathbbm{1}_n\notag
\end{align}
\end{example}
\begin{lemma}
\proplbl{6_2_6}
Seien $v,w\in V$. Mit $x=\Phi_B^{-1}(v)$, $y=\Phi_B^{-1}(w)$ und $A=M_B(s)$ ist $s(v,w)=x^tA\overline{y}=s_A(x,y)$.
\end{lemma}
\begin{proof}
Achtung: $v_i$ beschreibt das $i$-te Element der Basis $B$!\\
$s(v,w)=s(\sum_{i=1}^n x_iv_i,\sum_{j=1}^n y_jv_j)=\sum_{i,j=1}^n x_i\overline{y}s(v,v_j)=x^tA\overline{y}$
\end{proof}
\begin{proposition}
ISei $B$ eine Basis von $V$. Die Abbildung $s\mapsto M_B(s)$ ist eine Bijektion zwischen den Sesquilinearformen auf $V$ und $\Mat_n(K)$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item injektiv: \propref{6_2_6}
\item surjektiv: Für $A\in\Mat_n(K)$ wird durch $s(v,w)=\Phi_B^{-1}(v)^t\cdot A\cdot \overline{\Phi_B^{-1}(w)}$ eine Sesquilinearform auf $V$ mit $M_B(s)=(s(v_i,w_j))_{i,j}= (e_i^tA\overline{e_j})_{i,j}=(e_iAe_j)_{i,j}=A$ definiert.
\end{itemize}
\end{proof}
\begin{proposition}[Transformationsformel]
\proplbl{6_2_8}
Seien $B$ und $B'$ Basen von $V$ und $s$ eine Sesquilinearform auf $V$. Dann gilt:
\begin{align}
M_{B'}(s)=(T_B^{B'})^t\cdot M_B(s)\cdot \overline{T_B^{B'}}\notag
\end{align}
\end{proposition}
\begin{proof}
Seien $v,w\in V$. Definiere $A=M_B(s)$, $A'=M_{B'}(s)$, $T=T_B^{B'}$ und $x,y,x',y'\in K^n$ mit $v=\Phi_B(x)=\Phi_B(x')$, $w=\Phi_B(y)=\Phi_B(y')$. Dann ist $x=Tx'$, $y=Ty'$ und somit
\begin{align}
(x')^tA'\overline{y'}&\overset{\propref{6_2_6}}{=}s(v,w)\notag \\
&\overset{\propref{6_2_6}}{=}x^tA\overline{y}\notag \\
&= (Tx')^tA\overline{Ty'} \notag \\
&= (x')^tT^tA\overline{T}\overline{y'}\notag
\end{align}
Da $v,w\in V$ und somit $x',y'\in K$ beliebig waren, folgt $A=T^tA\overline{T}$.
\end{proof}
\begin{example}
\proplbl{6_2_9}
Sei $s$ das Standardskalarprodukt auf dem $K^n$ und $B=(b_1,...,b_n)$ eine Basis des $K^n$. Dann ist
\begin{align}
M_B(s)=(T_{\mathcal{E}}^B)^t\cdot M_{\mathcal{E}}(s)\cdot \overline{T_{\mathcal{E}}^B}=B^t\cdot \mathbbm{1}_n\cdot \overline{B}=B^tB\notag
\end{align}
wobei $B=(b_1,...,b_n)\in\Mat_n(K)$.
\end{example}
\begin{proposition}
\proplbl{6_2_10}
Sei $s$ eine Sesquilinearform auf $V$. Dann sind äquivalent:
\begin{itemize}
\item Es gibt $0\neq v\in V$ mit $s(v,w)=0$ für alle $w\in V$.
\item Es gibt $0\neq w\in V$ mit $s(v,w)=0$ für alle $v\in V$.
\item Es gibt eine Basis $B$ von $V$ mit $\det(M_B(s))=0$.
\item Für jede Basis $B$ von $V$ gilt $\det(M_B(s))=0$.
\end{itemize}
\end{proposition}
\begin{proof}
Sei $B$ eine Basis von $V$, $v=\Phi_B(x)$ und $A=M_B(s)$. Genau dann ist die (semilineare) Abbildung $w\mapsto s(v,w)$ die Nullabbildung, wenn $x^tA\overline{y}=0$ für alle $y\in K^n$, also wenn $0=x^tA$, d.h. $A^tx=0$. Somit ist $(1)$ genau dann erfüllt, wenn $A^t$ nicht invertierbar ist, also wenn $0=\det(A^t)=\det(A)$. Damit $(1)\Rightarrow (4)\Rightarrow (3)\Rightarrow (1)$ gezeigt und $(2)\iff (4)$ zeigt man analog.
\end{proof}
\begin{definition}[ausgeartet]
Eine Sesquilinearform $s$ auf $V$ heißt \begriff{ausgeartet}, wenn eine der äquivalenten Bedingungen aus \propref{6_2_10} erfüllt ist, sonst \emph{nicht-ausgeartet}.
\end{definition}
\begin{definition}[symmetrisch, hermitesch]
Eine Sesquilinearform $s$ auf $V$ heißt \begriff{symmetrisch}, wenn bzw. \begriff{hermitesch}, wenn
\begin{align}
s(x,y)=\overline{s(y,x)}\quad\text{ für alle }x,y\in V\notag
\end{align}
Eine Matrix $A\in\Mat_n(K)$ heißt \emph{symmetrisch} bzw. \emph{hermitesch}, wenn $A=A^*=\overline{A}^t=\overline{A^t}$.
\end{definition}
\begin{mathematica}[symmetrische bzw. hermitesche Matrizen]
Wie für vieles Andere auch, hat Mathematica bzw. WolframAlpha auch dafür eine Funktion:
\begin{align}
\texttt{SymmetricMatrixQ[A]}\notag \\
\texttt{HermitianMatrixQ[A]}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{6_2_13}
Sei $s$ eine Sesquilinearform auf $V$ und $B$ eine Basis von $V$. Genau dann ist $s$ hermitesch, wenn $M_B(s)$ dies ist.
\end{proposition}
\begin{proof}
$(\Rightarrow)$: klar aus Definition von $M_B(s)$. \\
$(\Leftarrow)$: $x=\Phi_B^{-1}$, $y=\Phi_B^{-1}(w)$, $\overline{s(v,w)}=\overline{s(v,w)^t}=\overline{(x^tA\overline{y})^t}=y^t\overline{A^t}\overline{x}=s(w,v)$
\end{proof}
\begin{proposition}
Für $A,B\in\Mat_n(K)$ und $S\in\GL_n(K)$ ist $(A+B)^*=A^*+B^*$, $(AB)^*=B^*A^*$, $(A^*)^*=A$ und $(S^{-1})^*=(S^*)^{-1}$.
\end{proposition}
\begin{proof}
\propref{6_1_8}, \propref{3_1_14}, \propref{3_1_15}
\end{proof}

View file

@ -0,0 +1,132 @@
\section{Das Lemma von Zorn}
Sei $K$ ein Körper und $U,V,W$ seien $K$-Vektorräume. Zudem sei $X$ eine Menge.
\begin{definition}[Relation]
Eine \begriff{Relation} ist eine Teilmenge $R\subseteq X\times X$. Man schreibt $(x,x')\in R$ als $xRx'$. $R$ heißt
\begin{itemize}
\item \begriff[Relation!]{reflexiv}, wenn $\forall x\in X$: $xRx$
\item \begriff[Relation!]{transitiv}, wenn $\forall x,y,z\in X$: $xRy$ und $yRz\Rightarrow xRz$
\item \begriff[Relation!]{symmetrisch}, wenn $\forall x,y\in X$: $xRy\Rightarrow yRx$
\item \begriff[Relation!]{antisymmetrisch}, wenn $\forall x,y\in X$: $xRy$ und $yRx\Rightarrow y=x$
\item \begriff[Relation!]{total}, wenn $\forall x,y\in X$: $(x,y)\notin R\Rightarrow (y,x)\in R$
\end{itemize}
\end{definition}
\begin{example}[Äquivalenzrelation]
Eine \begriff{Äquivalenzrelation} ist eine reflexive, transitive und symmetrische Relation. Wir haben schon verschiedene Äquivalenzrelationen kennengelernt: Isomorphie von $K$-Vektorräumen und Ähnlichkeit von Matrizen.
\end{example}
\begin{definition}[Halbordnung]
Eine \begriff{Halbordnung} (oder \begriff{partielle Ordnung}) ist eine reflexive, transitive und antisymmetrische Relation $\le$. Eine totale Halbordnung heißt \begriff{Totalordnung} oder \begriff{lineare Ordnung}. Man schreibt $x<y$ für $x\le y\land x\neq y$.
\end{definition}
\begin{example}
\begin{enumerate}
\item Die natürliche Ordnung $\le$ auf $\real$, $\ratio$, $\whole$ und $\natur$ ist eine Z
Totalordnung.
\item Teilbarkeit $\vert$ ist eine Halbordnung auf $\natur$, aber Teilbarkeit ist keine Halbordnung auf $\whole$, da $1\vert -1$ und $-1\vert 1$, aber $1\neq -1$!
\item $\mathcal{P}(X)$ ist die Potenzmenge. ``$\subseteq$'' ist eine Halbordnung auf $\mathcal{P}$, aber für $\vert X\vert>1$ ist ``$\subseteq$'' keine Totalordnung.
\item Sei $(X,\le)$ eine Halbordnung, sei $Y\subseteq X$, so ist $(Y,\subseteq\vert_Y)$ eine Halbordnung.
\end{enumerate}
\end{example}
\begin{definition}[Kette]
Sei $(X,\le)$ eine Halbordnung, $Y\subseteq X$. $Y$ heißt \begriff{Kette}, wenn $(Y,\le\vert_Y)$ total ist.
$x\in Y$ heißt ein \begriff[Kette!]{minimales Element} von $Y$, wenn $\forall x'\in Y$: $x<x'$.
$x\in Y$ heißt \begriff[Kette!]{untere Schranke} von $Y$, wenn $\forall y\in Y$: $y\ge x$.
$x\in Y$ heißt \begriff[Kette!]{kleinstes Element} von $Y$, wenn $x$ untere Schranke von $Y$ ist.
Analog: \begriff[Kette!]{maximales Element}, \begriff[Kette!]{obere Schranke}, \begriff[Kette!]{größtes Element}.
\end{definition}
\begin{center}
\begin{tikzpicture}
\node[place] (A) {1};
\node[place] (B) [below=of A] {3};
\node[place] (C) [left=of B] {2};
\node[place] (D) [right=of B] {5};
\node[place] (E) [right=of D] {7};
\node[place] (dots) [right=of E] {...};
\node[place] (F) [below=of C] {4};
\node[place] (G) [below=of B] {6};
\node[place] (H) [below=of E] {15};
\node[place] (I) [right=of G] {10};
\node[place] (dots2) [right=of H] {...};
\node[place] (J) [below=of F] {8};
\node[place] (K) [below=of J] {16};
\node[place] (L) [below=of K] {32};
\draw[->,thick] (A.west) -- (C.north);
\draw[->,thick] (A.south) -- (B.north);
\draw[->,thick] (A.east) -- (D.north);
\draw[->,thick] (A.east) -- (E.north);
\draw[->,thick] (A.east) -- (dots.north);
\draw[->,thick] (C.south) -- (F.north);
\draw[->,thick] (C.south) -- (G.north);
\draw[->,thick] (B.south) -- (G.north);
\draw[->,thick] (C.south) -- (I.north);
\draw[->,thick] (D.south) -- (I.north);
\draw[->,thick] (B.south) -- (H.north);
\draw[->,thick] (D.south) -- (H.north);
\draw[->,thick] (E.south) -- (dots2.north);
\draw[->,thick] (D.south) -- (dots2.north);
\draw[->,thick] (F.south) -- (J.north);
\draw[->,thick] (J.south) -- (K.north);
\draw[->,thick] (K.south) -- (L.north);
\end{tikzpicture}
$Y=\{2^n\mid n\in\natur\}$ ist eine Kette
\end{center}
\begin{remark}
\begin{itemize}
\item Hat $Y$ ein kleinstes Element, so ist dies eindeutig bestimmt. Ein kleinstes Element ist minimal.
\item Jede endliche Halbordnung hat minimale Elemente. Jede endliche Totalordnung hat ein kleinstes Element. Analog für maximale Elemente und größtes Element.
\end{itemize}
\end{remark}
\begin{example}
$(\natur,\le)$ hat als kleinstes Element die 1, aber kein größtes Element oder maximale Elemente.
\end{example}
\begin{example}
$V=\real^3$, $\mathfrak{X}$ die Menge der Untervektorräume des $\real^3$. $(\mathfrak{X},\le)$ ist eine Halbordnung auf $Y\subseteq X$ mit $Y=\{U\in\mathfrak{X}\mid \dim_\real(U)\le 2\}$.
\begin{itemize}
\item $Y$ hat ein kleinstes Element: $\{0\}$.
\item Es gibt unendlich viele maximale Elemente in $Y$, nämlich die Untervektorräume von $V$, die die Dimension 2 haben. Es gibt also kein größtes Element.
\item $V$ ist die obere Schranke von $Y$.
\end{itemize}
\end{example}
\begin{theorem}[Das Lemma von Zorn]
Sei $(X,\le)$ eine Halbordnung, die nicht leer ist. Wenn jede Kette eine obere Schranke hat, dann hat $X$ ein maximales Element.
\end{theorem}
\begin{proof}
Das Lemma von Zorn hat axiomatischen Charakter - es ist äquivalent zum Auswahlaxiom, seine Gültigkeit ist somit abhängig von unseren grundlegenden mengentheoretischen Annahmen. Für einen Beweis des Lemmas von Zorn aus dem Auswahlaxiom siehe die Vorlesung \textit{Mengenlehre}. Wir zeigen hier zumindest die andere Richtung, nämlich dass das Auswahlaxiom aus dem Lemma von Zorn folgt.
\end{proof}
\begin{conclusion}[Auswahlaxiom]
Zu jeder Familie $(x_i)$, nicht leer, gibt es eine \begriff{Auswahlfunktion}, das heißt eine Abbildung:
\begin{align}
f: I\to \bigcup_{i\in I} X_i\text{ mit } f(i)\in X_i\quad\forall i\notag
\end{align}
\end{conclusion}
\begin{proof}
Sei $\mathcal{F}$ die Menge der Paare $(J,f)$ bestehend aus einer Teilmenge $J\subseteq I$ und einer Abbildung $f:I\to \bigcup_{i\in I} X_i$ mit $f(i)\in X_i\quad\forall i\in J$. Definieren wir $(J,f)\le (J',f')\iff J\subseteq J'$ und $f'\vert_J = f$, so ist $\le$ eine Halbordnung auf $\mathcal{F}$. Da $(\emptyset,\emptyset)\in\mathcal{F}$ ist $\mathcal{F}$ nichtleer. Ist $\mathcal{G}\subseteq\mathcal{F}$ eine nichtleere Kette, so wird auf $J':=\bigcup_{(J,f)\in\mathcal{G}} J$ durch $f'(j)=f(j)$ falls $(J,f)\in\mathcal{G}$ und $j\in J$ eine wohldefinierte Abbildung $f':J\to \bigcup_{i\in J}X_i$ mit $f'(i)\in X_i\quad\forall i\in J'$ gegeben. Das Paar $(J',f')$ ist eine obere Schranke der Kette $\mathcal{G}$. Nach dem Lemma von Zorn besitzt $\mathcal{F}$ ein maximales Element $(J,f)$. Wir behaupten, dass $J=I$. Andernfalls nehmen wir ein $i'\in I\backslash J$ und ein $x'\in X_{i'}$ und definieren $J':= U\cup\{i'\}$ und $f':J'\to \bigcup_{i\in J'} X_i$, $j\mapsto\begin{cases}f(j)&j\in J\\ x'&j=i'\end{cases}$. Dann ist $(J',f')\in\mathcal{F}$ und $(J,f)<(J',f')$ im Widerspruch zur Maximalität von $(J,f)$.
\end{proof}
\begin{conclusion}[Basisergänzungssatz]
\proplbl{7_1_11}
Sei $V$ ein $K$-Vektorraum. Jede linear unabhängige Teilmenge $X_0\subseteq V$ ist in einer Basis von $V$ enthalten.
\end{conclusion}
\begin{proof}
Sei $\mathfrak{X}=\{X\subseteq V\mid X\text{ ist linear unabhängig, } X_0\subseteq X\}$ geordnet durch Inklusion. Dann ist $X_0\in\mathfrak{X}$, also $\mathfrak{X}\neq\emptyset$. Ist $\mathcal{Y}$ eine nichtleere Kette in $\mathfrak{X}$, so ist auch $Y=\bigcup\mathcal{Y}\subseteq V$ linear unabhängig. Sind $y_1,...,y_n\in Y$ paarweise verschieden, so gibt es $Y_1,...,Y_n\in\mathcal{Y}$ mit $y_i\in Y_i$ für $i=1,...,n$. Da $\mathcal{Y}$ total geordnet ist, besitzt $\{Y_1,...,Y_n\}$ ein größtes Element, o.E. $Y_1$. Also sind $y_1,...,y_n\in Y_1$ und somit linear unabhängig. Folglich ist $Y_1\in \mathfrak{X}$ eine obere Schranke von $\mathcal{Y}$. Nach dem Lemma von Zorn besitzt $\mathfrak{X}$ ein maximales Element $X$. Das heißt, $X$ ist eine maximal linear unabhängige Teilmenge von $V$, nach \propref{2_3_5} also eine Basis von $V$.
\end{proof}

View file

@ -0,0 +1,113 @@
\section{Das Minimalpolynom}
\begin{definition}
Für ein Polynom $P(t)=\sum_{i=0}^n c_it^i\in K[t]$ definieren wir $P(f)=\sum_{i=0}^m c_if^i\in\End_K(V)$, wobei $f^0=\id_V$, $f^1=f$, $f^2=f\circ f$, ...
Analog definiert man $P(A)$ für $A\in\Mat_n(K)$.
\end{definition}
\begin{remark}
\proplbl{5_5_2}
Die Abbildung $\quad\begin{cases}K[t]\to \End_K(V)\\ P\mapsto P(f)\end{cases}$ ist ein Homomorphismus von $K$-VR und Ringen. Sein Kern ist das Ideal
\begin{align}
\mathcal{I}_f:=\{P\in K[t]\mid P(f)=0\}\notag
\end{align}
und sein Bild ist der kommutative Unterring
\begin{align}
K[f]:&=\{P(f)\mid P\in K[t]\}\notag \\
&= \Span_K(f^0,f^1,f^2,...)\notag
\end{align}
des (im Allgemeinen nicht kommutativen) Rings $\End_K(V)$.
Analog definiert man $\mathcal{I}_A$ und $K[A]\le \Mat_n(K)$.
\end{remark}
\begin{lemma}
\proplbl{lemma_5_3}
$\mathcal{I}_f\neq\{0\}$
\end{lemma}
\begin{proof}
Wäre $\mathcal{I}_f=\{0\}$, so wäre $K[t]\to \End_K(V)$ injektiv, aber $\dim_K(K[t])= \infty>n^2=\dim_K(\End_K(V))$, ein Widerspruch.
\end{proof}
\begin{proposition}
\proplbl{satz_5_4}
Es gibt ein eindeutig bestimmtes normiertes Polynom $0\neq P\in K[t]$ kleinsten Grades mit $P(f)=0$. Dieses teilt jedes $Q\in K[t]$ mit $Q(f)=0$.
\end{proposition}
\begin{proof}
Nach \propref{lemma_5_3} gibt es $0\neq P\in K[t]$ mit $P(f)=0$ von minimalem Grad $d$. Indem wir durch den Leitkoeffizienten von $P$ teilen, können wir annehmen, dass $P$ normiert ist. \\
Sei $Q\in\mathcal{I}_f$. Polynomdivision liefert $R,H\in K[t]$ mit $Q=P\cdot H+R$ und $\deg(R)<\deg(P)=d$. Es folgt $R(f)=\underbrace{Q(f)}_{=0}-\underbrace{P(f)}_{=0}\cdot H(f)=0$. Aus der Minimalität von $d$ folgt $R=0$ und somit $P\mid Q$. \\
Ist $Q$ zudem normiert vom Grad $d$, so ist $H=1$, also $Q=P$, was die Eindeutigkeit zeigt.
\end{proof}
\begin{definition}[Minimalpolynom]
Das eindeutig bestimmte normierte Polynom $0\neq P\in K[t]$ kleinsten Grades mit $P(f)=0$ nennt man das \begriff{Minimalpolynom} $P_f$ von $f$.
Analog definiert man das Minimalpolynom $P_A\in K[t]$ einer Matrix $A\in\Mat_n(K)$.
\end{definition}
\begin{mathematica}[Minimalpolynom]
Die Funktion für das Minimalpolynom $p$ mit der Variable $t$ in Mathematica bzw. WolframAlpha lautet:
\begin{align}
\texttt{MinimalPolynomial[p,x]}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{enumerate}
\item $A=\mathbbm{1}_n$, $\chi_A(t)=(t-1)^n$, $P_A(t)=t-1$
\item $A=0$, $\chi_A(t)=t^n$, $P_A(t)=t$
\item Ist $A=\diag(a_1,...,a_n)$ mit paarweise verschiedenen Eigenwerten $\lambda_1,...,\lambda_r$, so ist $\chi_A(t)=\prod_{i=1}^n (t-a_i)=\prod_{i=1}^n (t-\lambda_i)^{\mu_a(f_A,\lambda_i)}$, $P_A(t)=\prod_{i=1}^r (t-\lambda_i)$ und es folgt $\deg(P_A)\ge \vert \{a_1,...,a_n\}\vert=r$.
\end{enumerate}
\end{example}
\begin{definition}[$f$-zyklisch]
Ein $f$-invarianter UVR $W\le V$ heißt $f$-\begriff{zyklisch}, wenn es ein $x\in W$ mit $W=\Span_K(x,f(x),f^2(x),...)$ gibt.
\end{definition}
\begin{lemma}
\proplbl{lemma_5_8}
Sei $x\in V$ und $x_i=f(x)$. Es gibt ein kleinstes $k$ mit $x_k\in\Span_K(x_0,x_1,...,x_{k-1})$, und $W=\Span_K(x_0,...,x_{k-1})$ ein $f$-zyklischer UVR von $V$ mit Basis $B=(x_0,...,x_{k-1})$ und $M_B(f\vert_W)=M_{\chi_{f\vert_W}}$.
\end{lemma}
\begin{proof}
Da $\dim_K(V)=n$ ist $(x_0,...,x_n)$ linear abhängig, es gibt also ein kleinstes $k$ mit $(x_0,...,x_{k-1})$ linear unabhängig, aber $(x_0,...,x_k)$ linear abhängig, folglich $x_k\in\Span_K(x_0,...,x_{k-1})$. Mit $x_k=f(x_{k-1})=\sum_{i=0}^{k-1}-c_ix_i$ ist dann
Da $\dim_K(V)=n$ ist $(x_0,...,x_n)$ linear abhängig, es gibt also ein kleinstes $k$ mit $(x_0,...,x_{k-1})$ linear unabhängig, aber $(x_0,...,x_k)$ linear abhängig, folglich $x_k\in\Span_K(x_0,...,x_{k-1})$. Mit $x_k=f(x_{k-1})=\sum_{i=0}^{k-1}-c_ix_i$ ist dann
\begin{align}
M_B(f\vert_W)=\begin{pmatrix}0&...&...&...&0&-c_0\\
1&\ddots&\;&\;&\vdots&\vdots\\
0&\ddots&\ddots&\;&\vdots&\vdots\\
\vdots&\ddots&\ddots&\ddots&\vdots&\vdots\\
0&...&0&1&0&-c_{k-1}\end{pmatrix}\notag
\end{align}
somit $\chi_{f\vert_W}=t^k+\sum_{i=0}^{k-1}c_it^i$, also $M_B(f\vert_W)=M_{\chi_{f\vert_W}}$.
\end{proof}
\begin{theorem}[Satz von \person{Cayley-Hamilton}]
\proplbl{theorem_5_9}
Für $f\in\End_K(V)$ ist $\chi_f(f)=0$.
\end{theorem}
\begin{proof}
Sei $x\in V$. Definiere $x_i=f^i(x)$ und $W=\Span_K(x_0,...,x_{k-1})$ wie in \propref{lemma_5_8}. Sei $\chi_{f\vert_W}=t^k+\sum_{i=0}^{k-1} c_it^i$, also $f(x_{k-1})=\sum_{i=0}^{k-1} -c_ix_i$. Wenden wir $\chi_{f\vert_W}(f)\in\End_K(V)$ auf $x$ an, so erhalten wir
\begin{align}
\chi_{f\vert_W}(f)(x)&=\left( f^k+\sum\limits_{i=1}^{k-1} c_if^i\right)(x)\notag \\
&= \sum\limits_{i=1}^{k-1} -c_ix_i+\sum\limits_{i=1}^{k-1}c_ix_i\notag \\
&= 0\notag
\end{align}
Aus $\chi_{f\vert_W}\mid \chi_f$ (\propref{beispiel_4_6}) folgt somit $\chi_f(f)(x)=0$, denn ist $\chi_f=Q\cdot \chi_{f\vert_W}$ mit $Q\in K[t]$, so ist $\chi_f(f)=Q(f)\circ\chi_{f\vert_W}(f)$, also $\chi_f(f)(x)=Q(f)(\underbrace{\chi_{f\vert_W}(f)(x)}_{=0})=0$. Da $x\in V$ beliebig war, folgt $\chi_f(f)=0\in\End_K(V)$.
\end{proof}
\begin{conclusion}
\proplbl{folgerung_5_10}
Es gilt $P_f\mid \chi_f$. Insbesondere ist $\deg(P_f)\le n$.
\end{conclusion}
\begin{proof}
\propref{theorem_5_9} + \propref{satz_5_4}
\end{proof}
\begin{remark}
Ist $B$ eine Basis von $V$ und $A=M_B(f)$, so ist $P_A=P_f$. Insbesondere ist $P_A=P_B$ für $A\sim B$. Als Spezialfall von \propref{theorem_5_9} erhält man $\chi_A(A)=0$ und $P_A\mid \chi_A$.
\end{remark}
\begin{remark}
Der naheliegende "'Beweis"' $\underbrace{\chi_A}_{\in\Mat_n(K)}=\det(t\mathbbm{1}_n-A)(A) =\det(A\mathbbm{1}_n-A)=\det(0)=\underbrace{0}_{\in K}$ ist falsch!
\end{remark}

View file

@ -0,0 +1,148 @@
In diesem ganzen Kapitel seien
\begin{itemize}
\item $K=\real$ oder $K=\comp$
\item $n\in\natur$
\item $V$ ein $n$-dimensionaler $K$-VR
\end{itemize}
\section{Das Standardskalarprodukt}
Sei zunächst $K=\real$.
\begin{definition}[Standardskalarprodukt in $\real$]
Auf den Standardraum $V=\real^n$ definiert man das \begriff{Standardskalarprodukt in $\real$} $\langle.\rangle:\real^n\times\real^n\to \real$ durch
\begin{align}
\skalar{x}{y}=x^ty=\sum_{i=1}^n x_iy_i\notag
\end{align}
\end{definition}
\begin{proposition}
\proplbl{6_1_2}
Das Standardskalarprodukt erfüllt die folgenden Eigenschaften:
\begin{itemize}
\item Für $x,x',y,y'\in\real^n$ und $\lambda\in\real$ ist:
\begin{align}
\langle x+x',y\rangle &= \langle x,y\rangle + \langle x',y\rangle\notag\\
\langle \lambda x,y\rangle =&= \lambda \langle x,y \rangle\notag \\
\langle x,y+y' \rangle &= \langle x,y \rangle + \langle x,y'\rangle\notag \\
\langle x,\lambda y \rangle &= \lambda \langle x,y \rangle\notag
\end{align}
\item Für $x,y\in\real^n$ ist $\langle x,y \rangle=\langle y,x\rangle$
\item Für $x\in\real^n$ ist $\langle x,y \rangle\ge 0$ und $\langle x,x\rangle=0\iff x=0$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item klar
\item klar
\item $\langle x,x\rangle=\sum_{i=1}^n x_i^2\ge x_j^2$ für jedes $j\Rightarrow \langle x,x\rangle\ge 0$ und $\langle x,x \rangle>0$ falls $x_j\neq 0$ für ein $j$.
\end{itemize}
\end{proof}
\begin{definition}[euklidische Norm in $\real$]
Auf $K=\real^n$ definiert man \begriff{euklidische Norm in $\real$} $\Vert \cdot \Vert:\real^n\to \real_{\ge 0}$ durch
\begin{align}
\Vert x\Vert =\sqrt{\langle x,x\rangle}\notag
\end{align}
\end{definition}
\begin{proposition}[Ungleichung von \person{Cauchy-Schwarz}]
\proplbl{6_1_4}
Für $x,y\in\real^n$ gilt
\begin{align}
\vert \langle x,y \rangle\vert \le \Vert x\Vert \cdot \Vert y\Vert\notag
\end{align}
Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
\end{proposition}
\begin{proof}
siehe Analysis, siehe VI.§3
\end{proof}
\begin{proposition}
Die euklidische Norm erfüllt die folgenden Eigenschaften:
\begin{itemize}
\item Für $x\in\real^n$ ist $\Vert x\Vert=0\iff x=0$
\item Für $x\in\real^n$ und $\lambda\in\real$ ist $\Vert \lambda x\Vert =\vert \lambda \vert \cdot \Vert x\Vert$
\item Für $x,y\in\real^n$ ist $\Vert x+y\Vert \le \Vert x\Vert +\Vert y\Vert$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item \propref{6_1_2}
\item \propref{6_1_2}
\item $\Vert x+y\Vert^2=\langle x+y,x+y \rangle=\langle x,x \rangle+2\langle x,y\rangle+\langle y,y\rangle\le \Vert x\Vert^2+2\Vert x\Vert \Vert y\Vert+\Vert y\Vert^2=(\Vert x\Vert +\Vert y\Vert)^2\overset{\propref{6_1_4}}{\Rightarrow}\Vert x+y\Vert \le \Vert x\Vert +\Vert y\Vert$
\end{itemize}
\end{proof}
Sei nun $K=\comp$.
\begin{definition}[komplexe Konjugation, Absolutbetrag]
Für $x,y\in\real$ und $z=x+iy\in\comp$ definiert man $\overline{z}=x-iy$ heißt \begriff{komplexe Konjugation}.. Man definiert den \begriff{Absolutbetrag} von $z$ als
\begin{align}
\vert z\vert &=\sqrt{z\overline{z}}=\sqrt{x^2+y^2}\in\real_{\ge 0}\notag
\end{align}
Für $A=(a_{ij})_{i,j}\in\Mat_{m\times n}(\comp)$ sehen wir
\begin{align}
\overline{A}&= (\overline{a_{ij}})_{i,j}\in\Mat_{m\times n}(\comp)\notag
\end{align}
\end{definition}
\begin{proposition}
\proplbl{6_1_7}
Komplexe Konjugation ist ein Ringautomorphismus von $\comp$ mit Fixkörper
\begin{align}
\{z\in\comp\mid z=\overline{z}\}&=\real\notag
\end{align}
\end{proposition}
\begin{proof}
siehe LAAG1 H47
\end{proof}
\begin{conclusion}
\proplbl{6_1_8}
Für $A,B\in\Mat_n(\comp)$ und $S\in\GL_n(\comp)$ ist $\overline{A+B}=\overline{A}+\overline{B}, \overline{AB}=\overline{A}\cdot \overline{B},\overline{A^t}=\overline{A}^t, \overline{S^{-1}}=\overline{S}^{-1}$
\end{conclusion}
\begin{proof}
\propref{6_1_7}, einfache Übung
\end{proof}
\begin{definition}[Standardskalarprodukt in $\comp$]
Auf $K=\comp^n$ definiert man das \begriff{Standardskalarprodukt in $\comp$} $\langle\cdot,\cdot\rangle:\comp^n\times\comp^n\to \comp$ durch
\begin{align}
\langle x,y\rangle=x^t\overline{y}=\sum_{i=1}^n x_i\overline{y}_i\notag
\end{align}
\end{definition}
\begin{proposition}
Das komplexe Standardskalarprodukt erfüllt die folgenden Eigenschaften:
\begin{itemize}
\item Für $x,x',y,y'\in\comp^n$ und $\lambda\in\comp$ ist:
\begin{align}
\langle x+x',y\rangle &= \langle x,y\rangle + \langle x',y\rangle\notag\\
\langle \lambda x,y\rangle =&= \lambda \langle x,y \rangle\notag \\
\langle x,y+y' \rangle &= \langle x,y \rangle + \langle x,y'\rangle\notag \\
\langle x,\lambda y \rangle &= \kringel{lightgrey}{\overline{\lambda}} \langle x,y \rangle\notag
\end{align}
\item Für $x,y\in\comp^n$ ist $\langle x,y \rangle=\kringel{lightgrey}{\overline{\langle y,x\rangle}}$
\item Für $x\in\comp^n$ ist $\langle x,y \rangle\in\real_{\ge 0}$ und $\langle x,x\rangle=0\iff x=0$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item klar
\item klar
\item $\langle x,x\rangle=\sum_{i=1}^n x_i\overline{x_i}=\sum_{i=1}^n \vert x_i\vert^2$
\end{itemize}
\end{proof}
\begin{definition}[euklidische Norm in $\comp$]
Auf $V=\comp$ definiert man die \begriff{euklidische Norm in $\comp$} $\Vert \cdot \Vert:\comp^n\to \real_{\ge 0}$ durch
\begin{align}
\Vert x\Vert =\sqrt{\langle x,x\rangle}\notag
\end{align}
\end{definition}
\begin{remark}
\proplbl{6_1_12}
Schränkt man das komplexe Skalarprodukt auf den $\real^n$ ein, so erhält man das Standardskalarprodukt auf dem $\real^n$. Wir werden ab jetzt die beiden Fälle $K=\real$ und $K=\comp$ parallel behandeln. Wenn nicht anders angegeben, werden wir die Begriffe für den komplexen Fall benutzen, aber auch den reellen Fall einschließen.
\end{remark}

View file

@ -0,0 +1,156 @@
\section{Das Vorzeichen einer Permutation}
In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselement.
\begin{remark}
Wir erinnern uns an die symmetrische Gruppe $S_n$ aus \propref{1_3_7}, die aus den Permutationen der Menge $X=\{1,..,n\}$ (also den
bijektiven Abbildungen $X\to X$) mit der Komposition als Verknüpfung. Es ist $\vert S_n\vert =n!$ und $S_2\cong \mathbb Z\backslash 2 \mathbb Z$,
doch für $n\ge 3$ ist $S_n$ nicht abelsch. Wir schreiben $\sigma_1\sigma_2$ für $\sigma_1\circ \sigma_2$ und notieren $\sigma\in S_n$
auch als \\
\begin{align}
\sigma=\begin{pmatrix}
1 & 2 & ... & n\\
\sigma(1) & \sigma(2) & ... & \sigma(n)\\
\end{pmatrix}\notag
\end{align}
\end{remark}
\begin{example}
Für $i,j\in \{1,...,n\}$ mit $i\neq j$ bezeichne $\tau_{ij}\in S_n$ die Transposition
\begin{align}
\tau_{ij}(k)=
\begin{cases}
j&\text{falls }$k=i$ \\ i& \text{falls }$k=j$ \\ k& \text{sonst}
\end{cases}\notag
\end{align} Offenbar gilt $\tau_{ij}^2=\id$, also $\tau_{ij}^{-1}=\tau_{ij}=\tau_{ji}$.
\end{example}
\begin{proposition}
Für jedes $\sigma \in S_n$ gibt es ein $r\in \mathbb N_0$ und die Transpositionen $\tau_1,...,\tau_r\in S_n$ mit
\begin{align}
\sigma=\tau_1\circ ... \circ \tau_r\notag
\end{align}
\end{proposition}
\begin{proof}
Sei $1\le k \le n$ maximal mit $\sigma(i)=i$ für $i\le k$. Induktion nach $n-k$. \\
Ist $n-k=0$, so ist $\sigma=\id$ und wir sind fertig. \\
Andernfalls ist $l=k+1\le n$ und $\sigma(l)>l$. Für $\sigma'=\tau_{l,\sigma(l)}\circ \sigma$ ist $\sigma(l)=l$ und somit $\sigma'(i)=i$
für $1\le i \le k+1$. Nach Induktionshypothese gibt es Transpositionen $\tau_1,...,\tau_r$ mit $\sigma'=\tau_1\circ ...\circ \tau_r$.
Es folgt $\sigma=\tau_{l,\sigma(l)}^{-1}\circ \sigma^{-1}=\tau_{l,\sigma(l)}\circ \tau_1\circ ... \circ \tau_r$.
\end{proof}
\begin{definition}[Fehlstand, Vorzeichen]
Sei $\sigma\in S_n$.
\begin{itemize}
\item Ein \begriff{Fehlstand} von $\sigma$ ist ein Paar $(i,j)$ mit $1\le i<j\le n$ und $\sigma(i)>\sigma(j)$.
\item Das \begriff{Vorzeichen} (oder \begriff{Signum}) von $\sigma$ ist $\sgn(\sigma)=(-1)^{f(\sigma)}\in \{-1,1\}$, wobei $f(\sigma)$ die
Anzahl der Fehlstände von $\sigma$ ist.
\item Man nennt $\sigma$ \begriff[Vorzeichen!]{gerade}, wenn $\sgn(\sigma)=1$, sonst \begriff[Vorzeichen!]{ungerade}.
\end{itemize}
\end{definition}
\begin{example}
\proplbl{4_1_5}
\begin{itemize}
\item Genau dann hat $\sigma$ keine Fehlstände, wenn $\sigma=\id$. Insbesondere $\sgn(\id)=1$.
\item Die Permutation
\begin{align}
\sigma=\begin{pmatrix}1 & 2 & 3\\2 & 3 & 1\\\end{pmatrix}\notag
\end{align} hat die Fehlstände $(1,3)$ und $(2,3)$, somit
$\sgn(\sigma)=1$.
\item Die Transposition
\begin{align}
\tau_{13}=\begin{pmatrix}1 & 2 & 3\\3 & 2 & 1\\\end{pmatrix}\notag
\end{align} hat die Fehlstände $(1,2)$, $(2,3)$ und
$(3,1)$, somit $\sgn(\tau_{13})=-1$.
\item Eine Transposition $\tau_{ij}\in S_n$ ist ungerade: Ist $i<j$, so sind die Fehlstände $(i,i+1),...,(i,j)$ und $(j+1,j)...
(j-1,j)$, also $j-(i+1)+1+(j-1)-(i-1)+1=2(j-1)-1$ viele.
\end{itemize}
\end{example}
\begin{lemma}
Für $\sigma\in S_n$ ist
\begin{align}
\sgn(\sigma)=\prod_{1\le i<j\le n} \frac{\sigma(j)-\sigma(i)}{j-i}\in \mathbb Q\notag
\end{align}
\end{lemma}
\begin{proof}
Durchläuft $(i,j)$ alle Paare $1\le i<j\le n$, so durchläuft $\{\sigma(i),\sigma(j)\}$ alle zweielementigen Teilmengen von $\{1,...,
n\}$. Das Produkt $\prod_{i<j} \sigma(j)-\sigma(i)$ hat also bis auf das Vorzeichen die selben Faktoren wie das Produkt
\begin{align}
\prod_{i<j} j-i=\prod_{i<j} |j-i|\notag
\end{align}
und
\begin{align}
\prod_{i<j} \sigma(j)-\sigma(i)&=\prod_{i<j,\sigma(i)<\sigma(j)}
\sigma(j)-\sigma(i) \cdot \prod_{i<j,\sigma(i)>\sigma(j)} \sigma(j)-\sigma(i) \notag \\
&=(-1)^{f(\sigma)}\cdot \prod_{i<j} |\sigma(j)-\sigma(i)| \notag \\
&=\sgn(\sigma)\cdot \prod_{i<j} j-i \notag
\end{align}
\end{proof}
\begin{proposition}
\proplbl{4_1_7}
Die Abbildung $\sgn: S_n \to \mathbb Z^{\times}=\mu_2$ ist ein Gruppenhomomorphismus.
\end{proposition}
\begin{proof}
Seien $\sigma,\tau\in S_n$. Dann ist
\begin{align}
\sgn(\sigma\tau)&=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{j-i} \notag \\
&=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}\cdot \prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i} \notag
\end{align}
Da mit $\{i,j\}$ auch $\{\tau(i),\tau(j)\}$ alle
zweielementigen Teilmengen von $\{1,...,n\}$ und
\begin{align}
\frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\frac{\sigma(\tau(i))-
\sigma(\tau(j))}{\tau(i)-\tau(j)} \notag
\end{align}
ist
\begin{align}
\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}&=\prod_
{i<j} \frac{\sigma(j)-\sigma(i)}{j-i} \notag \\
&=\sgn(\sigma) \notag
\end{align}
und
\begin{align}
\prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}=\sgn(\tau) \notag
\end{align}
Somit ist $\sgn(\sigma\tau)=\sgn(\sigma)\cdot \sgn(\tau)$.
\end{proof}
\begin{conclusion}
\proplbl{4_1_8}
Für $\sigma\in S_n$ ist
\begin{align}
\sgn(\sigma^{-1})=\sgn(\sigma)\notag
\end{align}
\end{conclusion}
\begin{proof}
$\sgn(\sigma^{-1})=\sgn(\sigma)^{-1}=\sgn(\sigma)$
\end{proof}
\begin{conclusion}
Sei $\sigma\in S_n$. Sind $\tau_1,...,\tau_r$ Transpositionen mit $\sigma=\tau_1\circ ... \circ \tau_r$, so ist
\begin{align}
\sgn(\sigma)=(-1)^r\notag
\end{align}
\end{conclusion}
\begin{proof}
\propref{4_1_5} und \propref{4_1_7}
\end{proof}
\begin{conclusion}
\proplbl{4_1_10}
Die geraden Permutationen $A_n=\{\sigma \in S_n \mid \sgn(\sigma)=1\}$ bilden einen Normalteiler von $S_n$,
genannt die \begriff{alternierende Gruppe}. Ist $\tau\in S_n$ mit $\sgn(\tau)=-1$, so gilt für $A_n\tau=\{\sigma\tau \mid \sigma\in A_n\}$:
$A_n \cup A_n\tau = S_n$ und $A_n \cap A_n\tau=\emptyset$.
\end{conclusion}
\begin{proof}
Es ist $A_n=Ker(\sgn)$ und nach \propref{3_2_13} ist dieser auch ein Normalteiler. Ist $\sigma\in S_n\backslash A_n$, so ist
\begin{align}
\sgn(\sigma\tau^{-1})=
\sgn(\sigma)\cdot \sgn(\tau)^{-1}=(-1)(-1)^{-1}=1\notag
\end{align}
also $\sigma=\sigma\tau^{-1}\in A_n\tau$, somit $A_n\cup A_n\tau=S_n$. Ist
$\sigma\in A_n$, so ist $\sgn(\sigma\tau)=-1$, also $A_n\cap A_n\tau=\emptyset$.
\end{proof}

View file

@ -0,0 +1,96 @@
\section{Das charakteristische Polynom}
\begin{proposition}
\proplbl{satz_det_null}
Sei $\lambda\in K$. Genau dann ist $\lambda$ ein EW von $f$, wenn $\det(\lambda\cdot\id_V-f)=0$.
\end{proposition}
\begin{proof}
Da $\Eig(f,\lambda)=\Ker(\lambda\cdot\id_V-f)$ ist $\lambda$ genau dann ein EW von $f$, wenn $\dim_K(\Ker(\lambda\cdot\id_V-f))>0$, also wenn $\lambda\cdot\id_V-f\notin\Aut_K(V)$. Nach \propref{4_4_6} bedeutet dies, dass $\det(\lambda\cdot\id_V-f)=0$
\end{proof}
\begin{definition}[charakteristisches Polynom]
Das \begriff{charakteristische Polynom} einer Matrix $A\in\Mat_n(K)$ ist die Determinante der Matrix $t\cdot \mathbbm{1}_n-A\in\Mat_n(K[t])$.
\begin{align}
\chi_A(t)&=\det(t\cdot \mathbbm{1}_n-A)\in K[t] \notag
\end{align}
Das charakteristische Polynom eines Endomorphismus $f\in\End_K(V)$ ist $\chi_f(t)=\chi_{M_B(f)}(t)$, wobei $B$ eine Basis von $V$ ist.
\end{definition}
\begin{mathematica}[charakteristisches Polynom]
Die folgende Funktion liefert das charakteristische Polynom einer Matrix $A$ mit der Variable $x$
\begin{align}
\texttt{CharacteristicPolynomial[A,x]}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{satz_2_3}
Sind $A,B\in\Mat_n(K)$ mit $A\sim B$, so ist $\chi_A=\chi_B$. Insbesondere ist $\chi_f$ wohldefiniert.
\end{proposition}
\begin{proof}
Ist $B=SAS^{-1}$ mit $S\in\GL_n(K)$, so ist $t\cdot \mathbbm{1}_n-B = S(t\cdot \mathbbm{1}_n-A)S^{-1}$, also $t\cdot \mathbbm{1}_n-B\sim t\cdot \mathbbm{1}_n-A$ und ähnliche Matrizen haben die selben Determinante \propref{4_4_4}. \\
Sind $B,B'$ Basen von $V$, so sind $M_B(f)\sim M_{B'}(f)$, also $\chi_{M_B(f)}=\chi_{M_{B'}(f)}$
\end{proof}
\begin{lemma}
\proplbl{lemma_chi_det}
Für $\lambda\in K$ ist $\chi_f(\lambda)=\det(\lambda\cdot\id_V-f)$.
\end{lemma}
\begin{proof}
Sei $B$ eine Basis von $V$ und $A=M_B(f)=(a_{ij})_{i,j}$. Dann ist $M_B(\lambda\cdot\id_V-f)= \lambda\cdot \mathbbm{1}_n-A$. Aus IV.2.8 und I.6.8 folgt $\det(t\cdot \mathbbm{1}_n-A)(\lambda)=\det(\lambda\cdot \mathbbm{1}_n-A)$. Folglich ist
\begin{align}
\chi_f(\lambda)&=\chi_A(\lambda)\notag \\
&=\det(t\cdot \mathbbm{1}_n-A)(\lambda)\notag \\
&=\det(\lambda\cdot \mathbbm{1}_n-A)\notag \\
&= \det(\lambda\cdot\id_V-f) \notag
\end{align}
\end{proof}
\begin{proposition}
\proplbl{satz_chi_polynom}
Sei $\dim_K(V)=n$ und $f\in\End_K(V)$. Dann ist $\chi_f(t)=\sum_{i=0}^n \alpha_i t^i$ ein Polynom vom Grad $n$ mit
\begin{align}
\alpha_n&=1\notag \\
\alpha_{n-1}&=-\tr(f) \notag \\
\alpha_0 &= (-1)^n\cdot\det(f) \notag
\end{align}
Die Nullstellen von $\chi_f$ sind genau die EW von $f$.
\end{proposition}
\begin{proof}
Sei $B$ eine Basis von $V$ und $A=M_B(f)=(a_{ij})_{i,j}$. Wir erinnern uns daran, dass $\tr(f)=\tr(A=\sum_{i=1}^n a_{ii}$. Es ist $\chi_f(t)=\det(t-\cdot 1_n-A)=\sum_{\sigma\in S_n}\sgn(\sigma)\prod_{i=1}^n (t\delta_{i,\sigma(i)}-a_{i,\sigma(i)})$. \\
Der Summand für \emph{$\sigma=\id$} ist $\prod_{i=1}^n (t-a_{ii})=t^n+\sum_{i=1}^n (-a_{ii})t^{n-1}+...+\prod_{i=1}^n(-a_{ii})$ \\
Für \emph{$\sigma\neq\id$} ist $\sigma(i)\neq i$ für mindestens zwei $i$, der entsprechende Summand hat also Grad höchstens $n-2$. Somit haben $\alpha_n$ und $\alpha_{n-1}$ die oben behauptete Form, und $\alpha_0=\chi_A(0)=\det(-A)=(-1)^n\cdot\det(f)$. \\
Die Aussage über die Nullstellen von $\chi_f$ folgt aus \propref{satz_det_null} und \propref{lemma_chi_det}.
\end{proof}
\begin{conclusion}
Ist $\dim_K(V)=n$, so hat $f$ höchstens $n$ Eigenwerte.
\end{conclusion}
\begin{proof}
\propref{satz_chi_polynom} und \propref{1_6_10}
\end{proof}
\begin{definition}[normiertes Polynom]
Ein Polynom $0\neq P\in K[t]$ mit Leitkoeffizient 1 heißt \begriff{normiert}.
\end{definition}
\begin{example}
\proplbl{beispiel_2_8}
\begin{enumerate}
\item Ist $A=(a_{ij})_{i,j}$ eine obere Dreiecksmatrix, so ist $\chi_A(t)=\prod_{i=1}^n (t-a_{ii})$, vgl. \propref{4_2_9} \\
Insbesondere ist $\chi_{1_n}(t)=(t-1)^n$, $\chi_0(t)=t^n$
\item Für eine Blockmatrix $A=\begin{henrysmatrix}A_1&B \\ 0&A_2\end{henrysmatrix}$ mit quadratischen Matrizen $A_1,A_2$ ist $\chi_A=\chi_{A_1}\cdot \chi_{A_2}$ vgl. \propref{4_2_9}
\item Für
\begin{align}
\begin{pmatrix}
0&...&...&...&0&-c_0 \\
1& \ddots&\;&\;&\vdots&\vdots \\
0&\ddots&\ddots&\;&\vdots&\vdots \\
\vdots&\ddots&\ddots&\ddots&\vdots&\vdots \\
0&...&0&1&0&-c_{n-1}
\end{pmatrix} \quad c_0,...,c_{n-1}\in K \notag
\end{align}
ist $\chi_A(t)=t^n+\sum_{i=0}^{n-1} c_i t^i$ \\
Man nennt diese Matrix die Begleitmatrix zum normierten Polynom $P=t^n+\sum_{i=0}^{n-1} c_i t^i$ und schreibt $M_P:=A$
\end{enumerate}
\end{example}

View file

@ -0,0 +1,159 @@
\section{Definition und Beispiele}
In diesem Kapitel sei $K$ ein Körper.
\begin{example}
Ist $K=\mathbb R$, so haben wir für $K^3=\mathbb R^3=\mathbb R \times \mathbb R \times \mathbb R=
\{(a,b,c) | a,b,c \in \mathbb R\}$ eine geometrische Anschauung, nämlich den euklidischen Raum. Welche algebraische
Struktur können wir hierauf sinnvollerweise definieren?
\end{example}
\begin{definition}[Vektorraum]
Ein $K$-\begriff{Vektorraum} (auch Vektorraum über $K$) ist ein Tripel $(V,+,\cdot)$
bestehend aus einer Menge $V$, einer Verknüpfung $+: V \times V \to V$, genannt Addition, und einer Abbildung
$\cdot: K \times V \to V$, genannt Skalarmultiplikation, für die gelten:
\begin{itemize}
\item (V1): $(V,+)$ ist eine abelsche Gruppe
\item (V2): Addition und Skalarmultiplikation sind verträglich:
\begin{itemize}
\item $\lambda(x+y)=(\lambda\cdot x)+(\lambda\cdot y)$
\item $(\lambda+\mu)\cdot x = (\lambda\cdot x)+(\mu\cdot x)$
\item $\lambda(\mu\cdot x)=(\lambda\cdot\mu)\cdot x$
\item $1\cdot x = x$
\end{itemize}
\end{itemize}
\end{definition}
\begin{remark}
Wir haben sowohl im Körper $K$ als auch im Vektorraum $V$ eine Addition definiert, die wir mit
dem selben Symbol $+$ notieren. Ebenso benutzen wir das Symbol $\cdot$ sowohl für die Multiplikation im Körper $K$
als auch für die Skalarmultiplikation. Zur Unterscheidung nennt man die Elemente von $V$ Vektoren und die Elemente
von $K$ Skalare. Wir werden bald auch den Nullvektor mit 0 bezeichnen, also mit dem selben Symbol wie das neutrale
Element im Körper $K$. Auch für Vektorräume gibt es notationelle Konvektionen: So bindet die Skalarmultiplikation
stärker als die Addition und wird manchmal nicht notiert.
\end{remark}
\begin{example}
Für $n \in \mathbb N$ ist $V=K^n := \prod _{i=1}^n K = \{(x_1,x_2,...,x_n) \mid x_1,x_2,..,
x_n \in K\}$ mit komponentenweiser Addition und Skalarmultiplikation $\lambda(x_1,...,x_n)=(\lambda\cdot x_1,...,
\lambda\cdot x_n)$ ein $K$-Vektorraum, genannt der ($n$-dimensionale) Standardraum über $K$. \\
Insbesondere (Spezialfall $n=1$) ist $K$ ein $K$-Vektorraum. \\
Für $n=0$ definiert man $K^0$ als Nullraum $V=\{0\}$, der einzig möglichen Addition und Skalarmultiplikation einen
$K$-Vektorraum bildet.
\end{example}
\begin{proposition}
ist $V$ ein $K$-Vektorraum, so gelten für $\lambda \in K$ und $x \in V$:
\begin{itemize}
\item $0\cdot x =0$
\item $\lambda\cdot 0=0$
\item $(-\lambda)\cdot x = \lambda\cdot(-x) = -\lambda\cdot x$. Insbesondere $(-1)x=-x$
\item Ist $\lambda\cdot x=0$, so ist $\lambda=0$ oder $x=0$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Es ist $0\cdot x=(0+0)\cdot x=0\cdot x+0\cdot x$, woraus $0=0\cdot x$
\item Es ist $\lambda\cdot 0=\lambda(0+0)=\lambda\cdot 0+0\cdot \lambda$, woraus $0=\lambda\cdot 0$
\item Es ist $\lambda\cdot x+(-\lambda\cdot x)=(\lambda+(-\lambda))\cdot x=0\cdot x=0$, also $(-\lambda)x=-(\lambda
x)$
\item Ist $\lambda\cdot x=0$ und $\lambda\neq 0$, so ist $0=\lambda^{-1}\cdot\lambda\cdot x=1\cdot x=x$
\end{itemize}
\end{proof}
\begin{example}
\begin{itemize}
\item Schränkt man die Multiplikation im Polynomring $K[X] \times K[X] \to K[X]$ zu einer Abbildung $K \times K[X]
\to K[X]$ ein, so wird $K[X]$ mit dieser Skalarmultiplikation zu einem $K$-Vektorraum. Die Skalarmultiplikation ist also
gegen $\lambda\cdot \sum _{k\ge 0} a_k\cdot X^k = \sum _{k\ge 0} \lambda\cdot a_k\cdot X^k$ ersetzt
wurden.
\item Schränkt man die komplexe Multiplikation $\mathbb C \times \mathbb C \to \mathbb C$ zu einer Abbildung
$\mathbb R \times \mathbb C \to \mathbb C$ ein, so wird $\mathbb C$ mit dieser Skalarmultiplikation zu einem
$\mathbb R$-Vektorraum. Die Skalarmultiplikation ist gegeben durch $\lambda(x+iy)=\lambda\cdot x + i\cdot\lambda\cdot y$.
\item Verallgemeinerung von 1 und 2: Ist der Körper $K$ ein Unterring eines kommutativen Rings $R$ mit Einselement
$1_K \in K$, so wird $R$ durch Einschränkung der Multiplikation $R \times R \to R$ zu einer Abbildung $K \times R
\to R$ zu einem $K$-Vektorraum.
\item Ist $X$ eine Menge, so wird die Menge der Abbildungen $\Abb(X,K)$ durch punktweise Addition $(f+g)(x)=f(x)+
g(x)$ und die Skalarmultiplikation $(\lambda\cdot f)(x)=\lambda\cdot f(x)$ zu einem $K$-Vektorraum. Im Spezialfall
$X=\{1,2,...,n\}$ erhält man den Standardraum $K^n$.
\end{itemize}
\end{example}
\begin{definition}[Untervektorraum]
Sei $V$ ein $K$-Vektorraum. Ein \begriff{Untervektorraum} (Untervektorraum) von $V$ ist eine nichtleere
Teilmenge $W \subseteq V$ mit:
\begin{itemize}
\item (UV1): Für $x,y \in W$ ist $x+y\in W$.
\item (UV2): Für $x \in W$ und $\lambda \in K$ ist $\lambda\cdot x\in W$.
\end{itemize}
\end{definition}
\begin{proposition}
Sei $V$ ein $K$-Vektorraum und $W \subseteq V$. Genau dann ist $W$ ein Untervektorraum von $V$, wenn $W$ mit geeigneter
Einschränkung der Addition und Skalarmultiplikation wieder ein $K$-Vektorraum ist.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\Rightarrow$: Lassen sich $+$: $V \times V \to V$ und $\cdot$: $K \times V \to V$ einschränken zur Abbildung $+_w$: $W
\times W \to W$, $\cdot_w$: $K \times W \to W$ so gilt für $x,y \in W$ und $\lambda \in K$: $x+y=x +_w y \in W$ und
$\lambda\cdot x=\lambda \cdot_w x \in W$. Ist $(W,+_w,\cdot_w)$ ein $K$-Vektorraum, so ist insbesondere $W$ nicht leer. Somit
ist $W$ ein Untervektorraum.
\item $\Leftarrow$: Nach (UV1) und (UV2) lassen sich $+$ und $\cdot$ einschränken zu Abbildungen $+_w$: $W \times W \to W$ und
$\cdot_w$: $K \times W \to W$. Nach (UV1) ist abgeschlossen und unter der Addition und für $x \in W$ ist auch $-x=
(-1)x \in W$ nach (UV2), $W$ ist somit Untergruppe von $(V,+)$. Insbesondere ist $(W,+)$ eine abelsche Gruppe (\propref{1_3_14}), erfüllt
also (V1). Die Verträglichkeit (V2) ist für $\lambda,\mu \in K$ und $x,y \in W$ gegeben, da sie auch für $x,y \in V$
erfüllt ist. Somit ist $(W,+_w,\cdot_w)$ ein $K$-Vektorraum.
\end{itemize}
\end{proof}
\begin{example}
\proplbl{2_1_9}
\begin{itemize}
\item Jeder $K$-Vektorraum hat triviale Untervektorraum $W=\{0\}$ und $W=V$
\item Ist $V$ ein $K$-Vektorraum und $x \in V$, so ist $W=K\cdot x=\{\lambda\cdot x \mid \lambda \in K\}$ ein Untervektorraum von $V$.
Insbesondere besitzt z.B. der $\mathbb R$-Vektorraum $\mathbb R^2$ unendlich viele Untervektorraum, nämlich alle Ursprungsgeraden. Hieran
sehen wir auch, dass die Vereinigung zweier Untervektorraum im Allgemeinen kein Untervektorraum ist. $\mathbb R\cdot (1,0) \cup \mathbb
R\cdot (1,0) \subseteq \mathbb R^2$ verletzt (UV1).
\item Der $K$-Vektorraum $K[X]$ hat unter anderem die folgenden Untervektorraum:
\begin{itemize}
\item Den Raum $K$ der konstanten Polynome
\item Den Raum $K[X]_{\le 1}=\{aX+b \mid a,b \in K\}$ der linearen (oder konstanten) Polynome
\item allgemeiner den Raum $K[X]_{\le n}=\{f \in K[X] \mid \deg(f) \le n\}$ der Polynome von höchstens Grad $n$
\end{itemize}
\item In der Analysis werden Sie verschiedene Untervektorraum des $\mathbb R$-Vektorraum $\Abb(\mathbb R,\mathbb R)$ kennenlernen, etwa
den Raum $\mathcal C(\mathbb R,\mathbb R)$ der stetigen Funktionen und den Raum $\mathcal C^{-1}(\mathbb R,\mathbb
R)$ der stetig differenzierbaren Funktionen. Die Menge der Polynomfunktionen $\{\tilde f\mid \tilde f\in \mathbb R[X]\}$ (vgl. \propref{1_6_7}) bildet
einen Untervektorraum des $\mathbb R$-Vektorraum $\mathcal C^{-1}(\mathbb R,\mathbb R)$
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{2_1_10}
Ist $V$ ein Vektorraum und $(W_i)_{i \in I}$ eine Familie von Untervektorraum von $V$, so ist auch $W=\bigcap W_i$
ein Untervektorraum von $V$.
\end{lemma}
\begin{proof}
Da $0 \in W_i$ ist auch $0 \in W$, insbesondere $W\neq\emptyset$.
\begin{itemize}
\item (UV1): Sind $x,y \in W$, so ist auch $x,y \in W_i$ und deshalb $x+y\in \bigcap W_i = W$.
\item (UV2): Ist $x \in W$ und $\lambda \in K$, so ist auch $x \in W_i$ und somit $\lambda x\in \bigcap W_i=W$.
\end{itemize}
\end{proof}
\begin{proposition}
Ist $V$ ein $K$-Vektorraum und $X \subseteq V$, so gibt es einen eindeutig bestimmten kleinsten Untervektorraum $W$ von $V$
mit $X \subseteq W$.
\end{proposition}
\begin{proof}
Sei $\mathcal V$ die Menge aller Untervektorraum von $X$, die $X$ enthalten. Sei $W=\bigcap \mathcal V$. Damit ist
$W$ ein Untervektorraum (\propref{2_1_10}) von $V$ der $X$ enthält.
\end{proof}
\begin{definition}[Erzeugendensystem]
Ist $V$ ein $K$-Vektorraum und $X\subseteq V$, so nennt man den kleinsten Untervektorraum von
$V$, der $X$ enthält den von $X$ erzeugten Untervektorraum von $V$ und bezeichnet diesen mit $\langle X\rangle$. Eine Mengen $X\subseteq V$
mit $\langle X\rangle=V$ heißt \begriff{Erzeugendensystem} von $V$. Der Vektorraum $V$ heißt endlich erzeugt, wenn er ein endliches Erzeugendensystem
besitzt.
\end{definition}

View file

@ -0,0 +1,149 @@
\section{Der Dualraum}
Sei $V$ ein $K$-Vektorraum.
\begin{definition}[Dualraum]
Der \begriff{Dualraum} zu $V$ ist der $K$-Vektorraum
\begin{align}
V^*=\Hom_K(V,K)=\{\phi:V\to K\text{ linear}\}\notag
\end{align}
Die Elemente von $V^*$ heißen \begriff{Linearformen} auf $V$.
\end{definition}
\begin{example}
Ist $V=K^n=\Mat_{n\times 1}(K)$, so wird $V^*=\Hom_K(V,K)$ durch $\Mat_{1\times n}(K)\cong K^n$. Wir können also die Elemente von $V$ als Spaltenvektoren und die Linearformen auf $V$ als Zeilenvektoren auffassen.
\end{example}
\begin{lemma}
Ist $B(x_1)_{i\in I}$ eine Basis von $V$, so gibt es zu jedem $i\in I$ genau $x_i^*\in V^*$ mit
\begin{align}
x_i^*(x_j)=\delta_{ij}\quad\forall j\in I\notag
\end{align}
\end{lemma}
\begin{proof}
Siehe \propref{3_5_1}, angewandt auf die Familie $(y_j)_{j\in I}$, $y_j\delta_{i.j}$ in $W=K$.
\end{proof}
\begin{proposition}
Ist $B=(x_1)_{i\in I}$ eine Basis von $V$, so ist $B^*=(x_i^*)_{i\in I}$ linear unabhängig. Ist $I$ endlich, so ist $B^*$ eine Basis von $V^*$.
\end{proposition}
\begin{proof}
Ist $\phi=\sum_{i\in I} \lambda_ix_i^*$, $\lambda_i\in K$, fast alle gleich 0, so ist $\phi(x_j)=\sum_{i\in I} \lambda_j x_i^*(x_j)=\lambda_j$ für jedes $j\in I$. Ist also $\phi=0$, so ist $\lambda_j=\phi(x_j)=0\quad\forall j\in I$, $B^*$ ist somit linear unabhängig. \\
Ist zudem $I$ endlich und $\psi\in V^*$, so ist $\psi=\psi'=\sum_{i\in I} \psi(x_i)x_i^*$, denn $\psi'(x_j)=\sum_{i\in I} \psi(x_i)x_i^*(x_j)=\psi(x_i)\quad\forall j\in I$, und somit ist $B^*$ ein Erzeugendensystem von $V^*$.
\end{proof}
\begin{definition}[duale Basis]
Ist $B=(x_i)_{i\in I}$ eine endliche Basis von $V$, so nennt man $B^*=(x_i^*)_{i\in I}$ die zu $B$ \begriff{duale Basis}.
\end{definition}
\begin{conclusion}
\proplbl{7_2_6}
Zu jeder Basis $B$ von $V$ gibt es einen eindeutig bestimmtem Monomorphismus
\begin{align}
f_V\to V^*\text{ mit } f(B)=B^*\notag
\end{align}
Ist $\dim_K(V)<\infty$, so ist dieser ein Isomorphismus.
\end{conclusion}
\begin{conclusion}
\proplbl{7_2_7}
Zu jedem $=0\neq x\in V$ gibt es eine Linearform $\phi\in V$ mit $\phi(x)=1$.
\end{conclusion}
\begin{proof}
Ergänze $x_1=x$ zu einer Basis $(x_i)_{i\in I}$ von $V$ (\propref{7_1_11}) und $\phi=x_1^*$.
\end{proof}
\begin{example}
Ist $V=K^n$ mit Standardbasis $\mathcal{E}=(e_1,...,e_n)$, so können wir $V^*$ mit dem Vektorraum der Zeilenvektoren identifizieren, und dann ist
\begin{align}
e_i^* = e_i^t\notag
\end{align}
\end{example}
\begin{definition}[Bidualraum]
Der \begriff{Bidualraum} zu $V$ ist der $K$-Vektorraum
\begin{align}
V^{**}=(V^*)^*=\Hom_K(V^*,K)\notag
\end{align}
\end{definition}
\begin{proposition}
Die kanonische Abbildung
\begin{align}
\iota:\begin{cases}
V\to V^{**} \\ x\to \iota_x
\end{cases}\text{ wobei } \iota_x(\phi)=\phi(x)\notag
\end{align}
ist ein Monomorphismus. Ist $\dim_K(V)<\infty$, so ist $\iota$ ein Isomorphismus.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\iota_x\in V^{**}$:
\begin{itemize}
\item $\iota_x(\phi+\psi)=(\phi+\psi)(x)=\phi(x)+\psi(x)=\iota_x(\phi)+ \iota_x(\psi)$
\item $\iota_x(\lambda \phi)=(\lambda\phi)(x)=\lambda\phi(x)=\lambda\iota_x(\phi)$
\end{itemize}
\item $\iota$ linear:
\begin{itemize}
\item $\iota_{x+y}(\phi)=\phi(x+y)=\phi(x)+\phi(y)=\iota_x(\phi)+\iota_y(\phi)= (\iota_x+\iota_y)(\phi)$
\item $\iota_{\lambda x}(\phi)=\phi(\lambda x)=\lambda\iota_x(\iota)=(\lambda\iota_x)(\phi)$
\end{itemize}
\item $\iota$ injektiv: Sei $0\neq x\in V$. Nach \propref{7_2_7} existiert $\phi\in V^*$ mit $\iota_x(\phi)=\phi(x)=1\neq 0$. Somit ist $\iota_x\neq 0$.
\item Ist $\dim_K(V)<\infty$, so ist $V\overset{\propref{7_2_6}}{\cong} V^* \overset{\propref{7_2_6}}{\cong} V^{**}$, insbesondere $\dim_K(V)=\dim_K(V^{**})$. Der Monomorphismus $\iota$ ist somit ein Isomorphismus.
\end{itemize}
\end{proof}
\begin{remark}
Sei $\dim_K(V)<\infty$. Im Gegensatz zu den Isomorphismen $V\to V^*$, die von der Wahl der Basis $B$ abhängen, ist der Isomorphismus $\iota:V\to V^{**}$ kanonisch (von der Wahl der Basis $B$ unabhängig).
Die Voraussetzung, dass $\dim_K(V)<\infty$ ist hier essentiell: Für $\dim_K(V)=\infty$ ist $\iota$ nicht surjektiv.
\end{remark}
\begin{definition}[Annulator]
Für eine Teilmenge $U\subseteq V$ bezeichne
\begin{align}
U^0 =\{\phi\in V^*\mid \phi(x)=0\quad\forall x\in U\}\notag
\end{align}
den \begriff{Annulator} von $U$.
\end{definition}
\begin{lemma}
$U^0$ ist ein Untervektorraum von $V^*$.
\end{lemma}
\begin{proof}
Klar.
\end{proof}
\begin{proposition}
\proplbl{7_2_14}
Ist $\dim_K(V)<\infty$ und $U\subseteq V$ ein Untervektorraum, so ist
\begin{align}
\dim_K(V)=\dim_K(U)+\dim_K(U^0)\notag
\end{align}
\end{proposition}
\begin{proof}
Ergänze eine Basis $(x_1,...,x_r)$ von $U$ zu einer Basis $B=(x_1,...,x_n)$ von $V$. Dann ist $B^*(x_1^*,...,x_n^*)$ eine Basis von $V^*$. Sei $C=(x_{r+1}^*,...,x_n^*)$. Dann ist $C$ eine Basis von $U^0$:
\begin{itemize}
\item $B^*$ ist Basis $\Rightarrow C$ ist linear unabhängig.
\item $C\subseteq U^0$: Für $1\le j\le r < i\le n$ ist $x_i^*(x_j)=\delta_{ij}=0$.
\item $U^0\subseteq\Span_K(C)$: Ist $\phi=\sum_{i=1}^n \lambda_ix_i^*\in U^0$, so $0=\phi(x_j)= \lambda_j$ für alle $j\le r$, \\also $\phi\in\Span_K(x_{r+1}^*,...,x_n^*)$.
\end{itemize}
\end{proof}
\begin{conclusion}
\proplbl{7_2_15}
Ist $\dim_K(V)<\infty$ und $U\subset V$ ein Untervektorraum, so ist
\begin{align}
\iota(U)=U^{00}\notag
\end{align}
\end{conclusion}
\begin{proof}
Es ist klar, dass $\iota(U)\le U^{00}$. \\
Für $\phi\in U^0$ und $x\in U$ ist $\iota_x(\phi) = \phi(x) =0$. Mit \propref{7_2_14} ist
\begin{align}
\dim_K(U^{00}) &= \dim_K(V^*)-\dim_K(U^0) \notag \\
&=\dim_K(V^*) - (\dim_K(V)-\dim_K(U)) \notag \\
&\overset{\propref{7_2_6}}{=} \dim_K(U) \notag
\end{align}
und da $\iota$ injektiv ist, folgt $\iota(U)=U^{00}$.
\end{proof}

View file

@ -0,0 +1,257 @@
\section{Der Elementarteilersatz}
Sei $R$ Hauptidealring.
\begin{definition}
Seien $a,b,x,y\in R$. Für $i,j\in\{1,...,n\}$ ist
\begin{align}
E_{ij} = (\delta_{\sigma,i},...,\delta_{\mu,j})_{\sigma,\mu}\in\Mat_n(\real)\notag
\end{align}
Sei
\begin{align}
E_{ij}(a,b,x,y) = \mathbbm{1}_n-E_{ii}-E_{jj}+aE_{ii}+bE_{ij}+xE_{jj}+yE_{ji}\notag
\end{align}
%TODO: Matrix ergänzen von Pascal
\end{definition}
\begin{lemma}
Ist $ax-by\in R^\times$, so ist
\begin{align}
E_{ij}(a,b,x,y)\in \GL_n(\real)\notag
\end{align}
\end{lemma}
\begin{proof}
Folgt aus \propref{4_3_4}, da
\begin{align}
\det(E_{ij}(a,b,x,y))=ax-by\in R^\times\notag
\end{align}
Oder direkt: Das Inverse ist $E_{ij}(xc^{-1},bc^{-1}, ac^{-1},-yc^{-1})$, zum Beispiel
\begin{align}
\begin{pmatrix} a & b \\ y & x\end{pmatrix}\begin{pmatrix}xc^{-1} & -bc^{-1} \\ -yc^{-1} & ac^{-1}\end{pmatrix}=\begin{pmatrix}(ax-by)c^{-1} & 0 \\ 0 & (ax-by)c^{-1}\end{pmatrix}\notag
\end{align}
\end{proof}
\begin{remark}
Multiplikation von $E_{ij}(a,b,x,y)$ von links an $A$ führt eine Zeilenumformung durch: Sind $a_1,...,a_n$ die Zeilen von $A$, so wird $a_i$ durch $aa_i+ba_j$ ersetzt, und gleichzeitig $a_j$ durch $ya_i+xa_j$ ersetzt. Ist $ax-by=1$, so sind diese Zeilenumformungen invertierbar.
\emph{Spezialfälle}: elementare Zeilenumformungen von Typ II und III aus Kapitel III (LAAG 1). Warnung: Im Gegensatz dazu sind über einem Ring $R$ die elementaren Zeilenumformungen vom Typ I (Multiplikation mit einem Skalar) nicht immer invertierbar!
Multiplikation mit $E_{ij}(a,b,x,y)$ von rechts führt entsprechende Spaltenumformungen durch.
\end{remark}
\begin{theorem}[Elementarteilersatz für Matrizen, \person{Smith}-Normalform]
\proplbl{8_6_4}
Sei $A\in\Mat_{m\times n}(\real)$. Es gibt $0\le r \le\min\{n,m\}$, $S\in\GL_m(R)$, $T\in\GL_n(R)$
mit
\begin{align}
SAT &= \begin{pmatrix}d_1 & & & \\ & \ddots & & \\ & & d_r & \\ & & & \mathbb{0}\end{pmatrix} \notag \\
\mathbb{0} &\in\Mat_{m-r\times n-r}\notag
\end{align}
wobei $d_i\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für $i=1,...,n-1$
\end{theorem}
\begin{proof}
Induktion nach $\min\{m,n\}$. Für $a\in R$ sei $\delta(a)\in\natur_0\cup\{\infty\}$ die Anzahl der Primelemente in der Primfaktorzerlegung von $a$, mit $\delta(0):=\infty$, und $\delta(A):=\min_{ij}\{\delta(a_{ij})\}$. Wir können annehmen, dass $\delta(A)\le \delta(SAT)$ für alle $S\in \GL_m(R)$ und $T\in \GL_n(R)$. Durch Zeilen- und Spaltenvertauschungen erreichen wir, dass $\delta(a_{11})=\delta(A)$.
\begin{itemize}
\item \emph{1. Behauptung:} $a_{11}\mid a_{i1}$ für alle $i$. Gäbe es ein $i\ge 1$ für dass $a_{11}\nmid a_{i1}$, so sei $c=\ggT(a_{11},a_{i1})=xa_{11}+ya_{i1}$ mit $\ggT(x,y)=1$, also $ax-by=1$ mit $a,b\in R$. Multiplikation mit $E_{1i}(x,y,a,b)$ von links erzeugt an der Position $(1,1)$ das Element $c$, und $\delta(c)<\delta(a_{11})=\delta(A)$, im Widerspruch zur Minimalität von $\delta(A)$. \\
Analog zeigt man, dass $a_{11}\mid a_{1j}$ für alle $j$. Durch Zeilen- und Spaltenumformungen können wir deshalb nun $a_{i1}=0$ für alle $i>1$ und $a_{1j}$ für alle $j>1$ erreichen.
\item\emph{2. Behauptung:} $a_{11}\mid a_{ij}$ für alle $i,j$. Gäbe es $i>1$ und $j>1$ mit $a_{11}\nmid a_{ij}:=b$, so können wir die $j$-te Spalte zur ersten Spalte addieren, was $a_{11}$ nicht ändert und $a_{1i}=b$ bewirkt. Wider können wir Behauptung 1 anwenden und erhalten den Widerspruch, dass $a_{11}\mid b$. Damit ist nach diesem Umformungen
\begin{align}
A=\begin{pmatrix}a_{11} & \\ & a_{11}\cdot A'\end{pmatrix}\notag
\end{align}
mit $A'\in\Mat_{(m-1)\times (n-1)}(R)$. Wir wenden nun die Induktionshypothese auf $A'$ an und sind fertig.
\end{itemize}
\end{proof}
\begin{mathematica}[\person{Smith}-Normalform]
Elementarteiler einer Matrix $A$ lassen sich mit Mathematica mit der Funktion
\begin{align}
\texttt{SmithDecomposition[A]}\notag
\end{align}
die als einziges Argument eine Matrix braucht. Allerdings ist der Output unformatiert, mit folgenden Befehl sieht das deutlich besser aus:
\begin{align}
\text{\texttt{MatrixForm/@ (\{u,r,v\} = SmithDecomposition[A])}}\notag
\end{align}
Der Output sind 3 Matrizen, wobei \texttt{u} für $S$, \texttt{v} für $T$ und \texttt{r} für das Ergebnis von $SAT$ steht.
\end{mathematica}
\begin{remark}
Man kann zeigen, dass die $d_1,...,d_r$ bis auf Assoziiertheit eindeutig bestimmt sind. Man nennt sie deshalb \begriff{Elementarteiler} der Matrix $A$.
\end{remark}
\begin{example}
Sei $R=\whole$. Die Elementarteiler von
\begin{align}
A=\begin{pmatrix}2&0&0 \\ 0&4&0 \\0&0&6\end{pmatrix}\notag
\end{align}
sind
\begin{align}
\begin{pmatrix}4&0\\0&6\end{pmatrix}\to\begin{pmatrix}4&0\\4&6\end{pmatrix}\notag
\to\begin{pmatrix}4&0\\-2&6\end{pmatrix} \to\begin{pmatrix}2&-6\\4&0\end{pmatrix} \notag
\to\begin{pmatrix}2&0\\4&12\end{pmatrix} \to\begin{pmatrix}2&0\\0&12\end{pmatrix}\notag
\end{align}
2, 2 und 12.
\end{example}
\begin{*anmerkung}[Teil 1]
Um die Elementarteiler der Matrix $A_0$ zu ermitteln, muss man geschickt mit Matrizen $S$ und $T$ multiplizieren. Dazu starten wir links oben bei Element $a_{11}\neq 0$ und versuchen nun, auf der ersten Spalte und auf der ersten Zeile nur Nullen zu produzieren, aber $a_{11}\neq 0$ zu erhalten.
Dazu fangen wir mit der ersten Spalte an. Ziel ist es, das letzte Element dieser Spalte durch geschickte Addition der vorletzten Spalte zu 0 werden zu lassen. Wir schauen uns die letzten 2 Elemente, nennen wir sie $x$ und $y$, dieser ersten Spalte an und bestimmen $\ggT(x,y)$. Weiterhin suchen wir $u$ und $v$, sodass folgende Gleichung erfüllt ist:
\begin{align}
\ggT(x,y)=u\cdot x + v\cdot y\notag
\end{align}
Da wir eine Zeilenoperation durchführen wollen, brauchen wir eine Matrix $S_0$, die wir von links an $A$ ranmultiplizieren. Dabei müssen wir auf die richtige Dimension von $S_0$ aufpassen. Dazu setzen wir $S_0$ auf $\mathbbm{1}_m$ und fügen an der richtigen Stelle die Matrix $S'_0$ ein:
\begin{align}
S'_0=\begin{pmatrix}u & v \\ -\frac{y}{\ggT(x,y)} & \frac{x}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Jetzt bestimmen wir $A_1:=A_0\cdot S_0$. Jetzt haben wir das letzte Element der ersten Spalte zu 0 verwandelt. Wir arbeiten uns jetzt in der ersten Spalte nach oben, versuchen also das vorletzte Element zu 0 zu verwandeln, aber mithilfe der vorvorletzten Zeile. Auch dazu bestimmen wir wieder Matrizen $S_1,S_2,...$ bis die erste Spalte 0 ist, mit Ausnahme von $a_{11}$.
\end{*anmerkung}
\begin{*anmerkung}[Teil 2]
Jetzt wenden wir uns der ersten Zeile zu: Auch hier versuchen wir das letzte Element zu 0 zu verwandeln, aber eben mit Benutzung der vorletzten Spalte. Die Vorgehensweise ist nahezu identisch, wir bestimmen auch wieder $\ggT(x,y)$ und lösen
\begin{align}
\ggT(x,y)=u\cdot x + v\cdot y\notag
\end{align}
Damit bauen wir uns wieder $T'_0$, die wir an der passenden Stelle in $T_0=\mathbbm{1}_n$ einsetzen
\begin{align}
T'_0=\begin{pmatrix}u & -\frac{y}{\ggT(x,y)} \\ v & \frac{x}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Die Matrix $T_0$ multiplizieren wir aber diesmal von rechts an $A_n$. So arbeiten wir uns wieder von hinten nach vorne. Es kann passieren, dass wir uns damit leider wieder in der ersten Spalte ein paar Nullen kaputt machen, aber dann bauen wir wieder eine $S_n$-Matrix mit der wieder Nullen erscheinen. Falls das wieder die Spalten kaputt macht, dann multiplizieren wir wieder mit einer $T_n$-Matrix. Das \propref{8_6_4} garantiert uns, dass wir irgendwann fertig werden.
\end{*anmerkung}
\begin{*anmerkung}[Teil 3]
Haben wir nun die erste Zeile und die erste Spalte zu 0 verwandelt, außer $a_{11}$ natürlich, kümmern wir uns um die Untermatrix in Richtung rechts unten. Hier geht der Algorithmus von vorne los; das Schöne ist, dass er uns die erste Zeile/Spalte nicht mehr kaputt machen kann. Irgendwann sind wir rechts unten angekommen und haben nur noch Elemente auf der Hauptdiagonalen stehen. Diese sollten, wie in \propref{8_6_4} behauptet eine solche Teilerkette bilden. Tun sie das nicht, kann man wieder mit Matrizen $S_n$ und $T_n$ nachhelfen.
\begin{align}
S'_n=\begin{pmatrix}u & v \\ -\frac{y}{\ggT(x,y)} & \frac{x}{\ggT(x,y)}\end{pmatrix}\quad
T'_n=\begin{pmatrix}1 & -\frac{vy}{\ggT(x,y)} \\ 1 & \frac{ux}{\ggT(x,y)}\end{pmatrix} \notag \\
\text{unter Vorbehalt! }S'_n=\begin{pmatrix}1 & 1 \\ -\frac{vy}{\ggT(x,y)} & \frac{ux}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Und dann sind wir endlich fertig! Die Transformationsmatrizen $S$ und $T$ sind dann einfach
\begin{align}
S = S_1\cdot S_2\cdot ... \notag \\
T = T_1\cdot T_2\cdot ... \notag
\end{align}
Weitere Informationen und Beispiele findet man auf \url{http://www.igt.uni-stuttgart.de/eiserm/lehre/2010/Algebra/Matrizenringe.pdf}, ab Abschnitt §7D
\end{*anmerkung}
\begin{lemma}
\proplbl{8_6_7}
Ist $M$ ein endlich erzeugter freier $R$-Modul und $N\subseteq M$ ein Untermodul, so ist auch $N$ endlich erzeugt.
\end{lemma}
\begin{proof}
Sei $(x_1,...,x_m)$ eine Basis von $M$. Induktion nach $m$. \\
\emph{$m=1$:} Durch $1\mapsto x_1$ wird nach \propref{8_1_11} eine $R$-lineare Abbildung $f:R\to M$ gegeben, die ein Isomorphismus ist. Der Untermodul $N\subseteq M$ entspricht einem Ideal $I:=f^{-1}(N)$ von $R$. Da $R$ ein Hauptidealring ist, ist $I=(a)$ für ein $a\in R$, somit $N=f(I)=R\cdot f(a)$. Insbesondere ist $N$ endlich erzeugt, sogar von einem Element. \\
\emph{$m-1\to m$:} Definiere $M'=\sum_{i=1}^{m-1}Rx_i$, $M''=Rx_m$, $N'=N\cap M'$. Sei unter $\pi: M\to M''$ die $R$-lineare Abbildung gegeben nach \propref{8_1_11} durch $\pi(x_i)=\delta_{i,m}x_m$. Nach Induktionshypothese ist $N'$ endlich erzeugt, etwa $N'=\sum_{j=1}^n Ry_j$. Aus dem Fall $m=1$ sehen wir zudem, dass $N''=\pi(N)=R\pi(y)$ für ein $y\in N$. Sei $\tilde{N}=Ry+\sum_{j=1}^n Ry_j\subseteq N$. Da $\Ker(\pi\vert_N)=M''\cap N=N'\subseteq\tilde{N}$ und $\pi\vert_N(\tilde{N})\supseteq R\pi(y)=N''=\pi\vert_N(N)$ ist $\tilde{N}=N$ nach \propref{8_5_5} und \propref{8_5_4}. Somit ist $N$ endlich erzeugt.
\end{proof}
\begin{proposition}[Elementarteilersatz für Moduln]
\proplbl{8_6_8}
Sei $R$ ein Hauptidealring, $M\cong R^m$ ein endlich erzeugter freier $R$-Modul, $N\subseteq M$ ein Untermodul. Dann existiert $r\in\natur$, eine Basis $B'=(x'_1,...,x'_m)$ von $M$ und $d_1,...,d_r\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für $i=1,...,r-1$ für die $(d_1x'_1,...,d_rx'_r)$ eine Basis von $N$ ist.
\end{proposition}
\begin{proof}
Sei $B=(x_1,...,x_m)$ eine Basis von $M$. Nach \propref{8_6_7} ist $N$ endlich erzeugt, also
\begin{align}
N=\sum_{j=1}^n Ry_j\quad\text{ mit }\quad y_j=\sum_{i=1}^m a_{ij}x_i\quad a_{ij}\in R\notag
\end{align}
Wir betrachten die lineare Abbildung $f:R^n\to M$ gegeben durch $f(e_j)=y_j$. Dann ist $\Image(f)=N$ und
\begin{align}
M_B^{\mathcal{E}}(f)=A=(a_{ij})\in\Mat_{m\times n}(R)\notag
\end{align}
Nach \propref{8_6_4} existieren $S\in\GL_m(R)$, $T\in\GL_n(R)$ mit
\begin{align}
SAT=D=\diag(d_1,...,d_r,\mathbb{0})\notag
\end{align}
Es gibt somit Basen $\mathcal{E}'=(e'_1,...,e'_n)$ von $R^n$, $B'=(x'_1,...,x'_m)$ von $M$ mit $M_{B'}^{\mathcal{E}'}(f)=D$. Somit ist $N=\Image(f)=\sum_{i=1}^n R\cdot f(e'_i)=\sum_{j=1}^r Rd_jx'_j$. Da $(x'_1,...,x'_r)$ frei und $R$ nullteilerfrei ist, ist auch $(d_1x'_1,...,d_rx'_r)$ frei, also eine Basis von $N$.
\end{proof}
\begin{*example}
Sei $R=\whole$, $M=\whole^2$, \textcolor{blue}{$N$ }$=\whole\begin{henrysmatrix}2\\0\end{henrysmatrix}+\whole\begin{henrysmatrix}1\\2\end{henrysmatrix}$
\begin{align}
&\begin{pmatrix}2&1\\0&2\end{pmatrix}\to\begin{pmatrix}1&2\\2&0\end{pmatrix}\to\begin{pmatrix}1&0\\2&-4\end{pmatrix}\to\begin{pmatrix}1&0\\0&4\end{pmatrix}\notag \\
&\Rightarrow B = \left(\begin{henrysmatrix}1\\0\end{henrysmatrix},\begin{henrysmatrix}0\\4\end{henrysmatrix} \right)\Rightarrow \textcolor{red}{B'=\left(\begin{henrysmatrix}1\\2\end{henrysmatrix}, \begin{henrysmatrix}1\\1\end{henrysmatrix} \right)}\notag \\
&\Rightarrow \textcolor{cyan}{C=\left(1\cdot\begin{henrysmatrix}1\\2\end{henrysmatrix},4\cdot \begin{henrysmatrix}1\\1\end{henrysmatrix} \right)}\text{ ist Basis von }\textcolor{blue}{N}\notag
\end{align}
\begin{center}
\begin{tikzpicture}
\draw[help lines, line width=.2pt, step=1] (0,0) grid (6,5);
\draw[->] (-1,0) -- (7,0);
\draw[->] (0,-1) -- (0,6);
\draw[fill=blue] (0,0) circle (0.1);
\draw[fill=blue] (2,0) circle (0.1);
\draw[fill=blue] (4,0) circle (0.1);
\draw[fill=blue] (6,0) circle (0.1);
\draw[fill=blue] (0,4) circle (0.1);
\draw[fill=blue] (2,4) circle (0.1);
\draw[fill=blue] (4,4) circle (0.1);
\draw[fill=blue] (6,4) circle (0.1);
\draw[fill=blue] (1,2) circle (0.1);
\draw[fill=blue] (3,2) circle (0.1);
\draw[fill=blue] (5,2) circle (0.1);
\draw[->, cyan, line width=2pt] (0,0) -- (1,2);
\draw[->, cyan, line width=2pt] (0,0) -- (4,4);
\draw[->, red, thick] (0,0) -- (1,2);
\draw[->, red, thick] (0,0) -- (1,1);
\end{tikzpicture}
\end{center}
\end{*example}
\begin{remark}
Wieder kann man zeigen, dass $d_1,...,d_r$ bis auf Einheiten eindeutig bestimmt sind.
\end{remark}
\begin{conclusion}
\proplbl{8_6_10}
Ist $R$ ein Hauptidealring, so ist ein Untermodul eines endlich erzeugten freien $R$-Moduls wieder frei.
\end{conclusion}
\begin{remark}
\propref{8_6_10} wird \emph{falsch} ohne "'$R$ Hauptidealring"'. So ist zum Beispiel $N=(x,y)\unlhd\ratio[x,y]=(\ratio[x])[y]=R=M$ kein Hauptideal und somit ein nicht freier Untermodul des freien $R$-Moduls $R$: Je zwei Elemente von $R$ sind linear abhängig, für $a,b\in R$ ist
\begin{align}
b\cdot a+(-a)\cdot b=0\notag
\end{align}
Deshalb kann $N$ keine Basis mit mehr als einem Element besitzen.
Die Voraussetzung "'endlich erzeugt"' ist hingegen nicht notwendig, aber der Beweis wird dadurch einfacher.
\end{remark}
\begin{conclusion}
Ist $R$ ein Hauptidealring, so ist ein Untermodul eines endlich erzeugten $R$-Moduls $M$ wieder endlich erzeugt.
\end{conclusion}
\begin{proof}
Ist $M=\sum_{j=1}^m Ry_j$, so betrachte die $R$-lineare Abbildung $f:R^m\to M$ gegeben durch $f(e_j)=y_j$ für $j=1,...,m$. Nach \propref{8_6_7} ist $f^{-1}(N)\subseteq R^m$ endlich erzeugt, etwa $f^{-1}(N)=\sum_{i=1}^n Rx_i$. Somit ist $N=f(f^{-1}(N))=\sum_{i=1}^n R\cdot f(x_i)$ endlich erzeugt.
\end{proof}
\begin{theorem}[Hauptsatz über endlich erzeugte Moduln über Hauptidealringen]
\proplbl{8_6_13}
Sei $R$ ein Hauptidealring und $M$ ein endlich erzeugter $R$-Modul. Dann ist
\begin{align}
M = F\oplus M_{tor}\notag
\end{align}
wobei $F\cong R^r$ ein endlich erzeugter freier $R$-Modul ist und
\begin{align}
M_{tor} \cong \bigoplus_{i=1}^n \qraum{R}{Rd_i}\notag
\end{align}
mit Nichteinheiten $d_1,...,d_n\in R\backslash\{0\}$, die $d_i\mid d_{i+1}$ für $i=1,...,n-1$ erfüllen.
\end{theorem}
\begin{proof}
Sei $M=\sum_{j=1}^m Ry_j$. Betrachte die lineare Abbildung $f:R^m\to M$ gegeben durch $f(e_j)=y_j$ und dem Untermodul $N=\Ker(f)\subseteq R^m$. Nach \propref{8_6_8} existiert eine Basis $(x_1,...,x_s)$ von $R^m$, $n\le s$ und $d_1,...,d_n\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für die $(d_1x_1,...,d_nx_n)$ eine Basis von $N$ ist. Nach dem Homomorphiesatz ist
\begin{align}
M=\Image(f)&\cong\qraum{R^m}{N}=\qraum{\bigoplus_{i=1}^s Rx_i}{\bigoplus_{i=1}^n Rd_ix_i} \notag \\
&\cong \qraum{R^s}{\bigoplus_{i=1}^n Rd_ie_i}\notag \\
&\cong \bigoplus_{i=1}^n \qraum{R}{Rd_i}\oplus \underbrace{R^{s-n}}_{F}\notag
\end{align}
Ist $d_i\in R^\times$, so ist $\qraum{R}{Rd_i}=0$, wir können diese $i$ daher weglassen. Dabei ist $\bigoplus_{i=1}^n \qraum{R}{Rd_i}$ genau der Torsionsmodul $M_{tor}$:
\begin{itemize}
\item "'$\subseteq$"': Mit $d:=d_1\cdot ... \cdot d_n\in R\backslash\{0\}$ ist $d\cdot (x_i)_{1,...,n}=(dx_i)_{1,...,n}=(0,...,0)$ (Vielfache von $Rd_i$ machen das Element zu 0)
\item "'$\supseteq$"': Ist $d\in R\backslash\{0\}$, $x\in\bigoplus_{i=1}^n\qraum{R}{Rd_i}$, $y\in R^{s-n}$ mit $d\cdot (x,y)=0$, so ist $d\cdot y=0$ und deshalb $y=0$.
\end{itemize}
\end{proof}
\begin{remark}
Auch hier sind $d_1,...,d_n$ (bis auf Einheiten) sowie $r$ eindeutig bestimmt. Man nennt $r$ den \begriff[Modul!]{(freien) Rang} von $M$.
\end{remark}
\begin{example}
Eine endlich erzeugte abelsche Gruppe $A$ ist von der Form
\begin{align}
A\cong \whole^r\oplus\bigoplus_{i=1}^k \qraum{\whole}{d_i\whole}\notag
\end{align}
mit (eindeutig bestimmten) $d_1,...,d_k\in\natur$, $d_1\mid d_2\mid ...\mid d_k$.
\end{example}

View file

@ -0,0 +1,121 @@
\section{Der Spektralsatz}
Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\begin{definition}[normaler Endomorphismus, normale Matrix]
Der Endomorphismus $f$ heißt \begriff[Endomorphismus!]{normal}, wenn
\begin{align}
f\circ f^{adj}=f^{adj}\circ f\notag
\end{align}
Entsprechend heißt $A\in\Mat_n(K)$ \begriff[Matrix!]{normal}, wenn
\begin{align}
AA^*=A^*A\notag
\end{align}
\end{definition}
\begin{mathematica}[normale Matrix]
Ob eine Matrix $A$ normal ist, beantwortet folgende Funktion für Mathematica bzw. WolframAlpha:
\begin{align}
\texttt{NormalMatrixQ[A]}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{itemize}
\item Ist $f$ selbstadjungiert, so ist $f^{adj}=f$, insbesondere ist $f$ normal.
\item Ist $f$ unitär, so ist $f^{adj}=f^{-1}$, insbesondere ist $f$ normal.
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{7_5_3}
Genau dann ist $f\in\End_K(V)$ normal, wenn
\begin{align}
\skalar{f(x)}{f(y)}=\skalar{f^{adj}(x)}{f^{adj}(y)}\quad\forall x,y\in V\notag
\end{align}
\end{lemma}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Ist $f$ normal, so ist
\begin{align}
\skalar{f(x)}{f(y)} &= \skalar{x}{(f^{adj}\circ f)(y)} \notag \\
&= \skalar{x}{(f\circ f^{adj})(y)} \notag \\
&= \skalar{f^{adj}(x)}{f^{adj}(y)}\quad\forall x,y\in V\notag
\end{align}
\item Rückrichtung: Ist umgekehrt $\skalar{f^{adj}(x)}{f^{adj}(y)}$, so ist
\begin{align}
\skalar{x}{(f^{adj}\circ f)(y)}&=\skalar{x}{(f\circ f^{adj})(y)} \notag \\
0 &= \skalar{x}{(f^{adj}\circ f-f\circ f^{adj})(y)} \notag \\
f^{adj}\circ f&=f\circ f^{adj} \notag
\end{align}
\end{itemize}
\end{proof}
\begin{lemma}
\proplbl{7_5_4}
Ist $f$ normal, ist ist
\begin{align}
\Ker(f)=\Ker(f^{adj})\notag
\end{align}
\end{lemma}
\begin{proof}
Nach \propref{7_5_3} ist
\begin{align}
\Vert f(x)\Vert = \Vert f^{adj}(x)\Vert \quad\forall x\in V\notag
\end{align}
Insbesondere gilt
\begin{align}
f(x)=0\iff f^{adj}(x)=0\notag
\end{align}
\end{proof}
\begin{lemma}
\proplbl{7_5_5}
Ist $f$ normal, so ist
\begin{align}
\Eig(f,\lambda)=\Eig(f^{adj},\overline{\lambda})\quad\forall\lambda\in K\notag
\end{align}
\end{lemma}
\begin{proof}
Da $(\lambda\cdot \id-f)^{adj}\overset{\propref{7_4_8}}{=}\overline{\lambda}\cdot\id-f^{adj}$ ist auch $\lambda\cdot\id-f$ normal. Somit ist
\begin{align}
\Eig(f,\lambda) &= \Ker(\lambda\id-f)\notag \\
&\overset{\propref{7_5_4}}{=} \Ker((\lambda\id-f)^{adj})\notag \\
&= \Ker(\overline{\lambda}\id-f^{adj})\notag \\
&= \Eig(f^{adj},\overline{\lambda})\notag
\end{align}
\end{proof}
\begin{theorem}[Spektralsatz]
\proplbl{7_5_6}
Sei $f\in\End_K(V)$ ein Endomorphismus, für den $\chi_f$ in Linearfaktoren zerfällt. Genau dann besitzt $V$ eine Orthonormalbasis aus Eigenvektoren von $f$, wenn $f$ normal ist.
\end{theorem}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Ist $B$ eine Orthonormalbasis aus Eigenvektoren von $f$, so ist $A=M_B(f)$ eine Diagonalmatrix. Dann ist auch $M_B(f^{adj})\overset{\propref{7_4_7}}{=}A^*$ eine Diagonalmatrix und $AA^*=A ^*A$. Somit ist $f$ normal.
\item Rückrichtung: Sei $f$ normal und $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$. Beweis nach Induktion nach $n=\dim_K(V)$. \\
\emph{$n=0$}: klar \\
\emph{$n-1\to n$}: Wähle Eigenvektor zum Eigenwert $\lambda_1$, o.E. $\Vert x_1\Vert = 1$. Sei $U=K\cdot x_1$. Nach \propref{7_5_5} ist $f^{adj}(x_1)=\overline{\lambda_1}x_1$, insbesondere ist $U$ $f$-invariant und $f^{adj}$-invariant. Für $x\in U^\perp$ ist
\begin{align}
\skalar{f(x)}{x_1}= \skalar{x}{f^{adj}(x_1)}=\skalar{x}{\overline{\lambda_1}x_1}=\lambda_1\skalar{x}{x_1}=0\notag
\end{align}
also $f(x)\in U^\perp$ und
\begin{align}
\skalar{f^{adj}(x)}{x_1}=\skalar{x}{f(x_1)}=\skalar{x}{\lambda_1 x_1}=\overline{\lambda_1} \skalar{x}{x_1}=0\notag
\end{align}
also $f^{adj}(x)\in U^\perp$. Somit ist $V=U\oplus U^\perp$ eine Zerlegung in Untervektorräume, die sowohl $f$-invariant als auch $f^{adj}$-invariant sind. Insbesondere st $f^{adj}\vert_{U^\perp}=(f\vert_{U^\perp})^{adj}$, woraus folgt, dass auch $f\vert_{U^\perp}$ normal ist:
\begin{align}
f\vert_{U^\perp}\circ (f\vert_{U^\perp})^{adj}=f\circ f^{adj}\vert_{U^\perp}=f^{adj}\circ f\vert_{U^\perp} = f^{adj}\vert_{U^\perp}\circ f\vert_{U^\perp}=(f\vert_{U^\perp})^{adj}\circ f\vert_{U^\perp}\notag
\end{align}
Außerdem zerfällt auch $\chi_{f\vert_{U^\perp}}=\prod_{i=2}^n (t-\lambda_i)$ in Linearfaktoren. Nach Induktionshypothese existiert eine Orthonormalbasis $(x_2,...,x_n)$ von $U^\perp$ bestehend aus Eigenvektoren von $f\vert_{U^\perp}$ und $(x_1,...,x_n)$ ist dann eine Orthonormalbasis von $V$ aus Eigenvektoren von $f$.
\end{itemize}
\end{proof}
\begin{conclusion}
Sei $A\in\Mat_n(\comp)$. Genau dann gibt es $S\in\Uni_n$ mit $S^*AS=D$ eine Diagonalmatrix, wenn $A$ normal ist.
\end{conclusion}
\begin{remark}
\propref{7_5_6} ist eine gemeinsame Verallgemeinerung von \propref{6_5_9} und \propref{6_6_5}
\end{remark}

View file

@ -0,0 +1,150 @@
\section{Der Vektorraum der linearen Abbildungen}
Seien $V$ und $W$ zwei $K$-Vektorräume.
\begin{proposition}
\proplbl{3_5_1}
Sei $(x_i)$ eine Basis von $V$ und $(y_i)$ eine Familie in $W$. Dann gibt es genau eine lineare
Abbildung $f:V\to W$ mit $f(x_i)=y_i$. Diese Abbildung ist durch $f(\sum \lambda_ix_i)=\sum \lambda_iy_i$
(*) ($\lambda_i\in K$, fast alle gleich 0) gegeben und erfüllt
\begin{itemize}
\item $\Image(f)=\Span_K(y_i)$
\item genau dann ist $f$ injektiv, wenn $(y_i)$ linear unabhängig ist
\end{itemize}
\end{proposition}
\begin{proof}
Ist $f:V\to W$ linear mit $f(x_i)=y_i$, so folgt aus \propref{3_4_6} $f(\sum \lambda_ix_i)=\sum \lambda_iy_i$. Da sich jedes
$x\in V$ als $x=\sum \lambda_ix_i$ schreiben lässt, ist $f$ dadurch schon eindeutig bestimmt. Andererseits wird
durch (*) eine wohldefinierte Abbildung beschrieben, da die Darstellung von $x$ eindeutig ist (denn $x_i$ sind
linear unabhängig). Es bleibt zu zeigen, dass die durch (*) definierte Abbildung $f:V\to W$ tatsächlich linear ist.
Ist $x=\sum \lambda_ix_i$ und $x'=\sum \lambda'_ix_i$ so ist $f(x+x')=f(\sum (\lambda_i+\lambda'_i)x_i)=
\sum (\lambda_i+\lambda'_i)y_i=\sum \lambda_iy_i+\sum \lambda'_iy_i=f(x)+f(x')$. $f(\lambda x)=f(\sum \lambda
\lambda_ix_i)=\sum \lambda\lambda_iy_i=\lambda\sum\lambda_iy_i=\lambda f(x)$.
\begin{itemize}
\item $\Image(f)$ ist ein Untervektorraum nach \propref{3_4_6} von $W$ und $\{y_i\}\subset \Image(f)\subset \Span_K(y_i)$, somit $\Image(f)=\Span_K(y_i)$
\item \propref{3_4_11}: $f$ ist injektiv $\iff \Ker(f)=\{0\}$ \\
$\iff \lambda_i\in K$ gilt: $f(\sum \lambda_ix_i)=0\Rightarrow \sum \lambda_ix_i=0$ \\
$\iff \lambda_i\in K$ gilt: $\sum\lambda_iy_i=0\Rightarrow \lambda_i=0$ \\
$\iff (y_i)$ linear unabhängig.
\end{itemize}
\end{proof}
\begin{conclusion}
Sei $\dim_K<\infty$. Ist $(x_1,...,x_n)$ eine linear unabhängige Familie in $V$ und $(y_1,...,y_n)$
eine Familie in $W$, so gibt es eine lineare Abbildung $f:V\to W$ mit $f(x_i)=y_i$
\end{conclusion}
\begin{proof}
Nach dem Basisergänzungssatz (\propref{2_3_12}) können wir die Familie $(x_i)$ zu einer Basis $x_1,...,x_m$ ergänzen. Die Behauptung
folgt aus \propref{3_5_1} für beliebige $y_{n+1},...,y_m\in W$.
\end{proof}
\begin{conclusion}
\proplbl{3_5_3}
Ist $(x_i)$ eine Basis von $V$ und $(y_i)$ eine Basis in $W$, so gibt es genau einen Isomorphismus
$f:V\to W$ mit $f(x_i)=y_i$.
\end{conclusion}
\begin{proof}
Sei $f$ wie in \propref{3_5_1}. $(y_i)$ ist Erzeugendensystem $\Rightarrow \Image(f)=\Span_K(y_i)=W$, also $f$ surjektiv.
$(y_i)$ linear abhängig $\Rightarrow f$ ist injektiv.
\end{proof}
\begin{conclusion}
Zwei endlichdimensionale $K$-Vektorräume sind genau dann isomorph, wenn sie dieselbe Dimension haben.
\end{conclusion}
\begin{proof}
\propref{3_5_3} und \propref{3_4_10}
\end{proof}
\begin{conclusion}
\proplbl{3_5_5}
Ist $B=(v_1,...,v_n)$ eine Basis von $V$, so gibt es genau einen Isomorphismus $\Phi_B:K^n\to
V$ mit $\Phi_B(e_i)=v_i$. Insbesondere ist jeder endlichdimensionale $K$-Vektorraum zu einem Standardraum isomorph, nämlich zu
$K^n$ für $n=\dim_K(V)$.
\end{conclusion}
\begin{definition}[Koordinatensystem]
Die Abbildung $\Phi_B$ heißt \begriff{Koordinatensystem} zu $B$. Für $v\in V$ ist
$(x_1,...,x_n)^t=\Phi^{-1}_B(v)\in K^n$ der Koordinatenvektor zu $v$ bezüglich $B$ und $(x_1,...,x_n)$ sind die
Koordinaten von $v$ bezüglich $B$.
\end{definition}
\begin{proposition}
Die Menge $\Hom_K(V,W)$ ist ein Untervektorraum des $K$-Vektorraums $\Abb(V,W)$.
\end{proposition}
\begin{proof}
Seien $f,g\in \Hom_K(V,W)$ und $\eta \in K$.
\begin{itemize}
\item $f+g\in \Hom_K(V,W)$: Für $x,y\in V$ und $\lambda,\mu\in K$ ist $(f+g)(\lambda x+\mu y)=f(\lambda x+\mu y)+
g(\lambda x+\mu y)=\lambda f(x)+\mu f(y)+\lambda g(x)+\mu g(y)=\lambda(f+g)(x)+\mu(f+g)(y)$
\item $\eta f\in \Hom_K(V,W)$: Für $x,y\in V$ und $\lambda,\mu\in K$ ist $(\eta f)(\lambda x+\mu y)=\eta\cdot
f(\lambda x+\mu y)=\eta(\lambda f(x)+\mu f(y))=\lambda(\eta f)(x)+\mu(\eta f)(y)$
\item $\Hom_K(V,W)\neq\emptyset$: $c_0\in \Hom_K(V,W)$
\end{itemize}
\end{proof}
\begin{lemma}
\proplbl{3_5_8}
Sei $U$ ein weiterer $K$-Vektorraum. Sind $f,f_1,f_2\in \Hom_K(V,W)$ und $g,g_1,g_2\in \Hom_K(U,V)$, so ist
$f\circ (g_1+g_2)=f\circ g_1+f\circ g_2$ und $(f_1+f_2)\circ g=f_1\circ g+f_2\circ g$.
\end{lemma}
\begin{proof}
Für $x\in U$ ist
\begin{itemize}
\item $(f\circ(g_1+g_2))(x)=f((g_1+g_2)(x))=f(g_1(x)+g_2(x))=f(g_1(x))+f(g_2(x))=(f\circ g_1+f\circ g_2)(x)$
\item $((f_1+f_2)\circ g)(x)=(f_1+f_2)(g(x))=f_1(g(x))+f_2(g(x))=(f_1\circ g+f_2\circ g)(x)$
\end{itemize}
\end{proof}
\begin{conclusion}
\proplbl{3_5_9}
Unter der Komposition wird $\End_K(V)$ zu einem Ring mit Einselement $\id_V$ und $\End_K(V)^{\times}=
\Aut_K(V)$.
\end{conclusion}
\begin{proof}
$(\End_K(V),+)$ ist eine abelsche Gruppe (\propref{3_4_9}), die Komposition eine Verknüpfung auf $\End_K(V)$ ist assoziativ und die
Distributivgesetze gelten (\propref{3_5_8}).
\end{proof}
\begin{remark}
Die Menge der strukturverträglichen Abbildungen zwischen $K$-Vektorräumen trägt also wieder die Struktur
eines $K$-Vektorraums. Wir können diesen mit unseren Mitteln untersuchen und z.B. nach Dimension und Basis fragen.
\end{remark}
\begin{lemma}
\proplbl{3_5_11}
Seien $m,n,r\in \mathbb N$, $A\in \Mat_{m\times n}(K)$, $B\in \Mat_{n\times r}(K)$. Für die linearen
Abbildungen $f_A\in \Hom_K(K^n,K^m)$, $f_B\in \Hom_K(K^r,K^n)$ aus \propref{3_4_5} gilt dann $f_{AB}=f_A\circ f_B$.
\end{lemma}
\begin{proof}
Sind $A=(a_{ij})$ und $B=(b_{jk})$, so ist $(f_A\circ f_B)(e_k)=f_A(f_B(e_k))=f_A(Be_k)=f_A(b_{1k},...,b_{nk})^t=
A\cdot (b_{1k},...,b_{nk})^t=(\sum_{j=1}^n a_{ij}b_{jk},...,\sum_{j=1}^n a_{mj}b_{jk})^t=AB\cdot e_k=
f_{AB}(e_k)$ für $k=1,...,r$, also $f_A\circ f_B=f_{AB}$ nach \propref{3_5_1}.
\end{proof}
\begin{proposition}
\proplbl{3_5_12}
Die Abbildung $A\to f_A$ aus \propref{3_4_5} liefert einen Isomorphismus von $K$-Vektorräumen $F_{m\times n}\!\!: \Mat_{m\!\times\!n}(K)
\!\to\! \Hom_K(K^n\!,K^m)$ sowie einen Ringisomorphismus $F_n:\Mat_n(F)\to \End_K(K^n)$ der $\GL_n(K)$ auf $\Aut_K(K^n)$
abbildet.
\end{proposition}
\begin{proof}
Wir schreiben $F$ für $F_{m\times n}$
\begin{itemize}
\item $F$ ist linear: Sind $A,B\in Mat-{n\times m}(K)$ und $\lambda,\mu\in K$, so ist $F(\lambda A+\mu B)(x)=
f_{\lambda A+\mu B}(x)=(\lambda A+\mu B)x=\lambda Ax+\mu Bx=\lambda f_A(x)+\mu f_B(x)=(\lambda F(A)+\mu F(B))(x)$,
also ist $F$ linear.
\item $F$ ist injektiv: Es genügt zu zeigen, dass $\Ker(f)=\{0\}$ (\propref{3_4_11}). Ist $A=(a_{ij})\in \Mat_{n\times m}(K)$ mit $F(A)=0$,
so insbesondere $0=F(A)(e_j)=f_A(e_j)=Ae_j=(a_{1j},...,a_{mj})^t$, also $A=0$.
\item $F$ ist surjektiv: Sei $f\in \Hom_K(V,W)$. Schreibe $f(e_j)=(a_{1j},...,a_{mj})^t$ und setze $A=(a_{ij})\in
\Mat_{n\times m}(K)$. Dann ist $f_A\in \Hom_K(K^n,K^m)$ mit $f_A(e_j)=Ae_j=f(e_j)$, also $f=f_A=F(A)\in \Image(f)$ nach \propref{3_5_1}.
\item $F_n$ ist eine Ringhomomorphismus (\propref{3_5_11}): \\
(RH1) aus (L1) \\
(RH2) aus $f_{AB}=f_A\circ f_B$.
\item Somit ist $F_n$ eine Ringisomorphismus $\Rightarrow F_n(\Mat_n(K)^{\times})=\End_K(V)^{\times}$, also $F_n(
\GL_n(K))=\Aut_K(V)$ nach \propref{3_5_9}.
\end{itemize}
\end{proof}
\begin{remark}
Wir sehen also, dass die linearen Abbildungen zwischen Standardräumen sehr konkret durch Matrizen beschrieben werden können. Da jeder endlichdimensionale Vektorraum zu einem Standardraum isomorph ist (\propref{3_5_5}), kann man diese Aussage auf solche Vektorräume erweitern. Dies wollen wir im nächsten Abschnitt tun.
\end{remark}

View file

@ -0,0 +1,251 @@
\section{Determinante einer Matrix}
\begin{remark}
Wir werden nun auch Matrizen mit Koeffizienten in Ring $R$ anstatt $K$ betrachten. Mit der gewohnten Addition und
Multiplikation bilden die $n\times n$-Matrizen einen Ring $\Mat_n(R)$, und wir definieren wieder $\GL_n(R)=\Mat_n(R)^{\times}$.
\end{remark}
\begin{remark}
Seien $a_1,...,a_n\in R^m$ Spaltenvektoren, so bezeichnen wir mit $A=(a_1,...,a_n)\in \Mat_{m\times n}(R)$ die
Matrix mit den Spalten $a_1,...,a_n$. sind $\widetilde{a_1},...,\widetilde{a_m}\in R^n$ Zeilenvektoren, so bezeichnen wir mit $\tilde A=(
\widetilde{a_1},...,\widetilde{a_m})\in \Mat_{m\times n}(R)$ die Matrix mit den Zeilen $\widetilde{a_1},...,\widetilde{a_m}$.
\end{remark}
\begin{remark}
\proplbl{4_2_3}
Wir hatten bereits definiert: $\det(A)=ad-bc$ (\propref{3_1_13}) mit
\begin{align}
A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\in \Mat_2(K)\notag
\end{align} und hatten
festgestellt: $\det(A)\neq 0 \iff A\in \GL_2(K)$. Interpretation im $K=\mathbb R$:\\
\begin{center}
\begin{tikzpicture}[scale=0.7]
\draw[thin] (-2,0) -- (10,0) node[right] {$x_1$};
\draw[thin] (0,-2) -- (0,10) node[above] {$x_2$};
%circles
\draw [->,green!70!black,thick,domain=0:16] plot ({5*cos(\x)}, {5*sin(\x)});
\draw [green!70!black] (5,-0.3) node {\scriptsize $\alpha_1$};
\draw [->,green!70!black,thick,domain=0:74] plot ({3*cos(\x)}, {3*sin(\x)});
\draw [green!70!black] (3,-0.3) node {\scriptsize $\alpha_2$};
% triangle
\fill[line width=1pt, color=red,fill=red, opacity=0.1] (0,0) -- (2,7) -- (7,2) -- cycle ;
\draw[red] (2,7) -- (7,2);
\draw[red] (3.5,3.5) node {\scriptsize $\Delta$};
% Paralello
\draw[->, thick] (0,0) -- (7,2) node[right] {\scriptsize $x_1=(a,b)$};
\draw[->, thick] (0,0) -- (2,7) node[above] {\scriptsize$x_2=(c,d)$};
\draw[->, thick] (7,2) -- (9,9) node[right] {\scriptsize$x_1 + x_2$};
\draw[->, thick] (2,7) -- (9,9);
\draw[blue] (0,0) -- (7,2) node[near end, below] {\scriptsize $g_{\Delta}$};
\draw[blue] (3.5,1) -- (2,7) node[near start, right] {\scriptsize$h_{\Delta}$};
\end{tikzpicture}
\end{center}
Parallelogramm hat die Fläche $|\det A|$. Polarkoordinaten: $x_i=\lambda_i(\cos a_i, \sin a_i)$. Ohne Einschränkung: $0\le a_1 \le a_2
\le \pi$
\begin{align}
F_{P} &= 2\cdot F_{\Delta} = 2\cdot \frac 1 2 \cdot g_{\Delta} \cdot h_{\Delta} \notag \\
g_{\Delta} &= \lambda_1 \notag \\
h_{\Delta} &= \lambda_2 \cdot \sin(a_2-a_1) \notag \\
F_{P} &= \lambda_1\lambda_2(\cos a_1 \sin a_2 - \sin a_1 \cos a_2) = \det(\begin{pmatrix}\lambda_1 \cos a_1 &
\lambda_1 \sin a_1 \\ \lambda_2 \cos a_2 & \lambda_2 \sin a_2 \end{pmatrix}) \notag \\
&= \det A \notag
\end{align}
Insbesondere erfüllt $\det$ die folgenden Eigenschaften:
\begin{itemize}
\item Für $\lambda\in R$ ist $\det(\lambda x_1,x_2)=\det(x_1,\lambda x_2)=\lambda\cdot \det(x_1,x_2)$
\item Für $x_i=x'_i+x''_i$ ist $\det(x_1,x_2)=\det(x'_1,x_2) + \det(x''_1,x_2)$
\item Ist $x_1=x_2$, so ist $\det A=0$
\item $\det(\mathbbm{1}_2)=1$
\end{itemize}
\end{remark}
\begin{definition}[Determinantenabbildung]
Eine Abbildung $\delta:\Mat_n(R)\to R$ heißt \begriff{Determinantenabbildung}, wenn gilt:
\begin{itemize}
\item (D1): $\delta$ ist linear in jeder Zeile: sind $a_1,...,a_n$ die Zeilen von $A$ und ist $i\in \{1,...,n\}$ und $a_i=\lambda'a'_i +
\lambda''a''_i$ mit $\lambda',\lambda''\in R$ und den Zeilenvektoren $a'_i,a''_i$, so ist $\delta(A)=\lambda'\cdot \delta(a_1,...,
a'_i,...,a_n) + \lambda''\cdot \det(a_1,...,a''_i,...,a_n)$.
\item (D2): $\delta$ ist alternierend: sind $a_1,...,a_n$ die Zeilen von $A$ und $i,j\in \{1,...,n\}$, $i\neq j$ mit $a_i=a_j$, so ist
$\delta(A)=0$.
\item (D3): $\delta$ ist normiert: $\delta(\mathbbm{1}_n)=1$.
\end{itemize}
\end{definition}
\begin{mathematica}[Determinante]
Die Determinante einer Matrix lässt sich in Mathematica bzw. WolframAlpha wie folgt berechnen:
\begin{align}
\texttt{Det[\{\{1, 4\}, \{2, 5\}\}]}\notag
\end{align}
\end{mathematica}
\begin{example}
\proplbl{4_2_5}
Sei $\delta:\Mat_n(K)\to K$ eine Determinantenabbildung. Ist $A\in \Mat_n(K)$ nicht invertierbar, so sind die Zeilen
$a_1,...,a_n$ von $A$ linear abhängig, es gibt also ein $i$ mit $a_i=\sum_{j\neq i} \lambda_j\cdot a_j$. Es folgt $\delta(A)=
\delta(a_1,...,a_n)=\sum_{j\neq i} \lambda_j\cdot \delta(a_1,...,a_j,...,a_n)$ mit $a_i=a_j$ mit D2: $\sum_{j\neq i}
\lambda_j\cdot 0=0=\delta(A)$.
\end{example}
\begin{lemma}
\proplbl{4_2_6}
Erfüllt $\delta:\Mat_n(R) \to R$ die Axiome D1 und D2, so gilt für jedes $\sigma\in S_n$ und die Zeilenvektoren
$a_1,...,a_n$:
\begin{align}
\delta(a_{\sigma(1)},...,a_{\sigma(n)})=\sgn(\sigma)\cdot \delta(a_1,...,a_n)\notag
\end{align}
\end{lemma}
\begin{proof}
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen (\propref{4_1_7}). \\
\begin{align}
0&=\delta(a_1,...,a_i+a_j,...,a_j+a_i,....,a_n) \notag \\
&=\delta(a_1,...,a_i,...,a_j,...,a_n)+\delta(a_1,...,a_i,...,a_i,...,a_n)+\delta(a_1,...,a_j,
...,a_j,...,a_n)+\delta{a_1,...,a_j,...,a_i,...,a_n} \notag \\
&=\delta(a_1,...,a_n)+\delta(a_{\sigma(1)},...,a_{\sigma(n)}) \notag \\
&=0 \notag
\end{align}
Mit $\sgn(\sigma)=
\sgn(\tau_{ij})=-1$ folgt die Behauptung.
\end{proof}
\begin{lemma}
\proplbl{4_2_7}
Erfüllt $\delta:\Mat_n(R)\to R$ die Axiome D1 und D2, so gilt für $A=(a_{ij})\in \Mat_n(R)$:
\begin{align}
\delta(A)=\delta(\mathbbm{1}_n)
\cdot \sum_{\sigma\in S_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} \right)\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $a_i=(a_{j_1},...,a_{in})=\sum_{j=1}^n a_{ij}\cdot e_j$. Wiederholtes Anwenden von D1 gibt
\begin{align}
\delta(A)&=\delta(a_1,...,a_n) \notag \\
&=\sum_{j_1=1}^n a_{1j_1}\cdot \delta(e_{j_1},a_2,...,a_n) \notag \\
&=\sum_{j_1=1}^n ... \sum_{j_n=1}^n \delta(e_{j_1},...,e_{j_n})\cdot \prod_{i=1}^n a_{ij_i} \notag
\end{align}
Wegen D2 ist $\delta(e_{j_1},...,e_{j_n})=0$ falls $j_i=j_{i'}$ für ein $i\neq i'$.
Andernfalls ist $\sigma(i)=j_i$ einer Permutation von $\{1,...,n\}$ und
\begin{align}
\delta(e_{j_1},...,e_{j_n})&=\delta(e_{\sigma(1)},...,e_{\sigma(n)}) \notag \\
&=\sgn(\sigma)\cdot \delta(e_1,...,e_n) \notag \\
&=\sgn(\sigma)\cdot \delta(\mathbbm{1}_n) \notag
\end{align}
nach \propref{4_2_6}.
\end{proof}
\begin{theorem}
\proplbl{4_2_8}
Es gibt genau eine Determinantenabbildung $\delta:\Mat_n(R)\to R$ und diese ist gegeben durch die
Leibnitzformel
\begin{align}
\det(a_{ij})=\sum_{\sigma\in S_n} \sgn(\sigma)\cdot \prod_{i=1}^n a_{i,\sigma(i)} = \sum_{\sigma
\in A_n}\prod_{i=1}^n a_{i,\sigma(i)} - \sum_{\sigma\in S_n\backslash A_n}\prod_{i=1}^n a_{i,\sigma(i)}\notag
\end{align}
\end{theorem}
\begin{proof}
Eindeutigkeit der Abbildung folgt wegen D3 aus \propref{4_2_7}. Bleibt nur noch zu zeigen, dass $\det$ auch die Axiome D1 bis D3 erfüllt. \\
D1: klar \\
D3: klar \\
D2: Seien $\mu\neq v$ mit $a_{\mu}=a_v$. Mit $\tau=\tau_{\mu v}$ ist $S_n\backslash A_n = A_n\tau$, somit
\begin{align}
\det(a_{ij})&=
\sum_{\sigma\in A_n} \prod_{i=1}^n a_{i,\sigma(i)}-\sum_{\sigma\in A_n\tau} \prod_{i=1}^n a_{i,\sigma\tau(i)} \notag \\
&=
\sum_{\sigma\in A_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} - \prod_{i=1}^n a_{i,\sigma\tau(i)} \right) \notag
\end{align}
nach \propref{4_1_10}. Da $a_{ij}=a_{\tau(i),j}$
für alle $i,j$ ist
\begin{align}
\prod_{i=1}^n a_{i,\sigma(i)}&=\prod_{i=1}^n a_{\tau(i),\sigma\tau(i)} \notag \\
&=\prod_{i=1}^n a_{i,\sigma\tau(i)} \notag
\end{align}
für jedes $\sigma\in S_n$, woraus $\det(a_{ij})=0$ folgt.
\end{proof}
\begin{example}
\proplbl{4_2_9}
\begin{itemize}
\item $n=2$, $S_2=\{\id, \tau_{12}\}$,
\begin{align}
A=\begin{pmatrix}a_{11} & a_{12} \\ a_{21} & a_{22}\end{pmatrix}\notag
\end{align}
$\det(A)=\sum_{\sigma\in
S_2} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}=a_{11}\cdot a_{22} - a_{12}\cdot a_{21}$
\item $n=3$, $S_3=\{id,\tau_{12}, \tau_{23}, \tau_{13}, \text{2 zyklische Vertauschungen}\}$, $A_3=\{\id, \text{2 zyklische
Vertauschungen}\}$, $S_3\backslash A_3=\{\tau_{12},\tau_{23},\tau_{13}\}$ und
\begin{align}
A=\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33} \\
\end{pmatrix}\notag
\end{align}
ergibt sich: $\det(A)=\sum_{\sigma\in A_3} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}\cdot a_{3,\sigma(3)} - \sum_
{\sigma\in S_3\backslash A_3} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}\cdot a_{3,\sigma(3)}= a_{11}a_{22}a_{33} + a_{12}a_{23}
a_{31} + a_{13}a_{21}a_{32} - a_{12}a_{21}a_{33} - a_{13}a_{22}a_{31} - a_{11}a_{23}a_{32}$
\item Ist $A=(a_{ij})$ eine obere Dreiecksmatrix, so ist $\det(A)=\prod_{i=1}^n a_{ii}$
\item Für $i\neq j$, $\lambda\in K^{\times}$, $\mu\in K$ ist $\det(S_i(\lambda))=\lambda$, $\det(Q_{ij}(\mu))=1$, $\det(P_{ij})=-1$
\item Ist $A$ eine \begriff{Blockmatrix} der Gestalt
\begin{align}
\begin{pmatrix}A_1 & C \\ 0 & A_2\end{pmatrix}\notag
\end{align} mit quadratischen Matrizen $A_1,
A_2,C$, so ist $\det(A)=\det(A_1)\cdot \det(A_2)$
\end{itemize}
\end{example}
\begin{conclusion}
Für $A\in \Mat_n(R)$ ist $\det(A)=\det(A^t)$. Insbesondere erfüllt $\det$ die Axiome D1 und D2 auch für Spalten
anstatt Zeilen.
\end{conclusion}
\begin{proof}
Mit $\rho=\sigma^{-1}$ gilt $\sgn(\rho)=\sgn(\sigma)$ nach \propref{4_1_8} und somit
\begin{align}
\det(A)&=\sum_{\sigma\in S_n} \sgn(\sigma) \cdot \prod_
{i=1}^n a_{i,\sigma(i)} \notag \\
&=\sum_{\rho\in S_n} \sgn(\rho)\cdot \prod_{i=1}^n a_{\rho(i),i} \notag \\
&=\det(A^t) \notag
\end{align}
nach \propref{4_2_8}.
\end{proof}
\begin{theorem}[Determinantenmultiplikationssatz]
\proplbl{4_2_11}
Für $A,B\in \Mat_n(R)$ ist
\begin{align}
\det(AB)=\det(A)\cdot \det(B)\notag
\end{align}
\end{theorem}
\begin{proof}
Fixiere $A$ und betrachte die Abbildung $\delta: \Mat_n(R)\to R$ mit $B\mapsto \det(AB^{-1})$. Diese Abbildung erfüllt die Axiome
D1 und D2. sind $b_1,...,b_n$ die Zeilen von $B$, so hat $AB^{-1}$ die Spalten $Ab_1^t,...,Ab_n^t$, es werden die Eigenschaften
von $\det$ auf $\delta$ übertragen. \\
$\Rightarrow \det(AB)=\delta(B^t)=\delta(\mathbbm{1}_n)\cdot \det(B^t)=\det(A)\cdot \det(B)$.
\end{proof}
\begin{conclusion}
\proplbl{4_2_12}
Die Abbildung $\det:\Mat_n(R)\to R$ schränkt sich zu einem Gruppenhomomorphismus $\GL_n(R)\to
R^{\times}$ ein. Ist $R=K$ ein Körper, so ist $A\in \Mat_n(K)$ also genau dann invertierbar, wenn $\det(A)\neq 0$ und in
diesem Fall ist $\det(A^{-1})=\det(A)^{-1}$.
\end{conclusion}
\begin{proof}
Aus $AA^{-1}=\mathbbm{1}_n$ folgt $\det(A^{-1})*\det(A)=\det(\mathbbm{1}_n)=1$, insbesondere $\det(A)\in R^{\times}$. Der zweite Teil folgt wegen
$K^{\times}=K\backslash \{0\}$ (\propref{4_2_5}).
\end{proof}
\begin{conclusion}
Die Matrizen mit Determinante 1 bilden einen Normalteiler $\SL_n(K)=\{A\in \GL_n \mid \det(A)=1\}$ der
allgemeinen linearen Gruppe, die sogenannte \begriff{spezielle lineare Gruppe}.
\end{conclusion}
\begin{conclusion}
\proplbl{4_2_14}
Elementare Zeilenumformungen vom Typ II ändern die Determinante nicht, elementare Zeilenumformungen vom
Typ III ändern nur das Vorzeichen der Determinante.
\end{conclusion}
\begin{proof}
$\det(Q_{ij}(\mu)A)=\det(Q_{ij}(\mu)) \cdot \det(A)= 1\cdot \det(A) = \det(A)$ (\propref{4_2_9}), Rest analog.
\end{proof}
\begin{remark}
Aus \propref{4_2_14} und \propref{4_2_9} erhält man eine praktische Methode zur Berechnung der Determinante. Man bringt die Matrix mit dem \person{Gauss}-Algorithmus \propref{3_9_11} auf Zeilenstufenform, bildet das Produkt über die Diagonale und multipliziert mit -1, falls am eine ungerade Anzahl von Zeilenvertauschungen vorgenommen hat.
\end{remark}

View file

@ -0,0 +1,118 @@
\section{Determinante und Spur von Endomorphismen}
Sei $n\in \mathbb N$ und $V$ ein $K$-Vektorraum mit $\dim_K(V)=m$.
\begin{proposition}
\proplbl{4_4_1}
Sei $f\in \Hom_K(V,W)$, $A'$ eine Basis von $V$ und $A=M_{A'}(f)$. Sei weiter $B\in \Mat_n(K)$. Genau
dann gibt es eine Basis $B'$ von $V$ mit $B=M_{B'}(f)$, wenn es $S\in \GL_n(K)$ mit $B=SAS^{-1}$ gibt.
\end{proposition}
\begin{proof}
Ist $B'$ eine Basis von $V$ mit $B=M_{B'}(f)$, so ist $B=SAS^{-1}$ mit $S=T^{A'}_{B'}$. Sei umgekehrt $B=SAS^{-1}$ mit
$S\in \GL_n(K)$. Es gibt eine Basis $B'$ von $V$ mit $T^{A'}_{B'}=S$, also $M_{B'}(f)=T^{A'}_{B'}\cdot M_{A'}(f)\cdot (
T^{A'}_{B'})^{-1}=SAS^{-1}=B$: Mit $B'=(\Phi_{A'}(f_s^{-1}(e_1)),...,\Phi_{A'}(f_s^{-1}(e_n)))$ ist $\Phi_{A'}\circ f_s^{-1}=
\id_V\circ \Phi_{B'}$, also $T^{A'}_{B'}=M_{A'}^{A'}(\id_V)=S^{-1}$. Folglich ist $T^{A'}_{B'}=(T_{A'}^{B'})^{-1}=(S^{-1})^{-1}
=S$ nach \propref{3_6_2}.
\end{proof}
\begin{definition}[Ähnlichkeit]
Zwei Matrizen $A,B\in \Mat_n(R)$ heißen \begriff{ähnlich}, wenn (in Zeichen $A\sim B$) es
$S\in \GL_n(R)$ mit $B=SAS^{-1}$ gibt.
\end{definition}
\begin{proposition}
Ähnlichkeit von Matrizen ist eine Äquivalenzrelation auf $\Mat_n(R)$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item Reflexivität: $A=\mathbbm{1}_n\cdot A \cdot (\mathbbm{1}_n)^{-1}$
\item Symmetrie: $B=SAS^{-1}\Rightarrow A=S^{-1}BS=S^{-1}B(S^{-1})^{-1}$
\item Transitivität: $B=SAS^{-1}$, $C=TBT^{-1}\Rightarrow C=TSAS^{-1}T^{-1}=(TS)A(ST)^{-1}$
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{4_4_4}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist
\begin{align}
\det(A)=\det(B)\notag
\end{align}
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)$, $\det(B)=\det(S)\cdot \det(A)\cdot \det(S)^{-1}=\det(A)$ nach \propref{4_2_11} und \propref{4_2_12}
\end{proof}
\begin{definition}[Determinante eines Endomorphismus]
Die \begriff[Endomorphismus!]{Determinante} eines Endomorphismus $f\in \End_K(V)$ ist
\begin{align}
\det(f)=\det(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist. (Diese ist wohldefiniert nach \propref{4_4_1} und \propref{4_4_4})
\end{definition}
\begin{proposition}
\proplbl{4_4_6}
Für $f,g\in \End_K(V)$ gilt:
\begin{itemize}
\item $\det(\id_V)=1$
\item $\det(f\circ g)=\det(f)\cdot \det(g)$
\item Genau dann ist $\det(f)\neq 0$, wenn $f\in \Aut_K(V)$. In diesem Fall ist $\det(f^{-1})=\det(f)^{-1}$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item klar
\item folgt aus \propref{3_6_6} und \propref{4_2_11}
\item folgt aus \propref{3_6_5} und \propref{4_2_12}
\end{itemize}
\end{proof}
\begin{definition}[Spur einer Matrix]
Die \begriff[Matrix!]{Spur} einer Matrix $A=(a_{ij})\in \Mat_n(R)$ ist
\begin{align}
\tr(A)=\sum_{i=1}^n a_{ii}\notag
\end{align}
\end{definition}
\begin{mathematica}[Spur einer Matrix]
Auch für die Spur einer Matrix hat Mathematica bzw. WolframAlpha eine Funktion:
\begin{align}
\texttt{Tr[\{\{1, 2, 3\}, \{4, 5, 6\}, \{7, 8, 9\}\}]}\notag
\end{align}
\end{mathematica}
\begin{lemma}
\proplbl{4_4_8}
Seien $A,B\in \Mat_n(R)$
\begin{itemize}
\item $\tr: \Mat_n(R)\to R$ ist $R$-linear
\item $\tr(A^t)=\tr(A)$
\item $\tr(AB)=\tr(BA)$
\end{itemize}
\end{lemma}
\begin{proof}
in den Übungen bereits behandelt
\end{proof}
\begin{proposition}
\proplbl{4_4_9}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist $\tr(A)=\tr(B)$.
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)\Rightarrow \tr(B)=\tr(SAS^{-1})\overset{\propref{4_4_8}}{=}\tr(AS^{-1}S)=\tr(A)$
\end{proof}
\begin{definition}[Spur eines Endomorphismus]
Die \begriff[Endomorphismus!]{Spur} eines Endomorphismus $f\in \End_K(V)$ ist
\begin{align}
\tr(f)=\tr(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist (Diese ist wohldefiniert nach \propref{4_4_1} und \propref{4_4_9})
\end{definition}
\begin{remark}
Im Fall $K=\mathbb R$ kann man wie in \propref{4_2_3} den Absolutbetrag der Determinante eines $f\in \End_K(K^n)$
geometrisch interpretieren, nämlich als das Volumen von $f(Q)$, wobei $Q=[0,1]^n$ der Einheitsquader ist, und somit
als Volumenänderung durch $f$. Auch das Vorzeichen von $\det(f)$ hat eine Bedeutung: Es gibt an, ob $f$
orientierungserhaltend ist. Für erste Interpretationen der Spur siehe A100.
\end{remark}

View file

@ -0,0 +1,117 @@
\section{Diagonalisierbarkeit}
\begin{definition}[diagonalisierbar]
Man nennt $f$ \begriff{diagonalisierbar}, wenn $V$ eine Basis $B$ besitzt, für die $M_B(f)$ eine Diagonalmatrix ist.
\end{definition}
\begin{lemma}
\proplbl{lemma_diag_summe_eig}
Genau dann ist $f$ diagonalisierbar, wenn
\begin{align}
V=\sum\limits_{\lambda\in K} \Eig(f,\lambda) \notag
\end{align}.
\end{lemma}
\begin{proof}
$(\Rightarrow)$: Ist $B$ eine Basis aus EV von $f$ (vgl. \propref{satz_diagonal_ev}), so ist $B\le \bigcup\limits_{\lambda\in K}\Eig(f,\lambda)$, also $V=\Span_K(\bigcup\limits_{\lambda\in K}\Eig(f, \lambda))=\sum_{\lambda\in K}\Eig(f,\lambda)$. \\
$(\Leftarrow)$: Ist $V=\sum_{\lambda\in K}\Eig(f,\lambda)$, so gibt es $\lambda_1,...,\lambda_n \in K$ mit $V=\sum_{i=1}^r \Eig(f,\lambda_i)$. Wir wählen Basen $B_i$ von $\Eig(f,\lambda_i)$. Dann ist $\bigcup\limits_{i=1}^r B_i$ ein endliches Erzeugendensystem von $V$, enthält also eine Basis von $V$ (\propref{2_3_6}). Diese besteht aus EV von $f$.
\end{proof}
\begin{proposition}
Ist $\dim_K(V)=n$, so hat $f$ höchstens $n$ Eigenwerte. Hat $f$ genau $n$ Eigenwerte, so ist $f$ diagonalisierbar.
\end{proposition}
\begin{proof}
Ist $\lambda$ ein EW von $f$, so ist $\dim_K(\Eig(f,\lambda))\ge 1$. Sind also $\lambda_1,...,\lambda_n$ paarweise verschiedene EW von $f$, so ist
\begin{align}
n=\dim_K(V)&\ge \dim_K\left( \sum\limits_{i=1}^m \Eig(f,\lambda_i)\right) \notag \\
&\overset{\propref{satz_eig_direkte_summe}}{=} \dim_K\left( \bigoplus_{i=0}^{m} \Eig(f,\lambda_i)\right) \notag \\
&= \sum\limits_{i=1}^m \dim_K(\Eig(f,\lambda_i)) \notag \\
&\ge m \notag
\end{align}
Ist zudem $m=n$, so muss
\begin{align}
\dim_K(V) &= \dim_K(\sum\limits_{i=1}^m \Eig(f,\lambda_i))\text{ sein, also }\notag \\
V&= \sum\limits_{i=1}^m \Eig(f,\lambda_i) \notag
\end{align}
Nach \propref{lemma_diag_summe_eig} ist $f$ genau dann diagonalisierbar.
\end{proof}
\begin{definition}[$a$ teilt $b$]
Sei $R$ ein kommutativer Ring mit seien $a,b\in R$. Man sagt, $a$ \begriff{teilt} $b$ (in Zeichen $a\mid b$), wenn es $x\in R$ mit $b=ax$ gibt.
\end{definition}
\begin{definition}[Vielfachheit]
Für $0\neq P\in K[t]$ und $\lambda\in K$ nennt man $\mu(P,\lambda)=\max\{r\in \natur_{>0}\mid (t-r)^r\mid P\}$ die \begriff{Vielfachheit} der Nullstelle $\lambda$ von $P$.
\end{definition}
\begin{lemma}
\proplbl{lemma_3_6}
Genau dann ist $\mu(P,\lambda)\ge 1$, wenn $\lambda$ eine Nullstelle von $P$ ist.
\end{lemma}
\begin{proof}
$(\Rightarrow)$: $(t-\lambda)\mid P\Rightarrow P(t)=(t-\lambda)\cdot Q(t)$ mit $Q(t)\in K[t]\Rightarrow P(\lambda)=0\cdot Q(\lambda)=0$. \\
$(\Leftarrow)$: $P(\lambda)=0\overset{\propref{1_6_9}}{=}(t-\lambda)\mid P(t)\Rightarrow \mu(P,\lambda)\ge 1$.
\end{proof}
\begin{lemma}
\proplbl{lemma_3_7}
Ist $P(t)=(t-\lambda)^r\cdot Q(t)$ mit $Q(t)\in K[t]$ und $Q(\lambda)\neq 0$, so ist $\mu(P,\lambda)=r$
\end{lemma}
\begin{proof}
Offensichtlich ist $\mu(P,\lambda)\ge r$. Wäre $\mu(P,\lambda)\ge r+l$, so $(t-\lambda)^{r+l}\mid P(t)$ also $(t-\lambda)^r\cdot Q(t)=(t-\lambda)^{r^+l}\cdot R(t)$ mit $R(t)\in K[t]$, folglich $(t-\lambda)\mid Q(t)$, insbesondere $Q(\lambda)=0$. \\
(Denn wir dürfen kürzen: $R$ ist nullteilerfrei, genau so wie $K[t]$). \\
$(t-\lambda)^r(Q(t)-(t-\lambda)R(t))=0\Rightarrow Q(t)=(t-\lambda)R(t)$.
\end{proof}
\begin{lemma}
\proplbl{lemma_3_8}
Sind $P,Q,R\in K[t]$ mit $PQ=PR$, und ist $P\neq 0$, so ist $Q=R$.
\end{lemma}
\begin{proof}
$PQ=PR\Rightarrow P(Q-R)=0\overset{K[t]\text{ nullteilerfrei}}{\Rightarrow} Q-R=0$, d.h. $Q=R$.
\end{proof}
\begin{lemma}
\proplbl{lemma_3_9}
Es ist $\sum_{\lambda\in K} \mu(P,\lambda)\le \deg(P)$, mit Gleichheit genau dann, wenn $P$ in Linearfaktoren zerfällt.
\end{lemma}
\begin{proof}
Schreibe $P(t)=\prod_{\lambda\in K}(t-\lambda)^{r_\lambda}\cdot Q(t)$, wobei $Q(t)\in K[t]$ keine Nullstellen mehr besitzt. Nach \propref{lemma_3_7} ist $\mu(P,\lambda)=r_\lambda$ für alle $\lambda$ und somit $\deg(P)=\sum_{\lambda\in K} r_\lambda+\deg(Q)\ge \sum_{\lambda\in K} \mu(P,\lambda)$ mit Gleichheit genau dann,wenn $\deg(Q)=0$, also $Q=c\in K$, d.h. genau dann, wenn $P(t)=c\cdot \prod_{\lambda\in K} (t-\lambda)^{r_\lambda}$.
\end{proof}
\begin{lemma}
\proplbl{lemma_3_10}
Für $\lambda\in K$ ist
\begin{align}
\dim_K(\Eig(f,\lambda))\ge \mu(x_f,\lambda)\notag
\end{align}
\end{lemma}
\begin{proof}
Ergänze eine Basis $B$ von $\Eig(f,\lambda)$ zu einer Basis $B$ von $V$. Dann ist
\begin{align}
A=M_B(f)=\begin{pmatrix}\lambda\mathbbm{1}_s&*\\0&A'\end{pmatrix}\notag
\end{align}
mit einer Matrix $A'\in \Mat_{n-s}(K)$, also $\chi_f(t)=\chi_A(t)\overset{\propref{beispiel_2_8}}{=}\chi_{\lambda\mathbbm{1}}\cdot\chi_{A'}(t)=(t- \lambda)^s\cdot \chi_{A'}(t)$ und somit $\dim_K(\Eig(f,\lambda))=s\le \mu(x_f,\lambda)$.
\end{proof}
\begin{proposition}[Diagonalisierungssatz]
Genau dann ist $f$ diagonalisierbar, wenn $\chi_f$ in Linearfaktoren zerfällt und $\dim_K(\Eig(f,\lambda))=\mu(\chi_f,\lambda)$ für alle $\lambda\in K$.
\end{proposition}
\begin{proof}
Es gilt
\begin{align}
\dim_K(\sum\limits_{\lambda\in K}\Eig(f,\lambda))&\overset{\propref{satz_eig_direkte_summe}}{=} \dim_K(\bigoplus\limits_{\lambda\in K}\Eig(f,\lambda)) \notag \\
&\overset{\text{\propref{2_4_12}}}{=}\sum\limits_{\lambda\in K}\dim_K(\Eig(f,\lambda)) \notag \\
&\overset{\propref{lemma_3_10}}{\le}\sum\limits_{\lambda\in K}\mu(\chi_f,\lambda) \\
&\le \deg(\chi_f) \\
&= n \notag
\end{align}
Nach \propref{lemma_diag_summe_eig} ist $f$ genau dann diagonalisierbar, wenn $\dim_K(\sum_{\lambda\in K}\Eig(f,\lambda))=n$, also wenn bei (1) und (2) Gleichheit herrscht. Gleichheit bei (1) bedeutet $\dim_K(\Eig(f,\lambda))=\mu(\chi_f,\lambda)$ für alle $\lambda\in K$, und Gleichheit bei (2) bedeutet nach \propref{lemma_3_9}, dass $\chi_f$ in Linearfaktoren zerfällt.
\end{proof}
\begin{definition}[algebraische und geometrische Vielfachheit]
Man nennt $\mu_a(f,\lambda)=\mu(\chi_f,\lambda)$ die \begriff[Vielfachheit!]{algebraische Vielfachheit} und $\mu_g(f,\lambda)=\dim_K(\Eig(f,\lambda))$ die \begriff[Vielfachheit!]{geometrische Vielfachheit} des Eigenwertes $\lambda$ von $f$.
\end{definition}
\begin{remark}
Wieder nennt man $A\in\Mat_n(K)$ diagonalisierbar, wenn $f_A\in\End_K(K^n)$ diagonalisierbar ist, also wenn $A\sim D$ für eine Diagonalmatrix $D$.
\end{remark}

View file

@ -0,0 +1,109 @@
\section{Die \person{Jordan}-Normalform}
\begin{definition}[Hauptraum]
Der \begriff{Hauptraum} von $f$ zum EW $\lambda$ der Vielfachheit $r=\mu_a(f,\lambda)$ ist
\begin{align}
\Hau(f,\lambda)=\Ker\Big( (f-\lambda\id_V)^r\Big) \notag
\end{align}
\end{definition}
\begin{lemma}
\proplbl{lemma_7_2}
$\Hau(f,\lambda)$ ist ein $f$-invarianter UVR der Dimension $\dim_K(\Hau(f,\lambda))= \mu_a(f,\lambda)$, auf dem $f-\lambda\id_V$ nilpotent ist und $\chi_{f\vert_{\Hau(f,\lambda)}}= (t-\lambda)^{\mu_a(f,\lambda)}$
\end{lemma}
\begin{proof}
$f$ kommutiert sowohl mit $f$ als auch mit $\id_V$, somit auch mit $(f-\lambda\id_V)^r$. Die $f$-Invarianz von $U=\Hau(f,\lambda)$ folgt aus \propref{lemma_6_3}. Nach \propref{folgerung_6_9} ist $\dim_K(U)=\mu_a(f-\lambda\id_V,0)$ und da $\chi_f(t)=\chi_{f-\lambda\id_V}(t-\lambda)$ ist $\mu_a(f,\lambda)=\mu(\chi_f,\lambda)= \mu_a(f-\lambda\id_V,0)$. Da $f-\lambda\id_V\vert_U$ nilpotent ist $\chi_{f-\lambda\id_V\vert_U}(t)= t^r$, somit $\chi_{f\vert_U}(t)=(t-\lambda)^r$.
\end{proof}
\begin{proposition}[Hauptraumzerlegung]
\proplbl{satz_7_3}
Ist $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden und $r_1,...,r_m\in\natur$, so ist $V=\bigoplus_{i=1}^m V_i$ mit $V_i=\Hau(f,\lambda_i)$ eine Zerlegung in $f$-invariante UVR und für jedes $i$ ist $\chi_{f\vert_{V_i}}(t)=(t-\lambda_i)^{r_i}$.
\end{proposition}
\begin{proof}
Induktion nach $m$.\\
\emph{$m=1$}: $r_1=n\overset{\propref{lemma_7_2}}{\Rightarrow} V=V_1$.\\
\emph{$m-1\to m$}: Nach \propref{satz_6_4} ist $V=V_1\oplus W_1$ mit $W_1=\Image((f-\lambda_i\id_V)^r)$ eine Zerlegung in $f$-invariante UVR mit $\dim_K(V_1)=r_1$, $\dim_K(W_1)=n-r_1$. Somit ist $\chi_f=\chi_{f\vert_{V_1}}\cdot \chi_{f\vert_{W_1}}$ und $\chi_{f\vert_{V_1}}\overset{\propref{lemma_7_2}}{=}(t-\lambda_1)^{r_1}$ also $\chi_{f\vert_{W_1}}=\prod_{i=2}^m (t-\lambda_i)^{r_i}$. Nach I.H. ist also $W_1=\bigoplus_{i=2}^m \Hau(f\vert_{W_1},\lambda_i)$. Es ist für $i\ge 2$ $\Hau(f\vert_{W_1},\lambda_i)\subseteq\Hau(f,\lambda_i)=V_i$ und da $\dim_K(\Hau(f\vert_{W_1},\lambda_i))=r_i=\dim_K(\Hau(f,\lambda_i))$ gilt Gleichheit. Damit ist
\begin{align}
V&=V_1\oplus W_1 \notag\\
&=V_1\oplus\bigoplus_{i=2}^m\Hau(f\vert_{W_1},\lambda_i)\notag \\
&= V_1\oplus\bigoplus_{i=2}^m V_i \notag\\
&= \bigoplus_{i=1}^m V_i\notag
\end{align}
\end{proof}
\begin{example}
$f=f_A$
\begin{align}
A=\begin{pmatrix}1&3&\; \\ \;&1&4 \\ \;&\; & 2\end{pmatrix}\in\Mat_3(\real)\notag
\end{align}
$\chi_A(t)=(t-1)^2(t-2)$
$\Rightarrow \real^3=\underbrace{\Hau(f,1)}_{\dim = 2}\oplus\underbrace{\Hau(f,2)}_{\dim 1}$ \\
$\Hau(f,1)=\Ker((f-\id)^2)=L((A-\mathbbm{1})^2,0)$ \\
$\Hau(f,2)=\Ker(f-2\id)=\Eig(f,2)=L(A-2\mathbbm{1},0)$ \\
\begin{align}
A-\mathbbm{1}&=\begin{henrysmatrix}0&3&\; \\ \; & -1&4 \\ \;&\;&0\end{henrysmatrix}, (A-\mathbbm{1})^2=\begin{henrysmatrix}0&\;&12 \\ \;&0&4 \\ \;&\;&1\end{henrysmatrix}&\Rightarrow \Hau(f,1)=\real e_1+\real e_2\notag \\
A-2\mathbbm{1}&=\begin{henrysmatrix}-1&3&\; \\ \; & -1&4 \\ \;&\;&0\end{henrysmatrix}&\Rightarrow\Hau(f,2)=\real\begin{henrysmatrix}12\\4\\1\end{henrysmatrix}\notag
\end{align}
Mit $B=\left( \begin{henrysmatrix}1\\0\\0\end{henrysmatrix}, \begin{henrysmatrix}0\\1\\0\end{henrysmatrix}, \begin{henrysmatrix}12\\4\\1\end{henrysmatrix}\right) $ ist
\begin{align}
M_B(f)=\begin{pmatrix}\begin{pmatrix}1&3\\\; & 1\end{pmatrix}&\; \\ \; & 2\end{pmatrix}\notag
\end{align}
\end{example}
\begin{theorem}[\person{Jordan}-Normalform]
Sei $f\in\End_K(V)$ ein Endomorphismus, dessen charakteristisches Polynom $\chi_f$ in Linearfaktoren zerfällt. Dann gibt es $r\in\natur$, $\mu_1,...,\mu_r\in K$ und $k_1,...,k_r\in \natur$ mit $\sum_{i=1}^r k_i=\dim_K(V)$ und eine Basis $B$ von $V$ mit
\begin{align}
M_B(f)=\diag(J_{k_1}(\mu_1),...,J_{k_r}(\mu_r))\notag
\end{align}
Die Paare $(\mu_1,k_1),...,(\mu_r,k_r)$ heißen die \begriff{\person{Jordan}-Invarianten} von $f$ und sind bis auf Reihenfolge eindeutig bestimmt.
\end{theorem}
\begin{proof}
Schreibe $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden, $r_i\in\natur$. Sei $V_i=\Hau(f,\lambda_i)$. Nach \propref{satz_7_3} ist $V=\bigoplus_{i=1}^m V_i$ eine Zerlegung in $f$-invariante UVR. Für jedes $i$ wenden wir \propref{satz_6_13} auf $(f-\lambda_i\id_V)\vert_{V_i}$ an und erhalten eine Basis $B_i$ von $V_i$ und $k_{i,1}\ge ...\ge k_{i,s_i}$ mit
\begin{align}
M_B((f-\lambda_i\id)\vert_{V_i})=\diag(J_{k_{i,1}},...,J_{k_{i,s_i}})\notag
\end{align}
Es folgt $M_{B_i}(f\vert_{V_i})=M_{B_i}(\lambda_i\id_{V_i})+M_{B_i}((f-\lambda_i\id_V)\vert_{V_i})$. Ist nun $B$ die Vereinigung der $B_i$, so hat $M_B(f)$ die gewünschte Form. Die Eindeutigkeit der \person{Jordan}-Invarianten folgt aus der Eindeutigkeit der $k_{i,j}$ in \propref{lemma_6_3}.
\end{proof}
\begin{remark}
Ist $K$ algebraisch abgeschlossen, so haben wir nun eine (bis auf Permutationen) eindeutige Normalform für Endomorphismen $f\in\End_K(V)$ gefunden. Aus ihr lassen sich viele Eigenschaften des Endomorphismus leicht ablesen.
\end{remark}
\begin{conclusion}
\proplbl{folgerung_7_7}
Sei $f\in\End_K(V)$ trigonalisierbar mit $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{\mu_a(f,\lambda_i)}$, $P_f(t)=\prod_{i=1}^m (t-\lambda_i)^{d_i}$ und \person{Jordan}-Invarianten $(\mu_1,k_1),...,(\mu_r,k_r)$. Mit $J_i=\{j\mid \mu_j=\lambda_i\}$ ist dann
\begin{align}
\mu_g(f,\lambda_i)&= \vert J_i \vert \notag \\
\mu_a(f,\lambda_i) &= \sum_{j\in J_i} k_j\notag \\
d_i&= \max\{k_j\mid j\in J_i\}\notag
\end{align}
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $\mu_a$: klar, da $\chi_f(t)=\prod_{j=1}^r (t-\mu_j)^{k_j}=\prod_{i=1}^m (t-\lambda_i)^{\mu_a(f,\lambda_i)}$
\item $\mu_g$: lese Basis von $\Eig(f,\lambda_i)$ aus \person{Jordan}-NF: Jeder Block $J_{k_j}(\lambda_i)$ liefert ein Element der Basis.
\item $d_i$: folgt, da $J_{k_j}$ nilpotent von Nilpotenzklasse $k_j$ ist (\propref{lemma_6_12}).
\end{itemize}
\end{proof}
\begin{conclusion}
Genau dann ist $f$ diagonalisierbar, wenn
\begin{align}
\chi_f(t)&=\prod_{i=1}^m (t-^\lambda_i)^{r_i}\quad \lambda_1,...,\lambda_m\in K\text{ paarweise verscheiden und} \notag \\
P_f(t) &= \prod_{i=1}^mm (t-\lambda_i)\notag
\end{align}
\end{conclusion}
\begin{proof}
Genau dann ist $f$ diagonalisierbar, wenn $f$ trigonalisierbar ist und die \person{Jordan}-NF die Diagonalmatrix ist (Eindeutigkeit der JNF), also $k_j=1$ für alle $j$. Nach \propref{folgerung_7_7} ist dies äquivalent dazu, dass $d_i=1$ für alle $i$, also $P_f=\prod_{i=1}^m (t-\lambda_i)$.
\end{proof}
\begin{remark}
Wider definiert man die \person{Jordan}-Invarianten, etc. von einer Matrix $A\in\Mat_n(K)$ als die \person{Jordan}-Invarianten von $f_A\in\End_K(K^n)$.
\end{remark}
\begin{conclusion}
Seien $A,B\in\Mat_n(K)$ trigonalisierbar. Genau dann ist $A\sim B$, wenn $A$ und $B$ die gleichen \person{Jordan}-Invarianten haben.
\end{conclusion}
\begin{proof}
Existenz und Eindeutigkeit der \person{Jordan}-Normalform.
\end{proof}

View file

@ -0,0 +1,147 @@
\section{Die adjungierte Abbildung}
Sei $K=\real$ oder $K=\comp$ und $V$ ein endlichdimensionaler unitärer $K$-Vektorraum.
\begin{definition}[weitere Skalarmultiplikation]
Wir definieren auf $V$ eine Skalarmultiplikation
\begin{align}
\lambda\ast x=\overline{\lambda}\cdot x\notag
\end{align}
und schreiben $\overline{V}=(V,+,\ast)$.
\end{definition}
\begin{lemma}
$\overline{V}$ ist ein $K$-Vektorraum und $\End_K(V)=\End_K(\overline{V})$.
\end{lemma}
\begin{proof}
Mit LAAG1 VI.1.7 nachprüfen, zum Beispiel:
\begin{itemize}
\item $\lambda\ast (x+y)=\overline{\lambda}\cdot (x+y)=\overline{\lambda} x+\overline{\lambda} y=\lambda\ast x+\lambda\ast y$
\item $\lambda\ast(\mu\ast x)=\overline{\lambda}(\overline{\mu}\cdot x)=\overline{\lambda\mu}x=(\lambda\mu)\ast x$
\end{itemize}
Weiterhin sei: $f\in\End_K(V)$, $x\in V$, $\lambda\in K$ \\
$\Rightarrow f(\lambda\ast x)=f(\overline{\lambda}x)=\lambda\ast f(x)$ \\
$\Rightarrow f\in \End_K(\overline{V})$. \\
Umgekehrt sei $g\in\End_K(\overline{V})$, $x\in V$, $\lambda\in K$ \\
$\Rightarrow g(\lambda\cdot x)=g(\overline{\lambda}\ast x)=\lambda\cdot g(x)$ \\
$\Rightarrow g\in \End_K(V)$. \\
\end{proof}
\begin{lemma}
Für $y\in V$ ist
\begin{align}
\Phi_y:
\begin{cases}
V\to K \\ x\mapsto\skalar{x}{y}
\end{cases}\notag
\end{align}
eine Linearform auf $V$.
Die Abbildung $y\mapsto\Phi_y$ liefert einen Isomorphismus $\Phi:\overline{V}\to V^*$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $\Phi_y\in V^*$: Linearität in ersten Argument.
\item $\Phi\in \Hom_K(\overline{V},V^*)$: Für $y,y'\in V$, $\lambda\in K$, $x\in V$ ist
\begin{itemize}
\item $\Phi_{y+y'}(x)=\skalar{x}{y+y'}=\skalar{x}{y}+\skalar{x}{y'}=\Phi_y(x)+\Phi_{y'}(x)$
\item $\Phi_{\lambda\ast y}(x)=\skalar{x}{\lambda\ast x}=\skalar{x}{\overline{\lambda}y}=\lambda \skalar{x}{y}=\lambda\Phi_y(x)$
\end{itemize}
\item $\Phi$ injektiv: Skalarprodukt ist nicht ausgeartet.
\item Da $\dim_K(\overline{V})=\dim_K(V)=\dim_K(V^*)$ ist $\Phi$ somit ein Isomorphismus.
\end{itemize}
\end{proof}
\begin{proposition}
Zu $f\in\End_K(V)$ gibt es ein eindeutig bestimmtes $f^{adj}\in\End_K(V)$ mit
\begin{align}
\skalar{f(x)}{y}=\skalar{x}{f^{adj}(y)}\quad\forall x,y\in V\notag
\end{align}
\end{proposition}
\begin{proof}
Existenz und Eindeutigkeit sind zu zeigen.
\begin{itemize}
\item Existenz:
\begin{center}
\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{\overline{V} & \overline{V} \\ V^* & V^* \\};
\path[-stealth]
(m-1-1) edge node [left] {$\Phi$} (m-2-1)
edge node [above] {$f$} (m-1-2)
(m-1-2) edge node [below] {$f^{adj}$} (m-1-1)
(m-2-2) edge node [below] {$f^*$} (m-2-1)
(m-1-2) edge node [right] {$\Phi$} (m-2-2);
\end{tikzpicture}
\end{center}
Für $f^{adj}=\Phi{-1}\circ f^*\circ \Phi\in \End_K(\overline{V})=\End_K(V)$ ist
\begin{align}
\Phi_y\circ = (f^*\circ \Phi)(y)=(\Phi\circ f^{adj.})(y)=\Phi_{f^{adj}(y)}\notag
\end{align}
also
\begin{align}
\skalar{f(x)}{y}=(\Phi_y\circ f)(x)=\Phi_{f^{adj}(y)}(x)=\skalar{x}{f^{adj}(y)}\quad\forall x,y\in V\notag
\end{align}
\item Eindeutigkeit: Erfüllen $f_1,f_2$ für Gleichung
\begin{align}
\skalar{f(x)}{y}=\skalar{x}{f^{adj}(y)}\quad\forall x,y\in V\notag
\end{align}
so ist
\begin{align}
0=\skalar{x}{f_1(y)}-\skalar{x}{f_2(y)}=\skalar{x}{f_1(y),f_2(y)}\quad\forall x,y\in V\notag
\end{align}
da $\skalar{\cdot}{\cdot}$ nicht ausgeartet ist, folgt daraus, dass $f_1=f_2$.
\end{itemize}
\end{proof}
\begin{definition}[adjungierter Endomorphismus]
Die Abbildung $f^{adj}$ heißt der zu $f$ \begriff[Endomorphismus!]{adjungierte Endomorphismus}.
\end{definition}
\begin{example}
\begin{itemize}
\item Ist $f$ selbstadjungiert, so ist $f^{adj}=f$.
\item Ist $f$ unitär, so ist $f\in\Aut_K(V)$ und
\begin{align}
\skalar{f(x)}{y}=\skalar{x}{f^{-1}(y)}\quad\forall x,y\in V\notag
\end{align}
also $f^{adj}=f^{-1}$.
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{7_4_7}
Ist $B$ eine Orthonormalbasis vin $V$, so ist
\begin{align}
M_B(f^{adj})=M_B(f^*)\notag
\end{align}
\end{lemma}
\begin{proof}
Ist $A=M_B(f)$ und $B=M_B(f^{adj})$, $v=\Phi_B(x)$, $w=\Phi_B(y)$, so ist
\begin{align}
(Ax)^t\overline{y}=\skalar{f(v)}{w}&=\skalar{v}{f^{adj}(w)}\notag \\
x^tA^t\overline{y} &= x^t\overline{B}\overline{y} \notag \\
\Rightarrow B&= \overline{A^t}=A^*\notag
\end{align}
\end{proof}
\begin{lemma}
\proplbl{7_4_8}
Für $f,g\in\End_K(V)$ und $\lambda,\mu\in K$ ist
\begin{align}
(\lambda f+\mu g)^{adj} &= \overline{\lambda}f^{adj}+\overline{\mu}g^{adj}\notag \\
(f^{adj})^{adj} &= f\notag
\end{align}
\end{lemma}
\begin{proof}
Für $x,y\in V$ ist
\begin{align}
\skalar{(\lambda f+\mu g)(x)}{y}&=\lambda\skalar{f(x)}{y}+\mu\skalar{g(x)}{y}\notag \\
&= \lambda\skalar{x}{f^{adj}(y)}+\mu\skalar{x}{g^{adj}} \notag \\
&= \skalar{x}{(\overline{\lambda}f^{adj}+\overline{\mu}g^{adj})(y)}\notag
\end{align}
und
\begin{align}
\skalar{f^{adj}(x)}{y}=\overline{\skalar{y}{f^{adj}(y)}}=\overline{\skalar{f(y)}{x}}=\skalar{x}{f(y)}\notag
\end{align}
\end{proof}

View file

@ -0,0 +1,165 @@
\section{Die duale Abbildung}
Sei $f\in\Hom_K(V,W)$.
\begin{remark}
Ist $\phi\in W^*=\Hom_K(W,K)$ eine Linearform auf $W$, so ist $\phi\circ f\in \Hom_K(V,K)=V^*$ eine Linearform auf $V$.
\begin{center}
\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{V & W \\ \; & K \\};
\path[-stealth]
(m-1-1) edge node [above] {$f$} (m-1-2)
(m-1-1) edge [dashed,.] node [below] {$f^*(\phi)$} (m-2-2)
(m-1-2) edge node [right] {$\phi$} (m-2-2);
\end{tikzpicture}
\end{center}
\end{remark}
\begin{definition}[duale Abbildung]
Die zu $f$ duale Abbildung ist
\begin{align}
f^*:
\begin{cases}
W^*\to V^* \\
\phi\mapsto \phi\circ f
\end{cases} \notag
\end{align}
\end{definition}
\begin{lemma}
Es ist $f^*\in\Hom_K(W^*,V^*)$.
\end{lemma}
\begin{proof}
Sind $\phi,\psi\in W^*$ und $\lambda\in K$ ist
\begin{align}
f^*(\phi+\psi) &= (\phi+\psi)\circ f \notag \\
&= \phi\circ f + \psi\circ f \notag \\
&= f^*(\phi) + f^*(\psi) \notag \\
f^*(\lambda\phi) &= (\lambda\phi)\circ f \notag \\
&= \lambda\cdot(\phi\circ f) \notag \\
&= \lambda\cdot f^*(\phi) \notag
\end{align}
\end{proof}
\begin{proposition}
\proplbl{7_3_4}
Sind $B=(x_1,...,x_n)$ und $C=(y_1,...,y_m)$ Basen von $V$ bzw. $W$, so ist
\begin{align}
M_{B^*}^{C^*}(f^*)=\left(M_C^B(f) \right)^t\notag
\end{align}
\end{proposition}
\begin{proof}
Sei $A=M_C^B(f)=(a_{ij})_{i,j}$ und $B=M_{B^*}^{C^{*}}(f^*)=(b_{ji})_{j,i}$. Dann ist $f(x_j)=\sum_{i=1}^m a_{ij}y_i$, also $a_{ji}=y_i^*(f(x_j))=f^*(y_i^*)(x_j)$ und $f^*(y_i^*)=\sum_{j=1}^n b_{ji}x_j^*$, also $b_{ji}=f^*(y_i^*)(x_j)=a_{ij}$.
\end{proof}
\begin{conclusion}
\proplbl{7_3_5}
Sind $V$ und $W$ endlichdimensional, und identifizieren wir $V=V^{**}$ und $W=W^{**}$, so ist $f=f^{**}$, das heißt $\iota\circ f=f^{**}\circ\iota$.
\begin{center}
\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{V & W \\ V^{**} &W^{**} \\};
\path[-stealth]
(m-1-1) edge node [left] {$\iota_V\cong$} (m-2-1)
edge node [above] {$f$} (m-1-2)
(m-2-1) edge node [below] {$f^{**}$} (m-2-2)
(m-1-2) edge node [right] {$\iota_W\cong$} (m-2-2);
\end{tikzpicture}
\end{center}
\end{conclusion}
\begin{proof}
Seien $B$ und $C$ Basen von $V$ bzw. $W$. Unter der Identifizierung ist $B^{**}=B$ und $C=C^{**}$, das heißt $\iota(x_i)=x_i^{**}$ bzw. $\iota(y_j)=y_j^{**}$, denn $\iota(x_i)(x_j^*)=x_j^*(x_i)=\delta_{ij} = x_i^{**}(x_j^*)\quad\forall i,j$ und somit
\begin{align}
M_C^B(f^{**}) \overset{\propref{7_3_4}}{=} \left( M_{B^*}^{C^*}(f^*)\right)^t \overset{\propref{7_3_4}}{=} \left( M_C^B(f)\right)^{tt}=M_C^B(f)\notag
\end{align}
Also $f^{**}=f$.
\end{proof}
\begin{conclusion}
Sind $V,W$ endlichdimensional, so liefert die Abbildung $f\mapsto f^*$ einen Isomorphismus von $K$-Vektorräumen.
\begin{align}
\Hom_K(V,W)\to \Hom_K(W^*,V^*)\notag
\end{align}
\end{conclusion}
\begin{proof}
Sind $f,g\in\Hom_K(V,W)$ und $\lambda\in K$, $\phi\in W^{*}$, so ist
\begin{align}
(f+g)^*(\phi)&=\phi\circ(f+g)=\phi\circ f+\phi\circ g=f^*(\phi)+g^*(\phi)=(f^*+g^*)(\phi) \notag \\
(\lambda f)^*(\phi)&=\phi\circ (\lambda f)=\lambda\cdot(\phi\circ f)=\lambda\circ f^*(\phi)=(\lambda f^*)(\phi)\notag
\end{align}
Die Abbildung ist somit linear. Nach \propref{7_3_5} ist sie injektiv. Da
\begin{align}
\dim_K(V,W)&=\dim_K(V)\cdot \dim_K(W)\notag \\
&=\dim_K(V^*)\cdot \dim_K(W^*) \notag \\
&= \dim_K(\Hom_K(W^*,V^*))\notag
\end{align}
ist sie auch ein Isomorphismus.
\end{proof}
\begin{proposition}
\proplbl{7_3_7}
Sind $V,W$ endlichdimensional so ist
\begin{align}
\Image(f^*)&=\Ker(f)^0\notag \\
\Ker(f^*)&=\Image(f)^0\notag
\end{align}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\Image(f^*)\subseteq\Ker(f)^0$: Ist $\phi\in W^*$, $x\in \Ker(f)$, so ist
\begin{align}
f^*(\phi)(x)=(\phi\circ f)(x)=\phi(0)=0\notag
\end{align}
\item $\Ker(f)^0\subseteq\Image(f^*)$: Sei $\phi\in\Ker(f)^0$. Setze eine Basis $(x_1,...,x_r)$ von $\Ker(f)$ zu einer Basis $(x_1,...,x_n)$ von $V$ fort. Dann sind $f(x_{r+1}),...,f(x_n)$ linear unabhängig nach der Kern-Bild-Formel (\propref{3_7_13}), es gibt also $\psi\in W^*$ mit
\begin{align}
\psi(f(x_i))=\phi(x_i)\quad\forall i\notag
\end{align}
Es folgt
\begin{align}
f^*(\psi)(x_i)=\psi(f(x_i))=\phi(x_i)\quad\forall i\notag
\end{align}
also $\phi=f^*(\psi)$.
\item Mit der Identifizierung $V=V^{**}$ ist
\begin{align}
\Image(f)^0\overset{\propref{7_3_5}}{=}\Image(f^{**})^0=\Ker(f^*)^{00}\overset{\propref{7_2_15}}{=}\Ker(f^*)\notag
\end{align}
\end{itemize}
\end{proof}
\begin{conclusion}
Sind $V,W$ endlichdimensional, so ist
\begin{align}
\rk(f)=\rk(f^*)\notag
\end{align}
\end{conclusion}
\begin{proof}
\begin{align}
\rk(f) &= \dim_K(\Image(f))\notag \\
&\overset{\propref{7_2_14}}{=} \dim_K(W)-\dim_K(\Image(f)^0)\notag \\
&\overset{\propref{3_7_13}}{=} \dim_K(W^*)-\dim_K(\Ker(f^*)) \notag \\
&= \rk(f^*)\notag
\end{align}
\end{proof}
\begin{conclusion}
\proplbl{7_3_9}
Ist $\dim_K(V)<\infty$ und $U\subseteq V$ ein Untervektorraum, so lässt sich jede Linearform auf $U$ zu einer Linearform auf $V$ fortsetzen.
\end{conclusion}
\begin{proof}
Ist $f:U\to V$ die Inklusionsabbildung, so ist $f^*:V^*\to U^*$, $\phi\mapsto\phi\vert_U$ und
\begin{align}
\rk(f^*)=\rk(f)=\dim_K(U)=\dim_K(U^*)\notag
\end{align}
$f^*$ ist somit surjektiv.
\end{proof}
\begin{remark}
\propref{7_3_9} gilt auch ohne die Voraussetzung $\dim_K(V)<\infty$, siehe Übung.
\end{remark}
\begin{remark}
Ein homogenes lineares Gleichungssystem $Ax=0$ hat als Lösungsraum $L(A,0)\subseteq K^n$ ein Untervektorraum des $K^n$. Unter der Identifizierung $K^n=(K^n)^{**}$ ist $L(A,0)$ der Annulator der Linearformen beschrieben durch die Zeilen $a_1,...,a_m\in (K^n)^*$ von $A$. Wir wollen umgekehrt zu einem Untervektorraum $W\subseteq K^n$ ein $A=(a_1,...,a_m)\in\Mat_{n\times m}(K)$ mit $W=L(A,0)$ finden. Ist $W=\Span_K(b_1,...,b_r)$, so ist $W=\Image(f_B)$ mit $B=(b_1,...,b_r)\in\Mat_{n\times r}(K)$. \\
$\Rightarrow W\overset{\propref{7_3_7}}{=}\Ker(f^*_B)^0$ und $M_{\mathcal{E}^t}(f^*_B)=B^t$. Wenn man also eine Basis $(a_1,...,a_s)$ von $L(B^t,0)$ bestimmt und daraus eine Matrix $A=(a_1^t,...,a_s^t)\in\Mat_{s\times n}(K)$ bildet, so ist $W=L(A,0)$.
\end{remark}

View file

@ -0,0 +1,126 @@
In diesem Kapitel seien $K$ ein Körper, $n\in\natur$ eine natürliche Zahl, $V$ ein $n$-dimensionaler $K$-VR und $f\in\End_K(V)$ ein Endomorphismus.
Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Basen zu finden, für die $M_B(f)$ eine besonders einfache oder kanonische Form hat.
\section{Eigenwerte}
\begin{remark}
Wir erinnern uns daran, dass $\End_K(V)=\Hom_K(V,V)$ sowohl einen $K$-VR als auch einen Ring bildet. Bei der Wahl einer Basis $B$ von $V$ wird $f\in\End_K(V)$ durch die Matrix $M_B(f)=M_B^B(f)$ beschrieben.
\end{remark}
\begin{example}
$K=\real, A=\begin{henrysmatrix}1&2\\2&1\end{henrysmatrix}\in\Mat_2(\real),f=f_A\in\End_K(K^2)$ \\
\begin{align}
A\cdot \begin{henrysmatrix}1\\1\end{henrysmatrix}=\begin{henrysmatrix}3\\3\end{henrysmatrix},\;A\cdot\begin{henrysmatrix} 1\\-1\end{henrysmatrix}=\begin{henrysmatrix}-1\\1\end{henrysmatrix}\notag
\end{align}
$\Rightarrow$ mit $B=\left( \begin{henrysmatrix}1\\1\end{henrysmatrix},\begin{henrysmatrix}1\\-1\end{henrysmatrix}\right)$ ist $M_B(f)=\begin{henrysmatrix}3&0\\0&-1\end{henrysmatrix}$. \\
Der Endomorphismus $f=f_A$ streckt also entlang der Achse $\real\cdot \begin{henrysmatrix}1\\1\end{henrysmatrix}$ um den Faktor 3 und spiegelt entlang der Achse $\real\cdot \begin{henrysmatrix}1\\-1\end{henrysmatrix}$
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-2,0) -- (2,0) node[right] {$x_1$};
\draw[->,thick] (0,-2) -- (0,2) node[above] {$x_2$};
\draw[->, thin] (0,0) -- (1.414,1.414);
\draw[->, thin] (0,0) -- (-1.414,-1.414);
\draw[->, thin] (0,0) -- (-0.707,0.707);
\draw[->, thin] (0,0) -- (0.707,-0.707);
\draw[dashed, rotate=+45, blue] (0,0) ellipse (2cm and 1cm);
\draw (0,0) circle (1);
\end{tikzpicture}
\end{center}
\end{example}
\begin{definition}[Eigenwert, Eigenvektor, Eigenraum]
Sind $0\neq x\in V$ und $\lambda\in K$ mit $f(x)=\lambda x$ so nennt man $\lambda$ einen \begriff{Eigenwert} von $f$ und $x$ einen \begriff{Eigenvektor} von $f$ zum Eigenwert $\lambda$. Der \begriff{Eigenraum} zu $\lambda\in K$ ist $\Eig (f,\lambda)=\{x\in V\mid f(x)=\lambda x\}$.
\end{definition}
\begin{remark}
Für jedes $\lambda\in K$ ist $\Eig (f,\lambda)$ ein UVR von $V$, da
\begin{align}
\Eig (f,\lambda) &= \{x\in V\mid f(x)=\lambda x\} \notag \\
&= \{x\in V\mid f(x)-\lambda\cdot\id_V(x)=0\} \notag \\
&= \{x\in V\mid (f-\lambda\cdot\id_V)(x)=0\} \notag \\
&= \Ker (f-\lambda\cdot\id_V) \notag
\end{align}
und $f-\lambda\cdot\id_V\in\End_K(V)$.
\end{remark}
\begin{remark}
Achtung! Der Nullvektor ist nach Definition kein Eigenvektor, aber $\lambda=0$ kann ein Eigenwert sein, nämlich genau dann, wenn $f\notin\Aut_K(V)$, siehe Übung. Die Menge der Eigenvektoren zu $\lambda$ ist also $\Eig (f,\lambda)\backslash\{0\}$ und $\lambda$ ist genau dann ein Eigenwert von $f$, wenn $\Eig (f,\lambda)\neq\{0\}$.
\end{remark}
\begin{example}
Ist $A=\diag(\lambda_1,...,\lambda_n)$ und $f=f_A\in\End_K(K^n)$, so sind $\lambda_1,...,\lambda_n$ EW von $f$ und jedes $e_i$ ist ein EV zum EW $\lambda_i$.
\end{example}
\begin{proposition}
\proplbl{satz_diagonal_ev}
Sei $B$ eine Basis von $V$. Genau dann ist $M_B(f)$ eine Diagonalmatrix, wenn $B$ aus EV von $f$ besteht.
\end{proposition}
\begin{proof}
Ist $B=(x_1,...x_n)$ eine Basis aus EV zu EW $\lambda_1,....,\lambda_n$, so ist $M_B(f)= \diag(\lambda_1,...,\lambda_n)$ und umgekehrt.
\end{proof}
\begin{example}
Sei $K=\real$, $V=\real^2$ und $f_{\alpha}\in\End_K(\real^2)$ die Drehung um den Winkel $\alpha\in [0,2\pi)$ \\
\[\Rightarrow M_{\mathcal{E}}(f_{\alpha})=\begin{pmatrix}\cos(\alpha)&-\sin(\alpha) \\ \sin(\alpha) & \cos(\alpha)\end{pmatrix}\]
Für $\alpha=0$ hat $f_{\alpha}=\id_{\real^2}$ nur den EW 1. \\
Für $\alpha=\pi$ hat $f_{\alpha}=-\id_{\real^2}$ nur den EW -1. \\
Für $\alpha\neq 0,\pi$ hat $f_{\alpha}$ keine EW. %TODO figure
\end{example}
\begin{lemma}
\proplbl{lemma_EW_lin_unabh}
Sind $\lambda_1,...,\lambda_n$ paarweise verschiedene EW von $f$ und ist $x_i$ ein EV zu $\lambda_i$ für $i=1,...,m$, so ist $(x_1,...,x_m)$ linear unabhängig.
\end{lemma}
\begin{proof}
Induktion nach $m$\\
\emph{$m=1$}: klar, denn $x_1\neq 0$ \\
\emph{$m-1\to m$}: Sei $\sum_{i=1}^m \mu_i x_i=0$ mit $\mu_1,...,\mu_m\in K$.
\begin{align}
0&= (f-\lambda\cdot\id_V)\left( \sum\limits_{i=1}^m \mu_i x_i\right) \notag \\
&= \sum\limits_{i=1}^m \mu_i(f(x_i)-\lambda_m\cdot x_i) \notag \\
&= \sum\limits_{i=1}^{m-1} \mu_i(\lambda_i-\lambda_m)\cdot x_i \notag
\end{align}
Nach IB ist $\mu_i(\lambda_i-\lambda_m)=0$ für $i=1,...,m-1$, da $\lambda_i\neq\lambda_m$ für $i\neq m$ also $\mu_i=0$ für $i=1,...,m-1$. Damit ist auch $\mu_m=0$. Folglich ist $(x_1,...,x_m)$ linear unabhängig.
\end{proof}
\begin{proposition}
\proplbl{satz_eig_direkte_summe}
Sind $\lambda_1,...,\lambda_m\in K$ paarweise verschieden, so ist
\[\sum\limits_{i=1}^m \Eig(f,\lambda_i)=\bigoplus_{i=0}^{m}\Eig(f,\lambda_i).\]
\end{proposition}
\begin{proof}
Seien $x_i,y_i\in\Eig(f,\lambda_i)$ für $i=1,...,m$. Ist $\sum_{i=1}^m x_i=\sum_{i=1}^m y_i$, so ist $\sum_{i=1}^m \underbrace{x_i-y_i}_{z_i}=0$.\\
o. E. seien $z_i\neq 0$ für $i=1,...,r$ und $z_i=0$ für $i=r+1,...,m$. Wäre $r>0$, so wären $(z_1,...,z_r)$ linear abhängig, aber $z_i=x_i-y_i\in\Eig(f,\lambda_i)\backslash\{0\}$, im Widerspruch zu \propref{lemma_EW_lin_unabh}. Somit ist $x_i=y_i$ für alle $i$ und folglich ist die Summe $\sum\Eig(f,\lambda_i)$ direkt.
\end{proof}
\begin{definition}[EW und EV für Matrizen]
Sei $A\in\Mat_n(K)$. Man definiert Eigenwerte, Eigenvektoren, etc von $A$ als Eigenwerte, Eigenvektoren von $f_A\in\End_K(K^n)$.
\end{definition}
\begin{mathematica}[Eigenwerte und Eigenvektoren]
Um die Eigenwerte und Eigenvektoren einer Matrix $A$ zu berechnen, gibt es in Mathematica bzw. WolframAlpha verschiedene Möglichkeiten:
\begin{itemize}
\item \texttt{Eigenvalues[A]}: liefert eine Liste der Eigenwerte
\item \texttt{Eigenvectors[A]}: liefert eine Liste der Eigenvektoren
\item \texttt{Eigensystem[A]}: liefert zu jeden Eigenwert den Eigenvektor
\end{itemize}
\end{mathematica}
\begin{proposition}
Sei $B$ eine Basis von $V$ und $\lambda\in K$. Genau dann ist $\lambda$ ein EW von $f$, wenn $\lambda$ ein EW von $A=M_B(f)$ ist. Insbesondere haben ähnliche Matrizen die selben EW.
\end{proposition}
\begin{proof}
Dies folgt aus dem kommutativen Diagramm
\begin{center}\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{K^n & K^n \\ V & V \\};
\path[-stealth]
(m-1-1) edge node [left] {$\Phi_B$} (m-2-1)
edge node [above] {$f_A$} (m-1-2)
(m-2-1) edge node [below] {$f$} (m-2-2)
(m-1-2) edge node [right] {$\Phi_B$} (m-2-2);
\end{tikzpicture}\end{center}
denn $f_A(x)=\lambda x\iff (\Phi_B\circ f_A)(x)=\Phi_B(\lambda x)\iff f(\Phi_B(x))=\lambda\Phi_B(x)$. \\
Ähnliche Matrizen beschreiben den selben Endomorphismus bezüglich verschiedener Basen, vgl. \propref{4_4_1}
\end{proof}

View file

@ -0,0 +1,107 @@
\section{Euklidische und unitäre Vektorräume}
\begin{lemma}
Sei $s$ eine hermitesche Sesquilinearform auf $V$. Dann ist $s(x,x)\in\real$ für alle $x\in V$.
\end{lemma}
\begin{proof}
Da $s$ hermitesch ist, ist $s(x,x)=\overline{s(x,x)}$, also $s(x,x)\in\real$.
\end{proof}
\begin{definition}[quadratische Form]
Sei $s$ eine hermitesche Sesquilinearform auf $V$. Die \begriff{quadratische Form} zu $s$ ist die Abbildung
\begin{align}
q_s:\begin{cases}
V\to \real \\ x\mapsto s(x,x)
\end{cases}\notag
\end{align}
\end{definition}
\begin{remark}
Die quadratische Form $q_s$ erfüllt das $q_s(\lambda x)=\vert\lambda\vert^2\cdot q_s(x)$ für alle $x\in V$, $\lambda\in K$. Im Fall $K=\real$, $V=\real^n$, $x=(x_1,...,x_n)^t$, $s=s_A$, $A\in\Mat_n(\real)$ ist $q_s(x)=s_A(x,x)=x^tAx=\sum_{i,j=1}^n a_{ij}x_ix_j$ ein "'quadratisches Polynom in den Variablen $x_1,...,x_n$"'.
\end{remark}
\begin{proposition}[Polarisierung]
\proplbl{6_3_4}
Sei $s$ ein hermitesche Sesquilinearform auf $V$. Dann gilt für $x,y\in V$:
\begin{align}
s(x,y)&=\frac 1 2 (q_s(x+y)-q_s(x)-q_s(y))\quad K=\real\notag \\
s(x,y)&=\frac 1 4 (q_s(x+y)-q_s(x-y)+iq_s(x+iy)-iq_s(x-iy))\quad K=\comp\notag
\end{align}
\end{proposition}
\begin{proof}
Im Fall $K=\real$ ist
\begin{align}
q_s(x+y)-q_s(x)-q_s(y)&= s(x+y,x+y)-s(x,x)-s(y,y)\notag \\
&= s(x,x)+s(x,y)+s(y,x)+s(y,y)-s(x,x)-s(y,y)\notag \\
&= s(x,y)+s(y,x)-2s(x,y)\notag
\end{align}
Im Fall $K=\comp$: ÜA
\end{proof}
\begin{definition}[(semi)definit, euklidischer VR, unitärer VR]
Sei $s$ eine hermitesche Sesquilinearform auf $V$. Ist $s(x,x)\ge 0$ für alle $x\in V$, so heißt $s$ \emph{positiv} \begriff{semidefinit}. Ist $s(x,x)>0$ für alle $0\neq x\in V$, so heißt $s$ \emph{positiv} \begriff{definit} (oder ein \emph{Skalarprodukt}).
Eine hermitesche Matrix $A\in\Mat_n(K)$ heißt \emph{positiv (semi)definit}, wenn $s_A$ dies ist.
Einen endlichdimensionalen $K$-VR zusammen mit positiv definiten hermiteschen Sesquilinearformen nennt man einen \begriff{euklidischen} bzw. \begriff{unitären} VR (oder auch \emph{Prähilbertraum}). Wenn nicht anderes angegeben, notieren wir die Sesquilinearform mit $\skalar{\cdot}{\cdot}$.
\end{definition}
\begin{example}
Der Standardraum $V=K^n$ zusammen mit dem Standardskalarprodukt ist ein euklidischer bzw. unitärer VR.
\end{example}
\begin{example}
Ist $A=\diag(\lambda_1,...,\lambda_n)$ mit $\lambda_i\in\real$, so ist $s_A$ genau dann positiv definit, wenn $\lambda_i>0$ für alle $i$, und positiv semidefinit, wenn $\lambda_i\ge 0$ für alle $i$.
\end{example}
\begin{proposition}
Ist $V$ ein unitärer VR und $U\subseteq V$ ein UVR, so ist $U$ mit der Einschränkung des Skalarprodukts wieder ein unitärer VR.
\end{proposition}
\begin{proof}
klar, die Einschränkung ist wieder positiv definit.
\end{proof}
\begin{definition}
Ist $V$ ein unitärer VR, so definiert man die Norm von $x\in V$ als
\begin{align}
\Vert x\Vert = \sqrt{\skalar{x}{x}}\in\real_{\ge 0}\notag
\end{align}
\end{definition}
\begin{proposition}
Die Norm eines unitären VR erfüllt die folgenden Eigenschaften:
\begin{itemize}
\item Für $x\in V$ ist $\Vert x\Vert =0\iff x=0$
\item Für $x\in V$ und $\lambda\in K$ ist $\Vert \lambda x\Vert=\vert \lambda\vert \cdot \Vert x\Vert$
\item Für $x,y\in V$ ist $\Vert x+y\Vert \le \Vert x\Vert + \Vert y \Vert$
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Das Skalarprodukt ist positiv definit.
\item klar
\item Wie im Fall im $\real^n$
\end{itemize}
\end{proof}
\begin{proposition}
Ist $V$ ein unitärer VR, so gilt für $x,y\in V$:
\begin{align}
\vert \skalar{x}{y}\vert \le \Vert x\Vert\cdot \Vert y\Vert\notag
\end{align}
Dabei gilt Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
\end{proposition}
\begin{proof}
Für $y=0$ ist die Aussage klar. \\
Sei also $y\neq 0$. Für $\lambda,\mu\in K$ ist
\begin{align}
0&\le \skalar{\lambda x+\mu y}{\lambda x+\mu y}\notag \\
&= \lambda\overline{\lambda}\cdot \skalar{x}{x}+\mu\overline{\mu}\cdot \skalar{y}{y}+\lambda\overline{\mu}\cdot \skalar{x}{y}+\mu\overline{\lambda}\cdot\skalar{y}{x}\notag
\end{align}
Setzt man $\lambda=\overline{\lambda}=\skalar{y}{y}>0$ und $\mu=-\skalar{x}{y}$ ein, so erhält man
\begin{align}
0&\le \lambda\cdot\Vert x\Vert^2\Vert y\Vert^2 +\mu\overline{\mu}\lambda -\lambda\mu\overline{\mu}-\skalar{x}{y}\overline{\lambda}\skalar{y}{x}\notag \\
&= \lambda(\Vert x\Vert^2\Vert y\Vert^2-\vert\skalar{x}{y}\vert^2)\notag
\end{align}
Teilen durch $\lambda$ und Wurzelziehen liefert die Ungleichung. Gilt dort Gleichheit, so ist $\Vert \lambda x+\mu y\Vert=0$ folglich (da $\lambda\neq 0$) sind dann $x,y$ linear unabhängig. Ist $x=\alpha y$ mit $\alpha\in K$, so ist $\vert\skalar{x}{y}\vert =\vert \alpha\vert \cdot \Vert y\Vert^2=\Vert x\Vert \cdot\Vert y\Vert$
\end{proof}

View file

@ -0,0 +1,103 @@
\section{Faktorielle Ringe}
Sei $R$ nullteilerfrei.
\begin{definition}[faktorielle Ringe]
$R$ ist \begriff{faktoriell} $\iff$ jedes $0\neq x\in R\backslash R^\times$ ist ein Produkt von Primelementen.
\end{definition}
\begin{lemma}
Sei $R$ faktoriell und $x\in R$. Ist $x$ irreduzibel, so auch prim.
\end{lemma}
\begin{proof}
Sei $x$ irreduzibel, insbesondere $0\neq x\in R\backslash R^\times$. Da $R$ faktoriell, ist $x=p_1,...,p_n$ mit $p_1,...,p_n\in R$ prim. Da $x$ irreduzibel ist und $p_i\notin R^\times$ ist $n=1$ und somit $x=p_1$ prim.
\end{proof}
\begin{lemma}
\proplbl{8_4_3}
Sei $R$ ein Hauptidealring und
\begin{align}
I_1\subseteq I_2\subseteq ...\notag
\end{align}
eine Kette von Idealen in $R$. Dann existiert ein $n\in\natur$ mit $I_n=I_{m}$ für alle $m\ge n$.
\end{lemma}
\begin{proof}
\emph{Behauptung:} $I=\bigcup_{n=1}^\infty I_n$ ist wieder ein Ideal von $R$. \\
\emph{Beweis:} schon in den Übungen zum Teil behandelt, aber hier noch mal kurz bewiesen
\begin{itemize}
\item $i\in I$, $r\in R\Rightarrow x\in I_n$ für ein $n\overset{I_n\unlhd}{\Rightarrow} rx\in I_n\subseteq I$
\item $x,y\in I\Rightarrow x\in I_n,y\in I_m$ mit $n,m\in\natur\overset{\text{Kette}}{\Rightarrow} x+y\in I_k\subseteq$ mit $k=\max\{n,m\}$
\end{itemize}
Da $R$ Hauptidealring ist, ist somit $I=(x)$ für ein $x\in R$. Mit $I=\bigcup_{n\in\natur} I_n$ folgt $x\in I_n$ für ein $n$, und somit $(x)\subseteq I_n\subseteq I_m\subseteq I=(x)$, für $m\ge n$, also $I_n=I_m$.
\end{proof}
\begin{proposition}
Ist $R$ ein Hauptidealring, so ist $R$ faktoriell.
\end{proposition}
\begin{proof}
Sei $X:=\{a\in R\mid a\text{ ist Produkt von Primelementen}\}\cup \{0\}\cup R^\times$. Zu zeigen ist $X=R$. Angenommen, es gebe $a\in R\backslash X$. Da nicht prim ist, insbesondere nicht irreduzibel (\propref{8_3_9}), ist $a=a_1\cdot a'_1$ mit $a_1,a'_1\in R\backslash R^\times$. Wären $a_1$ und $a'_1$ in $X$, so auch $a$, also ohne Einschränkung $a_1\notin X$. Fährt man nun mit $a_1$ so fort, erhält man eine Folge $a_1,a_2,...$ von Elementen von $R\backslash X$ mit $a_{i+1}\mid a_i$ und $a_{i+1}\nsim a_i$ für alle $i$. Die entsprechenden Hauptideale bilden eine Kette
\begin{align}
(a)\subsetneqq (a_1)\subsetneqq (a_2)\subsetneqq ...\notag
\end{align}
im Widerspruch zu \propref{8_4_3}. Somit ist $X=R$, also $R$ faktoriell.
\end{proof}
\begin{*anmerkung}
Es gilt also euklidisch $\Rightarrow$ Hauptidealring $\Rightarrow$ faktoriell.
\end{*anmerkung}
\begin{lemma}
\proplbl{8_4_5}
Sind $p_1,...,p_r\in R$ prim, $q_1,...,q_s\in R$ irreduzibel mit
\begin{align}
\prod_{i=1}^r p_i = \prod_{j=1}^s q_j \notag
\end{align}
ist $r=s$ und nach Umnummerierung ist
\begin{align}
p_i\sim q_i\quad\forall i\notag
\end{align}
\end{lemma}
\begin{proof}
Wir zeigen die Behauptung unter der schwächeren Annahme
\begin{align}
\prod_{i=1}^r p_i \sim \prod_{j=1}^s q_j \notag
\end{align}
durch Induktion nach $r$. \\
\emph{$r=0$:} $1\sim\prod_{j=1}^s q_j\Rightarrow q_j\in R^\times\;\forall j\overset{q_j\text{ irred.}}{\Rightarrow} s=0$ \\
\emph{$r-1\to r$:} $p_1\mid \prod_{i=1}^r p_i\sim \prod_{j=1}^s q_j\overset{p_1 \text{ prim}}{\Rightarrow} p_1\mid q_j$ für ein $j$. Nach Umnummerierung ist $j=1$. Da $q_1$ irreduzibel und $p_1\notin R^\times$ ist $p_1\sim q_1$, also $q_1=p_1\cdot u$ mit $u\in R^\times$. Es folgt
\begin{align}
p_1\cdot \left(\prod_{i=2}^r p_i-u\cdot \prod_{j=2}^s q_j\right)&=0\notag \\
\prod_{i=2}^r p_i &= u\cdot \prod_{j=2}^s q_j\sim \prod_{j=2}^s q_j\notag
\end{align}
Nach Induktionshypothese ist $r-1=s-1$, und nach Umnummerierung ist $p_i\sim q_i$ für $i=2,...,r$.
\end{proof}
\begin{proposition}
Ist $R$ faktoriell, so lässt sich jedes $0\neq x\in R\backslash R^\times$ auf eindeutige Weise (bis auf Reihenfolge und Assoziiertheit) als Produkt von Primelementen schreiben.
\end{proposition}
\begin{proof}
Sei $x=\prod_{i=1}^r p_i=\prod_{j=1}^s q_j$ mit $p_i,q_j$ prim. Da die $q_j$ nach \propref{8_2_12} irreduzibel sind, folgt $r=s$ und $p_i\sim q_i$ für alle $i$ aus \propref{8_4_5}.
\end{proof}
\begin{conclusion}
Sei $R$ faktoriell und enthalte $\mathcal{P}\subseteq R$ für jede Äquivalenzklasse assoziierter Primelemente genau einen Vertreter. Dann lässt sich jedes $0\neq a\in R$ als
\begin{align}
a=\varepsilon\cdot \prod_{p\in\mathcal{P}} p^{\mu(p)}\notag
\end{align}
mit eindeutig bestimmten $\varepsilon\in R^\times$ und $\mu(p)\in \natur_0$, fast alle gleich 0, schreiben.
\end{conclusion}
\begin{example}
\begin{enumerate}
\item Jedes $n\in\natur$ lässt sich eindeutig als
\begin{align}
n=\prod_{p\in\mathbb{P}} p^{n_p}\notag
\end{align}
schreiben, wobei $\mathbb{P}$ die Menge der Primzahlen ist (\begriff{Hauptsatz der Arithmetik}).
\item Bezeichnet $\mathcal{M}$ die Menge der normierten irreduziblen Polynome in $K[t]$ ($K$ Körper), so lässt sich jedes $0\neq f\in K[t]$ eindeutig als
\begin{align}
f=c\cdot\prod_{P\in\mathcal{M}} P^{n_p}\notag
\end{align}
mit $c\in K^\times$ und $n_p\in\natur_0$, fast alle gleich 0, schreiben.
\end{enumerate}
\end{example}

View file

@ -0,0 +1,260 @@
\section{Gruppen}
\begin{definition}[(Halb-)Gruppe]
Sei $G$ eine Menge. Eine (innere, zweistellige) Verknüpfung
auf $G$ ist eine Abbildung $*: G \times G \to G, (x,y) \mapsto x*y$. Das Paar $(G,*)$ ist eine
\begriff[Gruppe!]{Halbgruppe}, wenn das folgende Axiom erfüllt ist:
\begin{itemize}
\item (G1) Für $x,y,z \in G$ ist $(x*y)*z=x*(y*z)$.
\end{itemize}
Eine Halbgruppe $(G,*)$ ist ein \begriff{Monoid}, wenn zusätzlich das folgende Axiom gilt:
\begin{itemize}
\item (G2) Es gibt ein Element $e \in G$, welches für alle $x \in G$ die Gleichung $x*e=e*x=x$
erfüllt. Dieses Element heißt dann \begriff{neutrales Element} der Verknüpfung $*$.
\end{itemize}
\end{definition}
\begin{example}
\begin{itemize}
\item Für jede Menge $X$ ist $(\Abb(X,Y), \circ)$ eine Halbgruppe (\propref{1_2_10}) mit dem neutralen Element
$\id_x$, also ein Monoid.
\item $\mathbb N$ bildet mit der Addition eine Halbgruppe $(\mathbb N,+)$, aber kein Monoid,
da die 0 nicht in Fehm's Definition der natürlichen Zahlen gehörte
\item $\mathbb N_0$ bildet mit der Addition ein Monoid $(\mathbb N_0,+)$
\item $\mathbb N$ bildet mit der Multiplikation ein Monoid $(\mathbb N, \cdot)$
\item $\mathbb Z$ bildet mit der Multiplikation ein Monoid $(\mathbb Z, \cdot)$
\end{itemize}
\end{example}
\begin{proposition}[Eindeutigkeit des neutralen Elements]
Ein Monoid $(G,*)$ hat genau ein neutrales Element.
\end{proposition}
\begin{proof}
Nach Definition besitzt $(G,*)$ mindestens ein neutrales Element. Seien $e_1,e_2\in G$ neutrale Elemente. Dann
ist $e_1=e_1 * e_2=e_2$. Damit besitzt $(G,*)$ höchstens ein neutrales Element, also genau ein neutrales Element.
\end{proof}
\begin{definition}[(abelsche) Gruppe]
Eine \begriff{Gruppe} ist ein Monoid $(G,*)$ mit dem neutralen Element
$e$, in dem zusätzlich das folgende Axiom gilt:
\begin{itemize}
\item (G3) Für jedes $x \in G$ gibt es ein $x' \in G$ mit $x'*x=x*x'=e$.
\end{itemize}
Gilt weiterhin
\begin{itemize}
\item (G4) Für alle $x,y \in G$ gilt $x*y=y*x$, so heißt diese Gruppe \begriff[Gruppe!]{abelsch}.
\end{itemize}
\end{definition}
Ein $x'$ heißt \begriff{inverses Element} zu $x$. \\
\begin{example}
\begin{itemize}
\item $\mathbb N_0$ bildet mit der Addition keine Gruppe $(\mathbb N_0,+)$
\item $\mathbb Z$ bildet mit der Addition eine abelsche Gruppe $(\mathbb Z,+)$
\item Auch $(\mathbb Q,+)$ und $(\mathbb R,+)$ sind abelsche Gruppen
\item $(\mathbb Q,\cdot)$ ist keine Gruppe, aber $(\mathbb Q\backslash\{0\},\cdot)$ schon
\end{itemize}
\end{example}
\begin{proposition}[Eindeutigkeit des Inversen]
Ist $(G,*)$ eine Gruppe, so hat jedes $x \in G$ genau ein inverses Element.
\end{proposition}
\begin{proof}
Nach Definition hat jedes $x\in G$ mindestens ein Inverses. Seien $x',x''\in G$ inverse Elemente zu $x$. Dann ist
$x'=x'*e=x'*(x*x'')=(x'*x)*x''=e*x''=x''$. Es gibt also genau ein Inverses zu $x$.
\end{proof}
\begin{example}
\proplbl{1_3_7}
\begin{itemize}
\item Eine triviale Gruppe besteht nur aus ihrem neutralen Element. Tatsächlich ist $G=\{e\}$ mit
$e*e=e$ eine Gruppe.
\item Sei $X$ eine Menge. Die Menge $\Sym(X) := \{f \in \Abb(X,X) \mid f$ ist bijektiv$\}$ der
Permutationen von $X$ bildet mit der Komposition eine Gruppe $(\Sym(X),\circ)$, die
\begriff[Gruppe!]{symmetrische Gruppe} auf $X$. Für $n \in \mathbb N$ schreibt man $S_n := \Sym(\{1,2,...,n\})$.
Für $n \ge 3$ ist $S_n$ nicht abelsch.
\end{itemize}
\end{example}
\begin{remark}
Häufig benutzte Notationen für die Gruppenverknüpfung $\cdot$:
\begin{itemize}
\item In der multiplikativen Notation schreibt man $\cdot$ statt $*$ (oft auch $xy$ statt
$x \cdot y$), bezeichnet das neutrale Element mit $1$ oder $1_G$ und das Inverse zu $x$ mit
$x^{-1}$.
\item In der additiven Notation schreibt man $+$ für $*$, bezeichnet das neutrale Element
mit $0$ oder $0_G$ und das Inverse zu $x$ mit $-x$. Die additive Notation wird nur verwendet,
wenn die Gruppe abelsch ist.
\end{itemize}
\end{remark}
In abelschen Gruppen notiert man Ausdrücke auch mit dem Summen- und Produktzeichen. \\
\begin{proposition}
Sei $(G,\cdot)$ eine Gruppe. Für $x,y \in G$ gelten
\begin{align}
(x^{-1})^{-1} &= x \notag \\
(xy)^{-1} &= x^{-1} \cdot y^{-1} \notag
\end{align}
\end{proposition}
\begin{proof}
Nach Definition erfüllt $z=x$ die Identitäten $x^{-1}z=zx^{-1}=1$ und somit ist $(x^{-1})^{-1}=z=x$. Ebenso ist
$(y^{-1}x^{-1})\cdot (xy)=y^{-1}(x^{-1}x)y=1$ und $(xy)\cdot (x^{-1}y^{-1})=x(yy^{-1})x^{-1}=1$, also $y^{-1}
x^{-1}=(xy)^{-1}$.
\end{proof}
\begin{proposition}
\proplbl{1_3_10}
Sei $(G,\cdot)$ eine Gruppe. Für $a,b \in G$ haben die Gleichungen $ax=b$ und
$ya=b$ eindeutige Lösungen in $G$, nämlich $x=a^{-1} \cdot b$ und $y=b \cdot a^{-1}$.
Insbesondere gelten die folgenden Kürzungsregeln: $ax=ay \Rightarrow x=y$ und $xa=ya
\Rightarrow x=y$.
\end{proposition}
\begin{proof}
Es ist $a \cdot a^{-1} \cdot b = 1b=b$, also ist $x=a^{-1} \cdot b$ eine Lösung. Ist umgekehrt
$ax=b$ mit $x \in G$, so ist $a^{-1} \cdot b = a^{-1} \cdot ax = 1x = x$ die Lösung und somit
eindeutig. Für die zweite Gleichung argumentiert man analog. Den "'Insbesondere"'-Fall erhält
man durch Einsetzen von $b=ay$ bzw. $b=xa$.
\end{proof}
\begin{remark}
Wenn aus dem Kontext klar ist, welche Verknüpfung gemeint ist, schreibt man auch einfach
$G$ anstatt $(G, \cdot)$ bzw. $(G,+)$. Eine Gruppe $G$ heißt endlich, wenn die Menge $G$ endlich
ist. Die Mächtigkeit $|G|$ von $G$ nennt man dann die Ordnung von $G$. Eine endliche Gruppe kann
durch ihre Verknüpfungstafel vollständig beschrieben werden.
\end{remark}
\begin{example}
\begin{itemize}
\item die triviale Gruppe $G=\{e\}$
\begin{center}
\begin{tabular}{|c|c|}
\hline
$\cdot$ & $e$\\
\hline
$e$ & $e$ \\
\hline
\end{tabular}
\end{center}
\item die Gruppe $\mu_2 = \{1,-1\}$ der Ordnung 2
\begin{center}
\begin{tabular}{|c|c|c|}
\hline
$\cdot$ & $1$ & $-1$\\
\hline
$1$ & $1$ & $-1$ \\
\hline
$-1$ & $-1$ & $1$ \\
\hline
\end{tabular}
\end{center}
\item die Gruppe $S_2= \Sym(\{1,2\}) = \{\id_{\{1,2\}},f\}$, wobei $f(1)=2$ und $f(2)=1$
\begin{center}
\begin{tabular}{|c|c|c|}
\hline
$\circ$ & $\id_{\{1,2\}}$ & $f$\\
\hline
$\id_{\{1,2\}}$ & $\id_{\{1,2\}}$ & $f$ \\
\hline
$f$ & $f$ & $\id_{\{1,2\}}$ \\
\hline
\end{tabular}
\end{center}
\end{itemize}
\end{example}
\begin{definition}[Untergruppe]
Eine \begriff{Untergruppe} einer Gruppe $(G,\cdot)$ ist eine
nichtleere Teilmenge $H \subset G$, für die gilt:
\begin{itemize}
\item (UG1) Für alle $x,y \in H$ ist $x \cdot y \in H$ (Abgeschlossenheit unter Multiplikation).
\item (UG2) Für alle $x \in H$ ist $x^{-1} \in H$ (Abgeschlossenheit unter Inversen).
\end{itemize}
\end{definition}
\begin{proposition}
\proplbl{1_3_14}
Sei $(G,\cdot)$ eine Gruppe und $\emptyset \neq H \subset G$. Genau dann ist
$H$ eine Untergruppe von $G$, wenn sich die Verknüpfung $\cdot: G \times G \to G$ zu einer
Abbildung $\cdot_H: H \times H \to H$ einschränken lässt (d.h. $\cdot\vert_{H \times H}=
\iota_H \circ \cdot_H$, wobei $\iota_H \cdot \cdot_H \to G$ die Inklusionsabbildung ist) und
$(H,\cdot_H)$ eine Gruppe ist.
\end{proposition}
\begin{proof}
$\Rightarrow$: Sei $H$ eine Untergruppe von $G$. Nach (UG1) ist $\Image(\cdot|_{H \times H}) \subset H$
und somit lässt sich $\cdot$ zu einer Abbildung $\cdot_H: H \times H \ to H$ einschränken. Wir
betrachten jetzt $H$ mit dieser Verknüpfung. Da $G$ (G1) erfüllt, erfüllt auch H (G1). Da
$H \neq \emptyset$ existiert ein $x \in H$. Nach (UG1) und (UG2) ist $x \cdot x^{-1}=e \in H$. Da
$e_G \cdot y=y \cdot e_G=y$ für alle $y \in G$, insbesondere auch für alle $y \in H$ (G2). Wegen
(UG2) erfüllt $H$ auch das Axiom (G3). $H$ ist somit eine Gruppe. \\
$\Leftarrow$: Sei nun umgekehrt $(H,\cdot_H)$ eine Gruppe. Für $x,y \in H$ ist dann $xy=x \cdot_H
y \in H$, also erfüllt $H$ (UG1). Aus $e_H \cdot e_H=e_H=e_H \cdot e_G$ folgt $e_H=e_G$. Ist also
$x'$ das Inverse zu $x$ aus der Gruppe $H$, so ist $x'x=xx'=e_G=e_H$, also $x^{-1}=x' \in H$ und
somit erfüllt $H$ auch (UG2). Wir haben gezeigt, dass $H$ eine Untergruppe von $G$ ist.
\end{proof}
\begin{remark}
Wir nennen nicht nur die Menge $H$ eine Untergruppe von $G$, sondern auch die Gruppe $(H,\cdot_H)$.
Wir schreiben $H \subseteq G$.
\end{remark}
\begin{example}
\proplbl{1_3_16}
\begin{itemize}
\item Jede Gruppe $G$ hat die triviale Untergruppe $H=\{e_G\}$ und $H=G$
\item Ist $H \subseteq G$ und $K \subseteq H$, so ist $K \subseteq G$ (Transitivität)
\item Unter Addition ist $\mathbb{Z} \subseteq \mathbb{Q} \subseteq \mathbb{R}$ eine Kette von Untergruppen
\item Unter Multiplikation ist $\mu_2 \subseteq \mathbb{Q}^+ \subseteq \mathbb{R}^+$ eine Kette von
Untergruppen
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z} := \{nx \mid x \in \mathbb{Z}\} \subseteq \mathbb{Z}$
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{1_3_17}
Ist $G$ eine Gruppe und $(H_i)_{i \in I}$ eine Familie von Untergruppen von $G$,
so ist auch $H := \bigcap H_i$ eine Untergruppe von $G$.
\end{lemma}
\begin{proof}
Wir haben 3 Dinge zu zeigen
\begin{itemize}
\item $H \neq \emptyset:$ Für jedes $i \in I$ ist $e_G \in H$, also auch $e_G \in \bigcap
H_i =H$
\item (UG1): Seien $x,y \in H$. Für jedes $i \in I$ ist $x,y \in H_i$, somit $xy \in H_i$,
da $H_i \subseteq G$. Folglich ist $xy \in \bigcap H_i=H$.
\item (UG2): Sei $x \in H$. Für jedes $i \in I$ ist $x \in H_i$, somit $x^{-1} \in H_i$,
da $H_i \subseteq G$. Folglich ist $x^{-1} \in \bigcap H_i=H$.
\end{itemize}
\end{proof}
\begin{proposition}
Ist $G$ eine Gruppe und $X \subset G$. so gibt es eine eindeutig bestimmte
kleinste Untergruppe $H$ von $G$, die $X$ enthält, d.h. $H$ enthält $X$ und ist $H'$
eine weitere Untergruppe von $G$, die $X$ enthält, so ist $H \subset H'$.
\end{proposition}
\begin{proof}
Sei $\mathcal{H}$ die Menge aller Untergruppen von $G$, die $X$ enthalten. Nach \propref{1_3_17}
ist $H:=
\bigcap \mathcal{H} := \bigcap H$ eine Untergruppe von $G$. Da $X \subset H'$ für jedes $H' \in
\mathcal H$ ist auch $X \subset H$. Nach Definition ist $H$ in jedem $H' \subseteq G$ mit $X \subset H'$
enhalten.
\end{proof}
\begin{definition}[erzeugte Untergruppe]
Ist $G$ eine Gruppe und $X \subseteq G$, so nennt man diese
kleinste Untergruppe von $G$, die $X$ enthält, die von $X$ \begriff[Untergruppe!]{erzeugte Untergruppe} von $G$ und
bezeichnet diese mit $\langle X\rangle$, falls $X = \{x_1,x_2,...,x_n\}$ enthält auch mit $\langle x_1,x_2,
...,x_n\rangle$. Gibt es eine endliche Menge $X \subset G$ mit $G=\langle X\rangle$, so nennt man $G$ endlich
erzeugt.
\end{definition}
\begin{example}
\begin{itemize}
\item Die leere Menge $X=\emptyset \subseteq G$ erzeugt stets die triviale Untergruppe $\langle \emptyset\rangle
=\{e\} \subseteq G$
\item Jede endliche Gruppe $G$ ist endlich erzeugt $G=\langle G\rangle$
\item Für $n \in \mathbb{N}_0$ ist $n\mathbb{Z}=\langle n\rangle \subseteq \mathbb{Z}$. Nach \propref{1_3_16} ist $n\in n\whole\subseteq\whole$. Ist $H \subseteq \mathbb{Z}$
mit $n \in H$, so ist auch $kn=nk=n+n+...+n \in H$ und somit auch $n\mathbb{Z} \subseteq H$.
\end{itemize}
\end{example}

View file

@ -0,0 +1,153 @@
\section{Hauptachsentransformation}
Sei $V$ ein euklidischer bzw. unitärer Vektorraum und $s$ eine hermitesche Sesquilinearform auf $V$.
\begin{proposition}
\proplbl{6_7_1}
Zu $A\in\Mat_n(K)$ hermitesch gibt es $S\in\Uni_n(K)$ so, dass
\begin{align}
S^*AS=S^{-1}AS=\diag(\lambda_1,...,\lambda_n)\notag
\end{align}
mit $\lambda_1,...,\lambda_n\in\real$.
\end{proposition}
\begin{proof}
Da $A$ hermitesch ist, ist $f_A\in\End_K(K^n)$ selbstadjungiert, es gibt also nach \propref{6_6_5} also eine Orthonormalbasis $B=(x_1,...,x_n)$ aus Eigenvektoren von $f_A$. Die Transformationsmatrix $S=T^B_{\mathcal{E}}$ hat $x_1,...,x_n$ als Spalten und ist somit nach \propref{6_5_8} unitär. Nach \propref{6_6_3} sind die Eigenvektoren $\lambda_1,...,\lambda_n$ reell.
\end{proof}
\begin{conclusion}
Sei $A\in\Mat_n(K)$ hermitesch. Genau dann ist $A$ positiv definit, wenn alle Eigenwerte positiv sind.
\end{conclusion}
\begin{proof}
Nach \propref{6_7_1} existiert $S\in\Uni_n(K)$ mit
\begin{align}
S^*AS=S^{-1}AS=D=\diag(\lambda_1,...,\lambda_n)\quad \lambda_1,...,\lambda_n\in\real\notag
\end{align}
Die Eigenwerte von $A$ sind die Eigenwerte von $S^{-1}AS$
, also $\lambda_1,...,\lambda_n$. Sei $T=\overline{S}$. Genau dann ist $A$ positiv definit, wenn $T^tA\overline{T}=S^*AS=D$ positiv definit ist (\propref{6_2_8}), also wenn $\lambda_i>0$.
\end{proof}
\begin{theorem}[Hauptachsentransformation]
Zu jeder hermiteschen Sesquilinearform $s$ auf $V$ gibt es eine Orthonormalbasis $B$ von $V$, für die
\begin{align}
M_B(s)=\diag(\lambda_1,...,\lambda_n)\quad\lambda_1,...,\lambda_n\in\real\notag
\end{align}
\end{theorem}
\begin{proof}
Sei $B_0=(x_1,...,x_n)$ eine Orthonormalbasis von $V$ und $A=M_{B_0}(s)$. Da $s$ hermitesch ist, ist auch $A$ hermitesch (\propref{6_2_13}). Nach \propref{6_7_1} gibt es deshalb $S\in\Uni_n(K)$ mit $S^*AS=D$ eine reelle Diagonalmatrix. Ist nun $f\in\End_K(V)$ mit $M_{B_0}(f)=\overline{S}$, so ist auch $B=(f(x_1),...,f(x_n))$ eine Basis von $V$ mit $T^B_{B_0}=\overline{S}$ unitär. Da $M_{B_0}(f)$ unitär ist, ist auch $f$ unitär. Nach \propref{6_5_2} ist $f(B_0)=B$ somit auch eine Orthonormalbasis. Nach \propref{6_2_8} ist
\begin{align}
M_B(s)=(T^B_{B_0})^t\cdot M_{B_0}(s)\cdot \overline{T^B_{B_0}}=S^*AS=D\notag
\end{align}
\end{proof}
\begin{example}
%TODO: mehr Abstand
$A=\begin{henrysmatrix}2&1\\1&2\end{henrysmatrix}$, $s=s_A$, $K=\real$, $V=\real^2$ \\
$\Rightarrow q_s(x)=2x_1^2+2x_1x_2+2x_2^2$ \\
Wie verhält sich $q_s:\real^2\to\real$? Wie sehen die "'Höhenlinien"'
\begin{align}
H_c=\{x\in\real^2\mid q_s(x)=c\}\quad c\in\real\notag
\end{align}
aus?
\begin{align}
\chi_A=(t-2)^2-1=(t-1)(t-3)&\Rightarrow \lambda_1=3,\lambda_2=1\notag \\
&\Rightarrow B=\left( \frac{1}{\sqrt{2}}\begin{henrysmatrix}1\\1\end{henrysmatrix},\frac{1}{\sqrt{2}}\begin{henrysmatrix}-1\\1\end{henrysmatrix}\right)\notag \\
&\Rightarrow M_B(s)=\diag(3,1)\notag
\end{align}
Im neuen Koordinatensystem $z=\Phi_B^{-1}(x)$ ist dann
\begin{align}
q_s(z)=3z_1^2+z_2^2\notag
\end{align}
Mit $a_1=\frac{1}{\sqrt{3}}$, $a_2=1$ erhält man "'Höhenlinien"' der Form
\begin{align}
\left(\frac{z_1}{a_1}\right)^2+\left( \frac{z_2}{a_2}\right)^2=c\notag
\end{align}
was für $c>0$ eine Ellipse beschreibt.
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-3,0) -- (3,0) node[right] {$x_1$};
\draw[->,thick] (0,-3) -- (0,3) node[above] {$x_2$};
\draw[rotate=-45] (0,0) ellipse (2cm and 1cm);
\draw (0,0) circle (2);
\draw[->,thick] (-3,-3) -- (3,3) node[above] {$z_1$};
\draw[->,thick] (3,-3) -- (-3,3) node[above] {$z_2$};
\end{tikzpicture}
\end{center}
\end{example}
\begin{conclusion}
\proplbl{6_7_5}
Zu jeder hermiteschen Sesquilinearform $s$ auf $V$ gibt es eine Basis $B$ von $V$, für die
\begin{align}
M_B(s)=\begin{pmatrix}\mathbbm{1_{r_{+}(s)}}&\;&\;\\\;&-\mathbbm{1_{r_{-}(s)}}&\;\\\;&\;&0\end{pmatrix}\notag
\end{align}
mit $r_+(s)+r_-(s)\le n$.
\end{conclusion}
\begin{proof}
Sei $B_0=(x_1,...,x_n)$ eine Orthonormalbasis von $V$ mit $A=M_{B_0}(s)=\diag(\lambda_1,...,\lambda_n)$. Setze
\begin{align}
\mu_i=
\begin{cases}
\frac{1}{\sqrt{\vert\lambda_i\vert}} & \lambda_i\neq 0 \\
1 & \lambda_i=0
\end{cases}\notag
\end{align}
Sei $x_i'=\mu_i\cdot x_i$ und $B'=(x'_1,...,x'_n)$. Dann ist $M_B(s)=S^tA\overline{S}$ mit $S=T^{B'}_{B_0}=\diag(\mu_1,...,\mu_n)$ also $M_{B'}(s)=\diag(\lambda'_1,...,\lambda'_n)$ mit $\lambda'_i=\mu_i\cdot \lambda_i\cdot\overline{\mu_i}=\mu_i^2\lambda_i\in\{0,1,-1\}$. Durch Permutation der Elemente von $B'$ erhält man die gewünschte Basis $B$.
\end{proof}
\begin{definition}[Ausartungsraum]
Der \begriff{Ausartungsraum} von $s$ ist
\begin{align}
V_0=\{x\in V\mid s(x,y)=0\quad\forall y\in V\}\notag
\end{align}
\end{definition}
\begin{lemma}
$V_0$ ist ein Untervektorraum von $V$.
\end{lemma}
\begin{proof}
Klar aus Linearität im ersten Argument.
\end{proof}
\begin{lemma}
\proplbl{6_7_8}
Seien $V_+$ und $V_-$ Untervektorräume von $V$ mit $V=V_+\oplus V_-\oplus V_0$ und $s$ positiv definit auf $V_+$, $-s$ positiv definit auf $V_-$. Dann ist
\begin{align}
\dim_K(V_+)&=\max\{\dim_K(W)\mid \text{Untervektorraum von }V,s\text{ positiv definit auf }V\}\notag \\
\dim_K(V_-)&=\max\{\dim_K(W)\mid \text{Untervektorraum von }V,-s\text{ positiv definit auf }V\}\notag
\end{align}
\end{lemma}
\begin{proof}
Beweis nur für $V_+$, analog für $V_-$. \\
$\le$: klar \\
$\ge$: Ist $W\le V$ Untervektorraum mit $s(x,x)>0\quad\forall x\in W\backslash\{0\}$, so ist $W\cap(V_-\oplus V_+)=\{0\}$. Ist $x=y+z$ mit $y\in V_-$, $z\in V_0$, so ist $s(x,x)=s(y+z,y+z)=\underbrace{s(y,y)}_{\le 0}+\underbrace{s(y,z)+s(z,y)+s(z,z)}_{=0}\le 0\Rightarrow \dim_K(W)\le \dim_K(V)-\dim_K(V_-)-\dim_K(V_0)=\dim_K(V_+)$.
\end{proof}
\begin{theorem}[Trägheitssatz von \person{Sylvester}]
Für eine hermitesche Sesquilinearform $s$ auf $V$ sind die Zahlen $r_+(s)$, $r_-(s)$ aus \propref{6_7_5} eindeutig bestimmt.
\end{theorem}
\begin{proof}
Sei $B$ eine Basis von $V$ wie in \propref{6_7_5}, $B=(x_1,...,x_n)$. Definiere
\begin{align}
V_+&=\Span_K(x_1,...,x_{r_+(s)})\notag \\
V_-&=\Span_K(x_{r_+(s)+1},...,x_{r_+(s)+r_-(s)})\notag \\
V'_0&=\Span_K(x_{r_+(s)+r_-(s)+1},...,x_n)\notag
\end{align}
Dann ist $s$ positiv definit auf $V_+$, $-s$ positiv definit auf $V_-$ und $V=V_+\oplus V_-\oplus V'_0$. Es gilt $V'_0=V_0$\\
$\subseteq$: klar \\
$\supseteq$: Ist $x=\sum_{i=1}^{n} \lambda_ix_i\in V_0$, so ist $0=s(x,x_i)=\lambda_i\cdot s(x_i,x_i)$ für $i=1,...,n$ also $\lambda_i=0$ für $i=1,...,r_+(s)+r_-(s)$, d.h. $x\in V'_0$. Nach \propref{6_7_8} ist $r_+(s)=\dim_K(V_+)$ nur von $s$ abhängig, analog für $r_-(s)$.
\end{proof}
\begin{definition}[Signatur]
Die \begriff{Signatur} von $s$ ist das Tripel
\begin{align}
(r_+(s),r_-(s),r_0(s))\notag
\end{align}
wobei $r_0(s)=\dim_K(V_0)$.
\end{definition}
\begin{conclusion}
Ist $s$ eine hermitesche Form auf $V$ und $B$ eine Basis von $V$, so ist die Zahl der positiven bzw. negativen Eigenwerte von $M_B(s)$ gleich $r_+(s)$ bzw. $r_-(s)$, insbesondere also unabhängig von $B$.
\end{conclusion}
\begin{proof}
Sei $A=M_B(s)$. Nach \propref{6_7_1} gibt es $S\in\Uni_n(K)$ mit $S^*AS$ eine reelle Diagonalmatrix. Da $S^*=S^{-1}$ haben $A$ und $S^*AS$ die selben Eigenwerte. Bringt man $S^*AS$ nun in die Form in \propref{6_7_5}, so ändern sich die Vorzeichen der Diagonale nicht mehr.
\end{proof}

View file

@ -0,0 +1,80 @@
\section{Hauptidealringe}
Sei $R$ nullteilerfrei.
\begin{definition}[Hauptidealring]
Ein Ring $R$ ist ein \begriff{Hauptidealring}, wenn $R$ nullteilerfrei ist und jedes Ideal von $R$ ein Hauptideal ist.
\end{definition}
\begin{example}
Ist $R=K$ ein Körper, so hat $R$ nur die Ideale $(0)$ und $(1)$, und somit ist $R$ ein Hauptidealring.
\end{example}
\begin{definition}[euklidische Gradfunktion]
Eine \begriff{euklidische Gradfunktion} auf $R$ ist eine Abbildung $\delta:R\backslash \{0\}\to \natur_0$ für die gilt: \\
Für jedes $a\in R$ und $0\neq b\in R$ gibt es $q,r\in R$ mit $a=bq+r$, wobei $r=0$ oder $\delta(r)<\delta(b)$.
Ein nullteilerfreier Ring $R$ ist \begriff[Ring!]{euklidisch}, wenn es eine euklidische Gradfunktion auf $R$ gibt.
\end{definition}
\begin{example}
\begin{enumerate}
\item Auf $R=\whole$ ist der Absolutbetrag
\begin{align}
\delta(x)=\vert x\vert\notag
\end{align}
eine euklidische Gradfunktion. (\propref{1_4_6})
\item Auf $R=K[t]$, $K$ ein Körper, ist der Grad
\begin{align}
\delta(f) =\deg(f)\notag
\end{align}
eine euklidische Gradfunktion. (\propref{1_6_5})
\item $R=K$ ein Körper ist
\begin{align}
\delta(x)=0\notag
\end{align}
eine euklidische Gradfunktion, da man in einem Körper jedes Element durch jedes Element (Ausnahme: 0) teilen kann.
\end{enumerate}
\end{example}
\begin{lemma}
\proplbl{8_3_5}
Sei $\delta:R\backslash \{0\}\to \natur_0$ eine euklidische Gradfunktion und $(0)\neq\unlhd R$ ein Ideal. Ist $0\neq a\in I$ mit $\delta(a)=\min\{\delta(b)\mid 0\neq b\in I\}$, so ist $I=(a)$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item "'$\supseteq$"': $a\in I\Rightarrow (a)\subset I$
\item "'$\subseteq$"': Sei $0\neq b\in I$. Schreibe $b=qa+r$ mit $q,r\in R$ und $r=0$ oder $\delta(r)<\delta(a)$. Da $r=\underbrace{b}_{\in I}-q\underbrace{a}_{\in I}\in I$ folgt wegen der Minimalität von $\delta(a)$, dass $r=0$, also $b\in (a)$.
\end{itemize}
\end{proof}
\begin{proposition}
Ist $R$ euklidisch, so ist $R$ ein Hauptidealring.
\end{proposition}
\begin{proof}
Sei $I\unlhd R$ ein Ideal. Ist $I=(0)$, so ist $I$ ein Hauptideal. Andernfalls existiert ein $0\neq a\in I$ mit $\delta(a)$ minimal. Nach \propref{8_3_5} ist $I=(a)$ ein Hauptideal.
\end{proof}
\begin{conclusion}
Die Ringe $\whole$ und $K[t]$, $K$ ein Körper, sind Hauptidealringe.
\end{conclusion}
\begin{lemma}[Lemma von \person{Bézout}]
\proplbl{8_3_8}
Sei $R$ ein Hauptidealring und $a,b\in R$. Es existiert ein $c\in R$ mit $c=\ggT(a,b)$ und $(c)=(a,b)$. Insbesondere gibt es $x,y\in R$ mit $c=ax+by$ und $\ggT(x,y)=1$.
\end{lemma}
\begin{proof}
$R$ Hauptidealring $\Rightarrow\exists c\in R$ mit $(c)=(a,b)$, insbesondere $c=ax+by$ mit $x,y\in R$.
\begin{itemize}
\item $c=\ggT(a,b)$: $a,b\in (c)\Rightarrow c\mid a$ und $c\mid b$. Ist $d\in R$ mit $d\mid a$ und $d\mid b$, so ist $d\mid (ax+by)=c$
\item $\ggT(x,y)=1$: Ist $d\in R$ mit $d\mid x$ und $d\mid y$, so gelten $(cd)\mid (ax)$ und $(cd)\mid (by)\Rightarrow (cd)\mid (ax+by)=c\Rightarrow d\in R^\times$, also $d\sim 1$.
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{8_3_9}
Sei $R$ ein Hauptidealring, $p\in R$. Ist $p$ irreduzibel, so auch prim.
\end{proposition}
\begin{proof}
Seien $a,b\in R$ mit $p\mid (ab)$. Angenommen $p\nmid a$. DA $p$ irreduzibel ist, ist $\ggT(p,a)=1$, also $1=px+ay$ mit $x,y\in R$ nach \propref{8_3_8}. Also $p\mid (pbx+aby)=b$.
\end{proof}

View file

@ -0,0 +1,163 @@
\section{Homomorphismen von Gruppen}
Seien $G,H$ zwei multiplikativ geschriebene Gruppen.
\begin{definition}[Gruppenhomomorphismus]
Eine Abbildung $f: G \to H$ ist ein \begriff{Gruppenhomomorphismus}, wenn gilt:
\begin{itemize}
\item (GH): $f(xy)=f(x)\cdot f(y)$
\end{itemize}
Die Menge der Homomorphismen $f:G\to H$ bezeichnet man mit $\Hom(G,H)$.
\end{definition}
\begin{remark}
Ein Gruppenhomomorphismus ist also eine Abbildung, welche mit der Verknüpfung, also der Struktur
der Gruppe, verträglich ist. Man beachte: für additiv geschrieben Gruppen lautet die Bedingung: $f(x+y)=f(x)+f(y)$.
\end{remark}
\begin{example}
\proplbl{3_2_3}
\begin{itemize}
\item $\id_G: G \to G$
\item $c_1:G\to H$ mit $x\mapsto 1_H$
\item $G_0\le G$ Untergruppe, $\iota:G_0\to G$
\item $(A,+)$ abelsche Gruppe, $k\in \mathbb Z$, $A\to A$ mit $a\mapsto ka$
\item $\mathbb Z \to \mathbb Z\backslash n\mathbb Z$ mit $\overline a \mapsto a+n\mathbb Z$
\item $\mathbb R \to \mathbb R^{\times}$ mit $x\mapsto e^x$
\item $\Mat_n(K)\to \Mat_n(K)$ mit $A\mapsto A^t$
\item $\mathbb C\to \mathbb R^{\times}$ mit $z\mapsto |z|$
\end{itemize}
\end{example}
\begin{proposition}
\proplbl{3_2_4}
Sei $f\in \Hom(G,H)$. Dann gilt:
\begin{itemize}
\item $f(1_G)\to 1_H$
\item Für $x\in G$ ist $f(x^{-1})=(f(x))^{-1}$.
\item Für $x_1,...,x_n\in G$ ist $f(x_1,...,x_n)=f(x_1)\cdot ... \cdot f(x_n)$.
\item Ist $G_0\le G$, so ist $f(G_0)\le H$.
\item Ist $H_0\le H$, so ist $f^{-1}(H_0)\le G$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $f(1)=f(1\cdot 1)=f(1)\cdot f(1) \Rightarrow$ kürzen, weil $H$ Gruppe $\Rightarrow 1=f(1)$
\item $f(x)\cdot f(x^{-1})=f(x\cdot x^{-1})=f(1)=1$
\item Induktion nach $n$
\item $x,y\in G_0\Rightarrow f(x)\cdot f(y)=f(xy)\in f(G_0)$, $f^{-1}(x)=f(x^{-1})\in f(G_0)$
\item $x,y\in f^{-1}(H_0)\Rightarrow f(x)\cdot f(y)=f(xy)\in H_0\Rightarrow xy\in f^{-1}(H_0)$, $f(x^{-1})=(f(x))
^{-1}\in H_0\Rightarrow x^{-1}\in f^{-1}(H_0)$, $f(1)=1\in H_0\Rightarrow 1\in f^{-1}(H_0)$, insbesondere
$f^{-1}(H_0)\neq \emptyset$
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{3_2_5}
Seien $G_1,G_2,G_3$ Gruppen. Sind $f_1:G_1\to G_2$, $f_2:G_2\to G_3$ Homomorphismen, so ist auch
$f_2\circ f_1:G_1\to G_3$.
\end{proposition}
\begin{proof}
Für $x,y\in G_1$ ist $(f_2\circ f_1)(xy)=f_2(f_1(xy))=f_2(f_1(x)\cdot f_1(y))=f_2(f_1(x))\cdot f_2(f_1(y))=(f_2
\circ f_1)(x)\cdot (f_2\circ f_1)(y)$
\end{proof}
\begin{definition}[Arten von Homomorphismen]
Ein Homomorphismus ist
\begin{itemize}
\item ein \begriff{Monomorphismus}, wenn $f$ injektiv ist
\item ein \begriff{Epimorphismus}, wenn $f$ surjektiv ist
\item ein \begriff{Isomorphismus}, wenn $f$ bijektiv ist.
\end{itemize}
Die Gruppen $G$ und $H$ heißen \begriff{isomorph}, in Zeichen $G\cong H$, wenn
es einen Isomorphismus $G\to H$ gibt.
\end{definition}
\begin{lemma}
\proplbl{3_2_7}
Ist $f:G\to H$ ein Isomorphismus, so ist auch $f^{-1}:H\to G$ ein Isomorphismus.
\end{lemma}
\begin{proof}
Da $f^{-1}$ wieder bijektiv ist, müssen wir nur zeigen, dass $f^{-1}$ ein Homomorphismus ist. Seien $x,y\in H$. Dann
ist $f(f^{-1}(x)\cdot f^{-1}(y))=f(f^{-1}(x))\cdot f(f^{-1}(y))=xy$, somit $f^{-1}(xy)=f^{-1}(x)\cdot f^{-1}(y)$.
\end{proof}
\begin{proposition}
\proplbl{3_2_8}
Sei $f:G\to H$ ein Homomorphismus. Genau dann ist $f$ ein Isomorphismus, wenn es einen Homomorphismus
$f':H\to G$ mit $f'\circ f=\id_G$ und $f\circ f'=\id_H$ gibt.
\end{proposition}
\begin{proof}
Ist $f$ ein Isomorphismus, so erfüllt $f':=f^{-1}$ nach \propref{3_2_7} das Gewünschte. Ist umgekehrt $f'$ wie angegeben, so muss $f$
bijektiv sein:
\begin{itemize}
\item $f'\circ f=\id_G$ injektiv $\Rightarrow f$ injektiv
\item $f\circ f'=\id_H$ surjektiv $\Rightarrow f$ surjektiv
\end{itemize}
\end{proof}
\begin{conclusion}
Isomorphie von Gruppen ist eine \begriff{Äquivalenzrelation}: Sind $G,G_1,G_2,G_3$ Gruppen, so gilt:
\begin{itemize}
\item $G\cong G$ (Reflexivität)
\item Ist $G_1\cong G_2$, so ist auch $G_2\cong G_1$ (Symmetrie)
\item Ist $G_1\cong G_2$ und $G_2\cong G_3$, dann ist auch $G_1\cong G_3$ (Transitivität)
\end{itemize}
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $\id_G$ ist ein Isomorphismus
\item \propref{3_2_7}
\item Folgt aus \propref{3_2_5} und der Tatsache, dass die Komposition bijektiver Abbildungen wieder bijektiv ist.
\end{itemize}
\end{proof}
\begin{remark}
\propref{3_2_8} erklärt die Bedeutung des Isomorphismus: Eine mit der Struktur verträgliche
Abbildung, die eine mit der Struktur verträgliche Umkehrabbildung besitzt, also eine strukturerhaltende Abbildung.
Tatsächlich können wir uns einen Isomorphismus $f: G\to H$ so vorstellen, dass wir nur die Elemente von $G$ umbenennen.
Alle Aussagen, die sich nur aus der Struktur selbst ergeben, bleiben damit wahr. Zum Beispiel: Ist $G\cong H$ und ist
$G$ abelsch, so auch $H$ und umgekehrt.
\end{remark}
\begin{example}
\begin{itemize}
\item Es ist $\mathbb Z^{\times} = \mu_2 \cong \mathbb Z\backslash 2\mathbb Z\cong (\mathbb Z\backslash 3\mathbb Z)
^{\times}\cong S_2$. Je zwei beliebige Gruppen der Ordnung 2 sind zueinander isomorph.
\item $e: \mathbb R \to \mathbb R_{>0}$, $x\mapsto e^x$ liefert einen Isomorphismus, da $(\mathbb R,+)\to
(\mathbb R,\cdot)$.
\end{itemize}
\end{example}
\begin{definition}[Kern]
Der \begriff{Kern} eines Gruppenhomomorphismus $f:G\to H$ ist $\Ker(f):= f^{-1}(\{1\})=\{x\in G \mid
f(x)=1_H\}$.
\end{definition}
\begin{lemma}
\proplbl{3_2_13}
Ist $f:G\to H$ ein Homomorphismus, so ist $N:=\Ker(f)$ eine Untergruppe von $G$ mit $x\cdot y\cdot
x^{-1}\in N$ für alle $x\in G$ und $y\in N$.
\end{lemma}
\begin{proof}
Nach \propref{3_2_4} ist $N$ eine Untergruppe. Für $x\in G$ und $y\in N$ ist $f(xyx^{-1})=f(x)\cdot f(y)\cdot f(x^{-1})=f(x)\cdot f(x^{-1}) \cdot 1=
f(x)\cdot f(x^{-1})=1$, also $xyx^{-1}\in N$.
\end{proof}
\begin{proposition}
\proplbl{3_2_14}
Sei $f\in \Hom(G,H)$. Genau dann ist $f$ injektiv, wenn $\Ker(f)=\{1_G\}$.
\end{proposition}
\begin{proof}
Schreibe $N=\Ker(f)$.
\begin{itemize}
\item Hinrichtung: Ist $f$ injektiv, so ist $N\le G$ mit $|N|\le 1$, also $N=\{1_G\}$.
\item Rückrichtung: Sei $N=\{1_G\}$. Sind $x,y\in G$ mir $f(x)=f(y)$, so ist $1=(f(x))^{-1}\cdot f(y)=f(x^{-1}\cdot y)$,
also $x^{-1}\cdot y\in N=\{1\}$ und somit $x=y$. Folglich ist $f$ injektiv.
\end{itemize}
\end{proof}
\begin{definition}[Normalteiler]
Ist $N\le G$ mit $x^{-1}y\in N$ für alle $x\in G$ und $y\in N$, so nennt man $N$
einen \begriff{Normalteiler} von $G$ und schreibt $N\vartriangleleft G$.
\end{definition}

View file

@ -0,0 +1,82 @@
\section{Homomorphismen von Ringen}
Seien $R,S$ und $T$ Ringe.
\begin{definition}[Ringhomomorphismus]
Eine Abbildung $f:R\to S$ ist ein \begriff{Ringhomomorphismus}, wenn für $x,y\in R$
gilt:
\begin{itemize}
\item (RH1:) $f(x+y)=f(x)+f(y)$
\item (RH2:) $f(xy)=f(x)\cdot f(y)$
\end{itemize}
Die Menge der Ringhomomorphismen $f:R\to R$ wird mit $\Hom(R,S)$ bezeichnet. Ein Homomorphismus $f:R\to S$ ist ein
Mono-, Epi- oder Isomorphismus, wenn $f$ injektiv, surjektiv oder bijektiv ist. Gibt es einen Isomorphismus
$f:R\to S$, so nennt man $R$ und $S$ isomorph und schreibt $R\cong S$. Die Elemente von $\End(R):= \Hom(R,R)$ nennt
man \begriff{Endomorphismen}. Der Kern eines Ringhomomorphismus $f:R\to S$ ist $\Ker(f):= f^{-1}(\{0\})$.
\end{definition}
\begin{remark}
Ein Ringhomomorphismus $f:R\to S$ ist ein Gruppenhomomorphismus der abelschen Gruppen $(R,+)$ und
$(S,+)$, der mit der Multiplikation verträglich ist, also eine strukturverträgliche Abbildung zwischen Ringen.
\end{remark}
\begin{example}
\begin{itemize}
\item $\id_R:R\to R$ ist ein Ringisomorphismus
\item Ist $R_0\le R$ ein Unterring von $R$, so ist $\iota: R_0 \to R$ ein Ringmonomorphismus
\item $\mathbb Z \to \mathbb Z\backslash n\mathbb Z$ mit $\overline a\mapsto a+n\mathbb Z$ it ein Ringepimorphismus
\item Sei $R$ kommutativ mit Einselement. Für $\lambda\in R$ ist die Auswertungsabbildung $R[X]\to R$ mit $f\mapsto
f(\lambda)$ ein Ringepimorphismus. Dies ist die Aussage von \propref{1_6_8}
\item $\mathbb C \to \mathbb C$ mit $z\mapsto \overline z$ ist ein Ringisomorphismus
\end{itemize}
\end{example}
\begin{proposition}
Sind $f:R\to S$ und $g:S\to T$ Ringhomomorphismen, so auch $g\circ f:R\to T$.
\end{proposition}
\begin{proof}
Übung, analog zu \propref{3_2_5}
\end{proof}
\begin{lemma}
Ist $f:R\to S$ ein Ringisomorphismus, so auch $f^{-1}: S\to R$.
\end{lemma}
\begin{proof}
Nach \propref{3_2_7} wissen wir: $f^{-1}$ ist ein Isomorphismus der abelschen Gruppen $(S,+)\to (R,+)$. Die Verträglichkeit
mit der Multiplikation zeigt man analog.
\end{proof}
\begin{proposition}
Sei $f\in \Hom(R,S)$. Genau dann ist $f$ ein Ringisomorphismus, wenn es $f'\in \Hom(S,R)$ mit $f'\circ
f=\id_R$ und $f\circ f'=\id_S$ gibt.
\end{proposition}
\begin{proof}
Klar, analog zu \propref{3_2_8}
\end{proof}
\begin{lemma}
\proplbl{3_3_7}
Der Kern $I:=\Ker(f)$ eines Ringhomomorphismus $f:R\to S$ ist eine Untergruppe von $(R,+)$ mit
$x\cdot a, a\cdot x \in I$ für alle $a\in I$ und $x\in R$.
\end{lemma}
\begin{proof}
Nach \propref{3_2_13} ist $I$ eine Untergruppe von $(R,+)$. Für $x\in R$ und $a \in I$ ist $f(xa)=f(x)\cdot
f(a)=f(x)\cdot 0=0$. Somit ist $xa\in I$. Analog ist $ax\in I$.
\end{proof}
\begin{proposition}
Sei $f\in \Hom(R,S)$. Genau dann ist $f$ injektiv, wenn $\Ker(f)=\{0\}$.
\end{proposition}
\begin{proof}
Klar aus \propref{3_2_14}, da $f:(R,+)\to (S,+)$ ein Gruppenhomomorphismus ist.
\end{proof}
\begin{definition}[Ideal]
Ist $I$ eine Untergruppe von $(R,+)$ und $xa,ax\in I$ mit $x\in R$ und $a\in I$, so nennt
man $I$ ein \begriff{Ideal} von $R$ und schreibt $I\unlhd R$.
\end{definition}
\begin{example}
Der Kern des Ringhomomorphismus $\mathbb Z\to \mathbb Z\backslash n\mathbb Z$ mit $a\mapsto
\overline a$ ist das Ideal $I=n\mathbb Z\unlhd \mathbb Z$.
\end{example}

View file

@ -0,0 +1,138 @@
\section{Homomorphismen von Vektorräumen}
Seien $U,V,W$ drei $K$-Vektorraum. \\
\begin{definition}[linear]
Eine Abbildung $f: V \to W$ heißt $K$-\begriff{linear}er Homomorphismus von $K$-Vektorraum, wenn für
alle $x,y\in V$ und $\lambda\in K$ gilt:
\begin{itemize}
\item (L1): $f(x+y)=f(x)+f(y)$
\item (L2): $f(\lambda x)=\lambda \cdot f(x)$
\end{itemize}
Die Menge der $K$-linearen Abbildungen $f: V\to W$ wird mit $\Hom_K(V,W)$ bezeichnet. Die Elemente von $\End_K(V)
:= \Hom_K(V,V)$ nennt man die Endomorphismen von $V$. Ein $f\in \Hom_K(V,W)$ ist ein Mono-, Epi- bzw. Isomorphismus,
falls $f$ injektiv, surjektiv bzw. bijektiv ist. Einen Endomorphismus der auch ein Isomorphismus ist, nennt man
\begriff{Automorphismus} von $V$ und bezeichnet die Menge der Automorphismen von $V$ mit $\Aut_K(V)$. Der Kern einer linearen
Abbildung $f: V\to W$ ist $\Ker(f):= f^{-1}(\{0\})$.
\end{definition}
\begin{remark}
Eine $K$-lineare Abbildung $f: V\to W$ ist also ein Homomorphismus der abelschen Gruppen $(V,+)
\to(W,+)$, der mit der Skalarmultiplikation verträglich ist, d.h. eine strukturverträgliche Abbildung zwischen Vektorräumen.
\end{remark}
\begin{proposition}
Eine Abbildung $f: V\to W$ ist genau dann $K$-linear, wenn für alle $x,y\in V$ und $\lambda,
\mu\in K$ gilt: \\
(L): $f(\lambda x +\mu y)=\lambda f(x) + \mu f(y)$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item Hinrichtung: $f(\lambda x +\mu y)=f(\lambda x) + f(\mu y)=\lambda f(x) + \mu f(y)$
\item Rückrichtung: (L1): $f(x+y)=f(1x+1y)=1f(x)+1f(y)$, (L2): $f(\lambda x)=f(\lambda x+0y)=\lambda f(x)$.
\end{itemize}
\end{proof}
\begin{example}
\begin{itemize}
\item $\id_V: V\to V$ ist ein Automorphismus von $V$
\item $c_0:V\to W$ mit $x\mapsto 0$ ist $K$-linear
\item Für einen Untervektorraum $V_0\le V$ ist $\iota: V_0\to V$ ein Monomorphismus
\item Im $K$-Vektorraum $K[X]$ kann man die (formale) Ableitung definieren: $(\sum_{i=0}^n a_iX^i)' := \sum
_{i=1}^n ia_iX^{i-1}$. Diese Abbildung $K[X]\to K[X]$ mit $f\mapsto f'$ ist ein $K$-Endomorphismus von $K[X]$.
\end{itemize}
\end{example}
\begin{example}
\proplbl{3_4_5}
Sei $V=K^n$ und $W=K^m$. Wir fassen die Elemente von $V$ und $W$ als Spaltenvektoren auf. Zu einer
Matrix $A\in \Mat_{m\times n}(K)$ definieren wir die Abbildung $f_A:V\to W$ mit $x\mapsto Ax$. \\
Ausgeschrieben: Ist $A=(a_{ij})$ und $x=(x_1,...,x_n)^t$ so ist
\begin{align}
f_A(x)=Ax=
\begin{pmatrix}
a_{11} & ... & a_{1n}\\
... & & ...\\
a_{m1} & ... & a_{mn}\\
\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ ... \\ x_n\end{pmatrix} =
\begin{pmatrix}
a_{11}\cdot x_1 + ... + a_{1n}\cdot x_n\\
...\\
a_{m1}\cdot x_1 + ... + a_{mn}\cdot x_n\\
\end{pmatrix}\notag
\end{align}
Nach \propref{3_1_9} und \propref{3_1_7} ist $f_A$ eine lineare Abbildung.
\end{example}
\begin{proposition}
\proplbl{3_4_6}
Für ein $f\in \Hom_K(V,W)$. Dann gilt:
\begin{itemize}
\item $f(0)=0$
\item Für $x,y\in V$ ist $f(x-y)=f(x)-f(y)$.
\item Sind $(x_1)$ aus $V$, $(\lambda_i)$ aus $K$, fast alle gleich 0, so ist $f(\sum_{i\in I} \lambda_i
\cdot x_i)=\sum_{i\in I} \lambda_i\cdot f(x)$.
\item Ist $(x_i)$ linear abhängig in $V$, so ist $f(x_i)$ linear abhängig in $W$.
\item Ist $V_0\le V$ ein Untervektorraum von $V$, so ist $f(V_0)\le W$ ein Untervektorraum.
\item Ist $W_0\le W$ ein Untervektorraum von $W$, so ist $f^{-1}(W_0)\le V$ ein Untervektorraum.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item klar
\item klar
\item Induktion
\item $\sum \lambda_i\cdot x_i=0\Rightarrow 0=f(0)=f(\sum \lambda_i\cdot x_i)=\sum \lambda_i\cdot f(x_i)$
\item $x,y\in V_0\Rightarrow f(x)+f(y)=f(x+y)\in f(V_0)$ \\
$x\in V_0,\lambda\in K\Rightarrow f(x\cdot \lambda= f(\lambda x)\in f(V_0))$
\item $f(0)=0\in W_0\Rightarrow 0\in f^{-1}(W_0)$, insbesondere ist $f^{-1}(W_0)\neq \emptyset$ \\
$x,y\in f^{-1}(W_0)\Rightarrow f(x+y)=f(x)+f(y)\in W_0$, also $x+y\in f^{-1}(W_0)$ \\
$x\in f^{-1}(W_0)$ und $\lambda\in K\Rightarrow f(\lambda x)=\lambda f(x)\in W_0$, also $\lambda x\in f^{-1}(W_0)$
\end{itemize}
\end{proof}
\begin{proposition}
Sind $f:V\to W$ und $g:W\to U$ $K$-linear, so auch $g\circ f: V\to U$.
\end{proposition}
\begin{proof}
Für $x,y\in V$ und $\lambda,\mu\in K$ ist $(g\circ f)(\lambda x + \mu y)=g(f(\lambda x + \mu y))=g(\lambda f(x) +
\mu f(y))=\lambda (g\circ f)(x) + \mu (g\circ f)(y)$.
\end{proof}
\begin{lemma}
\proplbl{3_4_8}
Ist $f:V\to W$ ein Isomorphismus, so auch $f^{-1}:W\to V$.
\end{lemma}
\begin{proof}
Wir müssen nur zeigen, dass $f^{-1}$ linear ist. Für $x,y\in V$ und $\lambda,\mu\in K$ ist $f(\lambda f^{-1}(x) +
\mu f^{-1}(y))=\lambda (f\circ f^{-1})(x) + \mu (f\circ f^{-1})(y)=\lambda x + \mu y$, also $f^{-1}(\lambda x +
\mu y)=\lambda f^{-1}(x) + \mu f^{-1}(y)$.
\end{proof}
\begin{proposition}
\proplbl{3_4_9}
Sei $f:V\to W$ linear. Genau dann ist $f$ ein Isomorphismus, wenn es eine lineare Abbildung $f':W
\to V$ gibt mit $(f'\circ f)=\id_V$ und $(f\circ f')=\id_W$.
\end{proposition}
\begin{proof}
Ist $f$ ein Isomorphismus, so erfüllt $f'=f^{-1}$ nach \propref{3_4_8} die Behauptung. Existiert umgekehrt $f'$ wie angegeben, so muss
$f$ bijektiv sein.
\end{proof}
\begin{remark}
\proplbl{3_4_10}
Wie auch bei Gruppen sehen wir hier bei Vektorräumen, dass Isomorphismen genau die strukturerhaltenden
Abbildungen sind. Wieder können wir uns einen Isomorphismus $f:V\to W$ so vorstellen, dass wir nur die Elemente von
$V$ umbenennen. Alle Aussagen, die sich nur aus der Struktur selbst ergeben, bleiben damit wahr, wie z.B. $\dim_K(V)=
\dim_K(W)\iff V=W$. Insbesondere ist $K^n \cong K^m$ für $n=m$.
\end{remark}
\begin{proposition}
\proplbl{3_4_11}
Ist $f:V\to W$ eine lineare Abbildung, so ist $\Ker(f)$ ein Untervektorraum von $V$. Genau dann ist $f$ ein
Monomorphismus, wenn $\Ker(f)=\{0\}$.
\end{proposition}
\begin{proof}
Der erste Teil folgt aus \propref{3_4_6}, der zweite folgt aus \propref{3_2_14}, da $f:(V,+)\to (W,+)$ ein
Gruppenhomomorphismus ist.
\end{proof}

View file

@ -0,0 +1,95 @@
\section{Körper}
\begin{definition}[Körper]
Ein \begriff{Körper} ist ein kommutativer Ring $(K,+,\cdot)$ mit Einselement
$1 \neq 0$, in dem jedes Element $x \neq x \in K$ invertierbar ist.
\end{definition}
\begin{remark}
Nach \propref{1_4_13} ist ein Körper ist stets nullteilerfrei und $(K\backslash\{0\}, \cdot)$ ist eine abelsche
Gruppe. Ein Körper ist also ein Tripel $(K,+,\cdot)$ bestehend aus einer Menge $K$ und 2 Verknüpfungen
$+: K \times K \to K$ und $\cdot: K \times K \to K$, für die gelten: \\
(K1): $(K,+)$ ist eine abelsche Gruppe \\
(K2): $(K\backslash\{0\}, \cdot)$ ist eine abelsche Gruppe, deren neutrales Element wir mit 1 bezeichnen \\
(K3): Es gelten die Distributivgesetze.
\end{remark}
\begin{remark}
Sei $K$ ein Körper und $a,x,y \in K$. Ist $ax=ay$ und $a \neq 0$, so ist $x=y$.
\end{remark}
\begin{definition}[Teilkörper]
Ein \begriff{Teilkörper} eines Körpers $(K,+,\cdot)$ ist die Teilemenge $L
\subset K$, die mit der geeigneten Einschränkung von Addition und Multiplikation wieder ein
Körper ist.
\end{definition}
\begin{example}
\begin{itemize}
\item Der Nullring ist kein Körper.
\item Der Körper $\mathbb Q$ der rationalen Zahlen ist ein Teilkörper des Körpers $\mathbb R$ der
reellen Zahlen.
\item $(\mathbb Z, + ,\cdot)$ ist kein Körper
\end{itemize}
\end{example}
\begin{example}[Komplexe Zahlen]
Wir definieren die Menge $\mathbb C = \mathbb R \times \mathbb R$ und darauf Verknüpfungen wie folgt:
Für $(x_1,y_1), (x_2,y_2) \in \mathbb C$ ist:
\begin{itemize}
\item$(x_1,y_1)+(x_2,y_2) := (x_1+x_2,y_1+y_2)$
\item$(x_1,y_1)\cdot (x_2,y_2) := (x_1x_2-y_1y_2,x_1y_2+x_2y_1)$
\end{itemize}
Wie man nachprüfen kann, ist $(\mathbb C,+,\cdot)$ ein Körper, genannt Körper der komplexen Zahlen.
Da $(x_1,0)+(x_2,0)=(x_1+x_2,0)$ und $(x_1,0)\cdot (x_2,0)=(x_1x_2,0)$, können wir $\mathbb R$ durch
"'$x=(x,0)$"' mit dem Teilkörper $\mathbb R \times \{0\}$ von $\mathbb C$ identifizieren. \\
Die imaginäre Einheit $i=(0,1)$ erfüllt $i^2=-1$ und jedes $z \in \mathbb C$ kann eindeutig geschrieben
werden als $z=x+iy$ mit $x,y \in \mathbb R$
\end{example}
\begin{lemma}
\proplbl{1_5_7}
Sei $a \in \mathbb Z$ und sei $p$ eine Primzahl, die $a$ nicht teilt. Dann gibt es $b,k \in
\mathbb Z$ mit $ab+kp=1$.
\end{lemma}
\begin{proof}
Sei $n \in \mathbb N$ die kleinste natürliche Zahl der Form $n=ab+kp$. Angenommen, $n \ge 2$. Schreibe
$a=qp+r$ mit $q,r \in \mathbb Z$ und $0 \le r < p$ (\propref{1_4_6}). Aus der Nichtteilbarkeit von $a$ folgt $r \neq 0$, also
$r \in \mathbb N$. Wegen $r=a\cdot 1-qp$ ist $n\le r$. Da $p$ Primzahl ist und $2\le n\le r < p$, gilt $n$ teilt
nicht $p$. Schreibe $p=c\cdot n+m$ mit $c,m \in \mathbb Z$ und $0 \le m<n$ (\propref{1_4_6}). Aus $n$ teilt nicht $p$ folgt
$m \neq 0$, also $m \in \mathbb N$. Da $m=p-cn=-abc+(1-kc)p$, ist $m<n$ ein Widerspruch zur Minimalität
von $n$. Die Annahme $n \ge 2$ war somit falsch. Es gilt $n=1$.
\end{proof}
\begin{example}[Endliche Primkörper]
Für jede Primzahl $p$ ist $\mathbb Z /p \mathbb Z$ ein Körper. Ist $\overline{a}\neq \overline{0}$, so gilt
$p$ teilt nicht $a$ und somit gibt es nach \propref{1_5_7} $b,k \in \mathbb Z$ mit \\
\begin{align}
ab+kp &= 1 \notag \\
\overline{(ab+kp)} &= \overline{1} = \overline{(ab)} = \overline{a} \cdot \overline{b} \notag
\end{align}
und somit ist $\overline{a}$ invertierbar in $\mathbb Z /p \mathbb Z$. Somit sind für $n \in \mathbb N$
äquivalent:
\begin{itemize}
\item $\mathbb Z /n \mathbb Z$ ist ein Körper
\item $\mathbb Z /n \mathbb Z$ ist nullteilerfrei
\item $n$ ist Primzahl
\end{itemize}
\end{example}
\begin{proof}
\begin{itemize}
\item 1 $\Rightarrow$ 2: \propref{1_4_13}
\item 2 $\Rightarrow$ 3: \propref{1_4_12}
\item 3 $\Rightarrow$ 1: gegeben
\end{itemize}
Insbesondere ist $\mathbb Z /p \mathbb Z$ nullteilerfrei, d.h. aus $p\vert ab$ folgt $p\vert a$ oder $p\vert b$.
\end{proof}
\begin{remark}
Ist $K$ ein Körper und $a,b\in K$, $b\neq 0$, so schreiben wir $\frac{a}{b}$ für $ab^{-1}=b^{-1}a$. Es gelten die bekannten Rechenregeln für Brüche (vgl. \propref{1_3_10}):
\begin{align}
\frac{a_1}{b_1}+\frac{a_2}{b_2}&=\frac{a_1b_2+a_2b_1}{b_1b_2}\notag \\
\frac{a_1}{b_1}\cdot\frac{a_2}{b_2}&=\frac{a_1a_2}{b_1b_2}\notag
\end{align}
\end{remark}

View file

@ -0,0 +1,126 @@
\section{Koordinatendarstellung linearer Abbildungen}
Seien $V,W$ endlichdimensionale $K$-Vektorräume mit den Basen $B=(x_1,...,x_n)$ und $C=(y_1,...,y_m)$.
\begin{definition}[darstellende Matrix]
Sei $f\in \Hom_K(V,W)$. Für $j=1,...,n$ schreiben wir $f(x_j)=\sum_{
i=1}^m a_{ij}y_i$ mit eindeutig bestimmten $a_{ij}\in K$. Die Matrix $M_C^B(f)=(a_{ij})\in \Mat_{m\times n}(K)$
heißt die \begriff{darstellende Matrix} von $f$ bezüglich der Basen $B$ und $C$.
\end{definition}
\begin{proposition}
\proplbl{3_6_2}
Sei $f\in \Hom_K(V,W)$. Die darstellende Matrix $M_C^B(f)$ ist die eindeutig bestimmte Matrix $A\in
\Mat_{n\times m}(K)$, für die das folgenden Diagramm kommutiert: \\
\begin{center}\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{K^n & K^m \\ V & W \\};
\path[-stealth]
(m-1-1) edge node [left] {$\Phi_B$} (m-2-1)
edge node [above] {$f_A$} (m-1-2)
(m-2-1) edge node [below] {$f$} (m-2-2)
(m-1-2) edge node [right] {$\Phi_C$} (m-2-2);
\end{tikzpicture}\end{center}
d.h. $f\circ \Phi_B=\Phi_C\circ f_A$.
\end{proposition}
\begin{proof}
Sei zunächst $A=M_C^B(f)$. Für $j=1,...,n$ ist $\Phi_C(f_A(e_j))=\Phi_C((a_{1j},...,a_{mj})^t)=\sum_{i=1}^m
a_{ij}\cdot y_i=f(x_j)=f(\Phi_B(e_j))$, also $\Phi_C\circ f_A=f \circ \Phi_B$. \\
Sei umgekehrt $A\in \Mat_{m\times n}(K)$ mit $\Phi_C\circ f_A=f\circ\Phi_B$. Da $\Phi_B$ und $\Phi_C$ Isomorphismen
sind, ist $f_A$ eindeutig bestimmt: $f_A=\Phi_C^{-1}\circ f \circ \Phi_B$ und deshalb auch $A$ (\propref{3_5_12}).
\end{proof}
\begin{conclusion}
\proplbl{3_6_3}
Die Abbildung $M_C^B$: $\Hom_K(V,W)\to \Mat_{m\times n}(K)$ ist ein Isomorphismus von $K$-Vektorräumen.
\end{conclusion}
\begin{proof}
Definiere $A$: $\Hom_K(V,W)\to \Mat_{m\times n}(K)$ mit $f\mapsto \Phi_C^{-1}\circ f \circ \Phi_B$. $A(f)=F_{m\times n}
(M_C^B(f))$, also $A=F_{m\times n}\circ M_C^B$. Die Abbildung ist bijektiv, da $\Phi_B$ und $\Phi_C$ bijektiv sind,
und linear, da $\Phi_B$ und $\Phi_C$ linear sind (\propref{3_5_8}). Also ist $A$ ein Isomorphismus. Da auch $F_{m\times n}^{-1}$ ein
Isomorphismus ist (\propref{3_5_12}), ist folglich auch $M_C^B=F_{m\times n}^{-1}\circ A$.
\end{proof}
\begin{lemma}
\proplbl{3_6_4}
Sei $U$ ein weiterer $K$-Vektorraum mit endlicher Basis $D$. Für $f\in \Hom_K(V,W)$ und $g\in \Hom_K(U,V)$ ist
\begin{align}
M_C^B(f)\cdot M_B^D(g)=M_C^D(f\circ g)\notag
\end{align}
\end{lemma}
\begin{proof}
Sei $r=\dim_K(U)$ und $A=M_B^D(g)$ und $B=M_C^B(f)$. Nach \propref{3_6_2} kommutieren die beiden kleinen Quadrate in:
\begin{center}\begin{tikzpicture}
\matrix (n) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{K^r & K^n & K^m \\ U & V & W \\};
\path[-stealth]
(n-1-1) edge node [left] {$\Phi_D$} (n-2-1)
edge node [above] {$f_A$} (n-1-2)
(n-2-1) edge node [below] {$g$} (n-2-2)
(n-2-2) edge node [below] {$f$} (n-2-3)
(n-1-2) edge node [right] {$\Phi_B$} (n-2-2)
(n-1-2) edge node [above] {$f_B$} (n-1-3)
(n-1-3) edge node [right] {$\Phi_C$} (n-2-3);
\end{tikzpicture}\end{center}
Deshalb kommutiert auch:
\begin{center}\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{K^r & K^m \\ U & W \\};
\path[-stealth]
(m-1-1) edge node [left] {$\Phi_D$} (m-2-1)
edge node [above] {$f_B \circ f_A$} (m-1-2)
(m-2-1) edge node [below] {$f\circ g$} (m-2-2)
(m-1-2) edge node [right] {$\Phi_C$} (m-2-2);
\end{tikzpicture}\end{center}
Die Eindeutigkeit in \propref{3_6_2} impliziert deshalb, dass $F_{m\times n}(M_C^B(f))\circ F_{r\times m}(M_B^D(g))=F_{r\times n}
(M_C^D(f\circ g))$. Da $F_{r\times n}$ injektiv ist, folgt mit \propref{3_5_11} und \propref{3_5_12} $M_C^B(f)\cdot M_B^D(g)=M_C^D(f\circ g)$.
\end{proof}
\begin{conclusion}
\proplbl{3_6_5}
Sei $f\in \Hom_K(V,W)$. Genau dann ist $f$ ein Isomorphismus, wenn $m=n$ und $M_C^B(f)=\GL_(K)$. In
diesem Fall ist $M_B^C(f^{-1})=M_C^B(f)^{-1}$.
\end{conclusion}
\begin{proof}
Sei $A=M_C^B(f)$. Nach \propref{3_6_2} ist $f$ genau dann ein Isomorphismus, wenn $f_A$ einer ist, und in diesem Fall ist $m=n$. Zudem ist
$f_A$ genau dann ein Isomorphismus, wenn $A\in \GL_(K)$ (\propref{3_5_12}). Ist $f$ ein Isomorphismus, so ist $M_B^C(f^{-1})\cdot
M_C^B(f)=M_C^C(f^{-1}\circ f)=\mathbbm{1}_n$, also $M_B^C(f^{-1})=M_C^B(f)^{-1}$ (\propref{3_6_4}).
\end{proof}
\begin{conclusion}
\proplbl{3_6_6}
Die Abbildung $M_B:=M_B^B$: $\End_K(V)\to \Mat_n(K)$ ist ein Ringisomorphismus, der $\Aut_K(V)$ auf
$\GL_(K)$ abbildet.
\end{conclusion}
\begin{proof}
\propref{3_6_3}, \propref{3_6_4}, \propref{3_6_5}
\end{proof}
\begin{definition}[Transformationsmatrix]
Sind $B$ und $B'$ Basen von $V$, so nennt man $T_{B'}^B:=M_{B'}^B(\id_V)\in
\GL_(K)$ die \begriff{Transformationsmatrix} des Basiswechsels von $B$ nach $B'$.
\end{definition}
\begin{remark}
Nach \propref{3_6_2} ist $T_{B'}^B$, also die Matrix $A$, die $f_A=\Phi_B^{-1}\circ \Phi_B$
erfüllt. Ist $x=\Phi_B^{-1}(v)\in K^n$ der Koordinatenvektor von $v$ bezüglich $B$, so ist $T_{B'}^B\cdot
x=f_{T_{B'}^B}(x)=(\Phi_{B'}\circ \Phi_B)(\Phi_B^{-1}(v))=\Phi_{B'}^{-1}(v)$ der Koordinatenvektor von $v$
bezüglich $B'$.
\end{remark}
\begin{proposition}[Transformationsformel]
Seien $B,B'$ Basen von $V$ und $C,C'$ Basen von $W$. Für $f\in \Hom_K(V,W)$ ist
\begin{align}
M_{C'}^B(f)=T_{C'}^C\cdot M_C^B(f)\cdot (T_{B'}^B)^{-1}\notag
\end{align}
\end{proposition}
\begin{proof}
$f=\id_W\circ f \circ \id_V$ mit den Basen $B',B,C,C'$ und erhält (\propref{3_6_4}) $M_{C'}^{B'}(f)=M_{C'}^C(\id_W)\cdot M_C^B(f)\cdot
M_B^{B'}(\id_V)=T_{C'}^C\cdot M_C^B(f)\cdot T_B^{B'}$ und $T_B^{B'}=M_B^{B'}(\id_V)=M_B^{B'}(\id_V^{-1})=M_{B'}^B(\id_V)^
{-1}=(T_{B'}^B)^{-1}$ nach \propref{3_6_5}.
\end{proof}
\begin{conclusion}
Sind $B$ und $B'$ Basen von $V$ und $f\in \End_K(V)$, so gilt $M_{B'}(f)=T_{B'}^B \cdot M_B(f)
\cdot (T_{B'}^B)^{-1}$.
\end{conclusion}

View file

@ -0,0 +1,184 @@
\section{Lineare Gleichungssysteme}
Sei $A\in \Mat_{m\times n}(K)$ und $b\in K^m$.
\begin{definition}[Lineares Gleichungssystem]
Unter einem \begriff{Linearen Gleichungssystem} verstehen wir eine Gleichung der Form $Ax=b$.
Diese heißt \begriff{homogen}, wenn $b=0$, sonst \begriff{inhomogen} und $L(A,b)=\{x\in K^n\mid Ax=b\}$ ist sein \begriff{Lösungsraum}.
\end{definition}
\begin{mathematica}[Lineare Gleichungssysteme]
Für das Lösen von Linearen Gleichungssystemen gibt es in WolframAlpha bzw. Mathematica verschiedene Verfahren:
\begin{itemize}
\item \texttt{Solve[]}:
\begin{align}
\texttt{Solve[a == 2 b \&\& b == 5 \&\& c + a == b, \{a, b, c\}]}\notag
\end{align}
\item \texttt{LinearSolve[]}: Braucht 2 Argumente: Zum einen die Koeffizientenmatrix $A$ und den Ergebnisvektor $b$. Rückgabe ist dann der Variablenvektor $x$.
\begin{align}
\texttt{LinearSolve[\{\{1, 1\}, \{0, 1\}\}, \{6, 10\}]}\notag
\end{align}
\end{itemize}
\end{mathematica}
\begin{remark}
Ist $A=(a_{ij})$, $b=(b_1,...,b_m)^t$, so schreibt man das Lineare Gleichungssystem $Ax=b$ auch
\begin{align}
\begin{vmatrix}
a_{11}x_1 + \dots + a_{1n}x_n & = & b_1\\
\vdots & \vdots & \vdots\\
a_{m1}x_1 + \dots + a_{mn}x_n & = & b_m\\
\end{vmatrix}\notag
\end{align}
\end{remark}
\begin{remark}
Das homogene System $Ax=0$ hat als Lösungsraum den Untervektorraum $L(A,0)=\Ker(f_A)$ der Dimension $\dim_K(L(A,0))=n-\rk(A)$. Das
inhomogene System hat entweder $L(A,b)=\emptyset$ oder der Lösungsraum ist der affine Unterraum $L(A,b)=f^{-1}(b)=x_0+L(A,0)$, wobei
$x_0\in L(A,b)$ beliebig. Man erhält so alle Lösungen des inhomogenen Systems, wenn man eine Lösung und die Lösungen des homogenen
Systems kennt.
\end{remark}
\begin{definition}[Zeilenstufenform]
Die Matrix $A=(a_{ij})$ hat \begriff{Zeilenstufenform}, wenn es ganze Zahlen $0\le r \le m$ und $1\le
k_1<...<k_r\le n$ gibt mit:
\begin{itemize}
\item für $1\le i \le r$ und $1\le j < k_i$ ist $a_{ij}=0$
\item für $1\le i \le r$ ist $a_{ik_{i}}\neq 0$ (sogenannte \begriff{Pivotelemente})
\item für $r<i\le m$ und $1\le j\le n$ ist $a_{ij}=0$
\end{itemize}
\begin{align}
\begin{pmatrix}
0 & \dots & 0 & a_{1k_{1}} & * & \dots & \dots & *\\
0 & \dots & \dots & 0 & a_{2k_{2}} & * & \dots & *\\
\vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots\\
0 & \dots & \dots & \dots & \dots & \dots & \dots & a_{rk_{r}}\\
0 & \dots & \dots & \dots & \dots & \dots & \dots & 0\\
\vdots & \; & \; & \; & \; & \; & \; & \vdots\\
0 & \dots & \dots & \dots & \dots & \dots & \dots & 0\\
\end{pmatrix}\notag
\end{align}
\end{definition}
\begin{lemma}
Sei $A$ in Zeilenstufenform. Dann ist $\rk(A)=r$.
\end{lemma}
\begin{proof}
Wegen $\rk(A)=\rk(A^t)=\dim_K(\ZR)$ genügt es zu zeigen, dass die ersten $r$ Zeilen $a_1,...,a_r$ linear unabhängig sind. Ist $\sum
_{i=1}^r \lambda a_i=0$, so ist insbesondere $0=\sum_{i=1}^r \lambda_i a_{ik_{i}}=\lambda_1 a_{1k_{1}}$, also $\lambda_1
=0$, und dann immer so weiter.
\end{proof}
\begin{proposition}
\proplbl{3_9_6}
Sei $A$ in Zeilenstufenform.
\begin{itemize}
\item Ist $b_i\neq 0$ für ein $r<i\le m$, so ist $L(A,b)=\emptyset$.
\item Ist $b_i=0$ für alle $r<i\le m$, so erhält man alle $x\in L(A,b)$, indem man erst $x_j\in K$ für $j\in \{1,..,n\}
\backslash \{k_1,...,k_r\}$ beliebig wählt und dann für $i=r,r-1,...,1$ rekursiv $x_{k_{i}}=a_{1k_{i}}^{-1}\cdot (b_i-\sum
_{j=k_i+1}^n a_{ij}\cdot x_j)\quad (*)$ setzt.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Klar.
\item Sicher erhält man auf diese Weise Lösungen $x\in L(A,b)$. Umgekehrt muss jede solche Lösung $(*)$ erfüllen, man erhält auf
diese Weise also alle.
\end{itemize}
\end{proof}
\begin{definition}[Elementarmatrizen]
Für $i,j\in \{1,...,m\}$, $\lambda \in K^{\times}$ und $\mu\in K$ definieren wir
$m\times m$-Matrizen, die sogenannten \begriff{Elementarmatrizen}:
\begin{itemize}
\item $S_i(\lambda):=\mathbbm{1}_m + (\lambda-1)E_{ii}$
\item $Q_{ij}(\mu):= \mathbbm{1}_m + \mu E_{ij}$
\item $P_{ij}:= \mathbbm{1}_m + E_{ij} + E_{ji} - E_{ii} - E_{jj}$
\end{itemize}
\end{definition}
\begin{remark}
Multiplikation einer dieser Matrizen von links an die Matrix $A$ hat folgende Wirkung:
\begin{itemize}
\item $S_i(\lambda)\cdot A$: Multiplikation der $i$-ten Zeile mit $\lambda$
\item $Q_{ij}(\mu)\cdot A$: Addition des $\mu$-fachen der $j$-ten Zeile zur $i$-ten Zeile
\item $P_{ij}$: Vertauschung von $i$-ter und $j$-ter Zeile
\end{itemize}
Man spricht dann von sogenannten elementaren Zeilenumformungen der Matrix $A$ von Typ I, II oder III.
\end{remark}
\begin{lemma}
Es sind $S_i(\lambda),Q_{ij}(\mu),P_{ij}\in \GL_m(K)$. Dann ist $S_i(\lambda)^{-1}=S_i(\lambda^{-1}), Q_{ij}(\mu)
^{-1}=Q_{ij}(-\mu),P_{ij}^{-1}=P_{ij}$. Insbesondere gilt: Ist $E$ eine der Elementarmatrizen, so ist $\ZR(EA)=\ZR(A)$ und $L(EA,0)=
L(A,0)$. Weiterhin ist $\rk(EA)=\rk(A)$.
\end{lemma}
\begin{proof}
Inverse nachprüfen. Da $E\in \GL_m(K)$ sind $f_E,f_{E^t}\in Aut_K(K^m)$, also $\ZR(EA)=\SR((EA)^t)=\Image(f_{A^tE^t})=\Image(f_{A^t}\circ
f_{E^t})=\Image(f_{A^t})=\ZR(A)$ und $L(EA,0)=\Ker(f_{EA})=\Ker(f_E\circ f_A)=\Ker(f_A)=L(A,0)$.
\end{proof}
\begin{remark}
Anders gesagt: Elementare Zeilenumformungen verändern den Lösungsraum eines homogenen linearen Gleichungssystems
nicht.
\end{remark}
\begin{theorem}[Eliminierungsverfahren nach \person{Gauß}]
\proplbl{3_9_11}
Zu jeder Matrix $A\in \Mat_{m\times n}(K)$ gibt es $l\in \mathbb N_0$ und
Elementarmatrizen $E_1,...,E_l$ vom Typ II und III für die $E_l\cdot ... \cdot E_1\cdot A$ in Zeilenstufenform ist.
\end{theorem}
\begin{proof}
Seien $a_1,...,a_n$ die Spalten von $A$. \\
Ist $A=0$ so ist nichts zu tun. \\
Sei nun $A\neq 0$ und sei $k_1$ minimal mit $a_{k_1}\neq 0$. Es gibt also ein $i$ mit $a_{ik_1}\neq 0$. Durch Vertauschen der ersten
und der $i$-ten Zeile erreichen wir, dass $a_{1k_1}=0$, d.h. wir multiplizieren $A$ mit $E_1=P_{1i}$. Nun addieren wir für $i=2,..,m$
ein geeignetes Vielfaches der ersten Zeile zur $i$-ten Zeile, um $a_{ik_1}=0$, d.h. wir multiplizieren $A$ mit $E_i=Q_{i1}(\mu_i)$ für
$\mu_i=\frac{a_{ik_1}}{a_{1k_1}}$. Nach diesen Umformungen haben wir eine Matrix der Form:
\begin{align}\begin{pmatrix}
0 & \dots & 0 & a_{1k_1} & * & \dots & *\\
0 & \dots & \dots & 0 & \textcolor{red}{*} & \textcolor{red}{\dots} & \textcolor{red}{*}\\
\vdots & \vdots & \vdots & \vdots & \textcolor{red}{\vdots} & \textcolor{red}{\vdots} & \textcolor{red}{\vdots}\\
0 & \dots & \dots & 0 & \textcolor{red}{*} & \textcolor{red}{\dots} & \textcolor{red}{*}\\
\end{pmatrix}\notag\end{align}
und können nun mit dem \textcolor{red}{Rest der Matrix $A=:A'$} von vorne beginnen. Die nun folgenden Zeilenumformungen werden die
erste Zeile und die ersten $k_1$ Spalten nicht mehr ändern, und weil $A'$ weniger Zeilen und Spalten als $A$ hat, bricht das Verfahren
nach endlich vielen Schritten ab.
\end{proof}
\begin{mathematica}[\person{Gauss}-Verfahren]
Auch für das \person{Gauss}-Verfahren hat Mathematica bzw. WolframAlpha eine Funktion. Sie gibt die Matrix nach Ausführung des \person{Gauss}-Algorithmus zurück.
\begin{align}
\texttt{RowReduce[\{\{1, 4\}, \{2, 5\}\}]}\notag
\end{align}
\end{mathematica}
\begin{conclusion}
Zu jeder Matrix $A$ gibt es eine invertierbare Matrix $S\in \GL_n(K)$ für die $SA$ in Zeilenstufenform ist.
\end{conclusion}
\begin{proof}
folgt direkt aus \propref{3_9_11} mit $S=E_l\cdot ... \cdot E_1$
\end{proof}
\begin{remark}
Der Beweis für das Eliminierungsverfahren (\propref{3_9_11}) liefert ein Verfahren, die Elementarmatrizen $E_1,...,E_l$ zu finden.
Damit erhält man ein Verfahren ein lineares Gleichungssystem zu lösen. Setzt man $S=E_l\cdot ... \cdot E_1$, $A'=SA$ und $b'=Sb$, so
ist $L(A,b)=L(A',b')$: $Ax=b\Rightarrow SAx=Sb$ bzw. $A'x=b' \Rightarrow S^{-1}A'x=S^{-1}b'$. \\
Das Gleichungssystem kann dann mit \propref{3_9_6} gelöst werden. Praktisch führt man die elementaren Zeilenumformungen an $A$ parallel dazu auch an $b$
durch.
\end{remark}
\begin{remark}
Es gibt von diesem Verfahren verschiedene Varianten und weitere Anwendungen: So kann man z.B. die Invertierbarkeit
einer Matrix $A\in \Mat_n(K)$ prüfen und ggf. das Inverse bestimmen: Ist $E_l\cdot ... \cdot E_1\cdot A$ in Zeilenstufenform, so ist $A$
genau dann invertierbar, wenn alle Zeilen von Null verschieden sind. Ist dies der Fall, so ist $r=n$ und $k_i=i$ für alle $i$,
und man findet weitere Elementarmatrizen $E_{l+1},...,E_s$ vom Typ I und II, für die $E_s\cdot ... \cdot E_1\cdot A=\mathbbm{1}_n$. Dann ist
$S'=E_s\cdot ... \cdot E_1\cdot A=A^{-1}$ (vgl. \propref{3_8_11}). Praktisch erhält man $A^{-1}$, indem man die Zeilenumformungen an $A$ parallel dazu
auch an $\mathbbm{1}_n$ ausführt.
\end{remark}
\begin{conclusion}
Jedes $A\in \GL_m(K)$ ist ein Produkt von Elementarmatrizen.
\end{conclusion}
\begin{proof}
$A^{-1}=S'=E_s\cdot ... \cdot E_1 \Rightarrow A=(E_s\cdot ... \cdot E_1)^{-1}=E_1^{-1}\cdot ... \cdot E_s^{-1}$
\end{proof}

View file

@ -0,0 +1,175 @@
\section{Linearkombinationen}
Sei $V$ ein $K$-Vektorraum.
\begin{definition}[Linearkombination]
\begin{itemize}
\item Sei $n \in \mathbb N_0$. Ein $x \in V$ ist eine \begriff{Linearkombination} eines $n$-Tupels $(x_1,...,x_n)$ von
Elementen von $V$, wenn es $\lambda_1,...,\lambda_n \in K$ gibt mit $x=\lambda_1\cdot x_1,...,\lambda_n \cdot
x_n$. Der Nullvektor ist stets eine Linearkombination von $(x_1,...,x_n)$ auch wenn $n=0$.
\item Ein $x\in V$ ist eine Linearkombination einer Familie $(x_i)$ von Elementen von $V$, wenn es $n \in \mathbb
N_0$ und $i_1,...,i_n \in I$ gibt, für die $x$ Linearkombination von $(x\cdot i_1,...,x\cdot i_n)$ ist.
\item Die Menge aller $x \in V$, die Linearkombination von $\mathcal F=(x_i)$ sind, wird mit $\Span_K(\mathcal F)$
bezeichnet.
\end{itemize}
\end{definition}
\begin{remark}
\begin{itemize}
\item Offenbar hängt die Menge der Linearkombinationen von $(x_1,...,x_n)$ nicht von der Reihenfolge der $x_i$ ab.
Wegen (V2)(ii) hängt sie sogar nur von der Menge $\{x_1,...,x_n\}$ ab.
\item Deshalb stimmt 2. für endliche Familien $(x_1,...,x_n)$ mit 1. überein.
\item Auch die Menge der Linearkombinationen einer Familie $\mathcal F=(x_1,...,x_n)$ hängt nur von der Menge $X=
\{x_i \mid i \in I\}$ ab. Man sagt deshalb auch, $x$ ist Linearkombination von $X$ und schreibt $\Span_K(X)=\Span_K(
\mathcal F)$, also $\Span_K(X)=\{\sum _{i=1}^n \lambda_i\cdot n_i \mid n \in \mathbb N_0, x_i \in X, \lambda_1,
...,\lambda_n \in K\}$. Nach Definition in $0 \in \Span_K(X)$ auch für $X=\emptyset$.
\item Wie schon bei Polynomen schreibt man hier gerne formal unendliche Summen $x=\sum_{i \in I} \lambda_i
\cdot x_i$, bei denen nur endlich viele $\lambda_i$ von 0 verschieden sind.
\end{itemize}
\end{remark}
\begin{lemma}
Für jede Teilmenge $X \subseteq V$ ist $\Span_K(X)$ ein Untervektorraum von $V$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item Sei $W=\Span_K(X)$. Nach Definition ist $0 \in W$, insbesondere $W\neq\emptyset$
\item (UV1): Sind $x,y \in W$, also $x=\lambda_1\cdot x+...+\lambda_n\cdot x_n$ und $y=\mu_1\cdot x+...+
\mu_n\cdot x_n$, so ist $x+y=(\lambda_1+\mu_1)x_1+...+(\lambda_n+\mu_n)x_n \in W$
\item (UV2): Ist $\lambda \in K$ und $x \in W$, so ist $\lambda x=\lambda\cdot\sum_{i=1}^n \lambda_i\cdot x_i=
\sum_{i=1}^n (\lambda\cdot\lambda_i)x_i \in W$
\end{itemize}
\end{proof}
\begin{proposition}
Für jede Teilmenge $X \subseteq V$ ist $\Span_K(X)=\langle X\rangle$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\Span_K(X)$ ist Untervektorraum von $V$, der wegen $x=x\cdot 1$ die Menge $X$ enthält, und $\langle X\rangle$ ist der kleinste solche.
\item Ist $W\subseteq V$ ein Untervektorraum von $V$, der $X$ enthält, so enthält er auch wegen (UV2) alle Elemente der Form
$\lambda\cdot x$, und wegen (UV1) dann auch alle Linearkombinationen aus $X$. Insbesondere gilt dies auch für $W=\langle X\rangle$
\end{itemize}
\end{proof}
\begin{remark}
Wir erhalten $\Span_K(X)=\langle X\rangle$ auf 2 verschiedenen Wegen. Erstens "'von oben"' als Schnitt über alle Untervektorraum
von $V$, die $X$ enthalten und zweitens "'von unten"' als Menge der Linearkombinationen. Man nennt $\Span_K(X)$ auch den
von $X$ aufgespannten Untervektorraum oder die lineare Hülle von $X$.
\end{remark}
\begin{example}
\proplbl{2_2_6}
\begin{itemize}
\item Sei $V=K^n$ der Standardraum. Für $i=1,...,n$ sei $e_i=(\delta_{i,1},...,\delta_{i,n})$, also $e_1=(1,0,...0)$,
$e_2=(0,1,0,...,0),...,e_n=(0,...,1)$. Für $x=(x_1,...,x_n) \in V$ ist $x=\sum_{i=1}^n x_i\cdot e_1$, folglich
$\Span_K(e_1,..,e_n)=V$. Insbesondere ist $K^n$ eindeutig erzeugt. Man nennt $(e_1,...,e_n)$ die Standardbasis des
Standardraums $K^n$.
\item Sei $V=K[X]$ Polynomring über $K$. Da $f=\sum_{i=1}^n a_i\cdot X^i$ ist $\Span_K((X^i)_{i \in I})=K[X]$.
Genauer ist $\Span_K(1,X,X^2,...,X^n)=K[X]_{\le n}$. Tatsächlich ist der $K$-Vektorraum $K[X]$ nicht endlich erzeugt. Sind
$f_1,...,f_r \in K[X]$ und ist $d=\max\{\deg(f_1),...,\deg(f_r)\}$, so sind $f_1,...,f_r \in K[X]_{\le d}$ und somit
$\Span_K(f_1,...,f_r) \subseteq K[X]_{\le d}$, aber es gibt Polynome, deren Grad größer $d$ ist.
\item Für $x \in V$ ist $\langle x\rangle=\Span_K(x)=K\cdot x$. Im Fall $K=\mathbb R$, $V=\mathbb R^3$, $x\neq 0$ ist dies eine
Ursprungsgerade.
\item Im $\mathbb R$-Vektorraum $\mathbb C$ ist $\Span_{\mathbb R}(1)=\mathbb R\cdot 1=\mathbb R$, aber im $\mathbb C$-Vektorraum
$\mathbb C$ ist $\Span_{\mathbb C}(1)=\mathbb C\cdot 1=\mathbb C$
\end{itemize}
\end{example}
\begin{definition}[linear (un)abhängig]
\begin{itemize}
\item Sei $n\in \mathbb N_0$. Ein $n$-Tupel $(x_1,...,x_n)$ von Elementen von $V$ ist \begriff{linear abhängig}, wenn es
$\lambda_1,...,\lambda_n \in K$ gibt, die nicht alle 0 sind und $\lambda_1\cdot x_1+...+\lambda_n\cdot x_n=0$ (*)
erfüllen. Andernfalls heißt das Tupel \begriff{linear unabhängig}.
\item Eine Familie $(x_i)$ von Elementen von $V$ ist linear abhängig, wenn es $n\in \mathbb N_0$ und paarweise
verschiedene $i_1,...,i_n \in I$ gibt, für die $(x_{i_1},...,x_{i_n})$ linear abhängig ist. Andernfalls linear
unabhängig.
\end{itemize}
\end{definition}
\begin{mathematica}[Lineare Unabhängigkeit]
In WolframAlpha kann man mittels
\begin{align}
\texttt{linear independence (1,2,3), (4,5,6)}\notag
\end{align}
überprüfen, ob die Vektoren $(1,2,3)^T$ und $(4,5,6)^T$ linear unabhängig sind.
\end{mathematica}
\begin{remark}
\begin{itemize}
\item Offenbar hängt die Bedingung (*) nicht von der Reihenfolge der $x_1,...,x_n$ ab und ist $(x_1,...,x_k)$ linear
abhängig für ein $k \le n$, so ist auch $(x_1,...,x_n)$ linear abhängig. Deshalb stimmt die 2. Definition für
endliche Familien mit der 1. überein und $(x_i)$ ist genau dann linear abhängig, wenn es eine endliche Teilmenge
$J \subseteq I$ gibt, für die $(x_j)$ linear abhängig ist.
\item Eine Familie ist genau dann linear unabhängig, wenn für jede endliche Teilmenge $J\subseteq I$ und für jede
Wahl an Skalaren $(\lambda_i)_{i\in J}$ aus $\sum \lambda_i\cdot x_i=0$ schon $\lambda_i=0$ folgt, also wenn sich
der Nullvektor nur trivial linear kombinieren lässt.
\end{itemize}
\end{remark}
\begin{proposition}
\proplbl{2_2_9}
Genau dann ist $(x_i)$ linear abhängig, wenn es $i_0 \in I$ gibt mit $x_{i_0} \in \Span_K((x_i)_{i\in
I\backslash\{i_0\}})$. In diesem Fall ist $\Span_K((x_i)_{i\in I})=\Span_K((x_i)_{i\in I\backslash\{i_0\}})$.
\end{proposition}
\begin{proof}
Es reicht, die Aussage für $I=\{1,...,n\}$ zu beweisen.
\begin{itemize}
\item Hinrichtung: Ist $(x_1,...,x_n)$ linear anhängig, so existieren $\lambda_1,...,\lambda_n$ mit $\sum_{i=1}^n
\lambda_i\cdot x_i=0$. oBdA. sei $\lambda_n\neq 0$. Dann ist $x_n=\lambda_n^{-1}\cdot\sum_{i=1}^{n-1} \lambda_i
\cdot x_i=\sum_{i=1}^{n-1} \lambda_n^{-1}\cdot\lambda_i\cdot x_i \in \Span_K(x_1,...,x_n)$.
\item Rückrichtung: oBdA. $i_0=n$, also $\sum_{i=0}^{n-1} \lambda_i\cdot x_i$. Mit $\lambda_n=-1$ ist $\sum
_{i=1}^n \lambda_i\cdot x_i=0$, was zeigt, dass $(x_1,...,x_n)$ linear abhängig ist. \\
Sei nun $x_n=\sum_{i=1}^{n-1} \lambda_i\cdot x_i \in \Span_K(x_1,...,x_{n-1})$. Wir zeigen, dass $\Span_K(x_1,...,
x_{n-1})=\Span_K(x_1,...,x_n)$
\begin{itemize}
\item klar, da bei mehr Elementen die Anzahl der Linearkombinationen nicht abnimmt
\item Ist $y=\sum_{i=1}^n \mu_i\cdot x_i \in \Span_K(x_1,...,x_n)$, so ist $y=\sum_{i=1}^{n-1} \mu_i+
\mu_n\cdot \lambda_i\cdot x_i \in \Span_K(x_1,...,x_n)$
\end{itemize}
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{2_2_10}
Genau dann ist $(x_i)$ linear unabhängig, wenn sich jedes $x\in \Span_K((x_i))$ in eindeutiger Weise
als Linearkombination der $(x_i)$ schreiben lässt, d.h. $x=\sum_{i\in I} \lambda_i\cdot x_i=\sum_{i
\in I} \lambda'_i\cdot x_i$, so ist $\lambda_i=\lambda'_i$
\end{proposition}
\begin{proof}
Es reicht, die Aussage für $I=\{1,...,n\}$ zu beweisen.
\begin{itemize}
\item Hinrichtung: Ist $(x_,...,x_n)$ linear unabhängig und $x=\sum_{i\in I} \lambda_i\cdot x_i=\sum_{i\in I}
\lambda'_i\cdot x_i$, so folgt daraus $\sum_{i\in I} (\lambda_i-\lambda'_i)x_i=0$ wegen der linearen
Unabhängigkeit der $x_i$, dass $\lambda_i=\lambda'_i=0$\\
\item Rückrichtung: Lässt sich jedes $x\in \Span_K(x_1,...,x_n)$ in eindeutiger Weise als Linearkombination der $x_i$ schreiben,
so gilt dies insbesondere für $x=0$. Ist also $\sum_{i=1}^n \lambda_i\cdot x_i=0$, so folgt schon $\sum_{
i=1}^n 0\cdot x_i=0$ schon $\lambda_i=0$
\end{itemize}
\end{proof}
\begin{example}
\begin{itemize}
\item Die Standardbasis $(e_1,...,e_n)$ des $K^n$ ist linear unabhängig. Es ist $\sum_{i=1}^n \lambda_i\cdot
e_i=(\lambda_1,...,\lambda_n)$
\item Im $K$-Vektorraum $K[X]$ sind die Monome $(X^i)$ linear unabhängig.
\item Ein einzelner Vektor $x\in V$ ist genau dann linear abhängig, wenn $x=0$.
\item Ein Paar $(x_1,x_2)$ von Elementen von $V$ ist linear abhängig, wenn es ein skalares Vielfaches des anderen ist, also z.B. $x_1=
\lambda\cdot x_2$.
\item Im $\mathbb R$-Vektorraum $\mathbb R^2$ sind die beiden Vektoren $(1,2)$ und $(2,1)$ linear unabhängig. \\
Im $\mathbb Z\backslash 3\mathbb Z$-Vektorraum $(\mathbb Z\backslash 3\mathbb Z)^2$ sind diese Vektoren linear unabhängig, da
$x_1+x_2=(1,2)+(2,1)=(3,3)=(0,0)=0$.
\item Im $\mathbb R$-Vektorraum $\mathbb C$ ist $(1,i)$ linear unabhängig, aber im $\mathbb C$-Vektorraum $\mathbb C$ ist $(1,i)$
linear abhängig, denn $\lambda_1\cdot 1+\lambda_2\cdot i =0$ für $\lambda_1=1$ und $\lambda_2=i$.
\end{itemize}
\end{example}
\begin{remark}
\begin{itemize}
\item Ist $x_{i_0}=0$, ist $(x_i)$ linear abhängig: $1\cdot x_{i_0}=0$
\item Gibt es $i,j\in I$ mit $i\neq j$, aber $x_i=x_j$, so ist $(x_i)$ linear abhängig: $x_i-x_j=0$
\item Dennoch sagt man auch "'die Teilmenge $X\subseteq V$ ist linear abhängig"' und meint damit, dass die Familie $(x_x)
_{x\in X}$ linear abhängig ist, d.h. es gibt ein $n\in \mathbb N_0$, $x_1,...,x_n \in X$ paarweise verschieden, mit
$\sum_{i=1}^n \lambda_i\cdot x_i=0$.
\end{itemize}
\end{remark}

View file

@ -0,0 +1,157 @@
\section{Logik und Mengen}
Wir werden die Grundlagen der Logik und der Mengenlehre kurz ansprechen.
\begin{overview}[Aussagenlogik]
Jede mathematisch sinnvolle Aussage ist entweder wahr oder falsch, aber nie beides!
\begin{itemize}
\item "'$1+1=2$"' $\to$ wahr
\item "'$1+1=3$"' $\to$ falsch
\item "'Es gibt unendlich viele Primzahlen"' $\to$ wahr
\end{itemize}
Man ordnet jeder mathematischen Aussage $A$ einen Wahrheitswert "'wahr"' oder "'falsch"' zu. Aussagen
lassen sich mit logischen Verknüpfungen zu neuen Aussagen zusammensetzen.
\begin{itemize}
\item $\lor \to$ oder
\item $\land \to$ und
\item $\lnot \to$ nicht
\item $\Rightarrow \to$ impliziert
\item $\iff \to$ äquivalent
\end{itemize}
Sind also $A$ und $B$ zwei Aussagen, so ist auch $A \lor B$, $A \land B$, $\lnot A$,
$A \Rightarrow B$ und $A \iff B$ Aussagen. Der Wahrheitswert einer zusammengesetzten Aussage ist
eindeutig bestimmt durch die Wahrheitswerte ihrer Einzelaussagen.
\begin{itemize}
\item $\lnot (1+1=3) \to$ wahr
\item "'2 ist ungerade"' $\Rightarrow$ "'3 ist gerade"' $\to$ wahr
\item "'2 ist gerade"' $\Rightarrow$ "'Es gibt unendlich viele Primzahlen"' $\to$ wahr
\end{itemize}
$\newline$
\begin{center}
\begin{tabular}{|c|c|c|c|c|c|c|}
\hline
$A$ & $B$ & $A \lor B$ & $A \land B$ & $\lnot A$ & $A \Rightarrow B$ & $A \iff B$\\
\hline
w & w & w & w & f & w & w\\
\hline
w & f & w & f & f & f & f\\
\hline
f & w & w & f & w & w & f\\
\hline
f & f & f & f & w & w & w\\
\hline
\end{tabular}
\end{center}
\end{overview}
\begin{overview}[Prädikatenlogik]
Wir werden die Quantoren
\begin{itemize}
\item $\forall$ (Allquantor, "'für alle"') und
\item $\exists$ (Existenzquantor, "'es gibt"') verwenden.
\end{itemize}
Ist $P(x)$ eine Aussage, deren Wahrheitswert von einem unbestimmten $x$ abhängt, so ist \\
$\forall x: P(x)$ genau dann wahr, wenn $P(x)$ für alle $x$ wahr ist, \\
$\exists x: P(x)$ genau dann wahr, wenn $P(x)$ für mindestens ein $x$ wahr ist. \\
$\newline$
Insbesondere ist $\lnot \forall x: P(x)$ genau dann wahr, wenn $\exists x: \lnot P(x)$ wahr ist. \\
Analog ist $\lnot \exists x: P(x)$ genau dann wahr, wenn $\forall x: \lnot P(x)$ wahr ist.
\end{overview}
\begin{overview}[Beweise]
Unter einem Beweis verstehen wir die lückenlose Herleitung einer mathematischen Aussage aus einer
Menge von Axiomen, Voraussetzungen und schon früher bewiesenen Aussagen. \\
Einige Beweismethoden:
\begin{itemize}
\item \textbf{Widerspruchsbeweis} \\
Man nimmt an, dass eine zu beweisende Aussage $A$ falsch sei und leitet daraus ab, dass eine
andere Aussage sowohl falsch als auch wahr ist. Formal nutzt man die Gültigkeit der Aussage
$\lnot A \Rightarrow (B \land \lnot B) \Rightarrow A$.
\item \textbf{Kontraposition} \\
Ist eine Aussage $A \Rightarrow B$ zu beweisen, kann man stattdessen die Implikation
$\lnot B \Rightarrow \lnot A$ beweisen.
\item \textbf{vollständige Induktion} \\
Will man eine Aussage $P(n)$ für alle natürlichen Zahlen zeigen, so genügt es, zu zeigen,
dass $P(1)$ gilt und dass unter der Induktionsbehauptung $P(n)$ stets auch $P(n+1)$ gilt
(Induktionschritt). Dann gilt $P(n)$ für alle $n$. \\
Es gilt also das Induktionsschema: $P(1) \land \forall n: (P(n) \Rightarrow P(n+1)) \Rightarrow
\forall n: P(n)$.
\end{itemize}
\end{overview}
\begin{overview}[Mengenlehre]
Jede Menge ist eine Zusammenfassung bestimmter wohlunterscheidbarer Objekte zu einem Ganzen. Eine
Menge enthält also solche Objekte, die Elemente der Menge. Die Menge ist durch ihre Elemente
vollständig bestimmt. Diese Objekte können für uns verschiedene mathematische Objekte, wie
Zahlen, Funktionen oder andere Mengen sein. Man schreibt $x \in M$ bzw. $x \notin M$, wenn x ein
bzw. kein Element der Menge ist.
Ist $P(x)$ ein Prädikat, so bezeichnet man eine Menge mit $X := \{x \mid P(x)\}$. Hierbei muss
man vorsichtig sein, denn nicht immer lassen sich alle $x$ für die $P(x)$ gilt, widerspruchsfrei
zu einer Menge zusammenfassen.
\end{overview}
\begin{example}[endliche Mengen]
Eine Menge heißt endlich, wenn sie nur endlich viele Elemente enthält. Endliche Mengen
notiert man oft in aufzählender Form: $M = \{1;2;3;4;5;6\}$. Hierbei ist die Reihenfolge
der Elemente nicht relevant, auch nicht die Häufigkeit eines Elements. \\
Sind die Elemente paarweise verschieden, dann ist die Anzahl der Elemente die Mächtigkeit
(oder Kardinalität) der Menge, die wir mit $|M|$ bezeichnen.
\end{example}
\begin{example}[unendliche Mengen]
\begin{itemize}
\item Menge der natürlichen Zahlen: $\mathbb N := \{1,2,3,4,...\}$
\item Menge der natürlichen Zahlen mit der 0: $\mathbb N_0 := \{0,1,2,3,4,...\}$
\item Menge der ganzen Zahlen: $\mathbb Z := \{...,-2,-1,0,1,2,...\}$
\item Menge der rationalen Zahlen: $\mathbb Q := \{\frac p q \mid p,q \in \mathbb Z, q
\neq 0\}$
\item Menge der reellen Zahlen: $\mathbb R := \{x \mid x$ ist eine reelle Zahl$\}$
\end{itemize}
Ist $M$ eine Menge, so gilt $|M|=\infty$
\end{example}
\begin{example}[leere Menge]
Es gibt genau eine Menge, die keine Elemente hat, die leere Menge $\emptyset := \{\}$.
\end{example}
\begin{definition}[Teilmenge]
\proplbl{1_1_8}
Sind $X$ und $Y$ zwei Mengen, so heißt $X$ eine \begriff{Teilmenge} von
$Y$, wenn jedes Element von $X$ auch Element von $Y$ ist, dass heißt wenn für alle
$x$ $(x \in X \Rightarrow x \in Y)$ gilt.
\end{definition}
Da eine Menge durch ihre Elemente bestimmt ist, gilt $X = Y \Rightarrow (X \subset Y)\land
(Y \subset X)$. Will man Mengengleichheit beweisen, so genügt es, die beiden Inklusionen
$X \subset Y$ und $Y \subset X$ zu beweisen. \\
Ist $X$ eine Menge und $P(x)$ ein Prädikat, so bezeichnet man mit $Y:= \{x \in X \mid
P(x)\}$ die Teilmenge von $X$, die das Prädikat $P(x)$ erfüllen. \\
\begin{definition}[Mengenoperationen]
Seien $X$ und $Y$ Mengen. Man definiert daraus
weitere Mengen wie folgt (\begriff{Mengenoperationen}):
\begin{itemize}
\item $X \cup Y := \{x \mid x \in X \lor x \in Y\}$
\item $X \cap Y := \{x \mid x \in X \land x \in Y\}$
\item $X \backslash Y := \{x \in X \mid x \notin Y\}$
\item $X \times Y := \{(x,y) \mid x \in X \land y \in Y\}$
\item $\mathcal P(X) := \{Y \mid Y \subset X\}$
\end{itemize}
\end{definition}
Neben den offensichtlichen Mengengesetzen, wie dem Kommutativgesetz, gibt es auch weniger
offensichtliche Gesetze, wie die Gesetze von \person{de Morgan}: Für $X_1, X_2 \subset X$ gilt:
\begin{itemize}
\item $X \backslash (X_1 \cup X_2) = (X \backslash X_1) \cap (X \backslash X_2)$
\item $X \backslash (X_1 \cap X_2) = (X \backslash X_1) \cup (X \backslash X_2)$
\end{itemize}
Sind $X$ und $Y$ endliche Mengen, so gilt:
\begin{itemize}
\item $|X \times Y| = |X| \cdot |Y|$
\item $|\mathcal P(X)| = 2^{|X|}$
\end{itemize}

View file

@ -0,0 +1,201 @@
\section{Matrizen}
Sei $K$ ein Körper.
\begin{definition}[Matrix]
Seien $m,n \in \mathbb N_0$. Eine $m\times n$-\begriff{Matrix} über $K$ ist ein rechteckiges
Schema:
\begin{align}
\begin{pmatrix}
a_{11} & ... & a_{1n}\\
... & & ...\\
a_{m1} & ... & a_{mn}\\
\end{pmatrix}\notag
\end{align}
Man schreibt dies auch als $A=(a_{ij})_{i=1,...,n \; j=1,...,m}$ oder $A=(a_{ij})_{i,j}$, wenn $m$ und $n$
aus dem Kontext hervorgehen. Die $a_{ij}$ heißen die \begriff[Matrix!]{Koeffizienten} der Matrix $A$ und wir definieren $A_{i,j}=
a_{ij}$. Die Menge der $m\times n$-Matrizen über $K$ wird mit $\Mat_{m\times n}(K)$ oder $K^{m\times n}$
bezeichnet. Man nennt das Paar $(m,n)$ auch den \begriff[Matrix!]{Typ} von $A$. Ist $m=n$, so spricht man von \begriff[Matrix!]{quadratisch}en
Matrizen und schreibt $\Mat_n(K)$. Zu einer Matrix $A=(a_{ij}) \in \Mat_{m\times n}(K)$ definiert man die zu $A$
\begriff[Matrix!]{transponierte Matrix} $A^t := (a_{ij})_{j,i} \in \Mat_{n\times m}(K)$.
\end{definition}
\begin{mathematica}[Matrizen]
Matrizen werden in Mathematica bzw. WolframAlpha folgendermaßen dargestellt:
\begin{align}
&\begin{pmatrix}1&2&3\\4&5&6\\7&8&9\end{pmatrix}\notag \\
\Rightarrow&\Big\lbrace\texttt{\{1,2,3\},\{4,5,6\},\{7,8,9\}}\Big\rbrace\notag
\end{align}
Wenn Mathematica als Ergebnis eine Matrix ausgibt, so lässt sich diese als Zeile schlecht lesen. Mit dem Suffix \texttt{//MatrixForm} lässt sich der Output als Matrix formatieren:
\begin{align}
&\texttt{\{\{1,2,3\},\{4,5,6\},\{7,8,9\}\}*3 //MatrixForm}\notag \\
\Rightarrow&\begin{pmatrix}3&6&9\\12&15&18\\21&24&27\end{pmatrix}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{itemize}
\item Die \begriff{Nullmatrix} ist $0=(0)_{i,j} \in \Mat_{m\times n}(K)$.
\item Für $k,l \in \{1,...,n\}$ ist die $(k,l)$-\begriff{Basismatrix} gegeben durch $E_{kl}=(\delta_{jk}\delta_{jl})\in
\Mat_{m\times n}(K)$.
\item Die \begriff{Einheitsmatrix} ist $\mathbbm{1}_n=(\delta_{ii})\in \Mat_n(K)$.
\item Für $a_i,...,a_n \in K$ definiert man eine \begriff{Diagonalmatrix} $\diag(a_1,...,a_n)=(\delta_{ij}\cdot a_i)$.
\item Für eine Permutation $\sigma\in S_n$ definiert man die \begriff{Permutationsmatrix} $P_\sigma := (\delta_{\sigma
(i),j})$.
\item Für $a_1,...,a_n$ definiert man einen \begriff{Zeilenvektor} $(a_1,...,a_n)\in \Mat_{1\times n}(K)$ bzw. einen
\begriff{Spaltenvektor} $(a_1,...,a_n)^t$.
\end{itemize}
\end{example}
\begin{definition}[Addition und Skalarmultiplikation]
Seien $A=(a_{ij})$ und $B=(b_{ij})$ desselben Typs und
$\lambda \in K$. Man definiert auf $\Mat_{m\times n}(K)$ eine koeffizientenweise \begriff[Matrix!]{Addition} und \begriff[Matrix!]{Skalarmultiplikation}.
\end{definition}
\begin{mathematica}[Matrizenoperationen]
Die komponentenweise Addition bzw. Skalarmultiplikation von Matrizen $A$ und $B$ lässt sich in Mathematica bzw. WolframAlpha folgendermaßen realisieren:
\begin{align}
\texttt{A+B}\notag \\
\texttt{A*B}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{3_1_4}
$(\Mat_{m\times n},+,\cdot)$ ist ein $K$-Vektorraum der Dimension $\dim_K(\Mat_{m\times n})=n\cdot m$ mit
Basismatrix als Basis.
\end{proposition}
\begin{proof}
Dies ist klar, weil wir $\Mat_{m\times n}$ mit dem Standardraum $K^{mn}$ identifizieren können. Wir haben die
Elemente nur als $m\times n$-Matrix statt als $mn$-Tupel geschrieben.
\end{proof}
\begin{definition}[Matrizenmultiplikation]
Seien $m,n,r \in \mathbb N_0$. Sind $A=(a_{ij})\in \Mat_{m\times n}(K)$,
$B=(b_{jk})\in \Mat_{n\times r}(K)$ so definieren wir die \begriff[Matrix!]{Matrizenmultiplikation} $C=AB$ als die Matrix $C=(c_{ik})\in \Mat_{m\times r}(K)$ mit
$c_{ik}=\sum_{j=1}^n a_{ij}\cdot b_{jk}$. Kurz geschrieben "'Zeile $\cdot$ Spalte"'.
\end{definition}
\begin{mathematica}[Matrizenmultiplikation]
Die Matrizenmultiplikation in Mathematica und WolframAlpha für Matrizen $A$ und $B$ geht so:
\begin{align}
\texttt{A.B}\text{ oder }\texttt{Dot[A,B]}\notag
\end{align}
\end{mathematica}
\begin{example}
\proplbl{3_1_6}
\begin{itemize}
\item Für $A\in \Mat_n(K)$ ist $0\cdot A=0$ und $1\cdot A=A$.
\item Für $\sigma \in S_n$ und $A\in \Mat_{n\times r}(K)$ geht $P_{\sigma}\cdot A$ aus $A$ durch Permutation der
Zeilen hervor.
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{3_1_7}
Für $m,n,r \in \mathbb N_0$ und $A=(a_{ij})\in \Mat_{m\times n}(K)$, $B=(b_{jk})\in \Mat_
{n\times r}(K)$ und $\lambda\in K$ gilt:
\begin{align}
A(\lambda B)=(\lambda A)B=\lambda(AB)\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $A=(a_{ij})$, $B=(b_{jk})$. Dann ist $A(\lambda B)=\sum_{j=1}^n a_{ij}\cdot \lambda b_{jk}=\sum
_{j=1}^n \lambda a_{ij} \cdot b_{jk}=(\lambda A)B=\lambda \cdot \sum_{j=1}^n a_{ij}b_{jk}=\lambda
(AB)$.
\end{proof}
\begin{lemma}
\proplbl{3_1_8}
Matrizenmultiplikation ist assoziativ:
\begin{align}
A(BC)=(AB)C\notag
\end{align}
\end{lemma}
\begin{proof}
Sei $D=BC\in \Mat_{n\times s}(K)$, $E=AB \in \Mat_{m\times r}(K)$. Schreibe $A=(a_{ij})$ usw. Für $i,l$ ist $(AD)=
\sum_{j=1}^n a_{ij}d_{jl}=\sum_{j=1}^n a_{ij}\cdot \sum_{k=1}^r b_{jk}c_{kl}=\sum
_{j=1}^n \sum_{k=1}^n a_{ij}b_{jk}c_{kl}$. \\
$(EC)=\sum_{k=1}^n e_{ik}c_{kl}=\sum_{k=1}^r \sum_{j=1}^n a_{ij}b_{jk}c_{kl}$. Also ist
$AD=EC$.
\end{proof}
\begin{lemma}
\proplbl{3_1_9}
Für $m,n,r\in \mathbb N_0$ und $A,A'\in \Mat_{m\times n}(K)$, $B,B'\in \Mat_{n\times r}(K)$ ist
\begin{align}
(A+A')B&=AB+A'B\notag \\
A(B'+B)&=AB'+AB\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $A=(a_{ij})$ etc. Dann ist $(A+A')B=\sum_{j=1}^n (a_{ij}+a'{ij})b_{jk}=\sum_{j=1}^n
a_{ij}+b_{jk} + \sum_{j=1}^n a'_{ij}+b_{jk}=(AB+A'B)$. Rest analog.
\end{proof}
\begin{proposition}
Mit der Matrizenmultiplikation wird $\Mat_n(K)$ zu einem Ring mit Einselement $1$.
\end{proposition}
\begin{proof}
Nach \propref{3_1_4}, \propref{3_1_8} und \propref{3_1_9} ist $\Mat_n(K)$ ein Ring und dass $\mathbbm{1}_n$ ein neutrales Element ist, haben wir schon in \propref{3_1_6} gesehen
\end{proof}
\begin{example}
\begin{itemize}
\item Für $n=1$ können wir dem Ring $\Mat_n(K)$ mit $K$ identifizieren, der Ring ist also ein Körper,
insbesondere ist er kommutativ.
\item Für $n\ge 2$ ist $\Mat_n(K)$ nicht kommutativ.
\end{itemize}
\end{example}
\begin{definition}[invertierbar]
Eine Matrix $A\in \Mat_n(K)$ heißt \begriff[Matrix!]{invertierbar} oder \begriff[Matrix!]{regulär}, wenn sie im Ring
$\Mat_n(K)$ invertierbar ist, sonst \begriff[Matrix!]{singulär}. Die Gruppe $\GL_n(K)=\Mat_n(K)^{\times}$ der invertierbaren $n\times n$
-Matrizen heißt \begriff{allgemeine Gruppe}.
\end{definition}
\begin{mathematica}[Matizen invertieren]
Das Inverse einer Matrix $A$ in Mathematica bzw. WolframAlpha lässt sich mit der Funktion
\begin{align}
\texttt{Inverse[A]}\notag
\end{align}
berechnen.
\end{mathematica}
\begin{example}
\proplbl{3_1_13}
Sei $n=2$. Zu
\begin{align}
A=\begin{pmatrix}a & b\\c & d\\\end{pmatrix} \in \Mat_2(K)\notag
\end{align}
definiert man
\begin{align}
\tilde A=
\begin{pmatrix}d & -b\\-c & a\\\end{pmatrix}\in \Mat_2(K)\notag
\end{align}
Man prüft nach, dass $A\cdot \tilde A=\tilde A\cdot A=
(ad-bc)\cdot \mathbbm{1}_2$. Definiert man nun $\det(A)=ad-bc$ so sieht man: Ist $\det(A)\neq 0$, so ist $A$ invertierbar mit
$A^{-1}=\det(A)^{-1}\cdot \tilde A$. Ist $\det(A)=0$ so $A$ ist Nullteiler und somit nicht invertierbar (\propref{1_4_13}). Mehr dazu in Kapitel IV.
\end{example}
\begin{lemma}
\proplbl{3_1_14}
Für $A,A_1,A_2\in \Mat_{m\times n}(K)$ und $B=\Mat_{n\times r}(K)$ ist
\begin{itemize}
\item $(A^t)^t=A$
\item $(A_1+A_2)^t=A_1^t + A_2^t$
\item $(AB)^t=B^tA^t$
\end{itemize}
\end{lemma}
\begin{proof}
Übung
\end{proof}
\begin{proposition}
\proplbl{3_1_15}
Für $A\in \GL_n(K)$ ist $A^t\in \GL_n(K)$ und $(A^{-1})^t = (A^t)^{-1}$
\end{proposition}
\begin{proof}
Aus $AA^{-1}=1$ folgt nach \propref{3_1_14}, dass $(A^{-1})^tA^t=\mathbbm{1}_n^t=\mathbbm{1}_n$. Somit ist $(A^{-1})^t$ das Inverse zu $A^t$.
\end{proof}

View file

@ -0,0 +1,147 @@
\section{Minoren}
Seien $m,n\in \mathbb N$.
\begin{definition}[adjungierte Matrix]
Sei $A=(a_{ij})\in \Mat_n(R)$. Für $i,j\in \{1,...,n\}$ definieren wir die $n\times n$-Matrix: \\
\begin{align}
A_{ij}=\begin{pmatrix}
a_{11} & ... & a_{1,j-1} & 0 & a_{1,j+1} & ... & a_{1n} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_{i-1,1} & ... & a_{i-1,j.1} & 0 & a_{i-1,j+1} & ... & a_{i-1,n} \\
0 & ... & 0 & 1 & 0 & ... & 0 \\
a_{i+1,1} & ... & a_{i+1,j.1} & 0 & a_{i+1,j+1} & ... & a_{i+1,n} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_{n1} & ... & a_{n,j-1} & 0 & a_{n,j+1} & ... & a_{nn} \\
\end{pmatrix}\notag
\end{align}
die durch Ersetzen der $i$-ten Zeile und der $j$-ten Spalte durch $e_j$ aus $A$ hervorgeht, sowie die $(n-1)\times(n-1)$-
Matrix: \\
\begin{align}
A'_{ij}=\begin{pmatrix}
a_{11} & ... & a_{1,j-1} & a_{1,j+1} & ... & a_{1n} \\
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{i-1,1} & ... & a_{i-1,j.1} & a_{i-1,j+1} & ... & a_{i-1,n} \\
a_{i+1,1} & ... & a_{i+1,j.1} & a_{i+1,j+1} & ... & a_{i+1,n} \\
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{n1} & ... & a_{n,j-1} & a_{n,j+1} & ... & a_{nn} \\
\end{pmatrix}\notag
\end{align}
die durch Streichen der $i$-ten Zeile und der $j$-ten Spalten entsteht. Weiterhin definieren wir die zu $A$ \begriff{adjungierte Matrix}
als $A^\#=(a_{ij}^\#)\in \Mat_n(R)$, wobei $a_{ij}^\#=\det(A_{ji})$.
\end{definition}
\begin{lemma}
\proplbl{4_3_2}
Sei $A\in \Mat_n(R)$ mit Spalten $a_1,...,a_n$. Für $i,j\in \{1,..,n\}$ gilt:
\begin{itemize}
\item $\det(A_{ij})=(-1)^{i+j}\cdot \det(A'_{ij})$
\item $\det(A_{ij})=\det(a_1,...,a_{j-1},e_i,a_{j+1},...,a_n)$
\end{itemize}
\end{lemma}
\begin{proof}
\begin{itemize}
\item Durch geeignete Permutation der ersten $i$ Zeilen und der ersten $j$ Zeilen erhält man
\begin{align}
\det(A_{ij})&=(-1)^{(i-1)+
(j-1)} \cdot \det(\begin{pmatrix}1&0&...&0 \\ 0 & \; & \; & \; \\ \vdots & \; & A'_{ij} & \; \\ 0 & \; & \; & \; \\ \end{pmatrix})\notag \\
&\overset{\propref{4_2_9}}{=}(-1)^{i+j}\cdot \det(\mathbbm{1}_n)\cdot \det(A'_{ij})\notag
\end{align}
\item Man erhält $A_{ij}$ aus $(a_1,...,e_i,...,a_n)$ durch elementare Spaltenumformungen vom Typ II.
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{4_3_3}
Für $A\in \Mat_n(R)$ ist
\begin{align}
A^\#\cdot A=A\cdot A^\#=\det(A)\cdot \mathbbm{1}_n
\end{align}
\end{proposition}
\begin{proof}
\begin{align}
(A^\#A)_{ij}&=\sum_{k=1}^n a^\#_{ik}\cdot a_{kj} \notag \\
&=\sum_{k=1}^n a_{kj}\cdot \det(A_{kj}) \notag \\
&\overset{\propref{4_3_2}}{=}\sum_{k=1}^n a_{kj}\cdot \det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n) \notag \\
&=\det(a_1,...,a_{i-1},\sum_{k=1}^n a_{kj}e_k,a_{i+1},...,a_n) \notag \\
&= \det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n) \notag \\
&=\delta_{ij}\cdot \det(A) \notag \\
&=(\det(A)\cdot \mathbbm{1}_n)_{ij} \notag
\end{align}
Analog bestimmt man die Koeffizienten von $AA^\#$, wobei man
$\det(A_{jk})=\det(A_{jk}^t)=\det((A^t)_{kj})$ benutzt.
\end{proof}
\begin{conclusion}
\proplbl{4_3_4}
Es ist $\GL_n(R)=\{A\in \Mat_n(R) \mid \det(A)\in R^{\times}\}$ und für $A\in \GL_n(R)$ ist $A^{-1}=
\frac{1}{\det(A)}\cdot A^\#$.
\end{conclusion}
\begin{proof}
\propref{4_3_3} und \propref{4_2_12}
\end{proof}
\begin{proposition}[\person{Laplace}'scher Entwicklungssatz]
Sei $A=(a_{ij})\in \Mat_n(R)$. Für jedes $i,j\in \{1,..,n\}$ gilt die
Formel für die Entwicklung nach der $i$-ten Zeile: \\
\begin{align}
\det(A)=\sum_{j=1}^n (-1)^{i+j}\cdot a_{ij}\cdot \det(A'_{ij})\notag
\end{align}
Gleiches gilt auch für Spalten.
\end{proposition}
\begin{proof}
Nach \propref{4_3_3} ist
\begin{align}
\det(A)=(AA^\#)_{ij}&=\sum_{j=1}^n a_{ij}\cdot a^\#_{ij} \notag \\
&= \sum_{j=1}^n a_{ij}\cdot \det(A_{ij}) \notag \\
&=\sum_{j=1}^n a_{ij}\cdot (-1)^{i+j}\cdot \det(A'_{ij}) \notag
\end{align}
Analog auch für Spalten.
\end{proof}
\begin{proposition}[\person{Cramer}'sche Regel]
Sei $A\in \GL_n(R)$ mit Spalten $a_1,...,a_n$ und sei $b\in R^n$. Weiter sei
$x=(x_1,...,x_n)^t\in R^n$ die eindeutige Lösung des Linearen Gleichungssystems $Ax=b$. Dann ist für $i=1,...,n$
\begin{align}
x_i=\frac{\det(a_1,...,a_{i-1},b,a_{i+1},...,a_n)}{\det(A)}\notag
\end{align}
\end{proposition}
\begin{proof}
\begin{align}
x_i&=(A^{-1}b)_i \notag \\
&=\sum_{j=1}^n (A^{-1})_{ij}\cdot b_j \notag \\
&\overset{\propref{4_3_4}}{=}\frac{1}{\det(A)}\cdot \sum_{j=1}^n a^\#_{ij}\cdot b_j \notag \\
&\overset{\propref{4_3_2}}{=} \frac{1}{\det(A)}\cdot \sum_{j=1}^n b_j\cdot\det(a_1,...,a_{i-1},e_i,a_{i+1},...,a_n) \notag \\
&=\frac{1}{\det(A)}\cdot \det(a_1,...,a_{i-1},b_j,a_{i+1},...,a_n) \notag
\end{align}
\end{proof}
\begin{definition}[Minor]
Sei $A=(a_{ij})\in \Mat_{m\times n}(R)$ und $1\le r \le m$, $1\le s \le n$. Eine $r\times s$-
Teilmatrix von $A$ ist eine Matrix der Form $(a_{i\mu,jv})_{\mu,v}\in \Mat_{r\times s}(R)$ mit $1\le i_1<...<i_r\le m$
und $1\le j_1<...<j_s\le n$. Ist $A'$ eine $r\times r$-Teilmatrix von $A$, so bezeichnet man $\det(A')$ als einen
$r$-\begriff{Minor} von $A$.
\end{definition}
\begin{example}
Ist $A\in \Mat_n(R)$ und $i,j\in \{1,...,n\}$, so ist $A'_{ij}$ eine Teilmatrix und $\det(A'_{ij})=(-1)^{i+j}
\cdot a^\#_{ji}$ ein $(n-1)$-Minor von $A$.
\end{example}
\begin{proposition}
Sei $A\in \Mat_n(R)$ und $r\in \mathbb N$. Genau dann ist $\rk(A)\ge r$, wenn es eine $r\times r$-
Teilmatrix $A'$ von $A$ mit $\det(A^{\prime})\neq 0$ gibt.
\end{proposition}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Ist $\rk(A)\ge r$, so hat $A$ $r$ linear unabhängige Spalten $a_1,...,a_r$. Die Matrix $\tilde A=(a_1,...,a_r)$
hat den Rang $r$ und deshalb $r$ linear unabhängige Zeilen $\widetilde{a_1},...,\widetilde{a_r}$. Die $r\times r$-Matrix $A$ hat
dann Rang $r$, ist also invertierbar, und $\det(A)\neq 0$.
\item Rückrichtung: Ist $A'$ eine $r\times r$-Teilmatrix von $A$ mit $\det(A')\neq 0$, so ist $\rk(A)\ge \rk(A')=r$.
\end{itemize}
\end{proof}
\begin{conclusion}
Sei $A\in \Mat_{m\times n}(K)$. Der Rang von $A$ ist das größte $r\in \mathbb N$, für das
$A$ einen von Null verschiedenen $r$-Minor hat.
\end{conclusion}

View file

@ -0,0 +1,160 @@
In diesem ganzen Kapitel sei $R$ ein kommutativer Ring mit Einselement.
\section{Moduln}
\begin{definition}
Ein $R$-\begriff{Modul} ist ein Tripel $(M,+,\cdot)$ bestehend aus einer Menge $M$, einer Verknüpfung $+:M\times M\to M$ und der Abbildung $\cdot:R\times M\to M$ (Skalarmultiplikation) für die gelten:
\begin{itemize}
\item (M1): $(M,+)$ ist eine abelsche Gruppe
\item (M2): Addition und Skalarmultiplikation sind verträglich. Für alle $x,y\in M$ und $a,b\in R$ gelten
\begin{enumerate}
\item $a(x+y)=ax+ay$
\item $(a+b)x=ax+bx$
\item $a\cdot bx=ab\cdot x$
\item $1\cdot x=x$
\end{enumerate}
\end{itemize}
\end{definition}
\begin{example}
\begin{enumerate}
\item Ist $R=K$ ein Körper, so sind die $R$-Moduln genau die $K$-Vektorräume.
\item Ist $R=\whole$, so sind die $R$-Moduln genau die abelschen Gruppen mit der einzig möglichen Skalarmultiplikation
\begin{align}
\whole\times A\to A,(k,a)\mapsto ka=\underbrace{1+...+1}_{k\text{-mal}}a=\underbrace{a+...+a}_{k\text{-mal}}\notag
\end{align}
vergleiche \propref{3_2_3}
\item Jedes Ideal $M\subseteq R$ ist ein $R$-Modul mit Einschränkung der Multiplikation als Skalarmultiplikation.
\item Ist $K$ ein Körper, $V$ ein $K$-Vektorraum und $f\in\End_K(V)$, so wird $V$ durch $P(t)\cdot x:=P(f)(x)$ zu einem Modul über dem Ring $R=K[t]$, siehe auch \propref{5_5_2}
\end{enumerate}
\end{example}
\begin{remark}
Sei $M$ ein $R$-Modul. Wie für Vektorräume überzeugt man sich leicht, dass $0x=0$, $a0=0$, $(-a)x=a(-x)=-ax$ für alle $a\in R$, $x\in M$.
Im Gegensatz zu Vektorräumen folgt aber aus $ax=0$ nicht, dass $a=0$ oder $x=0$, siehe zum Beispiel das $\whole$-Modul $M=\whole/n\whole$. Es ist
\begin{align}
n\cdot\overline{1}=\overline{n}=\overline{0}\in\whole/n\whole\notag
\end{align}
aber $0\neq n\in\whole$.
\end{remark}
\begin{definition}[Homomorphismus von $R$-Moduln]
Seien $M,M'$ $R$-Moduln. Eine Abbildung $f:M\to M'$ ein \begriff[Modul!]{Homomorphismus} von $R$-Moduln (oder $R$-Homomorphismus oder $R$-linear), wenn
\begin{align}
f(x+y)&=f(x)+f(y) \notag \\
f(ax) &= a\cdot f(x)\notag
\end{align}
Wir bezeichnen die Menge der $R$-Homomorphismen $f:M\to M'$ mit $\Hom_R(M,M')$. Wie üblich definiert man den \begriff[Modul!]{Kern} eines $R$-Homomorphismus, sowie die Begriffe \begriff[Modul!]{Monomorphismus}, \begriff[Modul!]{Epimorphismus}, \begriff[Modul!]{Isomorphismus}, \begriff[Modul!]{Endomorphismus} und \begriff[Modul!]{Automorphismus} von $R$-Moduln.
\end{definition}
\begin{example}
\begin{itemize}
\item Ist $R=K$, so sind die $R$-Homomorphismen genau die lineare Abbildungen.
\item Ist $R=\whole$, so sind die $R$-Homomorphismen genau die Gruppenhomomorphismen.
\end{itemize}
\end{example}
\begin{example}
\proplbl{8_1_6}
Für jedes $a\in R$ ist die Abbildung
\begin{align}
\begin{cases}
M\to M \\ x\mapsto ax
\end{cases}\notag
\end{align}
einen Endomorphismus von $M$.
\end{example}
\begin{definition}[Untermodul, Erzeugendensystem]
Ein \begriff{Untermodul} ist eine nichtleere Teilmenge $N\subseteq M$, für die gilt:
\begin{itemize}
\item Sind $x,y\in N$, so ist auch $x+y\in N$.
\item Ist $a\in R$ und $x\in N$, so ist auch $ax\in N$.
\end{itemize}
Für eine Familie $(x_i)_{i\in I}$ ist
\begin{align}
\sum_{i\in I} Rx_i=\{\sum_{i\in I} ax_i\mid a\in R\text{, fast alle gleich 0}\}\notag
\end{align}
der von $(x_i)_{i\in I}$ \begriff[Untermodul!]{erzeugte Untermodul} von $M$. Ist $\sum_{i\in I} Rx_i=M$, so ist $(x_i)_{i\in I}$ ein \begriff[Modul!]{Erzeugendensystem} von $M$. Der $R$-Modul $M$ ist \begriff[Modul!]{endlich erzeugt}, wenn er ein endliches Erzeugendensystem besitzt.
\end{definition}
\begin{remark}
\proplbl{8_1_8}
Wieder ist der Kern eines $R$-Homomorphismus $f:M\to M'$ ein Untermodul von $M$. Leicht sieht man auch hier, dass $\sum_{i\in I} Rx_i$ ein Untermodul von $M$ ist, und zwar der kleinste, der alle $x_i$ enthält.
\end{remark}
\begin{example}
\begin{itemize}
\item Ist $R=K$ ein Körper, so sind die Untermoduln von $M$ genau die Untervektorräume.
\item Ist $R=\whole$, so sind die Untermoduln von $M$ genau die Untergruppen und der von einer Familie erzeugte Untermodul ist genau gleich der davon erzeugten Untergruppe. \\
Ist zum Beispiel $M=\whole$, so sind alle $n\whole$ Untermoduln von $M$.
\end{itemize}
\end{example}
\begin{definition}[freie Familie, Basis]
Eine Familie $(x_i)_{i\in I}$ in $M$ ist \begriff[Familie!]{frei} oder ($R$-linear unabhängig), wenn es keine Familie $(\lambda_i)_{i\in I}$ von Elementen von $R$, fast alle gleich 0, aber nicht alle gleich 0, mit $\sum_{i\in I} \lambda_ix_i=0$ gibt.
Ein freies Erzeugendensystem heißt \begriff[Modul!]{Basis}. Besitzt $M$ eine Basis, so nennt man $M$ \begriff[Modul!]{frei}.
\end{definition}
\begin{proposition}
\proplbl{8_1_11}
Seien $M,M'$ $R$-Moduln, $(x_i)_{i\in I}$ eine Basis von $M$ und $(y_i)_{i\in I}$ eine Familie in $M'$. Dann gibt es genau eine $R$-lineare Abbildung $f:M\to M'$ mit $f(x_i)=y_i$ für alle $i$.
\end{proposition}
\begin{proof}
klar, siehe \propref{3_5_1}
\end{proof}
\begin{example}
\begin{itemize}
\item Für $n\in\natur$ ist $M=R^n$ mit komponentenweiser Addition und Skalarmultiplikation ein endlich erzeugter freier $R$-Modul mit der üblichen Standardbasis.
\item Allerdings ist zum Beispiel der $\whole$-Modul $\whole/n\whole$ zwar endlich erzeugt aber nicht frei. Für $\overline{a}\in\whole/n\whole$ ist $n\overline{a}=\overline{0}$, also $\overline{a}$ linear abhängig.
\end{itemize}
\end{example}
\begin{definition}[Summen von Moduln]
Die \begriff[Modul!]{Summe} einer Familie $(N_i)_{i\in I}$ von Untermoduln von $M$ ist
\begin{align}
\sum_{i\in I} N_i=\left\lbrace \sum_{i\in I} x_i\mid x_i\in N_i\text{, fast alle gleich 0}\right\rbrace \notag
\end{align}
Lässt sich jedes $x\in\sum_{i\in I} N_i$ eindeutig als $\sum_{i\in I} x_i$ mit $x_i\in N_i$ schreiben, so nennt man die Summe \begriff[Modul!]{direkt} und schreibt dafür auch $\bigoplus_{i\in I} N_i$.
Ist $(M_i)_{i\in I}$ eine Familie von $R$-Moduln, so definiert man deren \begriff[Modul!]{(externe) direkte Summe} als das $R$-Modul
\begin{align}
\bigoplus_{i\in I} M_i := \left\lbrace (x_i)_{i\in I}\in \prod_{i\in I} M_i\mid x_i=0\text{ für fast alle } i\in I\right\rbrace \notag
\end{align}
mit komponentenweiser Addition und Skalarmultiplikation.
\end{definition}
\begin{remark}
Wie auch für Vektorräume ist eine externe direkte Summe eine direkte Summe der entsprechenden Untermoduln und ist $M=\bigoplus_{i\in I} N_i$, so ist $M$ isomorph zur externen direkten Summe der $N_i$.
\end{remark}
\begin{definition}[Torsionsmodul]
Für $a\in R$ definiert man den $a$-\begriff{Torsionsmodul} von $M$ als
\begin{align}
M[a]:=\{x\in M\mid ax=0\}\notag
\end{align}
Die Elemente des Torsionsmoduls
\begin{align}
M_{tor}:=\bigcup_{0\neq a\in R} M[a]=\{x\in M\mid ax=0\text{ für ein } a\in R\backslash\{0\}\}\notag
\end{align}
nennt man die \begriff{Torsionselemente} von $M$.
\end{definition}
\begin{proposition}
Für $a\in R$ ist $M[a]$ ein Untermodul von $M$. Ist $R$ nullteilerfrei, so ist auch $M_{tor}$ ein Untermodul von $M$.
\end{proposition}
\begin{proof}
$M[a]$ ist der Kern des Endomorphismus $x\mapsto ax$ (\propref{8_1_6}), somit ein Untermodul (\propref{8_1_8}). Seien $a,b\in R\backslash\{0\}$ und $x\in M[a]$, $y\in M[b]$. Ist $R$ nullteilerfrei so ist $ab\neq 0$ und
\begin{align}
(ab)\cdot (x+y)=b\cdot \underbrace{ax}_{=0} + a\cdot \underbrace{by}_{=0}=0\notag
\end{align}
also $x+y\in M[ab]\subseteq M_{tor}$. Somit ist $M_{tor}$ in diesem Fall einer Untermodul von $M$.
\end{proof}
\begin{example}
Sei $R=\whole$ und $M=\whole/n\whole$, dann ist $M_{tor}=M=M[n]$.
\end{example}

View file

@ -0,0 +1,185 @@
\section{Nilpotente Endomorphismen}
\begin{remark}
Für $f\in\End_K(V)$ sind
\begin{itemize}
\item $f\{0\}=\Ker(f^0)\subseteq \Ker(f^1)\subseteq \Ker(f^2)\subseteq ...$
\item $V=\Image(f^0)\supseteq \Image(f^1)\supseteq \Image(f^2)\supseteq ...$
\end{itemize}
Folgen von UVR von $V$. Nach der Kern-Bild-Formel \propref{3_7_13}III.7.13 ist
\begin{align}
\dim_K(\Ker(f^i))+\dim_K(\Image(f^i))=\dim_K(V)\quad\forall i\notag
\end{align}
Da $\dim_K(V)=n<\infty$ gibt es ein $d$ mit $\Ker(f^d)=\Ker(f^{d+i})$ und $\Image(f^d)=\Image(f^{d+i})$ für jedes $i\ge 0$.
\end{remark}
\begin{example}
$f=f_A$, $A\in\Mat_2(K)$.
\begin{itemize}
\item $A=\begin{henrysmatrix}1&0\\0&1\end{henrysmatrix}$: $\{0\}=\Ker(f^0)=\Ker(f^1)=...$
\item $A=\begin{henrysmatrix}1&0\\0&0\end{henrysmatrix}$: $\{0\}=\Ker(f^0)\subset\Ker(f^1)=\Ker(f^2)=...=\Span_K(e_2)$
\item $A=\begin{henrysmatrix}0&1\\0&0\end{henrysmatrix}$: $\{0\}=\Ker(f^0)\subset\underbrace{\Ker(f^1)}_{=\Span_K(e_1)}\subset \Ker(f^2)=... = K^2$
\item $A=\begin{henrysmatrix}0&0\\0&0\end{henrysmatrix}$: $\{0\}=\Ker(f^0)\subset\Ker(f^1)=\Ker(f^2)=...=K^2$
\end{itemize}
\end{example}
\begin{lemma}
\proplbl{lemma_6_3}
Seien $f,g\in\End_K(V)$. Wenn $f$ und $g$ kommutieren, d.h. $f\circ g=g\circ f$, so sind die UVR $\Ker(g)$ und $\Image(g)$ $f$ invariant.
\end{lemma}
\begin{proof}
Ist $x\in\Ker(f)$, so ist $g(f(x))=f(g(x))=f(0)=0$, also $f(x)\in\Ker(g)$. Für $g(x)\in\Image(g)$ ist $f(g(x))=g(f(x))\in\Image(g)$.
\end{proof}
\begin{proposition}[Lemma von \person{Fitting}]
\proplbl{satz_6_4}
Seien $V_i=\Ker(f^i)$, $W_i=\Image(f^i)$, $d=\min\{i:V_i=V_{i+1}\}$. Dann sind
\begin{align}
\{0\}&=V_0\subsetneq V_1\subsetneq ...\subsetneq V_d=V_{d+1}=...\notag \\
V&= W_0\supsetneq W_1\supsetneq ... \supsetneq W_d=W_{d+1}=...\notag
\end{align}
Folgen $f$-invarianter UVR und $V=V_d\oplus W_d$.
\end{proposition}
\begin{proof}
Da $f^i$ und $f^j$ für beliebige $i,j$ kommutieren, sind $V_i$ und $V_j$ nach \propref{lemma_6_3} $f$-invariant für jedes $i$. Aus $\dim_K(V_i)+\dim_K(W_i)=n$ folgt $d=\min\{i:W_i=W_{i+1}\}$, insbesondere ist $\Image(f^d)=\Image(f^{d+1})=f(\Image(f^d))$, somit $W_{d+i}=\Image(f^{d+i})=W_d$ für $i\ge 0$, also auch $V_d=V_{d+i}$ für alle $i\ge 0$. \\
Insbesondere ist $f^d\vert_{W_d}:W_d\to W_{2d}=W_d$ surjektiv, also auch injektiv, also $V_d\cap W_d=\{0\}$. Aus der Dimensionsformel II.4.12 folgt dann $\dim_K(V_d+W_d)=\dim_K(V_d)+\dim_K(W_d)=\dim_K(V)$. Folglich ist $V_d+W_d=V$ und $V_d\cap W_d=\{0\}$, also $V=V_d\oplus W_d$.
\end{proof}
\begin{definition}[nilpotent]
Ein $f\in\End_K(V)$ heißt \begriff{nilpotent}, wenn $f^k=0$ für ein $k\in\natur$. Analog heißt $A\in\Mat_n(K)$ nilpotent, wenn $A^k=0$ für $k\in\natur$. Das kleinste $k$ mit $f^k=0$ bzw. $A^k$ heißt die \begriff{Nilpotenzklasse} von $f$ bzw. $A$.
\end{definition}
\begin{lemma}
\proplbl{lemma_6_6}
Ist $f$ nilpotent, so gibt es eine Basis $B$ von $V$, für die $M_B(f)$ eine strikte obere Dreiecksmatrix ist.
\end{lemma}
\begin{proof}
Induktion nach $n=\dim_K(V)$. \\
\emph{$n=1$}: $f^k=0\Rightarrow f=0$ \\
\emph{$n>1$}: Sei $k$ die Nilpotenzklasse von $f$ und $U=\Ker(f^{k-1})$. Dann ist $U\subset V$. Da $f^k=f^{k-1}\circ f$ ist $f(V)\subset U$, insbesondere $f\vert_U\in\End_K(U)$. Da $f\vert_U$ nilpotent ist, gibt es nach I.H. eine Basis $B_0$ von $U$, für die $M_B(f\vert_U)$ eine strikte obere Dreiecksmatrix ist. Ergänze $B_0$ zu einer Basis $B$ von $V$. Da $f(V)\subset U$ ist dann auch
\begin{align}
M_B(f)=\begin{pmatrix}M_{B_0}(f\vert_U)&*\\0&0\end{pmatrix}\notag
\end{align}
eine strikte obere Dreiecksmatrix.
\end{proof}
\begin{proposition}
\proplbl{satz_6_7}
Für $f\in\End_K(V)$ sind äquivalent:
\begin{enumerate}[label={\arabic*)}]
\item $f$ ist nilpotent
\item $f^n=0$ für $n \in \natur$
\item $P_f(t)=t^r$ für ein $r\leq n$
\item $\chi_f(t)=t^n$
\item Es gibt eine Basis $B$ von $V$, mit
\[
M_B(f) =
\begin{pmatrix}
0 & \textasteriskcentered & \dots & \textasteriskcentered\\
& \ddots & \ddots & \vdots \\
& & \ddots & \textasteriskcentered \\
& & & 0
\end{pmatrix}
\] eine strikte obere Dreiecksmatrix ist.
\end{enumerate}
\end{proposition}
\begin{proof}
\hspace{0pt}
\begin{itemize}
\item $1)\Rightarrow 5)$: \propref{lemma_6_6}
\item $5)\Rightarrow 4)$: \propref{beispiel_2_8}
\item $4)\Rightarrow 3)$: Nach \propref{folgerung_5_10} ist $P_f\mid \chi_f=t^n$, also $t^n=P_f(t)Q(t)$ mit $Q\in K[t]$. Schreibe $P_f(t)=t^a\cdot P_1(t), Q(t)=t^b\cdot Q_1(t)$ mit $a,b\in\natur$, $P_1,Q_1\in K[t]$, $P_1(0)\neq 0$, $Q_1(0)\neq 0$ \\
$\overset{\propref{lemma_3_8}}{\Rightarrow} t^{n-(a+b)}=P_1(t)Q_1(t)$ und $(P_1Q_1)(0)\neq 0$ \\
$\Rightarrow n-(a+b)=0\Rightarrow P_1=1$, somit $P_f(t)=t^a$
\item $3)\Rightarrow 2)$: $t^r=0$, $r\leq n\Rightarrow f^n=0$
\item $2)\Rightarrow 1)$: nach Definition
\end{itemize}
\end{proof}
\begin{conclusion}
Die Nilpotenzklasse eines nilpotenten Endomorphismus $f\in\End_K(V)$ ist höchstens $\dim_K(V)$.
\end{conclusion}
\begin{conclusion}
\proplbl{folgerung_6_9}
Ist $d:=\min\{i\mid \Ker(f^i)=\Ker(f^{i+1})\}$, so ist $d\le \dim_K(\Ker(f))=\mu_a(f,0)$.
\end{conclusion}
\begin{proof}
Sei $V_d=\Ker(f^d)$, $W_d=\Image(f^d)$, $k=\dim_K(V_d)$. Da $V=V_d\oplus W_d$ ist $\chi_f=\chi_{f\vert_{V_d}}\cdot \chi_{f\vert_{W_d}}$. Da $f\vert_{V_d}$ nilpotent ist, ist $\chi_{f\vert_{V_d}}=t$ nach \propref{satz_6_7}. Da $f\vert_{W_d}$ injektiv ist, ist $\chi_{f\vert_{W_d}}(0)\neq 0$. Somit ist $\mu_a(f,0)= \mu(\chi_f,0) \overset{\propref{lemma_3_6}}{=}k$. Da $\dim_K(\Ker(f^d))>...>\dim_K(\Ker(f))>0$ ist $k=\dim_K(\Ker(f^d))\ge d$, falls $d>0$, sonst klar.
\end{proof}
\begin{remark}
Die Bedeutung nilpotenter Endomorphismen beim Finden geeigneter Basen ergibt sich aus der folgenden Beobachtung: \\
Ist $A$ eine obere Dreiecksmatrix, so ist $A=D+N$, wobei $D$ eine Diagonalmatrix ist und $N$ eine strikte obere Dreiecksmatrix ist. Anders gesagt: Jeder trigonalisierbare Endomorphismus ist Summe aus einem diagonalisierbaren und einem nilpotenten Endomorphismus.
\end{remark}
\begin{definition}[\person{Jordan}-Matrix]
Für $k\in\natur$ definieren wir die \begriff{\person{Jordan}-Matrix}
\begin{align}
J_k=\begin{pmatrix}0&1&0&...&0 \\
\vdots&\ddots&\ddots&\ddots&\vdots\\
\vdots&\;&\ddots&\ddots&0\\
\vdots&\;&\;&\ddots&1\\
0&...&...&...&0\end{pmatrix} \in \Mat_k(K)\notag
\end{align}
weiter setzen wir für $\lambda\in K$ $J_k(\lambda):=\lambda\mathbbm{1}+J_k$.
\end{definition}
\begin{lemma}
\proplbl{lemma_6_12}
Die \person{Jordan}-Matrix $J_k$ ist nilpotent von Nilpotenzklasse $k$.
\end{lemma}
\begin{proof}
Es ist $(J_k)^r=(\delta_{i+r,j})_{i,j}$ für $r\ge 1$.
\end{proof}
\begin{proposition}
\proplbl{satz_6_13}
Ist $f$ nilpotent von Nilpotenzklasse $k$, so gibt es eindeutig bestimmte $r_1,..,r_k\in\natur_{>0}$ mit $\sum\limits_{d=1}^k dr_d=n$ und eine Basis $B$ von $V$ mit
\begin{align}
M_B(f)=\diag(\underbrace{J_k,...,J_k}_{r_k\text{ viele}},...,\underbrace{J_1,...,J_1}_{r_1\text{ viele}})\notag
\end{align}
\end{proposition}
\begin{proof}
Sei $U_i=\Ker(f^i)$. Nach \propref{satz_6_4} haben wir eine Folge $\{0\}=U_0\subset U_1\subset ...\subset U_k=V$ mit $f(U_i)\subseteq U_{i-1}$ für alle $i>0$. \\
Wir konstruieren eine Zerlegung $V=\bigoplus\limits_{d=1}^k W_d$ mit $U_i=U_{i-1}\oplus W_i$, $f(W_i)\subseteq W_{i-1}$, $f\vert_{W_d}$ injektiv für $i>1$.
\begin{align}
V&= U_k\notag \\
V&= U_{k-1}\oplus W_k \notag \\
V&= U_{k-2}\oplus W_{k-1}\oplus W_k \notag \\
\vdots \notag \\
V&= U_0 \oplus W_1\oplus ... \oplus W_k\notag
\end{align}
Wähle $W_k$ mit $V=U_k=U_{k-1}\oplus W_k$. Ist $k>1$, so ist $W_k\cap \Ker(f)\subseteq W_k\cap U_{k-1}=\{0\}$, also $f\vert_{W_k}$ ist injektiv. Des weiteren ist $f(W_k)\subseteq U_{k-1}$ und aus $W_k\cap U_{k-1}=\{0\}$ folgt $f(W_k)\cap U_{k-2}=\{0\}$. Wir können deshalb $W_{k-1}$ mit $U_{k-1}=U_{k-2}\oplus W_{k-1}$ und $f(W_k)\subseteq W_{k-1}$ wählen. Somit ist $V=U_{k-1}\oplus W_k=U_{k-2}\oplus W_{k-1}\oplus W_k$. Wir setzen dies fort und erhalten $V= U_0 \oplus W_1\oplus ... \oplus W_k$ mit $f(W_i)\subseteq W_{i-1}$ und $f\vert_{W_i}$ injektiv für $i>1$, wobei $U_0=\{0\}$ und $W_1=\Ker(f)$. \\
Sie $r_d=\dim_K(W_d)-\dim_K(W_{d+1})$, wobei wir $W_{k+1}=\{0\}$. Wähle nun eine Basis $(x_{k,1},...,x_{k,r_k})$ von $W_k$. Ist $k>1$, so ist $f\vert_{W_k}$ injektiv und wir können $(f(x_{k,1}),...,f(x_{k,r_k}))$ durch Elemente $x_{k-1,1},...,x_{k-1,r_{k-1}}$ zu einer Basis von $W_{k-1}$ ergänzen, und so weiter.\\
Da $V=\bigoplus\limits_{d=1}^k W_d$ ist
\begin{align}
B=\{f^i(x_{d,j})\mid d=1,...,k,j=1,...,r_d,i=0,...,d-1\}\notag
\end{align}
eine Basis von $V$, die bei geeigneter Anordnung das Gewünschte leistet. \\
Es bleibt zu zeigen, dass $r_1,...,r_k$ eindeutig bestimmt sind. Ist $B_0$ eine Basis, für die $M_{B_0}(f)$ in der gewünschten Form ist, so ist
\begin{align}
\dim_K(U_1) &= \sum\limits_{d=1}^k r_d \notag \\
\dim_K(U_2) &= \sum\limits_{d=2}^k r_d + \sum\limits_{d=1}^k r_d \notag \\
\vdots \notag \\
\dim_K(U_k) &= \sum\limits_{d=k}^k r_d + ... + \sum\limits_{d=1}^k r_d\notag
\end{align}
woraus man sieht, dass $r_1,...,r_k$ durch $U_1,...,U_k$, also durch $f$ eindeutig bestimmt.
\end{proof}
\begin{example}
Sei $f=f_A$ mit $A=\begin{henrysmatrix}0&1&3\\\;&0&2\\\;&\;&0\end{henrysmatrix}\in\Mat_3(\real)$
\begin{align}
A^2=\begin{henrysmatrix}0&0&2\\\;&0&0\\\;&\;&0\end{henrysmatrix}, A^3=0\notag
\end{align}
$\Rightarrow k=3, U_0=\{0\}, U_1=\real e_1, U_2=\real e_1+\real e_2, U_3=V$. \\
Wähle $W_3$ mit $V=U_3=U_2\oplus W_3$, z.B. $W_3=\real e_3$. \\
Wähle $W_2$ mit $U_2=U_1\oplus W_2$ und $f(W_3)\subseteq W_2$, also
\begin{align}
W_2=\real\begin{henrysmatrix}3\\2\\0\end{henrysmatrix}\notag
\end{align}
Setze $W_1=U_1=\Ker(f)=\real e_1\Rightarrow$ Basis $B=(f^2(e_3),f(e_3),e_3)$
\begin{align}
M_B(f)=\begin{henrysmatrix}0&1&0\; \\ \;&0&1\\ \;&\;&0\end{henrysmatrix}\notag
\end{align}
\end{example}

View file

@ -0,0 +1,132 @@
\section{Orthogonale und unitäre Endomorphismen}
Sei $V$ ein euklidischer bzw. unitärer Vektorraum und $f\in\End_K(V)$.
\begin{definition}[orthogonale, unitäre Endomorphismen]
$f$ ist \begriff[Endomorphismus!]{orthogonal} bzw. \begriff[Endomorphismus!]{unitär}, wenn
\begin{align}
\skalar{f(x)}{f(y)}=\skalar{x}{y}\quad\forall x,y\in V\notag
\end{align}
\end{definition}
\begin{proposition}
\proplbl{6_5_2}
Ist $f$ unitär, so gelten
\begin{itemize}
\item Für $x\in V$ ist $\Vert f(x)\Vert =\Vert x\Vert$.
\item Sind $x,y\in V$ mit $x\perp y$, so ist $f(x)\perp f(y)$.
\item Es ist $f\in\Aut_K(V)$ und auch $f^{-1}$ ist unitär.
\item Das Bild einer Orthonormalbasis unter $f$ ist eine Orthonormalbasis.
\item Ist $\lambda$ ein Eigenwert von $f$, so ist $\vert\lambda\vert=1$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item klar
\item klar
\item $f(x)=0\iff \Vert f(x)\Vert=0\iff \Vert x\Vert =0\iff x=0$, also ist $f$ injektiv, somit $f\in\Aut_K(V)$ und
\begin{align}
\skalar{f^{-1}(x)}{f^{-1}(y)}\overset{f\text{ unitär}}{=}\skalar{f(f^{-1}(x))}{f(f^{-1}(y))}=\skalar x y \notag
\end{align}
\item Folgt aus 1, 2 und 3
\item Ist $f(x)=\lambda x$, $x\neq 0$, so ist
\begin{align}
\Vert x\Vert=\Vert f(x)\Vert =\Vert \lambda x\Vert =\vert\lambda\vert \cdot \Vert x\Vert \Rightarrow \vert\lambda\vert=1\notag
\end{align}
\end{itemize}
\end{proof}
\begin{proposition}
Ist $\Vert f(x)\Vert=\Vert x\Vert$ für alle $x\in V$, so ist $f$ unitär.
\end{proposition}
\begin{proof}
Aus $\Vert f(x)\Vert=\Vert x\Vert$ folgt $\skalar{f(x)}{f(x)}=\skalar{x}{x}$. Die Polarisierung (\propref{6_3_4}) für $\skalar{f(x)}{f(y)}$ und die Linearität von $f$ liefern $\skalar{f(x)}{f(y)}=\skalar{x}{y}$. Zum Beispiel im Fall $K=\real$:
\begin{align}
\skalar{f(x)}{f(y)}&=\frac 1 2 \left(\skalar{\underbrace{f(x)+f(y)}_{f(x+y)}} {\underbrace{f(x)+f(y)}_{f(x+y)}}-\skalar{f(x)}{f(x)}-\skalar{f(y)}{f(y)}\right) \notag \\
&= \frac 1 2 \left( \skalar{x+y}{x+y}-\skalar{x}{x}-\skalar{y}{y}\right) \notag \\
&= \skalar{x}{y}\notag
\end{align}
\end{proof}
\begin{definition}[orthogonale, unitäre Matrizen]
Eine Matrix $A\in\Mat_n(K)$ heißt \begriff[Matrix!]{orthogonal} bzw. \begriff[Matrix!]{unitär}, wenn
\begin{align}
A^*A=\mathbbm{1}_n\notag
\end{align}
\end{definition}
\begin{mathematica}[orthogonale bzw. unitäre Matrizen]
Auch für orthogonale bzw. unitäre Matrizen $A$ gibt es eine Mathematica bzw. WolframAlpha-Funktion
\begin{align}
\texttt{OrthogonalMatrixQ[A]}\notag \\
\texttt{UnitaryMatrixQ[A]}\notag
\end{align}
\end{mathematica}
\begin{remark}
Offenbar ist $A$ genau dann unitär, wenn $A^*$ das Inverse zu $A$ ist. Die folgenden Bedingungen sind daher äquivalent dazu, dass $A$ unitär ist:
\begin{align}
AA^*=\mathbbm{1}_n, \overline{A}A^t=\mathbbm{1}_n, A^t\overline{A}=\mathbbm{1}_n, A^t=\overline{A^{-1}}\notag
\end{align}
\end{remark}
\begin{proposition}
Sei $B$ eine Orthogonalbasis von $V$. Genau dann ist $f$ unitär, wenn $M_B(f)$ unitär ist.
\end{proposition}
\begin{proof}
Sei $A=M_B(f)$, $v=\Phi_B(x)$, $\Phi_B(y)$. Dann ist $\skalar{v}{w}=x^t\underbrace{M_B(\skalar{\cdot}{\cdot})}_{=\mathbbm{1}}\cdot \overline{y}=x^t\cdot \overline{y}$. Somit ist $f$ genau dann unitär, wenn $(Ax)^t\overline{Ay}=x^t\overline{y}$ für alle $x,y\in K^n$, also wenn $A^t\overline{A}=\mathbbm{1}$, d.h. $A$ unitär.
\end{proof}
\begin{proposition}
Die folgenden Mengen bilden Untergruppen der $\GL_n(K)$.
\begin{itemize}
\item $\Orth_n=\{A\in\GL_n(\real)\mid A\text{ ist orthogonal}\}$ die \begriff{orthogonale Gruppe}
\item $\SO_n=\{A\in \Orth_n\mid \det(A)=1\}$ die \begriff{spezielle orthogonale Gruppe}
\item $\Uni_n=\{A\in\GL_n(\comp)\mid A\text{ ist unitär}\}$ die \begriff{unitäre Gruppe}
\item $\SU_n=\{A\in \Uni_n\mid \det(A)=1\}$ die \begriff{spezielle unitäre Gruppe}
\end{itemize}
\end{proposition}
\begin{proof}
z.B. für $\Uni_n$: Sind $A^{-1}=A^*$, $B^{-1}=B^*$, so ist $(AB)^{-1}=B^{-1}A^{-1}=B^*A^*=(AB)^*$, $(A^{-1})^{-1}=A=(A^*)^{-1}=(A^{-1})^*$
\end{proof}
\begin{proposition}
\proplbl{6_5_8}
Genau dann ist $A\in\Mat_n(K)$ unitär, wenn die Spalten (oder die Zeilen) von $A$ eine Orthonormalbasis des $K^n$ bilden.
\end{proposition}
\begin{proof}
Sei $s$ das Standardskalarprodukt und $B=(a_1,...,a_n)$. Nach \propref{6_4_5} ist $B$ genau dann eine Orthonormalbasis, wenn $M_B(s)=\mathbbm{1}_n$, und $M_B(s)=A^t\cdot\mathbbm{1}_n\cdot\overline{A}$, vgl. \propref{6_2_9}
\end{proof}
\begin{theorem}
\proplbl{6_5_9}
Sei $K=\comp$ und $f\in\End_K(V)$. Ist $f$ unitär, so besitzt $V$ eine Orthonormalbasis aus Eigenvektoren von f.
\end{theorem}
\begin{proof}
Induktion über$n=\dim_K(V)$. \\
\emph{$n=0$}: klar \\
\emph{$n-1\to n$}: Da $K$ algebraisch abgeschlossen ist, hat $\chi_f$ eine Nullstelle $\lambda$, es gibt also einen Eigenvektor $x_1$ von $f$ zum Eigenwert $\lambda$. Ohne Einschränkung nehmen wir $\Vert x\Vert=1$ an. Sei $W=K\cdot x_1$. Nach \propref{6_4_11} ist dann $V=W\oplus W^\perp$. Für $v\in W^\perp, w\in W$ ist
\begin{align}
0=\skalar{v}{w}=\skalar{f(v)}{f(w)}=\overline{\lambda}\skalar{f(v)}{w}\notag
\end{align}
da $\lambda\neq 0$ ($f$ unitär) also $f(W^\perp)\perp W$. Somit ist $f(W^\perp)\subseteq W^\perp$, d.h. $W^\perp$ ist $f$-invariant. Da auch $f\vert_{W^\perp}$ unitär ist, gibt es nach Induktionshypothese eine Orthonormalbasis $(x_1,...,x_n)$ aus Eigenvektoren von $f\vert_{W^\perp}$. Da $V=W\oplus W^\perp$ und $W\perp W^\perp$ ist $(x_1,...,x_n)$ eine Orthonormalbasis von $V$ aus Eigenvektoren von $f$.
\end{proof}
\begin{conclusion}
Jeder unitäre Endomorphismus eines unitären Vektorraums ist diagonalisierbar.
\end{conclusion}
\begin{conclusion}
Zu jeder $A\in\Uni_n$ gibt es $S\in\Uni_n$ so, dass
\begin{align}
S^*AS=S^{-1}AS=\diag(\lambda_1,...,\lambda_n)\notag
\end{align}
mit $\vert\lambda_i\vert=1$ für $i=1,...,n$.
\end{conclusion}
\begin{proof}
Da $A$ unitär ist, ist $f_A\in\End_\comp(\comp^n)$ unitär, nach \propref{6_5_9} existiert also eine Orthonormalbasis $B$ des $\comp^n$ aus Eigenvektoren von $A$. Die Transformationsmatrix $S=T_{\mathcal{E}}^B$ hat als Spalten die Elemente von $B$ und somit ist $S$ nach \propref{6_5_8} unitär. Nach \propref{6_5_2} ist $\vert\lambda\vert=1$ für alle Eigenwerte von $f_A$.
\end{proof}
\begin{remark}
Dies (\propref{6_5_9}) gilt nicht im Fall $K=\real$. Man kann aber auch orthogonale Endomorphismen immer "'fast diagonalisieren"'.
\end{remark}

View file

@ -0,0 +1,122 @@
\section{Orthogonalität}
Sei $V$ ein euklidischer bzw. unitärer Vektorraum.
\begin{definition}[orthogonal, orthogonales Komplement]
Zwei Vektoren $x,y\in V$ heißen \begriff{orthogonal}, in Zeichen $x\perp y$, wenn $\skalar{x}{y}=0$. Zwei Mengen $X,Y\subseteq V$ sind \emph{orthogonal}, in Zeichen $X\perp Y$, wenn $x\perp y$ für alle $x\in X$ und $y\in Y$.
Für $U\subseteq V$ bezeichnet
\begin{align}
U^{\perp}=\{x\in V\mid x\perp u\text{ für alle } u\in U\}\notag
\end{align}
das \begriff{orthogonale Komplement} zu $U$.
\end{definition}
\begin{lemma}
\proplbl{6_4_2}
Für $x,y\in V$ ist
\begin{itemize}
\item $x\perp y\iff y\perp x$
\item $x\perp 0$
\item $x\perp x\iff x=0$
\end{itemize}
\end{lemma}
\begin{proof}
klar
\end{proof}
\begin{proposition}
Für $U\subseteq V$ ist $U^\perp$ ein Untervektorraum von $V$ mit $U\perp U^\perp$ und $U\cap U^\perp \subseteq\{0\}$.
\end{proposition}
\begin{proof}
Linearität des Skalarprodukts im ersten Argument liefert, dass $U^\perp$ ein Untervektorraum ist. Die Aussage $U^\perp \perp U$ ist trivial, $U \perp U^\perp$ folgt dann aus \propref{6_4_2}. Ist $u\in U\cap U^\perp$, so ist insbesondere $u\perp u$, also $u=0$ nach \propref{6_4_2}.
\end{proof}
\begin{definition}[orthonormal]
Eine Familie $(x_i)_{i\in I}$ von Elementen von $V$ ist \emph{orthogonal}, wenn $x_i\perp x_j$ für alle $i\neq j$, und \begriff{orthonormal}, wenn zusätzlich $\Vert x_i\Vert=1$ für alle $i$. Eine orthogonale Basis nennt man eine \emph{Orthogonalbasis}, eine orthonormale Basis nennt man eine \emph{Orthonormalbasis}.
\end{definition}
\begin{remark}
\proplbl{6_4_5}
Eine Basis $B$ ist genau dann eine Orthonormalbasis, wenn die darstellende Matrix des Skalarprodukts bezüglich $B$ die Einheitsmatrix ist. (Beispiel: Standardbasis des Standardraum bezüglich des Standardskalarprodukts)
\end{remark}
\begin{lemma}
Ist die Familie $(x_i)_{i\in I}$ orthogonal und $x_i\neq 0$ für alle $i\in I$, so ist $(x_i)_{i\in I}$ linear unabhängig.
\end{lemma}
\begin{proof}
Ist $\sum_{i\in I} \lambda_i x_i=0$, $\lambda_i\in K$, fast alle gleich 0, so ist $0=\skalar{\sum_{i\in I} \lambda_i x_i}{x_j}=\sum_{i\in I} \lambda_i\skalar{x_i}{x_j}=\lambda_j\skalar{x_j}{x_j}$ Aus $x_j\neq 0$ folgt $\skalar{x_j}{x_j}>0$ und somit $\lambda_j=0$ für jedes $j\in I$.
\end{proof}
\begin{lemma}
\proplbl{6_4_7}
Ist $(x_i)_{i\in I}$ orthogonal und $x_i\neq 0$ für alle $i$, so ist $(y_i)_{i\in I}$ mit
\begin{align}
y_i=\frac{1}{\Vert x_i\Vert}x_i\notag
\end{align}
orthonormal.
\end{lemma}
\begin{proof}
Für alle $i$ ist $\skalar{y_i}{y_i}=\frac{1}{\Vert x_i\Vert^2}\skalar{x_i}{x_i}=1$. \\
Für alle $i\neq j$ ist $\skalar{y_i}{y_j}=\frac{1}{\Vert x_i\Vert\cdot \Vert x_j\Vert}\skalar{x_i}{x_j}=0$.
\end{proof}
\begin{proposition}
\proplbl{6_4_8}
Sei $U\subseteq V$ ein Untervektorraum und $B=(x_1,...,x_k)$ eine Orthonormalbasis von $U$. Es gibt genau einen Epimorphismus $\pr_U:V\to U$ mit $\pr_U\vert_U=\id_U$ und $\Ker(\pr_U)\perp U$, insbesondere also $x-\pr_U\perp U$ für alle $x\in V$, genannt die \begriff{orthogonale Projektion} auf $U$, und dieser ist geben durch
\begin{align}
x\mapsto\sum_{i=1}^k \skalar{x}{x_i}x_i
\end{align}
\end{proposition}
\begin{proof}
Sei zunächst $pr_U$ durch (1) gegeben. Die Linearität von $\pr_U$ folgt aus (S1) und (S3). Für $u=\sum_{i=1}^k \lambda_i x_i\in U$ ist $\skalar{u}{x_j}=\skalar{\sum_{i=1}^k \lambda_i x_i}{x_j}=\sum_{i=1}^k \lambda_i\skalar{x_i}{x_j}=\lambda_j$, woraus $\pr_U(u)=u$. Somit ist $\pr_U\vert_U=\id_U$, und insbesondere ist $pr_U$ surjektiv. Ist $\pr_U(x)=0$, so ist $\skalar{x}{x_i}=0$ für alle $i$., woraus mit (S2) und (S4) sofort $x\perp U$ folgt. Somit ist $\Ker(\pr_U)\perp U$. \\
Für $x\in V$ ist $\pr_U(x-\pr_U(x))=\pr_U(x)-\pr_U(\pr_U(x))=\pr_U(x)-\pr_U(x)=0$, also $x-\pr_U(x)\in\Ker(\pr_U)\subseteq U^\perp$. \\
Ist $f:V\to U$ ein weiterer Epimorphismus mit $f\vert_U=\id_U$ und $\Ker(f)\perp U$, so ist
\begin{align}
\underbrace{\pr_U(x)}_{\in U}-\underbrace{f(x)}_{\in U}=\underbrace{\pr_U(x)-x}_{\in U^\perp}-\underbrace{f(x)-x}_{\in U^\perp}\in U\cap U^\perp =\{0\}\notag
\end{align}
für jedes $x\in V$, somit $f=\pr_U$.
\end{proof}
\begin{theorem}[\person{Gram-Schmidt}-Verfahren]
\proplbl{6_4_9}
Ist $(x_1,...,x_n)$ eine Basis von $V$ und $k\le n$ mit $(x_1,...,x_k)$ orthonormal, so gibt es eine Orthonormalbasis $(y_1,...,y_n)$ von $V$ mit $y_i=x_i$ für $i=1,...,k$ und $\Span_K(y_1,...,y_l)=\Span_K(x_1,...,x_l)$ für $l=1,...,n$.
\end{theorem}
\begin{proof}
Induktion nach $d=n-k$. \\
\emph{$d=0$:} nichts zu zeigen \\
\emph{$d-1\to d$:} Für $i\neq k+1$ definiere $y_I=x_i$. Sei $U=\Span_K(x_1,...,x_k)$, $\tilde{x_{k+1}}=x_{k+1}-\pr_U(x_{k-1})$. Dann ist $\tilde{x_{k+1}}\in\Ker(\pr_U)\subseteq U^\perp$ (vgl. \propref{6_4_8}) und $\Span_K(x_1,...,x_k,\tilde{x_{k+1}})=\Span_K(x_1,...,x_{k+1})$. Setze $y_{k+1}=\frac{1}{\Vert \tilde{x_{k+1}}\Vert}\tilde{x_{k+1}}$. Dann ist $(y_1,...,y_n)$ eine Basis von $V$ mit $(y_1,...,y_{k+1})$ orthonormal (vgl. \propref{6_4_7}). Nach Induktionshypothese gibt es eine Orthonormalbasis von $V$, die das Gewünschte leistet.
\end{proof}
\begin{conclusion}
\proplbl{6_4_10}
Jeder endlichdimensionale euklidische bzw. unitäre Vektorraum $V$ besitzt eine Orthonormalbasis.
\end{conclusion}
\begin{proof}
Wähle irgendeine Basis von $V$ und wende \propref{6_4_9} mit $k=0$ an.
\end{proof}
\begin{conclusion}
\proplbl{6_4_11}
Ist $U$ ein Untervektorraum von $V$, so ist $V=U\oplus U^\perp$ und $(U^\perp)^\perp=U$.
\end{conclusion}
\begin{proof}
Wähle eine Orthonormalbasis von $U$ (vgl. \propref{6_4_10}), $B=(x_1,...,x_k)$ und ergänze diese zu einer Orthonormalbasis $(x_1,...,x_n)$ von $V$ (vgl. \propref{6_4_9}). Dann sind $x_{k+1},...,x_n\in U\perp$, da $U\cap U^\perp=\{0\}$ ist somit $V=U\oplus U^\perp$. Insbesondere ist $\dim_K(U^\perp)=n-\dim_K(U)$, woraus $\dim_K((U^\perp)^\perp)=\dim_K(U)$ folgt. Zusammen mit der trivialen Inklusion $U\subseteq (U^\perp)^\perp$ folgt $U=(U^\perp)^\perp$.
\end{proof}
\begin{conclusion}
Ist $s$ eine positiv definite hermitesche Sesquilinearform auf $V$ und $B$ eine Basis von $V$, so ist
\begin{align}
\det(M_B(s))\in \real_{>0}\notag
\end{align}
\end{conclusion}
\begin{proof}
Wähle eine Orthonormalbasis $B'$ von $V$ bezüglich $s$. Dann ist $M_{B'}(s)=\mathbbm{1}_n$, folglich
\begin{align}
\det(M_B(s))&=\det\left( (T_{B'}^B)^t\cdot \mathbbm{1}_n\cdot\overline{T_{B'}^B} \right)\notag \\
&= \det\left( (T_{B'}^B)^t \right) \cdot \det\left( \overline{T_{B'}^B} \right) \notag\\
&= \det\left( T_{B'}^B \right) \cdot\overline{\det\left( T_{B'}^B\right)}\notag \\
&= \vert \det\left( T_{B'}^B \right) \vert^2\notag \\
>0\notag
\end{align}
\end{proof}

View file

@ -0,0 +1,220 @@
\section{Polynome}
In diesem Abschnitt sei $R$ ein kommutativer Ring mit Einselement. \\
\begin{remark}
Unter einem \begriff{Polynom} in der "'Unbekannte"' $x$ versteht man einen Ausdruck der Form
$f(x)=a_0+a_1x+a_2x^2+...+a_nx^n = \sum_{k=0}^{n} a_kx^k$ mit $a_0,...,a_n \in R$. Fasst man $x$
als ein beliebiges Element von $R$ auf, gelten einige offensichtliche Rechenregeln: \\
Ist $f(x)=\sum _{k=0}^{n} a_kx^k$ und $g(x)=\sum _{k=0}^{n} b_kx^k$ so ist
\begin{itemize}
\item $f(x)+g(x)=\sum _{k=0}^{n} (a_k+b_k)x^k$
\item $f(x)\cdot g(x)=\sum _{k=0}^{2n} c_kx^k$ mit $c_k=\sum _{j=0}^{k} a_jb_{k-j}$
\end{itemize}
Dies motiviert die folgende präzise Definition für den Ring der Polynome über $R$ in einer "'Unbestimmten"'
$x$.
\end{remark}
\begin{definition}[Polynom]
Sei $R[X]$ die Menge der Folgen in $R$ (siehe \propref{1_2_13}), die fast überall 0 sind, also
\begin{align}
R[X]:=\{(a_k)_{k \in \mathbb N_0} \mid \forall k(a_k \in R) \land \exists n_0: \forall k>n_0(a_k=0)\} \notag
\end{align}
\end{definition}
Wir definieren Addition und Multiplikation auf $R[X]$:
\begin{itemize}
\item $(a_k)_{k \in \mathbb N_0}+(b_k)_{k \in \mathbb N_0}=(a_k+b_k)_{k \in \mathbb N_0}$
\item $(a_k)_{k \in \mathbb N_0}\cdot (b_k)_{k \in \mathbb N_0}=(c_k)_{k \in \mathbb N_0}$ mit
$c_k = \sum _{j=0}^{k} a_jb_{k-j}$
\end{itemize}
$\newline$
Mit diesen Verknüpfungen wird $R[X]$ zu einem kommutativen Ring mit Einselement. Diesen Ring nennt man
Polynomring (in einer Variablen $X$) über $R$. Ein $(a_k)_{k \in \mathbb N_0} \in R[X]$ heißt Polynom mit
den Koeffizienten $a_0,...,a_n$. Wenn wir $a \in R$ mit der Folge $(a,0,0,...,0) := (a,\delta_{k,0})_{k \in \mathbb N_0}$
identifizieren, wird $R$ zu einem Unterring von $R[X]$.
$\newline$
Definiert man $X$ als die Folge $(0,1,0,..,0) := (\delta_{k,1})_{k \in \mathbb N_0}$ (die Folge hat an der $k$-ten
Stelle eine 1, sonst nur Nullen). Jedes $f(a_k)_{k \in \mathbb N_0}$ mit $a_k=0$ für $k>n_0$ lässt sich eindeutig
schreiben als $f(X)=\sum_{k=0}^{n_0} a_kX^k$.\\
Alternativ schreiben wir auch $f=\sum_{k \ge 0} a_kX^k$ mit dem Verständnis, dass diese unendliche
Summe nur endlich von 0 verschiedene Summanden enthält.
$\newline$
Sei $0 \neq f(X)=\sum_{k \ge 0} a_kX^k \in R[X]$. Der \begriff{Grad} von $f$ ist das größte $k$ mit $a_k
\neq 0$, geschrieben $\deg(f):= max\{k \in \mathbb N_0 \mid a_k \neq 0\}$. Man definiert den Grad des
Nullpolynoms als $\deg(0)=-\infty$, wobei $-\infty < k \forall k \in \mathbb N_0$ gelten soll. Man nennt $a_0$
den \begriff{konstanten Term} und $a_{\deg(f)}$ den \begriff{Leitkoeffizienten} von $f$. Hat $f$ den Grad 0, 1 oder 2, so nennt
man $f$ \begriff[Polynom!]{konstant}, \begriff[Polynom!]{linear} bzw. \begriff[Polynom!]{quadratisch}.
\begin{example}
Das lineare Polynom $f(X)=X-2 \in R[X]$ hat den Leitkoeffizient 1 und den konstanten Term $-2$.
\end{example}
\begin{proposition}
Seien $f,g \in R[X]$
\begin{itemize}
\item Es ist $\deg(f+g)\le \max\{\deg(f), \deg(g)\}$.
\item Es ist $\deg(f\cdot g) \le \deg(f)+\deg(g)$.
\item Ist $R$ nullteilerfrei, so ist $\deg(f\cdot g) = \deg(f)+\deg(g)$ und auch $R[X]$ ist nullteilerfrei.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item offenbar
\item Ist $\deg(f)=n$ und $\deg(g)=m$, $f=\sum_{i \ge 0} f_iX^i$, $g=\sum_{j\ge 0} g_jX^j$,
so ist auch $h=fg=\sum_{k \ge 0} h_kX^k$ mit $h_k=\sum_{i+j=k} f_i\cdot g_j$ für alle $k \ge 0$.
Ist $k>n+m$ und $i+j=k$, so ist $i>n$ oder $j>m$, somit $f_i=0$ oder $g_j=0$ und somit $h_k=0$.
Folglich ist $\deg(h) \le n+m$.
\item Ist $f=0$ oder $g=0$, so ist die Aussage klar, wir nehmen als $n,m \ge 0$ an. Nach b) ist $\deg(h) \le
n+m$ und $h_{m+n}=\sum_{i+j=n+m} f_ig_j=f_ng_m$. Ist $R$ nullteilerfrei, so folgt aus $f_n \neq 0$
und $g_m\neq 0$ schon $f_ng_m\neq 0$, und somit $\deg(h)=n+m$.
\end{itemize}
\end{proof}
\begin{theorem}[Polynomdivision]
\proplbl{1_6_5}
Sei $K$ ein Körper und sei $0 \neq g \in K[X]$. Für jedes Polynom
$f \in K[X]$ gibt es eindeutig bestimmte $g,h,r \in K[X]$ mit $f=gh+r$ und $\deg(r)<\deg(g)$.
\end{theorem}
\begin{proof}
Existenz und Eindeutigkeit
\begin{itemize}
\item Existenz: Sei $n=\deg(f)$, $m=\deg(g)$, $f=\sum _{k=0}^{n} a_kX^k$, $g=\sum _{k=0}^{m} b_kX^k$ \\
Induktion nach $n$ bei festem $g$. \\
IA: Ist $n<m$, so wählt man $h=0$ und $r=f$.\\
IB: Wir nehmen an, dass die Aussage für alle Polynome vom Grad kleiner als $n$ gilt.\\
IS: Ist $n \ge m$, so betrachtet man $f_1=f-\frac{a_n}{b_m}\cdot X^{n-m}\cdot g(X)$. Da $\frac{a_n}{b_m}\cdot
X^{n-m}\cdot g(X)$ ein Polynom vom Grad $n-m+\deg(g)=n$ mit Leitkoeffizient $\frac{a_n}{b_m}\cdot b_m=a_n$ ist, ist
$\deg(f_1)<n$. Nach IB gibt es also $h_1, r_1 \in K[X]$ mit $f_1=gh_1+r_1$ und $\deg(r)<\deg(g)$. Somit ist
$f(X)=f_1(X)+\frac{a_n}{b_m}\cdot X^{n-m}\cdot g(X)=gh+r$ mit $h(X)=h_1(X)+\frac{a_n}{b_m}\cdot X^{n-m}, r=r_1$.
\item Eindeutigkeit: Sei $n=\deg(f), m=\deg(g)$. Ist $f=gh+r=gh'+r'$ und $\deg(r),\deg(r')<m$, so ist $(h-h')g=r'-r$ und
$\deg(r'-r)<m$. Da $\deg(h-h')=\deg(h'-h)+m$ muss $\deg(h-h')<0$, also $h'-h=0$ sein. Somit $h'=h$ und $r'=r$.
\end{itemize}
\end{proof}
\begin{remark}
Der Existenzbeweis durch Induktion liefert uns ein konstruktives Verfahren, diese sogenannte
Polynomdivision durchzuführen.
\end{remark}
\begin{*example}
in $\mathbb Q[X]$: $(x^3+x^2+1):(x^2+1)=x+1$ Rest $-x$
\end{*example}
\begin{definition}[Nullstelle]
\proplbl{1_6_7}
Sei $f(X)=\sum_{k \ge 0} a_kX^k \in \mathbb R[X]$. Für $\lambda \in
\mathbb R$ definiert man die Auswertung von $f$ in $\lambda$ $f(\lambda)=\sum_{k \ge 0} a_k\lambda^k
\in \mathbb R$. Das Polynom $f$ liefert auf diese Weise eine Abbildung $\tilde f: \mathbb R \to \mathbb R$ und
$\lambda \mapsto f(\lambda)$. \\
Ein $\lambda \in \mathbb R$ $f(\lambda)=0$ ist eine \begriff{Nullstelle} von $f$.
\end{definition}
\begin{lemma}
\proplbl{1_6_8}
Für $f,g \in \mathbb R[X]$ und $\lambda \in \mathbb R$i ist
\begin{align}
(f+g)(\lambda)&=f(\lambda)+g(\lambda)\notag\\
(fg)(\lambda)&=f(\lambda) \cdot g(\lambda)\notag
\end{align}
\end{lemma}
\begin{proof}
Ist $f=\sum _{k \ge 0} a_kX^k$ und $g=\sum _{k\ge 0} b_kX^k$, so ist \\
\begin{align}
f(\lambda)+g(\lambda)&=\sum _{k \ge 0} a_k\lambda^k + \sum _{k\ge 0} b_k\lambda^k \notag \\
&= \sum _{k\ge 0} (a_k+b_k)\lambda^k\notag \\
&=(f+g)(\lambda)\notag
\end{align}
und
\begin{align}
f(\lambda)\cdot g(\lambda)&= \sum _{k\ge 0} a_k\lambda^k \cdot \sum _{k\ge 0} b_k\lambda^k\notag \\
&= \sum _{k \ge 0} \sum _{i+j=k} (a_i+b_j)\lambda^k \notag \\
&= (fg)(\lambda) \notag
\end{align}
\end{proof}
\begin{proposition}
\proplbl{1_6_9}
Ist $K$ ein Körper und $\lambda \in K$ eine Nullstelle von $f \in K[X]$ so gibt es ein
eindeutig bestimmtes $h \in K[X]$ mit $f(X)=(X-\lambda)\cdot h(x)$.
\end{proposition}
\begin{proof}
Nach \propref{1_6_5} gibt es gibt $h,r \in K[X]$ mit $f(X)=(X-\lambda)\cdot h(x)+r(x)$ und $\deg(r)<\deg(X-\lambda)=1$, also $r \in
K$. Da $\lambda$ Nullstelle von $f$ ist, gilt $0=f(\lambda)=(\lambda-\lambda)\cdot h(\lambda)+r(\lambda)=
r(\lambda)$ nach \propref{1_6_8}. Hieraus folgt $r=0$. Eindeutigkeit folgt aus Eindeutigkeit in \propref{1_6_5}.
\end{proof}
\begin{conclusion}
\proplbl{1_6_10}
Sei $K$ ein Körper. Ein Polynom $0\neq f \in K[X]$ hat höchstens $\deg(f)$ viele
Nullstellen.
\end{conclusion}
\begin{proof}
Induktion nach $\deg(f)=n$ \\
Ist $n=0$, so ist $f \in K^{\times}$ und hat somit keine Nullstellen. \\
Ist $n>0$ und hat f eine Nullstelle $\lambda \in K$, so ist $f(X)=(X-\lambda)*h(x)$ mit $h(x) \in K[X]$ und
$\deg(f)=\deg(X-\lambda)+\deg(h)=n-1$. Nach IV besitzt $h$ höchstens $\deg(h)=n-1$ viele Nullstellen. Ist
$\lambda'$ eine Nullstelle von $f$, so ist $0=f(\lambda)=(\lambda-\lambda)*h(\lambda)$, also $\lambda'=
\lambda$ oder $\lambda'$ ist Nullstelle von $h$. Somit hat $f$ höchstens $n$ viele Nullstellen in $K$.
\end{proof}
\begin{conclusion}
Ist $K$ ein unendlicher Körper, so ist die Abbildung $K[X] \to \Abb(K,K)$ und $f \mapsto
\tilde f$ injektiv.
\end{conclusion}
\begin{proof}
Sind $f,g \in K[X]$ mit $\tilde f = \tilde g$, also $f(\lambda)=g(\lambda)$ für jedes $\lambda \in K$, so ist
jedes $\lambda$ Nullstelle von $h:= f-g \in K[X]$. Da $|K|=\infty$ ist, so ist $h=0$, also $f=g$.
\end{proof}
\begin{remark}
Dieses Korollar besagt uns, dass man über einem unendlichen Körper Polynome als
polynomiale Abbildungen auffassen kann. Ist $K$ aber endlich, so ist dies im Allgemeinen nicht richtig.
Beispiel: $K=\mathbb Z\backslash 2\mathbb Z$, $f(X)=X$, $g(X)=X^2 \Rightarrow f \neq g$, aber
$\tilde f=\tilde g$.
\end{remark}
\begin{example}
Sei $f(X)=X^2+1 \in \mathbb R[X] \subset \mathbb C[X]$ \\
In $K=\mathbb R$ hat $f$ keine Nullstelle: Für $\lambda \in \mathbb R\; f(\lambda)=\lambda^2+1 \ge1 >0$. \\
In $K=\mathbb C$ hat $f$ die beiden Nullstellen $\lambda_1=i$ und $\lambda_2=-i$ und zerfällt dort in Linearfaktoren:
$f(X)=(X-i)(X+i)$.
\end{example}
\begin{proposition}
\proplbl{1_6_14}
Für einen Körper $K$ sind äquivalent:
\begin{itemize}
\item Jedes Polynom $f \in K[X]$ mit $\deg(f)>0$ hat eine Nullstelle in $K$.
\item Jedes Polynom $f \in K[X]$ zerfällt in Linearfaktoren, also $f(X)=a\cdot \prod _{i=1}^n
(X-\lambda_i)$ mit $n=\deg(f), a, \lambda_i \in K$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $1 \Rightarrow 2:$ Induktion nach $n=\deg(f)$ \\
Ist $n\le0$, so ist nichts zu zeigen. \\
Ist $n>0$, so hat $f$ eine Nullstelle $\lambda_n \in K$, somit $f(X)=(X-\lambda_n)\cdot g(X)$ mit $g(X) \in K[X]$
und $\deg(g)=n-1$, Nach IV ist $g(X)=a\cdot \prod _{i=1}^n (X-\lambda_i)$. Nach \propref{1_6_9} ist $f(X)=a\cdot \prod
_{i=1}^n (X-\lambda_i)$.
\item $2 \Rightarrow 1:$ Sei $f \in K[X]$ mit $n=\deg(f)>0$. Damit gilt $f(X)=a\cdot \prod _{i=1}^n (X-\lambda_i)$.
Da $n>0$, hat $f$ z.B. die Nullstelle $\lambda_1$.
\end{itemize}
\end{proof}
\begin{definition}[algebraisch abgeschlossen]
Ein Körper $K$ heißt \begriff{algebraisch abgeschlossen}, wenn er eine
der äquivalenten Bedingungen erfüllt.
\end{definition}
\begin{theorem}[Fundamentalsatz der Algebra]
\proplbl{1_6_16}
Der Körper $\mathbb C$ ist algebraisch abgeschlossen.
\end{theorem}
\begin{remark}
Wir werden das Theorem zwar benutzen, aber nicht beweisen.
\end{remark}

View file

@ -0,0 +1,202 @@
\section{Quadriken}
Sei $n\in\natur$.
\begin{definition}[Quadrik]
\proplbl{6_8_1}
Eine \begriff{Quadrik} ist eine Teilmenge von $\real^n$ mit
\begin{align}
Q=\{x\in\real^n\mid x^tAx+2b^tx+c=0\}\notag
\end{align}
mit $A\in\Mat_n(\real)$ symmetrisch, $b^t\in\real^n$ und $c\in\real$.
\end{definition}
\begin{remark}
\begin{itemize}
\item $Q=\{x\in\real^n\mid \sum_{i,j=1}^n a_{ij}x_iy_j+2\sum_{i=1}^n b_ix_i+c=0\}$ also $Q$ ist die Nullstellenmenge eines quadratischen Polynoms in $x_1,...,x_n$
\item $Q$ bestimmt $A,b,c$ nicht eindeutig, da $Q(A,b,c)=Q(\lambda A,\lambda b,\lambda c)$
\item Man kann $A,b,c$ so normieren, dass $c=0$ oder $c=1$
\end{itemize}
\end{remark}
\begin{remark}
Seien $A,b,c$ wie in \propref{6_8_1}, so schreiben wir
\begin{align}
\tilde{A}&=\begin{pmatrix}A&b\\b^t&c\end{pmatrix}\notag \\
\tilde{x}&=\begin{henrysmatrix}x\\1\end{henrysmatrix}\notag
\end{align}
Dann ist $Q=\{x\in\real^n\mid \tilde{x}^t\tilde{A}\tilde{x}=0\}$. Wir schreiben $(A,b)$ für
\begin{align}
\begin{pmatrix}A&b\end{pmatrix}\in\Mat_{n,n+1}(\real)\notag
\end{align}
Es gilt $\rk(A)\le \rk(A,b)\le \rk(\tilde{A})$.
\end{remark}
\begin{remark}[Wiederholung]
Seien $V,W$ $K$-Vektorräume. $f:V\to W$ heißt affin, wenn $\exists g\in\Hom_K(V,W)$ mit $f(v)=g(v)+w_0$ $\forall v\in V$. Ist $f$ affin und bijektiv, so ist $f^{-1}$ affin, d.h. $\Aff_K(V)=\{f:V\to V\mid f\text{ affin und bijektiv}\}$. Im Fall von $V=\real^n$, $K=\real$ ist
\begin{align}
\Aff_{\real}(\real^n)=\{f=\tau_z\circ f_T\mid T\in\GL_n(\real),z\in\real^n\}\notag
\end{align}
mit $f_T(x)=Tx$ und $\tau_z(x)=x+z$.
\end{remark}
\begin{lemma}
Ist $Q\subseteq\real^n$ eine Quadrik, so ist $f(Q)$ eine Quadrik, für $f\in\Aff_{\real}(\real^n)$.
\end{lemma}
\begin{proof}
$f=\tau_z\circ f_T$ mit $T\in\GL_n(\real)$ und $z\in\real^n$. Schreibe $S=T^{-1}\in\GL_n(\real)$, $\tilde{S}=\begin{henrysmatrix}S&0\\0&1\end{henrysmatrix}$. Es gilt $\tilde{S}\tilde{x}=\widetilde{Sx}$.
\begin{align}
f_T(Q)&=\{Tx\in\real^n\mid \tilde{x}^t\tilde{A}\tilde{x}=0\}\notag \\
&=\{y\in\real^n\mid (\tilde{S}\tilde{y})^t\tilde{A}\tilde{S}\tilde{y}=0\}\notag \\
&=\{y\in\real^n\mid \tilde{y}^t\underbrace{\tilde{S}^t\tilde{A}\tilde{S}}_{\begin{pmatrix}S^tAS&S^tb\\b^tS&c\end{pmatrix}}\tilde{y}=0\}\notag
\end{align}
Jetzt für $\tau_z$. Sei $U_z=\begin{henrysmatrix}\mathbbm{1}&z\\0&1\end{henrysmatrix}$. $U_z\tilde{x}=\tilde{\tau}_z(x)$. Man folgert analog, dass
\begin{align}
\tau_z(Q)=\{y\in\real^n\mid \tilde{y}^t\underbrace{U_z^t\tilde{A}U_z}_{\begin{pmatrix} A&Az+b\\z^tA+b&z^tAz+b^tz+z^tb+c\end{pmatrix}}\tilde{y}=0\}\notag
\end{align}
\end{proof}
\begin{definition}[Typen von Quadriken]
Sei $Q$ gegeben durch $(A,b,c)$ wie in \propref{6_8_1}. $Q$ heißt
\begin{itemize}
\item vom \begriff[Quadrik!]{kegeligen Typ}, wenn $\rk(A)=\rk(A,b)=\rk(\tilde{A})$
\item eine \begriff[Quadrik!]{Mittelpunktsquadrik}, wenn $\rk(A)=\rk(A,b)<\rk(\tilde{A})$
\item vom \begriff[Quadrik!]{parabolischen Typ}, wenn $\rk(A)<\rk(A,b)$
\item \begriff{ausgeartet}, wenn $\det(\tilde{A})=0$
\end{itemize}
\end{definition}
\begin{lemma}
Ist $Q\subseteq\real^n$ eine Quadrik, $f\in\Aff_{\real}(\real^n)$. Von dem Typ, von dem $Q$ ist, ist auch $f(Q)$.
\end{lemma}
\begin{proof}
$f=f_{S^{-1}}$, $S\in\GL_n(\real)$. Da $\tilde{S}$ invertierbar ist, ist $\rk(\tilde{A})= \rk(\tilde{S}^t\tilde{A}\tilde{S})$, analog auch $\rk(S^tAS)=\rk(A)$. \\
$(S^tAS,S^tb)=S^t(A,b)\begin{henrysmatrix}S&0\\0&1\end{henrysmatrix}\Rightarrow \rk(S^tAS,S^tb)=\rk(A,b)$. Für $f=\tau_z$ analog.
\end{proof}
\begin{definition}[Isometrie]
Eine \begriff{Isometrie} des $\real^n$ ist $f\in\Aff_{\real}(\real^n)$ mit
\begin{align}
f(x)=Ax+b\notag
\end{align}
mit $b\in\real^n$ und $A\in\GL_n(\real)$ ist orthogonal.
\end{definition}
\begin{remark}
$f:\real^n\to\real^n$ ist eine Isometrie genau dann, wenn $\Vert f(x)-f(y)\Vert=\Vert x-y\Vert$ für alle $x,y\in\real^n.$
\end{remark}
\begin{theorem}[Klassifikation der Quadriken bis auf Isometrien]
Sei $Q$ eine Quadrik. Es gibt eine Isometrie $f\in\Aff_{\real}(\real^n)$ mit $f(Q)$, die eine der folgenden Formen annimmt:
\begin{itemize}
\item $f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k \left( \frac{x_i}{a_i}\right)^2 -\sum_{i=k+1}^{n} \left( \frac{x_i}{a_i}\right)^2=0\right\rbrace \quad k\ge r-k\notag$
\item $f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k \left( \frac{x_i}{a_i}\right)^2 -\sum_{i=k+1}^{n} \left( \frac{x_i}{a_i}\right)^2=1\right\rbrace\notag$
\item $f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k \left( \frac{x_i}{a_i}\right)^2 -\sum_{i=k+1}^{n} \left( \frac{x_i}{a_i}\right)^2-2x_{r+1}=0\right\rbrace \quad k\ge r-k, r<n\notag$
\end{itemize}
mit $a_1,...,a_r\in\real_{>0}$ und $0\le k\le r\le n$
\end{theorem}
\begin{proof}
Sei $Q$ gegeben durch $(A,b,c)$. Nach \propref{6_7_1} gibt es eine orthogonale Matrix $S\in\Orth_n$ mit $S^tSAS=\diag(\lambda_1,...,\lambda_n)$. Indem wir $Q$ durch $f_{S^{-1}}(Q)$ ersetzen, können wir also ohne Einschränkung annehmen, dass $A=\diag(\lambda_1,...,\lambda_n)$. Ohne Einschränkung ist weiter $\lambda_1,...,\lambda_k>0$ und $\lambda_{k+1},...,\lambda_r<0$ und $\lambda_{r+1},...,\lambda_n=0$. Dann ist $(e_{r+1},...,e_n)$ eine Orthonormalbasis des Ausartungsraums $V_0$ von $s_A$. \\
Wenn wir $Q$ durch $\tau_z(Q)$ ersetzen, wird $b$ durch $Az+b$ ersetzt, wir können deshalb ohne Einschränkung annehmen, dass $b\in V_0$. Ist $n>r$, also $V_0\neq \{0\}$, so können wir eine Orthonormalbasis $(v_{r+1},...,v_n)$ von $V_0$ mit $b\in\Span_\real(v_{r+1})$ wählen. \\
Indem wir $Q$ durch $f_{S^{-1}}(Q)$ mit $S=(e_1,...,e_r,v_{r+1},...,v_n)$ ersetzen, können wir ohne Einschränkung annehmen, dass $b=\mu\cdot e_{r+1}$ mit $\mu\in\real$. \\
Ist nun $\rk(A)=\rk(A,b)$, so gibt es $z$ mit $Az=-b$, und indem wir $Q$ durch $\tau_z(Q)$ ersetzen, können wir annehmen, dass $b=0$.
\begin{itemize}
\item Im Fall $c=0$ setzt man $a_i=\frac{1}{\sqrt{\vert \lambda_i\vert}}$ und ersetzt gegebenenfalls $(A,b,c)$ mit $(-A,-b,-c)$, um Form 1 zu erhalten.
\item Im Fall $c\neq 0$ ersetzt man $(A,b,c)$ durch $(-\frac 1 c A, -\frac 1 c b,-1)$ und setzt dann $a_i=\frac{1}{\sqrt{\vert \lambda_i\vert}}$, um Form 2 zu erhalten.
\item Ist $\rk(A)<\rk(A,b)$, so ist insbesondere $r<n$ und $\mu\neq 0$. Nun ersetzten wir $Q$ durch $\tau_z(Q)$ mit $z=-\frac{c}{2\mu}\cdot e_{r+1}$ und können somit auch wieder $c=0$ annehmen. Ersetzt man $(A,b,0)$ durch $(-\frac{1}{\mu}A,-1,0)$ und setzt wieder $a_i=\frac{1}{\sqrt{\vert \lambda_i\vert}}$, so erhält man Form 3. (Ist $k<r-k$, so ersetzt man weiter $Q$ durch $f_{-\mathbbm{1}_n}(Q)$ und $(A,b,0)$ durch $(-A,-b,0)$.)
\end{itemize}
\end{proof}
\begin{conclusion}
Sei $Q\subseteq \real^n$ eine Quadrik. Es gibt eine invertierbare affine Abbildung $f\in\Aff_{\real}(\real^n)$ für die $f(Q)$ eine der folgenden 3 Formen annimmt:
\begin{itemize}
\item \itemEq{f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k x_i^2-\sum_{i=k+1}^r x_i^2=0\right\rbrace \quad k\ge r-k\notag}
\item \itemEq{f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k x_i^2-\sum_{i=k+1}^r x_i^2=1\right\rbrace\notag}
\item \itemEq{f(Q)=\left\lbrace x\in\real^n\mid \sum_{i=1}^k x_i^2-\sum_{i=k+1}^r x_i^2-2x_{r+1}=0\right\rbrace\quad k\ge r-k,r<n\notag}
\end{itemize}
\end{conclusion}
\begin{example}
\proplbl{6_8_example}
$Q\subseteq\real^2$
\begin{itemize}
\item \begin{itemize}
\item \itemEq{k=2,r=2:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2+\left( \frac{x_2}{a_2}\right)^2=0\right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[fill=red] (0,0) circle (0.1);
\end{tikzpicture}
\end{center}
\item \itemEq{k=1,r=2:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2-\left( \frac{x_2}{a_2}\right)^2=0\right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[thick, red] (-1,-1) -- (1,1);
\draw[thick, red] (-1,1) -- (1,-1);
\end{tikzpicture}
\end{center}
\item \itemEq{k=1,r=1:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2=0\right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[thick, red] (0,-1) -- (0,1);
\end{tikzpicture}
\end{center}
\end{itemize}
\item \begin{itemize}
\item\itemEq{k=2,r=2:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2+\left( \frac{x_2}{a_2}\right)^2=1 \right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[red] (0,0) ellipse (1cm and 0.5cm);
\end{tikzpicture}
\end{center}
\item\itemEq{k=1,r=2:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2-\left( \frac{x_2}{a_2}\right)^2=1 \right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[red] plot [smooth] coordinates {(-0.2,1) (0,0.6) (0.5,0.3) (1,0.3)};
\draw[red] plot [smooth] coordinates {(-1,-0.2) (-0.4,-0.3) (-0.2,-0.5) (0,-1)};
\end{tikzpicture}
\end{center}
\item\itemEq{k=1,r=1:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2=1 \right\rbrace\notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[thick, red] (-0.5,-1) -- (-0.5,1);
\draw[thick, red] (0.5,-1) -- (0.5,1);
\end{tikzpicture}
\end{center}
\item\itemEq{k=0,r=2:\left\lbrace x\in\real^2\mid -\left( \frac{x_1}{a_1}\right)^2-\left( \frac{x_2}{a_2}\right)^2=1 \right\rbrace=\emptyset\notag}
\item\itemEq{k=0,r=1:\left\lbrace x\in\real^2\mid -\left( \frac{x_1}{a_1}\right)^2-\left( \frac{x_2}{a_2}\right)^2=1 \right\rbrace=\emptyset\notag}
\end{itemize}
\item \begin{itemize}
\item\itemEq{k=1,r=1:\left\lbrace x\in\real^2\mid \left( \frac{x_1}{a_1}\right)^2-2x_2=0 \right\rbrace \notag}
\begin{center}
\begin{tikzpicture}
\draw[->,thick] (-1,0) -- (1,0);
\draw[->,thick] (0,-1) -- (0,1);
\draw[red] plot [smooth] coordinates {(-1,1) (-0.5,0.25) (0,0) (0.5,0.25) (1,1)};
\end{tikzpicture}
\end{center}
\end{itemize}
\end{itemize}
\end{example}
\begin{remark}
\begin{itemize}
\item Ist $Q\subseteq\real^2$ eine Quadrik, $U\subseteq V$ affiner Untervektorraum, so ist $Q\cap U$ eine Quadrik in dem Sinne, dass $\exists f\text{ Isometrie}: f(U)=\real^k$ und $f(Q\cap U)$ ist eine Quadrik.
\item Ebene Quadriken sind im wesentlichen Kegelschnitte, $Q'=\{x\in\real^3\mid x_1^2+x_2^2=x_3^2\}$, außer 2c und 2d in \propref{6_8_example}
\end{itemize}
\end{remark}
\begin{remark}
Die Situation wird deutlich übersichtlicher, wenn man den affinen Raum $\real^n$ durch Hinzunahme von Punkten im Unendlichen zum \begriff{projektiven Raum} $\mathbb{P}^n(\real)$ vervollstädigt und den Abschluss der Quadriken darin betrachtet. Es stellt sich dann heraus, dass vom projektiven Standpunkt aus die meisten ebenen Quadriken ähnlich aussehen. (Siehe Vorlesung \textit{Elementare Algebraische Geometrie})
\end{remark}

View file

@ -0,0 +1,185 @@
\section{Quotienten von Ringen und Moduln}
Seien $M$ und $M'$ zwei $R$-Moduln und $N\subseteq M$ ein Untermodul.
\begin{definition}[Quotientenmodul]
Für $x\in M$ schreiben wir
\begin{align}
x+N:=\{x+y\mid y\in N\}\notag
\end{align}
Der \begriff{Quotientenmodul} (oder Faktormodul) von $M$ modulo $N$ ist
\begin{align}
\qraum{M}{N}:=\{x+N\mid x\in M\}\notag
\end{align}
zusammen mit der Addition
\begin{align}
(x+N)+(y+N):=(x+y)+N\quad (x,y\in M)\notag
\end{align}
und der Skalarmultiplikation
\begin{align}
r\cdot (x+N) := rx+N\quad (x\in M,r\in R)\notag
\end{align}
Sei $\pi_N:M\to \qraum{M}{N}$ die Abbildung gegeben durch $x\mapsto x+N$.
\end{definition}
\begin{lemma}
\proplbl{8_5_2}
Addition und Skalarmultiplikation sind wohldefiniert und machen $\qraum{M}{N}$ zu einem $R$-Modul. Die Abbildung $\pi_N:M\to \qraum{M}{N}$ ist ein $R$-Epimorphismus mit Kern
\begin{align}
\Ker(\pi_N)=N\notag
\end{align}
\end{lemma}
\begin{proof}
\begin{itemize}
\item wohldefiniert: wie in \propref{3_7_5}
\item $\qraum{M}{N}$ ist $R$-Modul: wie in \propref{3_7_7}
\end{itemize}
\end{proof}
\begin{remark}
Durch $x\sim_N x' \iff x-x'\in N$ wird eine Äquivalenzrelation $\sim_N$ auf $M$ definiert, und $x+N$ ist eine $\sim_N$-Äquivalenzklasse $[x]_{\sim_N}=\{y\in M\mid x\sim_N y\}$.
\end{remark}
\begin{proposition}[Homomorphiesatz für Moduln]
\proplbl{8_5_4}
Sei $f\in\Hom_K(M,M')$ und $N\subseteq M$ ein Untermodul mit $N\subseteq \Ker(f)$. Dann gibt es genau ein $\overline{f}\in\Hom_K(\qraum{M}{N},M')$ mit $f=\overline{f}\circ \pi_N$.
\begin{center}
\begin{tikzpicture}
\node (M) at (0,0) {$M$};
\node (MS) at (3,0) {$M'$};
\node (Q) at (1.5,-1.5) {\qraum{$M$}{$N$}};
\draw[->, above] (M) to node {$f$} (MS);
\draw[->, below] (M) to node {$\pi_N$} (Q);
\draw[->, right, dashed] (Q) to node {$\overline{f}$} (MS);
\end{tikzpicture}
\end{center}
\end{proposition}
\begin{proof}
Analog zu \propref{3_7_9}. Man zeigt, dass jedes $\overline{f}\in\Hom_K(\qraum{M}{N},M')$
\begin{align}
\overline{f}(x+N)=f(x)\quad (x\in M)\notag
\end{align}
erfüllen muss, und dass dies wiederum eine wohldefinierte Abbildung liefert.
\end{proof}
\begin{lemma}
\proplbl{8_5_5}
Durch $U\mapsto \pi_N(U)$ wird eine Bijektion gegeben zwischen
\begin{itemize}
\item den Untermoduln von $M$, die $N$ enthalten
\item den Untermoduln von $\qraum{M}{N}$.
\end{itemize}
\end{lemma}
\begin{proof}
Sei $\mathcal{U}$ die Menge der Untermoduln von $M$, die $N$ enthalten, $\overline{\mathcal{U}}$ die Menge der Untermoduln von $\qraum{M}{N}$.
\begin{itemize}
\item $U\in\mathcal{U}\Rightarrow \pi_N(U)\in\overline{\mathcal{U}}$: klar, da $\pi_N$ ein Homomorphismus ist
\item $\overline{U}\in\overline{\mathcal{U}}\Rightarrow \pi_N^{-1}\in\mathcal{U}$: klar, da $\pi_N$ ein Homomorphismus ist und $N=\Ker(\pi_N)=\pi_N^{-1}(\{0\})\subseteq \pi_N^{-1}(\overline{U})$
\item $\overline{U}\in\overline{\mathcal{U}}\Rightarrow\pi_N(\pi_N^{-1}(\overline{U}))=\overline{U}$: klar, da $\pi_N$ surjektiv
\item $U\in\mathcal{U}\Rightarrow \pi_N^{-1}(\pi_N(U))=U$:
\begin{align}
\pi_N^{-1}(\pi_N(U)) &= \bigcup_{x\in U} \pi_N^{-1}(\pi_N(x)) \notag \\
&= \bigcup_{x\in U} \pi_N^{-1}(x+N) \notag \\
&= \bigcup_{x\in U}(x+N) \notag \\
&= U+N=U\notag
\end{align}
\end{itemize}
\end{proof}
\begin{remark}
Das Ideal $I\unlhd R$ ist ein Untermodul des $R$-Moduls $R$, somit haben wir ein $R$-Modul $\qraum{R}{I}$ definiert. Man kann $\qraum{R}{I}$ mit einer Ringstruktur ausstatten.
\end{remark}
\begin{definition}[Quotientenring]
Sei $I\unlhd R$ ein Ideal. Für $x\in R$ schreiben wir
\begin{align}
x+I=\{x+a\mid a\in I\}\notag
\end{align}
Dann ist
\begin{align}
\qraum{R}{I}=\{x+I\mid x\in R\}\notag
\end{align}
der \begriff{Quotientenring} von $R$ modulo $I$ mit Addition und Skalarmultiplikation
\begin{align}
(x+I)+(x'+I) &= (x+x')+I\quad\forall x,x'\in R \notag \\
(x+I)\cdot (x'+I) &= (x\cdot x')+I\quad\forall x,x'\in R\notag
\end{align}
Und wieder $\pi_I:R\to\qraum{R}{I}$ mit $x\mapsto x+I$.
\end{definition}
\begin{proposition}
Addition und Multiplikation sind wohldefiniert und machen $\qraum{R}{I}$ zu einem kommutativen Ring mit Einselement. $\pi_I$ ist ein Ringhomomorphismus mit Kern
\begin{align}
\Ker(\pi_I) = I\notag
\end{align}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Addition wohldefiniert: \propref{8_5_2}
\item Multiplikation wohldefiniert: Sind $x,x',y,y'\in R$ mit
\begin{align}
x+I &= x'+I\notag \\
y+I &= y'+I\notag
\end{align}
Dann ist
\begin{align}
x-x' &= a\in R \quad\Rightarrow x = x'+a\notag \\
y-y' &= b\in R \quad\Rightarrow y = y'+a\notag
\end{align}
Also
\begin{align}
xy = (x'+a)(y'+b) &= x'y'+\underbrace{ay'+x'b+ab}_{\in I}\notag \\
%xy-x'y' = xy - (x-a)(x-b) = xb + ya - ab\in I \notag \\
\Rightarrow xy+I &= x'y'+I\notag
\end{align}
\item $\qraum{R}{I}$ ist Ring: R1 bis R3 folgen aus den entsprechenden Eigenschaften von $R$.
\item $\qraum{R}{I}$ ist kommutativ: folgt auch aus den Eigenschaften von $R$.
\item Einselement: $1+I$
\item $\pi_I$ ist ein Ringhomomorphismus: folgt nach Definition
\item $\Ker(\pi_I)$: klar
\end{itemize}
\end{proof}
\begin{proposition}[Homomorphiesatz für Ringe]
Sei $\phi:R\to R'$ ein Ringhomomorphismus, $I\unlhd R$ ein Ideal mit $I\subseteq \Ker(\phi)$. Dann gibt es genau einen Ringhomomorphismus mit $\overline{\phi}:\qraum{R}{I}\to R'$, sodass $\overline{\phi}\circ \pi_I=\phi$.
\begin{center}
\begin{tikzpicture}
\node (R) at (0,0) {$M$};
\node (RS) at (3,0) {$M'$};
\node (Q) at (1.5,-1.5) {\qraum{$R$}{$I$}};
\draw[->, above] (R) to node {$\phi$} (RS);
\draw[->, below] (R) to node {$\pi_I$} (Q);
\draw[->, right, dashed] (Q) to node {$\overline{\phi}$} (RS);
\end{tikzpicture}
\end{center}
\end{proposition}
\begin{proof}
Man sieht, dass
\begin{align}
\overline{\phi}(x+I)=\phi(x)\quad\forall x\in R\notag
\end{align}
gelten muss, und das dies auch ein wohldefinierter Ringhomomorphismus ist.
\end{proof}
\begin{example}
\begin{itemize}
\item $R=\whole$, $\forall n\in\natur$ ist $n\whole$ ein Ideal.
\begin{align}
\qraum{\whole}{(n)}=\whole\backslash n\whole\notag
\end{align}
\item Sei $K$ ein Körper und sei $a\in K$. Dann ist $K[t]\to K$, $P\mapsto P(a)$ ist ein Ringepimorphismus. Der Kern $\Ker(\phi)=(t-a)$, also alle Polynome, die in $a$ eine Nullstelle haben. Es folgt
\begin{align}
\qraum{K[t]}{(t-a)}\cong K\notag
\end{align}
\end{itemize}
\end{example}
\smiley{} $\whole$ ist der Herr der Ringe \smiley{}
\begin{example}
Sei $0\neq p\in K[t]$. $\qraum{K[t]}{(p)}$ ist ein Ring, aber auch ein $K[t]$-Modul und damit ein $K$-Vektorraum.
\begin{align}
\dim_K\left( \qraum{K[t]}{(p)}\right) = n= \deg(p)\notag
\end{align}
Ist $B=(1,\overline{t},...,\overline{t^{n-1}})$ eine Basis wobei $\overline{x}=\pi_{(p)}(x)$ $\forall x\in K[t]$.
\end{example}

View file

@ -0,0 +1,183 @@
\section{Quotientenräume}
Seien $V,W$ $K$-Vektorräume und $U\subseteq V$ ein Untervektorraum.
\begin{definition}[affiner Unterraum]
Ein \begriff{affiner Unterraum} von $V$ ist eine Teilmenge der Form
\begin{align}
x+U:=\{x+u\mid u \in U\}\subseteq V\notag
\end{align}
wobei $U\subseteq V$ ein beliebiger Untervektorraum von $V$ ist und $x\in V$.
\end{definition}
\begin{lemma}
\proplbl{3_7_2}
Für $x,x'\in V$ sind äquivalent:
\begin{itemize}
\item $x+U=x'+U$
\item $x'\in x+U$
\item $x'-x\in U$
\end{itemize}
\end{lemma}
\begin{proof}
\begin{itemize}
\item $1\Rightarrow 2$: $x'=x'+0\in x'+U=x+U$
\item $2\Rightarrow 3$: $x'\in x+U \Rightarrow x'=x+u$ mit $u\in U\Rightarrow x'-x=u\in U$
\item $3\Rightarrow 1$: Sei $u_0:=x'-x\in U$. Für $u\in U$ ist
$x+u=x'-u_0+u\in x'+U$, also $x'+U\subseteq x+U$,
$x'+u=x+u_0+u\in x+U$, also $x+U\subseteq x'+U$.
\end{itemize}
\end{proof}
\begin{lemma}
Sei $f\in \Hom_K(V,W)$ und $U=\Ker(f)$. Für $y\in f(V)$ ist die \begriff{Faser} $f^{-1}(y)=f^{-1}(\{y\})$ von $f$ der affine
Unterraum $x_0+U$ für ein beliebiges $x_0\in f^{-1}(y)$.
\end{lemma}
\begin{proof}
$f^{-1}(y)=\{x\in V \mid f(x)=f(x_0)\}=\{x\in V \mid f(x-x_0)=0\} = \{x\in V \mid x-x_0\in U\}=x_0+U$
\end{proof}
\begin{example}
Sind $K=\mathbb R$, $V=\mathbb R^2$, $W=\mathbb R$ und $f(x,y)=x-2y$ so sind die Fasern von $f$ die Geraden $L\subseteq
\mathbb R^2$ der Steigung $\frac 1 2$.
\end{example}
\begin{lemma}
\proplbl{3_7_5}
Seien $x_1,x'_1,x_2,x'_2\in V$ und $\lambda \in K$. Ist $x_1+U=x'_1+U$ und $x_2+U=x'_2+U$, so ist $(x_1+x_2)+U=
(x'_1+x'_2)+U$, und $\lambda x_1+U=\lambda x'_1+U$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $x_1+U=x'_1+U$, $x_2+U=x'_2+U\Rightarrow x'_1-x_1,x'_2-x_2\in U\text{ \propref{3_7_2} }\Rightarrow (x'_1+x'_2)-(x_1+x_2)=(x'_1-x_1)-(x'_2-x_2)\in U
\Rightarrow (x_1+x_2)+U=(x'_1+x'_2)+U$
\item $x_1+U=x'_1+U\Rightarrow x'_1-x_1\in U\Rightarrow \lambda x'_1-\lambda x_1\in U\Rightarrow \lambda x'_1+U=\lambda x_1+U$
\end{itemize}
\end{proof}
\begin{definition}[Quotientenraum]
Der \begriff{Quotientenraum} von $V$ modulo $U$ ist die Menge der affinen Unterräume
\begin{align}
\qraum{V}{U}:=\{x+U\mid x\in V\}\notag
\end{align}
mit der Addition $(x_1+U)+(x_2+U)=(x_1+x_2)+U$ und der Multiplikation $\lambda(x+U)=\lambda x+U$. Dies ist
wohldefiniert nach \propref{3_7_5}.
Wir definieren die Abbildung $\pi_U:V\to$ \qraum{$V$}{$U$} durch $\pi_U(x)=x+U$.
\end{definition}
\begin{proposition}
\proplbl{3_7_7}
Der Quotientenraum \qraum{$V$}{$U$} ist ein $K$-Vektorraum und $\pi_U$ ein Epimorphismus mit Kern $U$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $($\qraum{$V$}{$U$}$,+)$ ist eine abelsche Gruppe:
\begin{itemize}
\item Assoziativität un Kommutativität: überträgt sich von $(V,+)$
\item neutrales Element: $0+U=U$
\item inverses Element: $-(x+U)=(-x)+U$
\end{itemize}
\item $($\qraum{$V$}{$U$}$,+)$ ist $K$-Vektorraum: (V2) überträgt sich von $(V,+,\cdot)$
\item $\pi_U$ surjektiv: nach Definition von \qraum{$V$}{$U$}
\item $\pi_U$ linear: nach Definition von $+$ und $\cdot$ auf \qraum{$V$}{$U$}
\item $\Ker(\pi_U)=\{x\in V \mid x+U=U\}=\{x\in V \mid x\in 0+U\}=U$
\end{itemize}
\end{proof}
\begin{remark}
Die Untervektorraum sind also genau die Kerne linearer Abbildungen! Ist $f:V\to W$ linear, so ist $\Ker(f)\subseteq V$ ein Untervektorraum.
Ist $U\subseteq V$ ein Untervektorraum, so ist $\pi_U:V\to$\qraum{$V$}{$U$} linear mit Kern $U$.
\end{remark}
\begin{theorem}[Homomorphiesatz]
\proplbl{3_7_9}
Sei $f\in \Hom_K(V,W)$ mit $U\subseteq \Ker(f)$. Dann gibt es genau eine lineare Abbildung $\tilde f:$
\qraum{$V$}{$U$}$\to W$ mit $f=\tilde f \circ \pi_U$, d.h. es kommutiert: \\
\begin{center}
\begin{tikzpicture}
\node (V) at (0,0) {$V$};
\node (W) at (3,0) {$W$};
\node (R) at (1.5,-1.5) {\qraum{$V$}{$U$}};
\draw[->, above] (V) to node {$f$} (W);
\draw[->, below] (V) to node {$\pi_U$} (R);
\draw[->, right, dashed] (R) to node {$\tilde f$} (W);
\end{tikzpicture}
\end{center}
Diese erfüllt $\Ker(\tilde f)=$\qraum{$\Ker(f)$}{U}$=\{x+U\mid x\in \Ker(f)\}\subseteq$\qraum{$V$}{$U$}.
\end{theorem}
\begin{proof}
Ist $f=\tilde f\circ \pi_U$, so gilt $\tilde f(x+U)=\tilde f(\pi_U)=f(x)\; (*)$, somit ist $\tilde f$ dann eindeutig bestimmt. Umgekehrt
wird durch $(*)$ eine wohldefinierte Abbildung $\tilde f$ erklärt: Sind $x,x'\in V$ mit $x+U=x'+U$, so ist $x-x'\in U\subseteq \Ker(f)$ und
deshalb $f(x)=f(x')$. \\
\begin{itemize}
\item Linearität: Für $x,y\in V$ und $\lambda\in K$ ist $\tilde f(\lambda(x+U)+\mu(y+U))=\tilde f(\lambda\pi_U(x)+\mu\pi_U(y))=\lambda\tilde f
(x+U)+\mu\tilde f(y+U)$.
\item Kern: $\tilde f(x+U)=0\iff f(x)=0 \iff x\in \Ker(f)$.
\end{itemize}
\end{proof}
\begin{conclusion}
\proplbl{3_7_10}
Für $f\in \Hom_K(V,W)$ ist $\Image(f)\cong $\qraum{$V$}{$\Ker(f)$}. Insbesondere gilt: Ist $f$ ein Epimorphismus, so
ist $W\cong $\qraum{$V$}{$\Ker(f)$}.
\end{conclusion}
\begin{proof}
Betrachte $\tilde f:$\qraum{$V$}{$\Ker(f)$}$\to W$. Nach \propref{3_7_9} ist $\Ker(\tilde f)=$\qraum{$\Ker(f)$}{$\Ker(f)$}$=\{\Ker(f)\}$,
also $\tilde f$ injektiv. Nach Definition ist $\tilde f($\qraum{$V$}{$\Ker(f)$}$)=f(V)=\Image(f)$. Somit ist $\tilde f:$\qraum{$V$}
{$\Ker(f)$}$\to \Image(f)$ ein Isomorphismus.
\end{proof}
\begin{proposition}
\proplbl{3_7_11}
Seien $U,U'$ Untervektorraum von $V$. Genau dann ist $V=U\oplus U'$, wenn $\pi_U|_{U'}: U'\to$\qraum{$V$}{$U$} ein Isomorphismus
ist.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\pi_U|_{U'}$ injektiv $\iff \Ker(\pi_U|_{U'})=\{0\}\iff \Ker(\pi_U)\cap U'=\{0\}\iff U\cap U'=\{0\}$
\item $\pi_U|_{U'}$ surjektiv $\iff \forall x\in V \exists u'\in U: \pi_U(u')=\pi_U(x)\iff u'-x\in \Ker(\pi_U)=U\iff x=u+u'\iff V=U+U'$
\end{itemize}
\end{proof}
\begin{conclusion}
\proplbl{3_7_12}
Ist $\dim_K(V)<\infty$, so ist $\dim_K($\qraum{$V$}{$U$}$)=\dim_K(V)-\dim_K(U)$.
\end{conclusion}
\begin{proof}
Nach \propref{2_4_10} existiert ein lineares Komplement $U'$ zu $U$ in $V$ (d.h. $V=U\oplus U'$) und $\dim_K(U')=\dim_K(V)-\dim_K(U)$. Es gilt \qraum{$V$}
{$U$}=$U'$.
\end{proof}
\begin{conclusion}
\proplbl{3_7_13}
Ist $\dim_K(V)<\infty$ und $f\in \Hom_K(V,W)$, so ist $\dim_K(V)=\dim_K(\Ker(f))+\dim_K(\Image(f))$.
\end{conclusion}
\begin{proof}
\propref{3_7_11} und \propref{3_7_12}
\end{proof}
\begin{conclusion}
\proplbl{3_7_14}
Ist $\dim_K(V)<\infty$ und $f\in \End_K(V)$, so sind äquivalent:
\begin{itemize}
\item $f\in \Aut_K(V)$
\item $f$ ist injektiv
\item $f$ ist surjektiv
\end{itemize}
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $2\iff \dim_K(\Ker(f))=0$
\item $3\iff \dim_K(\Image(f))=\dim_K(V)$
\end{itemize}
\end{proof}
\begin{remark}
Analog zu dem Quotientenräumen kann man definieren:
\begin{itemize}
\item Quotientengruppen \qraum{$G$}{$N$}, wobei $N$ Normalteiler von $G$ ist
\item Quotientenringe \qraum{$R$}{$I$}, wobei $I$ ein Ideal von $R$ ist (z.B. \qraum{$\mathbb Z$}{$n\mathbb Z$})
\end{itemize}
Diese werden in der Vorlesung \textit{Algebra und Zahlentheorie} behandelt.
\end{remark}

View file

@ -0,0 +1,130 @@
\section{Rang}
Seien $V,W$ zwei endlichdimensionale $K$-Vektorräume und $f\in \Hom_K(V,W)$.
\begin{definition}[Rang]
Der \begriff{Rang} von $f$ ist $\rk(f)=\dim_K(\Image(f))$.
\end{definition}
\begin{remark}
Nach \propref{3_7_13} ist $\rk(f)=\dim_K(V)-\dim_K(\Ker(f))$. Also ist $f$ genau dann injektiv, wenn $\rk(f)=\dim_K(V)$. Auch sehen wir,
dass $\rk(f)\le \min\{\dim_K(V),\dim_K(W)\}$.
\end{remark}
\begin{lemma}
\proplbl{3_8_3}
Sei $U$ ein weiterer endlichdimensionaler $K$-Vektorraum und $g\in \Hom_K(U,V)$.
\begin{itemize}
\item Ist $g$ surjektiv, dann ist $\rk(f\circ g)=\rk(f)$.
\item Ist $f$ injektiv, dann ist $\rk(f\circ g)=\rk(g)$.
\end{itemize}
\end{lemma}
\begin{proof}
Dies folgt sofort aus $\Image(f\circ g)=f(\Image(g))$.
\end{proof}
\begin{proposition}
\proplbl{3_8_4}
Sei $r\in \mathbb N_0$. Genau dann ist $\rk(f)=r$, wenn es $B$ von $V$ und $C$ von $W$ gibt, für die
\begin{align}
M_C^B(f)=E_r&=\sum_{i=1}^r E_{ii}\notag \\
E_r&=\begin{pmatrix}
1 & 0 & \dots & \dots & \dots & 0 \\
0 & \ddots & \ddots & \; & \; & \vdots \\
\vdots & \ddots & 1 & \ddots & \; & \vdots\\
\vdots & \; & \ddots & 0 & \ddots & \vdots\\
\vdots & \; & \; & \ddots & \ddots & 0\\
0 & \dots & \dots & \dots & 0 & 0\\
\end{pmatrix}\notag
\end{align}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Rückrichtung: Ist $M_C^B(f)=E_r$ und $C=(y_1,...,y_n)$, so ist $\Image(f)=\Span_K(y_1,...,y_r)$, also $\rk(f)=r$.
\item Hinrichtung: Sei $r=\rk(f)$. Setze $U=\Ker(f)$ und $W=\Image(f)$. Wähle Basis $(y_1,...,y_r)$ und ergänze diese zu einer Basis $C$ von
$W$. Wähle für $i=1,...,r$ ein $x_i\in f^{-1}(y_i)$. Dann ist $(x_1,...,x_r)$ linear unabhängig und mit $U'=\Span_K(x_1,...,x_r)$ ist
$f|_{U'}:U'\to W_0$ ein Isomorphismus nach \propref{3_5_1}. Insbesondere ist $U\cap U'=\{0\}$ und mit \propref{3_7_11} folgt $V=U\oplus U'$. Ist also $(x_{r+1},...,x_n)$
eine Basis von $U$, so ist $B=(x_1,...,x_n)$ eine Basis von $V$ (\propref{2_4_9}). Diese Basis erfüllt $M_C^B(f)=E_r$.
\end{itemize}
\end{proof}
\begin{definition}[Rang einer Matrix]
Der Rang einer \begriff[Rang!]{Matrix} $A\in \Mat_{m\times n}(K)$ ist $\rk(A)=\rk(f_A)$, wobei $f_A:K^n\to K^m$
die durch $A$ beschriebene lineare Abbildung ist.
\end{definition}
\begin{mathematica}[Rang einer Matrix]
Auch für den Rang einer Matrix $A$ hat Mathematica bzw. WolframAlpha eine Funktion
\begin{align}
\texttt{MatrixRank[A]}\notag
\end{align}
\end{mathematica}
\begin{remark}
\proplbl{3_8_6}
Sei $A=(a_{ij})\in \Mat_{m\times n}(K)$. Man fasst die Spalten $a_j=(a_{1j},...,a_{mj})^t$ als Elemente des $K^m$ auf
und definiert den Spaltenraum $\SR(A)=\Span_K(a_1,...,a_n)\subseteq K^m$. Entsprechend definiert man den Zeilenraum $\ZR(A)=\Span_K(
\tilde a_1^t,..,\tilde a_m^t)\subseteq K^n$. Es ist $\Image(f_A)=\SR(A)$ und folglich $\rk(A)=\dim_K(\SR(A))$. Außerdem ist $\SR(A^t)=\ZR(A)$
und deshalb $\rk(A^t)=\dim_K(\ZR(A))$. Man nennt $\rk(A)$ deshalb auch den \begriff[Rang!]{Spaltenrang} von $A$ und $\rk(A^t)$ den \begriff[Rang!]{Zeilenrang} von $A$.
\end{remark}
\begin{lemma}
\proplbl{3_8_7}
Ist $A\in \Mat_{m\times n}(K)$, $S\in \GL_m(K)$, $T\in \GL_n(K)$, so ist $\rk(SAT)=\rk(A)$.
\end{lemma}
\begin{proof}
$\rk(SAT)=\rk(f_{SAT})=\rk(f_S\circ f_A\circ f_T)=\rk(f_A)=\rk(A)$, da $f_S$ und $f_T$ bijektiv sind (\propref{3_8_3}).
\end{proof}
\begin{proposition}
\proplbl{3_8_8}
Für jedes $A\in \Mat_{m\times n}(K)$ gibt es $S\in \GL_m(K)$ und $T\in \GL_n(K)$ mit $SAT=E_r$, wobei $r=\rk(A)$.
\end{proposition}
\begin{proof}
Es gibt Basen $B$ von $K^n$ und $C$ von $K^m$ mit $M_C^B(f_A)=E_r$ (\propref{3_8_4}). Mit den Standardbasen $E_n$ bzw. $E_m$ gilt: $M_C^B(f_A)=T_C^{E_m}
\cdot M_{E_m}^{E_n}(f_A)\cdot (T_B^{E_n})^{-1}=SAT$ mit $S=T_C^{E_m}\in \GL_m(K)$ und $T=(T_B^{E_n})^{-1}\in \GL_n(K)$.
\end{proof}
\begin{conclusion}
\proplbl{3_8_9}
Seien $A,B\in \Mat_{m\times n}(K)$. Genau dann gibt es $S\in \GL_m(K)$ und $T\in \GL_n(K)$ mit $B=SAT$, wenn
$\rk(A)=\rk(B)$.
\end{conclusion}
\begin{proof}
\begin{itemize}
\item Hinrichtung: \propref{3_8_7}
\item Rückrichtung: $r=\rk(A)=\rk(B)\Rightarrow$ Nach \propref{3_8_8} gibt $S_1,S_2\in \GL_m(K)$ und $T_1,T_2\in \GL_n(K)$ mit $S_1AT_1=E_r=S_2BT_2 \Rightarrow
B=S_2^{-1}\cdot SAT_1\cdot T_2^{-1}$.
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{3_8_10}
Für $A\in \Mat_{m\times n}(K)$ ist $\rk(A)=\rk(A^t)$, anders gesagt: $\dim_K(\SR(A))=\dim_K(\ZR(A))$.
\end{proposition}
\begin{proof}
Mit \propref{3_8_8} ergibt sich: $SAT=E_r$ mit $r=\rk(A)$, $S\in \GL_m(K)$ und $T\in \GL_n(K)$. Aus $E_r^t=(SAT)^t=T^tA^tS^t$, folgt,
dass $\rk(A^t)=\rk(E_r^t)=\rk(A)$.
\end{proof}
\begin{conclusion}
\proplbl{3_8_11}
Für $A\in \Mat_n(K)$ sind äquivalent:
\begin{itemize}
\item $A\in \GL_n(K)$, d.h. es gibt $S\in \GL_n(K)$ mit $SA=AS=\mathbbm{1}_n$
\item $\rk(A)=n$
\item Die Spalten von $A$ sind linear unabhängig.
\item Die Zeilen von $A$ sind linear unabhängig.
\item Es gibt $S\in \GL_n(K)$ mit $SA=\mathbbm{1}_n$.
\item Es gibt $T\in \GL_n(K)$ mit $AT=\mathbbm{1}_n$.
\end{itemize}
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $(1)\iff (2)$: \propref{3_5_11} und \propref{3_7_14}
\item $(2)\iff (3)$: \propref{3_8_6}
\item $(2)\iff (4)$: \propref{3_8_6} und \propref{3_8_10}
\item $(1)\iff (5)\land (6)$: trivial
\item $(5)\land (6)\iff (2)$: \propref{3_8_9}
\end{itemize}
\end{proof}

View file

@ -0,0 +1,179 @@
\section{Ringe}
\begin{definition}[Ring]
Ein \begriff{Ring} ist ein Tripel $(R,+,\cdot)$ bestehend aus einer Menge
$R$, einer Verknüpfung $+: R \times R \to R$ (Addition) und einer anderen Verknüpfung
$\cdot: R \times R \to R$ (Multiplikation), sodass diese zusammen die folgenden Axiome
erfüllen:
\begin{itemize}
\item (R1) $(R,+)$ ist eine abelsche Gruppe.
\item (R2) $(R,\cdot)$ ist eine Halbgruppe.
\item (R3) Für $a,x,y \in R$ gelten die Distributivgesetze $a(x+y)=ax+ay$ und $(x+y)a=xa+ya$.
\end{itemize}
Ein Ring heißt kommutativ, wenn $xy=yx$ für alle $x,y \in R$.\\
Ein neutrales Element der Multiplikation heißt Einselement von $R$.\\
Ein Unterring eines Rings $(R,+,\cdot)$ ist eine Teilmenge, die mit der geeigneten
Einschränkung von Addition und Multiplikation wieder ein Ring ist.
\end{definition}
\begin{remark}
Hat ein Ring ein Einselement, so ist dieses eindeutig bestimmt. Notationelle Konfektionen: Das
neutrale Element der Addition wird häufig mit 0 bezeichnet; die Multiplikation wird nicht immer
notiert; Multiplikation bindet stärker als die Addition. \\
Wenn die Verknüpfungen aus dem Kontext klar sind, schreibt ma $R$ statt $(R,+,\cdot)$.
\end{remark}
\begin{example}
\begin{itemize}
\item Der Nullring ist $R=\{0\}$ mit den einzig möglichen Verknüpfungen $+$ und $\cdot$
auf $R$. Der Nullring ist sogar kommutativ und hat ein Einselement, nämlich die 0.
\item $(\mathbb{Z},+,\cdot)$ ist ein kommutativer Ring mit Einselement 1, ebenso
$(\mathbb{Q},+,\cdot)$ und $(\mathbb{R},+,\cdot)$.
\item $(2\mathbb{Z},+,\cdot)$ ist ein kommutativer Ring, aber ohne Einselement.
\end{itemize}
\end{example}
\begin{remark}
Ist $R$ ein Ring, dann gelten die folgenden Aussagen für $x,y \in R$
\begin{itemize}
\item $0 \cdot x=x \cdot 0 = 0$
\item $x \cdot (-y) = (-x) \cdot y = -xy$
\item $(-x) \cdot (-y) = xy$
\end{itemize}
\end{remark}
\begin{remark}
Wir führen eine wichtige Klasse endlicher Ringe ein. Hierfür erinnern wir uns an eine der Grundlagen
der Arithmetik in $\mathbb{Z}$.
\end{remark}
\begin{theorem}
\proplbl{1_4_6}
Sei $b \neq 0 \in \mathbb{Z}$. Für jedes $a \in \mathbb{Z}$ gibt es
eindeutig bestimmte $q,r \in \mathbb{Z}$ ($r$ ist "'Rest"'), mit $a=qb+r$ und $0 \le r < \vert b\vert$.
\end{theorem}
\begin{proof}
Existenz und Eindeutigkeit
\begin{itemize}
\item Existenz: oBdA nehmen wir an, dass $b>0$ (denn ist $a=qb+r$, so ist auch $a=(-q)(-b)+r$). Sei $q \in
\mathbb{Z}$ die größte Zahl mit $q \le \frac{a}{b}$, und sei $r=a-qb \in \mathbb{Z}$. Dann ist
$a \le \frac{a}{b}-q < 1$, woraus $0 \le r < b$ folgt.
\item Eindeutigkeit: Sei $a=qb+r=q'b+r'$ mit $q,q',r,r' \in \mathbb{Z}$ und $0 \le r,r' < |b|$. Dann ist
$(q-q')b=r-r'$ und $|r-r'|<|b|$. Da $q-q' \in \mathbb{Z}$ ist, folgt $r-r'=0$ und daraus wegen
$b \neq 0$, dann $q-q'=0$.
\end{itemize}
\end{proof}
\begin{example}[Restklassenring]
Wir fixieren $n \in \mathbb{N}$. Für $a \in \mathbb{Z}$ sei
$\overline{a} := a+n\mathbb{Z} := \{a+nx \mid x \in \mathbb{Z}\}$ die \begriff{Restklasse} von "$a \bmod n$".
Für $a,a' \in \mathbb{Z}$ sind äquivalent:
\begin{itemize}
\item $a+n\mathbb{Z}=a'+n\mathbb{Z}$
\item $a' \in a+n\mathbb{Z}$
\item $n$ teilt $a'-a$ (in Zeichen $n|a'-a$), d.h. $a'=a+nk$ für $k \in \mathbb{Z}$
\end{itemize}
\end{example}
\begin{proof}
\begin{itemize}
\item $1) \Rightarrow 2)$: klar, denn $0 \in \mathbb{Z}$
\item $2) \Rightarrow 3)$: $a' \in a+n\mathbb{Z} \Rightarrow a'=a+nk$ mit $k \in \mathbb{Z}$
\item $3) \Rightarrow 1)$: $a'=a+nk$ mit $k \in \mathbb{Z} \Rightarrow a+n\mathbb{Z}=\{a+nk+nx \mid
x \in \mathbb{Z}\}=\{a+n(k+x) \mid x \in \mathbb{Z}\}=a+n\mathbb{Z}$
\end{itemize}
Insbesondere besteht $a+n\mathbb{Z}$ nur aus den ganzen Zahlen, die bei der Division durch $n$ den selben Rest lassen wie $a$.
\end{proof}
Aus \propref{1_4_6} folgt weiter, dass $\mathbb{Z}/n\mathbb{Z} := \{\overline{a} \mid a \in \mathbb{Z}\}
= \{\overline{0}, \overline{1},..., \overline{n-1}\}$ eine Menge der Mächtigkeit n ist (sprich:
"'$\mathbb{Z} \bmod n\mathbb{Z}$"'). \\
$\newline$
Wir definieren Verknüpfungen auf $\mathbb{Z}/n\mathbb{Z}$ durch $\overline{a}+\overline{b} :=
\overline{a+b}$, $\overline{a} \cdot \overline{b} := \overline{ab}$ $a,b \in \mathbb{Z}$. Hierbei
muss man zeigen, dass diese Verknüpfungen wohldefiniert sind, also nicht von den gewählten
Vertretern $a,b$ der Restklassen $\overline{a}$ und $\overline{b}$ abhängen. Ist etwa $\overline{a}
= \overline{a'}$ und $\overline{b}= \overline{b'}$, also $a'=a+nk_1$ und $b'=b+nk_2$ mit $k_1,k_2 \in
\mathbb{Z}$, so ist \\
$a'+b' = a+b+n(k_1+k_2)$, also $\overline{a'+b'} = \overline{a+b}$ \\
$a' \cdot b' = ab+n(bk_1+ak_2+nk_1k_2)$, also $\overline{a'b'} = \overline{ab}$ \\
Man prüft nun leicht nach, dass $\mathbb{Z}/n\mathbb{Z}$ mit diesen Verknüpfungen ein kommutativer
Ring mit Einselement ist, da dies auch für $(\mathbb{Z},+,\cdot)$ gilt. Das neutrale Element der
Addition ist $\overline{0}$, das Einselement ist $\overline{1}$. \\
$\newline$
\begin{example}
Im Fall $n=2$ ergeben sich die folgenden Verknüpfungstafeln für $\mathbb{Z}
/2\mathbb{Z} = \{\overline{0}, \overline{1}\}$ \\
\begin{center}
\begin{tabular}{|c|c|c|}
\hline
$+$ & $\overline{0}$ & $\overline{1}$\\
\hline
$\overline{0}$ & $\overline{0}$ & $\overline{1}$\\
\hline
$\overline{1}$ & $\overline{1}$ & $\overline{2}=\overline{0}$ \\
\hline
\end{tabular}
\end{center}
\begin{center}
\begin{tabular}{|c|c|c|}
\hline
$\cdot$ & $\overline{0}$ & $\overline{1}$\\
\hline
$\overline{0}$ & $\overline{0}$ & $\overline{0}$\\
\hline
$\overline{1}$ & $\overline{0}$ & $\overline{1}$ \\
\hline
\end{tabular}
\end{center}
\end{example}
\begin{definition}[Charakteristik]
Sei $R$ ein Ring mit Einselement. Man definiert die \begriff{Charakteristik} von
$R$ als die kleinste natürliche Zahl $n$ mit $1+1+...+1=0$, falls so ein $n$ existiert, andernfalls
ist die Charakteristik $0$.
\end{definition}
\begin{definition}[Nullteiler]
Sei $R$ ein Ring mit Einselement. Ein $0 \neq x \in R$ ist ein \begriff{Nullteiler} von
$R$, wenn er ein $0 \neq y \in R$ mit $xy=0$ oder $yx=0$ gibt. Ein Ring ohne Nullteiler ist
nullteilerfrei.
\end{definition}
\begin{definition}[Einheit]
Sei $R$ ein Ring mit Einselement. Ein $x \in R$ heißt invertierbar (oder
\begriff{Einheit} von $R$), wenn es ein $x' \in R$ mit $xx'=x'x=1$ gibt. Wir bezeichnen die invertierten
Elemente von $R$ mit $R^{\times}$.
\end{definition}
\begin{example}
\proplbl{1_4_12}
\begin{itemize}
\item reelle Zahlen sind ein nullteilerfreier Ring der Charakteristik $0$ mit $\mathbb R^{\times}=
\mathbb R\backslash\{0\}$
\item $\mathbb Z$ ist ein nullteilerfreier Ring der Charakteristik $0$ mit $\mathbb Z^{\times}=
\{1,-1\}$
\item $\mathbb Z/n \mathbb Z$ ist ein Ring der Charakteristik $n$. Ist $n$ keine Primzahl, so
ist $\mathbb Z$ nicht nullteilerfrei.
\end{itemize}
\end{example}
\begin{proposition}
\proplbl{1_4_13}
Sei $R$ ein Ring mit Einselement.
\begin{itemize}
\item Ist $x \in R$ invertierbar, so ist $x$ kein Nullteiler in $R$.
\item Die invertierbaren Elemente von $R$ bilden mit der Multiplikation eine Gruppe.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Ist $xx'=x'x=1$ und $xy=0$ mit $x',y \in R$, so ist $0=x'\cdot 0=x\cdot xy=1\cdot y=y$, aber
$y \neq 0$ für Nullteiler
\item Sind $x,y \in R^{\times}$, also $xx'=x'x=yy'=y'y=1$. Dann ist $(xy)(y'x')=x\cdot 1\cdot x'=1$
und $(y'x')(xy)=y'\cdot 1\cdot y=1$, somit $R^{\times}$ abgeschlossen unter der Multiplikation. Da
$1 \cdot 1=1$ gilt, ist auch $1 \in R^{\times}$. Nach Definition von $R^{\times}$ hat jedes $x \in
R^{\times}$ ein Inverses $x' \in R^{\times}$.
\end{itemize}
\end{proof}

View file

@ -0,0 +1,86 @@
\section{Selbstadjungierte Endomorphismen}
Sei $V$ ein euklidischer bzw. unitärer Vektorraum und $f\in\End_K(V)$.
\begin{definition}[selbstadjungiert]
$f$ ist \begriff{selbstadjungiert}, wenn
\begin{align}
\skalar{f(x)}{y}=\skalar{x}{f(y)}\quad\forall x,y\in V\notag
\end{align}
\end{definition}
\begin{proposition}
\proplbl{6_6_2}
Sei $B$ eine Orthonormalbasis von $V$. Genau dann ist $f$ selbstadjungiert, wenn $M_B(f)$ hermitesch ist.
\end{proposition}
\begin{proof}
Seien $A=M_B(f),v=\Phi_B(x),w=\Phi_B(y)$. Es ist
\begin{align}
\skalar{f(v)}{w}=(Ax)^t\overline{y}=x^tA^t\overline{y}\notag \\
\skalar{v}{f(w)}=x^t\overline{Ay}=x^t\overline{A}\overline{y}\notag
\end{align}
Somit ist $\skalar{f(v)}{w}=\skalar{v}{f(w)}$ genau dann, wenn $A^t=\overline{A}$, d.h. $A=A^*$, also $A$ hermitesch.
\end{proof}
\begin{lemma}
\proplbl{6_6_3}
Ist $f$ selbstadjungiert und $\lambda$ ein Eigenwert von $f$, so ist $\lambda\in\real$.
\end{lemma}
\begin{proof}
Ist $0\neq x\in V$ mit $f(x)=\lambda x$, so ist
\begin{align}
\lambda\skalar{x}{x}=\skalar{f(x)}{x}=\skalar{x}{f(x)}=\overline{\lambda}\skalar{x}{x}\notag
\end{align}
und mit $\skalar{x}{x}\neq 0$ folgt $\lambda=\overline{\lambda}$, also $\lambda\in\real$.
\end{proof}
\begin{proposition}
\proplbl{6_6_4}
Ist $f$ selbstadjungiert, so ist $\chi_f\in\real[t]$ und $\chi_f$ zerfällt über $\real$ in Linearfaktoren.
\end{proposition}
\begin{proof}
Sei $B$ eine Orthonormalbasis von $V$. Nach \propref{6_6_2} ist $A=M_B(f)\in\Mat_n(K)\subseteq \Mat_n(\comp)$ hermitesch. Da $\comp$ algebraisch abgeschlossen ist, ist $\chi_f(t)\prod_{i=1}^{n} (t-\lambda_i)$ mit $\lambda_1,...,\lambda_n\in\comp$. Nach \propref{6_6_3} ist aber schon $\lambda_1,...,\lambda_n\in\real$. Somit zerfällt $\chi_f\chi_A\in\real[t]$ über $\real$ in Linearfaktoren.
\end{proof}
\begin{theorem}
\proplbl{6_6_5}
Ist $f$ selbstadjungiert, so besitzt $V$ eine Orthonormalbasis aus Eigenvektoren von $f$.
\end{theorem}
\begin{proof}
Induktion über $n=\dim_K(V)$. \\
\emph{$n=0$}: klar \\
\emph{$n-1\to n$}: Nach \propref{6_6_4} hat $f$ einen reellen Eigenwert $\lambda\in\real$. Wähle $x_1\in V$ mit $f(x_1)=\lambda x_1$ und $\Vert x_1\Vert=1$. Sei $W=K\cdot x_1$. Für $y\in W^\perp$ ist
\begin{align}
\skalar{x_1}{f(y)}=\skalar{f(x_1)}{y}=\lambda\skalar{x_1}{y}=0\notag
\end{align}
und folglich ist $W^\perp$ $f$-invariant. Nach \propref{6_4_11} ist $V=W\oplus W^\perp$ und $f\vert_{W^\perp}$ ist wieder selbstadjungiert. Nach Induktionshypothese hat $W^\perp$ eine Orthonormalbasis $(x_1,...,x_n)$ aus Eigenvektoren von $f\vert_{W^\perp}$. Da $V=W\oplus W^\perp$ und $W\perp W^\perp$ ist $(x_1,...,x_n)$ eine Orthonormalbasis von $V$ aus Eigenvektoren von $f$.
\end{proof}
\begin{conclusion}
Jeder selbstadjungierte Endomorphismus eines euklidischen oder unitären Vektorraums ist diagonalisierbar.
\end{conclusion}
\begin{conclusion}
\proplbl{6_6_7}
Ist
\begin{itemize}
\item $f$ selbstadjungiert ($K=\comp$ oder $\real$)
\item $f$ unitär ($K=\comp$)
\end{itemize}
so ist
\begin{align}
V=\bigoplus_{\lambda\in K} \Eig(f,\lambda)\notag
\end{align}
eine Zerlegung von $V$ in paarweise orthogonale Untervektorräume.
\end{conclusion}
\begin{proof}
Nach \propref{6_5_9} bzw. \propref{6_6_5} existiert eine Orthonormalbasis $B$ aus Eigenvektoren. Insbesondere ist $f$ diagonalisierbar, also
\begin{align}
V=\bigoplus_{\lambda\in K} \Eig(f,\lambda)\notag
\end{align}
Zu jedem $\lambda$ gibt es eine Teilfamilie von $B$ die eine Basis von $\Eig(f,\lambda)$ bildet. Da $B$ eine Orthonormalbasis ist, folgt, dass die Eigenräume paarweise orthogonal sind.
\end{proof}
\begin{remark}
Um eine Orthonormalbasis aus Eigenvektoren wie in \propref{6_5_9} oder \propref{6_6_5} zu bestimmen, kann man entweder wie im Induktionsbeweis vorgehen, oder man bestimmt zunächst Basen $B$ von $\Eig(f,\lambda_i)$, $i=1,...,n$ und orthonormalisiert diese mit \propref{6_4_9} zu Basen $B'$. Nach \propref{6_6_7} ist $\bigcup B'$ dann eine Orthonormalbasis von $V$ aus Eigenvektoren von $f$.
\end{remark}

View file

@ -0,0 +1,164 @@
\section{Summen von Vektorräumen}
Sei $V$ ein $K$-Vektorraum und $(W_i)$ eine Familie von Untervektorräumen von $V$.
\begin{definition}[Summe von Vektorräumen]
Die \begriff[Vektorraum!]{Summe} der $W_i$ ist der Untervektorraum
\begin{align}
\sum_{i\in I} W_i := \Span_K\left(\bigcup W_i\right)\notag
\end{align}
Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1+...+W_n$ für $\sum_{i=1}^n W_i$.
\end{definition}
\begin{lemma}
Es ist $\sum_{i\in I} W_i = \{\sum_{i\in I} x_i \mid x_i\in W_i\text{, fast alle
gleich 0}\}$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $"\supseteq"$: klar, $\sum x_i \in \Span_K(\bigcup W_i)$
\item $"\subseteq"$: Die rechte Seite enthält jedes $W_i$ und ist ein Untervektorraum von $V$: \\
Für $x_i,x'_i \in W$, fast alle gleich 0 und $\lambda \in K$ ist $\sum x_i + \sum x'_i = \sum (x_i+x'_i)$, $\lambda
\cdot \sum x_i = \sum \lambda\cdot x_i$ $\Rightarrow$ Untervektorraum
\end{itemize}
\end{proof}
\begin{example}
Ist $(x_i)_{i\in I}$ eine Familie von Elementen von $V$, so ist
\begin{align}
\Span_K((x_i)_{i\in I})=\sum_{i\in I} Kx_i\notag
\end{align}
wobei $Kx_i$ der Untervektorraum aus \propref{2_1_9} und \propref{2_2_6} ist.
\end{example}
\begin{proposition}
Es sind äquivalent:
\begin{itemize}
\item Jedes $x\in\sum_{i \in I} W_i$ ist eindeutig als $\sum_{i \in I} x_i$ mit $x_i\in W_i$ darstellbar.
\item Für jedes $i\in I$ ist $W_i\cap\sum_{j\neq i} W_j=\{0\}$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $1\Rightarrow 2$: Sei $x\in W_i\cap\sum_{i\neq j} W_j$. Dann ist $x=\sum_j x_j$ mit $x_j\in W_j$ und $x_i=0$. Die Eindeutigkeit der Darstellung impliziert also, dass $x=0$.
\item $2\Rightarrow 1$: Sei $x=\sum_{j\in I}x_j=\sum_{j\in I}x'_j$ mit $x_j,x'_j\in W_j$ für alle $j$. Dann ist $0=\sum_{j\in I}(x_j-x'_j)$, also
\begin{align}
x_i-x'_i=-\sum_{j\neq i}(x_j-x'_j)\in W_i\cap \sum_{j\neg i} W_j=\{0\}\notag
\end{align}
\end{itemize}
\end{proof}
\begin{definition}[direkte Summe]
\proplbl{2_4_5}
Ist jedes $x\in \sum W_i$ eindeutig als Summe von $x_i$ mit $x_i\in W_i$
darstellbar, so sagt man, dass $\sum W_i$ die \begriff{direkte Summe} der Untervektorräume $W_i$ ist und schreibt $\oplus W_i$ für
$\sum W_i$. Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1\oplus W_2 \oplus ... \oplus W_n$ für $\oplus W_i$.
\end{definition}
\begin{example}
Ist $(x_1,...,x_n)$ eine Basis von $V$, so ist $V=Kx_1\oplus ... \oplus Kx_n$.
\end{example}
\begin{remark}
Wir wollen uns näher mit dem wichtigen Spezialfall $I=\{1,2\}$ beschäftigen und schreiben noch
mal auf:
\end{remark}
\begin{conclusion}
Seien $W_1,W_2$ Untervektorräume von $V$. Es sind äquivalent:
\begin{itemize}
\item $V=W_1\oplus W_2$
\item $V=W_1 + W_2$ und $W_1 \cap W_2 = \{0\}$
\end{itemize}
\end{conclusion}
\begin{proposition}
\proplbl{2_4_9}
Sind $W_1,W_2$ Untervektorräume von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
I_2 = \emptyset$, so sind äquivalent:
\begin{itemize}
\item $V=W_1 \oplus W_2$
\item $(x_i)_{i\in I_1 \cap I_2}$ ist eine Basis von $V$
\end{itemize}
\end{proposition}
\begin{proof}
Sei $I=I_1 \cup I_2$.
\begin{itemize}
\item $1\Rightarrow 2$: Da $\Span_K((x_i)_{i\in I_1})=W_1$ und $\Span_K((x_i)_{i\in I_2})=W_2$ ist $\Span_K((x_i)
_{i\in I})=W_1+W_2=V$. Ist $\sum \lambda_ix_i=0$, so ist $\sum_{i\in I_1} \lambda_ix_i = -\sum
_{i\in I_2} \lambda_ix_i \in W_1 \cap W_2 = \{0\}$. Da $(x_i)_{i\in I_1}$ linear unabhängig ist, ist
$\lambda_i=0$, analog für $i\in I_2$.
\item $2\Rightarrow 1$: $W_1+W_2=\Span_K((x_i)_{i\in I_1})+\Span_K((x_i)_{i\in I_2})=\Span_K((x_i)_{i\in I})=V$. Ist
$x\in W_1 \cap W_2$, so ist $x=\sum_{i\in I_1} \lambda_ix_i = \sum_{i\in I_2} \lambda_ix_i$. Somit
$0=\sum_{i\in I_1} \lambda_ix_i - \sum_{i\in I_2} \lambda_ix_i$, woraus wegen $(x_i)_{i\in I}$
linear unabhängig schon $\lambda_i=0$ folgt. Somit ist $x=0$.
\end{itemize}
\end{proof}
\begin{conclusion}
\proplbl{2_4_10}
Ist $\dim_K(V)<\infty$, so ist jeder Untervektorraum ein direkter Summand: Ist $W$ ein Untervektorraum von $V$, so
gibt es einen Untervektorraum $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
ist
\begin{align}
\dim_K(W')=\dim_K(V)-\dim_K(W)\notag
\end{align}
\end{conclusion}
\begin{proof}
Sei $(x_1,...,x_m)$ eine Basis von $W$. Nach dem Basisergänzungssatz (\propref{2_3_12}) lässt sich diese zu einer Basis $(x_1,...,x_n)$
von $V$ ergänzen. Mit $W':= \Span_K(x_{m+1},...,x_n)$ ist dann $V=W\oplus W'$.
%TODO: Wo ist der Basisergänzungssatz?
\end{proof}
\begin{remark}
Ist $\dim_K(V)<\infty$, so folgt aus $W_1\cap W_2=\{0\}$ also insbesondere $\dim_K(W_1+W_2)=
\dim_K(W_1)+\dim_K(W_2)$.
\end{remark}
\begin{theorem}[Dimensionsformel]
\proplbl{2_4_12}
Sei $\dim_K(V)<\infty$. Für Untervektorräume $W_1,W_2$ von $V$ gilt:
\begin{align}
\dim_K(W_1+W_2) + \dim_K(W_1 \cap W_2) = \dim_K(W_1) + \dim_K(W_2)\notag
\end{align}
\end{theorem}
\begin{proof}
Da $\dim_K(V)<\infty$ haben alle Untervektorräume von $V$ Basen. Sei also $B_0=(X_1,...,x_n)$ eine Basis von $W_1\cap W_2$. Nach
dem Basisergänzungssatz (\propref{2_3_12}) können wir $B_0$ zu den Basen $B_1=(x_1,...,x_n,y_1,...,y_p)$ von $W_1$ und $B_2=(x_1,...,
x_n,z_1,...,z_q)$ von $W_2$ ergänzen. Wir behaupten, dass $B=(x_1,...,x_n,y_1,...,y_p,z_1,...,z_q)$ eine Basis von
$W_1+W_2$ ist. Offenbar ist $B$ ein Erzeugendensystem von $W_1+W_2$. Seien nun $\lambda_1,...,\lambda_n,\mu_1,...,
\mu_p,\eta_1,...,\eta_q \in K$ mit $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j + \sum
_{k=1}^q \eta_kz_k=0$. Dann ist $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j = -\sum
_{k=1}^q \eta_kz_k \in W_1 \cap W_2$. Da $\Span_K(B_0)=W_1\cap W_2$ und $B_1$ linear unabhängig ist, ist
$\mu_j=0$. Analog zeigt man auch, dass $\eta_k=0$. Aus $B_0$ linear unabhängig folgt dann auch, dass $\lambda_i=0$.
Somit ist $B$ linear unabhängig. Wir haben gezeigt, dass $B$ eine Basis von $W_1+W_2$ ist. \\
$\Rightarrow \dim_K(W_1)+\dim_K(W_2)=|B_1|+|B_2|=(n+p)+(n-q)=(n+p+q)+n=|B|+|B_0|=\dim_K(W_1+W_2)+\dim_K(W_1\cap W_2)$.
\end{proof}
\begin{definition}[externes Produkt]
Das \begriff{externe Produkt} einer Familie $(V_i)$ von $K$-Vektorräumen ist der $K$-Vektorraum
$\prod V_i$ bestehend aus dem kartesischen Produkt der $V_i$ mit komponentenweiser Addition und
Skalarmultiplikation, $(x_i)+(x'_i) := (x_i+x'_i)$ und $\lambda(x_i) := (\lambda x_i).$
\end{definition}
\begin{definition}[externe Summe]
Die \begriff{externe Summe} einer Familie $(V_i)$ von $K$-Vektorräumen ist der Untervektorraum
$\oplus V_i := \{(x_i) \in \prod V_i \mid x_i=0 \text{; für fast alle }i\}$ des $K$-Vektorraum $\prod V_i$.
\end{definition}
\begin{remark}
Man prüft sofort nach, dass $\prod V_i$ ein $K$-Vektorraum ist und $\oplus V_i$ ein Untervektorraum davon ist. Für
endliche Indexmengen ist $\prod V_i = \oplus V_i$, z.B. $K^n = \prod_{i=1}^n K = \oplus K$.
Eine erste Beziehung zwischen externer direkter Summe und direkter Summe im Sinne von \propref{2_4_5} gibt das folgende Lemma. Im nächsten Kapitel werden wir den Zusammenhang dann vollständig verstehen.
\end{remark}
\begin{lemma}
Sei $(V_i)$ eine Familie von $K$-Vektorräumen und sei $V=\oplus V_i$. Für jedes $j\in I$ ist $\tilde V_j :=
V \times \prod_{i\in I\backslash\{j\}} \{0\}$ ein Untervektorraum von $V$ und $V=\oplus \tilde V_j$
\end{lemma}
\begin{proof}
Ist $x=(x_i)\in V$ mit $x_i\in V_i$, fast alle $x_i=0$, so ist $x=\sum \tilde x_i$ mit $\tilde x:=(x_i\delta_{ij})
\in \tilde V_j$. Somit ist $V=\sum \tilde V_i$. Die Gleichung $\tilde V_i \cap \sum_{j\neq i} \tilde V_j
=\{0\}$ folgt aus Definition der $\tilde V_i.$
\end{proof}

View file

@ -0,0 +1,185 @@
\section{Teilbarkeit}
\begin{definition}[Teilbarkeit]
Seien $a,b\in R$.
\begin{enumerate}
\item $a$ \begriff{teilt} $b$ (in Zeichen $a\mid b$): Es existiert $x\in R$ mit $b=ax$.
\item $a$ und $b$ sind \begriff{assoziiert} (in Zeichen $a\sim b$): Es existiert $x\in R^{\times}$ mit $b=ax$.
\end{enumerate}
\end{definition}
\begin{mathematica}[Teiler]
Möchte man mit Mathematica bzw. WolframAlpha überprüfen, ob $n$ von $m$ geteilt wird, also $m\mid n$ (!), kann man folge Funktion aufrufen:
\begin{align}
\texttt{Divisible[n,m]}\notag
\end{align}
Eine Liste der Teiler einer Zahl $x$ erhält man mit
\begin{align}
\texttt{Divisors[x]}\notag
\end{align}
\end{mathematica}
\begin{lemma}
Für $a,b,c,d\in R$ gelten
\begin{enumerate}
\item $a\mid a$
\item $a\mid b$ und $b\mid c$ $\Rightarrow$ $a\mid c$
\item $a\mid b$ und $a\mid c$ $\Rightarrow$ $a\mid (b+c)$
\item $a\mid b$ und $c\mid d$ $\Rightarrow$ $(ac)\mid (bd)$
\end{enumerate}
\end{lemma}
\begin{proof}
klar
\end{proof}
\begin{lemma}
Für $a,b,c,d\in R$ gelten
\begin{enumerate}
\item $a\sim a$
\item $a\sim b$ und $b\sim c$ $\Rightarrow$ $a\sim c$
\item $a\sim b$ $\Rightarrow$ $b\sim a$
\item $a\sim b$ und $c\sim d$ $\Rightarrow$ $(ac)\sim (bd)$
\end{enumerate}
\end{lemma}
\begin{proof}
klar, da $(R^\times,\cdot)$ eine Gruppe ist.
\end{proof}
\begin{remark}
Teilbarkeit auf $R$ ist insbesondere eine \begriff{Präordnung}, das heißt reflexiv und transitiv, und Assoziiertheit ist eine Äquivalenzrelation.
\end{remark}
\begin{lemma}
\proplbl{8_2_5}
Sei $R$ nullteilerfrei und seien $a,b\in R$. Genau dann ist $a\sim b$, wenn $a\mid b$ und $b\mid a$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item Hinrichtung: $b=ax$ mit $x\in R^\times$ $\Rightarrow a=bx^{-1}$.
\item Rückrichtung: $b=ax$, $a=by$ mit $x,y\in R^\times$
\begin{align}
a=by&=axy \notag \\
a(1-xy)&= 0 \notag
\end{align}
Also $a=0$ und damit $b=0$ oder $xy=1$, also $x,y\in R^\times$. In beiden Fällen folgt $a\sim b$.
\end{itemize}
\end{proof}
\begin{*example}
Offenbar $2\mid -2$ und $-2\mid 2$. Es gilt $2\sim -2$ und $-2\sim 2$.
\end{*example}
\begin{proposition}
Sie $R$ nullteilerfrei. Mit $[a] := \{a'\in R\mid a\sim a'\}$
wird durch $[a][b]\iff a\mid b$ eine wohldefinierte Halbordnung auf $R/\sim\; := \{[a]\mid a\in R\}$
gegeben.
\end{proposition}
\begin{proof}
\begin{itemize}
\item wohldefiniert: $a\mid b$, $a\sim a'$, $b\sim b'$ $\Rightarrow a'\mid b'$: $ax=b$, $au=a'$, $bv=b$ mit $x\in R$ und $u,v\in R^\times$
\begin{align}
b'=bv=axv=a'\underbrace{u^{-1}vx}_{\in R}\notag
\end{align}
also $a'\mid b'$.
\item reflexiv: klar
\item transitiv: aus Transitivität von $\mid$
\item antisymmetrisch: \propref{8_2_5}
\end{itemize}
\end{proof}
\begin{definition}[größter gemeinsamer Teiler, kleinstes gemeinsames Vielfaches]
Seien $a,b\in R$. Ein $c\in R$ ist ein \begriff{größter gemeinsamer Teiler} von $a$ und $b$ in Zeichen $c=\ggT(a,b)$, wenn gilt: $c\mid a$ und $c\mid b$ und ist $d\in R$ mit $d\mid a$ und $d\mid b$, so auch $d\mid c$.
Ein $c\in R$ ist ein \begriff{kleinstes gemeinsames Vielfaches} von $a$ und $b$, in Zeichen $c=\kgV(a,b)$, wenn gilt: $a\mid c$ und $b\mid c$ und ist $d\in R$ mit $a\mid d$ und $b\mid d$, so ist $c\mid d$.
\end{definition}
\begin{mathematica}[ggT und kgV]
Die Funktionen für den größten gemeinsamen Teiler und das kleinste gemeinsame Vielfache in Mathematica bzw. WolframAlpha sind
\begin{align}
\texttt{GCD[6,12,4,32]}\notag \\
\texttt{LCM[6,12,4,32]}\notag
\end{align}
\end{mathematica}
\begin{remark}
Wenn $\ggT$ und $\kgV$ in einem nullteilerfreien Ring $R$ existieren, sind sie eindeutig bestimmt, aber nur bis auf Assoziiertheit (\propref{8_2_5}).
\end{remark}
\begin{definition}[Primzahl, irreduzibel]
Sei $x\in R$.
\begin{itemize}
\item $x$ ist \begriff{prim} $\iff x\notin R^\times\cup \{0\}$ und $\forall a,b\in R$ gilt $x\mid (ab)\Rightarrow x\mid a\lor x\mid b$.
\item $x$ ist \begriff{irreduzibel} $\iff x\notin R^\times\cup \{0\}$ und $\forall a,b\in R$ gilt $x=ab\Rightarrow a\in R^\times \lor b\in R^\times$.
\end{itemize}
\end{definition}
\begin{remark}
Leicht sieht man: Ist $p\in R$ prim und $a_1,...,a_n\in R$ mit $p\mid (a_1\dots a_n)$, so gilt $p\mid a_i$ für ein $i$.
\end{remark}
\begin{example}
\begin{itemize}
\item In $R=\whole$ gilt: $p$ prim $\iff p$ irreduzibel
\item Sei $f\in R=\ratio[t]$.
\begin{itemize}
\item $\deg(f)=1\Rightarrow f\sim (t-a)$ ist irreduzibel und prim (denn $(t-a)\mid g\iff g(a)=0$)
\item $\deg(f)=2$: $f=t^2-1$ ist nicht irreduzibel, $t^2-2$ ist irreduzibel
\end{itemize}
\end{itemize}
\end{example}
\begin{proposition}
\proplbl{8_2_12}
Sei $R$ nullteilerfrei und $0\neq p\in R\backslash R^\times$. Ist $p$ prim, so ist es auch irreduzibel.
\end{proposition}
\begin{proof}
Sei $p=ab$ mit $a,b\in R$. Da insbesondere $p\mid ab$ und $p$ prim ist, folgt $p\mid a$ oder $p\mid b$. Sei ohne Einschränkung $p\mid a$, das heißt $a=pa'$ mit $a'\in R$.
\begin{align}
&\Rightarrow p=ab = pa'b\notag \\
&\Rightarrow p(1-ab) = 0\notag \\
&\Rightarrow a'b=1\text{, insbesondere }b\in R^\times\notag
\end{align}
Somit ist $p$ irreduzibel.
\end{proof}
\begin{remark}
Erinnerung: Ein Ideal von $R$ ist eine Untergruppe $I\subseteq (R,+)$ mit
\begin{align}
a\in I,r\in R\Rightarrow ra\in I\notag
\end{align}
also genau ein Untermodul des $R$-Moduls $R$.
\end{remark}
\begin{definition}[erzeugtes Ideal, Hauptideal]
Sei $A\subseteq R$. Das von $A$ \begriff[Ideal!]{erzeugte Ideal} mit
\begin{align}
\langle A\rangle :=\left\lbrace \sum_{i=1}^n r_ia_i\mid n\in \natur_0,a_1,...,a_n\in A,r_1,...,r_n\in R\right\rbrace \notag
\end{align}
Ist $A=\{a_1,...,a_n\}$, so schreibt man auch $(a_1,...,a_n)$ für $\langle A\rangle$. Ein Ideal der Form $I=(a)$ ist ein \begriff{Hauptideal}.
\end{definition}
\begin{remark}
Das von $A$ erzeugte Ideal $\langle A\rangle$ ist gleich dem von $A$ erzeugten Untermodul des $R$-Moduls $R$, und ist das kleinste Ideal von $R$, das $A$ enthält.
\end{remark}
\begin{remark}
Für $a\in R$ ist $(a)=Ra$ und für $a,b\in R$ sind äquivalent:
\begin{enumerate}
\item $a\mid b$
\item $b\in (a)$
\item $(b)\subseteq (a)$
\end{enumerate}
Für $R$ nullteilerfrei sind zudem äquivalent:
\begin{enumerate}
\item $a\sim b$
\item $(a)=(b)$
\end{enumerate}
\end{remark}
\begin{example}
Jeder Ring hat die Ideale $(0)=\{0\}$ und $(1)=R$. Für jedes $a\in R^\times$ ist $(a)=(1)$, ist $R$ also ein Körper, so hat $R$ keine weiteren Ideale.
\end{example}
\begin{example}
In $R=\whole$: Für $n\in\whole$ ist $(n)=\whole\cdot n=n\whole$.
\end{example}

View file

@ -0,0 +1,232 @@
\section{Tensorprodukte}
\begin{definition}[billineare Abbildung]
Eine Abbildung $\xi:V\times W\to U$ ist \begriff[Abbildung!]{bilinear}, wenn für jedes $v\in V$ die Abbildung
\begin{align}
\begin{cases}
W\to U \\ w\mapsto \xi(v,w)
\end{cases}\notag
\end{align}
und für jedes $w\in W$ die Abbildung
\begin{align}
\begin{cases}
V\to U \\ v\mapsto \xi(v,w)
\end{cases}\notag
\end{align}
linear sind.
Wir definieren
\begin{align}
\Bil_K(V,W,U)=\{\xi\in\Abb(V\times W,U)\mid \xi\text{ bilinear}\}\notag
\end{align}
\end{definition}
\begin{example}
Seien $V=W=K[t]_{\le d}$, $U=K[t]_{\le 2d}$. Die Abbildung
\begin{align}
\xi:\begin{cases}
V\times W\to U \\ (f.g)\mapsto fg
\end{cases}\quad\text{ ist bilinear}\notag
\end{align}
Wir sehen, dass $\Image(\xi)$ im Allgemeinen kein Untervektorraum von $U$ ist. Ist zum Beispiel $K=\ratio$, $d=1$, so liegen $t^2=\xi(t,t)$ und $-2=\xi(-2,1)$ im $\Image(\xi)$ nicht jedoch $t^2-2$, denn wäre $t^2-2=fg$ mit $f,g\in\ratio[t]$ linear, so hätte $t^2-2$ eine Nullstelle in $\ratio$, aber $\sqrt{2}\notin\ratio$.
\end{example}
\begin{lemma}
$\Bil_K(V,W,U)$ bildet einen Untervektorraum des $K$-Vektorraum $\Abb(V\times W,U)$.
\end{lemma}
\begin{proof}
klar, zum Beispiel
\begin{align}
(\xi+\xi')(\lambda v,w)=\xi(\lambda v,w)+\xi'(\lambda v,w)=\lambda\xi(v,w)+\lambda\xi(v,w)= \lambda(\xi+\xi')(v,w)\notag
\end{align}
\end{proof}
\begin{lemma}
Ist $\xi\in\Bil_K(V,W,U)$ und $f\in\Hom_K(U,U')$ für einen $K$-Vektorraum, so ist
\begin{align}
f\circ \xi\in\Bil_K(V,W,U')\notag
\end{align}
\end{lemma}
\begin{proof}
klar, zum Beispiel
\begin{align}
(f\circ\xi)(\lambda v,w)=f(\xi(\lambda v,w))=f(\lambda\xi(v,w))=\lambda\cdot(f\circ\xi)(v,w)\notag
\end{align}
\end{proof}
\begin{lemma}
\proplbl{7_6_5}
Sei $(v_i)_{i\in I}$ eine Basis von $V$ und $(w_j)_{j\in J}$ eine Basis von $W$. Zu jeder Familie $(u_{ij})_{(i,j)\in I\times J}$ in $U$ gibt es genau ein $\xi\in\Bil_K(V,W,U)$ mit
\begin{align}
\xi(v_i,w_i)=u_{ij}\quad\forall i\in I, j\in J\notag
\end{align}
\end{lemma}
\begin{proof}
\begin{itemize}
\item Eindeutigkeit: Ist $\xi$ bilinear, $v=\sum_{i\in I} \lambda_i v_i$, $w=\sum_{j\in J} \mu_j w_j$ so ist
\begin{align}
\xi(v,w)&=\xi\left(\sum_{i\in I} \lambda_i v_i,\sum_{j\in J}\mu_j w_j\right) \notag \\
&= \sum_{i\in I}\lambda_i\xi\left(v_i,\sum_{j\in J}\mu_j w_j\right)\notag \\
&= \sum_{i,j}\lambda_i\mu_j u_{ij}
\end{align}
durch die Familie $(u_{ij})_{i,j}$ bestimmt.
\item Existenz: Wird $\xi$ durch (1) definiert, so ist $\xi$ bilinear: Für festes $w=\sum_{j\in J}\mu_j w_j$ ist
\begin{align}
\begin{cases}
V&\to U \\ v=\sum\limits_{i\in I}\lambda_i v_i&\mapsto \xi(v,w)=\sum\limits_{i\in I}\lambda_i\left(\sum\limits_{j\in J}\mu_j u_{ij}\right)
\end{cases}\notag
\end{align}
linear (\propref{3_5_1}), analog für festes $v$.
\end{itemize}
\end{proof}
\begin{definition}[Tensorprodukt]
Ein \begriff{Tensorprodukt} von $V$ und $W$ ist ein Paar $(T,\tau)$ bestehend aus einem $K$-Vektorraum $T$ und einer bilinearen Abbildung $\tau\in\Bil_K(V,W,T)$ welche die folgende \begriff{universelle Eigenschaft} erfüllt: \\
\textit{Ist $U$ ein weiterer $K$-Vektorraum und $\xi\in\Bil_K(V,W,U)$ so gibt es genau ein $\xi_\otimes\in\Hom_K(T,U)$ mit $\xi=\xi_\otimes\circ\tau$.}
\begin{center}
\begin{tikzpicture}
\matrix (m) [matrix of math nodes,row sep=3em,column sep=4em,minimum width=2em]
{V\times W & T \\ \; & U \\};
\path[-stealth]
(m-1-1) edge node [below] {$\xi$} (m-2-2)
edge node [above] {$\tau$} (m-1-2)
(m-1-2) edge [dashed] node [right] {$\xi_\otimes$} (m-2-2);
\end{tikzpicture}
\end{center}
\end{definition}
\begin{*anmerkung}
Sind $V$ und $W$ zwei Vektorräume und $K$ ein gemeinsamer Körper, so kann man das Tensorprodukt $V\otimes W$, was auch ein Vektorraum ist, wie folgt konstruieren: Wenn $B=(b_1,...,b_n)$ eine Basis von $V$ und $C=(c_1,...,c_m)$ eine Basis von $W$ ist, dass ist $V\otimes W$ ein Vektorraum, genannt \textit{Tensorproduktraum}, in dem es eine Basis gibt, die auf eindeutige Weise mit den geordneten Paaren des kartesischen Produkts
\begin{align}
B\times C=\{(b_i,c_j)\}\notag
\end{align}
der Basen der Ausgangsräume identifiziert werden kann. Die Dimension von $V\otimes W$ ist dann das Produkt der Dimensionen von $V$ und $W$. Ein Element der Basis von $V\otimes W$, das dem Paar $(b_i,c_j)$ entspricht, wird als $b_i\otimes c_j$ notiert, das $\otimes$ hat also keine tiefere Bedeutung. Ein Element des Tensorproduktes $V\otimes W$ hat dann die Gestalt:
\begin{align}
\sum_{i,j} \lambda_{ij}\cdot (b_i\otimes c_j)\notag
\end{align}
mit $\lambda_{ij}\in K$.
\end{*anmerkung}
\begin{lemma}
\proplbl{7_6_7}
Sind $(T,\tau)$ und $(T',\tau')$ Tensorprodukte von $V$ und $W$, so gibt es einen eindeutig bestimmten Isomorphismus $\Theta:T\to T'$ mit $\tau'=\Theta\circ\tau$.
\begin{center}
\begin{tikzpicture}
\node (V) at (1.5,0) {$V\times W$};
\node (T) at (0,-2) {$T$};
\node (S) at (3,-2) {$T'$};
\draw[->, left] (V) to node {$\tau$} (T);
\draw[->, right] (V) to node {$\tau'$} (S);
\draw[->, above, dashed] (T) to [bend left=10] node {$\Theta$} (S);
\draw[->, below, dashed] (S) to [bend left=10] node {$\Theta'$} (T);
\end{tikzpicture}
\end{center}
\end{lemma}
\begin{proof}
Da $(T,\tau)$ die universelle Eigenschaft erfüllt, gibt es ein eindeutig bestimmtes $\Theta=(\tau')_\otimes\in\Hom_K(T,T')$ mit $\tau'=\Theta\circ\tau$. Analog gibt es $\Theta'\in\Hom_K(T',T)$ mit $\tau=\Theta'\circ\tau'$. Es folgt, dass $\tau=\Theta'\circ\tau'= \Theta'\circ\Theta\circ\tau$. Da auch $\tau=\id_T\circ\tau$ liefert die Eindeutigkeitsaussage in der universellen Eigenschaft von $(T,\tau)$, für $U=T$, $\xi=\tau$, dass $\Theta\circ\Theta'=\id_T$. Analog sieht man, dass $\Theta\circ\Theta'=\id_{T'}$. Somit ist $\Theta$ ein Isomorphismus.
\end{proof}
\begin{definition}[Vektorraum mit Basis $X$]
\proplbl{7_6_8}
Sei $X$ eine Menge. Der $K$-\begriff{Vektorraum mit Basis $X$} ist der Untervektorraum $V=\Span_K((\delta_x)_{x\in X})$ des $K$-Vektorraum $\Abb(X,K)$ mit $\delta_x(y)=\delta_{x,y}=\begin{cases}1&x=y\\0&x\neq y\end{cases}$
\end{definition}
\begin{lemma}
Sei $X$ eine Menge und $V$ der $K$-Vektorraum mit Basis $X$. Dann ist $V$ ein $K$-Vektorraum und $(\delta_x)_{x\in X}$ ist eine Basis von $V$.
\end{lemma}
\begin{proof}
Zu zeigen ist nur, dass $(\delta_x)_{x\in X}$ linear unabhängig ist. Ist $f=\sum_{x\in X}\lambda_x \delta_x$, $\lambda_x\in K$, fast alle gleich 0, und $f=0$, so ist $\lambda_x=f(x)=0$ für jedes $x\in X$.
\end{proof}
\begin{lemma}
\proplbl{7_6_10}
Sei $(v_i)_{i\in I}$ eine Basis von $V$ und $(w_j)_{j\in J}$ eine Basis von $W$. Sei $T$ der $K$-Vektorraum mit der Basis $I\times J$ (im Sinne von \propref{7_6_8}) und $\tau:V\times W\to T$ die bilineare Abbildung gegeben durch $(v_i,w_j)\mapsto \delta_{i,j}$, vergleiche \propref{7_6_5}. Dann ist $(T,\tau)$ ein Tensorprodukt von $V$ und $W$.
\end{lemma}
\begin{proof}
Wir schreiben $v_i\otimes w_j$ für $\delta_{i,j}$. Sei $U$ ein weiterer $K$-Vektorraum und $\xi\in\Bil_K(V,W,U)$. Da $(v_i\otimes w_j)_{(ij)\in I\times J}$ eine Basis von $T$ ist, gibt es genau ein $\xi_\otimes\in\Hom_K(T,U)$ mit $\xi_\otimes(v_i\otimes w_j)=\xi(v_i,w_j)$ für alle $i,j$, also mit $\xi_\otimes\circ\tau=\xi$ nach \propref{7_6_5}. Die universelle Eigenschaft ist somit erfüllt.
\end{proof}
\begin{proposition}
Es gibt ein bis auf Isomorphie (im Sinne von \propref{7_6_7}) eindeutig bestimmtes Tensorprodukt
\begin{align}
(V\otimes_K W,\otimes)\notag
\end{align}
von $V$ und $W$. Sind $V$ und $W$ endlichdimensional, so ist
\begin{align}
\dim_K(V\otimes_K W)=\dim_K(V)\cdot\dim_K(W)\notag
\end{align}
\end{proposition}
\begin{proof}
\propref{7_6_10} und \propref{7_6_7}
\end{proof}
\begin{example}
Durch die Wahl der Standardbasis erhält man einen kanonischen Isomorphismus $K^m\otimes_K K^n\cong\Mat_{m\times n}(K)$.
\end{example}
\begin{example}
Ist $V$ ein $\real$-Vektorraum mit Basis $(x_1,...,x_n)$, so ist $\comp\otimes_\real V$ ein $\real$-Vektorraum der Dimension $2n$ mit Basis $(1\otimes x_1...,1\otimes x_n,i\otimes x_1,...,i\otimes x_n)$. Durch $\lambda\cdot z\otimes x=(\lambda z)\otimes x$ für $\lambda,z\in\comp$, $x\in V$ wird $\comp\otimes_\real V$ zu einem $\comp$-Vektorraum der Dimension $1\otimes x_1,...,1\otimes x_n$, $V_\comp$, genannt die \begriff{Komplexifizierung} von $V$.
\end{example}
\begin{proposition}
\proplbl{7_6_14}
Sei $V\otimes_K W$ ein Tensorprodukt von $V$ und $W$. Für jeden weiteren $K$-Vektorraum $U$ liefert die Abbildung $\xi\to\xi_\otimes$ ein Isomorphismus
\begin{align}
\Bil_K(V,W,U)\overset{\cong}{\to}\Hom_K(V\otimes_K W,U)\notag
\end{align}
\end{proposition}
\begin{proof}
Diese Abbildung heiße $\Lambda$.
\begin{itemize}
\item $\Lambda$ ist linear: klar aus Eindeutigkeitsaussage, z.B.
\begin{align}
(\xi_\otimes+\xi'_\otimes)\circ\otimes=\xi_\otimes\circ\otimes+\xi'_\otimes\circ\otimes=\xi+\xi'=(\xi+\xi')_\otimes\circ\otimes\notag
\end{align}
und somit $\xi_\otimes+\xi'_\otimes=(\xi+\xi')_\otimes$.
\item $\Lambda$ ist injektiv: Ist $\xi\neq 0$, so wegen $\xi=\xi_\otimes\circ\otimes$ auch $\xi_\otimes\neq 0$.
\item $\Lambda$ ist surjektiv: Ist $f\in\Hom_K(V\otimes_K W,U)$, so ist $\xi=f\circ\otimes$ bilinear, die universelle Eigenschaft liefert somit $f=\xi_\otimes\in\Image(\Lambda)$.
\end{itemize}
\end{proof}
\begin{conclusion}
Sind $V$ und $W$ endlichdimensional, so ist
\begin{align}
V\otimes_K W\cong \Bil_K(V,W,K)^*\notag
\end{align}
\end{conclusion}
\begin{proof}
Es ist $\dim_K(V\otimes_K W)<\infty$ und deshalb
\begin{align}
V\otimes_K W\cong (V\otimes_K W)^{**}\overset{\propref{7_6_14}}{\cong} \Bil_K(V,W,K)\notag
\end{align}
\end{proof}
\begin{remark}
Während obige Konstruktion des Tensorprodukts von der Wahl (und Existenz) von Basen abhängt, ist die folgende Konstruktion "'basisfrei"': \\
Sei $T_1$ der $K$-Vektorraum mit Basis $V\times W$ und $T_0$ der Untervektorraum von $T_1$ erzeugt von Elementen der Form:
\begin{align}
\delta_{v+v',w}-\delta_{v,w}-\delta_{v',w} \notag \\
\delta_{v,w+w'}-\delta_{v,w}-\delta_{v,w'} \notag \\
\delta_{\lambda v,w}-\lambda\cdot \delta_{v,w} \notag \\
\delta_{v,\lambda w}-\lambda\cdot\delta_{v,w}\notag
\end{align}
mit $v,v'\in V$, $w,w'\in W$ und $\lambda\in K$. Sei weiter $T=T_1/T_0$ und $\tau:V\times W\to T$ gegeben durch $(v,w)\mapsto\delta_{v,w}+T_0$. Dann ist $(T,\tau)$ ein Tensorprodukt von $V$ und $W$.
\begin{center}
\begin{tikzpicture}
\node (K) at (0,0) {$V\times W$};
\node (U) at (3,-2) {$U$};
\node (B) at (3,0) {$T_1/T_0$};
\node (T) at (3,2) {$T_1$};
\draw[->, above] (K) to node {$\tau$} (B);
\draw[->, below] (K) to node {$\xi$} (U);
\draw[->] (K) to node {} (T);
\draw[->, right] (T) to node {$\pi_{\tau_0}$} (B);
\draw[->, dashed] (B) to node {} (U);
\draw[->, dashed] (T) to [bend left=60] node {} (U);
\end{tikzpicture}
\end{center}
\end{remark}
\begin{remark}
Analog kann man für $k\ge 2$ und die $K$-Vektorräume $V_1,...,V_k$ $k$-lineare Abbildungen $V_1\times ...\times V_k\to U$ definieren und erhält dann Tensorprodukte $V_1\otimes_K ... \otimes_K V_k$.
\end{remark}

View file

@ -0,0 +1,94 @@
\section{Trigonalisierbarkeit}
\begin{definition}
Man nennt $f$ \begriff{trigonalisierbar}, wenn $V$ eine Basis $B$ besitzt, für die $M_B(f)$ eine obere Dreiecksmatrix ist.
\end{definition}
\begin{example}
Ist $f$ diagonalisierbar, so ist $f$ auch trigonalisierbar.
\end{example}
\begin{lemma}
\proplbl{lemma_4_3}
Ist $f$ trigonalisierbar, so zerfällt $\chi_f$ in Linearfaktoren.
\end{lemma}
\begin{proof}
Klar aus \propref{beispiel_2_8} und \propref{satz_2_3}.
\end{proof}
\begin{definition}[invariant]
Ein Untervektorraum $W\le V$ ist $f$-\begriff{invariant}, wenn $f(W)\le W$.
\end{definition}
\begin{remark}
Ist $W$ ein $f$-invarianter UVR von $V$, so ist $f\vert_W\in \End_K(W)$.
\end{remark}
\begin{example}
\proplbl{beispiel_4_6}
\begin{enumerate}
\item $V$ hat stets die $f$-invarianten UVR $W=\{0\}$ und $W=V$.
\item Jeder UVR $W\le \Eig(f,\lambda)$ ist $f$-invariant.
\item Ist $B=(x_1,...,x_n)$ eine Basis von $V$, für die $M_B(f)$ eine obere Dreiecksmatrix ist, so sind alle UVR $W_i=\Span_K(x_1,...,x_i)$ $f$-invariant.
\item Sei $V=W\oplus U$, $B_1=(x_1,...,x_r)$ Basis von $W$, $B_2(x_{r+1},...,x_n)$ Basis von $U$ und $B=(x_1,...,x_n)$. Ist $W$ $f$-invariant, so ist
\begin{align}
M_B(f)=\begin{pmatrix}M_{B_1}(f\vert_W)&*\\0&*\end{pmatrix}\notag
\end{align}
Sind $W$ und $U$ $f$-invariant, so ist
\begin{align}
M_B(f)=\begin{pmatrix}M_{B_1}(f\vert_W)&0\\0&M_{B_2}(f\vert_U)\end{pmatrix}\notag
\end{align}
\end{enumerate}
\end{example}
\begin{lemma}
Ist $W\subset V$ ein $f$-invarianter UVR, so gilt $\chi_{f\vert_W}\mid \chi_f$. Hat $W$ ein lineares Komplement $U$, dass auch $f$-invariant ist, so $\chi_f=\chi_{f\vert_W}\cdot \chi_{f\vert_U}$.
\end{lemma}
\begin{proof}
Ergänze eine Basis $B_0=(x_1,...,x_r)$ von $W$ zu einer Basis $B=(x_1,...,x_n)$ von $V$. Sei $A=M_B(f)$, $A_0=M_{B_0}(f\vert_W)$. Dann ist
\begin{align}
A=\begin{pmatrix}A_0&*\\0&C\end{pmatrix}\quad C\in\Mat_{n-r}(K)\notag
\end{align}
folglich $\chi_f=\chi_A=\chi_{A_0}\cdot \chi_C$, insbesondere $\chi_{f\vert_W}\mid\chi_f$.\\
Ist auch $U=\Span_K(x_{r+1},...,x_n)$ $f$-invariant, so ist
\begin{align}
A=\begin{pmatrix}A_0&0\\0&C\end{pmatrix}\notag
\end{align}
und folglich $\chi_f=\chi_A=\chi_{A_0}\cdot\chi_C=\chi_{f\vert_W}\cdot\chi_{f\vert_U}$.
\end{proof}
\begin{theorem}[Trigonalisierungssatz]
Genau dann ist $f$ trigonalisierbar, wenn $\chi_f$ in Linearfaktoren zerfällt.
\end{theorem}
\begin{proof}
$(\Rightarrow)$: \propref{lemma_4_3}\\
$(\Leftarrow)$: Induktion nach $n=\dim_K(V)$. \\
\emph{$n=1$}: trivial \\
\emph{$n-1\to n$}: Nach Annahme ist $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$ mit $\lambda_1,...,\lambda_n\in K$. Sei $x_1$ ein EV zum EW $\lambda_1$. Dann ist $V_1=K\cdot x_1$ ein $f$-invarianter UVR. Ergänze $B_1=(x_1)$ zu einer Basis $B=(x_1,...,x_n)$ von $V$ und setze $B_2=(x_2,...,x_n)$, $V_2=\Span_K(B_2)$.
\emph{$n-1\to n$}: Nach Annahme ist $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$ mit $\lambda_1,...,\lambda_n\in K$. Sei $x_1$ ein EV zum EW $\lambda_1$. Dann ist $V_1=K\cdot x_1$ ein $f$-invarianter UVR. Ergänze $B_1=(x_1)$ zu einer Basis $B=(x_1,...,x_n)$ von $V$ und setze $B_2=(x_2,...,x_n)$, $V_2=\Span_K(B_2)$.
\begin{align}
\Rightarrow M_B(f)&=\begin{pmatrix}\lambda_1&*\\0&A_2\end{pmatrix}\quad A_2\in\Mat_{n-1}(K)\notag\\
\chi_f(t)&=\chi_{\lambda_1\mathbbm{1}_1}\cdot \chi_{A_2}=(t-\lambda_1)\cdot\chi_{A_2}(t)\notag \\
\overset{\propref{lemma_3_7}}{\Rightarrow} \chi_{A_2}(t)&=\prod_{i=2}^n(t-\lambda_i)\notag
\end{align}
Seien $\pi_1,\pi_2\in\End_K(V)$ gegeben durch $M_B(\pi_1)=\diag(1,0,...,0)$ und $M_B(\pi_2)=\diag(0,1,...,1)$. Dann ist $\pi_1+\pi_2=\id_V$ und $f_i=\pi_1\circ f$ ist $f=\id_V\circ f=f_1+f_2$ und $f_2\vert_{V_2}\in\End_K(V_2)$. Nach Induktionshypothese ist $f_2\vert_{V_2}$ trigonalisierbar, da $M_B(f_2\vert_{V_2})=A_2$, also $\chi_{f_2\vert_{V_2}}=\chi_{A_2}$. Dies bedeutet, es gibt also eine Basis $B'_2=(x'_2,...,x'_n)$ von $V_2$, für die $M_{B'_2}(f_2\vert_{V_2})$ eine obere Dreiecksmatrix ist. Somit ist für $B'=(x_1,x'_2,...,x'_n)$ auch
\begin{align}
M_{B'}(f)&=M_{B'}(f_1)+M_{B'}(f_2)\notag \\
&= \begin{pmatrix}\lambda_1&*\\0&0\end{pmatrix} + \begin{pmatrix}0&0\\0&M_{B'_2}(f_2\vert_{V_2})\end{pmatrix}\notag
\end{align}
eine obere Dreiecksmatrix.
\end{proof}
\begin{conclusion}
Ist $K$ algebraisch abgeschlossen, so ist jedes $f\in\End_K(V)$ trigonalisierbar.
\end{conclusion}
\begin{proof}
Ist $K$ algebraisch abgeschlossen, so zerfällt nach \propref{1_6_14} jedes Polynom über $K$ in Linearfaktoren, insbesondere also $\chi_f$.
\end{proof}
\begin{conclusion}
Ist $V$ ein endlichdimensionaler $\comp$-VR, so ist jedes $f\in\End_\comp(V)$ trigonalisierbar.
\end{conclusion}
\begin{proof}
Nach dem Fundamentalsatz der Algebra \propref{1_6_16} ist $\comp$ algebraisch abgeschlossen.
\end{proof}

View file

@ -0,0 +1,19 @@
Schön, dass du unser Skript für die Vorlesung \textit{Lineare Algebra und analytische Geometrie 1 + 2} bei Prof. Dr. Arno Fehm im WS2017/18 und SS2018 gefunden hast! \footnote{Obwohl man sagen kann, dass es in dieser Vorlesung nur um Lineare Algebra ging, der Teil mit der analytischen Geometrie wurde vernachlässigt. Liegt wahrscheinlich auch daran, dass es demnächst eine Reform der Studienordnung gibt, in der aus der Vorlesung \textit{Lineare Algebra und analytische Geometrie} die Vorlesung \textit{Einführung in die Lineare Algebra} wird.}
Wir verwalten dieses Skript mittels Github \footnote{Github ist eine Seite, mit der man Quelltext online verwalten kann. Dies ist dahingehend ganz nützlich, dass man die Quelltext-Dateien relativ einfach miteinander synchronisieren kann, wenn man mit mehren Leuten an einem Projekt arbeitet.}, d.h. du findest den gesamten \LaTeX-Quelltext auf \url{https://github.com/henrydatei/TUD_MATH_BA}. Unser Ziel ist, für alle Pflichtveranstaltungen von \textit{Mathematik-Bachelor} ein gut lesbares Skript anzubieten. Für die Programme, die in den Übungen zur Vorlesung \textit{Programmieren für Mathematiker} geschrieben werden sollen, habe ich ein eigenes Repository eingerichtet; es findet sich bei \url{https://github.com/henrydatei/TU_PROG}.
Es lohnt sich auf jeden Fall während des Studiums die Skriptsprache \LaTeX{} zu lernen, denn Dokumente, die viele mathematische oder physikalische Formeln enthalten, lassen sich sehr gut mittels \LaTeX{} darstellen, in Word oder anderen Office-Programmen sieht so etwas dann eher dürftig aus.
\LaTeX{} zu lernen ist gar nicht so schwierig, ich habe dafür am Anfang des ersten Semesters wenige Wochen benötigt, dann kannte ich die wichtigsten Befehle und konnte den Vorgänger dieses Skriptes schreiben (\texttt{1. Semester/LAAG}, Vorsicht: hässlich, aber der Quelltext ist relativ gut verständlich).
Es sei an dieser Stelle darauf hingewiesen (wie in jedem anderem Skript auch \smiley{}), dass dieses Skript nicht den Besuch der Vorlesungen ersetzen kann. Es könnte sein, dass Prof. Fehm seine Vorlesung immer mal wieder an die Studenten anpasst; wahrscheinlich immer dann, wenn die Prüfungsergebnisse zu schlecht waren. Nichtsdestotrotz veröffentlicht Prof. Fehm sein Skript auf seiner Homepage \url{http://www.math.tu-dresden.de/~afehm/lehre.html}. Allerdings ist dieses Skript recht hässlich, besonders was die Übersichtlichkeit angeht.
Wir möchten deswegen ein Skript bereitstellen, dass zum einen übersichtlich ist, zum anderen \textit{alle} Inhalt aus der Vorlesung enthält, das sind insbesondere Diagramme, die sich nicht im offiziellen Skript befinden, aber das Verständnis des Inhalts deutlich erleichtern. Ich denke, dass uns dies erfolgreich gelungen ist.
Trotz intensivem Korrekturlesen können sich immer noch Fehler in diesem Skript befinden. Es wäre deswegen ganz toll von dir, wenn du auf unserer Github-Seite \url{https://github.com/henrydatei/TUD_MATH_BA} ein neues Issue erstellst und damit auch anderen hilfst, dass dieses Skript immer besser wird.
Und jetzt viel Spaß bei \textit{Lineare Algebra und analytische Geometrie}!
\begin{flushright}
Henry, Pascal und Daniel
\end{flushright}

View file

@ -0,0 +1,96 @@
\section{Zyklische Vektorräume}
Sei $K$ ein Körper, $V$ ein $n$-dimensionaler $K$-Vektorraum, $f\in\End_K(V)$.
\begin{remark}
Wir betrachten $V$ als $K[t]$-Modul mit $P(t)\cdot x=P(f)(x)$, vergleiche \proplbl{8_1_2}. \\
\emph{Erinnerung:} $V$ heißt $f$-zyklisch $\iff \exists x\in V$ mit $V=\Span_K(x,f(x),f^2(x),...)$. Ist $k$ minimal mit $f^k(x)\in\Span_K(x,f(x),f^2(x),...,f^{k-1}(x))$, so ist $\underbrace{(x,...,f^{k-1}(x))}_{B}$ eine Basis von $V$ und $M_B(f)=M_{\chi_f}$.
\end{remark}
\begin{proposition}
\proplbl{8_7_2}
Es gibt einen $K[t]$-Modul-Isomorphismus
\begin{align}
V\cong \bigoplus_{i=1}^m\qraum{K[t]}{(P_i)}\notag
\end{align}
mit normierten Polynomen $P_1,...,P_m\in K[t]$, die $P_i\mid P_{i+1}$ $\forall i$ erfüllen.
\end{proposition}
\begin{proof}
Nach \propref{8_6_13} ($K[t]$ Hauptidealring) ist
\begin{align}
V\cong K[t]^r\oplus\bigoplus_{i=1}^m \qraum{K[t]}{K[t]\cdot P_i}\notag
\end{align}
mit $P_i\in K[t]\backslash K$, $P_i\mid P_{i+1}$ $\forall i$. Da $\dim_K(K[t])=\infty>\dim_K(V)$ ist, ist $r=0$, und wir können ohne Einschränkung $P_i$ normiert annehmen.
\end{proof}
\begin{lemma}
Für $P\in K[t]$ sei $W:=\qraum{K[t]}{(P)}$. Durch $f_t(x)=\overline{t}x$ wird $f_t\in\End_K(W)$ definiert, wobei $\overline{t}=t+(P)=\pi_{(P)}(t)\in \qraum{K[t]}{(P)}$. Genau dann ist $\phi\in\Hom_K(V,W)$ ein $K[t]$-Modul-Homomorphismus, wenn $\phi(f(x))=f_t(\phi(x))$ $\forall x\in V$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $f_t\in\End_K(W)$: klar
\item Es gilt
\begin{align}
\phi\text{ ist } K[t]\text{-Modul-Homomorphismus} &\iff \phi(ax)=a\phi(x)\quad\forall a\in K[t],\forall x\in V \notag \\
&\iff \phi(tx)=t\phi(x)\quad\forall x\in V \notag \\
&\iff \phi(f(x))=f_t(\phi(x))\quad\forall x\in V\notag
\end{align}
\end{itemize}
\end{proof}
\begin{proposition}
Genau dann ist $\qraum{K[t]}{(P)}$ (als $K[t]$-Modul), wenn $V$ $f$-zyklisch ist. In diesem Fall ist
\begin{align}
\chi_f=P_f=P\notag
\end{align}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Der $K$-Vektorraum $W=\qraum{K[t]}{(P)}$ ist erzeugt von $1,\overline{t}=f_t(1),\overline{t}^2=f^2_t(1),...$, wobei $\overline{t}=t+(P)$ und somit ist $W$ $f_t$-zyklisch mit Basis $C=(1,\overline{t},\overline{t}^2,...,\overline{t}^{n-1})$, wobei $n=\deg(P)$. Auch ist $M_C(f_t)=M_P$. Ist $V\cong\qraum{K[t]}{(P)}$ so ist dann $V$ $f$-zyklisch.
\item Rückrichtung: Ist umgekehrt $V$ ein $K$-Vektorraum mit Basis $B=(x,f(x),...,f^{n-1}(x))$, so ist $M_B(f)=M_P$ für $P=\chi_f$. Der $K$-Vektorraum-Homomorphismus $\phi:V\to W=\qraum{K[t]}{(P)}$ gegeben durch $\phi(f^i(x))=t^i$ ist dann ein $K[t]$-Modul-Isomorphismus.
\item Ist $V\cong W$ als $K[t]$-Modul, so ist $\chi_f=\chi_{f_t}$, $P_f=P_{f_t}$. Aus $M_C(f_t)=M_P$ folgt somit
\begin{align}
\chi_f=\chi_{f_t}=P\notag
\end{align}
Ist $0\neq Q\in K[t]$ mit $\deg(Q)<\deg(P)$, so ist
\begin{align}
Q(f_t)(1)=Q(\overline{t})\neq 0\notag
\end{align}
da $Q\neq 0$ und $C$ Basis, insbesondere $Q(f_t)\neq 0\in\End_K(\qraum{K[t]}{(P)})$. Da $P_{f_t}\mid \chi_{f_t}$ gilt, folgt
\begin{align}
P_f=P_{f_t}=\chi_{f_t}=P\notag
\end{align}
\end{itemize}
\end{proof}
\begin{conclusion}
$V$ ist direkte Summe $f$-zyklischer Untervektorräume.
\end{conclusion}
\begin{conclusion}
Es gilt
\begin{align}
\chi_f\mid (P_f)^n\notag
\end{align}
Insbesondere haben $\chi_f$ und $P_f$ die selben irreduziblen Faktoren.
\end{conclusion}
\begin{proof}
In der Situation von \propref{8_7_2} ist
\begin{align}
\chi_f &= \prod_{i=1}^m P_i\notag \\
P_f &= \kgV(P_1,...,P_m)=P_m\notag
\end{align}
Da $P_i\mid P_m$ für alle $i$ folgt $\chi_f\mid (P_m)^m$, insbesondere $\chi_f\mid (P_m)^n$, denn $m\le n$.
\end{proof}
\begin{conclusion}[\person{Frobenius}-Normalform]
Es gibt eine Basis $B$ von $V$, für die
\begin{align}
M_B(f)=\diag(M_{P_1},...,M_{P_m})\notag
\end{align}
mit $P_1,...,P_m\in K[t]$ normiert, die $P_i\mid P_{i+1}$ erfüllen.
\end{conclusion}
\begin{remark}
Im Gegensatz zur \person{Jordan}-Normalform existiert die \person{Frobenius}-Normalform für beliebige Körper $K$ und beliebige Endomorphismen $f$. Man kann zeigen, dass die Frobenius-Normalform eines Endomorphismus $f$ eindeutig bestimmt ist.
\end{remark}

Binary file not shown.

View file

@ -0,0 +1,810 @@
\RequirePackage{ifluatex,ifpdf}
\documentclass[ngerman,a4paper]{report}
\usepackage[left=2.1cm,right=3.1cm,bottom=3cm,footskip=0.75cm,headsep=0.5cm]{geometry}
\usepackage[ngerman]{babel}
\usepackage[onehalfspacing]{setspace}
\ifpdf
\usepackage[utf8]{inputenc} %not recommended with lualatex
%\usepackage[T1]{fontenc}
\usepackage{chngcntr}
\fi
\usepackage{zref-base}
\usepackage{etoolbox}
\usepackage{xparse}%better macros
\usepackage{calc}
\usepackage{xstring}
\usepackage[bb=boondox]{mathalfa} %spezielle Null mit \mathbb{0}, sollte auch mit 1 klappen, aber dafür haben wir \mathbbm{1}
\usepackage{bigdelim}
\newcommand\undermat[2]{%
\makebox[0pt][l]{$\smash{\underbrace{\phantom{%
\begin{matrix}#2\end{matrix}}}_{\text{$#1$}}}$}#2}
\usepackage{scalerel,stackengine}
\usepackage{tocloft}
\ifluatex
\usepackage{fontspec}
\usepackage{eufrac}
%awesome package for debugging spacing issues
%\usepackage{lua-visual-debug}
%\usepackage{luacode}
\fi
\usepackage[texindy]{imakeidx}
\indexsetup{
level=\chapter*
}
\makeindex[intoc]
%\usepackage[xindy,acronym]{glossaries}
%\makeglossaries
\usepackage[title,titletoc]{appendix}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{amsfonts}
\usepackage{mathtools}
\usepackage{latexsym}
\usepackage{marvosym} %lighning
\usepackage{bbm} %unitary matrix 1
\usepackage{cancel}
\usepackage{xfrac}%sfrac -> fractions e.g. 3/4
\usepackage[table]{xcolor}
\usepackage{graphicx}
\usepackage{pgfplots}
\pgfplotsset{compat=1.10}
\usepgfplotslibrary{fillbetween}
\usepackage{pgf}
\usepackage{tikz}
\usetikzlibrary{patterns,arrows,calc,decorations.pathmorphing,backgrounds, positioning,fit,petri}
\usetikzlibrary{matrix}
\usepackage{color}
\usepackage{wasysym}
\usepackage{tcolorbox}
\usepackage{enumerate}
\usepackage{enumitem} %customize label
\usepackage{stmaryrd} % Lightning symbol
\usepackage{tabularx}
\usepackage{multirow}
\usepackage{booktabs}
\usepackage{ulem} %better underlines
\usepackage{parskip}%split paragraphs by vspace instead of intendations
\usepackage{fancyhdr}
\usepackage{titlesec}%customize titles
\usepackage{marginnote}
\usepackage[amsmath,amsthm,thmmarks,hyperref]{ntheorem}%customize theorem-environments more effectively
\usepackage[ntheorem,framemethod=TikZ]{mdframed}
\usepackage{tikz} %diagrams
\usetikzlibrary{arrows,cd} % for commutative diagrams
\usetikzlibrary{babel}
\usepackage[unicode,bookmarks=true]{hyperref}
\hypersetup{
colorlinks,
citecolor=green,
filecolor=green,
linkcolor=blue,
urlcolor=blue
}
\usepackage{cleveref}
\usepackage{bookmark}
\newcommand{\coloredRule}[3][black]{\textcolor{#1}{\rule{#2}{#3}}}
\newlength{\blacktrianglewidth}
\settowidth{\blacktrianglewidth}{$\blacktriangleright$}
\definecolor{lightgrey}{gray}{0.91}
\definecolor{lightred}{rgb}{1,0.6,0.6}
\definecolor{darkgrey}{gray}{0.6}
\definecolor{darkgreen}{rgb}{0,0.6,0}
%numbered theorems
\theoremstyle{break}
\theorembodyfont{}
\mdfdefinestyle{boxedtheorem}{%
outerlinewidth=3pt,%
skipabove=5pt,%
skipbelow=10pt,%
frametitlefont=\normalfont\bfseries\color{black},%
nobreak,%enforce no pagebrakes in the whole frame
}
\newmdtheoremenv[%
style=boxedtheorem,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
linecolor=darkgrey,%
backgroundcolor=lightgrey,%
]{theorem}{Theorem}[section]
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
]{proposition}[theorem]{Satz}
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=darkgrey,%
topline=false,%
rightline=false,%
bottomline=false,%
backgroundcolor=lightgrey,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
]{lemma}[theorem]{Lemma}
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0,%
innerbottommargin=-3pt,%
]{definition}[theorem]{Definition}
\newmdtheoremenv[%
outerlinewidth=3pt,%
linecolor=black,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=0pt,%
innerbottommargin=-0pt,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
skipbelow=10pt,%
]{conclusion}[theorem]{Folgerung}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=0pt,%
skipabove=5pt,%
innerleftmargin=10pt,%
]{remark}[theorem]{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
innerleftmargin=10pt,%
]{example}[theorem]{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel}
%unnumbered theorems
\theoremstyle{nonumberbreak}
\theoremindent0cm
\newmdtheoremenv[%
style=boxedtheorem,%
linecolor=red,%
topline=false,%
rightline=false,%
bottomline=false,%
innertopmargin=1pt,%
innerbottommargin=1pt,%
]{*definition}{Definition}
\newmdtheoremenv[%
hidealllines=true,%
frametitlefont=\normalfont\bfseries\color{black},%
skipabove=5pt,%
innerleftmargin=10pt,%
]{*remark}{\hspace*{-10pt}$\blacktriangleright$\hspace*{\dimexpr 10pt - \blacktrianglewidth\relax}Bemerkung}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=10pt,%
]{*example}{\hspace*{-10pt}\rule{5pt}{5pt}\hspace*{5pt}Beispiel}
\newtheorem{overview}[theorem]{Überblick}
\newmdtheoremenv[%
style=boxedtheorem,%
topline=false,%
rightline=false,%
leftline=false,
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
]{*anmerkung}{Anmerkung}
\newmdtheoremenv[%
style=boxedtheorem,%
topline=false,%
rightline=false,%
leftline=false,
bottomline=false,%
innertopmargin=\topskip,%
innerbottommargin=\topskip,%
backgroundcolor=lightgrey,%
]{mathematica}{Mathematica/WolframAlpha-Befehle}
%Hinweis-Theoremstyle and environment
%To get rid of the parentheses, a new theorem style is neccessary (definition of nonumberbreak from ntheorem.sty)
%to achieve the underlining, this needed to put in the theoremstyle definition
\theoremheaderfont{\mdseries}
\theoremseparator{:}
\theorempostskip{0pt}
\makeatletter
\newtheoremstyle{noparentheses}%
{\item[\rlap{\vbox{\hbox{\hskip\labelsep \theorem@headerfont
\underline{##1}\theorem@separator}\hbox{\strut}}}]}%
{\item[\rlap{\vbox{\hbox{\hskip\labelsep \theorem@headerfont
\underline{##1\ ##3\theorem@separator}}\hbox{\strut}}}]}
\newtheoremstyle{underlinedPlain}%
{\item[\hskip\labelsep \uline{\theorem@headerfont ##1\theorem@separator}]}%
{\item[\hskip\labelsep \uline{\theorem@headerfont ##1\ \theorem@headerfont(##3)\theorem@separator}]}
\newtheoremstyle{underlinedEnvironment}{}%
{\item[\hskip\labelsep \uline{##1\theorem@headerfont ##3\theorem@separator}]}
\newtheoremstyle{boldEnvironment}{}%
{\item[\hskip\labelsep \textbf{##1\theorem@headerfont ##3\theorem@separator}]}
\newtheoremstyle{proofstyle}%
{\item[\hskip\labelsep {\theorem@headerfont ##1}\theorem@separator]}%
{\item[\hskip\labelsep {\theorem@headerfont ##1}\ (##3)\theorem@separator]}
\makeatother
\theoremstyle{noparentheses}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=1em,%
innerbottommargin=0pt,%
innerrightmargin=0,%
skipbelow=0pt,%
]{interpretation}{\hspace*{\dimexpr - \mdflength{innerleftmargin}\relax}Interpretation}
\theoremstyle{underlinedPlain}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=1em,%
innerrightmargin=0,%
skipbelow=0pt,%
]{hint}{\hspace*{\dimexpr - \mdflength{innerleftmargin}\relax}Hinweis}
\theoremstyle{underlinedEnvironment}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=1em,%
innerrightmargin=0,%
skipbelow=0pt,%
]{underlinedenvironment}{\hspace*{\dimexpr -\mdflength{innerleftmargin}\relax}}
\theoremheaderfont{\bfseries}
\theoremstyle{boldEnvironment}
\newmdtheoremenv[%
hidealllines=true,%
innerleftmargin=1em,%
innerrightmargin=0,%
skipbelow=0pt,%
]{boldenvironment}{\hspace*{\dimexpr -\mdflength{innerleftmargin}\relax}}
\theoremstyle{proofstyle}
\theoremheaderfont{\normalfont\normalsize\itshape}
\theorembodyfont{\normalfont\small}
\theoremseparator{.}
\theorempreskip{5pt}
\theorempostskip{5pt}
\theoremsymbol{$\square$}
\renewtheorem{proof}{Beweis}
%for \cref: printed environment names
\crefname{theorem}{Theorem}{Theoreme}
\crefname{proposition}{Satz}{Sätze}
\crefname{lemma}{Lemma}{Lemmata}
\crefname{conclusion}{Folgerung}{Folgerungen}
\crefname{definition}{Definition}{Definitionen}
\crefname{remark}{Bemerkung}{Bemerkungen}
\crefname{example}{Beispiel}{Beispiele}
\crefname{*definition}{Definition}{Definitionen}
\crefname{*remark}{Bemerkung}{Bemerkungen}
\crefname{*example}{Beispiel}{Beispiele}
\makeatletter
%output a number in upper roman letters
\newcommand*{\rom}[1]{\expandafter\@slowromancap\romannumeral #1@}
%declare a new label; store current chapter number
\newcommand*{\proplbl}[1]{%
\@bsphack
\begingroup
\label{#1}%
\zref@setcurrent{default}{\arabic{chapter}}%
% \zref@wrapper@immediate{%
\zref@labelbyprops{#1@chapter}{default}
% }
\endgroup
\@esphack
}
%refer to a label set by proplbl.
%If the label is not defined (yet), question marks are output at the calling position. If the label is defined, the chapter number is prepended to the link output by \cref if the current chapter number and the one set when calling \proplbl differ.
%the macro handels both text and math mode. mbox is needed due to a feature concerning ulem / cleveref
\newcommand*{\propref}[1]{%
\ifcsdef{r@#1}%in first compilation the label may not be defined yet
{%
\zref@refused{#1@chapter}%
\cref@gettype{#1}{\propositionref@current@type}%get the environment's name
\ifnumcomp{\value{chapter}}{=}{\zref@extractdefault{#1@chapter}{default}{0}}%
{%same chapter
\ifmmode
\ref{#1}%
\else
\mbox{\cref{#1}}%
\fi
}%
{%otherwise
%example for following line:
%\crefformat{truetheorem}{\cref@truetheorem@name~##2\rom{\zref@extractdefault{#1}{#1chapter}{1}}.##1##3}
%this changes the format used by \cref to <environtment name> <chapter-number>.<section-number>.<theorem number>
\crefformat{\propositionref@current@type}{%
\csname cref@\propositionref@current@type @name\endcsname ~##2\rom{\zref@extractdefault{#1@chapter}{default}{1}}.##1##3%
}%
\ifmmode
\ref{#1}%
\else
\mbox{\cref{#1}}%
\fi
\crefformat{\propositionref@current@type}{%
\csname cref@\propositionref@current@type @name\endcsname~##2##1##3%
}%
}%
}%
{??}%similar to \ref\cref: question marks in case of undefined labels
}
\makeatother
%declare new term to the index, output if no star is given to call position
\NewDocumentCommand{\begriff}{s O{} m O{}}{%
\IfBooleanTF{#1}%
{\index{#2#3#4}}%
{%
\uline{#3} %
\index{#2#3#4}%
}%
}
%append a new mathsymbol to the index, output if no star is given at the call position
\NewDocumentCommand{\mathsymbol}{s O{} m m O{}}{%
\IfBooleanTF{#1}%
{\index[symbols]{#2#3@\detokenize{#4}#5}}%
{#4\index[symbols]{#2#3@\detokenize{#4}#5}}%
}
%remove skip before / after amsmath-environments: default to 0pt. 1star: just before the environment, 2stars: just after the environment, no star: both
\NewDocumentCommand{\zeroAmsmathAlignVSpaces}{s s O{0 pt} O{0 pt}}{%
\IfBooleanTF{#1}%
{%
\IfBooleanTF{#2}%
{\setlength{\belowdisplayskip}{#4}}%
{\setlength{\abovedisplayskip}{#3}}%
}%
{%
\setlength{\abovedisplayskip}{#3}%
\setlength{\belowdisplayskip}{#4}%
}%
}
%general transpose-makro
\NewDocumentCommand{\transpose}{m}{\ensuremath{#1^\mathsf{T}}}
%unused
\NewDocumentCommand{\itemEq}{s m}{%
\begingroup%
\setlength{\abovedisplayskip}{\dimexpr -\parskip + 1pt\relax}%
\setlength{\belowdisplayskip}{0pt}%
\IfBooleanTF{#1}%
{\parbox[c]{\linewidth}{\begin{flalign*}#2&&\end{flalign*}}}%}
{\parbox[c]{\linewidth}{\begin{flalign}#2&&\end{flalign}}}%}
\endgroup%
}
%new macro for "equals" ^=
\newcommand\equalhat{\mathrel{\stackon[1.5pt]{=}{\stretchto{%
\scalerel*[\widthof{=}]{\wedge}{\rule{1ex}{3ex}}}{0.5ex}}}}
%macro that defines the spacing between bracket and content of a matrix
\NewDocumentCommand{\matrixBracketSpacing}{}{\mspace{4.0mu plus 3.0mu minus 1.0mu}}
%macro width customized spacing between bracktes / content, lineheight and columnwidth
\newenvironment{henrysmatrix}{%
\renewcommand*{\arraystretch}{1.2}
\setlength\arraycolsep{5pt}
\left(\matrixBracketSpacing
\begin{matrix}
}{%
\end{matrix}
\matrixBracketSpacing\right)
}
\makeatletter
%redefine \overline to customize the space between text / line (currently 0.4mm + height of the content)
%ATTENTION: when changing the 0.4mm unfortunately, in \kringel the 0.4mm need to be changed accordingly
\let\@old@overline\overline
\renewcommand*{\overline}[1]{%
\@old@overline{\raisebox{0pt}[\dimexpr\height+0.4mm\relax]{$#1$}}%
}
%encircle some content. Arguments: border color (optional), background color (mandatory), content (mandatory)
%two lengths to get width / height of content (important for width / height of the circle)
\newlength{\@kringel@contentheight}
\newlength{\@kringel@contentwidth}
\newlength{\@kringel@depth}
\NewDocumentCommand{\kringel}{O{blue} m m}{%
%as the macro should work for both text and math mode, add some macros for later use to distinguish
%in text mode, nothing happens (except discarding the 1st argument for the raisebox, that is permantently given), in math mode, the content needs to be enbraced by \ensuremath, the tcolorbox-environment by a raisebox
%ATTENTION: when changing the height-factor of tcolorbox, the depth correction needs to be changed as well
\let\@kringel@inner\relax
\let\@kringel@outer\@secondoftwo
\ifmmode
\let\@kringel@inner\ensuremath
\let\@kringel@outer\raisebox
\fi
%set the width and height
\settoheight{\@kringel@contentheight}{\hbox{\@kringel@inner{#3}}}
\settowidth{\@kringel@contentwidth}{\@kringel@inner{#3}}
\settodepth{\@kringel@depth}{\@kringel@inner{#3}}
%change the depth correction dependend whethere there is a depth (e.g. y) or not (e.g. a)
\ifdim \@kringel@depth > 0pt%
\setlength{\@kringel@depth}{\dimexpr\@kringel@depth+0.5mm\relax}
\else
\settodepth{\@kringel@depth}{y}
\setlength{\@kringel@depth}{\dimexpr\@kringel@depth+0.3mm\relax}
\fi
%output the colorbox width given parameter: frame color, background color, computed width and height, and escaped content depending on math / text mode
\@kringel@outer{\dimexpr-\@kringel@contentheight/2-\@kringel@depth\relax}{\begin{tcolorbox}[colframe=#1,halign=center,valign=center,width=\dimexpr1.5\@kringel@contentwidth+1mm\relax,height=2.5\@kringel@contentheight,left=0pt,right=0pt,bottom=0pt,top=0pt,boxrule=0.8pt,colback=#2,boxsep=0pt,bean arc]
\@kringel@inner{#3}
\end{tcolorbox}}
}
%switch numbering of equations (amsmath-environments)
\newcommand{\leqnos}{\tagsleft@true\let\veqno\@@leqno}
\newcommand{\reqnos}{\tagsleft@false\let\veqno\@@eqno}
\reqnos
\pdfstringdefDisableCommands{%
\def\\{}%
\def\texttt#1{<#1>}%
\def\mathbb#1{<#1>}%
}
\makeatother
%General newcommands!
\newcommand{\comp}{\mathbb{C}} % complex set C
\newcommand{\real}{\mathbb{R}} % real set R
\newcommand{\whole}{\mathbb{Z}} % whole number Symbol
\newcommand{\natur}{\mathbb{N}} % natural number Symbol
\newcommand{\ratio}{\mathbb{Q}} % rational number symbol
\newcommand{\field}{\mathbb{K}} % general field for the others above!
\newcommand{\diff}{\mathrm{d}} % differential d
\newcommand{\s}{\,\,} % space after the function in the intergral
\newcommand{\cont}{\mathcal{C}} % Contour C
\newcommand{\fuk}{f(z) \s\diff z} % f(z) dz
\newcommand{\diffz}{\s\diff z}
\newcommand{\subint}{\int\limits} % lower boundaries for the integral
\newcommand{\poly}{\mathcal{P}} % special P - polygon
\newcommand{\defi}{\mathcal{D}} % D for the domain of a function
\newcommand{\cover}{\mathcal{U}} % cover for a set
\newcommand{\setsys}{\mathcal{M}} % set system M
\newcommand{\setnys}{\mathcal{N}} % set system N
\newcommand{\zetafunk}{f(\zeta)\s\diff \zeta} %f(zeta) d zeta
\newcommand{\ztfunk}{f(\zeta)} % f(zeta)
\newcommand{\bocirc}{S_r(z)}
\newcommand{\prop}{\,|\,}
\newcommand*{\QEDA}{\hfill\ensuremath{\blacksquare}} %tombstone
\newcommand{\emptybra}{\{\varnothing\}} % empty set with set-bracket
\newcommand{\realpos}{\real_{>0}}
\newcommand{\realposr}{\real_{\geq0}}
\newcommand{\naturpos}{\natur_{>0}}
\newcommand{\Imag}{\operatorname{Im}} % Imaginary symbol
\newcommand{\Realz}{\operatorname{Re}} % Real symbol
\newcommand{\norm}{\Vert \cdot \Vert}
\newcommand{\metric}{\vert \cdot \vert}
\newcommand{\foralln}{\forall n} %all n
\newcommand{\forallnset}{\forall n \in \natur} %all n € |N
\newcommand{\forallnz}{\forall n \geq _0} % all n >= n_0
\newcommand{\conjz}{\overline{z}} % conjugated z
\newcommand{\tildz}{\tilde{z}} % different z
\newcommand{\lproofar}{"`$ \Leftarrow $"'} % "`<="'
\newcommand{\rproofar}{"`$ \Rightarrow $"'} % "`=>"'
\newcommand{\beha}{\Rightarrow \text{ Behauptung}}
\newcommand{\powerset}{\mathcal{P}}
\newcommand{\person}[1]{\textsc{#1}}
\newcommand{\highlight}[1]{\emph{#1}}
\newcommand{\realz}{\mathfrak{Re}}
\newcommand{\imagz}{\mathfrak{Im}}
\renewcommand{\epsilon}{\varepsilon}
\renewcommand{\phi}{\varphi}
\newcommand{\lebesque}{\person{Lebesgue}}
\renewcommand{\Re}{\mathfrak{Re}}
\renewcommand{\Im}{\mathfrak{Im}}
\renewcommand*{\arraystretch}{1.4}
\newcommand{\skalar}[2]{\left\langle #1,#2\right\rangle}
\newcommand{\qraum}[2]{\sfrac{#1}{#2}}
% Math Operators
\DeclareMathOperator{\inn}{int} % Set of inner points
\DeclareMathOperator{\ext}{ext} % Set of outer points
\DeclareMathOperator{\cl}{cl} % Closure
\DeclareMathOperator{\grad}{grad}
\DeclareMathOperator{\D}{d}
\DeclareMathOperator{\id}{id}
\DeclareMathOperator{\graph}{graph}
\DeclareMathOperator{\Int}{int}
\DeclareMathOperator{\Ext}{ext}
\DeclareMathOperator{\diam}{diam}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\Aff}{Aff}
\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\Hom}{Hom}
\DeclareMathOperator{\Abb}{Abb}
\DeclareMathOperator{\Bil}{Bil}
\DeclareMathOperator{\Eig}{Eig}
\DeclareMathOperator{\Mat}{Mat}
\DeclareMathOperator{\Ker}{Ker}
\DeclareMathOperator{\diag}{diag}
\DeclareMathOperator{\GL}{GL}
\DeclareMathOperator{\tr}{tr}
\DeclareMathOperator{\rk}{rk}
\DeclareMathOperator{\ZR}{ZR}
\DeclareMathOperator{\SR}{SR}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\Span}{span}
\DeclareMathOperator{\Image}{Im}
\DeclareMathOperator{\Sym}{Sym}
\DeclareMathOperator{\Hau}{Hau}
\DeclareMathOperator{\pr}{pr}
\DeclareMathOperator{\Orth}{O}
\DeclareMathOperator{\SO}{SO}
\DeclareMathOperator{\Uni}{U}
\DeclareMathOperator{\SU}{SU}
\DeclareMathOperator{\SL}{SL}
\DeclareMathOperator{\ggT}{ggT}
\DeclareMathOperator{\kgV}{kgV}
%change headings:
\titlelabel{\thetitle.\quad}%. behind section/sub... (3. instead of 3)
\counterwithout{section}{chapter}
\renewcommand{\thechapter}{\Roman{chapter}}
\renewcommand{\thepart}{\Alph{part}}
%italic chapters (due to titlesec package some more stuff)
%\titleformat{command}[shape]{format}{label}{sep}{before-code}[after-code]
\titleformat{\chapter}[display]{\bfseries}{\Large\chaptername\;\thechapter}{-5pt}{\huge\bfseries\itshape}
\titlespacing{\chapter}{0pt}{0pt}{10pt}
\titleformat{\section}[hang]{\bfseries\Large}{\thesection.}{8pt}{\Large\bfseries}
%\titlespacing{command}{left}{before-sep}{after-sep}
\titlespacing{\subsection}{0pt}{0pt}{5pt}
%change appearence of heading of toc: 0 space above, bold, italic huge toc-heading
\renewcommand{\cftbeforetoctitleskip}{0pt}
\renewcommand{\cfttoctitlefont}{\itshape\Huge\bfseries}
%change indentations due to width of capital roman numbers
\renewcommand{\cftchapnumwidth}{2.5em}
\renewcommand{\cftsecindent}{2.5em}
%\renewcommand{\cftsecnumwidth}{3.3em}
\renewcommand{\cftsubsecindent}{4.8em}
%\renewcommand{\cftsubsecnumwidth}{4.2em}
%change header:
\renewcommand{\headrulewidth}{0.75pt}
\renewcommand{\footrulewidth}{0.3pt}
\lhead{\rightmark}%left: section-number. section-title
\rhead{\leftmark}%right: chapter chapternumber: chapter-title
% Add new page-style (just footer), patch \chapter command to use this page style
\fancypagestyle{plainChapter}{%
\fancyhf{}%
\fancyfoot[C]{\thepage}%
\renewcommand{\headrulewidth}{0pt}% Line at the header invisible
\renewcommand{\footrulewidth}{0.4pt}% Line at the footer visible
}
%changes pagestyle; instead of empty page the normal footer is printed
\patchcmd{\chapter}{\thispagestyle{plain}}{\thispagestyle{plainChapter}}{}{}
%usually, after a new chapter the section counter needs to be reset manually. Instead, automatic reset
\pretocmd{\chapter}{\setcounter{section}{0}}{}{}
\pagestyle{fancy}
\pagenumbering{arabic}
%remember chapter-title in \leftmark and \rightmark
\renewcommand{\chaptermark}[1]{%
\markboth{\chaptername
\ \thechapter:\ #1}{}}
%remember section title in \leftmark
\renewcommand{\sectionmark}[1]{%
\markright{\thesection.\ #1}{}}
%change numbering of equations to be section by section
\counterwithout{equation}{section}
\title{\textbf{Lineare Algebra WS2017/18 + SS2018}}
\author{Dozent: Prof. Dr. Arno Fehm}
%remove page number from part{}-pages
\makeatletter
\let\sv@endpart\@endpart
\def\@endpart{\thispagestyle{empty}\sv@endpart}
\makeatother
\begin{document}
\pagenumbering{roman}
\pagestyle{plain}
\maketitle
\hypertarget{tocpage}{}
\tableofcontents
\bookmark[dest=tocpage,level=1]{Inhaltsverzeichnis}
\pagebreak
\pagestyle{fancy}
\pagenumbering{arabic}
\pagestyle{fancy}
\chapter*{Vorwort}
\addcontentsline{toc}{chapter}{Vorwort}
\input{./TeX_files/Vorwort}
\chapter{Grundbegriffe der Linearen Algebra}
\input{./TeX_files/Logik_und_Mengen}
\include{./TeX_files/Abbildungen}
\include{./TeX_files/Gruppen}
\include{./TeX_files/Ringe}
\include{./TeX_files/Koerper}
\include{./TeX_files/Polynome}
\chapter{Vektorräume}
\input{./TeX_files/Definition_und_Beispiele}
\include{./TeX_files/Linearkombinationen}
\include{./TeX_files/Basis_und_Dimension}
\include{./TeX_files/Summen_von_VR}
\chapter{Lineare Abbildungen}
\input{./TeX_files/Matrizen}
\include{./TeX_files/Homomorphismen_von_Gruppen}
\include{./TeX_files/Homomorphismen_von_Ringen}
\include{./TeX_files/Homomorphismen_von_VR}
\include{./TeX_files/Der_VR_der_linearen_Abbildungen}
\include{./TeX_files/Koordinatendarstellung_linearer_Abbildungen}
\include{./TeX_files/Quotientenraeume}
\include{./TeX_files/Rang}
\include{./TeX_files/Lineare_Gleichungssysteme}
\chapter{Determinanten}
\input{./TeX_files/Das_Vorzeichen_einer_Permutation}
\include{./TeX_files/Determinante_einer_Matrix}
\include{./TeX_files/Minoren}
\include{./TeX_files/Determinante_und_Spur_von_Endomorphismen}
\chapter{Endomorphismen}
\input{./TeX_files/Eigenwerte}
\include{./TeX_files/Das_charakteristische_Polynom}
\include{./TeX_files/Diagonalisierbarkeit}
\include{./TeX_files/Trigonalisierbarkeit}
\include{./TeX_files/Das_Minimalpolynom}
\include{./TeX_files/Nilpotente_Endomorphismen}
\include{./TeX_files/Die_Jordan_Normalform}
\chapter{Skalarprodukte}
\input{./TeX_files/Das_Standardskalarprodukt}
\include{./TeX_files/Bilinearformen_und_Sesquilinearformen}
\include{./TeX_files/Euklidische_und_unitaere_VR}
\include{./TeX_files/Orthogonalitaet}
\include{./TeX_files/Orthogonale_und_unitaere_Endomorphismen}
\include{./TeX_files/Selbstadjungierte_Endomorphismen}
\include{./TeX_files/Hauptachsentransformation}
\include{./TeX_files/Quadriken}
\chapter{Dualität}
\input{./TeX_files/Das_Lemma_von_Zorn}
\include{./TeX_files/Der_Dualraum}
\include{./TeX_files/Die_duale_Abbildung}
\include{./TeX_files/Die_adjungierte_Abbildung}
\include{./TeX_files/Der_Spektralsatz}
\include{./TeX_files/Tensorprodukte}
\chapter{Moduln}
\input{./TeX_files/Moduln}
\include{./TeX_files/Teilbarkeit}
\include{./TeX_files/Hauptidealringe}
\include{./TeX_files/Faktorielle_Ringe}
\include{./TeX_files/Quotienten_von_Ringen_und_Moduln}
\include{./TeX_files/Der_Elementarteilersatz}
\include{./TeX_files/Zyklische_Vektorraeume}
\part*{Anhang}
\addcontentsline{toc}{part}{Anhang}
\appendix
\patchcmd{\chapter}{\thispagestyle{plainChapter}}{\thispagestyle{fancy}}{}{}
%\titleformat{command}[shape]{format}{label}{sep}{before-code}[after-code]
%\titlespacing{command}{left}{before-sep}{after-sep}
\renewcommand{\chaptername}{Anhang}
\renewcommand{\thechapter}{\Alph{chapter}}
\titleformat{\chapter}[hang]{\bfseries}{\LARGE\chaptername\ \thechapter:}{0.5em}{\LARGE\bfseries}
\titlespacing{\chapter}{0pt}{-0.75cm}{0pt}
\renewcommand{\thesection}{\Alph{chapter}.\arabic{section}}
%from ntheorem.sty
%\def\thm@@thmline@name#1#2#3#4#5{%
% \ifx\\#5\\%
% \@dottedtocline{-2}{0em}{2.3em}%
% {#1 \protect\numberline{#2}#3}%
% {#4}
% \else
% \ifHy@linktocpage\relax\relax
% \@dottedtocline{-2}{0em}{2.3em}%
% {#1 \protect\numberline{#2}#3}%
% {\hyper@linkstart{link}{#5}{#4}\hyper@linkend}%
% \else
% \@dottedtocline{-2}{0em}{2.3em}%
% {\hyper@linkstart{link}{#5}%
% {#1 \protect\numberline{#2}#3}\hyper@linkend}%
% {#4}%
% \fi
% \fi
%}
\makeatletter
%update ntheorem macro to provide space between theorem numbers and any optional comment, adds in upper roman letters the chapter number. removes any numbering for theorem environments with just one counter
\renewcommand{\thm@@thmline@name}[5]{%-
\def\thm@@thmline@name@tmp{%
\if\relax\detokenize{#3}\relax\else%
{\hspace*{2.2ex}#3}%
\fi%
}
\let\thm@@thmline@name@numbering\relax
\StrCount{#5}{.}[\thm@@thmline@name@dot@number]
\ifnum\thm@@thmline@name@dot@number < 3%
\def\thm@@thmline@name@tmp{\hspace*{-1em}#3}
\else%
\StrBetween[1,2]{#5}{.}{.}[\thm@@thmline@name@chap@num]%get the chapter number for roman transliteration
\def\thm@@thmline@name@numbering{\rom{\thm@@thmline@name@chap@num}.#2}
\fi
\ifx\\#5\\%
\@dottedtocline{-2}{0em}{4.4em}%
{#1 \protect\numberline{\thm@@thmline@name@numbering:}{}}%
{#4}
\else
\ifHy@linktocpage\relax\relax
\@dottedtocline{-2}{0em}{1.3em}%
{#1 \protect\numberline{\thm@@thmline@name@numbering:}\thm@@thmline@name@tmp}%
{\hyper@linkstart{link}{#5}{#4}\hyper@linkend}%
\else
\@dottedtocline{-2}{0em}{4.em}%
{#1 \protect\numberline{\thm@@thmline@name@numbering:}\thm@@thmline@name@tmp}%
{\hyper@linkstart{link}{#5}{#4}\hyper@linkend}%
\fi
\fi
}
\makeatother
\chapter{Listen}
\section{Liste der Theoreme}
\theoremlisttype{allname}
\listtheorems{theorem}
\pagebreak
\section{Liste der benannten Sätze, Lemmata und Folgerungen}
\theoremlisttype{optname}
\listtheorems{proposition,lemma,conclusion}
\pagebreak
\section{Liste der Mathematica/WolframAlpha-Befehle}
\smiley{} für faule Mathematiker \smiley{} \\
\theoremlisttype{allname}
\listtheorems{mathematica}
%\printglossary[type=\acronymtype]
\printindex
\end{document}

View file

@ -13,7 +13,7 @@ Sei $K=\real$ oder $K=\comp$.
\end{definition}
\begin{remark}
Im Fall $K=\real$ ist $\lambda=\overline{\lambda}$. Wir werden der Einfachheit halber auch in diesem Fall von Sesquilinearformen sprechen, vgl. \propref{2_1_12}
Im Fall $K=\real$ ist $\lambda=\overline{\lambda}$. Wir werden der Einfachheit halber auch in diesem Fall von Sesquilinearformen sprechen, vgl. \propref{6_1_12}
\end{remark}
\begin{example}
@ -39,7 +39,7 @@ Sei $K=\real$ oder $K=\comp$.
\end{example}
\begin{lemma}
\proplbl{2_2_6}
\proplbl{6_2_6}
Seien $v,w\in V$. Mit $x=\Phi_B^{-1}(v)$, $y=\Phi_B^{-1}(w)$ und $A=M_B(s)$ ist $s(v,w)=x^tA\overline{y}=s_A(x,y)$.
\end{lemma}
\begin{proof}
@ -52,13 +52,13 @@ Sei $K=\real$ oder $K=\comp$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item injektiv: \propref{2_2_6}
\item injektiv: \propref{6_2_6}
\item surjektiv: Für $A\in\Mat_n(K)$ wird durch $s(v,w)=\Phi_B^{-1}(v)^t\cdot A\cdot \overline{\Phi_B^{-1}(w)}$ eine Sesquilinearform auf $V$ mit $M_B(s)=(s(v_i,w_j))_{i,j}= (e_i^tA\overline{e_j})_{i,j}=(e_iAe_j)_{i,j}=A$ definiert.
\end{itemize}
\end{proof}
\begin{proposition}[Transformationsformel]
\proplbl{2_2_8}
\proplbl{6_2_8}
Seien $B$ und $B'$ Basen von $V$ und $s$ eine Sesquilinearform auf $V$. Dann gilt:
\begin{align}
M_{B'}(s)=(T_B^{B'})^t\cdot M_B(s)\cdot \overline{T_B^{B'}}\notag
@ -67,8 +67,8 @@ Sei $K=\real$ oder $K=\comp$.
\begin{proof}
Seien $v,w\in V$. Definiere $A=M_B(s)$, $A'=M_{B'}(s)$, $T=T_B^{B'}$ und $x,y,x',y'\in K^n$ mit $v=\Phi_B(x)=\Phi_B(x')$, $w=\Phi_B(y)=\Phi_B(y')$. Dann ist $x=Tx'$, $y=Ty'$ und somit
\begin{align}
(x')^tA'\overline{y'}&\overset{\propref{2_2_6}}{=}s(v,w)\notag \\
&\overset{\propref{2_2_6}}{=}x^tA\overline{y}\notag \\
(x')^tA'\overline{y'}&\overset{\propref{6_2_6}}{=}s(v,w)\notag \\
&\overset{\propref{6_2_6}}{=}x^tA\overline{y}\notag \\
&= (Tx')^tA\overline{Ty'} \notag \\
&= (x')^tT^tA\overline{T}\overline{y'}\notag
\end{align}
@ -76,7 +76,7 @@ Sei $K=\real$ oder $K=\comp$.
\end{proof}
\begin{example}
\proplbl{2_2_9}
\proplbl{6_2_9}
Sei $s$ das Standardskalarprodukt auf dem $K^n$ und $B=(b_1,...,b_n)$ eine Basis des $K^n$. Dann ist
\begin{align}
M_B(s)=(T_{\mathcal{E}}^B)^t\cdot M_{\mathcal{E}}(s)\cdot \overline{T_{\mathcal{E}}^B}=B^t\cdot \mathbbm{1}_n\cdot \overline{B}=B^tB\notag
@ -85,7 +85,7 @@ Sei $K=\real$ oder $K=\comp$.
\end{example}
\begin{proposition}
\proplbl{2_2_10}
\proplbl{6_2_10}
Sei $s$ eine Sesquilinearform auf $V$. Dann sind äquivalent:
\begin{itemize}
\item Es gibt $0\neq v\in V$ mit $s(v,w)=0$ für alle $w\in V$.
@ -99,7 +99,7 @@ Sei $K=\real$ oder $K=\comp$.
\end{proof}
\begin{definition}[ausgeartet]
Eine Sesquilinearform $s$ auf $V$ heißt \begriff{ausgeartet}, wenn eine der äquivalenten Bedingungen aus \propref{2_2_10} erfüllt ist, sonst \emph{nicht-ausgeartet}.
Eine Sesquilinearform $s$ auf $V$ heißt \begriff{ausgeartet}, wenn eine der äquivalenten Bedingungen aus \propref{6_2_10} erfüllt ist, sonst \emph{nicht-ausgeartet}.
\end{definition}
\begin{definition}[symmetrisch, hermitesch]
@ -111,8 +111,16 @@ Sei $K=\real$ oder $K=\comp$.
Eine Matrix $A\in\Mat_n(K)$ heißt \emph{symmetrisch} bzw. \emph{hermitesch}, wenn $A=A^*=\overline{A}^t=\overline{A^t}$.
\end{definition}
\begin{mathematica}[symmetrische bzw. hermitesche Matrizen]
Wie für vieles Andere auch, hat Mathematica bzw. WolframAlpha auch dafür eine Funktion:
\begin{align}
\texttt{SymmetricMatrixQ[A]}\notag \\
\texttt{HermitianMatrixQ[A]}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{2_2_13}
\proplbl{6_2_13}
Sei $s$ eine Sesquilinearform auf $V$ und $B$ eine Basis von $V$. Genau dann ist $s$ hermitesch, wenn $M_B(s)$ dies ist.
\end{proposition}
\begin{proof}
@ -124,5 +132,5 @@ Sei $K=\real$ oder $K=\comp$.
Für $A,B\in\Mat_n(K)$ und $S\in\GL_n(K)$ ist $(A+B)^*=A^*+B^*$, $(AB)^*=B^*A^*$, $(A^*)^*=A$ und $(S^{-1})^*=(S^*)^{-1}$.
\end{proposition}
\begin{proof}
\propref{2_1_8}, III.1.14, III.1.15 %TODO: Verlinkung
\propref{6_1_8}, III.1.14, III.1.15 %TODO: Verlinkung
\end{proof}

View file

@ -22,13 +22,13 @@ Sei $K$ ein Körper und $U,V,W$ seien $K$-Vektorräume. Zudem sei $X$ eine Menge
\end{definition}
\begin{example}
\begin{itemize}
\begin{enumerate}
\item Die natürliche Ordnung $\le$ auf $\real$, $\ratio$, $\whole$ und $\natur$ ist eine Z
Totalordnung.
\item Teilbarkeit $\vert$ ist eine Halbordnung auf $\natur$, aber Teilbarkeit ist keine Halbordnung auf $\whole$, da $1\vert -1$ und $-1\vert 1$, aber $1\neq -1$!
\item $\mathcal{P}(X)$ ist die Potenzmenge. "$\subseteq$" ist eine Halbordnung auf $\mathcal{P}$, aber für $\vert X\vert>1$ ist "$\subseteq$" keine Totalordnung.
\item $\mathcal{P}(X)$ ist die Potenzmenge. ``$\subseteq$'' ist eine Halbordnung auf $\mathcal{P}$, aber für $\vert X\vert>1$ ist ``$\subseteq$'' keine Totalordnung.
\item Sei $(X,\le)$ eine Halbordnung, sei $Y\subseteq X$, so ist $(Y,\subseteq\vert_Y)$ eine Halbordnung.
\end{itemize}
\end{enumerate}
\end{example}
\begin{definition}[Kette]
@ -124,7 +124,7 @@ Sei $K$ ein Körper und $U,V,W$ seien $K$-Vektorräume. Zudem sei $X$ eine Menge
\begin{conclusion}[Basisergänzungssatz]
\proplbl{3_1_11}
\proplbl{7_1_11}
Sei $V$ ein $K$-Vektorraum. Jede linear unabhängige Teilmenge $X_0\subseteq V$ ist in einer Basis von $V$ enthalten.
\end{conclusion}
\begin{proof}

View file

@ -2,7 +2,6 @@
\begin{definition}
Für ein Polynom $P(t)=\sum_{i=0}^n c_it^i\in K[t]$ definieren wir $P(f)=\sum_{i=0}^m c_if^i\in\End_K(V)$, wobei $f^0=\id_V$, $f^1=f$, $f^2=f\circ f$, ...
Für ein Polynom $P(t)=\sum_{i=0}^n c_it^i\in K[t]$ definieren wir $P(f)=\sum_{i=0}^m c_if^i\in\End_K(V)$, wobei $f^0=\id_V$, $f^1=f$, $f^2=f\circ f$, ...
Analog definiert man $P(A)$ für $A\in\Mat_n(K)$.
\end{definition}
@ -36,7 +35,7 @@
\end{proposition}
\begin{proof}
Nach \propref{lemma_5_3} gibt es $0\neq P\in K[t]$ mit $P(f)=0$ von minimalem Grad $d$. Indem wir durch den Leitkoeffizienten von $P$ teilen, können wir annehmen, dass $P$ normiert ist. \\
Sei $Q\in\mathcal{I}_f$. Polynomdivision liefert $R,H\in K[t]$ mit $Q=P\cdot H+R$ und $\deg(R)<\deg(P)=d$. Es folgt $R(f)=\underbrace{Q(f)}_{=0}-\underbrace{P(f)}_{=0}\cdot H(f)=0$. Aus der Minimalität von $d$ folgt $R=0$ und somit $P\vert Q$. \\
Sei $Q\in\mathcal{I}_f$. Polynomdivision liefert $R,H\in K[t]$ mit $Q=P\cdot H+R$ und $\deg(R)<\deg(P)=d$. Es folgt $R(f)=\underbrace{Q(f)}_{=0}-\underbrace{P(f)}_{=0}\cdot H(f)=0$. Aus der Minimalität von $d$ folgt $R=0$ und somit $P\mid Q$. \\
Ist $Q$ zudem normiert vom Grad $d$, so ist $H=1$, also $Q=P$, was die Eindeutigkeit zeigt.
\end{proof}
@ -46,6 +45,13 @@
Analog definiert man das Minimalpolynom $P_A\in K[t]$ einer Matrix $A\in\Mat_n(K)$.
\end{definition}
\begin{mathematica}[Minimalpolynom]
Die Funktion für das Minimalpolynom $p$ mit der Variable $t$ in Mathematica bzw. WolframAlpha lautet:
\begin{align}
\texttt{MinimalPolynomial[p,x]}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{enumerate}
\item $A=\mathbbm{1}_n$, $\chi_A(t)=(t-1)^n$, $P_A(t)=t-1$
@ -75,7 +81,7 @@
somit $\chi_{f\vert_W}=t^k+\sum_{i=0}^{k-1}c_it^i$, also $M_B(f\vert_W)=M_{\chi_{f\vert_W}}$.
\end{proof}
\begin{theorem}[Satz von \person{Cayley-Hamiltion}]
\begin{theorem}[Satz von \person{Cayley-Hamilton}]
\proplbl{theorem_5_9}
Für $f\in\End_K(V)$ ist $\chi_f(f)=0$.
\end{theorem}
@ -86,21 +92,21 @@
&= \sum\limits_{i=1}^{k-1} -c_ix_i+\sum\limits_{i=1}^{k-1}c_ix_i\notag \\
&= 0\notag
\end{align}
Aus $\chi_{f\vert_W}\vert \chi_f$ (\propref{beispiel_4_6}) folgt somit $\chi_f(f)(x)=0$, denn ist $\chi_f=Q\cdot \chi_{f\vert_W}$ mit $Q\in K[t]$, so ist $\chi_f(f)=Q(f)\circ\chi_{f\vert_W}(f)$, also $\chi_f(f)(x)=Q(f)(\underbrace{\chi_{f\vert_W}(f)(x)}_{=0})=0$. Da $x\in V$ beliebig war, folgt $\chi_f(f)=0\in\End_K(V)$.
Aus $\chi_{f\vert_W}\mid \chi_f$ (\propref{beispiel_4_6}) folgt somit $\chi_f(f)(x)=0$, denn ist $\chi_f=Q\cdot \chi_{f\vert_W}$ mit $Q\in K[t]$, so ist $\chi_f(f)=Q(f)\circ\chi_{f\vert_W}(f)$, also $\chi_f(f)(x)=Q(f)(\underbrace{\chi_{f\vert_W}(f)(x)}_{=0})=0$. Da $x\in V$ beliebig war, folgt $\chi_f(f)=0\in\End_K(V)$.
\end{proof}
\begin{conclusion}
\proplbl{folgerung_5_10}
Es gilt $P_f\vert \chi_f$. Insbesondere ist $\deg(P_f)\le n$.
Es gilt $P_f\mid \chi_f$. Insbesondere ist $\deg(P_f)\le n$.
\end{conclusion}
\begin{proof}
\propref{theorem_5_9} + \propref{satz_5_4}
\end{proof}
\begin{remark}
Ist $B$ eine Basis von $V$ und $A=M_B(f)$, so ist $P_A=P_f$. Insbesondere ist $P_A=P_B$ für $A\sim B$. Als Spezialfall von \propref{theorem_5_9} erhält man $\chi_A(A)=0$ und $P_A\vert \chi_A$.
Ist $B$ eine Basis von $V$ und $A=M_B(f)$, so ist $P_A=P_f$. Insbesondere ist $P_A=P_B$ für $A\sim B$. Als Spezialfall von \propref{theorem_5_9} erhält man $\chi_A(A)=0$ und $P_A\mid \chi_A$.
\end{remark}
\begin{remark}
Der naheliegende "'Beweis"' $\underbrace{\chi_A}_{\in\Mat_n(K)}=\det(t\mathbbm{1}_n-A)(A) =\det(A\mathbbm{1}_n-A)=\det(0)=\underbrace{0}_{\in K}$ ist falsch!
\end{remark}
\end{remark}

View file

@ -17,7 +17,7 @@ Sei zunächst $K=\real$.
\end{definition}
\begin{proposition}
\proplbl{2_1_2}
\proplbl{6_1_2}
Das Standardskalarprodukt erfüllt die folgenden Eigenschaften:
\begin{itemize}
\item Für $x,x',y,y'\in\real^n$ und $\lambda\in\real$ ist:
@ -47,7 +47,7 @@ Sei zunächst $K=\real$.
\end{definition}
\begin{proposition}[Ungleichung von \person{Cauchy-Schwarz}]
\proplbl{2_1_4}
\proplbl{6_1_4}
Für $x,y\in\real^n$ gilt
\begin{align}
\vert \langle x,y \rangle\vert \le \Vert x\Vert \cdot \Vert y\Vert\notag
@ -68,9 +68,9 @@ Sei zunächst $K=\real$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item \propref{2_1_2}
\item \propref{2_1_2}
\item $\Vert x+y\Vert^2=\langle x+y,x+y \rangle=\langle x,x \rangle+2\langle x,y\rangle+\langle y,y\rangle\le \Vert x\Vert^2+2\Vert x\Vert \Vert y\Vert+\Vert y\Vert^2=(\Vert x\Vert +\Vert y\Vert)^2\overset{\propref{2_1_4}}{\Rightarrow}\Vert x+y\Vert \le \Vert x\Vert +\Vert y\Vert$
\item \propref{6_1_2}
\item \propref{6_1_2}
\item $\Vert x+y\Vert^2=\langle x+y,x+y \rangle=\langle x,x \rangle+2\langle x,y\rangle+\langle y,y\rangle\le \Vert x\Vert^2+2\Vert x\Vert \Vert y\Vert+\Vert y\Vert^2=(\Vert x\Vert +\Vert y\Vert)^2\overset{\propref{6_1_4}}{\Rightarrow}\Vert x+y\Vert \le \Vert x\Vert +\Vert y\Vert$
\end{itemize}
\end{proof}
@ -88,7 +88,7 @@ Sei nun $K=\comp$.
\end{definition}
\begin{proposition}
\proplbl{2_1_7}
\proplbl{6_1_7}
Komplexe Konjugation ist ein Ringautomorphismus von $\comp$ mit Fixkörper
\begin{align}
\{z\in\comp\mid z=\overline{z}\}&=\real\notag
@ -99,11 +99,11 @@ Sei nun $K=\comp$.
\end{proof}
\begin{conclusion}
\proplbl{2_1_8}
\proplbl{6_1_8}
Für $A,B\in\Mat_n(\comp)$ und $S\in\GL_n(\comp)$ ist $\overline{A+B}=\overline{A}+\overline{B}, \overline{AB}=\overline{A}\cdot \overline{B},\overline{A^t}=\overline{A}^t, \overline{S^{-1}}=\overline{S}^{-1}$
\end{conclusion}
\begin{proof}
\propref{2_1_7}, einfache Übung
\propref{6_1_7}, einfache Übung
\end{proof}
\begin{definition}[Standardskalarprodukt in $\comp$]
@ -143,6 +143,6 @@ Sei nun $K=\comp$.
\end{definition}
\begin{remark}
\proplbl{2_1_12}
\proplbl{6_1_12}
Schränkt man das komplexe Skalarprodukt auf den $\real^n$ ein, so erhält man das Standardskalarprodukt auf dem $\real^n$. Wir werden ab jetzt die beiden Fälle $K=\real$ und $K=\comp$ parallel behandeln. Wenn nicht anders angegeben, werden wir die Begriffe für den komplexen Fall benutzen, aber auch den reellen Fall einschließen.
\end{remark}

View file

@ -16,6 +16,13 @@
Das charakteristische Polynom eines Endomorphismus $f\in\End_K(V)$ ist $\chi_f(t)=\chi_{M_B(f)}(t)$, wobei $B$ eine Basis von $V$ ist.
\end{definition}
\begin{mathematica}[charakteristisches Polynom]
Die folgende Funktion liefert das charakteristische Polynom einer Matrix $A$ mit der Variable $x$
\begin{align}
\texttt{CharacteristicPolynomial[A,x]}\notag
\end{align}
\end{mathematica}
\begin{proposition}
\proplbl{satz_2_3}
Sind $A,B\in\Mat_n(K)$ mit $A\sim B$, so ist $\chi_A=\chi_B$. Insbesondere ist $\chi_f$ wohldefiniert.

View file

@ -37,7 +37,7 @@ Sei $V$ ein $K$-Vektorraum.
\end{definition}
\begin{conclusion}
\proplbl{3_2_6}
\proplbl{7_2_6}
Zu jeder Basis $B$ von $V$ gibt es einen eindeutig bestimmtem Monomorphismus
\begin{align}
f_V\to V^*\text{ mit } f(B)=B^*\notag
@ -46,11 +46,11 @@ Sei $V$ ein $K$-Vektorraum.
\end{conclusion}
\begin{conclusion}
\proplbl{3_2_7}
\proplbl{7_2_7}
Zu jedem $=0\neq x\in V$ gibt es eine Linearform $\phi\in V$ mit $\phi(x)=1$.
\end{conclusion}
\begin{proof}
Ergänze $x_1=x$ zu einer Basis $(x_i)_{i\in I}$ von $V$ (\propref{3_1_11}) und $\phi=x_1^*$.
Ergänze $x_1=x$ zu einer Basis $(x_i)_{i\in I}$ von $V$ (\propref{7_1_11}) und $\phi=x_1^*$.
\end{proof}
\begin{example}
@ -88,8 +88,8 @@ Sei $V$ ein $K$-Vektorraum.
\item $\iota_{x+y}(\phi)=\phi(x+y)=\phi(x)+\phi(y)=\iota_x(\phi)+\iota_y(\phi)= (\iota_x+\iota_y)(\phi)$
\item $\iota_{\lambda x}(\phi)=\phi(\lambda x)=\lambda\iota_x(\iota)=(\lambda\iota_x)(\phi)$
\end{itemize}
\item $\iota$ injektiv: Sei $0\neq x\in V$. Nach \propref{3_2_7} existiert $\phi\in V^*$ mit $\iota_x(\phi)=\phi(x)=1\neq 0$. Somit ist $\iota_x\neq 0$.
\item Ist $\dim_K(V)<\infty$, so ist $V\overset{\propref{3_2_6}}{\cong} V^* \overset{\propref{3_2_6}}{\cong} V^{**}$, insbesondere $\dim_K(V)=\dim_K(V^{**})$. Der Monomorphismus $\iota$ ist somit ein Isomorphismus.
\item $\iota$ injektiv: Sei $0\neq x\in V$. Nach \propref{7_2_7} existiert $\phi\in V^*$ mit $\iota_x(\phi)=\phi(x)=1\neq 0$. Somit ist $\iota_x\neq 0$.
\item Ist $\dim_K(V)<\infty$, so ist $V\overset{\propref{7_2_6}}{\cong} V^* \overset{\propref{7_2_6}}{\cong} V^{**}$, insbesondere $\dim_K(V)=\dim_K(V^{**})$. Der Monomorphismus $\iota$ ist somit ein Isomorphismus.
\end{itemize}
\end{proof}
@ -115,7 +115,7 @@ Sei $V$ ein $K$-Vektorraum.
\end{proof}
\begin{proposition}
\proplbl{3_2_14}
\proplbl{7_2_14}
Ist $\dim_K(V)<\infty$ und $U\subseteq V$ ein Untervektorraum, so ist
\begin{align}
\dim_K(V)=\dim_K(U)+\dim_K(U^0)\notag
@ -131,7 +131,7 @@ Sei $V$ ein $K$-Vektorraum.
\end{proof}
\begin{conclusion}
\proplbl{3_2_15}
\proplbl{7_2_15}
Ist $\dim_K(V)<\infty$ und $U\subset V$ ein Untervektorraum, so ist
\begin{align}
\iota(U)=U^{00}\notag
@ -139,11 +139,11 @@ Sei $V$ ein $K$-Vektorraum.
\end{conclusion}
\begin{proof}
Es ist klar, dass $\iota(U)\le U^{00}$. \\
Für $\phi\in U^0$ und $x\in U$ ist $\iota_x(\phi) = \phi(x) =0$. Mit \propref{3_2_14} ist
Für $\phi\in U^0$ und $x\in U$ ist $\iota_x(\phi) = \phi(x) =0$. Mit \propref{7_2_14} ist
\begin{align}
\dim_K(U^{00}) &= \dim_K(V^*)-\dim_K(U^0) \notag \\
&=\dim_K(V^*) - (\dim_K(V)-\dim_K(U)) \notag \\
&\overset{\propref{3_2_6}}{=} \dim_K(U) \notag
&\overset{\propref{7_2_6}}{=} \dim_K(U) \notag
\end{align}
und da $\iota$ injektiv ist, folgt $\iota(U)=U^{00}$.
\end{proof}

View file

@ -0,0 +1,258 @@
\section{Der Elementarteilersatz}
Sei $R$ Hauptidealring.
\begin{definition}
Seien $a,b,x,y\in R$. Für $i,j\in\{1,...,n\}$ ist
\begin{align}
E_{ij} = (\delta_{\sigma,i},...,\delta_{\mu,j})_{\sigma,\mu}\in\Mat_n(\real)\notag
\end{align}
Sei
\begin{align}
E_{ij}(a,b,x,y) = \mathbbm{1}_n-E_{ii}-E_{jj}+aE_{ii}+bE_{ij}+xE_{jj}+yE_{ji}\notag
\end{align}
%TODO: Matrix ergänzen von Pascal
\end{definition}
\begin{lemma}
Ist $ax-by\in R^\times$, so ist
\begin{align}
E_{ij}(a,b,x,y)\in \GL_n(\real)\notag
\end{align}
\end{lemma}
\begin{proof}
Folgt aus LAAG1 IV.3.4, da
%TODO: Verlinkung
\begin{align}
\det(E_{ij}(a,b,x,y))=ax-by\in R^\times\notag
\end{align}
Oder direkt: Das Inverse ist $E_{ij}(xc^{-1},bc^{-1}, ac^{-1},-yc^{-1})$, zum Beispiel
\begin{align}
\begin{pmatrix} a & b \\ y & x\end{pmatrix}\begin{pmatrix}xc^{-1} & -bc^{-1} \\ -yc^{-1} & ac^{-1}\end{pmatrix}=\begin{pmatrix}(ax-by)c^{-1} & 0 \\ 0 & (ax-by)c^{-1}\end{pmatrix}\notag
\end{align}
\end{proof}
\begin{remark}
Multiplikation von $E_{ij}(a,b,x,y)$ von links an $A$ führt eine Zeilenumformung durch: Sind $a_1,...,a_n$ die Zeilen von $A$, so wird $a_i$ durch $aa_i+ba_j$ ersetzt, und gleichzeitig $a_j$ durch $ya_i+xa_j$ ersetzt. Ist $ax-by=1$, so sind diese Zeilenumformungen invertierbar.
\emph{Spezialfälle}: elementare Zeilenumformungen von Typ II und III aus Kapitel III (LAAG 1). Warnung: Im Gegensatz dazu sind über einem Ring $R$ die elementaren Zeilenumformungen vom Typ I (Multiplikation mit einem Skalar) nicht immer invertierbar!
Multiplikation mit $E_{ij}(a,b,x,y)$ von rechts führt entsprechende Spaltenumformungen durch.
\end{remark}
\begin{theorem}[Elementarteilersatz für Matrizen, \person{Smith}-Normalform]
\proplbl{8_6_4}
Sei $A\in\Mat_{m\times n}(\real)$. Es gibt $0\le r \le\min\{n,m\}$, $S\in\GL_m(R)$, $T\in\GL_n(R)$
mit
\begin{align}
SAT &= \begin{pmatrix}d_1 & & & \\ & \ddots & & \\ & & d_r & \\ & & & \mathbb{0}\end{pmatrix} \notag \\
\mathbb{0} &\in\Mat_{m-r\times n-r}\notag
\end{align}
wobei $d_i\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für $i=1,...,n-1$
\end{theorem}
\begin{proof}
Induktion nach $\min\{m,n\}$. Für $a\in R$ sei $\delta(a)\in\natur_0\cup\{\infty\}$ die Anzahl der Primelemente in der Primfaktorzerlegung von $a$, mit $\delta(0):=\infty$, und $\delta(A):=\min_{ij}\{\delta(a_{ij})\}$. Wir können annehmen, dass $\delta(A)\le \delta(SAT)$ für alle $S\in \GL_m(R)$ und $T\in \GL_n(R)$. Durch Zeilen- und Spaltenvertauschungen erreichen wir, dass $\delta(a_{11})=\delta(A)$.
\begin{itemize}
\item \emph{1. Behauptung:} $a_{11}\mid a_{i1}$ für alle $i$. Gäbe es ein $i\ge 1$ für dass $a_{11}\nmid a_{i1}$, so sei $c=\ggT(a_{11},a_{i1})=xa_{11}+ya_{i1}$ mit $\ggT(x,y)=1$, also $ax-by=1$ mit $a,b\in R$. Multiplikation mit $E_{1i}(x,y,a,b)$ von links erzeugt an der Position $(1,1)$ das Element $c$, und $\delta(c)<\delta(a_{11})=\delta(A)$, im Widerspruch zur Minimalität von $\delta(A)$. \\
Analog zeigt man, dass $a_{11}\mid a_{1j}$ für alle $j$. Durch Zeilen- und Spaltenumformungen können wir deshalb nun $a_{i1}=0$ für alle $i>1$ und $a_{1j}$ für alle $j>1$ erreichen.
\item\emph{2. Behauptung:} $a_{11}\mid a_{ij}$ für alle $i,j$. Gäbe es $i>1$ und $j>1$ mit $a_{11}\nmid a_{ij}:=b$, so können wir die $j$-te Spalte zur ersten Spalte addieren, was $a_{11}$ nicht ändert und $a_{1i}=b$ bewirkt. Wider können wir Behauptung 1 anwenden und erhalten den Widerspruch, dass $a_{11}\mid b$. Damit ist nach diesem Umformungen
\begin{align}
A=\begin{pmatrix}a_{11} & \\ & a_{11}\cdot A'\end{pmatrix}\notag
\end{align}
mit $A'\in\Mat_{(m-1)\times (n-1)}(R)$. Wir wenden nun die Induktionshypothese auf $A'$ an und sind fertig.
\end{itemize}
\end{proof}
\begin{mathematica}[\person{Smith}-Normalform]
Elementarteiler einer Matrix $A$ lassen sich mit Mathematica mit der Funktion
\begin{align}
\texttt{SmithDecomposition[A]}\notag
\end{align}
die als einziges Argument eine Matrix braucht. Allerdings ist der Output unformatiert, mit folgenden Befehl sieht das deutlich besser aus:
\begin{align}
\text{\texttt{MatrixForm/@ (\{u,r,v\} = SmithDecomposition[A])}}\notag
\end{align}
Der Output sind 3 Matrizen, wobei \texttt{u} für $S$, \texttt{v} für $T$ und \texttt{r} für das Ergebnis von $SAT$ steht.
\end{mathematica}
\begin{remark}
Man kann zeigen, dass die $d_1,...,d_r$ bis auf Assoziiertheit eindeutig bestimmt sind. Man nennt sie deshalb \begriff{Elementarteiler} der Matrix $A$.
\end{remark}
\begin{example}
Sei $R=\whole$. Die Elementarteiler von
\begin{align}
A=\begin{pmatrix}2&0&0 \\ 0&4&0 \\0&0&6\end{pmatrix}\notag
\end{align}
sind
\begin{align}
\begin{pmatrix}4&0\\0&6\end{pmatrix}\to\begin{pmatrix}4&0\\4&6\end{pmatrix}\notag
\to\begin{pmatrix}4&0\\-2&6\end{pmatrix} \to\begin{pmatrix}2&-6\\4&0\end{pmatrix} \notag
\to\begin{pmatrix}2&0\\4&12\end{pmatrix} \to\begin{pmatrix}2&0\\0&12\end{pmatrix}\notag
\end{align}
2, 2 und 12.
\end{example}
\begin{*anmerkung}[Teil 1]
Um die Elementarteiler der Matrix $A_0$ zu ermitteln, muss man geschickt mit Matrizen $S$ und $T$ multiplizieren. Dazu starten wir links oben bei Element $a_{11}\neq 0$ und versuchen nun, auf der ersten Spalte und auf der ersten Zeile nur Nullen zu produzieren, aber $a_{11}\neq 0$ zu erhalten.
Dazu fangen wir mit der ersten Spalte an. Ziel ist es, das letzte Element dieser Spalte durch geschickte Addition der vorletzten Spalte zu 0 werden zu lassen. Wir schauen uns die letzten 2 Elemente, nennen wir sie $x$ und $y$, dieser ersten Spalte an und bestimmen $\ggT(x,y)$. Weiterhin suchen wir $u$ und $v$, sodass folgende Gleichung erfüllt ist:
\begin{align}
\ggT(x,y)=u\cdot x + v\cdot y\notag
\end{align}
Da wir eine Zeilenoperation durchführen wollen, brauchen wir eine Matrix $S_0$, die wir von links an $A$ ranmultiplizieren. Dabei müssen wir auf die richtige Dimension von $S_0$ aufpassen. Dazu setzen wir $S_0$ auf $\mathbbm{1}_m$ und fügen an der richtigen Stelle die Matrix $S'_0$ ein:
\begin{align}
S'_0=\begin{pmatrix}u & v \\ -\frac{y}{\ggT(x,y)} & \frac{x}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Jetzt bestimmen wir $A_1:=A_0\cdot S_0$. Jetzt haben wir das letzte Element der ersten Spalte zu 0 verwandelt. Wir arbeiten uns jetzt in der ersten Spalte nach oben, versuchen also das vorletzte Element zu 0 zu verwandeln, aber mithilfe der vorvorletzten Zeile. Auch dazu bestimmen wir wieder Matrizen $S_1,S_2,...$ bis die erste Spalte 0 ist, mit Ausnahme von $a_{11}$.
\end{*anmerkung}
\begin{*anmerkung}[Teil 2]
Jetzt wenden wir uns der ersten Zeile zu: Auch hier versuchen wir das letzte Element zu 0 zu verwandeln, aber eben mit Benutzung der vorletzten Spalte. Die Vorgehensweise ist nahezu identisch, wir bestimmen auch wieder $\ggT(x,y)$ und lösen
\begin{align}
\ggT(x,y)=u\cdot x + v\cdot y\notag
\end{align}
Damit bauen wir uns wieder $T'_0$, die wir an der passenden Stelle in $T_0=\mathbbm{1}_n$ einsetzen
\begin{align}
T'_0=\begin{pmatrix}u & -\frac{y}{\ggT(x,y)} \\ v & \frac{x}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Die Matrix $T_0$ multiplizieren wir aber diesmal von rechts an $A_n$. So arbeiten wir uns wieder von hinten nach vorne. Es kann passieren, dass wir uns damit leider wieder in der ersten Spalte ein paar Nullen kaputt machen, aber dann bauen wir wieder eine $S_n$-Matrix mit der wieder Nullen erscheinen. Falls das wieder die Spalten kaputt macht, dann multiplizieren wir wieder mit einer $T_n$-Matrix. Das \propref{8_6_4} garantiert uns, dass wir irgendwann fertig werden.
\end{*anmerkung}
\begin{*anmerkung}[Teil 3]
Haben wir nun die erste Zeile und die erste Spalte zu 0 verwandelt, außer $a_{11}$ natürlich, kümmern wir uns um die Untermatrix in Richtung rechts unten. Hier geht der Algorithmus von vorne los; das Schöne ist, dass er uns die erste Zeile/Spalte nicht mehr kaputt machen kann. Irgendwann sind wir rechts unten angekommen und haben nur noch Elemente auf der Hauptdiagonalen stehen. Diese sollten, wie in \propref{8_6_4} behauptet eine solche Teilerkette bilden. Tun sie das nicht, kann man wieder mit Matrizen $S_n$ und $T_n$ nachhelfen.
\begin{align}
S'_n=\begin{pmatrix}u & v \\ -\frac{y}{\ggT(x,y)} & \frac{x}{\ggT(x,y)}\end{pmatrix}\quad
T'_n=\begin{pmatrix}1 & -\frac{vy}{\ggT(x,y)} \\ 1 & \frac{ux}{\ggT(x,y)}\end{pmatrix} \notag \\
\text{unter Vorbehalt! }S'_n=\begin{pmatrix}1 & 1 \\ -\frac{vy}{\ggT(x,y)} & \frac{ux}{\ggT(x,y)}\end{pmatrix}\notag
\end{align}
Und dann sind wir endlich fertig! Die Transformationsmatrizen $S$ und $T$ sind dann einfach
\begin{align}
S = S_1\cdot S_2\cdot ... \notag \\
T = T_1\cdot T_2\cdot ... \notag
\end{align}
Weitere Informationen und Beispiele findet man auf \url{http://www.igt.uni-stuttgart.de/eiserm/lehre/2010/Algebra/Matrizenringe.pdf}, ab Abschnitt §7D
\end{*anmerkung}
\begin{lemma}
\proplbl{8_6_7}
Ist $M$ ein endlich erzeugter freier $R$-Modul und $N\subseteq M$ ein Untermodul, so ist auch $N$ endlich erzeugt.
\end{lemma}
\begin{proof}
Sei $(x_1,...,x_m)$ eine Basis von $M$. Induktion nach $m$. \\
\emph{$m=1$:} Durch $1\mapsto x_1$ wird nach \propref{8_1_11} eine $R$-lineare Abbildung $f:R\to M$ gegeben, die ein Isomorphismus ist. Der Untermodul $N\subseteq M$ entspricht einem Ideal $I:=f^{-1}(N)$ von $R$. Da $R$ ein Hauptidealring ist, ist $I=(a)$ für ein $a\in R$, somit $N=f(I)=R\cdot f(a)$. Insbesondere ist $N$ endlich erzeugt, sogar von einem Element. \\
\emph{$m-1\to m$:} Definiere $M'=\sum_{i=1}^{m-1}Rx_i$, $M''=Rx_m$, $N'=N\cap M'$. Sei unter $\pi: M\to M''$ die $R$-lineare Abbildung gegeben nach \propref{8_1_11} durch $\pi(x_i)=\delta_{i,m}x_m$. Nach Induktionshypothese ist $N'$ endlich erzeugt, etwa $N'=\sum_{j=1}^n Ry_j$. Aus dem Fall $m=1$ sehen wir zudem, dass $N''=\pi(N)=R\pi(y)$ für ein $y\in N$. Sei $\tilde{N}=Ry+\sum_{j=1}^n Ry_j\subseteq N$. Da $\Ker(\pi\vert_N)=M''\cap N=N'\subseteq\tilde{N}$ und $\pi\vert_N(\tilde{N})\supseteq R\pi(y)=N''=\pi\vert_N(N)$ ist $\tilde{N}=N$ nach \propref{8_5_5} und \propref{8_5_4}. Somit ist $N$ endlich erzeugt.
\end{proof}
\begin{proposition}[Elementarteilersatz für Moduln]
\proplbl{8_6_8}
Sei $R$ ein Hauptidealring, $M\cong R^m$ ein endlich erzeugter freier $R$-Modul, $N\subseteq M$ ein Untermodul. Dann existiert $r\in\natur$, eine Basis $B'=(x'_1,...,x'_m)$ von $M$ und $d_1,...,d_r\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für $i=1,...,r-1$ für die $(d_1x'_1,...,d_rx'_r)$ eine Basis von $N$ ist.
\end{proposition}
\begin{proof}
Sei $B=(x_1,...,x_m)$ eine Basis von $M$. Nach \propref{8_6_7} ist $N$ endlich erzeugt, also
\begin{align}
N=\sum_{j=1}^n Ry_j\quad\text{ mit }\quad y_j=\sum_{i=1}^m a_{ij}x_i\quad a_{ij}\in R\notag
\end{align}
Wir betrachten die lineare Abbildung $f:R^n\to M$ gegeben durch $f(e_j)=y_j$. Dann ist $\Image(f)=N$ und
\begin{align}
M_B^{\mathcal{E}}(f)=A=(a_{ij})\in\Mat_{m\times n}(R)\notag
\end{align}
Nach \propref{8_6_4} existieren $S\in\GL_m(R)$, $T\in\GL_n(R)$ mit
\begin{align}
SAT=D=\diag(d_1,...,d_r,\mathbb{0})\notag
\end{align}
Es gibt somit Basen $\mathcal{E}'=(e'_1,...,e'_n)$ von $R^n$, $B'=(x'_1,...,x'_m)$ von $M$ mit $M_{B'}^{\mathcal{E}'}(f)=D$. Somit ist $N=\Image(f)=\sum_{i=1}^n R\cdot f(e'_i)=\sum_{j=1}^r Rd_jx'_j$. Da $(x'_1,...,x'_r)$ frei und $R$ nullteilerfrei ist, ist auch $(d_1x'_1,...,d_rx'_r)$ frei, also eine Basis von $N$.
\end{proof}
\begin{*example}
Sei $R=\whole$, $M=\whole^2$, \textcolor{blue}{$N$ }$=\whole\begin{henrysmatrix}2\\0\end{henrysmatrix}+\whole\begin{henrysmatrix}1\\2\end{henrysmatrix}$
\begin{align}
&\begin{pmatrix}2&1\\0&2\end{pmatrix}\to\begin{pmatrix}1&2\\2&0\end{pmatrix}\to\begin{pmatrix}1&0\\2&-4\end{pmatrix}\to\begin{pmatrix}1&0\\0&4\end{pmatrix}\notag \\
&\Rightarrow B = \left(\begin{henrysmatrix}1\\0\end{henrysmatrix},\begin{henrysmatrix}0\\4\end{henrysmatrix} \right)\Rightarrow \textcolor{red}{B'=\left(\begin{henrysmatrix}1\\2\end{henrysmatrix}, \begin{henrysmatrix}1\\1\end{henrysmatrix} \right)}\notag \\
&\Rightarrow \textcolor{cyan}{C=\left(1\cdot\begin{henrysmatrix}1\\2\end{henrysmatrix},4\cdot \begin{henrysmatrix}1\\1\end{henrysmatrix} \right)}\text{ ist Basis von }\textcolor{blue}{N}\notag
\end{align}
\begin{center}
\begin{tikzpicture}
\draw[help lines, line width=.2pt, step=1] (0,0) grid (6,5);
\draw[->] (-1,0) -- (7,0);
\draw[->] (0,-1) -- (0,6);
\draw[fill=blue] (0,0) circle (0.1);
\draw[fill=blue] (2,0) circle (0.1);
\draw[fill=blue] (4,0) circle (0.1);
\draw[fill=blue] (6,0) circle (0.1);
\draw[fill=blue] (0,4) circle (0.1);
\draw[fill=blue] (2,4) circle (0.1);
\draw[fill=blue] (4,4) circle (0.1);
\draw[fill=blue] (6,4) circle (0.1);
\draw[fill=blue] (1,2) circle (0.1);
\draw[fill=blue] (3,2) circle (0.1);
\draw[fill=blue] (5,2) circle (0.1);
\draw[->, cyan, line width=2pt] (0,0) -- (1,2);
\draw[->, cyan, line width=2pt] (0,0) -- (4,4);
\draw[->, red, thick] (0,0) -- (1,2);
\draw[->, red, thick] (0,0) -- (1,1);
\end{tikzpicture}
\end{center}
\end{*example}
\begin{remark}
Wieder kann man zeigen, dass $d_1,...,d_r$ bis auf Einheiten eindeutig bestimmt sind.
\end{remark}
\begin{conclusion}
\proplbl{8_6_10}
Ist $R$ ein Hauptidealring, so ist ein Untermodul eines endlich erzeugten freien $R$-Moduls wieder frei.
\end{conclusion}
\begin{remark}
\propref{8_6_10} wird \emph{falsch} ohne "'$R$ Hauptidealring"'. So ist zum Beispiel $N=(x,y)\unlhd\ratio[x,y]=(\ratio[x])[y]=R=M$ kein Hauptideal und somit ein nicht freier Untermodul des freien $R$-Moduls $R$: Je zwei Elemente von $R$ sind linear abhängig, für $a,b\in R$ ist
\begin{align}
b\cdot a+(-a)\cdot b=0\notag
\end{align}
Deshalb kann $N$ keine Basis mit mehr als einem Element besitzen.
Die Voraussetzung "'endlich erzeugt"' ist hingegen nicht notwendig, aber der Beweis wird dadurch einfacher.
\end{remark}
\begin{conclusion}
Ist $R$ ein Hauptidealring, so ist ein Untermodul eines endlich erzeugten $R$-Moduls $M$ wieder endlich erzeugt.
\end{conclusion}
\begin{proof}
Ist $M=\sum_{j=1}^m Ry_j$, so betrachte die $R$-lineare Abbildung $f:R^m\to M$ gegeben durch $f(e_j)=y_j$ für $j=1,...,m$. Nach \propref{8_6_7} ist $f^{-1}(N)\subseteq R^m$ endlich erzeugt, etwa $f^{-1}(N)=\sum_{i=1}^n Rx_i$. Somit ist $N=f(f^{-1}(N))=\sum_{i=1}^n R\cdot f(x_i)$ endlich erzeugt.
\end{proof}
\begin{theorem}[Hauptsatz über endlich erzeugte Moduln über Hauptidealringen]
\proplbl{8_6_13}
Sei $R$ ein Hauptidealring und $M$ ein endlich erzeugter $R$-Modul. Dann ist
\begin{align}
M = F\oplus M_{tor}\notag
\end{align}
wobei $F\cong R^r$ ein endlich erzeugter freier $R$-Modul ist und
\begin{align}
M_{tor} \cong \bigoplus_{i=1}^n \qraum{R}{Rd_i}\notag
\end{align}
mit Nichteinheiten $d_1,...,d_n\in R\backslash\{0\}$, die $d_i\mid d_{i+1}$ für $i=1,...,n-1$ erfüllen.
\end{theorem}
\begin{proof}
Sei $M=\sum_{j=1}^m Ry_j$. Betrachte die lineare Abbildung $f:R^m\to M$ gegeben durch $f(e_j)=y_j$ und dem Untermodul $N=\Ker(f)\subseteq R^m$. Nach \propref{8_6_8} existiert eine Basis $(x_1,...,x_s)$ von $R^m$, $n\le s$ und $d_1,...,d_n\in R\backslash\{0\}$ mit $d_i\mid d_{i+1}$ für die $(d_1x_1,...,d_nx_n)$ eine Basis von $N$ ist. Nach dem Homomorphiesatz ist
\begin{align}
M=\Image(f)&\cong\qraum{R^m}{N}=\qraum{\bigoplus_{i=1}^s Rx_i}{\bigoplus_{i=1}^n Rd_ix_i} \notag \\
&\cong \qraum{R^s}{\bigoplus_{i=1}^n Rd_ie_i}\notag \\
&\cong \bigoplus_{i=1}^n \qraum{R}{Rd_i}\oplus \underbrace{R^{s-n}}_{F}\notag
\end{align}
Ist $d_i\in R^\times$, so ist $\qraum{R}{Rd_i}=0$, wir können diese $i$ daher weglassen. Dabei ist $\bigoplus_{i=1}^n \qraum{R}{Rd_i}$ genau der Torsionsmodul $M_{tor}$:
\begin{itemize}
\item "'$\subseteq$"': Mit $d:=d_1\cdot ... \cdot d_n\in R\backslash\{0\}$ ist $d\cdot (x_i)_{1,...,n}=(dx_i)_{1,...,n}=(0,...,0)$ (Vielfache von $Rd_i$ machen das Element zu 0)
\item "'$\supseteq$"': Ist $d\in R\backslash\{0\}$, $x\in\bigoplus_{i=1}^n\qraum{R}{Rd_i}$, $y\in R^{s-n}$ mit $d\cdot (x,y)=0$, so ist $d\cdot y=0$ und deshalb $y=0$.
\end{itemize}
\end{proof}
\begin{remark}
Auch hier sind $d_1,...,d_n$ (bis auf Einheiten) sowie $r$ eindeutig bestimmt. Man nennt $r$ den \begriff[Modul!]{(freien) Rang} von $M$.
\end{remark}
\begin{example}
Eine endlich erzeugte abelsche Gruppe $A$ ist von der Form
\begin{align}
A\cong \whole^r\oplus\bigoplus_{i=1}^k \qraum{\whole}{d_i\whole}\notag
\end{align}
mit (eindeutig bestimmten) $d_1,...,d_k\in\natur$, $d_1\mid d_2\mid ...\mid d_k$.
\end{example}

View file

@ -14,6 +14,13 @@ Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\end{align}
\end{definition}
\begin{mathematica}[normale Matrix]
Ob eine Matrix $A$ normal ist, beantwortet folgende Funktion für Mathematica bzw. WolframAlpha:
\begin{align}
\texttt{NormalMatrixQ[A]}\notag
\end{align}
\end{mathematica}
\begin{example}
\begin{itemize}
\item Ist $f$ selbstadjungiert, so ist $f^{adj}=f$, insbesondere ist $f$ normal.
@ -22,7 +29,7 @@ Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\end{example}
\begin{lemma}
\proplbl{3_5_3}
\proplbl{7_5_3}
Genau dann ist $f\in\End_K(V)$ normal, wenn
\begin{align}
\skalar{f(x)}{f(y)}=\skalar{f^{adj}(x)}{f^{adj}(y)}\quad\forall x,y\in V\notag
@ -46,14 +53,14 @@ Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\end{proof}
\begin{lemma}
\proplbl{3_5_4}
\proplbl{7_5_4}
Ist $f$ normal, ist ist
\begin{align}
\Ker(f)=\Ker(f^{adj})\notag
\end{align}
\end{lemma}
\begin{proof}
Nach \propref{3_5_3} ist
Nach \propref{7_5_3} ist
\begin{align}
\Vert f(x)\Vert = \Vert f^{adj}(x)\Vert \quad\forall x\in V\notag
\end{align}
@ -64,32 +71,32 @@ Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\end{proof}
\begin{lemma}
\propref{3_5_5}
\proplbl{7_5_5}
Ist $f$ normal, so ist
\begin{align}
\Eig(f,\lambda)=\Eig(f^{adj},\overline{\lambda})\quad\forall\lambda\in K\notag
\end{align}
\end{lemma}
\begin{proof}
Da $(\lambda\cdot \id-f)^{adj}\overset{\propref{3_4_8}}{=}\overline{\lambda}\cdot\id-f^{adj}$ ist auch $\lambda\cdot\id-f$ normal. Somit ist
Da $(\lambda\cdot \id-f)^{adj}\overset{\propref{7_4_8}}{=}\overline{\lambda}\cdot\id-f^{adj}$ ist auch $\lambda\cdot\id-f$ normal. Somit ist
\begin{align}
\Eig(f,\lambda) &= \Ker(\lambda\id-f)\notag \\
&\overset{\propref{3_5_4}}{=} \Ker((\lambda\id-f)^{adj})\notag \\
&\overset{\propref{7_5_4}}{=} \Ker((\lambda\id-f)^{adj})\notag \\
&= \Ker(\overline{\lambda}\id-f^{adj})\notag \\
&= \Eig(f^{adj},\overline{\lambda})\notag
\end{align}
\end{proof}
\begin{theorem}[Spektralsatz]
\proplbl{3_5_6}
\proplbl{7_5_6}
Sei $f\in\End_K(V)$ ein Endomorphismus, für den $\chi_f$ in Linearfaktoren zerfällt. Genau dann besitzt $V$ eine Orthonormalbasis aus Eigenvektoren von $f$, wenn $f$ normal ist.
\end{theorem}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Ist $B$ eine Orthonormalbasis aus Eigenvektoren von $f$, so ist $A=M_B(f)$ eine Diagonalmatrix. Dann ist auch $M_B(f^{adj})\overset{\propref{3_4_7}}{=}A^*$ eine Diagonalmatrix und $AA^*=A ^*A$. Somit ist $f$ normal.
\item Hinrichtung: Ist $B$ eine Orthonormalbasis aus Eigenvektoren von $f$, so ist $A=M_B(f)$ eine Diagonalmatrix. Dann ist auch $M_B(f^{adj})\overset{\propref{7_4_7}}{=}A^*$ eine Diagonalmatrix und $AA^*=A ^*A$. Somit ist $f$ normal.
\item Rückrichtung: Sei $f$ normal und $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$. Beweis nach Induktion nach $n=\dim_K(V)$. \\
\emph{$n=0$}: klar \\
\emph{$n-1\to n$}: Wähle Eigenvektor zum Eigenwert $\lambda_1$, o.E. $\Vert x_1\Vert = 1$. Sei $U=K\cdot x_1$. Nach \propref{3_5_5} ist $f^{adj}(x_1)=\overline{\lambda_1}x_1$, insbesondere ist $U$ $f$-invariant und $f^{adj}$-invariant. Für $x\in U^\perp$ ist
\emph{$n-1\to n$}: Wähle Eigenvektor zum Eigenwert $\lambda_1$, o.E. $\Vert x_1\Vert = 1$. Sei $U=K\cdot x_1$. Nach \propref{7_5_5} ist $f^{adj}(x_1)=\overline{\lambda_1}x_1$, insbesondere ist $U$ $f$-invariant und $f^{adj}$-invariant. Für $x\in U^\perp$ ist
\begin{align}
\skalar{f(x)}{x_1}= \skalar{x}{f^{adj}(x_1)}=\skalar{x}{\overline{\lambda_1}x_1}=\lambda_1\skalar{x}{x_1}=0\notag
\end{align}
@ -110,5 +117,5 @@ Sei $V$ ein endlichdimensionaler unitärer $K$-Vektorraum und $f\in\End_K(V)$.
\end{conclusion}
\begin{remark}
\propref{3_5_6} ist eine gemeinsame Verallgemeinerung von \propref{2_5_9} und \propref{2_6_5}
\propref{7_5_6} ist eine gemeinsame Verallgemeinerung von \propref{6_5_9} und \propref{6_6_5}
\end{remark}

View file

@ -23,7 +23,7 @@
Ist $\lambda$ ein EW von $f$, so ist $\dim_K(\Eig(f,\lambda))\ge 1$. Sind also $\lambda_1,...,\lambda_n$ paarweise verschiedene EW von $f$, so ist
\begin{align}
n=\dim_K(V)&\ge \dim_K\left( \sum\limits_{i=1}^m \Eig(f,\lambda_i)\right) \notag \\
&\overset{\text{\propref{satz_eig_direkte_summe}}}{=} \dim_K\left( \bigoplus_{i=0}^{m} \Eig(f,\lambda_i)\right) \notag \\
&\overset{\propref{satz_eig_direkte_summe}}{=} \dim_K\left( \bigoplus_{i=0}^{m} \Eig(f,\lambda_i)\right) \notag \\
&= \sum\limits_{i=1}^m \dim_K(\Eig(f,\lambda_i)) \notag \\
&\ge m \notag
\end{align}
@ -36,11 +36,11 @@
\end{proof}
\begin{definition}[$a$ teilt $b$]
Sei $R$ ein kommutativer Ring mit seien $a,b\in R$. Man sagt, $a$ \begriff{teilt} $b$ (in Zeichen $a\vert b$), wenn es $x\in R$ mit $b=ax$ gibt.
Sei $R$ ein kommutativer Ring mit seien $a,b\in R$. Man sagt, $a$ \begriff{teilt} $b$ (in Zeichen $a\mid b$), wenn es $x\in R$ mit $b=ax$ gibt.
\end{definition}
\begin{definition}[Vielfachheit]
Für $0\neq P\in K[t]$ und $\lambda\in K$ nennt man $\mu(P,\lambda)=\max\{r\in \natur_{>0}\mid (t-r)^r\vert P\}$ die \begriff{Vielfachheit} der Nullstelle $\lambda$ von $P$.
Für $0\neq P\in K[t]$ und $\lambda\in K$ nennt man $\mu(P,\lambda)=\max\{r\in \natur_{>0}\mid (t-r)^r\mid P\}$ die \begriff{Vielfachheit} der Nullstelle $\lambda$ von $P$.
\end{definition}
\begin{lemma}
@ -48,8 +48,8 @@
Genau dann ist $\mu(P,\lambda)\ge 1$, wenn $\lambda$ eine Nullstelle von $P$ ist.
\end{lemma}
\begin{proof}
$(\Rightarrow)$: $t-\lambda\vert P\Rightarrow P(t)=(t-\lambda)\cdot Q(t)$ mit $Q(t)\in K[t]\Rightarrow P(\lambda)=0\cdot Q(\lambda)=0$. \\
$(\Leftarrow)$: $P(\lambda)=0\overset{I.6.9}{=}t-\lambda\vert P(t)\Rightarrow \mu(P,\lambda)\ge 1$.
$(\Rightarrow)$: $(t-\lambda)\mid P\Rightarrow P(t)=(t-\lambda)\cdot Q(t)$ mit $Q(t)\in K[t]\Rightarrow P(\lambda)=0\cdot Q(\lambda)=0$. \\
$(\Leftarrow)$: $P(\lambda)=0\overset{I.6.9}{=}(t-\lambda)\mid P(t)\Rightarrow \mu(P,\lambda)\ge 1$.
%TODO: Verlinkung
\end{proof}
@ -58,7 +58,7 @@
Ist $P(t)=(t-\lambda)^r\cdot Q(t)$ mit $Q(t)\in K[t]$ und $Q(\lambda)\neq 0$, so ist $\mu(P,\lambda)=r$
\end{lemma}
\begin{proof}
Offensichtlich ist $\mu(P,\lambda)\ge r$. Wäre $\mu(P,\lambda)\ge r+l$, so $(t-\lambda)^{r+l}\vert P(t)$ also $(t-\lambda)^r\cdot Q(t)=(t-\lambda)^{r^+l}\cdot R(t)$ mit $R(t)\in K[t]$, folglich $t-\lambda\vert Q(t)$, insbesondere $Q(\lambda)=0$. \\
Offensichtlich ist $\mu(P,\lambda)\ge r$. Wäre $\mu(P,\lambda)\ge r+l$, so $(t-\lambda)^{r+l}\mid P(t)$ also $(t-\lambda)^r\cdot Q(t)=(t-\lambda)^{r^+l}\cdot R(t)$ mit $R(t)\in K[t]$, folglich $(t-\lambda)\mid Q(t)$, insbesondere $Q(\lambda)=0$. \\
(Denn wir dürfen kürzen: $R$ ist nullteilerfrei, genau so wie $K[t]$). \\
$(t-\lambda)^r(Q(t)-(t-\lambda)R(t))=0\Rightarrow Q(t)=(t-\lambda)R(t)$.
\end{proof}
@ -91,18 +91,18 @@
\begin{align}
A=M_B(f)=\begin{pmatrix}\lambda\mathbbm{1}_s&*\\0&A'\end{pmatrix}\notag
\end{align}
mit einer Matrix $A'\in \Mat_{n-s}(K)$, also $\chi_f(t)=\chi_A(t)\overset{\text{\propref{beispiel_2_8}}}{=}\chi_{\lambda\mathbbm{1}}\cdot\chi_{A'}(t)=(t- \lambda)^s\cdot \chi_{A'}(t)$ und somit $\dim_K(\Eig(f,\lambda))=s\le \mu(x_f,\lambda)$.
mit einer Matrix $A'\in \Mat_{n-s}(K)$, also $\chi_f(t)=\chi_A(t)\overset{\propref{beispiel_2_8}}{=}\chi_{\lambda\mathbbm{1}}\cdot\chi_{A'}(t)=(t- \lambda)^s\cdot \chi_{A'}(t)$ und somit $\dim_K(\Eig(f,\lambda))=s\le \mu(x_f,\lambda)$.
\end{proof}
\begin{proposition}
Genau dann ist $f$ diagonalisierbar, wenn $\chi_f$ in Linearfaktoren zerfällt und $\dim_K(\Eig(f,\lambda))=\mu(x_f,\lambda)$ für alle $\lambda\in K$.
\begin{proposition}[Diagonalisierungssatz]
Genau dann ist $f$ diagonalisierbar, wenn $\chi_f$ in Linearfaktoren zerfällt und $\dim_K(\Eig(f,\lambda))=\mu(\chi_f,\lambda)$ für alle $\lambda\in K$.
\end{proposition}
\begin{proof}
Es gilt
\begin{align}
\dim_K(\sum\limits_{\lambda\in K}\Eig(f,\lambda))&\overset{\text{\propref{satz_eig_direkte_summe}}}{=} \dim_K(\bigoplus\limits_{\lambda\in K}\Eig(f,\lambda)) \notag \\
\dim_K(\sum\limits_{\lambda\in K}\Eig(f,\lambda))&\overset{\propref{satz_eig_direkte_summe}}{=} \dim_K(\bigoplus\limits_{\lambda\in K}\Eig(f,\lambda)) \notag \\
&\overset{\text{II.4.12}}{=}\sum\limits_{\lambda\in K}\dim_K(\Eig(f,\lambda)) \notag \\
&\overset{\text{\propref{lemma_3_10}}}{\le}\sum\limits_{\lambda\in K}\mu(\chi_f,\lambda) \\
&\overset{\propref{lemma_3_10}}{\le}\sum\limits_{\lambda\in K}\mu(\chi_f,\lambda) \\
&\le \deg(\chi_f) \\
&= n \notag
\end{align}

Some files were not shown because too many files have changed in this diff Show more