LAAG 1 Kapitel Basis+Dimension, Summen von VR, Matrizen, Gruppenhom.

This commit is contained in:
henrydatei 2018-06-05 20:11:50 +02:00
parent a387a9fd10
commit ef1c73473f
5 changed files with 623 additions and 4 deletions

View file

@ -1 +1,184 @@
\section{Basis und Dimension}
\begin{definition}[Basis]
Eine Familie $(x_i)$ von Elementen von $V$ ist eine \begriff{Basis} von $V$, wenn gilt: \\
(B1): Die Familie ist linear unabhängig. \\
(B2): Die Familie erzeugt $V$, also $\Span_K(x_i) = V$.
\end{definition}
\begin{remark}
Kurz gesagt ist eine Basis ein linear unabhängiges Erzeugendensystem.
\end{remark}
\begin{proposition}
Sei $(x_i)$ eine Familie von Elementen von $V$. Genau dann ist $(x_i)$ eine Basis von $V$,
wenn sich jedes $x \in V$ auf eindeutige Weise als Linearkombination der $(x_i)$ schreiben lässt.
\end{proposition}
\begin{example}
\begin{itemize}
\item Die leere Familie ist eine Basis des Nullraums.
\item Die \begriff{Standardbasis} $(e_1,...,e_n)$ ist eine Basis des Standardraums.
\item Die Monome $(X^i)$ bilden eine Basis des $K$-VR $K[X]$.
\item Die Basis des $\mathbb R$-VR $\mathbb C$ ist gegeben durch $(1,i)$, eine Basis des $\mathbb C$-
VR $\mathbb C$ ist gegeben durch $(1)$
\item Der $\mathbb C$-VR $\mathbb C$ hat viele weitere Basen.
\end{itemize}
\end{example}
\begin{proposition}
Für eine Familie $(x_i)$ von Elementen von $V$ sind äquivalent:
\begin{itemize}
\item $B$ ist eine Basis von $V$.
\item $B$ ist ein minimales Erzeugendensystem.
\item $B$ ist maximal linear unabhängig, d.h. $B$ ist linear unabhängig, aber wenn Elemente zur Basis
hinzugefügt werden, ist diese nicht mehr linear unabhängig.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $1 \Rightarrow 2$: Sei $B$ eine Basis von $V$ und $J$ eine echte Teilmenge von $I$. Nach Definition ist $B$ ein
Erzeugendensystem. Wähle $i_0 \in I\backslash J$. Da $(x_i)$ linear unabhängig ist, ist $x_{i_0}$ keine Element
$\Span_K((x_i)_{i \in I\backslash \{i_0\}}) \ge \Span_K((x_i)_{i \in J})$. Insbesondere ist $(x_i)_{i\in J}$ kein
Erzeugendensystem von $V$.
\item $2 \Rightarrow 3$: Sei $B$ ein minimales Erzeugendensystem und $(x_i)_{i \in J}$ eine Familie mit $J$ echter
Obermenge von $I$. Wäre $(x_i)$ linear abhängig, so gäbe es ein $i_0$ mit $\Span_K((x_i)_{i \in I\backslash
\{i_0\}}) = \Span_K((x_i)_{i \in I})=V$ im Widerspruch zur Minimalität von $B$. Also ist $B=(x_i)$ linear
unabhängig. Wähle $j_0 \in J\backslash I$. Dann ist $x_{j_0} \in V=\Span_K(x_i) \le \Span_K((x_i)_{i \in
J\backslash \{j_0\}})$ und somit ist $(x_i)_{i\in J}$ linear abhängig.
\item $3 \Rightarrow 1$: Sei $B$ nun maximal linear unabhängig. Angenommen $B$ wäre kein Erzeugendensystem.
Dann gibt es ein $x\in V \backslash \Span_K(x_i)$. Definiere $J=I \cup \{j_0\}$ mit $j_0 \notin I$ und $x_{j_0}:=x$.
Aufgrund der Maximalität von $B$ ist $(x_i)$ linear abhängig, es gibt als Skalare $\lambda$, $(\lambda_i)$, nicht
alle gleich 0, mit $\lambda\cdot x+\sum_{i \in I} \lambda_i\cdot x_i=0$. Da $(x_i)$ linear abhängig ist,
muss $\lambda \neq 0$ sein, woraus der Widerspruch $x=\lambda^{-1}\cdot\sum_{i \in I} \lambda_i\cdot x_i
\in \Span_K(x_i)$. Somit ist $B$ ein Erzeugendensystem.
\end{itemize}
\end{proof}
\begin{theorem}[Basisauswahlsatz]
\proplbl{2_3_6}
Jedes endliche Erzeugendensystem von $V$ besitzt eine Basis als
Teilfamilie: Ist $(x_i)$ ein endliches Erzeugendensystem von $V$, so gibt es eine Teilmenge $J\subset I$,
für die $(x_i)_{i\in J}$ eine Basis von $V$ ist.
\end{theorem}
\begin{proof}
Sei $(x_i)$ ein endliches Erzeugendensystem von $V$. Definiere $\mathcal J:=\{J \subset I \mid (x_i)_{i\in J}\;
\text{J ist Erzeugendensystem von }V\}$. Da $I$ endlich ist, ist auch $\mathcal J$ endlich. Da $(x_i)$
Erzeugendensystem ist, ist $I\in J$, insbesondere $\mathcal J\neq\emptyset$. Es gibt deshalb ein bezüglich
Inklusion minimales $J_0\in \mathcal J$, d.h. $J_1 \in \mathcal J$ so gilt nicht $J_1 \subsetneq J_0$. Deshalb
ist $(x_i)_{i\in J_0}$ eine Basis von $V$.
\end{proof}
\begin{conclusion}
Jeder endlich erzeugte $K$-VR besitzt eine endliche Basis.
\end{conclusion}
\begin{remark}
\begin{itemize}
\item Der Beweis des Theorems liefert ein konstruktives Verfahren: Ist $(x_1,...,x_n)$ ein endliches
Erzeugendensystem von $V$, so prüfe man, ob es ein $i_0$ mit $x_{i_0} \in \Span_K((x_i)_{i\neq i_0})$ gibt.
Falls Nein, ist $(x_1,...,x_n)$ eine Basis von $V$. Falls Ja, macht man mit $(x_1,...,x_{i_{0-1}}, x_{i_{0+1}},
...,x_n)$ weiter.
\item Man kann jedoch zeigen, dass jeder Vektorraum eine Basis besitzt. Die Gültigkeit der Aussage hängt jedoch
von bestimmten mengentheoretischen Axiomen ab, auf die wir an dieser Stelle nicht eingehen werden. Siehe dazu
LAAG 2. Semester.
\end{itemize}
\end{remark}
\begin{lemma}[Austauschlemma]
\proplbl{2_3_9}
Sei $B=(x_1,...,x_n)$ eine Basis von $V$. Sind $\lambda_1,...,\lambda_n \in K$ und
$y=\sum_{i=1}^n \lambda_i\cdot x_i$, so ist für jedes $j\in \{1,2,...,n\}$ mit $\lambda_j\neq 0$ auch
$B'=(x_1,...,x_{j-1},y,x_{j+1},...,x_n)$ eine Basis von $V$.
\end{lemma}
\begin{proof}
oBdA. sei $j=1$, also $B'=(y,x_2,...,x_n)$. Wegen $\lambda_1\neq 0$ ist $x_1=\lambda_1^{-1}\cdot y - \sum
_{i=2}^n \lambda_i\cdot x_i \in \Span_K(y,x_2,...,x_n)$ und somit ist $B'$ ein Erzeugendensystem. Sind
$\mu_1,...,\mu_n \in K$ mit $\mu_1\cdot y - \sum_{i=2}^n \mu_i\cdot x_i=0$, so folgt $0=\mu_1(\sum
_{i=1}^n \lambda_i\cdot x_i + \sum_{i=2}^n \mu_i\cdot x_i)=\mu_1\cdot \lambda_1\cdot x_1 + \sum
_{i=2}^n (\mu_1\cdot \lambda_i + \mu_i)x_i$ und aus der linearen Unabhängigkeit von $B$ somit $\mu_1\cdot
\lambda_1=0$, $\mu_1\cdot \lambda_2 + \mu_2 =0$, ..., $\mu_1\cdot\lambda_n + \mu_n=0$. Wegen $\lambda_1\neq 0$ folgt
$\mu_1=0$ und daraus $\mu_i=0$. Folglich ist $B'$ linear unabhängig.
\end{proof}
\begin{theorem}[\person{Steinitz}'scher Austauschsatz]
\proplbl{2_3_10}
Sei $B=(x_1,...,x_n)$ eine Basis von $V$ und $\mathcal F=(y_1,...
,y_r)$ eine linear unabhängige Familie in $V$. Dann ist $r\le n$ und es gibt $i_1,...,i_{n-r} \in \{1,...,n\}$, für
die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-r}})$ eine Basis von $V$ ist.
\end{theorem}
\begin{proof}
Induktion nach $r$\\
Für $r=0$ ist nichts zu zeigen. \\
Sei nun $r\ge 1$ und gelte die Aussage für $(y_1,...,y_{r-1})$. Insbesondere ist $r-1\le n$ und es gibt $i_1,..,
i_{n-(r-1)} \in \{1,...,n\}$ für die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-(r-1)}})$ eine Basis von $V$ ist. Da $y_r
\in V=\Span_K(B')$ ist $y_r=\sum_{i=1}^{r-1} \lambda_i\cdot y_1 + \sum_{j=0}^{n-(r-1)} \mu_j\cdot
x_{i_j}$. Da $(y_1,...,y_r)$ linear unabhängig, ist $y_r \notin \Span_K(y_1,...,y_{r-1})$. Folglich gibt es $j_0 \in
\{1,...,n-(r-1)\}$ mit $\mu_{j_0}\neq 0$. Insbesondere ist $n-(r-1)\ge 1$, also $r\le n$. oBdA. $j_0=1$, dann
ergibt sich mit dem Austauschlemma (\propref{2_3_9}), dass auch $(y_1,...,y_{r-1},y_r,x_{i_2},...,x_{i_{n-(r-1)}})$ eine Basis von
$V$ ist.
\end{proof}
\begin{conclusion}
Ist $V$ endlich erzeugt, so lässt sich jede linear unabhängige Familie zu einer Basis ergänzen:
Ist $(x_1,...,x_n)$ linear unabhängig, so gibt es $m\ge n$ und $x_{n+1},x_{n+2},...,x_m$ für die $(x_1,...,x_n,
x_{n+1},...,x_m)$ eine Basis von $V$ ist.
\end{conclusion}
\begin{proof}
Nach dem Basisauswahlsatz (\propref{2_3_6}) besitzt $V$ eine endliche Basis, die Behauptung folgt somit aus dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}).
\end{proof}
\begin{conclusion}
\proplbl{2_3_12}
Sind $(x_i)$ und $(x_j)$ Basen von $V$ und ist $I$ endlich, so ist $|I|=|J|$.
\end{conclusion}
\begin{proof}
Da $(y_r)$ linear unabhängig ist, ist $|J|\le |I|$ nach dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}). Insbesondere ist $J$
endlich, also $|I|\le |J|$ nach dem Austauschsatz (\propref{2_3_10}).
\end{proof}
\begin{conclusion}
Ist $V$ endlich erzeugt, so haben alle Basen von $V$ die gleiche Mächtigkeit.
\end{conclusion}
\begin{proof}
Besitzt $V$ eine endliche Basis, so folgt deshalb die Behauptung aus \propref{2_3_12}.
\end{proof}
\begin{definition}[Dimension]
Ist $V$ endlich erzeugt, so ist die \begriff{Dimension} des VR $V$ die Mächtigkeit $\dim_K(V)$
einer Basis von $V$. Andernfalls sagt man, dass $V$ unendliche Dimensionen hat und schreibt $\dim_K(V)= \infty$.
\end{definition}
\begin{example}
\begin{itemize}
\item $\dim_K(K^n)=n$
\item $\dim_K(K[X])=\infty$
\item $\dim_K(K[X]_{\le n})=n+1$
\item $\dim_{\mathbb R}(\mathbb C)=2$
\item $\dim_{\mathbb C}(\mathbb C)=1$
\end{itemize}
\end{example}
\begin{remark}
\begin{itemize}
\item $V$ ist genau dann endlich erzeugt, wenn $\dim_K(V)< \infty$.
\item $\dim_K(V)=\min\{|B| \mid \Span_K(B)=V\}=\max\{|B| \mid B\text{ linear unabhängig}\}$
\end{itemize}
\end{remark}
\begin{proposition}
Sei $V$ endlich erzeugt und $W\le V$ ein UVR.
\begin{itemize}
\item Es ist $\dim_K(W)\le \dim_K(V)$. Insbesondere ist $W$ endlich erzeugt.
\item Ist $\dim_K(W)=\dim_K(V)$, so ist auch $W=V$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item Ist $F$ eine linear unabhängige Familie in $W$, so ist auch $F$ linear unabhängig in $V$ und somit $|F|\le
\dim_K(V)$. Insbesondere gibt es eine maximal linear unabhängige Familie $B$ in $W$ und es folgt $\dim_K(W)=|B|
\le \dim_K(V)$.
\item Sei $B$ eine Basis von $W$. Dann ist $B$ auch in $V$ linear unabhängig. Ist $\dim_K(W)=\dim_K(V)$, so muss
auch $B$ in $V$ maximal linear unabhängig sein. Insbesondere ist $W=\Span_K(B)=V$.
\end{itemize}
\end{proof}

View file

@ -1 +1,153 @@
\section{Homomorphismen von Gruppen}
Seien $G,H$ zwei multiplikativ geschriebene Gruppen.
\begin{definition}[Gruppenhomomorphismus]
Eine Abbildung $f: G \to H$ ist ein \begriff{Gruppenhomomorphismus}, wenn gilt: \\
(GH): $f(xy)=f(x)\cdot f(y)$ \\
Die Menge der Homomorphismen $f:G\to H$ bezeichnet man mit $\Hom(G,H)$.
\end{definition}
\begin{remark}
Ein Gruppenhomomorphismus ist also eine Abbildung, welche mit der Verknüpfung, also der Struktur
der Gruppe, verträglich ist. Man beachte: für additiv geschrieben Gruppen lautet die Bedingung: $f(x+y)=f(x)+f(y)$.
\end{remark}
\begin{example}
\begin{itemize}
\item $id_G: G \to G$
\item $c_1:G\to H$ mit $x\mapsto 1_H$
\item $G_0\le G$ Untergruppe, $\iota:G_0\to G$
\item $(A,+)$ abelsche Gruppe, $k\in \mathbb Z$, $A\to A$ mit $a\mapsto ka$
\item $\mathbb Z \to \mathbb Z\backslash n\mathbb Z$ mit $\overline a \mapsto a+n\mathbb Z$
\item $\mathbb R \to \mathbb R^{\times}$ mit $x\mapsto e^x$
\item $Mat_n(K)\to Mat_n(K)$ mit $A\mapsto A^t$
\item $\mathbb C\to \mathbb R^{\times}$ mit $z\mapsto |z|$
\end{itemize}
\end{example}
\begin{proposition}
Sei $f\in \Hom(G,H)$. Dann gilt:
\begin{itemize}
\item $f(1_G)\to 1_H$
\item Für $x\in G$ ist $f(x^{-1})=(f(x))^{-1}$.
\item Für $x_1,...,x_n\in G$ ist $f(x_1,...,x_n)=f(x_1)\cdot ... \cdot f(x_n)$.
\item Ist $G_0\le G$, so ist $f(G_0)\le H$.
\item Ist $H_0\le H$, so ist $f^{-1}(H_0)\le G$.
\end{itemize}
\end{proposition}
\begin{proof}
\begin{itemize}
\item $f(1)=f(1\cdot 1)=f(1)\cdot f(1) \Rightarrow$ kürzen, weil $H$ Gruppe $\Rightarrow 1=f(1)$
\item $f(x)\cdot f(x^{-1})=f(x\cdot x^{-1})=f(1)=1$
\item Induktion nach $n$
\item $x,y\in G_0\Rightarrow f(x)\cdot f(y)=f(xy)\in f(G_0)$, $f^{-1}(x)=f(x^{-1})\in f(G_0)$
\item $x,y\in f^{-1}(H_0)\Rightarrow f(x)\cdot f(y)=f(xy)\in H_0\Rightarrow xy\in f^{-1}(H_0)$, $f(x^{-1})=(f(x))
^{-1}\in H_0\Rightarrow x^{-1}\in f^{-1}(H_0)$, $f(1)=1\in H_0\Rightarrow 1\in f^{-1}(H_0)$, insbesondere
$f^{-1}(H_0)\neq \emptyset$
\end{itemize}
\end{proof}
\begin{proposition}
Seien $G_1,G_2,G_3$ Gruppen. Sind $f_1:G_1\to G_2$, $f_2:G_2\to G_3$ Homomorphismen, so ist auch
$f_2\circ f_1:G_1\to G_3$.
\end{proposition}
\begin{proof}
Für $x,y\in G_1$ ist $(f_2\circ f_1)(xy)=f_2(f_1(xy))=f_2(f_1(x)\cdot f_1(y))=f_2(f_1(x))\cdot f_2(f_1(y))=(f_2
\circ f_1)(x)\cdot (f_2\circ f_1)(y)$
\end{proof}
\begin{definition}[Arten von Homomorphismen]
Ein Homomorphismus ist \\
ein \begriff{Monomorphismus}, wenn $f$ injektiv ist, \\
ein \begriff{Epimorphismus}, wenn $f$ surjektiv ist, \\
ein \begriff{Isomorphismus}, wenn $f$ bijektiv ist. Die Gruppen $G$ und $H$ heißen \begriff{isomorph}, in Zeichen $G\cong H$, wenn
es einen Isomorphismus $G\to H$ gibt.
\end{definition}
\begin{lemma}
\proplbl{3_2_7}
Ist $f:G\to H$ ein Isomorphismus, so ist auch $f^{-1}:H\to G$ ein Isomorphismus.
\end{lemma}
\begin{proof}
Da $f^{-1}$ wieder bijektiv ist, müssen wir nur zeigen, dass $f^{-1}$ ein Homomorphismus ist. Seien $x,y\in H$. Dann
ist $f(f^{-1}(x)\cdot f^{-1}(y))=f(f^{-1}(x))\cdot f(f^{-1}(y))=xy$, somit $f^{-1}(xy)=f^{-1}(x)\cdot f^{-1}(y)$.
\end{proof}
\begin{proposition}
\proplbl{3_2_8}
Sei $f:G\to H$ ein Homomorphismus. Genau dann ist $f$ ein Isomorphismus, wenn es einen Homomorphismus
$f':H\to G$ mit $f'\circ f=\id_G$ und $f\circ f'=\id_H$ gibt.
\end{proposition}
\begin{proof}
Ist $f$ ein Isomorphismus, so erfüllt $f':=f^{-1}$ das Gewünschte. Ist umgekehrt $f'$ wie angegeben, so muss $f$
bijektiv sein:
\begin{itemize}
\item $f'\circ f=\id_G$ injektiv $\Rightarrow f$ injektiv
\item $f\circ f'=\id_H$ surjektiv $\Rightarrow f$ surjektiv
\end{itemize}
\end{proof}
\begin{conclusion}
Isomorphie von Gruppen ist eine \begriff{Äquivalenzrelation}: Sind $G,G_1,G_2,G_3$ Gruppen, so gilt:
\begin{itemize}
\item $G\cong G$ (Reflexivität)
\item Ist $G_1\cong G_2$, so ist auch $G_2\cong G_1$ (Symmetrie)
\item Ist $G_1\cong G_2$ und $G_2\cong G_3$, dann ist auch $G_1\cong G_3$ (Transitivität)
\end{itemize}
\end{conclusion}
\begin{proof}
\begin{itemize}
\item $\id_G$ ist ein Isomorphismus
\item \propref{2_3_7}
\item \propref{2_3_8} und A18
\end{itemize}
\end{proof}
\begin{remark}
Der letzte Satz erklärt die Bedeutung des Isomorphismus: Eine mit der Struktur verträgliche
Abbildung, die eine mit der Struktur verträgliche Umkehrabbildung besitzt, also eine strukturerhaltende Abbildung.
Tatsächlich können wir uns einen Isomorphismus $f: G\to H$ so vorstellen, dass wir nur die Elemente von $G$ umbenennen.
Alle Aussagen, die sich nur aus der Struktur selbst ergeben, bleiben damit wahr. Zum Beispiel: Ist $G\cong H$ und ist
$G$ abelsch, so auch $H$ und umgekehrt.
\end{remark}
\begin{example}
\begin{itemize}
\item Es ist $\mathbb Z^{\times} = \mu_2 \cong \mathbb Z\backslash 2\mathbb Z\cong (\mathbb Z\backslash 3\mathbb Z)
^{\times}\cong S_2$. Je zwei beliebige Gruppen der Ordnung 2 sind zueinander isomorph.
\item $e: \mathbb R \to \mathbb R_{>0}$, $x\mapsto e^x$ liefert einen Isomorphismus, da $(\mathbb R,+)\to
(\mathbb R,\cdot)$.
\end{itemize}
\end{example}
\begin{definition}[Kern]
Der \begriff{Kern} eines Gruppenhomomorphismus $f:G\to H$ ist $\Ker(f):= f^{-1}(\{1\})=\{x\in G \mid
f(x)=1_H\}$.
\end{definition}
\begin{lemma}
Ist $f:G\to H$ ein Homomorphismus, so ist $N:=\Ker(f)$ eine Untergruppe von $G$ mit $x\cdot y\cdot
x^{-1}\in N$ für alle $x\in G$ und $y\in N$.
\end{lemma}
\begin{proof}
Es ist $N\le G$. Für $x\in G$ und $y\in N$ ist $f(xyx^{-1})=f(x)\cdot f(y)\cdot f(x^{-1})=f(x)\cdot f(x^{-1}) \cdot 1=
f(x)\cdot f(x^{-1})=1$, also $xyx^{-1}\in N$.
\end{proof}
\begin{proposition}
Sei $f\in \Hom(G,H)$. Genau dann ist $f$ injektiv, wenn $\Ker(f)=\{1_G\}$.
\end{proposition}
\begin{proof}
Schreibe $N=\Ker(f)$.
\begin{itemize}
\item Hinrichtung: Ist $f$ injektiv, so ist $N\le G$ mit $|N|\le 1$, also $N=\{1_G\}$.
\item Rückrichtung: Sei $N=\{1_G\}$. Sind $x,y\in G$ mir $f(x)=f(y)$, so ist $1=(f(x))^{-1}\cdot f(y)=f(x^{-1}\cdot y)$,
also $x^{-1}\cdot y\in N=\{1\}$ und somit $x=y$. Folglich ist $f$ injektiv.
\end{itemize}
\end{proof}
\begin{definition}[Normalteiler]
Ist $N\le G$ mit $x^{-1}y\in N$ für alle $x\in G$ und $y\in N$, so nennt man $N$
einen \begriff{Normalteiler} von $G$ und schreibt $N\vartriangleleft G$.
\end{definition}

View file

@ -1 +1,157 @@
\section{Matrizen}
Sei $K$ ein Körper.
\begin{definition}[Matrix]
Seien $m,n \in \mathbb N_0$. Eine $m\times n$-\begriff{Matrix} über $K$ ist ein rechteckiges
Schema:
\begin{align}
\begin{pmatrix}
a_{11} & ... & a_{1n}\\
... & & ...\\
a_{m1} & ... & a_{mn}\\
\end{pmatrix}\notag
\end{align}
Man schreibt dies auch als $A=(a_{ij})_{i=1,...,n \; j=1,...,m}$ oder $A=(a_{ij})_{i,j}$, wenn $m$ und $n$
aus dem Kontext hervorgehen. Die $a_{ij}$ heißen die \begriff[Matrix!]{Koeffizienten} der Matrix $A$ und wir definieren $A_{i,j}=
a_{ij}$. Die Menge der $m\times n$-Matrizen über $K$ wird mit $\Mat_{m\times n}(K)$ oder $K^{m\times n}$
bezeichnet. Man nennt das Paar $(m,n)$ auch den \begriff[Matrix!]{Typ} von $A$. Ist $m=n$, so spricht man von \begriff[Matrix!]{quadratisch}en
Matrizen und schreibt $\Mat_n(K)$. Zu einer Matrix $A=(a_{ij}) \in \Mat_{m\times n}(K)$ definiert man die zu $A$
\begriff[Matrix!]{transponierte Matrix} $A^t := (a_{ij})_{j,i} \in \Mat_{n\times m}(K)$.
\end{definition}
\begin{example}
\begin{itemize}
\item Die \begriff{Nullmatrix} ist $0=(0)_{i,j} \in \Mat_{m\times n}(K)$.
\item Für $k,l \in \{1,...,n\}$ ist die $(k,l)$-\begriff{Basismatrix} gegeben durch $E_{kl}=(\delta_{jk}\delta_{jl})\in
\Mat_{m\times n}(K)$.
\item Die \begriff{Einheitsmatrix} ist $1_n=(\delta_{ii})\in \Mat_n(K)$.
\item Für $a_i,...,a_n \in K$ definiert man eine \begriff{Diagonalmatrix} $\diag(a_1,...,a_n)=(\delta_{ij}\cdot a_i)$.
\item Für eine Permutation $\sigma\in S_n$ definiert man die \begriff{Permutationsmatrix} $P_\sigma := (\delta_{\sigma
(i),j})$.
\item Für $a_1,...,a_n$ definiert man einen \begriff{Zeilenvektor} $(a_1,...,a_n)\in \Mat_{1\times n}(K)$ bzw. einen
\begriff{Spaltenvektor} $(a_1,...,a_n)^t$.
\end{itemize}
\end{example}
\begin{definition}[Addition und Skalarmultiplikation]
Seien $A=(a_{ij})$ und $B=(b_{ij})$ desselben Typs und
$\lambda \in K$. Man definiert auf $\Mat_{m\times n}(K)$ eine koeffizientenweise \begriff[Matrix!]{Addition} und \begriff[Matrix!]{Skalarmultiplikation}.
\end{definition}
\begin{proposition}
$(\Mat_{m\times n},+,\cdot)$ ist ein $K$-VR der Dimension $\dim_K(\Mat_{m\times n})=n\cdot m$ mit
Basismatrix als Basis.
\end{proposition}
\begin{proof}
Dies ist klar, weil wir $\Mat_{m\times n}$ mit dem Standardraum $K^{mn}$ identifizieren können. Wir haben die
Elemente nur als $m\times n$-Matrix statt als $mn$-Tupel geschrieben.
\end{proof}
\begin{definition}[Matrizenmultiplikation]
Seien $m,n,r \in \mathbb N_0$. Sind $A=(a_{ij})\in \Mat_{m\times n}(K)$,
$B=(b_{jk})\in \Mat_{n\times r}(K)$ so definieren wir die \begriff[Matrix!]{Matrizenmultiplikation} $C=AB$ als die Matrix $C=(c_{ik})\in \Mat_{m\times r}(K)$ mit
$c_{ik}=\sum_{j=1}^n a_{ij}\cdot b_{jk}$. Kurz geschrieben "'Zeile $\cdot$ Spalte"'.
\end{definition}
\begin{example}
\begin{itemize}
\item Für $A\in \Mat_n(K)$ ist $0\cdot A=0$ und $1\cdot A=A$.
\item Für $\sigma \in S_n$ und $A\in \Mat_{n\times r}(K)$ geht $P_{\sigma}\cdot A$ aus $A$ durch Permutation der
Zeilen hervor.
\end{itemize}
\end{example}
\begin{lemma}
Für $m,n,r \in \mathbb N_0$ und $A=(a_{ij})\in \Mat_{m\times n}(K)$, $B=(b_{jk})\in \Mat_
{n\times r}(K)$ und $\lambda\in K$ gilt:
\begin{align}
A(\lambda B)=(\lambda A)B=\lambda(AB)\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $A=(a_{ij})$, $B=(b_{jk})$. Dann ist $A(\lambda B)=\sum_{j=1}^n a_{ij}\cdot \lambda b_{jk}=\sum
_{j=1}^n \lambda a_{ij} \cdot b_{jk}=(\lambda A)B=\lambda \cdot \sum_{j=1}^n a_{ij}b_{jk}=\lambda
(AB)$.
\end{proof}
\begin{lemma}
Matrizenmultiplikation ist assoziativ:
\begin{align}
A(BC)=(AB)C\notag
\end{align}
\end{lemma}
\begin{proof}
Sei $D=BC\in \Mat_{n\times s}(K)$, $E=AB \in \Mat_{m\times r}(K)$. Schreibe $A=(a_{ij})$ usw. Für $i,l$ ist $(AD)=
\sum_{j=1}^n a_{ij}d_{jl}=\sum_{j=1}^n a_{ij}\cdot \sum_{k=1}^r b_{jk}c_{kl}=\sum
_{j=1}^n \sum_{k=1}^n a_{ij}b_{jk}c_{kl}$. \\
$(EC)=\sum_{k=1}^n e_{ik}c_{kl}=\sum_{k=1}^r \sum_{j=1}^n a_{ij}b_{jk}c_{kl}$. Also ist
$AD=EC$.
\end{proof}
\begin{lemma}
Für $m,n,r\in \mathbb N_0$ und $A,A'\in \Mat_{m\times n}(K)$, $B,B'\in \Mat_{n\times r}(K)$ ist
\begin{align}
(A+A')B&=AB+A'B\notag \\
A(B'+B)&=AB'+AB\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $A=(a_{ij})$ etc. Dann ist $(A+A')B=\sum_{j=1}^n (a_{ij}+a'{ij})b_{jk}=\sum_{j=1}^n
a_{ij}+b_{jk} + \sum_{j=1}^n a'_{ij}+b_{jk}=(AB+A'B)$. Rest analog.
\end{proof}
\begin{proposition}
Mit der Matrizenmultiplikation wird $\Mat_n(K)$ zu einem Ring mit Einselement $1$.
\end{proposition}
\begin{proof}
Die vorherigen Sätze und Lemmas.
\end{proof}
\begin{example}
\begin{itemize}
\item Für $n=1$ können wir dem Ring $\Mat_n(K)$ mit $K$ identifizieren, der Ring ist also ein Körper,
insbesondere ist er kommutativ.
\item Für $n\ge 2$ ist $\Mat_n(K)$ nicht kommutativ.
\end{itemize}
\end{example}
\begin{definition}[invertierbar]
Eine Matrix $A\in \Mat_n(K)$ heißt \begriff[Matrix!]{invertierbar} oder \begriff[Matrix!]{regulär}, wenn sie im Ring
$\Mat_n(K)$ invertierbar ist, sonst \begriff[Matrix!]{singulär}. Die Gruppe $\GL_n(K)=\Mat_n(K)^{\times}$ der invertierbaren $n\times n$
-Matrizen heißt \begriff{allgemeine Gruppe}.
\end{definition}
\begin{example}
Sei $n=2$. Zu
\begin{align}
A=\begin{pmatrix}a & b\\c & d\\\end{pmatrix} \in \Mat_2(K)\notag
\end{align}
definiert man
\begin{align}
\tilde A=
\begin{pmatrix}d & -b\\-c & a\\\end{pmatrix}\in \Mat_2(K)\notag
\end{align}
Man prüft nach, dass $A\cdot \tilde A=\tilde A\cdot A=
(ad-bc)\cdot 1_2$. Definiert man nun $\det(A)=ad-bc$ so sieht man: Ist $\det(A)\neq 0$, so ist $A$ invertierbar mit
$A^{-1}=\det(A)^{-1}\cdot \tilde A$. Ist $\det(A)=0$ so $A$ ist Nullteiler und somit nicht invertierbar.
\end{example}
\begin{lemma}
Für $A,A_1,A_2\in \Mat_{m\times n}(K)$ und $B=\Mat_{n\times r}(K)$ ist
\begin{itemize}
\item $(A^t)^t=A$
\item $(A_1+A_2)^t=A_1^t + A_2^t$
\item $(AB)^t=B^tA^t$
\end{itemize}
\end{lemma}
\begin{proof}
Übung
\end{proof}
\begin{proposition}
Für $A\in \GL_n(K)$ ist $A^t\in \GL_n(K)$ und $(A^{-1})^t = (A^t)^{-1}$
\end{proposition}
\begin{proof}
Aus $AA^{-1}=1$ folgt, dass $(A^{-1})^tA^t=1_n^t=1_n$. Somit ist $(A^{-1})^t$ das Inverse zu $A^t$.
\end{proof}

View file

@ -1 +1,129 @@
\section{Summen von VR}
Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\begin{definition}[Summe von Vektorräumen]
Die \begriff[Vektorraum!]{Summe} der $W_i$ ist der UVR
\begin{align}
\sum_{i\in I} W_i := \Span_K\left(\bigcup W_i\right)\notag
\end{align}
Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1+...+W_n$ für $\sum_{i=1}^n W_i$.
\end{definition}
\begin{lemma}
Es ist $\sum_{i\in I} W_i = \{\sum_{i\in I} x_i \mid x_i\in W_i\text{, fast alle
gleich 0}\}$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $"\supseteq"$: klar, $\sum x_i \in \Span_K(\bigcup W_i)$
\item $"\subseteq"$: Die rechte Seite enthält jedes $W_i$ und ist ein UVR von $V$: \\
Für $x_i,x'_i \in W$, fast alle gleich 0 und $\lambda \in K$ ist $\sum x_i + \sum x'_i = \sum (x_i+x'_i)$, $\lambda
\cdot \sum x_i = \sum \lambda\cdot x_i$ $\Rightarrow$ UVR
\end{itemize}
\end{proof}
\begin{definition}[direkte Summe]
Ist jedes $x\in \sum W_i$ eindeutig als Summe von $x_i$ mit $x_i\in W_i$
darstellbar, so sagt man, dass $\sum W_i$ die \begriff{direkte Summe} der UVR $W_i$ ist und schreibt $\oplus W_i$ für
$\sum W_i$. Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1\oplus W_2 \oplus ... \oplus W_n$ für $\oplus W_i$.
\end{definition}
\begin{example}
Ist $(x_1,...,x_n)$ eine Basis von $V$, so ist $V=Kx_1\oplus ... \oplus Kx_n$.
\end{example}
\begin{remark}
Wir wollen uns näher mit dem wichtigen Spezialfall $I=\{1,2\}$ beschäftigen und schreiben noch
mal auf:
\begin{itemize}
\item $V=W_1\oplus W_2$
\item $V=W_1 + W_2$ und $W_1 \cap W_2 = \{0\}$
\end{itemize}
\end{remark}
\begin{proposition}
Sind $W_1,W_2$ UVR von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
I_2 = \emptyset$, so sind äquivalent:
\begin{itemize}
\item $V=W_1 \oplus W_2$
\item $(x_i)_{i\in I_1 \cap I_2}$ ist eine Basis von $V$
\end{itemize}
\end{proposition}
\begin{proof}
Sei $I=I_1 \cup I_2$.
\begin{itemize}
\item $1\Rightarrow 2$: Da $\Span_K((x_i)_{i\in I_1})=W_1$ und $\Span_K((x_i)_{i\in I_2})=W_2$ ist $\Span_K((x_i)
_{i\in I})=W_1+W_2=V$. Ist $\sum \lambda_ix_i=0$, so ist $\sum_{i\in I_1} \lambda_ix_i = -\sum
_{i\in I_2} \lambda_ix_i \in W_1 \cap W_2 = \{0\}$. Da $(x_i)_{i\in I_1}$ linear unabhängig ist, ist
$\lambda_i=0$, analog für $i\in I_2$.
\item $2\Rightarrow 1$: $W_1+W_2=\Span_K((x_i)_{i\in I_1})+\Span_K((x_i)_{i\in I_2})=\Span_K((x_i)_{i\in I})=V$. Ist
$x\in W_1 \cap W_2$, so ist $x=\sum_{i\in I_1} \lambda_ix_i = \sum_{i\in I_2} \lambda_ix_i$. Somit
$0=\sum_{i\in I_1} \lambda_ix_i - \sum_{i\in I_2} \lambda_ix_i$, woraus wegen $(x_i)_{i\in I}$
linear unabhängig schon $\lambda_i=0$ folgt. Somit ist $x=0$.
\end{itemize}
\end{proof}
\begin{conclusion}
Ist $\dim_K(V)<\infty$, so ist jeder UVR ein direkter Summand: Ist $W$ ein UVR von $V$, so
gibt es einen UVR $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
ist
\begin{align}
\dim_K(W')=\dim_K(V)-\dim_K(W)\notag
\end{align}
\end{conclusion}
\begin{proof}
Sei $(x_1,...,x_m)$ eine Basis von $W$. Nach dem Basisergänzungssatz lässt sich diese zu einer Basis $(x_1,...,x_n)$
von $V$ ergänzen. Mit $W':= \Span_K(x_{m+1},...,x_n)$ ist dann $V=W\oplus W'$.
%TODO: Wo ist der Basisergänzungssatz?
\end{proof}
\begin{remark}
Ist $\dim_K(V)<\infty$, so folgt aus $W_1\cap W_2=\{0\}$ also insbesondere $\dim_K(W_1+W_2)=
\dim_K(W_1)+\dim_K(W_2)$.
\end{remark}
\begin{theorem}[Dimensionsformel]
Sei $\dim_K(V)<\infty$. Für UVR $W_1,W_2$ von $V$ gilt:
\begin{align}
\dim_K(W_1+W_2) + \dim_K(W_1 \cap W_2) = \dim_K(W_1) + \dim_K(W_2)\notag
\end{align}
\end{theorem}
\begin{proof}
Da $\dim_K(V)<\infty$ haben alle UVR von $V$ Basen. Sei also $B_0=(X_1,...,x_n)$ eine Basis von $W_1\cap W_2$. Nach
dem Basisergänzungssatz können wir $B_0$ zu den Basen $B_1=(x_1,...,x_n,y_1,...,y_p)$ von $W_1$ und $B_2=(x_1,...,
x_n,z_1,...,z_q)$ von $W_2$ ergänzen. Wir behaupten, dass $B=(x_1,...,x_n,y_1,...,y_p,z_1,...,z_q)$ eine Basis von
$W_1+W_2$ ist. Offenbar ist $B$ ein Erzeugendensystem von $W_1+W_2$. Seien nun $\lambda_1,...,\lambda_n,\mu_1,...,
\mu_p,\eta_1,...,\eta_q \in K$ mit $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j + \sum
_{k=1}^q \eta_kz_k=0$. Dann ist $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j = -\sum
_{k=1}^q \eta_kz_k \in W_1 \cap W_2$. Da $\Span_K(B_0)=W_1\cap W_2$ und $B_1$ linear unabhängig ist, ist
$\mu_j=0$. Analog zeigt man auch, dass $\eta_k=0$. Aus $B_0$ linear unabhängig folgt dann auch, dass $\lambda_i=0$.
Somit ist $B$ linear unabhängig. Wir haben gezeigt, dass $B$ eine Basis von $W_1+W_2$ ist. \\
$\Rightarrow \dim_K(W_1)+\dim_K(W_2)=|B_1|+|B_2|=(n+p)+(n-q)=(n+p+q)+n=|B|+|B_0|=\dim_K(W_1+W_2)+\dim_K(W_1\cap W_2)$.
\end{proof}
\begin{definition}[externes Produkt]
Das \begriff{externe Produkt} einer Familie $(V_i)$ von $K$-VR ist der $K$-VR
$\prod V_i$ bestehend aus dem kartesischen Produkt der $V_i$ mit komponentenweiser Addition und
Skalarmultiplikation, $(x_i)+(x'_i) := (x_i+x'_i)$ und $\lambda(x_i) := (\lambda x_i).$
\end{definition}
\begin{definition}[externe Summe]
Die \begriff{externe Summe} einer Familie $(V_i)$ von $K$-VR ist der UVR
$\oplus V_i := \{(x_i) \in \prod V_i \mid x_i=0 \text{; für fast alle }i\}$ des $K$-VR $\prod V_i$.
\end{definition}
\begin{remark}
Man prüft sofort nach, dass $\prod V_i$ ein $K$-VR ist und $\oplus V_i$ ein UVR davon ist. Für
endliche Indexmengen ist $\prod V_i = \oplus V_i$, z.B. $K^n = \prod_{i=1}^n K = \oplus K$.
\end{remark}
\begin{lemma}
Sei $(V_i)$ eine Familie von $K$-VR und sei $V=\oplus V_i$. Für jedes $j\in I$ ist $\tilde V_j :=
V \times \prod_{i\in I\backslash\{j\}} \{0\}$ ein UVR von $V$ und $V=\oplus \tilde V_j$
\end{lemma}
\begin{proof}
Ist $x=(x_i)\in V$ mit $x_i\in V_i$, fast alle $x_i=0$, so ist $x=\sum \tilde x_i$ mit $\tilde x:=(x_i\delta_{ij})
\in \tilde V_j$. Somit ist $V=\sum \tilde V_i$. Die Gleichung $\tilde V_i \cap \sum_{j\neq i} \tilde V_j
=\{0\}$ folgt aus Definition der $\tilde V_i.$
\end{proof}