mirror of
https://github.com/vale981/TUD_MATH_BA
synced 2025-03-05 09:31:39 -05:00
LAAG 1 Kapitel Basis+Dimension, Summen von VR, Matrizen, Gruppenhom.
This commit is contained in:
parent
a387a9fd10
commit
ef1c73473f
5 changed files with 623 additions and 4 deletions
|
@ -1 +1,184 @@
|
|||
\section{Basis und Dimension}
|
||||
|
||||
\begin{definition}[Basis]
|
||||
Eine Familie $(x_i)$ von Elementen von $V$ ist eine \begriff{Basis} von $V$, wenn gilt: \\
|
||||
(B1): Die Familie ist linear unabhängig. \\
|
||||
(B2): Die Familie erzeugt $V$, also $\Span_K(x_i) = V$.
|
||||
\end{definition}
|
||||
|
||||
\begin{remark}
|
||||
Kurz gesagt ist eine Basis ein linear unabhängiges Erzeugendensystem.
|
||||
\end{remark}
|
||||
|
||||
\begin{proposition}
|
||||
Sei $(x_i)$ eine Familie von Elementen von $V$. Genau dann ist $(x_i)$ eine Basis von $V$,
|
||||
wenn sich jedes $x \in V$ auf eindeutige Weise als Linearkombination der $(x_i)$ schreiben lässt.
|
||||
\end{proposition}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item Die leere Familie ist eine Basis des Nullraums.
|
||||
\item Die \begriff{Standardbasis} $(e_1,...,e_n)$ ist eine Basis des Standardraums.
|
||||
\item Die Monome $(X^i)$ bilden eine Basis des $K$-VR $K[X]$.
|
||||
\item Die Basis des $\mathbb R$-VR $\mathbb C$ ist gegeben durch $(1,i)$, eine Basis des $\mathbb C$-
|
||||
VR $\mathbb C$ ist gegeben durch $(1)$
|
||||
\item Der $\mathbb C$-VR $\mathbb C$ hat viele weitere Basen.
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{proposition}
|
||||
Für eine Familie $(x_i)$ von Elementen von $V$ sind äquivalent:
|
||||
\begin{itemize}
|
||||
\item $B$ ist eine Basis von $V$.
|
||||
\item $B$ ist ein minimales Erzeugendensystem.
|
||||
\item $B$ ist maximal linear unabhängig, d.h. $B$ ist linear unabhängig, aber wenn Elemente zur Basis
|
||||
hinzugefügt werden, ist diese nicht mehr linear unabhängig.
|
||||
\end{itemize}
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item $1 \Rightarrow 2$: Sei $B$ eine Basis von $V$ und $J$ eine echte Teilmenge von $I$. Nach Definition ist $B$ ein
|
||||
Erzeugendensystem. Wähle $i_0 \in I\backslash J$. Da $(x_i)$ linear unabhängig ist, ist $x_{i_0}$ keine Element
|
||||
$\Span_K((x_i)_{i \in I\backslash \{i_0\}}) \ge \Span_K((x_i)_{i \in J})$. Insbesondere ist $(x_i)_{i\in J}$ kein
|
||||
Erzeugendensystem von $V$.
|
||||
\item $2 \Rightarrow 3$: Sei $B$ ein minimales Erzeugendensystem und $(x_i)_{i \in J}$ eine Familie mit $J$ echter
|
||||
Obermenge von $I$. Wäre $(x_i)$ linear abhängig, so gäbe es ein $i_0$ mit $\Span_K((x_i)_{i \in I\backslash
|
||||
\{i_0\}}) = \Span_K((x_i)_{i \in I})=V$ im Widerspruch zur Minimalität von $B$. Also ist $B=(x_i)$ linear
|
||||
unabhängig. Wähle $j_0 \in J\backslash I$. Dann ist $x_{j_0} \in V=\Span_K(x_i) \le \Span_K((x_i)_{i \in
|
||||
J\backslash \{j_0\}})$ und somit ist $(x_i)_{i\in J}$ linear abhängig.
|
||||
\item $3 \Rightarrow 1$: Sei $B$ nun maximal linear unabhängig. Angenommen $B$ wäre kein Erzeugendensystem.
|
||||
Dann gibt es ein $x\in V \backslash \Span_K(x_i)$. Definiere $J=I \cup \{j_0\}$ mit $j_0 \notin I$ und $x_{j_0}:=x$.
|
||||
Aufgrund der Maximalität von $B$ ist $(x_i)$ linear abhängig, es gibt als Skalare $\lambda$, $(\lambda_i)$, nicht
|
||||
alle gleich 0, mit $\lambda\cdot x+\sum_{i \in I} \lambda_i\cdot x_i=0$. Da $(x_i)$ linear abhängig ist,
|
||||
muss $\lambda \neq 0$ sein, woraus der Widerspruch $x=\lambda^{-1}\cdot\sum_{i \in I} \lambda_i\cdot x_i
|
||||
\in \Span_K(x_i)$. Somit ist $B$ ein Erzeugendensystem.
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem}[Basisauswahlsatz]
|
||||
\proplbl{2_3_6}
|
||||
Jedes endliche Erzeugendensystem von $V$ besitzt eine Basis als
|
||||
Teilfamilie: Ist $(x_i)$ ein endliches Erzeugendensystem von $V$, so gibt es eine Teilmenge $J\subset I$,
|
||||
für die $(x_i)_{i\in J}$ eine Basis von $V$ ist.
|
||||
\end{theorem}
|
||||
\begin{proof}
|
||||
Sei $(x_i)$ ein endliches Erzeugendensystem von $V$. Definiere $\mathcal J:=\{J \subset I \mid (x_i)_{i\in J}\;
|
||||
\text{J ist Erzeugendensystem von }V\}$. Da $I$ endlich ist, ist auch $\mathcal J$ endlich. Da $(x_i)$
|
||||
Erzeugendensystem ist, ist $I\in J$, insbesondere $\mathcal J\neq\emptyset$. Es gibt deshalb ein bezüglich
|
||||
Inklusion minimales $J_0\in \mathcal J$, d.h. $J_1 \in \mathcal J$ so gilt nicht $J_1 \subsetneq J_0$. Deshalb
|
||||
ist $(x_i)_{i\in J_0}$ eine Basis von $V$.
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
Jeder endlich erzeugte $K$-VR besitzt eine endliche Basis.
|
||||
\end{conclusion}
|
||||
|
||||
\begin{remark}
|
||||
\begin{itemize}
|
||||
\item Der Beweis des Theorems liefert ein konstruktives Verfahren: Ist $(x_1,...,x_n)$ ein endliches
|
||||
Erzeugendensystem von $V$, so prüfe man, ob es ein $i_0$ mit $x_{i_0} \in \Span_K((x_i)_{i\neq i_0})$ gibt.
|
||||
Falls Nein, ist $(x_1,...,x_n)$ eine Basis von $V$. Falls Ja, macht man mit $(x_1,...,x_{i_{0-1}}, x_{i_{0+1}},
|
||||
...,x_n)$ weiter.
|
||||
\item Man kann jedoch zeigen, dass jeder Vektorraum eine Basis besitzt. Die Gültigkeit der Aussage hängt jedoch
|
||||
von bestimmten mengentheoretischen Axiomen ab, auf die wir an dieser Stelle nicht eingehen werden. Siehe dazu
|
||||
LAAG 2. Semester.
|
||||
\end{itemize}
|
||||
\end{remark}
|
||||
|
||||
\begin{lemma}[Austauschlemma]
|
||||
\proplbl{2_3_9}
|
||||
Sei $B=(x_1,...,x_n)$ eine Basis von $V$. Sind $\lambda_1,...,\lambda_n \in K$ und
|
||||
$y=\sum_{i=1}^n \lambda_i\cdot x_i$, so ist für jedes $j\in \{1,2,...,n\}$ mit $\lambda_j\neq 0$ auch
|
||||
$B'=(x_1,...,x_{j-1},y,x_{j+1},...,x_n)$ eine Basis von $V$.
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
oBdA. sei $j=1$, also $B'=(y,x_2,...,x_n)$. Wegen $\lambda_1\neq 0$ ist $x_1=\lambda_1^{-1}\cdot y - \sum
|
||||
_{i=2}^n \lambda_i\cdot x_i \in \Span_K(y,x_2,...,x_n)$ und somit ist $B'$ ein Erzeugendensystem. Sind
|
||||
$\mu_1,...,\mu_n \in K$ mit $\mu_1\cdot y - \sum_{i=2}^n \mu_i\cdot x_i=0$, so folgt $0=\mu_1(\sum
|
||||
_{i=1}^n \lambda_i\cdot x_i + \sum_{i=2}^n \mu_i\cdot x_i)=\mu_1\cdot \lambda_1\cdot x_1 + \sum
|
||||
_{i=2}^n (\mu_1\cdot \lambda_i + \mu_i)x_i$ und aus der linearen Unabhängigkeit von $B$ somit $\mu_1\cdot
|
||||
\lambda_1=0$, $\mu_1\cdot \lambda_2 + \mu_2 =0$, ..., $\mu_1\cdot\lambda_n + \mu_n=0$. Wegen $\lambda_1\neq 0$ folgt
|
||||
$\mu_1=0$ und daraus $\mu_i=0$. Folglich ist $B'$ linear unabhängig.
|
||||
\end{proof}
|
||||
|
||||
\begin{theorem}[\person{Steinitz}'scher Austauschsatz]
|
||||
\proplbl{2_3_10}
|
||||
Sei $B=(x_1,...,x_n)$ eine Basis von $V$ und $\mathcal F=(y_1,...
|
||||
,y_r)$ eine linear unabhängige Familie in $V$. Dann ist $r\le n$ und es gibt $i_1,...,i_{n-r} \in \{1,...,n\}$, für
|
||||
die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-r}})$ eine Basis von $V$ ist.
|
||||
\end{theorem}
|
||||
\begin{proof}
|
||||
Induktion nach $r$\\
|
||||
Für $r=0$ ist nichts zu zeigen. \\
|
||||
Sei nun $r\ge 1$ und gelte die Aussage für $(y_1,...,y_{r-1})$. Insbesondere ist $r-1\le n$ und es gibt $i_1,..,
|
||||
i_{n-(r-1)} \in \{1,...,n\}$ für die $B'=(y_1,...,y_r,x_{i_1},...,x_{i_{n-(r-1)}})$ eine Basis von $V$ ist. Da $y_r
|
||||
\in V=\Span_K(B')$ ist $y_r=\sum_{i=1}^{r-1} \lambda_i\cdot y_1 + \sum_{j=0}^{n-(r-1)} \mu_j\cdot
|
||||
x_{i_j}$. Da $(y_1,...,y_r)$ linear unabhängig, ist $y_r \notin \Span_K(y_1,...,y_{r-1})$. Folglich gibt es $j_0 \in
|
||||
\{1,...,n-(r-1)\}$ mit $\mu_{j_0}\neq 0$. Insbesondere ist $n-(r-1)\ge 1$, also $r\le n$. oBdA. $j_0=1$, dann
|
||||
ergibt sich mit dem Austauschlemma (\propref{2_3_9}), dass auch $(y_1,...,y_{r-1},y_r,x_{i_2},...,x_{i_{n-(r-1)}})$ eine Basis von
|
||||
$V$ ist.
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
Ist $V$ endlich erzeugt, so lässt sich jede linear unabhängige Familie zu einer Basis ergänzen:
|
||||
Ist $(x_1,...,x_n)$ linear unabhängig, so gibt es $m\ge n$ und $x_{n+1},x_{n+2},...,x_m$ für die $(x_1,...,x_n,
|
||||
x_{n+1},...,x_m)$ eine Basis von $V$ ist.
|
||||
\end{conclusion}
|
||||
\begin{proof}
|
||||
Nach dem Basisauswahlsatz (\propref{2_3_6}) besitzt $V$ eine endliche Basis, die Behauptung folgt somit aus dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}).
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
\proplbl{2_3_12}
|
||||
Sind $(x_i)$ und $(x_j)$ Basen von $V$ und ist $I$ endlich, so ist $|I|=|J|$.
|
||||
\end{conclusion}
|
||||
\begin{proof}
|
||||
Da $(y_r)$ linear unabhängig ist, ist $|J|\le |I|$ nach dem \person{Steinitz}'schen Austauschsatz (\propref{2_3_10}). Insbesondere ist $J$
|
||||
endlich, also $|I|\le |J|$ nach dem Austauschsatz (\propref{2_3_10}).
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
Ist $V$ endlich erzeugt, so haben alle Basen von $V$ die gleiche Mächtigkeit.
|
||||
\end{conclusion}
|
||||
\begin{proof}
|
||||
Besitzt $V$ eine endliche Basis, so folgt deshalb die Behauptung aus \propref{2_3_12}.
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[Dimension]
|
||||
Ist $V$ endlich erzeugt, so ist die \begriff{Dimension} des VR $V$ die Mächtigkeit $\dim_K(V)$
|
||||
einer Basis von $V$. Andernfalls sagt man, dass $V$ unendliche Dimensionen hat und schreibt $\dim_K(V)= \infty$.
|
||||
\end{definition}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item $\dim_K(K^n)=n$
|
||||
\item $\dim_K(K[X])=\infty$
|
||||
\item $\dim_K(K[X]_{\le n})=n+1$
|
||||
\item $\dim_{\mathbb R}(\mathbb C)=2$
|
||||
\item $\dim_{\mathbb C}(\mathbb C)=1$
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{remark}
|
||||
\begin{itemize}
|
||||
\item $V$ ist genau dann endlich erzeugt, wenn $\dim_K(V)< \infty$.
|
||||
\item $\dim_K(V)=\min\{|B| \mid \Span_K(B)=V\}=\max\{|B| \mid B\text{ linear unabhängig}\}$
|
||||
\end{itemize}
|
||||
\end{remark}
|
||||
|
||||
\begin{proposition}
|
||||
Sei $V$ endlich erzeugt und $W\le V$ ein UVR.
|
||||
\begin{itemize}
|
||||
\item Es ist $\dim_K(W)\le \dim_K(V)$. Insbesondere ist $W$ endlich erzeugt.
|
||||
\item Ist $\dim_K(W)=\dim_K(V)$, so ist auch $W=V$.
|
||||
\end{itemize}
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item Ist $F$ eine linear unabhängige Familie in $W$, so ist auch $F$ linear unabhängig in $V$ und somit $|F|\le
|
||||
\dim_K(V)$. Insbesondere gibt es eine maximal linear unabhängige Familie $B$ in $W$ und es folgt $\dim_K(W)=|B|
|
||||
\le \dim_K(V)$.
|
||||
\item Sei $B$ eine Basis von $W$. Dann ist $B$ auch in $V$ linear unabhängig. Ist $\dim_K(W)=\dim_K(V)$, so muss
|
||||
auch $B$ in $V$ maximal linear unabhängig sein. Insbesondere ist $W=\Span_K(B)=V$.
|
||||
\end{itemize}
|
||||
\end{proof}
|
|
@ -1 +1,153 @@
|
|||
\section{Homomorphismen von Gruppen}
|
||||
|
||||
Seien $G,H$ zwei multiplikativ geschriebene Gruppen.
|
||||
|
||||
\begin{definition}[Gruppenhomomorphismus]
|
||||
Eine Abbildung $f: G \to H$ ist ein \begriff{Gruppenhomomorphismus}, wenn gilt: \\
|
||||
(GH): $f(xy)=f(x)\cdot f(y)$ \\
|
||||
Die Menge der Homomorphismen $f:G\to H$ bezeichnet man mit $\Hom(G,H)$.
|
||||
\end{definition}
|
||||
|
||||
\begin{remark}
|
||||
Ein Gruppenhomomorphismus ist also eine Abbildung, welche mit der Verknüpfung, also der Struktur
|
||||
der Gruppe, verträglich ist. Man beachte: für additiv geschrieben Gruppen lautet die Bedingung: $f(x+y)=f(x)+f(y)$.
|
||||
\end{remark}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item $id_G: G \to G$
|
||||
\item $c_1:G\to H$ mit $x\mapsto 1_H$
|
||||
\item $G_0\le G$ Untergruppe, $\iota:G_0\to G$
|
||||
\item $(A,+)$ abelsche Gruppe, $k\in \mathbb Z$, $A\to A$ mit $a\mapsto ka$
|
||||
\item $\mathbb Z \to \mathbb Z\backslash n\mathbb Z$ mit $\overline a \mapsto a+n\mathbb Z$
|
||||
\item $\mathbb R \to \mathbb R^{\times}$ mit $x\mapsto e^x$
|
||||
\item $Mat_n(K)\to Mat_n(K)$ mit $A\mapsto A^t$
|
||||
\item $\mathbb C\to \mathbb R^{\times}$ mit $z\mapsto |z|$
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{proposition}
|
||||
Sei $f\in \Hom(G,H)$. Dann gilt:
|
||||
\begin{itemize}
|
||||
\item $f(1_G)\to 1_H$
|
||||
\item Für $x\in G$ ist $f(x^{-1})=(f(x))^{-1}$.
|
||||
\item Für $x_1,...,x_n\in G$ ist $f(x_1,...,x_n)=f(x_1)\cdot ... \cdot f(x_n)$.
|
||||
\item Ist $G_0\le G$, so ist $f(G_0)\le H$.
|
||||
\item Ist $H_0\le H$, so ist $f^{-1}(H_0)\le G$.
|
||||
\end{itemize}
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item $f(1)=f(1\cdot 1)=f(1)\cdot f(1) \Rightarrow$ kürzen, weil $H$ Gruppe $\Rightarrow 1=f(1)$
|
||||
\item $f(x)\cdot f(x^{-1})=f(x\cdot x^{-1})=f(1)=1$
|
||||
\item Induktion nach $n$
|
||||
\item $x,y\in G_0\Rightarrow f(x)\cdot f(y)=f(xy)\in f(G_0)$, $f^{-1}(x)=f(x^{-1})\in f(G_0)$
|
||||
\item $x,y\in f^{-1}(H_0)\Rightarrow f(x)\cdot f(y)=f(xy)\in H_0\Rightarrow xy\in f^{-1}(H_0)$, $f(x^{-1})=(f(x))
|
||||
^{-1}\in H_0\Rightarrow x^{-1}\in f^{-1}(H_0)$, $f(1)=1\in H_0\Rightarrow 1\in f^{-1}(H_0)$, insbesondere
|
||||
$f^{-1}(H_0)\neq \emptyset$
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{proposition}
|
||||
Seien $G_1,G_2,G_3$ Gruppen. Sind $f_1:G_1\to G_2$, $f_2:G_2\to G_3$ Homomorphismen, so ist auch
|
||||
$f_2\circ f_1:G_1\to G_3$.
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Für $x,y\in G_1$ ist $(f_2\circ f_1)(xy)=f_2(f_1(xy))=f_2(f_1(x)\cdot f_1(y))=f_2(f_1(x))\cdot f_2(f_1(y))=(f_2
|
||||
\circ f_1)(x)\cdot (f_2\circ f_1)(y)$
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[Arten von Homomorphismen]
|
||||
Ein Homomorphismus ist \\
|
||||
ein \begriff{Monomorphismus}, wenn $f$ injektiv ist, \\
|
||||
ein \begriff{Epimorphismus}, wenn $f$ surjektiv ist, \\
|
||||
ein \begriff{Isomorphismus}, wenn $f$ bijektiv ist. Die Gruppen $G$ und $H$ heißen \begriff{isomorph}, in Zeichen $G\cong H$, wenn
|
||||
es einen Isomorphismus $G\to H$ gibt.
|
||||
\end{definition}
|
||||
|
||||
\begin{lemma}
|
||||
\proplbl{3_2_7}
|
||||
Ist $f:G\to H$ ein Isomorphismus, so ist auch $f^{-1}:H\to G$ ein Isomorphismus.
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Da $f^{-1}$ wieder bijektiv ist, müssen wir nur zeigen, dass $f^{-1}$ ein Homomorphismus ist. Seien $x,y\in H$. Dann
|
||||
ist $f(f^{-1}(x)\cdot f^{-1}(y))=f(f^{-1}(x))\cdot f(f^{-1}(y))=xy$, somit $f^{-1}(xy)=f^{-1}(x)\cdot f^{-1}(y)$.
|
||||
\end{proof}
|
||||
|
||||
\begin{proposition}
|
||||
\proplbl{3_2_8}
|
||||
Sei $f:G\to H$ ein Homomorphismus. Genau dann ist $f$ ein Isomorphismus, wenn es einen Homomorphismus
|
||||
$f':H\to G$ mit $f'\circ f=\id_G$ und $f\circ f'=\id_H$ gibt.
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Ist $f$ ein Isomorphismus, so erfüllt $f':=f^{-1}$ das Gewünschte. Ist umgekehrt $f'$ wie angegeben, so muss $f$
|
||||
bijektiv sein:
|
||||
\begin{itemize}
|
||||
\item $f'\circ f=\id_G$ injektiv $\Rightarrow f$ injektiv
|
||||
\item $f\circ f'=\id_H$ surjektiv $\Rightarrow f$ surjektiv
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
Isomorphie von Gruppen ist eine \begriff{Äquivalenzrelation}: Sind $G,G_1,G_2,G_3$ Gruppen, so gilt:
|
||||
\begin{itemize}
|
||||
\item $G\cong G$ (Reflexivität)
|
||||
\item Ist $G_1\cong G_2$, so ist auch $G_2\cong G_1$ (Symmetrie)
|
||||
\item Ist $G_1\cong G_2$ und $G_2\cong G_3$, dann ist auch $G_1\cong G_3$ (Transitivität)
|
||||
\end{itemize}
|
||||
\end{conclusion}
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item $\id_G$ ist ein Isomorphismus
|
||||
\item \propref{2_3_7}
|
||||
\item \propref{2_3_8} und A18
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{remark}
|
||||
Der letzte Satz erklärt die Bedeutung des Isomorphismus: Eine mit der Struktur verträgliche
|
||||
Abbildung, die eine mit der Struktur verträgliche Umkehrabbildung besitzt, also eine strukturerhaltende Abbildung.
|
||||
Tatsächlich können wir uns einen Isomorphismus $f: G\to H$ so vorstellen, dass wir nur die Elemente von $G$ umbenennen.
|
||||
Alle Aussagen, die sich nur aus der Struktur selbst ergeben, bleiben damit wahr. Zum Beispiel: Ist $G\cong H$ und ist
|
||||
$G$ abelsch, so auch $H$ und umgekehrt.
|
||||
\end{remark}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item Es ist $\mathbb Z^{\times} = \mu_2 \cong \mathbb Z\backslash 2\mathbb Z\cong (\mathbb Z\backslash 3\mathbb Z)
|
||||
^{\times}\cong S_2$. Je zwei beliebige Gruppen der Ordnung 2 sind zueinander isomorph.
|
||||
\item $e: \mathbb R \to \mathbb R_{>0}$, $x\mapsto e^x$ liefert einen Isomorphismus, da $(\mathbb R,+)\to
|
||||
(\mathbb R,\cdot)$.
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{definition}[Kern]
|
||||
Der \begriff{Kern} eines Gruppenhomomorphismus $f:G\to H$ ist $\Ker(f):= f^{-1}(\{1\})=\{x\in G \mid
|
||||
f(x)=1_H\}$.
|
||||
\end{definition}
|
||||
|
||||
\begin{lemma}
|
||||
Ist $f:G\to H$ ein Homomorphismus, so ist $N:=\Ker(f)$ eine Untergruppe von $G$ mit $x\cdot y\cdot
|
||||
x^{-1}\in N$ für alle $x\in G$ und $y\in N$.
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Es ist $N\le G$. Für $x\in G$ und $y\in N$ ist $f(xyx^{-1})=f(x)\cdot f(y)\cdot f(x^{-1})=f(x)\cdot f(x^{-1}) \cdot 1=
|
||||
f(x)\cdot f(x^{-1})=1$, also $xyx^{-1}\in N$.
|
||||
\end{proof}
|
||||
|
||||
\begin{proposition}
|
||||
Sei $f\in \Hom(G,H)$. Genau dann ist $f$ injektiv, wenn $\Ker(f)=\{1_G\}$.
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Schreibe $N=\Ker(f)$.
|
||||
\begin{itemize}
|
||||
\item Hinrichtung: Ist $f$ injektiv, so ist $N\le G$ mit $|N|\le 1$, also $N=\{1_G\}$.
|
||||
\item Rückrichtung: Sei $N=\{1_G\}$. Sind $x,y\in G$ mir $f(x)=f(y)$, so ist $1=(f(x))^{-1}\cdot f(y)=f(x^{-1}\cdot y)$,
|
||||
also $x^{-1}\cdot y\in N=\{1\}$ und somit $x=y$. Folglich ist $f$ injektiv.
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[Normalteiler]
|
||||
Ist $N\le G$ mit $x^{-1}y\in N$ für alle $x\in G$ und $y\in N$, so nennt man $N$
|
||||
einen \begriff{Normalteiler} von $G$ und schreibt $N\vartriangleleft G$.
|
||||
\end{definition}
|
|
@ -1 +1,157 @@
|
|||
\section{Matrizen}
|
||||
|
||||
Sei $K$ ein Körper.
|
||||
|
||||
\begin{definition}[Matrix]
|
||||
Seien $m,n \in \mathbb N_0$. Eine $m\times n$-\begriff{Matrix} über $K$ ist ein rechteckiges
|
||||
Schema:
|
||||
\begin{align}
|
||||
\begin{pmatrix}
|
||||
a_{11} & ... & a_{1n}\\
|
||||
... & & ...\\
|
||||
a_{m1} & ... & a_{mn}\\
|
||||
\end{pmatrix}\notag
|
||||
\end{align}
|
||||
Man schreibt dies auch als $A=(a_{ij})_{i=1,...,n \; j=1,...,m}$ oder $A=(a_{ij})_{i,j}$, wenn $m$ und $n$
|
||||
aus dem Kontext hervorgehen. Die $a_{ij}$ heißen die \begriff[Matrix!]{Koeffizienten} der Matrix $A$ und wir definieren $A_{i,j}=
|
||||
a_{ij}$. Die Menge der $m\times n$-Matrizen über $K$ wird mit $\Mat_{m\times n}(K)$ oder $K^{m\times n}$
|
||||
bezeichnet. Man nennt das Paar $(m,n)$ auch den \begriff[Matrix!]{Typ} von $A$. Ist $m=n$, so spricht man von \begriff[Matrix!]{quadratisch}en
|
||||
Matrizen und schreibt $\Mat_n(K)$. Zu einer Matrix $A=(a_{ij}) \in \Mat_{m\times n}(K)$ definiert man die zu $A$
|
||||
\begriff[Matrix!]{transponierte Matrix} $A^t := (a_{ij})_{j,i} \in \Mat_{n\times m}(K)$.
|
||||
\end{definition}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item Die \begriff{Nullmatrix} ist $0=(0)_{i,j} \in \Mat_{m\times n}(K)$.
|
||||
\item Für $k,l \in \{1,...,n\}$ ist die $(k,l)$-\begriff{Basismatrix} gegeben durch $E_{kl}=(\delta_{jk}\delta_{jl})\in
|
||||
\Mat_{m\times n}(K)$.
|
||||
\item Die \begriff{Einheitsmatrix} ist $1_n=(\delta_{ii})\in \Mat_n(K)$.
|
||||
\item Für $a_i,...,a_n \in K$ definiert man eine \begriff{Diagonalmatrix} $\diag(a_1,...,a_n)=(\delta_{ij}\cdot a_i)$.
|
||||
\item Für eine Permutation $\sigma\in S_n$ definiert man die \begriff{Permutationsmatrix} $P_\sigma := (\delta_{\sigma
|
||||
(i),j})$.
|
||||
\item Für $a_1,...,a_n$ definiert man einen \begriff{Zeilenvektor} $(a_1,...,a_n)\in \Mat_{1\times n}(K)$ bzw. einen
|
||||
\begriff{Spaltenvektor} $(a_1,...,a_n)^t$.
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{definition}[Addition und Skalarmultiplikation]
|
||||
Seien $A=(a_{ij})$ und $B=(b_{ij})$ desselben Typs und
|
||||
$\lambda \in K$. Man definiert auf $\Mat_{m\times n}(K)$ eine koeffizientenweise \begriff[Matrix!]{Addition} und \begriff[Matrix!]{Skalarmultiplikation}.
|
||||
\end{definition}
|
||||
|
||||
\begin{proposition}
|
||||
$(\Mat_{m\times n},+,\cdot)$ ist ein $K$-VR der Dimension $\dim_K(\Mat_{m\times n})=n\cdot m$ mit
|
||||
Basismatrix als Basis.
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Dies ist klar, weil wir $\Mat_{m\times n}$ mit dem Standardraum $K^{mn}$ identifizieren können. Wir haben die
|
||||
Elemente nur als $m\times n$-Matrix statt als $mn$-Tupel geschrieben.
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[Matrizenmultiplikation]
|
||||
Seien $m,n,r \in \mathbb N_0$. Sind $A=(a_{ij})\in \Mat_{m\times n}(K)$,
|
||||
$B=(b_{jk})\in \Mat_{n\times r}(K)$ so definieren wir die \begriff[Matrix!]{Matrizenmultiplikation} $C=AB$ als die Matrix $C=(c_{ik})\in \Mat_{m\times r}(K)$ mit
|
||||
$c_{ik}=\sum_{j=1}^n a_{ij}\cdot b_{jk}$. Kurz geschrieben "'Zeile $\cdot$ Spalte"'.
|
||||
\end{definition}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item Für $A\in \Mat_n(K)$ ist $0\cdot A=0$ und $1\cdot A=A$.
|
||||
\item Für $\sigma \in S_n$ und $A\in \Mat_{n\times r}(K)$ geht $P_{\sigma}\cdot A$ aus $A$ durch Permutation der
|
||||
Zeilen hervor.
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{lemma}
|
||||
Für $m,n,r \in \mathbb N_0$ und $A=(a_{ij})\in \Mat_{m\times n}(K)$, $B=(b_{jk})\in \Mat_
|
||||
{n\times r}(K)$ und $\lambda\in K$ gilt:
|
||||
\begin{align}
|
||||
A(\lambda B)=(\lambda A)B=\lambda(AB)\notag
|
||||
\end{align}
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Schreibe $A=(a_{ij})$, $B=(b_{jk})$. Dann ist $A(\lambda B)=\sum_{j=1}^n a_{ij}\cdot \lambda b_{jk}=\sum
|
||||
_{j=1}^n \lambda a_{ij} \cdot b_{jk}=(\lambda A)B=\lambda \cdot \sum_{j=1}^n a_{ij}b_{jk}=\lambda
|
||||
(AB)$.
|
||||
\end{proof}
|
||||
|
||||
\begin{lemma}
|
||||
Matrizenmultiplikation ist assoziativ:
|
||||
\begin{align}
|
||||
A(BC)=(AB)C\notag
|
||||
\end{align}
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Sei $D=BC\in \Mat_{n\times s}(K)$, $E=AB \in \Mat_{m\times r}(K)$. Schreibe $A=(a_{ij})$ usw. Für $i,l$ ist $(AD)=
|
||||
\sum_{j=1}^n a_{ij}d_{jl}=\sum_{j=1}^n a_{ij}\cdot \sum_{k=1}^r b_{jk}c_{kl}=\sum
|
||||
_{j=1}^n \sum_{k=1}^n a_{ij}b_{jk}c_{kl}$. \\
|
||||
$(EC)=\sum_{k=1}^n e_{ik}c_{kl}=\sum_{k=1}^r \sum_{j=1}^n a_{ij}b_{jk}c_{kl}$. Also ist
|
||||
$AD=EC$.
|
||||
\end{proof}
|
||||
|
||||
\begin{lemma}
|
||||
Für $m,n,r\in \mathbb N_0$ und $A,A'\in \Mat_{m\times n}(K)$, $B,B'\in \Mat_{n\times r}(K)$ ist
|
||||
\begin{align}
|
||||
(A+A')B&=AB+A'B\notag \\
|
||||
A(B'+B)&=AB'+AB\notag
|
||||
\end{align}
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Schreibe $A=(a_{ij})$ etc. Dann ist $(A+A')B=\sum_{j=1}^n (a_{ij}+a'{ij})b_{jk}=\sum_{j=1}^n
|
||||
a_{ij}+b_{jk} + \sum_{j=1}^n a'_{ij}+b_{jk}=(AB+A'B)$. Rest analog.
|
||||
\end{proof}
|
||||
|
||||
\begin{proposition}
|
||||
Mit der Matrizenmultiplikation wird $\Mat_n(K)$ zu einem Ring mit Einselement $1$.
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Die vorherigen Sätze und Lemmas.
|
||||
\end{proof}
|
||||
|
||||
\begin{example}
|
||||
\begin{itemize}
|
||||
\item Für $n=1$ können wir dem Ring $\Mat_n(K)$ mit $K$ identifizieren, der Ring ist also ein Körper,
|
||||
insbesondere ist er kommutativ.
|
||||
\item Für $n\ge 2$ ist $\Mat_n(K)$ nicht kommutativ.
|
||||
\end{itemize}
|
||||
\end{example}
|
||||
|
||||
\begin{definition}[invertierbar]
|
||||
Eine Matrix $A\in \Mat_n(K)$ heißt \begriff[Matrix!]{invertierbar} oder \begriff[Matrix!]{regulär}, wenn sie im Ring
|
||||
$\Mat_n(K)$ invertierbar ist, sonst \begriff[Matrix!]{singulär}. Die Gruppe $\GL_n(K)=\Mat_n(K)^{\times}$ der invertierbaren $n\times n$
|
||||
-Matrizen heißt \begriff{allgemeine Gruppe}.
|
||||
\end{definition}
|
||||
|
||||
\begin{example}
|
||||
Sei $n=2$. Zu
|
||||
\begin{align}
|
||||
A=\begin{pmatrix}a & b\\c & d\\\end{pmatrix} \in \Mat_2(K)\notag
|
||||
\end{align}
|
||||
definiert man
|
||||
\begin{align}
|
||||
\tilde A=
|
||||
\begin{pmatrix}d & -b\\-c & a\\\end{pmatrix}\in \Mat_2(K)\notag
|
||||
\end{align}
|
||||
Man prüft nach, dass $A\cdot \tilde A=\tilde A\cdot A=
|
||||
(ad-bc)\cdot 1_2$. Definiert man nun $\det(A)=ad-bc$ so sieht man: Ist $\det(A)\neq 0$, so ist $A$ invertierbar mit
|
||||
$A^{-1}=\det(A)^{-1}\cdot \tilde A$. Ist $\det(A)=0$ so $A$ ist Nullteiler und somit nicht invertierbar.
|
||||
\end{example}
|
||||
|
||||
\begin{lemma}
|
||||
Für $A,A_1,A_2\in \Mat_{m\times n}(K)$ und $B=\Mat_{n\times r}(K)$ ist
|
||||
\begin{itemize}
|
||||
\item $(A^t)^t=A$
|
||||
\item $(A_1+A_2)^t=A_1^t + A_2^t$
|
||||
\item $(AB)^t=B^tA^t$
|
||||
\end{itemize}
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Übung
|
||||
\end{proof}
|
||||
|
||||
\begin{proposition}
|
||||
Für $A\in \GL_n(K)$ ist $A^t\in \GL_n(K)$ und $(A^{-1})^t = (A^t)^{-1}$
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Aus $AA^{-1}=1$ folgt, dass $(A^{-1})^tA^t=1_n^t=1_n$. Somit ist $(A^{-1})^t$ das Inverse zu $A^t$.
|
||||
\end{proof}
|
|
@ -1 +1,129 @@
|
|||
\section{Summen von VR}
|
||||
|
||||
Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
|
||||
|
||||
\begin{definition}[Summe von Vektorräumen]
|
||||
Die \begriff[Vektorraum!]{Summe} der $W_i$ ist der UVR
|
||||
\begin{align}
|
||||
\sum_{i\in I} W_i := \Span_K\left(\bigcup W_i\right)\notag
|
||||
\end{align}
|
||||
Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1+...+W_n$ für $\sum_{i=1}^n W_i$.
|
||||
\end{definition}
|
||||
|
||||
\begin{lemma}
|
||||
Es ist $\sum_{i\in I} W_i = \{\sum_{i\in I} x_i \mid x_i\in W_i\text{, fast alle
|
||||
gleich 0}\}$.
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
\begin{itemize}
|
||||
\item $"\supseteq"$: klar, $\sum x_i \in \Span_K(\bigcup W_i)$
|
||||
\item $"\subseteq"$: Die rechte Seite enthält jedes $W_i$ und ist ein UVR von $V$: \\
|
||||
Für $x_i,x'_i \in W$, fast alle gleich 0 und $\lambda \in K$ ist $\sum x_i + \sum x'_i = \sum (x_i+x'_i)$, $\lambda
|
||||
\cdot \sum x_i = \sum \lambda\cdot x_i$ $\Rightarrow$ UVR
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[direkte Summe]
|
||||
Ist jedes $x\in \sum W_i$ eindeutig als Summe von $x_i$ mit $x_i\in W_i$
|
||||
darstellbar, so sagt man, dass $\sum W_i$ die \begriff{direkte Summe} der UVR $W_i$ ist und schreibt $\oplus W_i$ für
|
||||
$\sum W_i$. Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1\oplus W_2 \oplus ... \oplus W_n$ für $\oplus W_i$.
|
||||
\end{definition}
|
||||
|
||||
\begin{example}
|
||||
Ist $(x_1,...,x_n)$ eine Basis von $V$, so ist $V=Kx_1\oplus ... \oplus Kx_n$.
|
||||
\end{example}
|
||||
|
||||
\begin{remark}
|
||||
Wir wollen uns näher mit dem wichtigen Spezialfall $I=\{1,2\}$ beschäftigen und schreiben noch
|
||||
mal auf:
|
||||
\begin{itemize}
|
||||
\item $V=W_1\oplus W_2$
|
||||
\item $V=W_1 + W_2$ und $W_1 \cap W_2 = \{0\}$
|
||||
\end{itemize}
|
||||
\end{remark}
|
||||
|
||||
\begin{proposition}
|
||||
Sind $W_1,W_2$ UVR von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
|
||||
I_2 = \emptyset$, so sind äquivalent:
|
||||
\begin{itemize}
|
||||
\item $V=W_1 \oplus W_2$
|
||||
\item $(x_i)_{i\in I_1 \cap I_2}$ ist eine Basis von $V$
|
||||
\end{itemize}
|
||||
\end{proposition}
|
||||
\begin{proof}
|
||||
Sei $I=I_1 \cup I_2$.
|
||||
\begin{itemize}
|
||||
\item $1\Rightarrow 2$: Da $\Span_K((x_i)_{i\in I_1})=W_1$ und $\Span_K((x_i)_{i\in I_2})=W_2$ ist $\Span_K((x_i)
|
||||
_{i\in I})=W_1+W_2=V$. Ist $\sum \lambda_ix_i=0$, so ist $\sum_{i\in I_1} \lambda_ix_i = -\sum
|
||||
_{i\in I_2} \lambda_ix_i \in W_1 \cap W_2 = \{0\}$. Da $(x_i)_{i\in I_1}$ linear unabhängig ist, ist
|
||||
$\lambda_i=0$, analog für $i\in I_2$.
|
||||
\item $2\Rightarrow 1$: $W_1+W_2=\Span_K((x_i)_{i\in I_1})+\Span_K((x_i)_{i\in I_2})=\Span_K((x_i)_{i\in I})=V$. Ist
|
||||
$x\in W_1 \cap W_2$, so ist $x=\sum_{i\in I_1} \lambda_ix_i = \sum_{i\in I_2} \lambda_ix_i$. Somit
|
||||
$0=\sum_{i\in I_1} \lambda_ix_i - \sum_{i\in I_2} \lambda_ix_i$, woraus wegen $(x_i)_{i\in I}$
|
||||
linear unabhängig schon $\lambda_i=0$ folgt. Somit ist $x=0$.
|
||||
\end{itemize}
|
||||
\end{proof}
|
||||
|
||||
\begin{conclusion}
|
||||
Ist $\dim_K(V)<\infty$, so ist jeder UVR ein direkter Summand: Ist $W$ ein UVR von $V$, so
|
||||
gibt es einen UVR $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
|
||||
ist
|
||||
\begin{align}
|
||||
\dim_K(W')=\dim_K(V)-\dim_K(W)\notag
|
||||
\end{align}
|
||||
\end{conclusion}
|
||||
\begin{proof}
|
||||
Sei $(x_1,...,x_m)$ eine Basis von $W$. Nach dem Basisergänzungssatz lässt sich diese zu einer Basis $(x_1,...,x_n)$
|
||||
von $V$ ergänzen. Mit $W':= \Span_K(x_{m+1},...,x_n)$ ist dann $V=W\oplus W'$.
|
||||
%TODO: Wo ist der Basisergänzungssatz?
|
||||
\end{proof}
|
||||
|
||||
\begin{remark}
|
||||
Ist $\dim_K(V)<\infty$, so folgt aus $W_1\cap W_2=\{0\}$ also insbesondere $\dim_K(W_1+W_2)=
|
||||
\dim_K(W_1)+\dim_K(W_2)$.
|
||||
\end{remark}
|
||||
|
||||
\begin{theorem}[Dimensionsformel]
|
||||
Sei $\dim_K(V)<\infty$. Für UVR $W_1,W_2$ von $V$ gilt:
|
||||
\begin{align}
|
||||
\dim_K(W_1+W_2) + \dim_K(W_1 \cap W_2) = \dim_K(W_1) + \dim_K(W_2)\notag
|
||||
\end{align}
|
||||
\end{theorem}
|
||||
\begin{proof}
|
||||
Da $\dim_K(V)<\infty$ haben alle UVR von $V$ Basen. Sei also $B_0=(X_1,...,x_n)$ eine Basis von $W_1\cap W_2$. Nach
|
||||
dem Basisergänzungssatz können wir $B_0$ zu den Basen $B_1=(x_1,...,x_n,y_1,...,y_p)$ von $W_1$ und $B_2=(x_1,...,
|
||||
x_n,z_1,...,z_q)$ von $W_2$ ergänzen. Wir behaupten, dass $B=(x_1,...,x_n,y_1,...,y_p,z_1,...,z_q)$ eine Basis von
|
||||
$W_1+W_2$ ist. Offenbar ist $B$ ein Erzeugendensystem von $W_1+W_2$. Seien nun $\lambda_1,...,\lambda_n,\mu_1,...,
|
||||
\mu_p,\eta_1,...,\eta_q \in K$ mit $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j + \sum
|
||||
_{k=1}^q \eta_kz_k=0$. Dann ist $\sum_{i=1}^n \lambda_ix_i + \sum_{j=1}^p \mu_jy_j = -\sum
|
||||
_{k=1}^q \eta_kz_k \in W_1 \cap W_2$. Da $\Span_K(B_0)=W_1\cap W_2$ und $B_1$ linear unabhängig ist, ist
|
||||
$\mu_j=0$. Analog zeigt man auch, dass $\eta_k=0$. Aus $B_0$ linear unabhängig folgt dann auch, dass $\lambda_i=0$.
|
||||
Somit ist $B$ linear unabhängig. Wir haben gezeigt, dass $B$ eine Basis von $W_1+W_2$ ist. \\
|
||||
$\Rightarrow \dim_K(W_1)+\dim_K(W_2)=|B_1|+|B_2|=(n+p)+(n-q)=(n+p+q)+n=|B|+|B_0|=\dim_K(W_1+W_2)+\dim_K(W_1\cap W_2)$.
|
||||
\end{proof}
|
||||
|
||||
\begin{definition}[externes Produkt]
|
||||
Das \begriff{externe Produkt} einer Familie $(V_i)$ von $K$-VR ist der $K$-VR
|
||||
$\prod V_i$ bestehend aus dem kartesischen Produkt der $V_i$ mit komponentenweiser Addition und
|
||||
Skalarmultiplikation, $(x_i)+(x'_i) := (x_i+x'_i)$ und $\lambda(x_i) := (\lambda x_i).$
|
||||
\end{definition}
|
||||
|
||||
\begin{definition}[externe Summe]
|
||||
Die \begriff{externe Summe} einer Familie $(V_i)$ von $K$-VR ist der UVR
|
||||
$\oplus V_i := \{(x_i) \in \prod V_i \mid x_i=0 \text{; für fast alle }i\}$ des $K$-VR $\prod V_i$.
|
||||
\end{definition}
|
||||
|
||||
\begin{remark}
|
||||
Man prüft sofort nach, dass $\prod V_i$ ein $K$-VR ist und $\oplus V_i$ ein UVR davon ist. Für
|
||||
endliche Indexmengen ist $\prod V_i = \oplus V_i$, z.B. $K^n = \prod_{i=1}^n K = \oplus K$.
|
||||
\end{remark}
|
||||
|
||||
\begin{lemma}
|
||||
Sei $(V_i)$ eine Familie von $K$-VR und sei $V=\oplus V_i$. Für jedes $j\in I$ ist $\tilde V_j :=
|
||||
V \times \prod_{i\in I\backslash\{j\}} \{0\}$ ein UVR von $V$ und $V=\oplus \tilde V_j$
|
||||
\end{lemma}
|
||||
\begin{proof}
|
||||
Ist $x=(x_i)\in V$ mit $x_i\in V_i$, fast alle $x_i=0$, so ist $x=\sum \tilde x_i$ mit $\tilde x:=(x_i\delta_{ij})
|
||||
\in \tilde V_j$. Somit ist $V=\sum \tilde V_i$. Die Gleichung $\tilde V_i \cap \sum_{j\neq i} \tilde V_j
|
||||
=\{0\}$ folgt aus Definition der $\tilde V_i.$
|
||||
\end{proof}
|
Binary file not shown.
Loading…
Add table
Reference in a new issue