Merge branch 'anotherthread' of https://github.com/henrydatei/TUD_MATH_BA into anotherthread

This commit is contained in:
epsilonbelowzero 2018-06-18 14:16:05 +02:00
commit 2887e685da
10 changed files with 641 additions and 76 deletions

View file

@ -19,10 +19,10 @@
\begin{itemize}
\item Die leere Familie ist eine Basis des Nullraums.
\item Die \begriff{Standardbasis} $(e_1,...,e_n)$ ist eine Basis des Standardraums.
\item Die Monome $(X^i)$ bilden eine Basis des $K$-VR $K[X]$.
\item Die Basis des $\mathbb R$-VR $\mathbb C$ ist gegeben durch $(1,i)$, eine Basis des $\mathbb C$-
VR $\mathbb C$ ist gegeben durch $(1)$
\item Der $\mathbb C$-VR $\mathbb C$ hat viele weitere Basen.
\item Die Monome $(X^i)$ bilden eine Basis des $K$-Vektorraum $K[X]$.
\item Die Basis des $\mathbb R$-Vektorraum $\mathbb C$ ist gegeben durch $(1,i)$, eine Basis des $\mathbb C$-
Vektorraum $\mathbb C$ ist gegeben durch $(1)$
\item Der $\mathbb C$-Vektorraum $\mathbb C$ hat viele weitere Basen.
\end{itemize}
\end{example}
@ -58,11 +58,11 @@
\begin{theorem}[Basisauswahlsatz]
\proplbl{2_3_6}
Jedes endliche Erzeugendensystem von $V$ besitzt eine Basis als
Teilfamilie: Ist $(x_i)$ ein endliches Erzeugendensystem von $V$, so gibt es eine Teilmenge $J\subset I$,
Teilfamilie: Ist $(x_i)$ ein endliches Erzeugendensystem von $V$, so gibt es eine Teilmenge $J\subseteq I$,
für die $(x_i)_{i\in J}$ eine Basis von $V$ ist.
\end{theorem}
\begin{proof}
Sei $(x_i)$ ein endliches Erzeugendensystem von $V$. Definiere $\mathcal J:=\{J \subset I \mid (x_i)_{i\in J}\;
Sei $(x_i)$ ein endliches Erzeugendensystem von $V$. Definiere $\mathcal J:=\{J \subseteq I \mid (x_i)_{i\in J}\;
\text{J ist Erzeugendensystem von }V\}$. Da $I$ endlich ist, ist auch $\mathcal J$ endlich. Da $(x_i)$
Erzeugendensystem ist, ist $I\in J$, insbesondere $\mathcal J\neq\emptyset$. Es gibt deshalb ein bezüglich
Inklusion minimales $J_0\in \mathcal J$, d.h. $J_1 \in \mathcal J$ so gilt nicht $J_1 \subsetneq J_0$. Deshalb
@ -70,7 +70,7 @@
\end{proof}
\begin{conclusion}
Jeder endlich erzeugte $K$-VR besitzt eine endliche Basis.
Jeder endlich erzeugte $K$-Vektorraum besitzt eine endliche Basis.
\end{conclusion}
\begin{remark}
@ -145,7 +145,7 @@
\end{proof}
\begin{definition}[Dimension]
Ist $V$ endlich erzeugt, so ist die \begriff{Dimension} des VR $V$ die Mächtigkeit $\dim_K(V)$
Ist $V$ endlich erzeugt, so ist die \begriff{Dimension} des Vektorraum $V$ die Mächtigkeit $\dim_K(V)$
einer Basis von $V$. Andernfalls sagt man, dass $V$ unendliche Dimensionen hat und schreibt $\dim_K(V)= \infty$.
\end{definition}
@ -167,7 +167,7 @@
\end{remark}
\begin{proposition}
Sei $V$ endlich erzeugt und $W\le V$ ein UVR.
Sei $V$ endlich erzeugt und $W\le V$ ein Untervektorraum.
\begin{itemize}
\item Es ist $\dim_K(W)\le \dim_K(V)$. Insbesondere ist $W$ endlich erzeugt.
\item Ist $\dim_K(W)=\dim_K(V)$, so ist auch $W=V$.

View file

@ -1 +1,128 @@
\section{Das Vorzeichen einer Permutation}
In diesem Kapitel sei $K$ ein Körper und $R$ ein kommutativer Ring mit Einselement.
\begin{remark}
Wir erinnern uns an die symmetrische Gruppe $S_n$, die aus den Permutationen der Menge $X=\{1,..,n\}$ (also den
bijektiven Abbildungen $X\to X$) mit der Komposition als Verknüpfung. Es ist $\vert S_n\vert =n!$ und $S_2\cong \mathbb Z\backslash 2 \mathbb Z$,
doch für $n\ge 3$ ist $S_n$ nicht abelsch. Wir schreiben $\sigma_1\sigma_2$ für $\sigma_1\circ \sigma_2$ und notieren $\sigma\in S_n$
auch als \\
\begin{align}
\sigma=\begin{pmatrix}
1 & 2 & ... & n\\
\sigma(1) & \sigma(2) & ... & \sigma(n)\\
\end{pmatrix}\notag
\end{align}
\end{remark}
\begin{example}
Für $i,j\in \{1,...,n\}$ mit $i\neq j$ bezeichne $\tau_{ij}\in S_n$ die Transposition
\begin{align}
\tau_{ij}(k)=
\begin{cases}
j&\text{falls }$k=i$ \\ i& \text{falls }$k=j$ \\ k& \text{sonst}
\end{cases}\notag
\end{align} Offenbar gilt $\tau_{ij}^2=\id$, also $\tau_{ij}^{-1}=\tau_{ij}=\tau_{ji}$.
\end{example}
\begin{proposition}
Für jedes $\sigma \in S_n$ gibt es ein $r\in \mathbb N_0$ und die Transpositionen $\tau_1,...,\tau_r\in S_n$ mit
\begin{align}
\sigma=\tau_1\circ ... \circ \tau_r\notag
\end{align}
\end{proposition}
\begin{proof}
Sei $1\le k \le n$ maximal mit $\sigma(i)=i$ für $i\le k$. Induktion nach $n-k$. \\
Ist $n-k=0$, so ist $\sigma=\id$ und wir sind fertig. \\
Andernfalls ist $l=k+1\le n$ und $\sigma(l)>l$. Für $\sigma'=\tau_{l,\sigma(l)}\circ \sigma$ ist $\sigma(l)=l$ und somit $\sigma'(i)=i$
für $1\le i \le k+1$. Nach Induktionshypothese gibt es Transpositionen $\tau_1,...,\tau_r$ mit $\sigma'=\tau_1\circ ...\circ \tau_r$.
Es folgt $\sigma=\tau_{l,\sigma(l)}^{-1}\circ \sigma^{-1}=\tau_{l,\sigma(l)}\circ \tau_1\circ ... \circ \tau_r$.
\end{proof}
\begin{definition}[Fehlstand, Vorzeichen]
Sei $\sigma\in S_n$.
\begin{itemize}
\item Ein \begriff{Fehlstand} von $\sigma$ ist ein Paar $(i,j)$ mit $1\le i<j\le n$ und $\sigma(i)>\sigma(j)$.
\item Das \begriff{Vorzeichen} (oder \begriff{Signum}) von $\sigma$ ist $\sgn(\sigma)=(-1)^{f(\sigma)}\in \{-1,1\}$, wobei $f(\sigma)$ die
Anzahl der Fehlstände von $\sigma$ ist.
\item Man nennt $\sigma$ \begriff[Vorzeichen!]{gerade}, wenn $\sgn(\sigma)=1$, sonst \begriff[Vorzeichen!]{ungerade}.
\end{itemize}
\end{definition}
\begin{example}
\proplbl{4_1_5}
\begin{itemize}
\item Genau dann hat $\sigma$ keine Fehlstände, wenn $\sigma=\id$. Insbesondere $\sgn(\id)=1$.
\item Die Permutation
\begin{align}
\sigma=\begin{pmatrix}1 & 2 & 3\\2 & 3 & 1\\\end{pmatrix}\notag
\end{align} hat die Fehlstände $(1,3)$ und $(2,3)$, somit
$\sgn(\sigma)=1$.
\item Die Transposition
\begin{align}
\tau_{13}=\begin{pmatrix}1 & 2 & 3\\3 & 2 & 1\\\end{pmatrix}\notag
\end{align} hat die Fehlstände $(1,2)$, $(2,3)$ und
$(3,1)$, somit $\sgn(\tau_{13})=-1$.
\item Eine Transposition $\tau_{ij}\in S_n$ ist ungerade: Ist $i<j$, so sind die Fehlstände $(i,i+1),...,(i,j)$ und $(j+1,j)...
(j-1,j)$, also $j-(i+1)+1+(j-1)-(i-1)+1=2(j-1)-1$ viele.
\end{itemize}
\end{example}
\begin{lemma}
Für $\sigma\in S_n$ ist
\begin{align}
\sgn(\sigma)=\prod_{1\le i<j\le n} \frac{\sigma(j)-\sigma(i)}{j-i}\in \mathbb Q\notag
\end{align}
\end{lemma}
\begin{proof}
Durchläuft $(i,j)$ alle Paare $1\le i<j\le n$, so durchläuft $\{\sigma(i),\sigma(j)\}$ alle zweielementigen Teilmengen von $\{1,...,
n\}$. Das Produkt $\prod_{i<j} \sigma(j)-\sigma(i)$ hat also bis auf das Vorzeichen die selben Faktoren wie das Produkt
$\prod_{i<j} j-i=\prod_{i<j} |j-i|$ und $\prod_{i<j} \sigma(j)-\sigma(i)=\prod_{i<j,\sigma(i)<\sigma(j)}
\sigma(j)-\sigma(i) \cdot \prod_{i<j,\sigma(i)>\sigma(j)} \sigma(j)-\sigma(i)=(-1)^{f(\sigma)}\cdot \prod_{i<j}
|\sigma(j)-\sigma(i)|=\sgn(\sigma)\cdot \prod_{i<j} j-i$.
\end{proof}
\begin{proposition}
\proplbl{4_1_7}
Die Abbildung $\sgn: S_n \to \mathbb Z^{\times}=\mu_2$ ist ein Gruppenhomomorphismus.
\end{proposition}
\begin{proof}
Seien $\sigma,\tau\in S_n$. Dann ist\\
$\sgn(\sigma\tau)=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{j-i}=\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(
\tau(i))}{\tau(j)-\tau(i)}\cdot \prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}$. Da mit $\{i,j\}$ auch $\{\tau(i),\tau(j)\}$ alle
zweielementigen Teilmengen von $\{1,...,n\}$ und $\frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\frac{\sigma(\tau(i))-
\sigma(\tau(j))}{\tau(i)-\tau(j)}$ ist $\prod_{i<j} \frac{\sigma(\tau(j))-\sigma(\tau(i))}{\tau(j)-\tau(i)}=\prod_
{i<j} \frac{\sigma(j)-\sigma(i)}{j-i}=\sgn(\sigma)$ und $\prod_{i<j} \frac{\tau(j)-\tau(i)}{j-i}=sng(\tau)$. \\
Somit ist $\sgn(\sigma\tau)=\sgn(\sigma)\cdot \sgn(\tau)$.
\end{proof}
\begin{conclusion}
Für $\sigma\in S_n$ ist
\begin{align}
\sgn(\sigma^{-1})=\sgn(\sigma)\notag
\end{align}
\end{conclusion}
\begin{proof}
$\sgn(\sigma^{-1})=\sgn(\sigma)^{-1}=\sgn(\sigma)$
\end{proof}
\begin{conclusion}
Sei $\sigma\in S_n$. Sind $\tau_1,...,\tau_r$ Transpositionen mit $\sigma=\tau_1\circ ... \circ \tau_r$, so ist
\begin{align}
\sgn(\sigma)=(-1)^r\notag
\end{align}
\end{conclusion}
\begin{proof}
\propref{4_1_5} und \propref{4_1_7}
\end{proof}
\begin{conclusion}
Die geraden Permutationen $A_n=\{\sigma \in S_n \mid \sgn(\sigma)=1\}$ bilden einen Normalteiler von $S_n$,
genannt die \begriff{alternierende Gruppe}. Ist $\tau\in S_n$ mit $\sgn(\tau)=-1$, so gilt für $A_n\tau=\{\sigma\tau \mid \sigma\in A_n\}$:
$A_n \cup A_n\tau = S_n$ und $A_n \cap A_n\tau=\emptyset$.
\end{conclusion}
\begin{proof}
Es ist $A_n=Ker(\sgn)$ und damit ist dieser auch ein Normalteiler. Ist $\sigma\in S_n\backslash A_n$, so ist $\sgn(\sigma\tau^{-1})=
\sgn(\sigma)\cdot \sgn(\tau)^{-1}=(-1)(-1)^{-1}=1$, also $\sigma=\sigma\tau^{-1}\in A_n\tau$, somit $A_n\cup A_n\tau=S_n$. Ist
$\sigma\in A_n$, so ist $\sgn(\sigma\tau)=-1$, also $A_n\cap A_n\tau=\emptyset$.
\end{proof}

View file

@ -62,70 +62,70 @@ In diesem Kapitel sei $K$ ein Körper.
\begin{example}
\begin{itemize}
\item Schränkt man die Multiplikation im Polynomring $K[X] \times K[X] \to K[X]$ zu einer Abbildung $K \times K[X]
\to K[X]$ ein, so wird $K[X]$ mit dieser Skalarmultiplikation zu einem $K$-VR. Die Skalarmultiplikation ist also
\to K[X]$ ein, so wird $K[X]$ mit dieser Skalarmultiplikation zu einem $K$-Vektorraum. Die Skalarmultiplikation ist also
gegen $\lambda\cdot \sum _{k\ge 0} a_k\cdot X^k = \sum _{k\ge 0} \lambda\cdot a_k\cdot X^k$ ersetzt
wurden.
\item Schränkt man die komplexe Multiplikation $\mathbb C \times \mathbb C \to \mathbb C$ zu einer Abbildung
$\mathbb R \times \mathbb C \to \mathbb C$ ein, so wird $\mathbb C$ mit dieser Skalarmultiplikation zu einem
$\mathbb R$-VR. Die Skalarmultiplikation ist gegeben durch $\lambda(x+iy)=\lambda\cdot x + i\cdot\lambda\cdot y$.
$\mathbb R$-Vektorraum. Die Skalarmultiplikation ist gegeben durch $\lambda(x+iy)=\lambda\cdot x + i\cdot\lambda\cdot y$.
\item Verallgemeinerung von 1 und 2: Ist der Körper $K$ ein Unterring eines kommutativen Rings $R$ mit Einselement
$1_K \in K$, so wird $R$ durch Einschränkung der Multiplikation $R \times R \to R$ zu einer Abbildung $K \times R
\to R$ zu einem $K$-VR.
\to R$ zu einem $K$-Vektorraum.
\item Ist $X$ eine Menge, so wird die Menge der Abbildungen $\Abb(X,K)$ durch punktweise Addition $(f+g)(x)=f(x)+
g(x)$ und die Skalarmultiplikation $(\lambda\cdot f)(x)=\lambda\cdot f(x)$ zu einem $K$-VR. Im Spezialfall
g(x)$ und die Skalarmultiplikation $(\lambda\cdot f)(x)=\lambda\cdot f(x)$ zu einem $K$-Vektorraum. Im Spezialfall
$X=\{1,2,...,n\}$ erhält man den Standardraum $K^n$.
\end{itemize}
\end{example}
\begin{definition}[Untervektorraum]
Sei $V$ ein $K$-VR. Ein \begriff{Untervektorraum} (UVR) von $V$ ist eine nichtleere
Teilmenge $W \subset V$ mit: \\
Sei $V$ ein $K$-Vektorraum. Ein \begriff{Untervektorraum} (Untervektorraum) von $V$ ist eine nichtleere
Teilmenge $W \subseteq V$ mit: \\
(UV1): Für $x,y \in W$ ist $x+y\in W$. \\
(UV2): Für $x \in W$ und $\lambda \in K$ ist $\lambda\cdot x\in W$.
\end{definition}
\begin{proposition}
Sei $V$ ein $K$-VR und $W \subset V$. Genau dann ist $W$ ein UVR von $V$, wenn $W$ mit geeigneter
Einschränkung der Addition und Skalarmultiplikation wieder ein $K$-VR ist.
Sei $V$ ein $K$-Vektorraum und $W \subseteq V$. Genau dann ist $W$ ein Untervektorraum von $V$, wenn $W$ mit geeigneter
Einschränkung der Addition und Skalarmultiplikation wieder ein $K$-Vektorraum ist.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\Rightarrow$: Lassen sich $+$: $V \times V \to V$ und $\cdot$: $K \times V \to V$ einschränken zur Abbildung $+_w$: $W
\times W \to W$, $\cdot_w$: $K \times W \to W$ so gilt für $x,y \in W$ und $\lambda \in K$: $x+y=x +_w y \in W$ und
$\lambda\cdot x=\lambda \cdot_w x \in W$. Ist $(W,+_w,\cdot_w)$ ein $K$-VR, so ist insbesondere $W$ nicht leer. Somit
ist $W$ ein UVR.
$\lambda\cdot x=\lambda \cdot_w x \in W$. Ist $(W,+_w,\cdot_w)$ ein $K$-Vektorraum, so ist insbesondere $W$ nicht leer. Somit
ist $W$ ein Untervektorraum.
\item $\Leftarrow$: Nach (UV1) und (UV2) lassen sich $+$ und $\cdot$ einschränken zu Abbildungen $+_w$: $W \times W \to W$ und
$\cdot_w$: $K \times W \to W$. Nach (UV1) ist abgeschlossen und unter der Addition und für $x \in W$ ist auch $-x=
(-1)x \in W$ nach (UV2), $W$ ist somit Untergruppe von $(V,+)$. Insbesondere ist $(W,+)$ eine abelsche Gruppe, erfüllt
also (V1). Die Verträglichkeit (V2) ist für $\lambda,\mu \in K$ und $x,y \in W$ gegeben, da sie auch für $x,y \in V$
erfüllt ist. Somit ist $(W,+_w,\cdot_w)$ ein $K$-VR.
erfüllt ist. Somit ist $(W,+_w,\cdot_w)$ ein $K$-Vektorraum.
\end{itemize}
\end{proof}
\begin{example}
\begin{itemize}
\item Jeder $K$-VR hat triviale UVR $W=\{0\}$ und $W=V$
\item Ist $V$ ein $K$-VR und $x \in V$, so ist $W=K\cdot x=\{\lambda\cdot x \mid \lambda \in K\}$ ein UVR von $V$.
Insbesondere besitzt z.B. der $\mathbb R$-VR $\mathbb R^2$ unendlich viele UVR, nämlich alle Ursprungsgeraden. Hieran
sehen wir auch, dass die Vereinigung zweier UVR im Allgemeinen kein UVR ist. $\mathbb R\cdot (1,0) \cup \mathbb
R\cdot (1,0) \subset \mathbb R^2$ verletzt (UV1).
\item Der $K$-VR $K[X]$ hat unter anderem die folgenden UVR:
\item Jeder $K$-Vektorraum hat triviale Untervektorraum $W=\{0\}$ und $W=V$
\item Ist $V$ ein $K$-Vektorraum und $x \in V$, so ist $W=K\cdot x=\{\lambda\cdot x \mid \lambda \in K\}$ ein Untervektorraum von $V$.
Insbesondere besitzt z.B. der $\mathbb R$-Vektorraum $\mathbb R^2$ unendlich viele Untervektorraum, nämlich alle Ursprungsgeraden. Hieran
sehen wir auch, dass die Vereinigung zweier Untervektorraum im Allgemeinen kein Untervektorraum ist. $\mathbb R\cdot (1,0) \cup \mathbb
R\cdot (1,0) \subseteq \mathbb R^2$ verletzt (UV1).
\item Der $K$-Vektorraum $K[X]$ hat unter anderem die folgenden Untervektorraum:
\begin{itemize}
\item Den Raum $K$ der konstanten Polynome
\item Den Raum $K[X]_{\le 1}=\{aX+b \mid a,b \in K\}$ der linearen (oder konstanten) Polynome
\item allgemeiner den Raum $K[X]_{\le n}=\{f \in K[X] \mid \deg(f) \le n\}$ der Polynome von höchstens Grad $n$
\end{itemize}
\item In der Analysis werden Sie verschiedene UVR des $\mathbb R$-VR $\Abb(\mathbb R,\mathbb R)$ kennenlernen, etwa
\item In der Analysis werden Sie verschiedene Untervektorraum des $\mathbb R$-Vektorraum $\Abb(\mathbb R,\mathbb R)$ kennenlernen, etwa
den Raum $\mathcal C(\mathbb R,\mathbb R)$ der stetigen Funktionen und den Raum $\mathcal C^{-1}(\mathbb R,\mathbb
R)$ der stetig differenzierbaren Funktionen. Die Menge der Polynomfunktionen $\{\tilde f\mid \tilde f\in \mathbb R[X]\}$ bildet
einen UVR des $\mathbb R$-VR $\mathcal C^{-1}(\mathbb R,\mathbb R)$
einen Untervektorraum des $\mathbb R$-Vektorraum $\mathcal C^{-1}(\mathbb R,\mathbb R)$
\end{itemize}
\end{example}
\begin{lemma}
Ist $V$ ein Vektorraum und $(W_i)_{i \in I}$ eine Familie von UVR von $V$, so ist auch $W=\bigcap W_i$
ein UVR von $V$.
Ist $V$ ein Vektorraum und $(W_i)_{i \in I}$ eine Familie von Untervektorraum von $V$, so ist auch $W=\bigcap W_i$
ein Untervektorraum von $V$.
\end{lemma}
\begin{proof}
Da $0 \in W_i$ ist auch $0 \in W$, insbesondere $W\neq\emptyset$.
@ -136,17 +136,17 @@ In diesem Kapitel sei $K$ ein Körper.
\end{proof}
\begin{proposition}
Ist $V$ ein $K$-VR und $X \subset V$, so gibt es einen eindeutig bestimmten kleinsten UVR $W$ von $V$
mit $X \subset W$.
Ist $V$ ein $K$-Vektorraum und $X \subseteq V$, so gibt es einen eindeutig bestimmten kleinsten Untervektorraum $W$ von $V$
mit $X \subseteq W$.
\end{proposition}
\begin{proof}
Sei $\mathcal V$ die Menge aller UVR von $X$, die $X$ enthalten. Sei $W=\bigcap \mathcal V$. Damit ist
$W$ ein UVR von $V$ der $X$ enthält.
Sei $\mathcal V$ die Menge aller Untervektorraum von $X$, die $X$ enthalten. Sei $W=\bigcap \mathcal V$. Damit ist
$W$ ein Untervektorraum von $V$ der $X$ enthält.
\end{proof}
\begin{definition}[Erzeugendensystem]
Ist $V$ ein $K$-VR und $X\subset V$, so nennt man den kleinsten UVR von
$V$, der $X$ enthält den von $X$ erzeugten UVR von $V$ und bezeichnet diesen mit $\langle X\rangle$. Eine Mengen $X\subset V$
mit $\langle X\rangle=V$ heißt \begriff{Erzeugendensystem} von $V$. Der VR $V$ heißt endlich erzeugt, wenn er ein endliches Erzeugendensystem
Ist $V$ ein $K$-Vektorraum und $X\subseteq V$, so nennt man den kleinsten Untervektorraum von
$V$, der $X$ enthält den von $X$ erzeugten Untervektorraum von $V$ und bezeichnet diesen mit $\langle X\rangle$. Eine Mengen $X\subseteq V$
mit $\langle X\rangle=V$ heißt \begriff{Erzeugendensystem} von $V$. Der Vektorraum $V$ heißt endlich erzeugt, wenn er ein endliches Erzeugendensystem
besitzt.
\end{definition}

View file

@ -1 +1,210 @@
\section{Determinante einer Matrix}
\begin{remark}
Wir werden nun auch Matrizen mit Koeffizienten in Ring $R$ anstatt $K$ betrachten. Mit der gewohnten Addition und
Multiplikation bilden die $n\times n$-Matrizen einen Ring $\Mat_n(R)$, und wir definieren wieder $\GL_n(R)=\Mat_n(R)^{\times}$.
\end{remark}
\begin{remark}
Seien $a_1,...,a_n\in R^m$ Spaltenvektoren, so bezeichnen wir mit $A=(a_1,...,a_n)\in \Mat_{m\times n}(R)$ die
Matrix mit den Spalten $a_1,...,a_n$. sind $\widetilde{a_1},...,\widetilde{a_m}\in R^n$ Zeilenvektoren, so bezeichnen wir mit $\tilde A=(
\widetilde{a_1},...,\widetilde{a_m})\in \Mat_{m\times n}(R)$ die Matrix mit den Zeilen $\widetilde{a_1},...,\widetilde{a_m}$.
\end{remark}
\begin{remark}
Wir hatten bereits definiert: $\det(A)=ad-bc$ mit
\begin{align}
A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\in \Mat_2(K)\notag
\end{align} und hatten
festgestellt: $\det(A)\neq 0 \iff A\in \GL_2(K)$. Interpretation im $K=\mathbb R$:\\
\definecolor{qqwuqq}{rgb}{0,0.39215686274509803,0}
\definecolor{xdxdff}{rgb}{0.49019607843137253,0.49019607843137253,1}
\definecolor{qqqqff}{rgb}{0,0,1}
\definecolor{zzttqq}{rgb}{0.6,0.2,0}
\definecolor{ududff}{rgb}{0.30196078431372547,0.30196078431372547,1}
\begin{center}\begin{tikzpicture}[line cap=round,line join=round,>=triangle 45,x=1cm,y=1cm, scale=0.6]
\clip(-10.24,-7.15) rectangle (10.24,7.15);
\fill[line width=1pt,color=zzttqq,fill=zzttqq,fill opacity=0.10000000149011612] (-7.8,-4.49) -- (-4.66,2.77) -- (1.02,-3.37) -- cycle;
\draw [shift={(-7.8,-4.49)},line width=1pt,color=qqwuqq,fill=qqwuqq,fill opacity=0.10000000149011612] (0,0) -- (0:5.6) arc (0:7.236922025968005:5.6) -- cycle;
\draw [shift={(-7.8,-4.49)},line width=1pt,color=qqwuqq,fill=qqwuqq,fill opacity=0.45] (0,0) -- (0:3.6) arc (0:66.61118515369776:3.6) -- cycle;
\draw [line width=1pt] (-7.8,-6.15) -- (-7.8,5.15);
\draw [line width=1pt,domain=-9.24:7.24] plot(\x,{(-46.8756-0*\x)/10.44});
\draw [-latex,line width=1pt] (-7.8,-4.49) -- (-4.66,2.77);
\draw [-latex,line width=1pt] (-7.8,-4.49) -- (1.02,-3.37);
\draw [-latex,line width=1pt] (1.02,-3.37) -- (4.16,3.89);
\draw [-latex,line width=1pt] (-4.66,2.77) -- (4.16,3.89);
\draw [line width=1pt,color=zzttqq] (-7.8,-4.49)-- (-4.66,2.77);
\draw [line width=1pt,color=zzttqq] (-4.66,2.77)-- (1.02,-3.37);
\draw [line width=1pt,color=zzttqq] (1.02,-3.37)-- (-7.8,-4.49);
\draw [line width=1pt,color=qqqqff] (-7.8,-4.49)-- (1.02,-3.37);
\draw [line width=1pt,color=qqqqff] (-4.66,2.77)-- (-3.5966674931812537,-3.9562434911976196);
\begin{scriptsize}
\draw[color=ududff] (-3.78,3.6) node {$x_2 = (c,a)$};
\draw[color=ududff] (2.5,-3.14) node {$x_1 = (a,b)$};
\draw[color=ududff] (5.2,4.32) node {$x_1 + x_2$};
\draw[color=zzttqq] (-3.42,-1.46) node {$\Delta$};
\draw[color=qqqqff] (-3.28,-4.2) node {$g_{\Delta}$};
\draw[color=qqqqff] (-3.38,-0.4) node {$h_{\Delta}$};
\draw[color=qqwuqq] (-3,-4.82) node {$\alpha_1$};
\draw[color=qqwuqq] (-4.74,-1.84) node {$\alpha_2$};
\end{scriptsize}
\end{tikzpicture}\end{center}
Parallelogramm hat die Fläche $|\det A|$. Polarkoordianten: $x_i=\lambda_i(\cos a_i, \sin a_i)$. Ohne Einschränkung: $0\le a_1 \le a_2
\le \pi$
\begin{align}
F_{P} &= 2\cdot F_{\Delta} = 2\cdot \frac 1 2 \cdot g_{\Delta} \cdot h_{\Delta} \notag \\
g_{\Delta} &= \lambda_1 \notag \\
h_{\Delta} &= \lambda_2 \cdot \sin(a_2-a_1) \notag \\
F_{P} &= \lambda_1\lambda_2(\cos a_1 \sin a_2 - \sin a_1 \cos a_2) = \det(\begin{pmatrix}\lambda_1 \cos a_1 &
\lambda_1 \sin a_1 \\ \lambda_2 \cos a_2 & \lambda_2 \sin a_2 \end{pmatrix}) \notag \\
&= \det A \notag
\end{align}
Insbesondere erfüllt $\det$ die folgenden Eigenschaften:
\begin{itemize}
\item Für $\lambda\in R$ ist $\det(\lambda x_1,x_2)=\det(x_1,\lambda x_2)=\lambda\cdot \det(x_1,x_2)$
\item Für $x_i=x'_i+x''_i$ ist $\det(x_1,x_2)=\det(x'_1,x_2) + \det(x''_1,x_2)$
\item Ist $x_1=x_2$, so ist $\det A=0$
\item $\det(1_2)=1$
\end{itemize}
\end{remark}
\begin{definition}[Determinantenabbildung]
Eine Abbildung $\delta:\Mat_n(R)\to R$ heißt \begriff{Determinantenabbildung}, wenn gilt: \\
(D1): $\delta$ ist linear in jeder Zeile: sind $a_1,...,a_n$ die Zeilen von $A$ und ist $i\in \{1,...,n\}$ und $a_i=\lambda'a'_i +
\lambda''a''_i$ mit $\lambda',\lambda''\in R$ und den Zeilenvektoren $a'_i,a''_i$, so ist $\delta(A)=\lambda'\cdot \delta(a_1,...,
a'_i,...,a_n) + \lambda''\cdot \det(a_1,...,a''_i,...,a_n)$. \\
(D2): $\delta$ ist alternierend: sind $a_1,...,a_n$ die Zeilen von $A$ und $i,j\in \{1,...,n\}$, $i\neq j$ mit $a_i=a_j$, so ist
$\delta(A)=0$. \\
(D3): $\delta$ ist normiert: $\delta(\mathbbm{1}_n)=1$.
\end{definition}
\begin{example}
Sei $\delta:\Mat_n(K)\to K$ eine Determinantenabbildung. Ist $A\in \Mat_n(K)$ nicht invertierbar, so sind die Zeilen
$a_1,...,a_n$ von $A$ linear abhängig, es gibt also ein $i$ mit $a_i=\sum_{j\neq i} \lambda_j\cdot a_j$. Es folgt $\delta(A)=
\delta(a_1,...,a_n)=\sum_{j\neq i} \lambda_j\cdot \delta(a_1,...,a_j,...,a_n)$ mit $a_i=a_j$ mit D2: $\sum_{j\neq i}
\lambda_j\cdot 0=0=\delta(A)$.
\end{example}
\begin{lemma}
Erfüllt $\delta:\Mat_n(R) \to R$ die Axiome D1 und D2, so gilt für jedes $\sigma\in S_n$ und die Zeilenvektoren
$a_1,...,a_n$:
\begin{align}
\delta(a_{\sigma(1)},...,a_{\sigma(n)})=\sgn(\sigma)\cdot \delta(a_1,...,a_n)\notag
\end{align}
\end{lemma}
\textit{Beweis: \\
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen. \\
$0=\delta(a_1,...,a_i+a_j,...,a_j+a_i,....,a_n)=\delta(a_1,...,a_i,...,a_j,...,a_n)+\delta(a_1,...,a_i,...,a_i,...,a_n)+\delta(a_1,...,a_j,
...,a_j,...,a_n)+\delta{a_1,...,a_j,...,a_i,...,a_n}=\delta(a_1,...,a_n)+\delta(a_{\sigma(1)},...,a_{\sigma(n)})=0$. Mit $\sgn(\sigma)=
\sgn(\tau_{ij})=-1$ folgt die Behauptung.}
\begin{lemma}
Erfüllt $\delta:\Mat_n(R)\to R$ die Axiome D1 und D2, so gilt für $A=(a_{ij})\in \Mat_n(R)$:
\begin{align}
\delta(A)=\delta(\mathbbm{1}_n)
\cdot \sum_{\sigma\in S_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} \right)\notag
\end{align}
\end{lemma}
\begin{proof}
Schreibe $a_i=(a_{j_1},...,a_{in})=\sum_{j=1}^n a_{ij}\cdot e_j$. Wiederholtes Anwenden von D1 gibt $\delta(A)=\delta(
a_1,...,a_n)=\sum_{j_1=1}^n a_{1j_1}\cdot \delta(e_{j_1},a_2,...,a_n)=\sum_{j_1=1}^n ... \sum_{j_n=1}^n \delta(
e_{j_1},...,e_{j_n})\cdot \prod_{i=1}^n a_{ij_i}$. Wegen D2 ist $\delta(e_{j_1},...,e_{j_n})=0$ falls $j_i=j_{i'}$ für ein $i\neq i'$.
Andernfalls ist $\sigma(i)=j_i$ einer Permutation von $\{1,...,n\}$ und $\delta(e_{j_1},...,e_{j_n})=\delta(e_{\sigma(1)},...,e_{\sigma(n)})=
\sgn(\sigma)\cdot \delta(e_1,...,e_n)=\sgn(\sigma)\cdot \delta(\mathbbm{1}_n)$.
\end{proof}
\begin{theorem}
Es gibt genau eine Determinantenabbildung $\delta:\Mat_n(R)\to R$ und diese ist gegeben durch die
Leibnitzformel
\begin{align}
\det(a_{ij})=\sum_{\sigma\in S_n} \sgn(\sigma)\cdot \prod_{i=1}^n a_{i,\sigma(i)} = \sum_{\sigma
\in A_n}\prod_{i=1}^n a_{i,\sigma(i)} - \sum_{\sigma\in S_n\backslash A_n}\prod_{i=1}^n a_{i,\sigma(i)}\notag
\end{align}
\end{theorem}
\begin{proof}
Eindeutigkeit der Abbildung folgt wegen D3. Bleibt nur noch zu zeigen, dass $\det$ auch die Axiome D1 bis D3 erfüllt. \\
D1: klar \\
D3: klar \\
D2: Seien $\mu\neq v$ mit $a_{\mu}=a_v$. Mit $\tau=\tau_{\mu v}$ ist $S_n\backslash A_n = A_n\tau$, somit $\det(a_{ij})=
\sum_{\sigma\in A_n} \prod_{i=1}^n a_{i,\sigma(i)}-\sum_{\sigma\in A_n\tau} \prod_{i=1}^n a_{i,\sigma\tau(i)}=
\sum_{\sigma\in A_n} \left( \prod_{i=1}^n a_{i,\sigma(i)} - \prod_{i=1}^n a_{i,\sigma\tau(i)} \right). Da a_{ij}=a_{\tau(i),j}$
für alle $i,j$ ist $\prod_{i=1}^n a_{i,\sigma(i)}=\prod_{i=1}^n a_{\tau(i),\sigma\tau(i)}=\prod_{i=1}^n a_{i,\sigma\tau(i)}$
für jedes $\sigma\in S_n$, woraus $\det(a_{ij})=0$ folgt.
\end{proof}
\begin{example}
\begin{itemize}
\item $n=2$, $S_2=\{\id, \tau_{12}\}$,
\begin{align}
A=\begin{pmatrix}a_{11} & a_{12} \\ a_{21} & a_{22}\end{pmatrix}\notag
\end{align}
$\det(A)=\sum_{\sigma\in
S_2} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}=a_{11}\cdot a_{22} - a_{12}\cdot a_{21}$
\item $n=3$, $S_3=\{id,\tau_{12}, \tau_{23}, \tau_{13}, \text{2 zyklische Vertauschungen}\}$, $A_3=\{\id, \text{2 zyklische
Vertauschungen}\}$, $S_3\backslash A_3=\{\tau_{12},\tau_{23},\tau_{13}\}$ und
\begin{align}
A=\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33} \\
\end{pmatrix}\notag
\end{align}
ergibt sich: $\det(A)=\sum_{\sigma\in A_3} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}\cdot a_{3,\sigma(3)} - \sum_
{\sigma\in S_3\backslash A_3} a_{1,\sigma(1)}\cdot a_{2,\sigma(2)}\cdot a_{3,\sigma(3)}= a_{11}a_{22}a_{33} + a_{12}a_{23}
a_{31} + a_{13}a_{21}a_{32} - a_{12}a_{21}a_{33} - a_{13}a_{22}a_{31} - a_{11}a_{23}a_{32}$
\item Ist $A=(a_{ij})$ eine obere Dreiecksmatrix, so ist $\det(A)=\prod_{i=1}^n a_{ii}$
\item Für $i\neq j$, $\lambda\in K^{\times}$, $\mu\in K$ ist $\det(S_i(\lambda))=\lambda$, $\det(Q_{ij}(\mu))=1$, $\det(P_{ij})=-1$
\item Ist $A$ eine \begriff{Blockmatrix} der Gestalt
\begin{align}
\begin{pmatrix}A_1 & C \\ 0 & A_2\end{pmatrix}\notag
\end{align} mit quadratischen Matrizen $A_1,
A_2,C$, so ist $\det(A)=\det(A_1)\cdot \det(A_2)$
\end{itemize}
\end{example}
\begin{conclusion}
Für $A\in \Mat_n(R)$ ist $\det(A)=\det(A^t)$. Insbesondere erfüllt $\det$ die Axiome D1 und D2 auch für Spalten
anstatt Zeilen.
\end{conclusion}
\begin{proof}
Mit $\rho=\sigma^{-1}$ gilt $\sgn(\rho)=\sgn(\sigma)$ und somit $\det(A)=\sum_{\sigma\in S_n} \sgn(\sigma) \cdot \prod_
{i=1}^n a_{i,\sigma(i)}=\sum_{\rho\in S_n} \sgn(\rho)\cdot \prod_{i=1}^n a_{\rho(i),i}=\det(A^t)$.
\end{proof}
\begin{theorem}[Determinantenmultiplikationssatz]
\proplbl{4_2_11}
Für $A,B\in \Mat_n(R)$ ist
\begin{align}
\det(AB)=\det(A)\cdot \det(B)\notag
\end{align}
\end{theorem}
\begin{proof}
Fixiere $A$ und betrachte die Abbildung $\delta: \Mat_n(R)\to R$ mit $B\mapsto \det(AB^{-1})$. Diese Abbildung erfüllt die Axiome
D1 und D2. sind $b_1,...,b_n$ die Zeilen von $B$, so hat $AB^{-1}$ die Spalten $Ab_1^t,...,Ab_n^t$, es werden die Eigenschaften
von $\det$ auf $\delta$ übertragen. \\
$\Rightarrow \det(AB)=\delta(B^t)=\delta(\mathbbm{1}_n)\cdot \det(B^t)=\det(A)\cdot \det(B)$.
\end{proof}
\begin{conclusion}
\proplbl{4_2_12}
Die Abbildung $\det:\Mat_n(R)\to R$ schränkt sich zu einem Gruppenhomomorphismus $\GL_n(R)\to
R^{\times}$ ein. Ist $R=K$ ein Körper, so ist $A\in \Mat_n(K)$ also genau dann invertierbar, wenn $\det(A)\neq 0$ und in
diesem Fall ist $\det(A^{-1})=\det(A)^{-1}$.
\end{conclusion}
\begin{proof}
Aus $AA^{-1}=\mathbbm{1}_n$ folgt $\det(A^{-1})*\det(A)=\det(\mathbbm{1}_n)=1$, insbesondere $\det(A)\in R^{\times}$. Der zweite Teil folgt wegen
$K^{\times}=K\backslash \{0\}$.
\end{proof}
\begin{conclusion}
Die Matrizen mit Determinante 1 bilden einen Normalteiler $\SL_n(K)=\{A\in \GL_n \mid \det(A)=1\}$ der
allgemeinen linearen Gruppe, die sogenannte \begriff{spezielle lineare Gruppe}.
\end{conclusion}
\begin{conclusion}
Elementare Zeilenumformungen vom Typ II ändern die Determinante nicht, elementare Zeilenumformungen vom
Typ III ändern nur das Vorzeichen der Determinante.
\end{conclusion}
\begin{proof}
$\det(Q_{ij}(\mu)A)=\det(Q_{ij}(\mu)) \cdot \det(A)= 1\cdot \det(A) = \det(A)$, Rest analog.
\end{proof}

View file

@ -1 +1,102 @@
\section{Determinante und Spur von Endomorphismen}
Sei $n\in \mathbb N$ und $V$ ein $K$-VR mit $\dim_K(V)=m$.
\begin{proposition}
Sei $f\in \Hom_K(V,W)$, $A'$ eine Basis von $V$ und $A=M_{A'}(f)$. Sei weiter $B\in \Mat_n(K)$. Genau
dann gibt es eine Basis $B'$ von $V$ mit $B=M_{B'}(f)$, wenn es $S\in \GL_n(K)$ mit $B=SAS^{-1}$ gibt.
\end{proposition}
\begin{proof}
Ist $B'$ eine Basis von $V$ mit $B=M_{B'}(f)$, so ist $B=SAS^{-1}$ mit $S=T^{A'}_{B'}$. Sei umgekehrt $B=SAS^{-1}$ mit
$S\in \GL_n(K)$. Es gibt eine Basis $B'$ von $V$ mit $T^{A'}_{B'}=S$, also $M_{B'}(f)=T^{A'}_{B'}\cdot M_{A'}(f)\cdot (
T^{A'}_{B'})^{-1}=SAS^{-1}=B$: Mit $B'=(\Phi_{A'}(f_s^{-1}(e_1)),...,\Phi_{A'}(f_s^{-1}(e_n)))$ ist $\Phi_{A'}\circ f_s^{-1}=
id_V\circ \Phi_{B'}$, also $T^{A'}_{B'}=M_{A'}^{A'}(id_V)=S^{-1}$. Folglich ist $T^{A'}_{B'}=(T_{A'}^{B'})^{-1}=(S^{-1})^{-1}
=S$.
\end{proof}
\begin{definition}[Ähnlichkeit]
Zwei Matrizen $A,B\in \Mat_n(R)$ heißen \begriff{ähnlich}, wenn (in Zeichen $A\sim B$) es
$S\in \GL_n(R)$ mit $B=SAS^{-1}$ gibt.
\end{definition}
\begin{proposition}
Ähnlichkeit von Matrizen ist eine Äquivalenzrelation auf $\Mat_n(R)$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item Reflexivität: $A=\mathbbm{1}_n\cdot A \cdot (\mathbbm{1}_n)^{-1}$
\item Symmetrie: $B=SAS^{-1}\Rightarrow A=S^{-1}BS=S^{-1}B(S^{-1})^{-1}$
\item Transitivität: $B=SAS^{-1}$, $C=TBT^{-1}\Rightarrow C=TSAS^{-1}T^{-1}=(TS)A(ST)^{-1}$
\end{itemize}
\end{proof}
\begin{proposition}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist
\begin{align}
\det(A)=\det(B)\notag
\end{align}
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)$, $\det(B)=\det(S)\cdot \det(A)\cdot \det(S)^{-1}=\det(A)$
\end{proof}
\begin{definition}[Determinante eines Endomorphismus]
Die \begriff[Endomorphismus!]{Determinante} eines Endomorphismus $f\in \End_K(V)$ ist
\begin{align}
\det(f)=\det(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist.
\end{definition}
\begin{proposition}
Für $f,g\in \End_K(V)$ gilt:
\begin{itemize}
\item $\det(\id_V)=1$
\item $\det(f\circ g)=\det(f)\cdot \det(g)$
\item Genau dann ist $\det(f)\neq 0$, wenn $f\in \Aut_K(V)$. In diesem Fall ist $\det(f^{-1})=\det(f)^{-1}$
\end{itemize}
\end{proposition}
\begin{proof}
sollte klar sein, evtl. mit \propref{4_2_11}
\end{proof}
\begin{definition}[Spur einer Matrix]
Die \begriff[Matrix!]{Spur} einer Matrix $A=(a_{ij})\in \Mat_n(R)$ ist
\begin{align}
\tr(A)=\sum_{i=1}^n a_{ii}\notag
\end{align}
\end{definition}
\begin{lemma}
Seien $A,B\in \Mat_n(R)$
\begin{itemize}
\item $\tr: \Mat_n(R)\to R$ ist $R$-linear
\item $\tr(A^t)=\tr(A)$
\item $\tr(AB)=\tr(BA)$
\end{itemize}
\end{lemma}
\begin{proof}
in den Übungen bereits behandelt
\end{proof}
\begin{proposition}
Seien $A,B\in \Mat_n(R)$. Ist $A\sim B$, so ist $\tr(A)=\tr(B)$.
\end{proposition}
\begin{proof}
$B=SAS^{-1}$, $S\in \GL_n(R)\Rightarrow \tr(B)=\tr(SAS^{-1})=\tr(AS^{-1}S)=\tr(A)$
\end{proof}
\begin{definition}[Spur eines Endomorphismus]
Die \begriff[Endomorphismus!]{Spur} eines Endomorphismus $f\in \End_K(V)$ ist
\begin{align}
\tr(f)=\tr(M_B(f))\notag
\end{align}
wobei $B$ eine Basis von $V$ ist.
\end{definition}
\begin{remark}
Im Fall $K=\mathbb R$ kann man den Absolutbetrag der Determinante eines $f\in \End_K(K^n)$
geometrisch interpretieren, nämlich als das Volumen von $f(Q)$, wobei $Q=[0,1]^n$ der Einheitsquader ist, und somit
als Volumenänderung durch $f$. Auch das Vorzeichen von $\det(f)$ hat eine Bedeutung: Es gibt an, ob $f$
orientierungserhaltend ist. Für erste Interpretationen der Spur siehe A100.
\end{remark}

View file

@ -1,6 +1,6 @@
\section{Linearkombinationen}
Sei $V$ ein $K$-VR.
Sei $V$ ein $K$-Vektorraum.
\begin{definition}[Linearkombination]
\begin{itemize}
@ -29,7 +29,7 @@ Sei $V$ ein $K$-VR.
\end{remark}
\begin{lemma}
Für jede Teilmenge $X \subset V$ ist $\Span_K(X)$ ein UVR von $V$.
Für jede Teilmenge $X \subseteq V$ ist $\Span_K(X)$ ein Untervektorraum von $V$.
\end{lemma}
\begin{proof}
\begin{itemize}
@ -42,20 +42,20 @@ Sei $V$ ein $K$-VR.
\end{proof}
\begin{proposition}
Für jede Teilmenge $X \subset V$ ist $\Span_K(X)=\langle X\rangle$.
Für jede Teilmenge $X \subseteq V$ ist $\Span_K(X)=\langle X\rangle$.
\end{proposition}
\begin{proof}
\begin{itemize}
\item $\Span_K(X)$ ist UVR von $V$, der wegen $x=x\cdot 1$ die Menge $X$ enthält, und $\langle X\rangle$ ist der kleinste solche.
\item Ist $W\subset V$ ein UVR von $V$, der $X$ enthält, so enthält er auch wegen (UV2) alle Elemente der Form
\item $\Span_K(X)$ ist Untervektorraum von $V$, der wegen $x=x\cdot 1$ die Menge $X$ enthält, und $\langle X\rangle$ ist der kleinste solche.
\item Ist $W\subseteq V$ ein Untervektorraum von $V$, der $X$ enthält, so enthält er auch wegen (UV2) alle Elemente der Form
$\lambda\cdot x$, und wegen (UV1) dann auch alle Linearkombinationen aus $X$. Insbesondere gilt dies auch für $W=\langle X\rangle$
\end{itemize}
\end{proof}
\begin{remark}
Wir erhalten $\Span_K(X)=\langle X\rangle$ auf 2 verschiedenen Wegen. Erstens "'von oben"' als Schnitt über alle UVR
Wir erhalten $\Span_K(X)=\langle X\rangle$ auf 2 verschiedenen Wegen. Erstens "'von oben"' als Schnitt über alle Untervektorraum
von $V$, die $X$ enthalten und zweitens "'von unten"' als Menge der Linearkombinationen. Man nennt $\Span_K(X)$ auch den
von $X$ aufgespannten UVR oder die lineare Hülle von $X$.
von $X$ aufgespannten Untervektorraum oder die lineare Hülle von $X$.
\end{remark}
\begin{example}
@ -65,12 +65,12 @@ Sei $V$ ein $K$-VR.
$\Span_K(e_1,..,e_n)=V$. Insbesondere ist $K^n$ eindeutig erzeugt. Man nennt $(e_1,...,e_n)$ die Standardbasis des
Standardraums $K^n$.
\item Sei $V=K[X]$ Polynomring über $K$. Da $f=\sum_{i=1}^n a_i\cdot X^i$ ist $\Span_K((X^i)_{i \in I})=K[X]$.
Genauer ist $\Span_K(1,X,X^2,...,X^n)=K[X]_{\le n}$. Tatsächlich ist der $K$-VR $K[X]$ nicht endlich erzeugt. Sind
Genauer ist $\Span_K(1,X,X^2,...,X^n)=K[X]_{\le n}$. Tatsächlich ist der $K$-Vektorraum $K[X]$ nicht endlich erzeugt. Sind
$f_1,...,f_r \in K[X]$ und ist $d=\max\{\deg(f_1),...,\deg(f_r)\}$, so sind $f_1,...,f_r \in K[X]_{\le d}$ und somit
$\Span_K(f_1,...,f_r) \subset K[X]_{\le d}$, aber es gibt Polynome, deren Grad größer $d$ ist.
$\Span_K(f_1,...,f_r) \subseteq K[X]_{\le d}$, aber es gibt Polynome, deren Grad größer $d$ ist.
\item Für $x \in V$ ist $\langle x\rangle=\Span_K(x)=K\cdot x$. Im Fall $K=\mathbb R$, $V=\mathbb R^3$, $x\neq 0$ ist dies eine
Ursprungsgerade.
\item Im $\mathbb R$-VR $\mathbb C$ ist $\Span_{\mathbb R}(1)=\mathbb R\cdot 1=\mathbb R$, aber im $\mathbb C$-VR
\item Im $\mathbb R$-Vektorraum $\mathbb C$ ist $\Span_{\mathbb R}(1)=\mathbb R\cdot 1=\mathbb R$, aber im $\mathbb C$-Vektorraum
$\mathbb C$ ist $\Span_{\mathbb C}(1)=\mathbb C\cdot 1=\mathbb C$
\end{itemize}
\end{example}
@ -91,8 +91,8 @@ Sei $V$ ein $K$-VR.
\item Offenbar hängt die Bedingung (*) nicht von der Reihenfolge der $x_1,...,x_n$ ab und ist $(x_1,...,x_k)$ linear
abhängig für ein $k \le n$, so ist auch $(x_1,...,x_n)$ linear abhängig. Deshalb stimmt die 2. Definition für
endliche Familien mit der 1. überein und $(x_i)$ ist genau dann linear abhängig, wenn es eine endliche Teilmenge
$J \subset I$ gibt, für die $(x_j)$ linear abhängig ist.
\item Eine Familie ist genau dann linear unabhängig, wenn für jede endliche Teilmenge $J\subset I$ und für jede
$J \subseteq I$ gibt, für die $(x_j)$ linear abhängig ist.
\item Eine Familie ist genau dann linear unabhängig, wenn für jede endliche Teilmenge $J\subseteq I$ und für jede
Wahl an Skalaren $(\lambda_i)_{i\in J}$ aus $\sum \lambda_i\cdot x_i=0$ schon $\lambda_i=0$ folgt, also wenn sich
der Nullvektor nur trivial linear kombinieren lässt.
\end{itemize}
@ -141,14 +141,14 @@ Sei $V$ ein $K$-VR.
\begin{itemize}
\item Die Standardbasis $(e_1,...,e_n)$ des $K^n$ ist linear unabhängig. Es ist $\sum_{i=1}^n \lambda_i\cdot
e_i=(\lambda_1,...,\lambda_n)$
\item Im $K$-VR $K[X]$ sind die Monome $(X^i)$ linear unabhängig.
\item Im $K$-Vektorraum $K[X]$ sind die Monome $(X^i)$ linear unabhängig.
\item Ein einzelner Vektor $x\in V$ ist genau dann linear abhängig, wenn $x=0$.
\item Ein Paar $(x_1,x_2)$ von Elementen von $V$ ist linear abhängig, wenn es ein skalares Vielfaches des anderen ist, also z.B. $x_1=
\lambda\cdot x_2$.
\item Im $\mathbb R$-VR $\mathbb R^2$ sind die beiden Vektoren $(1,2)$ und $(2,1)$ linear unabhängig. \\
Im $\mathbb Z\backslash 3\mathbb Z$-VR $(\mathbb Z\backslash 3\mathbb Z)^2$ sind diese Vektoren linear unabhängig, da
\item Im $\mathbb R$-Vektorraum $\mathbb R^2$ sind die beiden Vektoren $(1,2)$ und $(2,1)$ linear unabhängig. \\
Im $\mathbb Z\backslash 3\mathbb Z$-Vektorraum $(\mathbb Z\backslash 3\mathbb Z)^2$ sind diese Vektoren linear unabhängig, da
$x_1+x_2=(1,2)+(2,1)=(3,3)=(0,0)=0$.
\item Im $\mathbb R$-VR $\mathbb C$ ist $(1,i)$ linear unabhängig, aber im $\mathbb C$-VR $\mathbb C$ ist $(1,i)$
\item Im $\mathbb R$-Vektorraum $\mathbb C$ ist $(1,i)$ linear unabhängig, aber im $\mathbb C$-Vektorraum $\mathbb C$ ist $(1,i)$
linear abhängig, denn $\lambda_1\cdot 1+\lambda_2\cdot i =0$ für $\lambda_1=1$ und $\lambda_2=i$.
\end{itemize}
\end{example}
@ -157,7 +157,7 @@ Sei $V$ ein $K$-VR.
\begin{itemize}
\item Ist $x_{i_0}=0$, ist $(x_i)$ linear abhängig: $1\cdot x_{i_0}=0$
\item Gibt es $i,j\in I$ mit $i\neq j$, aber $x_i=x_j$, so ist $(x_i)$ linear abhängig: $x_i-x_j=0$
\item Dennoch sagt man auch "'die Teilmenge $X\subset V$ ist linear abhängig"' und meint damit, dass die Familie $(x_x)
\item Dennoch sagt man auch "'die Teilmenge $X\subseteq V$ ist linear abhängig"' und meint damit, dass die Familie $(x_x)
_{x\in X}$ linear abhängig ist, d.h. es gibt ein $n\in \mathbb N_0$, $x_1,...,x_n \in X$ paarweise verschieden, mit
$\sum_{i=1}^n \lambda_i\cdot x_i=0$.
\end{itemize}

View file

@ -1 +1,129 @@
\section{Minoren}
Seien $m,n\in \mathbb N$.
\begin{definition}[adjungierte Matrix]
Sei $A=(a_{ij})\in \Mat_n(R)$. Für $i,j\in \{1,...,n\}$ definieren wir die $n\times n$-Matrix: \\
\begin{align}
A_{ij}=\begin{pmatrix}
a_{11} & ... & a_{1,j-1} & 0 & a_{1,j+1} & ... & a_{1n} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_{i-1,1} & ... & a_{i-1,j.1} & 0 & a_{i-1,j+1} & ... & a_{i-1,n} \\
0 & ... & 0 & 1 & 0 & ... & 0 \\
a_{i+1,1} & ... & a_{i+1,j.1} & 0 & a_{i+1,j+1} & ... & a_{i+1,n} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_{n1} & ... & a_{n,j-1} & 0 & a_{n,j+1} & ... & a_{nn} \\
\end{pmatrix}\notag
\end{align}
die durch Ersetzen der $i$-ten Zeile und der $j$-ten Spalte durch $e_j$ aus $A$ hervorgeht, sowie die $(n-1)\times(n-1)$-
Matrix: \\
\begin{align}
A'_{ij}=\begin{pmatrix}
a_{11} & ... & a_{1,j-1} & a_{1,j+1} & ... & a_{1n} \\
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{i-1,1} & ... & a_{i-1,j.1} & a_{i-1,j+1} & ... & a_{i-1,n} \\
a_{i+1,1} & ... & a_{i+1,j.1} & a_{i+1,j+1} & ... & a_{i+1,n} \\
\vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{n1} & ... & a_{n,j-1} & a_{n,j+1} & ... & a_{nn} \\
\end{pmatrix}\notag
\end{align}
die durch Streichen der $i$-ten Zeile und der $j$-ten Spalten entsteht. Weiterhin definieren wir die zu $A$ \begriff{adjungierte Matrix}
als $A^\#=(a_{ij}^\#)\in \Mat_n(R)$, wobei $a_{ij}^\#=\det(A_{ji})$.
\end{definition}
\begin{lemma}
Sei $A\in \Mat_n(R)$ mit Spalten $a_1,...,a_n$. Für $i,j\in \{1,..,n\}$ gilt:
\begin{itemize}
\item $\det(A_{ij})=(-1)^{i+j}\cdot \det(A'_{ij})$
\item $\det(A_{ij})=\det(a_1,...,a_{j-1},e_i,a_{j+1},...,a_n)$
\end{itemize}
\end{lemma}
\begin{proof}
\begin{itemize}
\item Durch geeignete Permutation der ersten $i$ Zeilen und der ersten $j$ Zeilen erhält man
\begin{align}
\det(A_{ij})&=(-1)^{(i-1)+
(j-1)} \cdot \det(\begin{pmatrix}1&0&...&0 \\ 0 & \; & \; & \; \\ \vdots & \; & A'_{ij} & \; \\ 0 & \; & \; & \; \\ \end{pmatrix})\notag \\
&=(-1)^{i+j}\cdot \det(\mathbbm{1}_n)\cdot \det(A'_{ij})\notag
\end{align}
\item Man erhält $A_{ij}$ aus $(a_1,...,e_i,...,a_n)$ durch elementare Spaltenumformungen vom Typ II.
\end{itemize}
\end{proof}
\begin{proposition}
\proplbl{4_3_3}
Für $A\in \Mat_n(R)$ ist
\begin{align}
A^\#\cdot A=A\cdot A^\#=\det(A)\cdot \mathbbm{1}_n
\end{align}
\end{proposition}
\begin{proof}
$(A^\#A)_{ij}=\sum_{k=1}^n a^\#_{ik}\cdot a_{kj}=\sum_{k=1}^n a_{kj}\cdot \det(A_{kj})=\sum_{k=1}^n a_{kj}\cdot
\det(a_1,...,a_{i-1},a_j,a_{i+1},...,a_n)=\det(a_1,...,a_{i-1},\sum_{k=1}^n a_{kj}e_k,a_{i+1},...,a_n) = \det(a_1,...,a_{i-1},a_j,
a_{i+1},...,a_n)=\delta_{ij}\cdot \det(A)=(\det(A)\cdot \mathbbm{1}_n)_{ij}$. Analog bestimmt man die Koeffizienten von $AA^\#$, wobei man
$\det(A_{jk})=\det(A_{jk}^t)=\det((A^t)_{kj})$ benutzt.
\end{proof}
\begin{conclusion}
Es ist $\GL_n(R)=\{A\in \Mat_n(R) \mid \det(A)\in R^{\times}\}$ und für $A\in \GL_n(R)$ ist $A^{-1}=
\frac{1}{\det(A)}\cdot A^\#$.
\end{conclusion}
\begin{proof}
\propref{4_3_3} und \propref{4_2_12}
\end{proof}
\begin{proposition}[\person{Laplace}'scher Entwicklungssatz]
Sei $A=(a_{ij})\in \Mat_n(R)$. Für jedes $i,j\in \{1,..,n\}$ gilt die
Formel für die Entwicklung nach der $i$-ten Zeile: \\
\begin{align}
\det(A)=\sum_{j=1}^n (-1)^{i+j}\cdot a_{ij}\cdot \det(A'_{ij})\notag
\end{align}
Gleiches gilt auch für Spalten.
\end{proposition}
\begin{proof}
$\det(A)=(AA^\#)_{ij}=\sum_{j=1}^n a_{ij}\cdot a^\#_{ij} = \sum_{j=1}^n a_{ij}\cdot \det(A_{ij})=\sum_
{j=1}^n a_{ij}\cdot (-1)^{i+j}\cdot \det(A'_{ij})$. Analog auch für Spalten.
\end{proof}
\begin{proposition}[\person{Cramer}'sche Regel]
Sei $A\in \GL_n(R)$ mit Spalten $a_1,...,a_n$ und sei $b\in R^n$. Weiter sei
$x=(x_1,...,x_n)^t\in R^n$ die eindeutige Lösung des Linearen Gleichungssystems $Ax=b$. Dann ist für $i=1,...,n$
\begin{align}
x_i=\frac{\det(a_1,...,a_{i-1},b,a_{i+1},...,a_n)}{\det(A)}\notag
\end{align}
\end{proposition}
\begin{proof}
$x_i=(A^{-1}b)_i=\sum_{j=1}^n (A^{-1})_{ij}\cdot b_j=\frac{1}{\det(A)}\cdot \sum_{j=1}^n a^\#_{ij}\cdot b_j =
\frac{1}{\det(A)}\cdot \sum_{j=1}^n b_j\cdot \det(a_1,...,a_{i-1},e_i,a_{i+1},...,a_n)=\frac{1}{\det(A)}\cdot \det(a_1,...,
a_{i-1},b_j,a_{i+1},...,a_n)$.
\end{proof}
\begin{definition}[Minor]
Sei $A=(a_{ij})\in \Mat_{m\times n}(R)$ und $1\le r \le m$, $1\le s \le n$. Eine $r\times s$-
Teilmatrix von $A$ ist eine Matrix der Form $(a_{i\mu,jv})_{\mu,v}\in \Mat_{r\times s}(R)$ mit $1\le i_1<...<i_r\le m$
und $1\le j_1<...<j_s\le n$. Ist $A'$ eine $r\times r$-Teilmatrix von $A$, so bezeichnet man $\det(A')$ als einen
$r$-\begriff{Minor} von $A$.
\end{definition}
\begin{example}
Ist $A\in \Mat_n(R)$ und $i,j\in \{1,...,n\}$, so ist $A'_{ij}$ eine Teilmatrix und $\det(A'_{ij})=(-1)^{i+j}
\cdot a^\#_{ji}$ ein $(n-1)$-Minor von $A$.
\end{example}
\begin{proposition}
Sei $A\in \Mat_n(R)$ und $r\in \mathbb N$. Genau dann ist $\rk(A)\ge r$, wenn es eine $r\times r$-
Teilmatrix $A'$ von $A$ mit $\det(A^{\prime})\neq 0$ gibt.
\end{proposition}
\begin{proof}
\begin{itemize}
\item Hinrichtung: Ist $\rk(A)\ge r$, so hat $A$ $r$ linear unabhängige Spalten $a_1,...,a_r$. Die Matrix $\tilde A=(a_1,...,a_r)$
hat den Rang $r$ und deshalb $r$ linear unabhängige Zeilen $\widetilde{a_1},...,\widetilde{a_r}$. Die $r\times r$-Matrix $A$ hat
dann Rang $r$, ist also invertierbar, und $\det(A)\neq 0$.
\item Rückrichtung: Ist $A'$ eine $r\times r$-Teilmatrix von $A$ mit $\det(A')\neq 0$, so ist $\rk(A)\ge \rk(A')=r$.
\end{itemize}
\end{proof}
\begin{conclusion}
Sei $A\in \Mat_{m\times n}(K)$. Der Rang von $A$ ist das größte $r\in \mathbb N$, für das
$A$ einen von Null verschiedenen $r$-Minor hat.
\end{conclusion}

View file

@ -157,7 +157,7 @@ man $f$ \begriff[Polynom!]{konstant}, \begriff[Polynom!]{linear} bzw. \begriff[P
\end{proof}
\begin{conclusion}
Ist $K$ ein unendlicher Körper, so ist die Abbildung $K[X] \to Abb(K,K)$ und $f \mapsto
Ist $K$ ein unendlicher Körper, so ist die Abbildung $K[X] \to \Abb(K,K)$ und $f \mapsto
\tilde f$ injektiv.
\end{conclusion}
\begin{proof}

View file

@ -1,9 +1,9 @@
\section{Summen von VR}
\section{Summen von Vektorräumen}
Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
Sei $V$ ein $K$-Vektorraum und $(W_i)$ eine Familie von Untervektorräumen von $V$.
\begin{definition}[Summe von Vektorräumen]
Die \begriff[Vektorraum!]{Summe} der $W_i$ ist der UVR
Die \begriff[Vektorraum!]{Summe} der $W_i$ ist der Untervektorraum
\begin{align}
\sum_{i\in I} W_i := \Span_K\left(\bigcup W_i\right)\notag
\end{align}
@ -17,15 +17,15 @@ Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\begin{proof}
\begin{itemize}
\item $"\supseteq"$: klar, $\sum x_i \in \Span_K(\bigcup W_i)$
\item $"\subseteq"$: Die rechte Seite enthält jedes $W_i$ und ist ein UVR von $V$: \\
\item $"\subseteq"$: Die rechte Seite enthält jedes $W_i$ und ist ein Untervektorraum von $V$: \\
Für $x_i,x'_i \in W$, fast alle gleich 0 und $\lambda \in K$ ist $\sum x_i + \sum x'_i = \sum (x_i+x'_i)$, $\lambda
\cdot \sum x_i = \sum \lambda\cdot x_i$ $\Rightarrow$ UVR
\cdot \sum x_i = \sum \lambda\cdot x_i$ $\Rightarrow$ Untervektorraum
\end{itemize}
\end{proof}
\begin{definition}[direkte Summe]
Ist jedes $x\in \sum W_i$ eindeutig als Summe von $x_i$ mit $x_i\in W_i$
darstellbar, so sagt man, dass $\sum W_i$ die \begriff{direkte Summe} der UVR $W_i$ ist und schreibt $\oplus W_i$ für
darstellbar, so sagt man, dass $\sum W_i$ die \begriff{direkte Summe} der Untervektorräume $W_i$ ist und schreibt $\oplus W_i$ für
$\sum W_i$. Im Fall $I=\{1,...,n\}$ schreibt man auch $W_1\oplus W_2 \oplus ... \oplus W_n$ für $\oplus W_i$.
\end{definition}
@ -43,7 +43,7 @@ Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\end{remark}
\begin{proposition}
Sind $W_1,W_2$ UVR von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
Sind $W_1,W_2$ Untervektorräume von $V$ mit Basen $(x_i)_{i\in I_1}$ bzw. $(x_i)_{i\in I_2}$, wobei $I_1 \cap
I_2 = \emptyset$, so sind äquivalent:
\begin{itemize}
\item $V=W_1 \oplus W_2$
@ -65,8 +65,8 @@ Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\end{proof}
\begin{conclusion}
Ist $\dim_K(V)<\infty$, so ist jeder UVR ein direkter Summand: Ist $W$ ein UVR von $V$, so
gibt es einen UVR $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
Ist $\dim_K(V)<\infty$, so ist jeder Untervektorraum ein direkter Summand: Ist $W$ ein Untervektorraum von $V$, so
gibt es einen Untervektorraum $W'$ von $V$ mit $V=W\oplus W'$ ($W'$ heißt das \begriff{lineare Komplement} von $W$ in $V$). Es
ist
\begin{align}
\dim_K(W')=\dim_K(V)-\dim_K(W)\notag
@ -84,13 +84,13 @@ Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\end{remark}
\begin{theorem}[Dimensionsformel]
Sei $\dim_K(V)<\infty$. Für UVR $W_1,W_2$ von $V$ gilt:
Sei $\dim_K(V)<\infty$. Für Untervektorräume $W_1,W_2$ von $V$ gilt:
\begin{align}
\dim_K(W_1+W_2) + \dim_K(W_1 \cap W_2) = \dim_K(W_1) + \dim_K(W_2)\notag
\end{align}
\end{theorem}
\begin{proof}
Da $\dim_K(V)<\infty$ haben alle UVR von $V$ Basen. Sei also $B_0=(X_1,...,x_n)$ eine Basis von $W_1\cap W_2$. Nach
Da $\dim_K(V)<\infty$ haben alle Untervektorräume von $V$ Basen. Sei also $B_0=(X_1,...,x_n)$ eine Basis von $W_1\cap W_2$. Nach
dem Basisergänzungssatz können wir $B_0$ zu den Basen $B_1=(x_1,...,x_n,y_1,...,y_p)$ von $W_1$ und $B_2=(x_1,...,
x_n,z_1,...,z_q)$ von $W_2$ ergänzen. Wir behaupten, dass $B=(x_1,...,x_n,y_1,...,y_p,z_1,...,z_q)$ eine Basis von
$W_1+W_2$ ist. Offenbar ist $B$ ein Erzeugendensystem von $W_1+W_2$. Seien nun $\lambda_1,...,\lambda_n,\mu_1,...,
@ -103,24 +103,24 @@ Sei $V$ ein $K$-VR und $(W_i)$ eine Familie von UVR von $V$.
\end{proof}
\begin{definition}[externes Produkt]
Das \begriff{externe Produkt} einer Familie $(V_i)$ von $K$-VR ist der $K$-VR
Das \begriff{externe Produkt} einer Familie $(V_i)$ von $K$-Vektorräumen ist der $K$-Vektorraum
$\prod V_i$ bestehend aus dem kartesischen Produkt der $V_i$ mit komponentenweiser Addition und
Skalarmultiplikation, $(x_i)+(x'_i) := (x_i+x'_i)$ und $\lambda(x_i) := (\lambda x_i).$
\end{definition}
\begin{definition}[externe Summe]
Die \begriff{externe Summe} einer Familie $(V_i)$ von $K$-VR ist der UVR
$\oplus V_i := \{(x_i) \in \prod V_i \mid x_i=0 \text{; für fast alle }i\}$ des $K$-VR $\prod V_i$.
Die \begriff{externe Summe} einer Familie $(V_i)$ von $K$-Vektorräumen ist der Untervektorraum
$\oplus V_i := \{(x_i) \in \prod V_i \mid x_i=0 \text{; für fast alle }i\}$ des $K$-Vektorraum $\prod V_i$.
\end{definition}
\begin{remark}
Man prüft sofort nach, dass $\prod V_i$ ein $K$-VR ist und $\oplus V_i$ ein UVR davon ist. Für
Man prüft sofort nach, dass $\prod V_i$ ein $K$-Vektorraum ist und $\oplus V_i$ ein Untervektorraum davon ist. Für
endliche Indexmengen ist $\prod V_i = \oplus V_i$, z.B. $K^n = \prod_{i=1}^n K = \oplus K$.
\end{remark}
\begin{lemma}
Sei $(V_i)$ eine Familie von $K$-VR und sei $V=\oplus V_i$. Für jedes $j\in I$ ist $\tilde V_j :=
V \times \prod_{i\in I\backslash\{j\}} \{0\}$ ein UVR von $V$ und $V=\oplus \tilde V_j$
Sei $(V_i)$ eine Familie von $K$-Vektorräumen und sei $V=\oplus V_i$. Für jedes $j\in I$ ist $\tilde V_j :=
V \times \prod_{i\in I\backslash\{j\}} \{0\}$ ein Untervektorraum von $V$ und $V=\oplus \tilde V_j$
\end{lemma}
\begin{proof}
Ist $x=(x_i)\in V$ mit $x_i\in V_i$, fast alle $x_i=0$, so ist $x=\sum \tilde x_i$ mit $\tilde x:=(x_i\delta_{ij})