hat ja auch lange gedauert
This commit is contained in:
Henry Haustein 2018-12-16 17:33:14 +01:00
parent f205602962
commit cbf4098180
12 changed files with 49 additions and 43 deletions

View file

@ -8,7 +8,13 @@
\begin{remark}
\proplbl{5_5_2}
Die Abbildung $\quad\begin{cases}K[t]\to \End_K(V)\\ P\mapsto P(f)\end{cases}$ ist ein Homomorphismus von $K$-VR und Ringen. Sein Kern ist das Ideal
Die Abbildung
\begin{align}
\begin{cases}
K[t]\to \End_K(V)\\ P\mapsto P(f)
\end{cases}\notag
\end{align}
ist ein Homomorphismus von $K$-Vektorraum und Ringen. Sein Kern ist das Ideal
\begin{align}
\mathcal{I}_f:=\{P\in K[t]\mid P(f)=0\}\notag
\end{align}
@ -62,12 +68,12 @@
\end{example}
\begin{definition}[$f$-zyklisch]
Ein $f$-invarianter UVR $W\le V$ heißt $f$-\begriff{zyklisch}, wenn es ein $x\in W$ mit $W=\Span_K(x,f(x),f^2(x),...)$ gibt.
Ein $f$-invarianter Untervektorraum $W\le V$ heißt $f$-\begriff{zyklisch}, wenn es ein $x\in W$ mit $W=\Span_K(x,f(x),f^2(x),...)$ gibt.
\end{definition}
\begin{lemma}
\proplbl{lemma_5_8}
Sei $x\in V$ und $x_i=f^i(x)$. Es gibt ein kleinstes $k$ mit $x_k\in\Span_K(x_0,x_1,...,x_{k-1})$, und $W=\Span_K(x_0,...,x_{k-1})$ ein $f$-zyklischer UVR von $V$ mit Basis $B=(x_0,...,x_{k-1})$ und $M_B(f\vert_W)=M_{\chi_{f\vert_W}}$.
Sei $x\in V$ und $x_i=f^i(x)$. Es gibt ein kleinstes $k$ mit $x_k\in\Span_K(x_0,x_1,...,x_{k-1})$, und $W=\Span_K(x_0,...,x_{k-1})$ ein $f$-zyklischer Untervektorraum von $V$ mit Basis $B=(x_0,...,x_{k-1})$ und $M_B(f\vert_W)=M_{\chi_{f\vert_W}}$.
\end{lemma}
\begin{proof}
Da $\dim_K(V)=n$ ist $(x_0,...,x_n)$ linear abhängig, es gibt also ein kleinstes $k$ mit $(x_0,...,x_{k-1})$ linear unabhängig, aber $(x_0,...,x_k)$ linear abhängig, folglich $x_k\in\Span_K(x_0,...,x_{k-1})$. Mit $x_k=f(x_{k-1})=\sum_{i=0}^{k-1}-c_ix_i$ ist dann

View file

@ -2,10 +2,10 @@
\begin{proposition}
\proplbl{satz_det_null}
Sei $\lambda\in K$. Genau dann ist $\lambda$ ein EW von $f$, wenn $\det(\lambda\cdot\id_V-f)=0$.
Sei $\lambda\in K$. Genau dann ist $\lambda$ ein Eigenwert von $f$, wenn $\det(\lambda\cdot\id_V-f)=0$.
\end{proposition}
\begin{proof}
Da $\Eig(f,\lambda)=\Ker(\lambda\cdot\id_V-f)$ ist $\lambda$ genau dann ein EW von $f$, wenn $\dim_K(\Ker(\lambda\cdot\id_V-f))>0$, also wenn $\lambda\cdot\id_V-f\notin\Aut_K(V)$. Nach \propref{4_4_6} bedeutet dies, dass $\det(\lambda\cdot\id_V-f)=0$
Da $\Eig(f,\lambda)=\Ker(\lambda\cdot\id_V-f)$ ist $\lambda$ genau dann ein Eigenwert von $f$, wenn $\dim_K(\Ker(\lambda\cdot\id_V-f))>0$, also wenn $\lambda\cdot\id_V-f\notin\Aut_K(V)$. Nach \propref{4_4_6} bedeutet dies, dass $\det(\lambda\cdot\id_V-f)=0$
\end{proof}
\begin{definition}[charakteristisches Polynom]
@ -54,7 +54,7 @@
\alpha_{n-1}&=-\tr(f) \notag \\
\alpha_0 &= (-1)^n\cdot\det(f) \notag
\end{align}
Die Nullstellen von $\chi_f$ sind genau die EW von $f$.
Die Nullstellen von $\chi_f$ sind genau die Eigenwerte von $f$.
\end{proposition}
\begin{proof}
Sei $B$ eine Basis von $V$ und $A=M_B(f)=(a_{ij})_{i,j}$. Wir erinnern uns daran, dass $\tr(f)=\tr(A=\sum_{i=1}^n a_{ii}$. Es ist $\chi_f(t)=\det(t-\cdot 1_n-A)=\sum_{\sigma\in S_n}\sgn(\sigma)\prod_{i=1}^n (t\delta_{i,\sigma(i)}-a_{i,\sigma(i)})$. \\

View file

@ -95,7 +95,7 @@
\end{align}
\end{lemma}
\begin{proof}
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen (\propref{4_1_7}). \\
$\sigma$ ist ein Produkt von Transpositionen. Es genügt also die Behauptung für $\sigma=\tau_{ij}$ mit $1\le i<j\le n$ zu zeigen (\propref{4_1_7}).
\begin{align}
0&=\delta(a_1,...,a_i+a_j,...,a_j+a_i,....,a_n) \notag \\
&=\delta(a_1,...,a_i,...,a_j,...,a_n)+\delta(a_1,...,a_i,...,a_i,...,a_n)+\delta(a_1,...,a_j,

View file

@ -12,15 +12,15 @@
\end{align}.
\end{lemma}
\begin{proof}
$(\Rightarrow)$: Ist $B$ eine Basis aus EV von $f$ (vgl. \propref{satz_diagonal_ev}), so ist $B\le \bigcup\limits_{\lambda\in K}\Eig(f,\lambda)$, also $V=\Span_K(\bigcup\limits_{\lambda\in K}\Eig(f, \lambda))=\sum_{\lambda\in K}\Eig(f,\lambda)$. \\
$(\Leftarrow)$: Ist $V=\sum_{\lambda\in K}\Eig(f,\lambda)$, so gibt es $\lambda_1,...,\lambda_n \in K$ mit $V=\sum_{i=1}^r \Eig(f,\lambda_i)$. Wir wählen Basen $B_i$ von $\Eig(f,\lambda_i)$. Dann ist $\bigcup\limits_{i=1}^r B_i$ ein endliches Erzeugendensystem von $V$, enthält also eine Basis von $V$ (\propref{2_3_6}). Diese besteht aus EV von $f$.
$(\Rightarrow)$: Ist $B$ eine Basis aus Eigenvektoren von $f$ (vgl. \propref{satz_diagonal_ev}), so ist $B\le \bigcup\limits_{\lambda\in K}\Eig(f,\lambda)$, also $V=\Span_K(\bigcup\limits_{\lambda\in K}\Eig(f, \lambda))=\sum_{\lambda\in K}\Eig(f,\lambda)$. \\
$(\Leftarrow)$: Ist $V=\sum_{\lambda\in K}\Eig(f,\lambda)$, so gibt es $\lambda_1,...,\lambda_n \in K$ mit $V=\sum_{i=1}^r \Eig(f,\lambda_i)$. Wir wählen Basen $B_i$ von $\Eig(f,\lambda_i)$. Dann ist $\bigcup\limits_{i=1}^r B_i$ ein endliches Erzeugendensystem von $V$, enthält also eine Basis von $V$ (\propref{2_3_6}). Diese besteht aus Eigenvektoren von $f$.
\end{proof}
\begin{proposition}
Ist $\dim_K(V)=n$, so hat $f$ höchstens $n$ Eigenwerte. Hat $f$ genau $n$ Eigenwerte, so ist $f$ diagonalisierbar.
\end{proposition}
\begin{proof}
Ist $\lambda$ ein EW von $f$, so ist $\dim_K(\Eig(f,\lambda))\ge 1$. Sind also $\lambda_1,...,\lambda_n$ paarweise verschiedene EW von $f$, so ist
Ist $\lambda$ ein Eigenwert von $f$, so ist $\dim_K(\Eig(f,\lambda))\ge 1$. Sind also $\lambda_1,...,\lambda_n$ paarweise verschiedene Eigenwerte von $f$, so ist
\begin{align}
n=\dim_K(V)&\ge \dim_K\left( \sum\limits_{i=1}^m \Eig(f,\lambda_i)\right) \notag \\
&\overset{\propref{satz_eig_direkte_summe}}{=} \dim_K\left( \bigoplus_{i=0}^{m} \Eig(f,\lambda_i)\right) \notag \\
@ -67,7 +67,7 @@
Sind $P,Q,R\in K[t]$ mit $PQ=PR$, und ist $P\neq 0$, so ist $Q=R$.
\end{lemma}
\begin{proof}
$PQ=PR\Rightarrow P(Q-R)=0\overset{K[t]\text{ nullteilerfrei}}{\Rightarrow} Q-R=0$, d.h. $Q=R$.
$PQ=PR\Rightarrow P(Q-R)=0\xRightarrow{K[t]\text{ nullteilerfrei}} Q-R=0$, das heißt $Q=R$.
\end{proof}
\begin{lemma}

View file

@ -1,7 +1,7 @@
\section{Die \person{Jordan}-Normalform}
\begin{definition}[Hauptraum]
Der \begriff{Hauptraum} von $f$ zum EW $\lambda$ der Vielfachheit $r=\mu_a(f,\lambda)$ ist
Der \begriff{Hauptraum} von $f$ zum Eigenwert $\lambda$ der Vielfachheit $r=\mu_a(f,\lambda)$ ist
\begin{align}
\Hau(f,\lambda)=\Ker\Big( (f-\lambda\id_V)^r\Big) \notag
\end{align}
@ -9,7 +9,7 @@
\begin{lemma}
\proplbl{lemma_7_2}
$\Hau(f,\lambda)$ ist ein $f$-invarianter UVR der Dimension $\dim_K(\Hau(f,\lambda))= \mu_a(f,\lambda)$, auf dem $f-\lambda\id_V$ nilpotent ist und $\chi_{f\vert_{\Hau(f,\lambda)}}= (t-\lambda)^{\mu_a(f,\lambda)}$
$\Hau(f,\lambda)$ ist ein $f$-invarianter Untervektorraum der Dimension $\dim_K(\Hau(f,\lambda))= \mu_a(f,\lambda)$, auf dem $f-\lambda\id_V$ nilpotent ist und $\chi_{f\vert_{\Hau(f,\lambda)}}= (t-\lambda)^{\mu_a(f,\lambda)}$
\end{lemma}
\begin{proof}
$f$ kommutiert sowohl mit $f$ als auch mit $\id_V$, somit auch mit $(f-\lambda\id_V)^r$. Die $f$-Invarianz von $U=\Hau(f,\lambda)$ folgt aus \propref{lemma_6_3}. Nach \propref{folgerung_6_9} ist $\dim_K(U)=\mu_a(f-\lambda\id_V,0)$ und da $\chi_f(t)=\chi_{f-\lambda\id_V}(t-\lambda)$ ist $\mu_a(f,\lambda)=\mu(\chi_f,\lambda)= \mu_a(f-\lambda\id_V,0)$. Da $f-\lambda\id_V\vert_U$ nilpotent ist $\chi_{f-\lambda\id_V\vert_U}(t)= t^r$, somit $\chi_{f\vert_U}(t)=(t-\lambda)^r$.
@ -17,12 +17,12 @@
\begin{proposition}[Hauptraumzerlegung]
\proplbl{satz_7_3}
Ist $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden und $r_1,...,r_m\in\natur$, so ist $V=\bigoplus_{i=1}^m V_i$ mit $V_i=\Hau(f,\lambda_i)$ eine Zerlegung in $f$-invariante UVR und für jedes $i$ ist $\chi_{f\vert_{V_i}}(t)=(t-\lambda_i)^{r_i}$.
Ist $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden und $r_1,...,r_m\in\natur$, so ist $V=\bigoplus_{i=1}^m V_i$ mit $V_i=\Hau(f,\lambda_i)$ eine Zerlegung in $f$-invariante Untervektorräume und für jedes $i$ ist $\chi_{f\vert_{V_i}}(t)=(t-\lambda_i)^{r_i}$.
\end{proposition}
\begin{proof}
Induktion nach $m$.\\
\emph{$m=1$}: $r_1=n\overset{\propref{lemma_7_2}}{\Rightarrow} V=V_1$.\\
\emph{$m-1\to m$}: Nach \propref{satz_6_4} ist $V=V_1\oplus W_1$ mit $W_1=\Image((f-\lambda_i\id_V)^r)$ eine Zerlegung in $f$-invariante UVR mit $\dim_K(V_1)=r_1$, $\dim_K(W_1)=n-r_1$. Somit ist $\chi_f=\chi_{f\vert_{V_1}}\cdot \chi_{f\vert_{W_1}}$ und $\chi_{f\vert_{V_1}}\overset{\propref{lemma_7_2}}{=}(t-\lambda_1)^{r_1}$ also $\chi_{f\vert_{W_1}}=\prod_{i=2}^m (t-\lambda_i)^{r_i}$. Nach I.H. ist also $W_1=\bigoplus_{i=2}^m \Hau(f\vert_{W_1},\lambda_i)$. Es ist für $i\ge 2$ $\Hau(f\vert_{W_1},\lambda_i)\subseteq\Hau(f,\lambda_i)=V_i$ und da $\dim_K(\Hau(f\vert_{W_1},\lambda_i))=r_i=\dim_K(\Hau(f,\lambda_i))$ gilt Gleichheit. Damit ist
\emph{$m-1\to m$}: Nach \propref{satz_6_4} ist $V=V_1\oplus W_1$ mit $W_1=\Image((f-\lambda_i\id_V)^r)$ eine Zerlegung in $f$-invariante Untervektorräume mit $\dim_K(V_1)=r_1$, $\dim_K(W_1)=n-r_1$. Somit ist $\chi_f=\chi_{f\vert_{V_1}}\cdot \chi_{f\vert_{W_1}}$ und $\chi_{f\vert_{V_1}}\overset{\propref{lemma_7_2}}{=}(t-\lambda_1)^{r_1}$ also $\chi_{f\vert_{W_1}}=\prod_{i=2}^m (t-\lambda_i)^{r_i}$. Nach I.H. ist also $W_1=\bigoplus_{i=2}^m \Hau(f\vert_{W_1},\lambda_i)$. Es ist für $i\ge 2$ $\Hau(f\vert_{W_1},\lambda_i)\subseteq\Hau(f,\lambda_i)=V_i$ und da $\dim_K(\Hau(f\vert_{W_1},\lambda_i))=r_i=\dim_K(\Hau(f,\lambda_i))$ gilt Gleichheit. Damit ist
\begin{align}
V&=V_1\oplus W_1 \notag\\
&=V_1\oplus\bigoplus_{i=2}^m\Hau(f\vert_{W_1},\lambda_i)\notag \\
@ -58,7 +58,7 @@
Die Paare $(\mu_1,k_1),...,(\mu_r,k_r)$ heißen die \begriff{\person{Jordan}-Invarianten} von $f$ und sind bis auf Reihenfolge eindeutig bestimmt.
\end{theorem}
\begin{proof}
Schreibe $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden, $r_i\in\natur$. Sei $V_i=\Hau(f,\lambda_i)$. Nach \propref{satz_7_3} ist $V=\bigoplus_{i=1}^m V_i$ eine Zerlegung in $f$-invariante UVR. Für jedes $i$ wenden wir \propref{satz_6_13} auf $(f-\lambda_i\id_V)\vert_{V_i}$ an und erhalten eine Basis $B_i$ von $V_i$ und $k_{i,1}\ge ...\ge k_{i,s_i}$ mit
Schreibe $\chi_f(t)=\prod_{i=1}^m (t-\lambda_i)^{r_i}$ mit $\lambda_1,...,\lambda_m\in K$ paarweise verschieden, $r_i\in\natur$. Sei $V_i=\Hau(f,\lambda_i)$. Nach \propref{satz_7_3} ist $V=\bigoplus_{i=1}^m V_i$ eine Zerlegung in $f$-invariante Untervektorräume. Für jedes $i$ wenden wir \propref{satz_6_13} auf $(f-\lambda_i\id_V)\vert_{V_i}$ an und erhalten eine Basis $B_i$ von $V_i$ und $k_{i,1}\ge ...\ge k_{i,s_i}$ mit
\begin{align}
M_B((f-\lambda_i\id)\vert_{V_i})=\diag(J_{k_{i,1}},...,J_{k_{i,s_i}})\notag
\end{align}
@ -89,7 +89,7 @@
\begin{conclusion}
Genau dann ist $f$ diagonalisierbar, wenn
\begin{align}
\chi_f(t)&=\prod_{i=1}^m (t-^\lambda_i)^{r_i}\quad \lambda_1,...,\lambda_m\in K\text{ paarweise verscheiden und} \notag \\
\chi_f(t)&=\prod_{i=1}^m (t-\lambda_i)^{r_i}\quad \lambda_1,...,\lambda_m\in K\text{ paarweise verscheiden und} \notag \\
P_f(t) &= \prod_{i=1}^m (t-\lambda_i)\notag
\end{align}
\end{conclusion}

View file

@ -1,11 +1,11 @@
In diesem Kapitel seien $K$ ein Körper, $n\in\natur$ eine natürliche Zahl, $V$ ein $n$-dimensionaler $K$-VR und $f\in\End_K(V)$ ein Endomorphismus.
In diesem Kapitel seien $K$ ein Körper, $n\in\natur$ eine natürliche Zahl, $V$ ein $n$-dimensionaler $K$-Vektorraum und $f\in\End_K(V)$ ein Endomorphismus.
Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Basen zu finden, für die $M_B(f)$ eine besonders einfache oder kanonische Form hat.
\section{Eigenwerte}
\begin{remark}
Wir erinnern uns daran, dass $\End_K(V)=\Hom_K(V,V)$ sowohl einen $K$-VR als auch einen Ring bildet. Bei der Wahl einer Basis $B$ von $V$ wird $f\in\End_K(V)$ durch die Matrix $M_B(f)=M_B^B(f)$ beschrieben.
Wir erinnern uns daran, dass $\End_K(V)=\Hom_K(V,V)$ sowohl einen $K$-Vektorraum als auch einen Ring bildet. Bei der Wahl einer Basis $B$ von $V$ wird $f\in\End_K(V)$ durch die Matrix $M_B(f)=M_B^B(f)$ beschrieben.
\end{remark}
\begin{example}
@ -34,7 +34,7 @@ Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Base
\end{definition}
\begin{remark}
Für jedes $\lambda\in K$ ist $\Eig (f,\lambda)$ ein UVR von $V$, da
Für jedes $\lambda\in K$ ist $\Eig (f,\lambda)$ ein Untervektorraum von $V$, da
\begin{align}
\Eig (f,\lambda) &= \{x\in V\mid f(x)=\lambda x\} \notag \\
&= \{x\in V\mid f(x)-\lambda\cdot\id_V(x)=0\} \notag \\
@ -49,28 +49,28 @@ Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Base
\end{remark}
\begin{example}
Ist $A=\diag(\lambda_1,...,\lambda_n)$ und $f=f_A\in\End_K(K^n)$, so sind $\lambda_1,...,\lambda_n$ EW von $f$ und jedes $e_i$ ist ein EV zum EW $\lambda_i$.
Ist $A=\diag(\lambda_1,...,\lambda_n)$ und $f=f_A\in\End_K(K^n)$, so sind $\lambda_1,...,\lambda_n$ Eigenwerte von $f$ und jedes $e_i$ ist ein Eigenvektor zum Eigenwert $\lambda_i$.
\end{example}
\begin{proposition}
\proplbl{satz_diagonal_ev}
Sei $B$ eine Basis von $V$. Genau dann ist $M_B(f)$ eine Diagonalmatrix, wenn $B$ aus EV von $f$ besteht.
Sei $B$ eine Basis von $V$. Genau dann ist $M_B(f)$ eine Diagonalmatrix, wenn $B$ aus Eigenvektoren von $f$ besteht.
\end{proposition}
\begin{proof}
Ist $B=(x_1,...x_n)$ eine Basis aus EV zu EW $\lambda_1,....,\lambda_n$, so ist $M_B(f)= \diag(\lambda_1,...,\lambda_n)$ und umgekehrt.
Ist $B=(x_1,...x_n)$ eine Basis aus Eigenvektoren zu Eigenwerten $\lambda_1,....,\lambda_n$, so ist $M_B(f)= \diag(\lambda_1,...,\lambda_n)$ und umgekehrt.
\end{proof}
\begin{example}
Sei $K=\real$, $V=\real^2$ und $f_{\alpha}\in\End_K(\real^2)$ die Drehung um den Winkel $\alpha\in [0,2\pi)$ \\
\[\Rightarrow M_{\mathcal{E}}(f_{\alpha})=\begin{pmatrix}\cos(\alpha)&-\sin(\alpha) \\ \sin(\alpha) & \cos(\alpha)\end{pmatrix}\]
Für $\alpha=0$ hat $f_{\alpha}=\id_{\real^2}$ nur den EW 1. \\
Für $\alpha=\pi$ hat $f_{\alpha}=-\id_{\real^2}$ nur den EW -1. \\
Für $\alpha\neq 0,\pi$ hat $f_{\alpha}$ keine EW. %TODO figure
Für $\alpha=0$ hat $f_{\alpha}=\id_{\real^2}$ nur den Eigenwert 1. \\
Für $\alpha=\pi$ hat $f_{\alpha}=-\id_{\real^2}$ nur den Eigenwert -1. \\
Für $\alpha\neq 0,\pi$ hat $f_{\alpha}$ keine Eigenwerte. %TODO figure
\end{example}
\begin{lemma}
\proplbl{lemma_EW_lin_unabh}
Sind $\lambda_1,...,\lambda_n$ paarweise verschiedene EW von $f$ und ist $x_i$ ein EV zu $\lambda_i$ für $i=1,...,m$, so ist $(x_1,...,x_m)$ linear unabhängig.
Sind $\lambda_1,...,\lambda_n$ paarweise verschiedene Eigenwerte von $f$ und ist $x_i$ ein Eigenvektor zu $\lambda_i$ für $i=1,...,m$, so ist $(x_1,...,x_m)$ linear unabhängig.
\end{lemma}
\begin{proof}
Induktion nach $m$\\
@ -94,8 +94,8 @@ Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Base
o. E. seien $z_i\neq 0$ für $i=1,...,r$ und $z_i=0$ für $i=r+1,...,m$. Wäre $r>0$, so wären $(z_1,...,z_r)$ linear abhängig, aber $z_i=x_i-y_i\in\Eig(f,\lambda_i)\backslash\{0\}$, im Widerspruch zu \propref{lemma_EW_lin_unabh}. Somit ist $x_i=y_i$ für alle $i$ und folglich ist die Summe $\sum\Eig(f,\lambda_i)$ direkt.
\end{proof}
\begin{definition}[EW und EV für Matrizen]
Sei $A\in\Mat_n(K)$. Man definiert Eigenwerte, Eigenvektoren, etc von $A$ als Eigenwerte, Eigenvektoren von $f_A\in\End_K(K^n)$.
\begin{definition}[Eigenwerte und Eigenvektoren für Matrizen]
Sei $A\in\Mat_n(K)$. Man definiert Eigenwerte, Eigenvektoren, etc. von $A$ als Eigenwerte, Eigenvektoren von $f_A\in\End_K(K^n)$.
\end{definition}
\begin{mathematica}[Eigenwerte und Eigenvektoren]
@ -108,7 +108,7 @@ Das Ziel dieses Kapitels ist, die Geometrie von $f$ besser zu verstehen und Base
\end{mathematica}
\begin{proposition}
Sei $B$ eine Basis von $V$ und $\lambda\in K$. Genau dann ist $\lambda$ ein EW von $f$, wenn $\lambda$ ein EW von $A=M_B(f)$ ist. Insbesondere haben ähnliche Matrizen die selben EW.
Sei $B$ eine Basis von $V$ und $\lambda\in K$. Genau dann ist $\lambda$ ein Eigenvektor von $f$, wenn $\lambda$ ein Eigenwert von $A=M_B(f)$ ist. Insbesondere haben ähnliche Matrizen die selben Eigenwerte.
\end{proposition}
\begin{proof}
Dies folgt aus dem kommutativen Diagramm

View file

@ -6,7 +6,7 @@
\item $f\{0\}=\Ker(f^0)\subseteq \Ker(f^1)\subseteq \Ker(f^2)\subseteq ...$
\item $V=\Image(f^0)\supseteq \Image(f^1)\supseteq \Image(f^2)\supseteq ...$
\end{itemize}
Folgen von UVR von $V$. Nach der Kern-Bild-Formel \propref{3_7_13}III.7.13 ist
Folgen von Untervektorräumen von $V$. Nach der Kern-Bild-Formel \propref{3_7_13}III.7.13 ist
\begin{align}
\dim_K(\Ker(f^i))+\dim_K(\Image(f^i))=\dim_K(V)\quad\forall i\notag
\end{align}
@ -25,7 +25,7 @@ Da $\dim_K(V)=n<\infty$ gibt es ein $d$ mit $\Ker(f^d)=\Ker(f^{d+i})$ und $\Imag
\begin{lemma}
\proplbl{lemma_6_3}
Seien $f,g\in\End_K(V)$. Wenn $f$ und $g$ kommutieren, d.h. $f\circ g=g\circ f$, so sind die UVR $\Ker(g)$ und $\Image(g)$ $f$ invariant.
Seien $f,g\in\End_K(V)$. Wenn $f$ und $g$ kommutieren, d.h. $f\circ g=g\circ f$, so sind die Untervektorräume $\Ker(g)$ und $\Image(g)$ $f$ invariant.
\end{lemma}
\begin{proof}
Ist $x\in\Ker(f)$, so ist $g(f(x))=f(g(x))=f(0)=0$, also $f(x)\in\Ker(g)$. Für $g(x)\in\Image(g)$ ist $f(g(x))=g(f(x))\in\Image(g)$.
@ -38,7 +38,7 @@ Da $\dim_K(V)=n<\infty$ gibt es ein $d$ mit $\Ker(f^d)=\Ker(f^{d+i})$ und $\Imag
\{0\}&=V_0\subsetneq V_1\subsetneq ...\subsetneq V_d=V_{d+1}=...\notag \\
V&= W_0\supsetneq W_1\supsetneq ... \supsetneq W_d=W_{d+1}=...\notag
\end{align}
Folgen $f$-invarianter UVR und $V=V_d\oplus W_d$.
Folgen $f$-invarianter Untervektorräume und $V=V_d\oplus W_d$.
\end{proposition}
\begin{proof}
Da $f^i$ und $f^j$ für beliebige $i,j$ kommutieren, sind $V_i$ und $V_j$ nach \propref{lemma_6_3} $f$-invariant für jedes $i$. Aus $\dim_K(V_i)+\dim_K(W_i)=n$ folgt $d=\min\{i\mid W_i=W_{i+1}\}$, insbesondere ist $\Image(f^d)=\Image(f^{d+1})=f(\Image(f^d))$, somit $W_{d+i}=\Image(f^{d+i})=W_d$ für $i\ge 0$, also auch $V_d=V_{d+i}$ für alle $i\ge 0$. \\

View file

@ -87,7 +87,7 @@ Sei $V$ ein euklidischer bzw. unitärer Vektorraum.
\end{align}
\end{proposition}
\begin{proof}
Sei zunächst $\pr_U$ durch \cref{gl1} gegeben. Die Linearität von $\pr_U$ folgt aus (S1) und (S3). Für $u=\sum_{i=1}^k \lambda_i x_i\in U$ ist $\skalar{u}{x_j}=\skalar{\sum_{i=1}^k \lambda_i x_i}{x_j}=\sum_{i=1}^k \lambda_i\skalar{x_i}{x_j}=\lambda_j$, woraus $\pr_U(u)=u$. Somit ist $\pr_U\vert_U=\id_U$, und insbesondere ist $\pr_U$ surjektiv. Ist $\pr_U(x)=0$, so ist $\skalar{x}{x_i}=0$ für alle $i$., woraus mit (S2) und (S4) sofort $x\perp U$ folgt. Somit ist $\Ker(\pr_U)\perp U$. \\
Sei zunächst $\pr_U$ durch \cref{gl1} gegeben. Die Linearität von $\pr_U$ folgt aus (S1) und (S3). Für $u=\sum_{i=1}^k \lambda_i x_i\in U$ ist $\skalar{u}{x_j}=\skalar{\sum_{i=1}^k \lambda_i x_i}{x_j}=\sum_{i=1}^k \lambda_i\skalar{x_i}{x_j}=\lambda_j$, woraus $\pr_U(u)=u$. Somit ist $\pr_U\vert_U=\id_U$, und insbesondere ist $\pr_U$ surjektiv. Ist $\pr_U(x)=0$, so ist $\skalar{x}{x_i}=0$ für alle $i$, woraus mit (S2) und (S4) sofort $x\perp U$ folgt. Somit ist $\Ker(\pr_U)\perp U$. \\
Für $x\in V$ ist $\pr_U(x-\pr_U(x))=\pr_U(x)-\pr_U(\pr_U(x))=\pr_U(x)-\pr_U(x)=0$, also $x-\pr_U(x)\in\Ker(\pr_U)\subseteq U^\perp$. \\
Ist $f:V\to U$ ein weiterer Epimorphismus mit $f\vert_U=\id_U$ und $\Ker(f)\perp U$, so ist
\begin{align}
@ -103,7 +103,7 @@ Sei $V$ ein euklidischer bzw. unitärer Vektorraum.
\begin{proof}
Induktion nach $d=n-k$. \\
\emph{$d=0$:} nichts zu zeigen \\
\emph{$d-1\to d$:} Für $i\neq k+1$ definiere $y_I=x_i$. Sei $U=\Span_K(x_1,...,x_k)$, $\tilde{x_{k+1}}=x_{k+1}-\pr_U(x_{k-1})$. Dann ist $\tilde{x_{k+1}}\in\Ker(\pr_U)\subseteq U^\perp$ (vgl. \propref{6_4_8}) und $\Span_K(x_1,...,x_k,\tilde{x_{k+1}})=\Span_K(x_1,...,x_{k+1})$. Setze $y_{k+1}=\frac{1}{\Vert \tilde{x_{k+1}}\Vert}\tilde{x_{k+1}}$. Dann ist $(y_1,...,y_n)$ eine Basis von $V$ mit $(y_1,...,y_{k+1})$ orthonormal (vgl. \propref{6_4_7}). Nach Induktionshypothese gibt es eine Orthonormalbasis von $V$, die das Gewünschte leistet.
\emph{$d-1\to d$:} Für $i\neq k+1$ definiere $y_i=x_i$. Sei $U=\Span_K(x_1,...,x_k)$, $\widetilde{x_{k+1}}=x_{k+1}-\pr_U(x_{k-1})$. Dann ist $\widetilde{x_{k+1}}\in\Ker(\pr_U)\subseteq U^\perp$ (vgl. \propref{6_4_8}) und $\Span_K(x_1,...,x_k,\widetilde{x_{k+1}})=\Span_K(x_1,...,x_{k+1})$. Setze $y_{k+1}=\frac{1}{\Vert \widetilde{x_{k+1}}\Vert}\widetilde{x_{k+1}}$. Dann ist $(y_1,...,y_n)$ eine Basis von $V$ mit $(y_1,...,y_{k+1})$ orthonormal (vgl. \propref{6_4_7}). Nach Induktionshypothese gibt es eine Orthonormalbasis von $V$, die das Gewünschte leistet.
\end{proof}
\begin{conclusion}

View file

@ -21,15 +21,15 @@
\end{definition}
\begin{remark}
Ist $W$ ein $f$-invarianter UVR von $V$, so ist $f\vert_W\in \End_K(W)$.
Ist $W$ ein $f$-invarianter Untervektorraum von $V$, so ist $f\vert_W\in \End_K(W)$.
\end{remark}
\begin{example}
\proplbl{beispiel_4_6}
\begin{enumerate}
\item $V$ hat stets die $f$-invarianten UVR $W=\{0\}$ und $W=V$.
\item Jeder UVR $W\le \Eig(f,\lambda)$ ist $f$-invariant.
\item Ist $B=(x_1,...,x_n)$ eine Basis von $V$, für die $M_B(f)$ eine obere Dreiecksmatrix ist, so sind alle UVR $W_i=\Span_K(x_1,...,x_i)$ $f$-invariant.
\item $V$ hat stets die $f$-invarianten Untervektorräume $W=\{0\}$ und $W=V$.
\item Jeder Untervektorraum $W\le \Eig(f,\lambda)$ ist $f$-invariant.
\item Ist $B=(x_1,...,x_n)$ eine Basis von $V$, für die $M_B(f)$ eine obere Dreiecksmatrix ist, so sind alle Untervektorräume $W_i=\Span_K(x_1,...,x_i)$ $f$-invariant.
\item Sei $V=W\oplus U$, $B_1=(x_1,...,x_r)$ Basis von $W$, $B_2(x_{r+1},...,x_n)$ Basis von $U$ und $B=(x_1,...,x_n)$. Ist $W$ $f$-invariant, so ist
\begin{align}
M_B(f)=\begin{pmatrix}M_{B_1}(f\vert_W)&*\\0&*\end{pmatrix}\notag
@ -42,7 +42,7 @@
\end{example}
\begin{lemma}
Ist $W\subset V$ ein $f$-invarianter UVR, so gilt $\chi_{f\vert_W}\mid \chi_f$. Hat $W$ ein lineares Komplement $U$, dass auch $f$-invariant ist, so $\chi_f=\chi_{f\vert_W}\cdot \chi_{f\vert_U}$.
Ist $W\subset V$ ein $f$-invarianter Untervektorraum, so gilt $\chi_{f\vert_W}\mid \chi_f$. Hat $W$ ein lineares Komplement $U$, dass auch $f$-invariant ist, so $\chi_f=\chi_{f\vert_W}\cdot \chi_{f\vert_U}$.
\end{lemma}
\begin{proof}
Ergänze eine Basis $B_0=(x_1,...,x_r)$ von $W$ zu einer Basis $B=(x_1,...,x_n)$ von $V$. Sei $A=M_B(f)$, $A_0=M_{B_0}(f\vert_W)$. Dann ist
@ -64,7 +64,7 @@
$(\Rightarrow)$: \propref{lemma_4_3}\\
$(\Leftarrow)$: Induktion nach $n=\dim_K(V)$. \\
\emph{$n=1$}: trivial \\
\emph{$n-1\to n$}: Nach Annahme ist $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$ mit $\lambda_1,...,\lambda_n\in K$. Sei $x_1$ ein EV zum EW $\lambda_1$. Dann ist $V_1=K\cdot x_1$ ein $f$-invarianter UVR. Ergänze $B_1=(x_1)$ zu einer Basis $B=(x_1,...,x_n)$ von $V$ und setze $B_2=(x_2,...,x_n)$, $V_2=\Span_K(B_2)$.
\emph{$n-1\to n$}: Nach Annahme ist $\chi_f(t)=\prod_{i=1}^n (t-\lambda_i)$ mit $\lambda_1,...,\lambda_n\in K$. Sei $x_1$ ein Eigenvektor zum Eigenwert $\lambda_1$. Dann ist $V_1=K\cdot x_1$ ein $f$-invarianter Untervektorraum. Ergänze $B_1=(x_1)$ zu einer Basis $B=(x_1,...,x_n)$ von $V$ und setze $B_2=(x_2,...,x_n)$, $V_2=\Span_K(B_2)$.
\begin{align}
\Rightarrow M_B(f)&=\begin{pmatrix}\lambda_1&*\\0&A_2\end{pmatrix}\quad A_2\in\Mat_{n-1}(K)\notag\\
\chi_f(t)&=\chi_{\lambda_1\mathbbm{1}_1}\cdot \chi_{A_2}=(t-\lambda_1)\cdot\chi_{A_2}(t)\notag \\
@ -86,7 +86,7 @@
\end{proof}
\begin{conclusion}
Ist $V$ ein endlichdimensionaler $\comp$-VR, so ist jedes $f\in\End_\comp(V)$ trigonalisierbar.
Ist $V$ ein endlichdimensionaler $\comp$-Vektorraum, so ist jedes $f\in\End_\comp(V)$ trigonalisierbar.
\end{conclusion}
\begin{proof}
Nach dem Fundamentalsatz der Algebra \propref{1_6_16} ist $\comp$ algebraisch abgeschlossen.

View file

@ -3,7 +3,7 @@
\title{\textbf{Lineare Algebra WS2017/18 + SS2018}}
\author{Dozent: Prof. Dr. Arno Fehm}
\author{Dozent: Prof. Dr. \person{Arno Fehm}}
\begin{document}
\pagenumbering{roman}

Binary file not shown.