LAAG1/Lineare_Algebra.tex
Valentin Boettcher 3658b4a139 bastelei
2018-03-28 15:27:57 +02:00

3861 lines
164 KiB
TeX

% Created 2017-11-19 Sun 20:51
% Intended LaTeX compiler: pdflatex
\documentclass[oneside,fontsize=11pt,paper=a4,BCOR=0mm,DIV=12,automark,headsepline]{scrbook}
\usepackage[utf8]{inputenc}
% \usepackage{beton}
% \usepackage{euler}
% \usepackage{mathpazo} % add possibly `sc` and `osf` options
% \usepackage{mathpple}
\usepackage{fourier}
% \usepackage{eulervm}
\usepackage[T1]{fontenc}
\usepackage{graphicx}
\usepackage{grffile}
\usepackage{longtable}
\usepackage{wrapfig}
\usepackage{rotating}
\usepackage[normalem]{ulem}
\usepackage{amsmath}
\usepackage{textcomp}
\usepackage{amssymb}
\usepackage{capt-of}
\usepackage{hyperref}
\usepackage{nicefrac}
\usepackage[ngerman]{babel}
\usepackage{mathtools} % for xrightarrow
\usepackage{todonotes}
\usepackage{xifthen}
\usepackage{xargs}
\usepackage{commath} % differential stuff
\usepackage{enumitem}
\newcommand{\gq}[1]{\glqq{}#1\grqq{}} % german quotes
\newcommand{\mcolor}[2][red]{\begingroup\color{#1}#2\endgroup }
\DeclareMathOperator{\mdim}{dim}
\DeclareMathOperator{\mKer}{Ker}
\DeclareMathOperator{\mIm}{Im}
\DeclareMathOperator{\mRg}{Rg}
\DeclareMathOperator{\mHom}{Hom}
\DeclareMathOperator{\mId}{id}
\DeclareMathOperator{\mVol}{Vol}
\DeclareMathOperator{\mDiag}{diag}
\DeclareMathOperator{\mEnd}{End}
\DeclareMathOperator{\mDeg}{deg}
\DeclareMathOperator{\Tr}{Tr}
\DeclareMathOperator{\spn}{span}
\newcommandx{\linn}[4][3=1,4=n]{\ensuremath{#1_{#3}\cdot #2_{#3} + \dots + #1_{#4} \cdot #2_{#4}}}
\newcommandx{\setdot}[3][2=1,3=n]{\ensuremath{\{#1_{#2} ,\dots , #1_{#3}\}}}
\newcommandx{\lldot}[3][2=1,3=n]{\ensuremath{#1_{#2} ,\dots , #1_{#3}}}
\newcommandx{\allsum}[5][3=i,4=1,5=n]{\ensuremath{\sum_{#3=#4}^{#5}{#1_{#3}\cdot #2_{#3}}}}
\newcommandx{\lmap}[3][1=f,2=V,3=W]{#1:\, #2 \rightarrow #3}
\newcommandx{\mmat}[3][1=B,2=C,3=M]{#3^{#1}_{#2}}
\newcommandx{\kkk}[3][1=n,2=m,3=K]{\mathbb{#3}^{#1\times #2}}
\newcommandx{\kk}[2][1=K,2=n]{\mathbb{#1}^{#2}}
\usepackage[most]{tcolorbox}
\usepackage{booktabs}
\tcbuselibrary{theorems}
\newlist{theolist}{itemize}{3}
\setlist[theolist,1]{label=\textbullet,leftmargin=1in}
\newtcbtheorem[number within=section,list inside=definition]{definition}{Definition}%
{code={\boldmath},colback=green!5,colframe=green!35!black,fonttitle=\bfseries}{th}
\newtcbtheorem[number within=section. list inside=definition]{axiom}{Axiom}%
{code={\boldmath},colback=orange!5,colframe=orange!35!black,fonttitle=\bfseries}{th}
\newtcbtheorem[number within=section, list inside=definition]{theo}{Theorem}%
{code={\boldmath},colback=blue!5,colframe=blue!35!black,fonttitle=\bfseries}{th}
\newtcbtheorem[number within=section, list inside=definition]{satz}{Satz}%
{code={\boldmath},colback=orange!5,colframe=orange!35!black,fonttitle=\bfseries}{th}
\newtcolorbox{comm}[1][]
{title=Kommentar,colback=black!5,colframe=black!35!black,fonttitle=\bfseries}
\newtcolorbox{relation}[1][]
{
colframe = blue!25,
colback = blue!10,
#1,
}
\newtcolorbox[number within=section]{exa}{%
% Example Frame Start
empty,% Empty previously set parameters
title={Beispiel.},% use \thetcbcounter to access the qikexample counter text
% Attaching a box requires an overlay
attach boxed title to top left,
% (boxed title style requires an overlay)
boxed title style={empty,size=minimal,toprule=0pt,top=4pt,overlay={}},
coltitle=black,fonttitle=\bfseries,
before=\par\medskip\noindent,parbox=false,boxsep=0pt,left=0pt,right=3mm,top=2pt,breakable,pad at break=0mm,
before upper=\csname @totalleftmargin\endcsname0pt, % Use instead of parbox=true. This ensures parskip is inherited by box.
% Handles box when it exists on one page only
overlay unbroken={\draw[black,line width=.5pt] ([xshift=-10pt]title.north west) -- ([xshift=-10pt]frame.south west); },
% Handles multipage box: first page
overlay first={\draw[black,line width=.5pt] ([xshift=-10pt]title.north west) -- ([xshift=-10pt]frame.south west); },
% Handles multipage box: middle page
overlay middle={\draw[black,line width=.5pt] ([xshift=-10pt]frame.north west) -- ([xshift=-10pt]frame.south west); },
% Handles multipage box: last page
overlay last={\draw[black,line width=.5pt] ([xshift=-10pt]frame.north west) -- ([xshift=-10pt]frame.south west); },%
}
\usepackage{etoolbox}
\usepackage{amsthm}
\usepackage{amssymb}
\usepackage{gauss}
\usepackage{stmaryrd}
\theoremstyle{remark}
\newtheorem{expe}{experiment}[section]
\theoremstyle{definition}
\newtheorem{beobachtung}{Beobachtung}
\newtheorem{folgerung}{Folgerung}
\newtheorem*{notte}{Beachte}
\newtheorem*{notation}{Notation}
\newtheorem*{proposition}{Proposition}
\newtheorem{lemma}{Lemma}[section]
\newtheorem*{korollar}{Korollar}
\theoremstyle{definition}
\newtheorem*{prof}{Beweis}
\theoremstyle{remark}
\newtheorem*{bem}{Bemerkung}
\AfterEndEnvironment{prof}{\qed\\}
\author{Nebnola, Julius Quasebarth, Valentin Boettcher}
\date{\today}
\title{Lineare Algebra (für Physiker) I \\$\bowtie$}
\hypersetup{
pdfauthor={Nebnola, Julius Quasebarth, Valentin Boettcher},
pdftitle={Lineare Algebra (Physiker) I},
pdfkeywords={},
pdfsubject={},
pdflang={Germanq}}
\usepackage{xcomment}
\makeatletter
\renewcommand*\l@tcolorbox{\@dottedtocline{1}{1.5em}{3.5em}}
\makeatother
\setlength{\parindent}{0cm}
\begin{document}
\maketitle
% --\xcomment{definition,proposition,beobachtung,lemma,folgerung,notte,korollar,Axiom,theo,satz}
\tableofcontents
\newpage
Ihr habt hier die Mitschriften Valentin Boettchers vor euch. Er teilt eben Diese
"ausserst gern mit euch und freut sich "uber Feedback, Fehlerkorrekturen und
Verbesserungsvorschl"age. Kontaktiert ihn am besten via \href{mailto:valentin.boettcher@mailbox.tu-dresden.de}{Email} :).
Vor allem aber ist es wichtig zu verstehen, dass das Format dieses Skriptes
kein allumfassendes Kompendium ist und nur den Inhalt der Vorlesung abdeckt.
Wenn Valentin einmal ein Paar interessante Gedanken kommen, packt er sie
wohlm"oglich auch hinein, versucht aber immer deren Korrektheit zu
gew"ahrleisten. Auch Kommentare des Lesenden k"onnen Teil dieses Skriptes
werden.
Wie ihr bestimmt bis hierher bemerkt habt, ist Valentins Rechtschreibung
grausig: Also frisch ans Werk und Feedback geben.
Viel Vergn"ugen. \textbf{Mathe ist sch"on.}
\part{Grundlagen}
\chapter{Mengenlehre}
\label{sec:orgd4be270}
In der modernen Mathematik fasst man Strukturen (R"aume, Fl"achen,
Zahlensysteme) als \emph{Mengen} und \emph{Abbildungen} auf.
\begin{definition}{Menge}{def-meng}
Eine Zusammenfassung von Objekten die \textbf{Elemente} der Menge heissen. Eine Menge ist
also eindeutig dadurch bestimmt, welche Elemente sie enth"alt.
\end{definition}
\begin{notation}\
\begin{itemize}
\item \(M=\{m_1,m_2,m_3,...\}\) - Aufz"ahlung
\begin{itemize}
\item \(\{...\}\) - Mengenklammern
\end{itemize}
\item \(M=\{x| P(x)\}\) - Eigenschaft
\begin{itemize}
\item Alle \(x\) mit der Eigenschaft \(P(x)\)
\end{itemize}
\end{itemize}
\end{notation}
\begin{exa}\
\begin{itemize}
\item \(n=\{\text{Nat"urliche Zahlen}\} = \{0,1,2,...\}\)
\item \(E=\{x|\text{x hat die Eigenschaft } P(x)\}\)
\end{itemize}
\end{exa}
\section{Wichtige Mengen}
\label{sec:orga565e26}
\begin{itemize}
\item \(\mathbb{N}=\{\text{Nat"urliche Zahlen}\} = \{1,2,...\}\)
\item \(\mathbb{Z}=\{\text{Ganze Zahlen}\} = \{...,-2,-1,0,1,2,...\}\)
\item \(\mathbb{Q}=\{\text{Rationale
Zahlen}\}=\left\{\left.\displaystyle\frac{p}{q}\;\right\vert\begin{array}{c}p \in \mathbb{Z} \\ q \in \mathbb{N} \setminus \{0\}\end{array}\right\}\)
\item \(\mathbb{R}=\{\text{Reelle Zahlen}\}\)
\end{itemize}
\section{Beziehungen zwischen Mengen}
\label{sec:orgcffbbc3}
\begin{definition}{Mengenbeziehungen}{def-teilmenge}
Seien \(A,B\) zwei Mengen.
\begin{enumerate}
\item \(A\) heisst \textbf{Teilmenge} von B, wenn f"ur jedes Element \(a\in A\) gilt: \(a\in B\).
\item Es sei die Menge \(C = \{a|a\in A \text{ und } b\in B\}\), so heisst \(C\) \textbf{Durchschnitt} von \(A\) und \(B\).
\item Es sei die Menge \(C = \{a|a\in A \text{ oder } b\in B\}\), so heisst \(C\) \textbf{Vereinigung} von \(A\) und \(B\).
\end{enumerate}
\end{definition}
\begin{notation}\
\begin{itemize}
\item \(\in\) Element von: \(x\in X\) - \gq{x ist Element von X}
\item \(\subseteq\) Teilmenge: \(A\subseteq B\) - \gq{A ist eine Teilmenge von B}
\item \(\subset\) echte Teilmenge: \(A\subset B \iff A\subseteq B \land A \neq B\)
\item \(\cap\) Durchschnitt: \(A\cap B = \{a|a\in A \text{ und } b\in B\}\)
\item \(\cup\) Vereinigung: \(A\cup B = \{a|a\in A \text{ oder } b\in B\}\)
\item \(\varnothing\) Leere Menge: enth"alt keine Elemente und ist Teilmenge aller Mengen
\item \(\setminus\) Mengendifferenz: \( A\setminus B = \{a|a\in A \land a\notin B \} \)
\item \(A\times B\) Direktes Produkt: \(A \times B = \{(a,b)|a\in A\land b\in B \} \)
\begin{itemize}
\item \((a,b)\): geordentes Paar mit dem ersten Element \(a\) und dem zweiten
Element \(b\).
\end{itemize}
\end{itemize}
\end{notation}
\begin{exa}
\(\mathbb{N}\subseteq \mathbb{Z}\), aber \(\mathbb{Q} \nsubseteq \mathbb{Z}\): \(\frac{1}{2} \notin \mathbb{Z}\)
\end{exa}
\begin{exa}
F"ur \(A = \{1,2,3,4,5\}\) und \(B = \{2,3,10\}\):
\begin{itemize}
\item \(A\cap B = \{2,3\}\)
\item \(A\cup B = \{1,2,3,4,5,10\}\)
\end{itemize}
\end{exa}
\begin{definition}{Leere Menge}{}
Die leere Menge \(\varnothing\) ist die (eindeutig bestimmte) Menge, die kein Element enth"alt.
\end{definition}
\begin{exa}
\(\{\pi\} \cap Q = \varnothing\)
\end{exa}
\begin{definition}{Differenz}{}
Die Differenz zweier Mengen \(A, B\) wird definiert als \(A\setminus B = \{a\in A | a\not\in
B\}\) (Elemente aus \(A\), die nicht in \(B\) liegen).
\end{definition}
\begin{definition}{Direktes/Kartesisches Produkt}{}
Wenn \(A,B\) zwei Mengen sind dann ist die Menge der Paare \((a,b)\) und \(a\in A,
b\in B\) das direkte (kartesische) Produkt von \(A\) und \(B\) (\(A\times B\)).
\end{definition}
Analog gilt: \(A_1\times A_2\times ... \times A_n = \{(a_1,...,a_n)| a_1\in A_1,...,a_n\in A_n\}\)
\begin{exa}
\(\mathbb{R}^n=\mathbb{R}\times ... \times \mathbb{R} = \{(x_1,...,x_n)| x_1\in \mathbb{R},...,x_n\in \mathbb{R}\}\)
\end{exa}
Geometrie \(m\) der Ebene mit Koordinaten \(=\) Untersuchung von Konstruktionen in
\(\mathbb{R}^2=\mathbb{R}\cdot\mathbb{R}\).
\begin{definition}{Komplemen"armenge}
Seien \(A,M\) Mengen und \(A\subseteq B\) so ist \(A^c = M\setminus A\) und heisst
\textbf{Komplement"armenge} zu \(M\).
\end{definition}
Seien \(A,B,M\) Mengen und \(A\subseteq M\) und \(B\subseteq M\), so gilt:
\begin{relation}
\begin{enumerate}
\item \((A\cup B)^c = A^c \cap B^c\)
\item \((A\cap B)^c = A^c \cup B^c\)
\item \((A^c)^c = A\)
\item \(A\cup A^c = M\)
\end{enumerate}
\end{relation}
\begin{notte}
Es gelten auch alle Identit"aten f"ur Mengen.
\end{notte}
\section{Abbildungen zwischen Mengen}
\label{sec:org4ef8946}
\begin{definition}{Abbildung}{}
Seien \(X,Y\) Mengen. Eine Abbildung \(f\) von \(X\) nach \(Y\) (Bez: \(f:X\rightarrow
Y\)) ist eine Vorschrift, die jedem Element \(x\in X\) ein Element von
\(y\in Y\) Zuordnet.
\end{definition}
\begin{notation}
Man schreibt: \(x\mapsto f(x)\) - ''x wird auf \(f(x)\) abgebildet'' = ''dem \(x\in
X\) wird ein \(f(x)\in Y\) zugeordnet.''
\end{notation}
\begin{exa}\
\begin{itemize}
\item \(f(t)=t^2+1\) definiert eine Abbildung \(f: \mathbb{R}\to \mathbb{R}, t\mapsto f(t)=t^2+1\)
\item \(g(t)= \frac{t^2+1}{t-1}\) definiert eine Abbildung \(g: \mathbb{R}\setminus\{
1\}\to \mathbb{R}, t\mapsto \frac{t^2+1}{t-1}\)
\item \(h: S=\{\text{Teilnehmer der Vorlesung}\}\to N, s\mapsto \text{Geburtsjahr(s)}\)
\end{itemize}
\end{exa}
\subsection{Spezielle Abbildungen}
\label{sec:orge512a75}
\begin{relation}
\begin{enumerate}
\item F"ur jede Menge \(X\) ist die \textbf{Indentit"atsabbildung} auf \(X\) definiert durch \(Id_x:X\to X, x\mapsto x\).
\item Gegeben seien Mengen \(A,B\). Die Abbildung \(\pi_A: A\times B \to A, (a,b)
\mapsto a\) heisst \textbf{Projektionsabbildung} von \(A\times B\) auf \(A\).
\item Seien \(X,Y\) Mengen, sei \(y_0 \in Y\). Dann heisst die Abbildung \(f: X\to
Y, x\mapsto y_0\) eine \textbf{konstante Abbildung} (mit dem wert \(y_0\)).
\end{enumerate}
\end{relation}
\begin{exa}\
\begin{itemize}
\item Identit"atsabbildung: \(f(x)=x\)
\item konstante Abbildung: \(f(x)=1\)
\item Projektionsabbildung: \(f(x,y)=x\)
\end{itemize}
\end{exa}
\subsection{Bild und Urbild}
\label{sec:org006b051}
\begin{definition}{Bild und Urbild einer Funktion}{}
Sei \(f: X\to Y\) eine Abbildung.
\begin{itemize}
\item Sei \(A\subseteq X\). Dann heisst \(f(A):=\{f(a)|a\in A\}\) das Bild von A.
\item Sei \(B\subseteq Y\). Dann heisst \(f^{-1}(B):=\{a\in A|f(a)\in B\}\) das Urbild von \(B\).
\end{itemize}
\end{definition}
\begin{notte}
Das Bild und das Urbild f"ur eine \emph{Menge} einer Funktion ist wieder eine \emph{Menge}.
\end{notte}
\begin{notte}
\(f^{-1}\) ist keine Abbildung, sonder nur ein formales Symbol!s
\end{notte}
\subsection{Einige Eigenschaften von Funktionen}
\label{sec:org1909a84}
Seien \(X,Y\) Mengen, \(f: X\to Y\) eine Abbildung. \(f\) heist:
\begin{relation}
\begin{enumerate}
\item \textbf{Injektiv}, wenn f"ur \(x\in X\not = x' \in X\) gilt: \(f(x) \not = f(x')\)
\begin{itemize}
\item Keine Verklebung von Punkten!
\end{itemize}
\item \textbf{Surjektiv}, wenn f"ur \(y\in Y\) ein \(x\in X\) existiert mit \(f(x)=y\).
\begin{itemize}
\item Keine Abbildung auf eine echte Teilmenge von \(Y\)!
\end{itemize}
\item \textbf{Bijektiv}, wenn \(f\) injektiv und surjektiv ist.
\end{enumerate}
\end{relation}
\begin{exa}
\begin{enumerate}
\item \(f: \mathbb{R} \to \mathbb{R}, t\mapsto t^2\)
\begin{itemize}
\item ist nicht injektiv: \(-1\mapsto 1\)
\item ist nicht surjektiv: f"ur \(-1\in \mathbb{R}\) gibt es kein \(t\in\mathbb{R}\)
mit \(t^2=-1\)
\end{itemize}
\item \(g: \mathbb{N}\to\mathbb{Z}, n\mapsto-n\)
\begin{itemize}
\item ist injektiv: \(m\ne n\implies g(m)=-m \ne -n = g(n)\)
\item ist nicht surjektiv: f"ur \(1\in \mathbb{Z}\) gibt es kein \(n\in \mathbb{N}\)
mit \(-n=1\)
\end{itemize}
\item \(h: \mathbb{R}\to\mathbb{R},t\mapsto t^3\) ist Bijektiv ("Ubung)
\end{enumerate}
\end{exa}
\subsection{Inverse Abbildung zu einer bijektiven Abbildung}
\label{sec:orgaae7124}
\begin{definition}{Inverse Abbildung}{}
Sei \(f:X\to Y\) bijektiv. Sei \(y\in Y\). Definiere eine Abbildung \(f^{-1}:
Y\to X\) so: \(f^{-1}(y)=x\) mit der Eigenschaft \(f(x)=y\).
\end{definition}
Dies ist wohldefiniert (diese Vorschrift definiert tats"achlich eine Abbildung)
weil:
\begin{relation}
\begin{itemize}
\item Das x mit der gew"unschten Eigenschaft existiert f"ur jedes \(y\in Y\), weil
\(f\) surjectiv ist.
\item F"ur jedes \(y\in Y\) existiert h"ochstens ein \(x\in X\) mit der gew"unschten
Eigenschaft, weil \(f\) injektiv ist.
\end{itemize}
\end{relation}
\begin{notte}
Wenn die Abbildung \(f\) bijektiv ist, hat \(f^{-1}(A)\) f"ur ein \(A\subseteq Y\) a
priori zwei Bedeutungen:
\begin{itemize}
\item Urbild von \(A\) unter f
\item Bild von \(A\) von \(f^{-1}\)
\end{itemize}
Wenn \(f\) bijektiv ist, stimmen aber diese Mengen "uberein. (Bew. "Ubung)
\textbf{Aber}: Wenn \(f\) nicht bijektiv ist, hat \(f^{-1}\) nur einen Sinn: Urbild!
\end{notte}
\subsection{Verkn"upfung von Abbildungen}
\label{sec:org540b965}
\begin{definition}{Verkn"upfung}{}
\(f: X\to Y, g: Y\to Z\) ist die verkn"upfung \(g\circ: X\to Z\) definiert
als \(g\circ f(x)=g(f(x))\). Diagramme Siehe V2\(_{\text{1}}\).
\end{definition}
Die Verkn"upfung hat folgende Eigenschaften:
\begin{relation}
\begin{enumerate}
\item Sie ist Assoziativ: \(h\circ (g\circ f) = (h \circ g) \circ f\) f"ur alle Abb. \(f: X\to Y, g:Y\to Z\), \(h:Z\to V\)
\item F"ur jede abbildung \(f: X\to Y\) gilt: \(f\circ id_X=id_Y\circ f = f\).
\item Wenn \(f:X\to Y\) bijektiv ist, dann gilt: \(f\circ f^{-1}=id_Y\):
\begin{itemize}
\item \(f^{-1}\circ f=id_X\) weil: \(f(f^{-1}(y))=y\):
\item \(f^{-1}(f(x))=x'\) mit \(f(x')=f(x)\implies x=x'\) wenn \emph{Bijektiv}
\end{itemize}
\end{enumerate}
\end{relation}
\subsection{Eingeschr"ankte Abbildungen}
\label{sec:org60b2559}
\begin{definition}{Einschr"ankung}{}
Sei \(f: X\to Y\) eine Abbildung.\\
Die Einschr"ankung von \(f\) auf eine Teilmenge \(A\subseteq X\) ist die Abbildung:
\(f|_A:\begin{matrix}A\to Y\\ a\mapsto f(a)\end{matrix}\)
\end{definition}
\begin{exa}
\(f: \mathbb{R}\to \mathbb{R}, t\mapsto t^{2}\) ist nicht injektiv, \(f|_{[0,
\infty)}\) ist injektiv.
\end{exa}
\subsection{Quantoren}
\label{sec:orgd2b2557}
\begin{definition}{Quantoren}{}
\begin{itemize}
\item f"ur alle \(x\) in \(X\) - \(\forall x \in X\)
\item es existiert \(x \in X\) - \(\exists x \in X\)
\end{itemize}
\end{definition}
\begin{exa}
\(f:X\to Y\) ist surjektiv, wenn \(\forall y \in Y \exists x\in X\) mit \(f(x)=y\).
\end{exa}
F"ur die Negation der Quantoren gilt:
\begin{relation}
\begin{itemize}
\item \(\neg(\forall x\in X : A(x)) = \exists x\in X : \neq A(x)\)
\item \(\neg(\exists x\in X : A(x)) = \forall x\in X : \neq A(x)\)
\end{itemize}
\end{relation}
\begin{exa} \
\(f: X\to Y\) ist surjektiv \(\iff \forall y\in Y \exists x\in X : f(x)=y\).\\
Also: \(f: X\to Y\) ist \textbf{nicht} surjektiv \(\iff \exists y\in Y \forall x\in X : f(x)\not=y\).
\end{exa}
\section{Schlagworte}
\label{sec:org0cab6a2}
\begin{itemize}
\item Venn Diagram - Kreise und Schnittmengen
\item Zeigen von "Aquivalenz zweier Zusammengeseten Mengen:
\begin{itemize}
\item Wahrheitstafel
\item Zur"uckf"uhren auf Aussagenlogik
\end{itemize}
\item Zeigen das \(p,q,r\) "aquivalent sind:
\begin{itemize}
\item \(p\implies q \implies r \implies q\)
\end{itemize}
\item \emph{Injektivit"at} zeigen:
\begin{itemize}
\item nicht I. wenn Gegenbeispiel existiert
\item Zeigen das Funktion streng monoton steigt.
\end{itemize}
\item \emph{Surjektivit"at} zeigen:
\begin{itemize}
\item nicht S. wenn Gegenbeispiel existiert
\item Zeigen das Funktion streng monoton steigt und gegen \(+-\infty\) strebt.
\end{itemize}
\item \(A\setminus (A\setminus B) = A \cap B\)
\item Beweise mit Abbildungen \(M\) sei Menge, \(f\) sei Abbildung:
\begin{itemize}
\item \(y \in f(M) \implies \exists x \in M : f(x)=y\)
\end{itemize}
\end{itemize}
\chapter{Logik und Beweisf"uhrung}
\label{sec:orgc083250}
Mathematik operiert mit \textbf{Aussagen}.
\begin{definition}{Aussage}{}
Eine Aussage ist eine Behauptung, die Wahr oder Falsch sein kann.
\end{definition}
\begin{notation}
\textbf{0} = wahr,
\textbf{1} = falsch
\end{notation}
\(A,B\) seien Aussagen, dann kann man folgende Aussagen betrachten:
\begin{relation}
\begin{itemize}
\item ''nicht \(A\)'': \(\neg A\)\\
\begin{tabular}{lrr}
\(A\) & 0 & 1\\
\hline
\(\neg A\) & 1 & 0\\
\end{tabular}
\item Vernk"upfungen\\
\begin{tabular}{rrrrrr}
\(A\) & \(B\) & \(\neg A\) & \(A\wedge B\) & \(A \vee B\) & \(A\implies B\)\\
\hline
0 & 0 & 1 & 0 & 0 & 1\\
0 & 1 & 1 & 0 & 1 & 1\\
1 & 0 & 0 & 0 & 1 & 0\\
1 & 1 & 0 & 1 & 1 & 1\\
\end{tabular}
\item ''A "aquivalent zu B'': \(A\iff B\) \\
\begin{tabular}{rrr}
\(A\) & \(B\) & \(A \iff B\)\\
\hline
0 & 0 & 1\\
0 & 1 & 0\\
1 & 0 & 0\\
1 & 1 & 1\\
\end{tabular}
\end{itemize}
\end{relation}
\begin{exa}
F"ur ein Element \(x\in X\) k"onnen wir Aussagen betrachten:
\begin{enumerate}
\item \(A(x)=x\in A\)
\item \(B(x)=x\in B\)
\end{enumerate}
\(\longrightarrow A(x)\wedge B(x)=x\in (A\cap B)\)
\end{exa}
\section{Identit"aten der Aussagenlogik}
\label{sec:orgd743b6e}
\begin{relation}
\begin{enumerate}
\item Direkter Beweis
\begin{itemize}
\item \((A\implies B) = (\neg A)\vee B\)
\item Vorraussetzung \(\rightarrow\) logische Aussage \(\rightarrow\) Behauptung
\end{itemize}
\item Beweis in Schritten
\begin{itemize}
\item \(((A\implies B)\wedge (B\implies C))\implies (A\implies C)\) \\
\(\rightarrow\) Konstant \(=1\) (\emph{Tautologie})
\end{itemize}
\item Beweis durch Kontraposition
\begin{itemize}
\item \((A\implies B) \iff (\neg B \implies \neg A)\) - \emph{Tautologie}
\end{itemize}
\end{enumerate}
\end{relation}
\section{Widerspruchsbeweis}
\label{sec:org54c9d02}
Wenn wir die Konsequenz aus der Negation der zu beweisenden Aussage und die
Pr"amisse zu einem widerspruch f"uhren so ist die Aussage bewiesen, denn:
\begin{relation}
\[(A\wedge \neg A)=0\]
\end{relation}
Wir wollen \(A\implies B\) zeigen.
Nehmen an \(\neg B\) und leiten her:\\
\begin{relation}
\((\neg B \wedge A)\implies 0\), also \(\neg B\wedge A = 0\), und daher \(A\implies
B\).
\end{relation}
\begin{theo}{Satz von Euklid}{}
Es gibt unendlich viele Primzahlen.
\end{theo}
\begin{prof}\
\begin{enumerate}
\item Nehmen wie an, es gibt nur endlich viele Primzahlen. \(p_1, ..., p_n\).
\item Betrachte \(n=p_1\cdot p_2\cdot ... \cdot p_n + 1\). \(n\) geteilt durch jede
von den Primzahlen \(p_1, ..., p_n\) gibt Rest \(1\).
\item Also ist \(n\) eine Primzahl, aber \(n\not=p_1 ... p_n\) weil gr"osser.
\item Folglich enth"alt die Menge \({p_1,...,p_n}\) nicht alle Primzahlen.
\end{enumerate}
\indent\indent \(\rightarrow\) Das ist ein \textbf{Widerspruch}. (\((A\wedge \neg A) = 0\))
\end{prof}
\begin{exa}
Wir werden die Aussage: wenn \(q\) eine gerade Primzahl ist \(\implies q=2\)
beweisen.
\begin{prof}[Direkter Beweis] \
\begin{enumerate}
\item \(q\) ist gerade \(\implies q\) ist durch \(2\) Teilbar f"ur \(k\in\mathbb{N}\)
\item \(q\) ist aber eine Primzahl \(\implies\) einer der Faktoren in \(2\cdot k\) ist
gerade \(1\), \(2\not= 1\)
\item \(\implies k=1, q=2\)
\end{enumerate}
\end{prof}
\begin{prof}[Kontraposition] \
Wir m"ussen zeigen: \(q\not= 2\implies\) (\(q\) ungerade) \(\vee\) (\(q\) keine
Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl)
\(\implies q\) ist ungerade!
\begin{enumerate}
\item Wenn \(q\) gerade ist, \(q\cdot 2k\), also ist \(k>1\)
\item also \(q\not= 2\)
\end{enumerate}
\end{prof}
\begin{prof}[Widerspruchsbeweis] \
Annahme: \(q\) ist gerade, \(q\) ist eine Primzahl, \(q\not= 2\). Wir wollen einen
Widerspruch herleiten.
\begin{enumerate}
\item da \(q\) gerade ist, gilt \(q=2\cdot k\) f"ur ein \(k\in \mathbb{N}\)
\item da \(q\not= 2\), gilt \(k>1\)
\item aber \(q\) ist prim, also kann \(q\) kein Produkt von zwei Zahlen sein! \(\lightning\)
\end{enumerate}
\end{prof}
\end{exa}
\chapter{Komplexe Zahlen}
\label{sec:org73b0a26}
Idee: Man m"ochte Quadratische Gleichungen ohne reelle Nullstellen trotzdem
l"osen, also erweitert man die reellen Zahlen.
\begin{relation}
Die prototypische Quadratische Gleichungen ohne reelle L"osungen ist: \[x^2+1 =
0\]
Man f"ugt K"unstlich die Zahl \(i\) hinzu mit \(i^2=-1\), m"oglichst unter
Beibehaltung der "ublichen Rechenregeln: man braucht also die Zahlen \(b\cdot i :
b\in \mathbb{R}\) und \(a+b\cdot i : a,b\in \mathbb{R}\).
\end{relation}
Was passiert, wenn man solche Zahlen miteinander multipliziert ''als ob'' sie
normale Zahlen w"aren:
\begin{relation}
\((a+bi)\cdot(c+di)=ac+bc\cdot i+ad\cdot i+(-bd)=(ac-bd)+(bc+ad)\cdot i\) f"ur \(a,b,c,d\in \mathbb{R}\)
\end{relation}
Addieren kann man solche Ausdr"ucke auch:
\begin{relation}
\((a+bi)+(c+di)=(a+c)+(b+d)\cdot i\)
\end{relation}
\begin{definition}{Komplexe Zahlen}{}
Die komplexen Zahlen \(\mathbb{C}\) sind die Menge der Paare \((a,b)\in
\mathbb{R}^2\) versehen mit der Addition \((a,b)+(c,d)=(a+c,b+d)\) und der
Multiplikation \((a,b)\cdot (c,d)=(ac-bd, bc+ad)\).
\end{definition}
\begin{notation}[] \
\begin{itemize}
\item Statt \((a,b)\) schreibt man auch \((a+bi)\in \mathbb{C}\).
\item \(i:=(0,1)=0+1\cdot i\):
\begin{itemize}
\item nach Multiplikation erf"ullt \(i^2=-1\)
\end{itemize}
\end{itemize}
\end{notation}
Man "uberpr"uft, dass die "ublichen Rechenregeln aus \(\mathbb{R}\) weiterhin
gelten (\emph{K"orperaxiome}): F"ur \(z_1, z_2, z_3 \in \mathbb{C}\) gilt, z.B.:
\begin{relation}
\begin{itemize}
\item \(z_1\cdot (z_2+z_3)=z_1\cdot z_2+z_1\cdot z_3\)
\item \(z_1\cdot (z_2\cdot z_3)=(z_1\cdot z_2)\cdot z_3\)
\item \(z_1 + (z_2 + z_3)=(z_1 + z_2) + z_3\)
\end{itemize}
\end{relation}
\begin{notte}[]
\((\mathbb{R},+,\cdot)\subsetneq (\mathbb{C},+,\cdot)\) auf nat"urliche Weise als
der der Form \(a+0\cdot i = (a,0)\), \(a\in \mathbb{R}\).
\end{notte}
\begin{definition}{Real- und Imagin"aranteil}{}
F"ur \(z=a+b\cdot i\in \mathbb{C}\) heisst:
\begin{itemize}
\item \(a:=\Re(z)\) Realanteil von \(z\)
\item \(b:=\Im(z)\) Imagin"aranteil von \(z\)
\end{itemize}
Also ist \(z=\Re(z)+ \Im(z)\cdot i\).
\end{definition}
\begin{definition}{Reinimagin"are Zahlen}{}
Die Zahlen der Form \(b\cdot i : b\in \mathbb{R}\) heissen \textbf{rein Imagin"ar}.
\end{definition}
\section{Inverses zu einer komplexen Zahl}
F"ur reele Zahlen wissen wir: \(\forall a\in \mathbb{R}\) mit \(a\not= 0\;\exists\)
\(a^{-1} \in \mathbb{R}\) mit \(a\cdot a^{-1}=1\). Gilt das auch in \(\mathbb{C}\) ?
\begin{definition}{Komplexe Konjugation}{}
F"ur \(z\in \mathbb{C}\) heisst die Zahl \(\overline{z}:=a-bi\) die komplex
konjugierte Zahl zu \(a+bi\).
\end{definition}
\begin{exa}
\(\overline{1+i}=1-i\)
\end{exa}
\begin{relation}
\(z\cdot\overline{z}=(a+bi)(a-bi)=a^2+b^2\geq 0\) mit Gleichheit genau dann,
wenn \(z=0\)
\end{relation}
\begin{definition}{Betrag der Komplexen Zahl}{}
Der betrag der Komplexen Zahl \(z=a+bi\) ist gegeben durch:
\[|z|:=\sqrt{x\cdot \overline{z}}=\sqrt{a^2+b^2}\]
\end{definition}
\label{sec:org0018acd}
\begin{definition}{Inverses einer Komplexen Zahl}{ci}
Das Inverse einer Komplexen Zahl ist gegeben durch: \(\forall z\not= 0\; \exists z^{-1} = \frac{\overline{z}}{|z|^2}\) mit \(z \cdot z^{-1}=1\)
\end{definition}
\begin{exa} \
\((1+i)^{-1}=\frac{1-i}{2}\)
\end{exa}
Mnemonische Rechenregel, Multipliziere mit dem Inversen:
\begin{relation}
\(\frac{1}{1+i}=\frac{1-i}{(1+i)(1-i)}=\frac{1-i}{2}\)
\end{relation}
\section{Geometrische Interpretation von \(\mathbb{C}\)}
\label{sec:org992fe0c}
Siehe Zeichung \(C_1\).
\begin{relation}
\begin{itemize}
\item Addition: als Addition von Vektoren
\item Betrag: L"ange des Vektors
\item \(\varphi\) - Winkel zwischen der reellen Achse und dem Vektor der \(z\) entspricht,
gez"ahlt gegen den Urzeigersinn.
\end{itemize}
\end{relation}
Es folgt:
\begin{relation}
\(a=|z|\cdot \cos(\varphi)\) und \(b=|z|\cdot \sin(\varphi)\)
\end{relation}
\begin{notte}[]
\(\varphi\) ist nicht eindeutig bestimmt, sondern bis auf Addition von eines
vielfachen von \(2\pi\).
\end{notte}
\begin{exa}
\(\varphi=\frac{\pi}{4}\) und \(\varphi=-\frac{7\pi}{4}\) sind im geometrischen Bild von
\(\mathbb{C}\) "aquivalent.
\end{exa}
\begin{definition}{Argument einer Komplexen Zahl}{}
Sei \(z=|z|(\cos(\varphi)+i\cdot \sin(\varphi)\).
Der wert von \(\varphi\), welcher in \([0, 2\pi)\) liegt, heisst Hauptargument von \(z\):
\[\operatorname{arg}z =\varphi\]
Das Argument von \(z\) ist die Menge von allen \(\varphi \in R\) mit
\[
\operatorname{arg}z = \varphi \in \mathbb{R} \text{ sodass }
|z|(\cos(\varphi)+i\cdot \sin(\varphi)) = z
\]
\end{definition}
\begin{notte}[]
\(\operatorname{arg}z= {\operatorname{arg}z +2\pi k\; \forall k\in \mathbb{Z}}\)
\end{notte}
\begin{exa} \
Seien \(z_1=|z_1|\cdot \cos(\varphi_1)+i\cdot \sin(\varphi_1)\), \(z_2=|z_2|\cdot
\cos(\varphi_2)+i\cdot \sin(\varphi_2)\) zwei komplexe Zahlen.\\
So gilt: \(z_1\cdot z_2 = |z_1|\cdot |z_2|(\cos(\varphi_1+\varphi_2)+i\cdot \sin(\varphi_1 +
\varphi_2))\)
\end{exa}
\begin{relation}
Bei der Multiplikation von komplexen Zahlen multiplizieren sich die Betr"age,
und die Argumente addieren sich.
\end{relation}
F"ur geometrische Interpretation: Siehe \(C_2\).
Besonders n"utzlich ist dies f"ur die Multiplikation einer komplexen Zahl vom
Betrag \(1\):
\begin{align*}
|z|=1\iff z=\cos(\varphi)+i\cdot \sin(\varphi) \text{ f"ur ein } \varphi \in \mathbb{R}
\end{align*}
\begin{relation}
Es liegen \(\{z\in \mathbb{C} : |z|=1\}\) auf dem Einheitskreis.
Die Multiplikation mit von komplexen Zahlen Zahlen mit dem Betrag 1 entspricht
also der Rotation gegen den Urzeigersinn um \(\varphi\).
\end{relation}
\section{Exponentialform der komplexen Zahlen}
\label{sec:orgb4d9f14}
\begin{notation}[] \
\begin{itemize}
\item Exponentialform: \(\cos(\varphi)+i\cdot \sin(\varphi):=e^{i\cdot \varphi}\)
\item es gilt \(e^{i(\varphi_k)},\; k\in\mathbb{R}\) sind die Zahlen auf dem Einheitskreis
\end{itemize}
\end{notation}
\begin{definition}{Exponentialform der Komplexen Zahlen}{}
Die Exponentialform f"ur jede komplexe Zahl \(z\in\mathbb{C}\) lautet
\(z=|z|e^{i\cdot \operatorname{arg} z}\).
\end{definition}
Mit dieser Notation folgt:
\begin{relation}
\((e^{i\varphi})^n=(\cos(\varphi)+i\cdot\sin(\varphi))^2=e^{n\cdot i\cdot
\varphi}=\cos(n\cdot\varphi)+i\cdot\sin(n\cdot\varphi)\) f"ur alle \(n\in\mathbb{N}\)
\end{relation}
\begin{exa} \
\begin{align*}
(\cos(\varphi)+i\cdot \sin(\varphi))^2 & = \cos^2(\varphi)-\sin^2(\varphi)+2\cdot i\cdot\sin(\varphi)\cdot\cos(\varphi) \\
& = \cos(2\varphi) + 2\cdot i \cdot\sin(2\varphi) \\
\end{align*}
\[ \implies
\begin{cases}
\cos(2\varphi)=\cos^2(\varphi)-\sin^2(\varphi) \\
\sin(2\varphi)=2\cdot\sin(\varphi)\cdot\cos(\varphi)
\end{cases}
\]
\end{exa}
\section{Einscheitswurzeln}
\label{sec:org0755105}
Sei die gleichung \(x^n=a\) "uber \(\mathbb{R}\) gegeben. Je nach Vorzeichen von
\(a\) und Parit"at von \(n\), gibt es Varianten f"ur die Anzahl der L"osungen.
\begin{relation}
In \(\mathbb{C}\) hat aber die Gleichung \(z^n=a\) f"ur ein \(a\in
\mathbb{C}\setminus \{0\}\) immer genau \(n\) L"osungen.
\end{relation}
Sei \(w\in \mathbb{C}\) mit \(w^n=a\). Dann gilt \((\frac{z}{w})^n=1\) f"ur jedes
\(z\in \mathbb{C}\) mit \(z^n=a\). \textbf{Also} l"osen wir erst mal die Gleichung \(z^n=1\),
und dann reduzieren wir den allgemeinen Fall darauf.
\begin{definition}{Einheitswurzel}{}
Eine Zahl \(z\in \mathbb{C}\) heisst \(n\text{-te}\) Einheitswurzel, wenn \(z^n=1\).
\end{definition}
\begin{proposition}[]
F"ur jedes \(n\geq, n\in\mathbb{N}\) existieren genau \(n\)
Einheitswurzeln in \(\mathbb{C}\). Sie sind durch die Formel
\(z_k=e^{\frac{2\pi\cdot k\cdot i}{n}} \text{ mit } k=0,1,...,n-1\) gegeben.
\end{proposition}
\begin{prof}[] \
\(z_k\) sind \(n\text{-te}\) Einheitswurzeln denn:
\begin{align*}
z_k^n & = (e^{\frac{2\cdot\pi\cdot k}{n}})^n \\
& = e^{2\pi\cdot k} \\
& = 1
\end{align*}
Wir m"ussen noch zeigen, dass jede \(n\text{-te}\) Einheitswurzel von dieser Form
ist. \\
Sei \(z\in\mathbb{C}\) mit \(z^n=1\). Es gilt:
\begin{align*}
|z|^n & =|z^n|=1 \\
& \implies |z|=1 \\
& \implies z=e^{i\cdot\varphi} \tag*{f"ur ein $\varphi\in[0, 2\pi)$} \\
& \implies 1 = z^n \\
& = (e^{i\varphi})^n=e^{i\varphi\cdot n} \\
& =\cos(n\varphi)+i\cdot \sin(n\varphi)
\end{align*}
Also folgt:
\begin{gather*}
\cos(n\varphi)=1,\;\sin(n\varphi)=0 \\
\implies n\cdot\varphi = 2\pi\cdot k \tag*{f"ur ein $k\in \mathbb{Z}$} \\
\implies \varphi = \frac{2\pi\cdot k}{n} \tag*{f"ur ein $k\in \mathbb{Z}$}
\end{gather*}
Da \(\varphi\) in \([0,2\pi)\implies 0\leq k < n\).
\end{prof}
Wenn wir jetzt also eine Gleichung \(z^n=a\) l"osen wollen, reicht es, eine
L"osung \(w\) zu finden, die anderen L"osungen bekommt man als \(w\cdot z_k,\;
k=0,...,n-1\) mit \(z_k\), der \(n\text{-ten}\) Einheitswurzeln: \(z^n=a\iff
(\frac{z}{w})^n=1\).\\
Eine L"osung \(w\) kann man folgendermassen finden:
\begin{relation}
\begin{align*}
\text{Schreiben wir a}\; & =|a|\cdot e^{i\cdot \psi}\; \text{f"ur ein $\psi\in \mathbb{R}$} \\
\text{Dann gilt: }
w & =\sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}} \text{ l"ost $w^n=a$} \\
& \\
\left(\sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}}\right)^n & = \sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}\cdot n} \\
& = |a|\cdot e^{i\cdot \psi} \\
& = a
\end{align*}
\end{relation}
Gemetrische Interpretation: regul"ares \(n\text{-Eck}\).
\newpage
\chapter{Lineare Gleichungsysteme}
\label{sec:org4c2c71d}
Wir werden die Bezeichung \(K\) f"ur \(\mathbb{R}\) oder \(\mathbb{C}\) verwenden.
\begin{definition}{Lineare Gleichung}{}
Eine Lineare Gleichung "uber \(K\) ist eine Gleichung der Form
\(a_1x_1+a_2x_2+...+a_nx_n=b\).\\
Hierbei sind \(x_1,...,x_n\) die Variablen und \(a_1,...,a_n,b \in K\), die Koeffizienten.
\end{definition}
\begin{definition}{Lineares Gleichunssystem}{}
Ein Lineares Gleichungsystem ist eine endliche Menge von Gleichungen:
\[{\displaystyle {\begin{matrix}a_{11}x_{1}+a_{12}x_{2}\,+&\cdots
&+\,a_{1n}x_{n}&=&b_{1}\\a_{21}x_{1}+a_{22}x_{2}\,+&\cdots
&+\,a_{2n}x_{n}&=&b_{2}\\&&&\vdots &\\a_{m1}x_{1}+a_{m2}x_{2}\,+&\cdots
&+\,a_{mn}x_{n}&=&b_{m}\\\end{matrix}}}\]
\end{definition}
Ein L"osung von diesem Gleichungssystem ist ein \[n\text{-Tupel }
\left( \begin{matrix} x_{1}\\ \vdots\\ x_{n}\end{matrix} \right) \in K^{n} \]
dass jede Gleichung erf"ullt. Ein lineares Gleichungssystem (LGS) zu l"osen,
heisst, alle L"osungen zu finden.
\begin{relation}
\textbf{Idee}: Man formt das LGS durch Operationen um, die die Menge der L"osungen nicht
ver"andern. Solche Operationen heissen "Aquivalenzumformungen. Diese sind unter
anderem:
\begin{enumerate}
\item Multiplikation einer Gleichung mit einer zahl \(\alpha\in K\setminus \{0\}\)
\item Addierung von einer Gleichung zu der anderen (z.B. Ersetzen der zweiten
Gleichung durch die Summe der ersten und zweiten.)
\item Vertauschen von zwei Gleichungen; dies kann man auf Operationen von Typ eins
und Zwei zur"ukf"uhren
\end{enumerate}
\end{relation}
Wir werden ein LGS umformen, um es auf eine Form zu bringen, wo die L"osung
offensichtlich ist.
Wir beobachten:
\begin{relation}
Es ist "uberflu"ssig, die Variablen mitzuschleppen. Man k"onnte statdessen die
''Tabellen'' von Koeffizienten umformen.
\end{relation}
\begin{definition}{Matrix}{}
Eine \(M\times N\) Matrix \(A\) ist eine Tabelle der Gr"osse \(m\times n\), gef"ullt
mit Elementen aus \(K\).
\[A=(a_{ij})_{\substack{i=1,\cdots,m \\ j=1,\cdots,n}}\]
\end{definition}
\begin{exa}
\[
A=\left( \begin{matrix} 1& 1\\ 2& -3\end{matrix} \right)
\]
Wobei \(a_{11} = 1\), \(a_{21} = 2\), \(a_{12}=1\) und \(a_{22}=-3\).
\end{exa}
\begin{relation}
Gegeben ein LGS (\(*\)), k"onnen wir eine Matrix \[ A=\left( \begin{matrix}
a_{11}& \cdots & a_{1n}\\ \vdots & & \vdots \\ a_{n1}& \ldots &
a_{nn}\end{matrix} \right) \] aufstellen. Sie heisst Koeffizientenmatrix des
LGS. Auch stellen wir \[b=\left( \begin{matrix} b_{1}\\ \vdots
\\ b_{n}\end{matrix} \right)\]
eine \(m\times 1\) Matrix (Spalte) auf. (Sie
heisst rechter Teil des LGS). Die Matrix \(A'=(A\mid b)\) heisst erweiterte
Koeffizientenmatrix des LGS (\(*\)).
\end{relation}
\begin{definition}{Elementare Zeilenumforumungen}{}
Die "Aquivalenzumformungen des LGS, die wir vorhin betrachtet haben, entsprechen
dann folgenden Umformungen von der erweiterten Koeffizientenmatrix:
\begin{itemize}
\item[1'.] Multiplikation einer Zeile mit $\alpha \in K$
\item[2'.] Addieren von einer Zeile zu der anderen.
\end{itemize}
Wir werden dann versuchen, die (erweiterten koeffzienten-) Matrizen durch diese
Umformungen auf eine Form zu bringen, in der man die L"osung leicht ablesen
kann.
\(1'\) und \(2'\) heissen elementare Zeilenumforumungen.
\end{definition}
Weitere Zeilenumformungen, die man aus diesen erhalten kann:
\begin{relation}
\begin{itemize}
\item Vertauschen Zweier Zeilen
\item Addieren einer Zeile, Multipliziert mit \(\alpha \not= 0\)
\end{itemize}
\end{relation}
Ziel ist eine gegebe erweiterte Koeffizientenmatrix \((A\mid b)\), durch
Zeilenumformungen zu einer Matrix umzuformen, aus der man die L"osung leicht
ablesen kann.
\begin{definition}{Pivotelement}{}
Gegeben einer Zeile \(Z=(a_1,...,a_n)\in K^n\), nennen wir das erste Element
\(a\not= 0\) das Pivotelement.
Wenn \(Z=(0,...,0)\) ist dann gibt es kein Pivotelement.
\end{definition}
\begin{definition}{Zeilenstufenform}{}
Eine Matrix \(A\) hat Zeilenstufenform, wenn folgendes gilt:
\begin{enumerate}
\item Die Nummern von Pivotlementen der Zeilen von \(A\) bilden eine aufsteigende
Folge.
\item Die Nullzeilen, falls existent, stehen am Ende.
\end{enumerate}
\end{definition}
\begin{exa} \
\[
\begin{pmatrix}
0 & a_{12} & a_{13} \\
0 & 0 & a_{23} \\
0 & 0 & 0 \\
\end{pmatrix}
\]
\end{exa}
\begin{theo}{Gausssches Eliminationsverfahren}{}
Jede Matrix kann durch elementare Zeilenumformungen auf die Stufenform gebracht
werden.
\end{theo}
\begin{prof}[]
Sei \(A=
\begin{pmatrix}
a_{11} & \cdots & a_{1n} \\
\vdots & \ddots & \vdots \\
a_{n1} & \cdots & a_{nn} \\
\end{pmatrix}\).
\begin{itemize}
\item Wenn \(A=0 \implies\) Bewiesen.
\item Wenn \(A\not=0\), dann gibt es eine Spalte \(\not= 0\). Sei
\(j_1\) die Nummer dieser Spalte. Durch vertausche von Zeilen erreichen wir
zun"achst \(a_{1j_1}\not= 0\). Multiplaktion der ersten Zeile mit
\(\frac{1}{a_{1j_1}}\). Jetzt Subtrahiere von jeder Zeile ab der Zweiten die erste
Zeile multipliziert mit \(a_{kj_1}\) (\(k=\) Nummer der Zeile).\\
Wir erhalten dann Restmatrix \(A_1<A\) und wir wenden das selbe Verfahren auf
\(A_1\) an. Da \(A_1\) weniger Zeilen hat, stoppt der ganze Prozess.
\end{itemize}
\begin{notte}
Nach diesem Verfahren gilt sogar: Pivotelemente sind alle \(=1\)
\end{notte}
\end{prof}
\begin{exa}
\begin{align*}
& \begin{gmatrix}[p]
1 & 2 \\
3 & 4
\rowops
\add[-3]{0}{1}
\end{gmatrix} \\
\implies & \begin{gmatrix}[p]
1 & 2 \\
0 & -6
\rowops
\mult{1}{\scriptstyle\cdot-\frac{1}{6}}
\end{gmatrix} \\
\implies & \begin{gmatrix}[p]
1 & 2 \\
0 & 1
\end{gmatrix}
\end{align*}
\end{exa}
\begin{definition}{Reduzierte Zeilenstufenform}{}
Nachdem wir die Zeilenstufenform mit Pivotelementen \(=1\) erreicht haben, k"onnen
wir durch weitere Zeilenumformungen die eintr"age zu Null f"uhren, die oberhalb
von Pivotelementen stehen. Die Finalform heisst dann \textbf{reduzierte
Zeilenstufenform}.
\end{definition}
Das entsprechende Verfahren zum L"osen von LGS sieht so aus:
\begin{relation}
\begin{enumerate}
\item Bringe die erweiterte Koeffizientenmatrix auf die reduzierte
Zeilenstufenform: \\
Die Spalten mit den Pivotelementen in dieser reduzierten Zeilenstufenform
nennen wir Basispalten.
\item Zwei F"alle:
\begin{enumerate}
\item Letzte Spalte des ist eine Basispalte - in diesem Fall hat das LGS keine
L"osungen, da eine Gleichung \(0=1\) entsteht.
\item Die letzte Spalte ist keine Basisspalte: \\
Das LGS in der reduzierten Zeilenstufenform dr"uckt die Variablen, die zu
Basisspalten geh"oren , durch die restlichen (freien) Variablen und den
rechten Teil des LGS aus. Alle L"osungen werden dadurch erhalten, dass
man f"ur die freien Variablen beliebige Werte in \(K\) ausw"ahlt. Die
Basisvariablen werden dann durch Freie Variablen ausgedr"uckt.
\end{enumerate}
\end{enumerate}
\end{relation}
\section{Matrizenrechnung}
\label{sec:org0f3e63e}
\begin{definition}{Matrix-Spaltenvektor Produkt}{}
Das Produkt von einer \(m\times n\) Matrix \(A\) und einer Spalte \(x=\begin{pmatrix}
x_1\\\vdots\\x_n
\end{pmatrix}\) (in dieser
Reihenfolge) wird definiert durch \[A\cdot x =
\begin{pmatrix}
a_{11}x_1 + \cdots + a_{1n}x_n \\
\cdots \\
a_{m1}x_1 + \cdots + a_{mn}x_n
\end{pmatrix}
=x_1\cdot\begin{pmatrix}
a_{11}\\\vdots\\a_{m1}
\end{pmatrix} + \cdots +
x_n\cdot\begin{pmatrix}
a_{n1}\\\vdots\\x_{mn}
\end{pmatrix}
\]
\end{definition}
\begin{exa}
In dieser Schreibweise wird das LGS
\(A\cdot x = b\).
\end{exa}
\todo{Besipiel Ergaenzen}
\begin{notation}$ $\newline
\begin{itemize}
\item Die Menge von Matrizen der Gr"osse \(m\times n\) mit Eintr"agen in \(K\) wird durch \(M(m\times n, K)\) oder \(K^{m\times n}\) bezeichnet.
\item Matrizen der Gr"osse \(1\times
n\) heissen \textbf{Spalten} der L"ange \(n\).
\item Matrizen der Gr"osse \(n\times 1\) heissen
\textbf{Zeilen} der L"ange \(n\).
\end{itemize}
\end{notation}
\begin{definition}{Addition von Matrizen}{}
Matrizen gleicher Gr"osse kann man eintragsweise Addieren. Seien \(A,B \in K^{m\times n}\), dann ist ihre Summe: \[(A+B)_{ij}:=A_{ij}+B_{ij}\]
\end{definition}
\begin{definition}{Skalarmultiplikation von Matrizen}{}
Matrizen kann man mit Zahlen multiplizieren (indem man jeden eintrag mit dieser
Zahl multipliziert).
\[(\lambda \cdot A)_{ij}:=\lambda \cdot A_{ij}\]
\end{definition}
\begin{definition}{Matrix-Multiplikation}{}
Wenn die Breite von \(A\) mit der H"ohe von \(B\) "ubereinstimmt, kann man das
Produkt \(A\cdot B\) definieren: \\
\(A\cdot B:=(A\cdot b_1\; \cdots \; A\cdot b_n)\) mit \(B=(b_1\; \cdots\; b_n)\) (Spalten)
mit \(A\cdot B \in K^{p\times n}\)
\end{definition}
\begin{exa}
\({\begin{pmatrix}1&1\\{\color {red}0}&{\color {red}1}\\1&0\end{pmatrix}}{\begin{pmatrix}4&6&{\color {red}8}&2\\5&7&{\color {red}9}&3\end{pmatrix}}={\begin{pmatrix}9&13&17&5\\5&7&{\color {red}9}&3\\4&6&8&2\end{pmatrix}}\)
\end{exa}
\section{Eigenschaften der Matrix-Multiplikation}
\label{sec:org8eaaee0}
\begin{notation}[]
\begin{itemize}
\item wenn \(\alpha_1,...,\alpha_n\in K\) dann notieren wir \(\alpha_1+...+\alpha_n :=
\sum_{i=1}^{n}{\alpha_i}\)
\item analog \(\alpha_1\cdot ...\cdot\alpha_n := \Pi_{i=1}^{n}{\alpha_i}\)
\end{itemize}
\end{notation}
\begin{relation}
Es gilt dann mit \(A=(a_{ij})_{\substack{i,j=1,p}}:\; (A\cdot
x)_i=\sum_{j=1}^{p}{a_{ij}\cdot x_j,\, i=1,p}\) \\
Insbesondere gilt: \((A\cdot b_k)_i = (A\cdot B)_{ik}\) und \((b_k)_j=B_{jk}\)
\end{relation}
\begin{relation}
Matrixmultiplikation ist \emph{linear}: \(A\cdot (\lambda_1 B_1 + \lambda_2 B_2)= A\lambda_1 B_1 + A\lambda_2 B_2\) und \((\lambda_1 B_1 + \lambda_2 B_2) \cdot A= \lambda_1 B_1 A + \lambda_2 B_2 A\)
\end{relation}
\begin{prof}[]
Sei \(C=A\cdot (\lambda_1 B_1 + \lambda_2 B_2)\)
\end{prof}
\begin{relation}
Die Matrixmultiplikation ist assoziativ: \(A\cdot (B\cdot C)=(A\cdot B)\cdot C\)
\end{relation}
\begin{prof}[]
\end{prof}
\begin{definition}{Einheitsmatrix}{}
Die Einheitsmatrix der gr"osse \(r\) ist die Matrix, die auf der Hauptdiagonale
(links-oben nach rechts unten) Einsen und sonnst Nullen hat. Beizeichnung \(E_r\)
oder \(1_r\).
\end{definition}
\begin{definition}{Kronecker-Symbol}{}
Das Kronecker-Symbol ist definiert als: \[\delta_{ij}=
\begin{cases}
1 & \text{wenn } i=j\\
0 & \text{sonst}
\end{cases}
\]
Also gilt: \((E_r)_{ij}=\delta_{ij}\).
\end{definition}
\begin{theo}{}{} \
F"ir alle \(A\in K^{p\times m}\) gilt:
\begin{itemize}
\item \(E_p\cdot A=A\)
\item \(A\cdot E_m =A\)
\end{itemize}
\end{theo}
\begin{prof}[]
\end{prof}
\begin{notation}[]
Die Matrix Multiplikation ist nicht Kommutativ: \(A\cdot B\not= B\cdot A\) im
Allgemeinen, selbst wenn beide Produkte definiert sind und die gleiche Gr"osse
haben.
\end{notation}
\begin{exa}
\end{exa}
\begin{notation}[]
Die \(i-\text{te}\) Spalte der Einheitsmatrix wird durch \(e_i=
\begin{pmatrix}
\vdots \\
1 \\
\vdots\\
\end{pmatrix}
\) bezeichnet.
\end{notation}
\begin{definition}{Transposition}{}
Sei \(A\in K^{m\times n}\). Die transponierte Matrix \(A^{T}\in K^{n\times n}\) ist
definiert durch \((A^T)_{ij}:=A_{ji}\).
\end{definition}
\begin{notte}
Demnach ist die $i\text{-te}$ Zeile von $E_r$: \((e_i)^T\).
\end{notte}
Wie l"ost man nun das LGS \(A\cdot x=b\)? Man bringt die erweiterte
Koeffizientenmatrix in die reduzierten Zeilenstufenform.
\subsection{L"oesungen eines LGS}
Wie l"ost man nun ein LGS?
Ein LGS l"asst sich in die folgende Form bringen:
\[
\left(
\begin{array}{cc|c}
1_r & B & b'\\
0 & 0 & b''\\
\end{array}\right)
\]
Die L"osung des LGS sieht dann wiefolgt aus:
\begin{relation}
\begin{enumerate}
\item Es gibt keine. $\iff b''\not= 0$
\item Wenn $b''=0$, dann sehen die L"osungen so aus:
\[x=
\begin{pmatrix}
b'\\0
\end{pmatrix}
+ \begin{pmatrix}
-B \\ 1_{n-r}
\end{pmatrix} \cdot t
\] Dabei ist $t\in \mathbb{K}^{n-r}$.
\end{enumerate}
\end{relation}
\begin{exa}
Gegeben sei folgendes LGS:
\[\left(
\begin{array}{ccccc|c}
1 & 0 & 1 & 2 & 7 & 5\\
0 & 1 & 3 & 4 & 7 & 6\\
0 & 0 & 0 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & 0 & 0\\
\end{array}
\right)
\]
Es gilt also $r=2$, $n=5$ sowie $b'=
\begin{pmatrix}
5\\ 6
\end{pmatrix}$, $b''=
\begin{pmatrix}
0\\ 0
\end{pmatrix}$ und $B=
\begin{pmatrix}
1 & 2 & 7\\
3 & 4 & 8\\
\end{pmatrix}
$.
Damit erh"alt man folgende L"osung:
\[
x=\begin{pmatrix}
5\\ 6 \\ 0 \\ 0 \\ 0
\end{pmatrix} +
\begin{pmatrix}
-1 & -2 & -7\\
-3 & -4 & -8\\
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1\\
\end{pmatrix}\cdot t
\] mit $t\in \mathbb{K}^3$.
\end{exa}
\begin{proposition}
Sei \(A\in k^{m\times n}\). Das homogene LGS der Form \(L=\{\phi
t \}\) fuer ein \(r\geq 0, \phi\)
\(\rightarrow\) es gibt \(n-r\) freie Parameter, die die Loesungsmenge beschreiben.
\end{proposition}
\begin{bem}
Ein homogenes LGS \(A\cdot x=0\) mit hat immer eine L"osung \(x\not=
0\) (es gibt mindestens eine freie Variable).
\end{bem}
\begin{exa}
Finde ein reelles Polynom von Grad 2.
Die Frage ist aequivalent zu dem LGS:
\end{exa}
\begin{definition}{}{}
Die Menge der Polynome vom Grad h"ochstens \(n\) mit Koeffizienten in \(K\) ist
durch \(K[t]_n\) berechnet.
\end{definition}
\part{Vektorr"aume}
\chapter{Grundlagen}
\label{sec:org4906e00}
\begin{definition}{Vektorraum}{}
Ein \(k\) - Vektorraum \(V\) ist eine Menge zusammen mit den Operationen und mit
folgenden Eigenschaften:
\begin{itemize}
\item Addition \(+:\, V\times V \to V, (v_1,v_2)\mapsto v_1+v_2\)
\begin{enumerate}
\item kommutativ
\item assoziativ
\item \(\exists 0 \in V\) mit \(0+v=v+0=v\) \(v \in V\)
\end{enumerate}
\item Skalarmultiplikation \(+:\, V\times V \to V, (v_1,v_2)\mapsto v_1+v_2\)
\begin{enumerate}
\item assoziativ
\item distributiv bez. addition
\item \(1\cdot v = v\), wobei \(v\in V\)
\end{enumerate}
\end{itemize}
\end{definition}
\begin{exa}
\begin{enumerate}
\item \(K\) ist selbst ein Vektorraum mit \(+\) und \(\cdot\)
\item \(K^{n}:=K^{n\times 1}\) ist ein K-Vektorraum mit:
\begin{enumerate}
\item Addition
\item Skalarmultiplikation
\end{enumerate}
\item \(K^{m \times n}\), eine Matrix der Gr"osse \(m\times n\) mit Eintr"agen in K,
ist ein K-Vektorraum mit Addition und Skalarmultiplikation von Matrizen:
\item \(K[t]_n\) ist ein K-Vektorraum:
\item \(K[t]:=\{a_n\cdot \}\) - alle Polynome mit Koeffizienten in \(K\) bilden einen
K-Vektorraum mit gleichen Operatoren.
\item Sei \(X\) X eine Menge (z.B. \(X=\mathbb{R}\)) \(Fun(X,K)=\{\}\) ist ein K-Vektorraum:
\begin{enumerate}
\item Addition \((f_1 + f_2)(x):= f_1(x)+ f_2(x)\), \(x\in X\)
\item Miltiplikation
\end{enumerate}
\item Sei \(A\in K^{m\times n}\). Die L"osungen von dem homogenen LGS bilden einen
Vektorraum:
\begin{itemize}
\item Wenn \(x_1,x_2\) L"osungen sind, dann gilt: Also ist die Menge der
L"osungen auch ein Vekorraum bzgl. der Operatoren aus \(K^n\)
\end{itemize}
\end{enumerate}
\end{exa}
\begin{notte}[]
Bei der Entwicklung der Vektorraumtheorie ist es oft n"utzlich, an das Beispiel
\(V=\mathbb{K}^n\) zu denken.
\end{notte}
\chapter{Vektorraumtheorie}
\label{sec:org432e282}
Sei \(V\) ein K-Vektorraum.
\begin{definition}{Linearkombination}{}
Seien \(v_1, \dots, v_b\). Die Linearkombination mit Koeffizienten $\lambda_1, \dots, \lambda_n$ ist der Vektor $v=\lambda_1\cdot v_1 + \dots + \lambda_n \cdot v_n$.
\end{definition}
\begin{definition}{Triviale Linearkombination}{}
Eine Linearkombination heist \emph{trivial} wenn \(\lambda_1 = \lambda_2 = ... =
\lambda_n = 0\). (\emph{Nichttrivial} wenn mindestens ein \(\lambda_i\not= 0\)).
\end{definition}
\begin{definition}{Lineare Unab"angigkeit}{}
Die Menge der Vektoren heist linear Unabh"angig wenn: $0$ (Nur die Triviale
linearkombination ergibt 0). Andernfalls heist die Menge linear abh"angig.
\end{definition}
\begin{exa}
\(\begin{pmatrix}1\\0\end{pmatrix}\begin{pmatrix}0\\1\end{pmatrix}\) sind linear unabh"angig.
\end{exa}
\begin{exa}
\(\{v_1,v_2\}\) sind linear abhaengig wenn sie Proportional sind.
\begin{prof}[]
\end{prof}
\end{exa}
\begin{lemma}
Die Menge \(\{v_1, \dots, v_n\}\subset V\) ist linear abh"angig. $\iff$ $v_i$ ist eine Linearkombination von $\{v_n, \dots, v_{i-1}, \dots, v_{i+1}, \dots, v_n\}$
\end{lemma}
\begin{prof}[]
Wenn \(v_i=\lambda_1 v_1\), dann \(0=\) Denn \(-1\) ist ein nicht-trivialer
Linearfaktor.
\((\implies)\) Nach Definition gibt es eine nichttriviale Linearkombination: als
\(\exists i : \lambda_i \not= 0\) Also gilt folglich
\end{prof}
\begin{notte}[]
Eine L"osung des LGS \(A\cdot x=b\) ist eine Spalte $\begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix}$ mit \[A\cdot \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} = \begin{pmatrix} a_1 & \dots & a_n \end{pmatrix}\cdot \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} = a_1\cdot x_1 + \dots + a_n\cdot x_n = b\]
Deis heisst, das LGS \(A\cdot x=b\) zu l"osen ist genau linearkombinationen von spalten
zu finden, welche \(b\) ergeben.
\end{notte}
\begin{lemma}
Seien die Vektoren linear unabh"angig. Ein Vektor \(v\) ist genau dann
eine Linearkombination von \(v_1,...,v_n\) wenn \(\{v_1,...,v_n,v\}\) linear abh"angig ist.
\end{lemma}
\begin{prof}[]
(\(\implies\)) Sei Dann gilt , also ist linear ab"angig.
Sei .. linear abh"angig Dann
Es gilt: \(\lambda \not= 0\) (wenn .. linearunabh"angig.) Also gilt \(v=-\lambda_1\)
\end{prof}
\begin{lemma}
Sei \(v\) eine Linearkombination von \(v_1,...,v_n\). Diese
Darstellung ist eindeutig ganau dann, wenn \(\{v_1,...,v_n, v\}\) linear unabh"angig sind.
\end{lemma}
\begin{prof}[]
\((\implies)\) Sei die Darstellung eindeutig \$v=..\$ Wenn jetzt \$\$, dan gilt \(v=\)
Eindeutigkeit der Darstellung ergibt:
Seien \(v_1,..,v_n\) linear unabh"angig, sei
Dann gilt: \(\rightarrow\) lineare Unabhaengigkeit von erzwingt Korollar: Wenn die
Spalten von \(A\) linear unabhaenig sind, hat das LGS \(Ax=b\) h"ochstens eine
L"osung, folglich hat \(Ax=0\) genau eine L"osung x=0.
\end{prof}
\begin{notte}[zu geometrischer Interpretation]
Wichitige Beispiele von Vektorr"aumen sind: \(V=\mathbb{R}^2\) (Ebene),
\(V=\mathbb{R}^3\) (3D-Raum).
\end{notte}
Seien \(v_1, v_2\) nicht proportional.
In drei Dimensionen:
\begin{relation}
\begin{itemize}
\item wenn \(v_3\) in \(E\) liegt, dann ist \(v_3\) eine Linearkombination \(v_1, v_2\)
\item wenn nicht, dann linear Unabh"angig (sonst in Ebene.)
\end{itemize}
\end{relation}
\chapter{Lineare unabhangigkeit in Vektorr"aumen}
\label{sec:orgea5b4b9}
\begin{proposition}
Seien \(v_1,...,v_n \in \mathbb{V}\) linear unabh"angig, seien \(w_1,
..., w_n \in \mathbb{V}\) so dass jedes \(w_i\) eine Linearkombination von
\(v_1,...,v_n\) ist. Wenn \(m>n\), dann sind \(w_1,...,w_n\) linear abhaengig.
\end{proposition}
\begin{prof}[]
Seien
\begin{align*}
w_1= a_{11} v_1 + a_{12} v_2 + ... + a_{nn} v_n \\
w_1= a_{21} v_1 + a_{22} v_2 + ... + a_{nn} v_n \\
\end{align*}
Wir suchen \(\lambda\) (*). Das ist "aquivalent zu:
Dies ist nach linearer Unabh"Angig von \ldots{} "Aquivalent zu:
Das heist (*) ist "aquivalent zu einem homogenen LGS aus \(n\) Gleichungen mit \(m\)
Variablen. \(n<m\), also gibt es eine L"osung $\ldots{}$, die ungleich \(0\) ist. \(\implies\)
sind linear unabh"angig.
\end{prof}
\begin{korollar}
Je drei Vektoren in \(\mathbb{R}^2\) sind linear abh"angig, je \(n+1\)
Vektoren in $\mathbb{R}^n$ sind linear abh"angig.
\end{korollar}
\begin{prof}[von Korollar]
Seien \(e_i\) die Spalten der Einheitsmatrix. Diese sind linear unabh"angig.
Das zeigt auch, dass jeder Vektor in \(R\) eine Linearkombination von \(e_i\) ist.
\end{prof}
\begin{definition}{Untervektorraum}{}
Sei V ein \(\mathbb{K}\)-Vektorraum, \(U\subseteq V\) eine Teilmenge von V. \(U\) heist
untervektorraum wenn:
\begin{enumerate}
\item \(V\not= \varnothing\)
\item $u, v \in U \implies u+v \in U$
\item $\lambda \in \mathbb{K},\, u \in U \implies \lambda \cdot u \in U $
\end{enumerate}
In anderen Worten: Eine Teilmenge von \(V\) die selbst ein Vektorraum bzgl.
der von \(V\) vererbten Operationen ist.
\end{definition}
\begin{notte}[]
(1) und (3) \(\implies\) \(0\in U\)
\end{notte}
\begin{definition}{Lineare H"ulle / Span}{}
Sei \(S \in V\) eine Teilmenge. Der von \(S\) erzeugte Vektorraum (die lineare H"ulle
von \(S\)) ist: \[\langle S \rangle:=\left\{\sum_{i=1}^k{\lambda_i \cdot v_i}\mid \lambda_i \in \mathbb{K}, \, v_i \in S \right\}\] (Menge aller Linearkombinationen von Vektoren in \(S\).)
Alternative Notation: \(\langle S \rangle=\text{span }S\).
\end{definition}
\begin{notte}[]
\(\langle S \rangle\) ist der kleinste Untervektorraum in \(V\), der \(S\) enth"alt.
\(<\varnothing >:=\{0\}\)
\end{notte}
\begin{exa}
Seien \(v_1, v_2 \in \mathbb{R}^3\).
\(\langle v1,v2 \rangle\) ist eine Gerade wenn \(v_1,v_2\) linear abh. Ist Ebene wenn \(v_1,v_2\)
linear unbh.
\end{exa}
\begin{definition}{Erzeugendensstem}{}
\(S\in V\) heisst Erzeugendensystem wenn \(\langle S \rangle=V\). (S spannt den Vektorraum auf.)
\end{definition}
\begin{notte}
$S$ ist ein Erzeugendensystem: jeder Vektor in \(V\) ist eine
Linearkombination aus $S$. Diese ist nicht eindeutig bestimmt, weil
keine linear unabhängigkeit vorrausgesetzt war.
\end{notte}
\begin{definition}{Basis}{}
Ein Erzeugendensystem \(B\in V\) heisst basis, wenn es linear unabhängig ist.
\end{definition}
\begin{relation}
Nach dem Lemma "uber die Eindeutigkeit der Koeffzienten der
Linearkombination gilt: \(B=\setdot{v}\) ist eine Basis genau
dann, wenn f"ur jeden Vektor \(v \in V\) gibt es eindeutig bestimmte
Zahlen $\setdot{\lambda}$ so dass $v=\linn{\lambda}{v}$.
\end{relation}
\begin{definition}{Endliche Dimension eines Vektorraumes}{}
Ein Vektorraum \(V\) heisst endlich dimensional, wenn er ein endliches
erzeugendensystem besitzt. (= wird von endlich vielen Vektoren aufgespannt)
\end{definition}
\begin{theo}{}{}
Jeder endlichedimensionale Vektorraum \(V\) hat eine Basis.\\ Je zwei Basen von \(V\)
haben gleich viele Elemente.
\end{theo}
\begin{prof}[]
Sei \(S\) ein endliches Erzeugendensyste von \(V\), Wenn \(S\) lin. unabh. ist, ist es
eine Basis und wir haben gewonnen. Wenn \(S\) linear abh"angig ist $\implies$
(Lemma) einer von den Vektoren in \(S\) ist eine Linearkombination von den
anderen. Das entfernen dieses Vektors "andert die Tatsache nicht, das \(S\) den
Vektorraum aufspannt. Jetzt haben wir eine kleinere Menge und fangen von vorne
an. Da \(S\) endlich ist und durch entfernen Vektoren kleiner wird haben wir am
Ende eine Basis.
\(\rightarrow\) Wir haben eine Basis.
Seien \(S, S'\) zwei Basen. Da \(S\) eine Basis ist, ist jedes element von \(S'\) eine
linearkombination in \(S\). Die elemente von \(S\) sind linear unabh. (weil Basis).
Wenn also \(m>n\), dann folgt aus der Proposition, dass \(S'\) linear abh. ist, was
unm"oglich ist, da \(S'\) eine Basis ist. Also \(m \leq n\) und aus Symmetriegr"unden folgt auch \(n \leq m\).
\end{prof}
\begin{definition}{Dimension eines Vektorraumes}{}
Sei \(V\) ein endlichdimensionaler Vektorraum. Die Anzahl der Vektoren in einer
(folglich in jeder) Basis $B$ von \(V\) heist \emph{Dimension} von V. \\
\emph{Bezeichung}: \(\dim V\ = |B|\)
\end{definition}
\begin{exa}[s]
\(\dim K^{n}=n\) weil \ldots{} eine Basis bilden.
\end{exa}
\textbf{Frage}: kannn man eine lineare unabh"angige Menge \(S\in V\) zu eine Basis
erweitern?.
\begin{proposition}
Jede linear unabh"angige Teilmenge \(S\in V\) eines
endlichdimensionalen Vektorraumes \(V\) ist in einer maximalen linear
unabh"angigen Teilmenge enthalten. Eine maximal linear unabh. Teilmenge von \(V\)
st eine Basis von \(V\).
\end{proposition}
\begin{definition}{Maximal linear unabh"angige Teilmengen}{}
Eine Teilmenge \(S'\in V\) ist maximal linear unabhängig falls:
\[S'\subseteq S'' \subseteq V \text{ und } S \text{ linear unabhängig}\implies S'' = S'\]
Das bedeutet, dass $S'$ in keiner gr"osseren linear unabhängigen Teilmenge enthalten ist.
\end{definition}
\begin{prof}[1]
Sei linear unabh.
Zwei F"alle: entweder ist \(S\) schon maximal (dann sind wir fertig) oder man kann
S erweitern. Wenn wir \(S\) erweitern k"onnen, f"ugen wir neue Vektoren hinzu, bis
wir es nicht mehr tun koennen, ohne lineare unabh. zu verletzen.
Dieser Prozess endet, weil eine linear unabh. Teilmenge h"ochstens von \(V\)
hoechstens \(\dim V\) viele Vektoren enthalten kann. (Prop. "uber lineare unabh.
von vektoren aus linearkombinartionen der Basis.)
\end{prof}
\begin{prof}[2]
Sei \(S\in V\) maximal linear unabh"angig. Wir habe zu zeigen: \(\langle s \rangle=V\) (Def. einer
Basis). Wenn $\ldots{}$ d.h. aber, aber \(S\cup {v}\) ist linear unabh. (lemma) $\implies$
\(S\) dann nicht maximal.
\end{prof}
\begin{korollar}
Man kann jeder lienar unabh. Teilmenge \(S\in V\) zu einer Basis
erweitern.
\end{korollar}
\begin{notte}
Wenn \(V=K^n, S\in V\) linear unabh. \(\rightarrow\) man kann zur erweiterung passende
Spalten der Einheitsmatrix.
\end{notte}
\begin{notte}[]
Man kann bei der obrigen Proposition das Wort "endlichdimensional" fallen
lassen, aber es braucht ein bisschen mehr Mengenlehre (Auswahlaxiom).x
\end{notte}
\begin{theo}{}{}
Sei V ein endlichdimensionaler Vektorraum und \(U\in V\) ein Untervektorraum. Dann
gillt: \(\dim U \leq \dim V\). \(\dim U = \dim V \iff U=V\)
\end{theo}
\begin{prof}[]
Sei eine maximale linear unabh. Teilmenge in U. (so eine Teilmenge existiert
weil V endlich ist.)
Nach Proposition (2) ist \ldots{} eine Basis in \(U\), also gilt \(\dim U = k\) Erweitere
\ldots{} zu einer Basis in V \ldots{}.
(2) \ldots{} trivial \ldots{} Sei \ldots{} eine Basis in U. Erweitere sie zu einer Basis in
\(V\). Diese Basis in V muss aber wegen \ldots{} gleich viele Vektoren haben. \ldots{}. ist
eine Basis in \(V\) \ldots{}
\end{prof}
\begin{definition}{Koordinaten bez"uglich einer Basis}{}
Sei \(V\) ein Vektorraum $B$ eine Basis in $V$. Sei
$v=\linn{\lambda}{v}$ ein Vektor in $V$. Die Zahlen
\((\lldot{\lambda})\) heissen \emph{Koordinaten} des Vektors $v$ bez"uglich
der Basis $B$. Die Spalte
$\begin{pmatrix}
\lambda_1
& \cdots
& \lambda_n
\end{pmatrix}^T$ heisst Koordinatenspalte dieses Vektors
bzgl. \(B\). Die Definition einer Basis garantiert, dass hierdurch
eine Bijektion zwischen den Koordinatenspalten in $\mathbb{K}^n$ und
den Vektoren in $V$ entsteht.
\end{definition}
\begin{notte}
Diese Korrespondenz von Koordinatenspalte und Vektor kommt auf die
Wahl der Basis an.
\end{notte}
\textbf{Aus den "Ubungen.} Sei $A\cdot x = 0$ ein LGS.
\[\exists \phi \text{ mit } L=\{\phi\cdot t\mid t\in
\mathbb{K}^{n-r}1\} \text{ die L"osungsmenge des LGS und } t \mapsto
\phi\cdot t \text{ eine Bijektion } \mathbb{K}^{n-r}\rightarrow
L\]
\begin{lemma}
Die Spalten von \(\phi\) bilden eine Basis in L.
\end{lemma}
\begin{prof}[]
Die Spalten von \(\phi\) sind linear unabh"angig. (Sonst w"ahre die Abbildung nicht injektiv.)
Ferner spannen sie das ganze L auf und ist somit Surjektiv.
\end{prof}
\textbf{Frage.} Gegeben Basen $B$, $B'$ in \(V\) und einem Vektor \(v\in V\). Wie rechnet man die
Koordinaten bezgl. $B$ in Koordinaten bzgl. $B'$ um?
\begin{notation}
$B=(\lldot{b})$ ist die ''alte Basis'' und $B'=(\lldot{b'})$ ist die ''neue Basis''.
\end{notation}
Es gilt v=\allsum{\lambda}{b}=\allsum{\lambda'}{b'}. Wenn wir die Vektoren von $B'$ bez"uglich $B$
ausdr"ucken:
\[
\begin{split}
b'_1 & = C_{11}\cdot b_1 + \dots + C_{n1}\cdot b_n\\
\vdots &\\
b'_n & = C_{1n}\cdot b_1 + \dots + C_{nn}\cdot b_n\\
\end{split}
\]
Daraus erhalten wir
$C=(C_{ij})_{i=\overline{1, n},\;j=\overline{1, n}}$\quad Also eine Matrix
deren Spalten die Koordinaten der ''neuen'' Basis inder der ''alten'' darstellt.
Nun gilt damit: \[v=\allsum{\lambda}{b}=\sum_{j=1}^{n}{\lambda'_j\cdot \left({\sum_{i=1}^{n}{C_{ij}\cdot b_i}}\right)}=\sum_{i=1}^n\overbrace{\left({\sum_{j=1}^n{C_{ij}\cdot \lambda'_j}}\right)}^{\lambda_i}\cdot b_i\]
Wenn also $\lambda=\begin{pmatrix}\lambda_1 \\ \vdots \\ \lambda_n\end{pmatrix}$ und $\lambda'=\begin{pmatrix}\lambda'_1 \\ \vdots \\ \lambda'_n\end{pmatrix}$ so folg \(\lambda = C\cdot \lambda'\)
\textbf{Frage} Ist \(D\) in diesem Fall immer invertierbar? (Ja, aber wir brauchen mehr Theorie.)
\chapter{Lineare Abbildungen zwischen Vektorr"aumen}
\label{sec:orgb4c03c4}
\begin{definition}{Lineare Abbildung}{}
Seien \(V, W\) zwei K-Vektorr"aume. Eine Abbildung \(f: V\rightarrow W\) heißt linear, wenn:
\begin{enumerate}
\item \(\forall v,v' \in V: f(v+v')=f(v)+f(v')\)
\item \(\forall v\in V,\, \lambda \in K: f(\lambda v)=\lambda f(v)\)
\end{enumerate}
\end{definition}
\begin{exa}
$f_{A}: K^n\rightarrow K^m, x\mapsto A\cdot x$, für $A \in K^{m\times n}$ ist eine lineare Abbildung.
\end{exa}
\begin{exa}
\(V=\mathbb{R}[x]_5,\;W=\mathbb{R}[x]_4\). $f: V\rightarrow W, p \mapsto \frac{dp}{dx}$ ist eine lineare Abbildung, die jedem Polynom seine Ableitung zuordnet.
\end{exa}
\begin{exa}
$V=W=\{f:\mathbb{R}\rightarrow\mathbb{R}\}$ die Menge aller reellen, reellwertiger Funktionen. Für eine gegebene Abbildung $g:\mathbb{R}\rightarrow\mathbb{R}$ ist die Abbildung $mg: V\rightarrow W, f\mapsto g\cdot f, (g\cdot f)(x)=g(x)\cdot f(x)$ linear.
\end{exa}
\begin{definition}{Kern einer Linearen Abbildung}{}
Sei $f:V\rightarrow W$eine Lineare Abbildung. Der Kern von \(f\) wird definiert als \[Ker\: f := f^{-1}(0) = \{v\in V \mid f(v)=0\}\] Der Kern der Abbildung f ist also die Menge aller Elemente in V, die auf das Nullelement von W abgebildet werden.
\end{definition}
\begin{exa}
$f=f_A: K^n\rightarrow K^m \quad x\mapsto A\cdot x$\\
$Ker (f_A) = \{x\in K^n\mid A\cdot x = 0\}$, also die Lösung des homogenen LGS mit der Koeffizientenmatrix A.
\end{exa}
\begin{beobachtung}
Der Kern von \(f\) ist ein Untervektorraum von \(V\):
\[
\begin{split}
v_1 , v_2 \in\mKer(f) & \implies f(v_1 + v_2)=f(v_1 )+f(v_2 )=0 \implies v_1 + v_2 \in\mKer(f)\; \forall v \in\mKer(f)\, , \lambda \in K \\
&\implies f(\lambda \cdot v)=\lambda \cdot f(v)=\lambda \cdot 0 = 0 \implies \lambda \cdot v \in\mKer(f)
\end{split} \]
\end{beobachtung}
\begin{beobachtung}
Das Bild von f $Im(f) \subseteq W$ ist Untervektorraum, wenn:
\[
\begin{split}
w_1 =f(v_1 )\, , w_2 = f(v_2 )\in\mIm(f) \implies w_1 +w_2 = f(v_1 )+f(v_2 )= f(v_1 +v_2) \implies w_1 +w_2 \in\mIm(f) \\
\implies w=f(v)\in\mIm(f)\, , \lambda \in K \implies \lambda w = \lambda f(v)=f(\lambda v) \in \mIm(f)
\end{split}
\]
$\implies$ Das Bild einer linearen Abbildung ist ein Untervektorraum.
\end{beobachtung}
\begin{exa}
\[Im(f_A )=\{b\in K^m \mid \exists x \in K^n: A\cdot x=b \}=\{b\in K^m\mid LGS Ax=b\; \text{l"osbar}\}\]
\end{exa}
\begin{beobachtung}
Definitionsgemäß ist $f:V\rightarrow W$ genau dann surjektiv, wenn $Im(f) =
W$.
\end{beobachtung}
\begin{proposition}
Sei \(f:V\rightarrow W\) eine lineare Abbildung. Es gilt: \(f\) injektiv
$\iff$ \(Ker(f)=\{0\}\)
\end{proposition}
\begin{prof}[]
f injektiv $\iff v_1 \neq v_2 \in V: f(v_1)\neq f(v_2) \iff f(v_1)-f(v_2)\neq 0 \iff f(v_1 -v_2)\neq 0 \iff v_1,v_2 \in V, v_1-v_2\neq 0: f(v_1 -v_2)\neq 0 \iff v\neq 0: f(v)\neq 0 \iff\mKer(f) = \{0\}$
\end{prof}
\begin{definition}{Vektroraumisomorphismus}{}
Eine \emph{bijektive} Lineare Abbildung \(f:V\rightarrow W\) heißt Vektorraumisomorphismus
zwischen \(V\) und \(W\). \(V\) und \(W\) heißen isomorph, wenn es einen
Vektorraumisomorphismus \(f: V\rightarrow W\) gibt.
\end{definition}
\begin{notation}
Sind $V, W$ isomorphe Vektotrr"aume, so schreibt man auch: $V \cong W$.
\end{notation}
\begin{exa}
Sei \(V\) ein Vektorraum, \(S\subseteq V = \{v_1, v_2, ..., v_n\}\). Die
Aufspannabbildung $\varphi_S: K^n \rightarrow V$ wird definiert als $\varphi_S(\lambda)=\sum_{i=1}^{n}\lambda_i v_i$
\begin{itemize}
\item \(\varphi_s\) ist linear.
\item \(\varphi_s\) ist bijektiv \(\iff\) S ist Basis.
\end{itemize}
\end{exa}
\begin{korollar}
\(S=\{v_1,\ldots,v_n\}\) ist eine Basis von V $\implies \varphi_S: K^n \rightarrow V$ ist Isomorphismus ($K^n\cong V$)
\end{korollar}
\begin{korollar}
\(\dim V = n \iff V\cong K^n\)
\end{korollar}
\begin{beobachtung}
Wenn \(f:V\rightarrow W\) Isomorphismus $\implies f^{-1}:W\rightarrow V $ ist auch ein Isomorphismus.
\end{beobachtung}
\section{Dimensionsformel}
\label{sec:org9a58004}
\begin{theo}{}{}
Sei \(f:V\to W\) eine Lineare Abbildung, sei \(V\) endlich dimensional. \[\mdim\mKer f + \mdim\mIm f = \mdim V\]
\end{theo}
\begin{lemma} sei \(f\) wie oben. Sei \(U \subseteq \mKer(f)\) ein Untervektorraum mit \(U \cap \mKer(f) = \{0\}\). Dann ist \(f|_U:U\to f(U)\) ein Isomorphismus.
\end{lemma}
\begin{prof}[Beweis des Lemmas]
\(f|_U:U\to f(U)\) ist surjektiv nach Konstruktion. \\ Zu zeigen: \(f|_U\) injkektiv \(\iff \mKer f|_U = \{0\}\). Sei \(u\in \mKer f|_U \). Dann gilt \(u\in U \land u \in \mKer(f) \implies u \in U \cap \mKer f \implies u = 0\)
\end{prof}
\begin{prof}[Beweis der Dimensionsformel]
W"ahle eine Basis \({e_1, ..., e_k}\) in \(\mKer f\) und erg"anze sie zu einer Basis
\({e_1, ..., e_n}\) in \(V\).
Betrachte jetzt \(U:=\langle e_{k+1}, ..., e_n\rangle \subseteq V\) Untervektorraum. Es gilt $U \cap \ker(f) = \{0\}$, weil für $u\in U \cap \ker(f)$ gilt: \(u = \sum\limits_{i=1}^k \lambda_ie_i \), weil \(e_1, \dots e_k\) eine Basis im Kern ist, und \(u = \sum\limits_{i=k+1}^{n} \lambda_i e_i\) weil \(u\in U\). Also: \(\sum\limits_{i=1}^k \lambda_ie_i - \sum\limits_{i=k+1}^{n} \lambda_ie_i = 0 \xRightarrow{e_1,\dots, e_n \text{Basis}} \text{alle }\lambda_i = 0 \implies u =0\).
Das Lemma sagt jetzt: \(f|_U\) ist ein Isomorphismus. Außerdem gilt f"ur \(v =\sum\limits_{i=1}^{n}\lambda_ie_i \in V:\)
\begin{align*}
f(v) = f\underbrace{\left(\sum_{i=1}^{k}\lambda_ie_i\right)}_{\in \mKer(f)} + f\left(\sum_{i=k+1}^{n}\lambda_ie_i\right) = f\underbrace{\left(\sum_{i=k+1}^{n} \lambda_ie_i\right)}_{\in U}
\end{align*}
\(\implies f(V)=f(U)\) also \(f|_U : U\to f(V) = \mIm(f) \) ist ein Isomorphismus \(\implies \mdim \mIm f = \mdim U \)
Nun gilt nach Konstruktion von \(U\): \[\underbrace{\mdim \mKer(f)}_{k} + \underbrace{\mdim U}_{n-k} = \underbrace{\mdim V}_{n} \implies \mdim\mKer f + \mdim\mIm f = \mdim V \]
\end{prof}
\section{Summe von Untervektorr"aumen}
\label{sec:org83dfe63}
\begin{definition}{Summe von Vektorr"aumen}{}
Sei V ein Vektorraum, $U_1, U_2 \subseteq V$ Untervektorräume.
\[U_1 + U_2 := \{u_1+u_2 \mid u_1 \in U_1, u_2 \in U_2\}\]
heißt Summe von $U_1$ und $U_2$.
$U_1 + U_2$ ist Untervektorraum.
\end{definition}
\begin{definition}{Direkte Vektorraumsumme}{}
Die Summe von $U_1$ und $U_2$ heißt direkt, wenn $U_1 \cap U_2 = \{0\}$. Bezeichnung: $U_1 + U_2 = U_1 \oplus U_2$
\end{definition}
\begin{notte}
Im Beweis der Dimensionsformel haben wir gezeigt, dass die Summe aus $U$ und $\mKer(f)$ direkt ist.
\end{notte}
\begin{notte}
Dimensionsformel ist auch Rangformel.
\end{notte}
\begin{definition}{Rang}{}
Sei $f:V\to W$ linear. Der Rang von \(f\) ist $\mRg(f) = \text{rk}(f) := \dim\mIm(f)$
\end{definition}
\begin{proposition} Sei \(f:V\to W\) linear, endlichdimensional.
Dann gilt:
\begin{itemize}
\item $f$ injektiv $\implies \mKer(f) = \{0\}$ und $ \mRg(f) = \dim V$
\item $f$ surjektiv $\implies \mIm(f) = W$ und $\mRg(f) = \dim W$
\end{itemize}
\end{proposition}
\begin{korollar} Ist \(\mdim V = \mdim W \), so ist \(f\) injektiv $\iff $ \(f\) surjektiv.\end{korollar}
\begin{beobachtung}
Das ist analog zu Abbildungen endlicher Mengen: Sind \(X,Y\) endliche Mengen, \(h: X\to Y\) eine Abbildung, so gilt:
\begin{itemize}
\item \(h\text{ injektiv} \iff |h(X)| = |X| \)
\item \(h\text{ surjektiv} \iff |h(X)| = |Y| \)
\item \(h\text{ bijektiv} \iff |X|=|h(X)|=|Y| \)
\end{itemize}
\end{beobachtung}
\begin{proposition}[Dimensionsformel]
Sind \(U_1, U_2 \subset V\) Untervektorr"aume, dann gilt: \(\dim(U_1 +U_2) =\dim U_1 + \dim U_2 - \dim (U_1\cap U_2)\)
\end{proposition}
\begin{notte}
\(U_1\cap U_2\) ist stets ein Untervektorraum, wenn \(U_1\) und \(U_2\) Untervektorr"aume sind.
\end{notte}
\begin{prof}[Dimensionsformel]
Betrachte die Abbildung \(f: U_1 \times U_2 \to U_1 + U_2, (u_1, u_2) \mapsto u_1 + u_2 \). Hierbei ist \(U_1\times U_2 = \{(u_1, u_2) | u_1 \in U_1, u_2 \in U_2 \} \) der Verktorraum der Paare \((u_1, u_2)\) mit
elementweisen Operationen:
\begin{align*}
(u_1, u_2) + (u_1', u_2') &= (u_1 + u_1', u_2 + u_2') \\
\lambda (u_1, u_2) &= (\lambda u_1, \lambda u_2)
\end{align*}
Oft nennt man \(U_1 \times U_2\) auch \gq{"au"sere direkte Summe} von \(U_1\) und \(U_2\) mit Bezeichnung \(U_1 \oplus U_2\).
\begin{notte}Die Kollision der
Bezeichnungen \(U_1\oplus U_2\) für die direkte Summe zweier Untervektorr"aume / "außere Summe ist harmlos ("Ubg).
\end{notte}
Nun gilt \(\dim \mKer(f) + \dim\mIm(f) = \dim(U_1\times U_2) \)
Es gilt weiterhin: \(\dim(U_1 \times U_2) = \dim U_1 + \dim U_2 \)
Wenn \(e_1, \dots, e_k \) eine Basis in \(U_1\) und \(b_1, \dots, b_l \) eine Basis in \(U_2\) \(\implies\) \(e_1, \dots, e_k,\, b_1, \dots, b_l\) Basis in \(U_1\times U_2\)
Ferner gilt: \(\mIm(f) = U_1 + U_2\) per Definition. Nun ist:
\begin{align*}
\mKer(f) &= \{(u_1, u_2) | u_1 \in U_1, u_2\in U_2, u_1 + u_2 = 0\} = \{(u, -u)| u \in U_1 \cap U_2 \}\\
&\implies \dim\mKer (f) = \dim(U_1 \cap U_2)\\
&\implies \underbrace{\dim(U_1 \cap U_2)}_{\dim\mKer(f)} + \underbrace{\dim(U_1 + U_2)}_{\dim\mIm(f)} = \underbrace{\dim(U_1) + \dim(U_2)}_{\dim (U_1\times U_2)}
\end{align*}
\end{prof}
Was hat diese ganze Theorie mit Matrizen zu tun? Intuitiv: Abbildungen sind
\gq{geometrisch} und Matrizen sind Koordinatenformen dieser geometrischen
Abbildungen.
\begin{exa}
Strecken in Richtung von \(l_2\) mit Faktor 2. Wie beschreibt man \(f\) in
Koordinaten?
\end{exa}
\section{Abbildunngsmatrix}
\begin{definition}{Raum der Homomorphismen}{}
Seien \(V,W\) zwei (\(\mathbb{K}\)-) Vektorr"aume.
\[\mHom_\mathbb{K}(V,W) = \{f: V\to W \mid f \text{ ist }\mathbb{K}\text{-linear}\}\]
\end{definition}
\begin{proposition}
\(\mHom_\mathbb{K}(V,W)\) ist auch ein Vektorraum.
\end{proposition}
\begin{prof}
Wenn \(f_1, f_2 \in \mHom_\mathbb{K}(V,W)\):
\begin{align*}
(f_1 + f_2)(v) &= f_1(v) + f_2(v) \quad\text{ist linear} \\
(\lambda f_1)(v) &= \lambda\cdot f_1(v)\quad\text{ist auch linear}
\end{align*}
\end{prof}
Seien \(V, W\) endlichdimensional, \(B = \{b_1, \dots, b_n\}\) Basis in \(V\), \(C = \{c_1, \dots, c_m\}\) Basis in \(W\). Sei \(f \in \mHom_\mathbb{K}(V,W)\). Die Abbildungsmatrix \(F= M_C^B(f)\) in \(f\) bzgl. \(B\) und \(C\) ist definiert als
Matrix, deren Spalten die Koordinatenspalten von \(f(b_1),\dots, f(b_n)\) bzgl. der Basis \(C\) sind:
\begin{align*}
f(b_j) = \sum_{i=1}^mF_{ij}c_i \implies F \in \mathbb{K}^{m\times n}
\end{align*}
\textbf{Vorsicht!} \(M_C^B(f)\) h"angt von der Wahl der Basen B und C ab (\(f\) jedoch nicht!).
\begin{exa}
Rotation um \(\frac{\pi}{4}\) gegen Urzeigersinn.
\begin{align*}
M_B^B(f) = \begin{pmatrix}
\nicefrac{\sqrt{2}}{2} & -\nicefrac{\sqrt{2}}{2}\\
\nicefrac{\sqrt{2}}{2} & \nicefrac{\sqrt{2}}{2}
\end{pmatrix}
\end{align*}
\end{exa}
\begin{proposition} Seien \(V,W,B,C\) wie oben. Dann entsprechen die Abbildungsmatrizen
\(F = M_C^B(f)\) den Abbildungen. Genauer: Die Abbildung \(M_C^B: \mHom_\mathbb{K}(V,W)\to\mathbb{K}^{m\times n}\), \(f \mapsto M_C^B(f)\) ist ein Isomorphismus von
Vektorra"umen.
\end{proposition}
\begin{prof}
Aus Definition von \(M_C^B(f)\) folgt sofort:
\begin{align*}
M^B_C(f_1 + f_2) &= M_C^B(f_1) + M_C^B(f_2)\\
M^B_C(\lambda\cdot f) &= \lambda\cdot M_C^B(f)
\end{align*}
Also ist \(M_C^B(f)\) eine lineare
Abbildung.
\(M_C^B\) ist injektiv: wenn \(f\) mit \(M^B_C(f) = 0\), dann gilt \(f(b_j) = 0\quad\forall j= 1,\dots n\); Da jeder Vektor \(v \in V\) eine Linearkombination von \(b_j\)s ist, folgt \(f(v) = 0 \quad\forall v \in V\) \(\implies\) der Kern ist null
\(M^B_C\) ist auch surjektiv: sei \(F\in \mathbb{K}^{m\times n}\) gegeben. Definiere eine Abbildung \(f: V\to W\) folgenderma"sen:
\begin{align*}
f\left(\sum_{j=1}^n\lambda_jb_j\right) = \sum_{j=1}^n\lambda_j\cdot\left(\sum_{i=1}^mF_{ij}c_i\right)=\sum_{i=1}^mc_i\sum_{j=1}^nF_{ij}\lambda_j
\end{align*}
\(f\) ist linear und es gilt:
\begin{align*}
f(b_j) = \sum_{i=1}^mF_{ij}c_i \implies M^B_C(f) = F
\end{align*}
\end{prof}
Im Beweis haben wir unter anderem festgestellt:
\begin{relation}
\begin{align*}
f\left(\sum_{j=1}^n\lambda_jb_j\right)=\sum_{i=1}^mc_i\cdot\underbrace{\sum_{j=1}^nF_{ij}\lambda_j}_{\mu_i}
\end{align*}
Das hei"st: Wenn \(v=\sum_{j=1}^n\lambda_jb_j\in V\) mit Koordinatenspalte \(\lambda = (\lambda_1,\dots,\lambda_n)^\top\) (bez"uglich \(B\)), \(w = f(v)\), dann hat \(w\) folgende Koordinatenspalte bez"uglich \(C\):
\[
\mu = F\cdot \lambda
\]
\end{relation}
\begin{exa}
Wenn \(V=K^n, W=K^M\) dann hat \(V\) eine Basis \(\mathcal{E}_n = (e_1, \dots, e_n)\), wobei \(e_i\) der Vektor ist, der an der \(i\)-ten Stelle 1 ist und sonst 0. Und \(W\) hat die Basis \(\mathcal{E}_m = (e_1, \dots, e_m)\).
Sei \(A\in K^{m\times n }\), \(f_A: \mathbb{K}^n\to \mathbb{K}^m\), \(x \mapsto A\cdot x\). Dann gilt:
\begin{align*}
M^{\mathcal{E}_n}_{\mathcal{E}_m}(f_A) &= A\\
f_A(e_j) &= A\cdot e_j = j\text{-te Spalte von } A = a_j
\end{align*}
\end{exa}
Seien \(V, W, Z\) drei \(\mathbb{K}\)-Vektorr"aume, \(f \in \mHom_\mathbb{K}(V, W)\), \(g \in \mHom_\mathbb{K}(W,Z)\). Dann gilt: \(g\circ f \in \mHom_\mathbb{K}(V,Z)\).
\begin{proposition}
Seien \(B,C,D\) Basen in
\(V,W,Z\). Dann gilt: \(M^B_D(g\circ f) = M^C_D(g)\cdot M^B_C(f)\).
\end{proposition}
\begin{prof}
Sei \(F = M^B_C(f)\), \(G = M^C_D(g)\). Dann:
\begin{align*}
(g\circ f)(b_j) &= g(f(b_j)) = g\left(\sum_{i=1}^m F_{ij}c_i\right) = \sum_{i=1}^mF_{ij}g(c_i) \\&= \sum_{i=1}^m F_{ij}\sum_{k=1}^lG_{ki}d_k = \sum_{k=1}^l\underbrace{\left(\sum_{i=1}^mG_{ki}F_{ij}\right)}_{M^B_D(g\circ f)}d_k
\end{align*}
\end{prof}
Wenn \(V\) ein Vektorraum ist, \(B,B'\) zwei Basen, dann erhalten wir die
Basiswechselmatrix \(S\), deren Spalten die Koordinaten von den neuen
Basisvektoren \((b_1', \dots, b_n')\) bez"uglich der alten Basis \(B = (b_1,
\dots, b_n)\) sind. Es folgt sofort aus den Definitionen:
\(S=M^{B'}_B(\mId_V)\)
\begin{lemma}[Basiswechselmatrizen sind invertierbar]
\(S = M^{B'}_B(\mId_V)\) ist invertierbar f"ur je zwei Basen \(B, B' \subset V\), und \(S^{-1} = M^B_{B'}(\mId_V)\).
\end{lemma}
\begin{prof}
\(M^B_B(\mId_V)=1_n\), daher ist
\[\underbrace{M^{B'}_B(\mId_V)}_{S}\cdot M^B_{B'}(\mId_V) = M^B_B(\mId_V) = 1_n \]
\end{prof}
\section{Basen und Abbildungsmatrizen (Zusammenfassung)}
\label{sec:baab}
Jede Basis in V definiert eine Bijektion $\phi_B^{-1}V\rightarrow K^n, v\mapsto C$
\begin{relation}
$\phi_B$ ist hierbei die Aufspannabbildung.
\end{relation}
\textbf{Warnung!} Unsere Konvention f"ur die Basiswechselmatrix: ''von $B$ zu
$B'$'' ist $M^{B'}_B$, also dr"uckt die meue Basis in der alten aus und ist
nicht die einzige!
\section{Physikerdefinition eines Vektors}
\label{sec:phyv}
Ein (kontravarianter) Vektor ist ein Objekt, welches durch ein n-Tupel \(\lambda\)
von Zahlen beschrieben wird, die sich Koordinatentransformationenen so
verh"alt: Ist $S$ die Basiswechselmatrix der Koordinatentransformation, so gilt
in den neuen koordinaten $\lambda'=S^{-1}\cdot\lambda$
\begin{notte}
Diese Transformationsformel haben wir gesehen: ist $v\in V$ mit der
Koordinatenspalte $\lambda$ bzgl. $B$ so gilt
$\lambda=M^{B'}_{B}\cdot \lambda ' $
\end{notte}
\begin{lemma}[Verhalten von Abbildungsmatrizen unter Basiswechsel]
Sei $\lmap$ eine Lineare Abbildung, $B,B'$ Basen in $V$, dann gilt:
\[
\mmat[B'][C'](f)=(\mmat[C'][C])^{-1} \cdot \mmat(f) \cdot \mmat[B'][B]
\] In Anderen Worten: Wenn $S$ die Basiswechselmatrix von $B$ zu $B'$m sowie $T$ die
Basiswechselmatrix von $C$ zu $C'$ so gilt:
\[
\mmat[B'][C'](f)=T^{-1}\cdot \mmat(f) \cdot S
\]
\end{lemma}
\begin{prof}
\[M^{B'}_{C'}(f)=\mmat[B'][C'](id_w \circ f \circ id_v)=\mmat[C][C'](id_w) \cdot \mmat(f) \cdot \mmat[B'][B](id_v)=(\mmat[C'][C])^{-1} \cdot \mmat(f) \cdot \mmat[B'][B]\]
\end{prof}
\begin{notte}[zur Basiswechselmatrix]
$ M^{B'}_{B}$ ist die Basiswechselmatrix von $B$ zu $B'$: sie enth"alt die
Koordinaten von Vektoren aus $B'$ bzgl. $B$. Wie verhalten sich die
Kootdinaten von Vektoren bzgl. $B$ und $B'$?\\
% Antwort: $\lambda = S^{-1}\lambda$.
\end{notte}
\begin{exa}
$V=R^{2}$
\end{exa}
\begin{proposition}[Rangform einer linearen Abbildung]
Sei $\lmap$ eine Lineare Abbildung und $V,W$ endlichdimensional. Dann existieren
Basen $B, C$ in $V$ , so dass:
\[
\mmat(f) = \begin{pmatrix}
1_r & 0 \\
0 & 0
\end{pmatrix}, r = \mRg(f)
\]
\end{proposition}
\begin{korollar}
F"ur jede Matrix $A\in \mathbb{K}^{m\times n}$ gibt es invertierbare Matrizen $T\in \mathbb{K}^{m\times m},\, S \in \mathbb{K}^{n\times n}$ , so dass \[T^{-1} \cdot A \cdot S = \begin{pmatrix}
1_r & 0 \\
0 & 0
\end{pmatrix}\]
\end{korollar}
\begin{notte}
Der folgende Beiweis ist sehr konstruktiv orientiert. Vollziehen Sie die Schritte praktisch nach und Sie werden ihn verstehen.
\end{notte}
\begin{prof}
\begin{trivlist}
\item Sei $r=\mRg(f)$ w"ahle eine Basis $\lldot{b}[r+1]$ im $\mKer(f)$ und erweitere sie zu einer
Basis $\lldot{b}$ in $V$.
\item Setze: $c_i:=f(b_i),\, i=\overline{1,r}$.\quad Beim Beweis der Dimensionsformal haben wir
gesehen $f\mid \langle\lldot{b}[1][r]\rangle: \langle\lldot{b}[1][r]\rangle \rightarrow f(V)$
ist ein Isomorphismus. Damit ist $\lldot{c}[1][r]$ eine Basis in $\mIm(f)$ .
\item Erweitere dieselbe jetzt zu einer Basis $\lldot{c}$ in $W$. Es gilt \[\mmat(f)= \begin{pmatrix}
1_r & 0 \\
0 & 0
\end{pmatrix}\].
\end{trivlist}
\end{prof}
\section{Konsequenzen f"ur Matrizen}
\label{sec:konsma}
\begin{trivlist}
\item Sei $A\in \kkk[n][m] \longrightarrow f_A: \kk \rightarrow \kk,\; x \mapsto A\cdot x$.
\item Wobei: $Rg(A)=Rg(f_A)=\mdim \langle\underbrace{\lldot{a}}_{\text{Spalten von } A}\rangle$ und $\mKer(A)=\mKer(f_A),\; \mIm(A)=\mIm(f_A)$.
\end{trivlist}
\begin{satz}{Kriterien f"ur Invertierbarkeit}{}
Folgende Kriterien sind "Aquivalent:
\begin{enumerate}[start=0]
\item Wenn $A=\mmat(f)$, dann ist $f$ ein Isomorphismus.
\item $A$ ist invertierbar.
\item[$\mathnormal{1^T}$.] $A^T$ ist Invertierbar
\item $\exists B\in \kkk[n][n]$ mit $A\cdot B = 1_n$ ($A$ Ist ''Rechtsinvertierbar'')
\item $\exists C\in \kkk[n][n]$ mit $C\cdot A = 1_n$ ($A$ Ist ''Linksinvertierbar'')
\item $\mRg(A) = n$ - $A$ hat vollen Rang
\item $\mKer A = \{0\}$
\item $\mIm A = \kk$
\item Das LGS $A\cdot x = 0$ hat nur die triviale L"osung $x=0$.
\item Das LGS $A\cdot x = n$ hat f"ur jedes $b\in \kk$ genau eine L"osung.
\item A ist darstellbar als das Produkt von Elementarmatrizen: $A=T_1 \cdots T_i$
\end{enumerate}
\vspace{\baselineskip}
Ausserdem gilt: wenn $A\cdot B = 1_n$ bzw. $B\cdot C = 1_n$ so ist $A^{-1} = B = C$.
\end{satz}
\begin{relation}
Aus dem Satz ergibt sich folgendes Verfahren zur Berechnung von $A^{-1}$:
\begin{enumerate}
\item Man nehme das LGS $(A\mid 1_n)$ und L"ose es nach dem Gauss Verfahren.
\item Damit werden gleichzeitig die LGS $A\cdot c_i = e_i,\; i=\overline{1,n}$ gel"ost.
\item Die L"osungen $c_i$ ergeben die Matrix $(c_i)=C$ mit $A\cdot C = 1_n \xRightarrow{Satz} C=A^{-1}$
\end{enumerate}
\end{relation}
\begin{lemma}[Injektivit"at und Surjektivit"at bei Verkn"upfungen]\label{surcomp}
Seien $X,Y,Z$ Mengen, $\lmap[f][X][Y],\, \lmap[g][Y][Z]$ Dann gilt:
\begin{enumerate}
\item $g\circ f$ surjektiv $\implies$ $g$ surjektiv
\item $g\circ f$ injektiv $\implies$ $f$ injektiv
\end{enumerate}
\end{lemma}
\begin{prof}[des Lemmas]\hfill
\begin{enumerate}
\item $g \text{ nicht surjektiv }\implies$ $\exists z \in Z \text{ mit } z\not= g(y)\; \forall y\in Y \allowbreak \implies z \not=g(f(x)) \;\forall x \in X$\\$\implies g \circ f \text{ nicht surjektiv}$
\item $f \text{ nich injektiv }\implies \exists x \not=x' mit f(x)=f(x') \implies (g\circ f)(x)=(g\circ f)(x') \implies g\circ f \text{ nicht injektiv}$
\end{enumerate}
\end{prof}
\begin{prof}[des Satzes]
\hfill
\begin{theolist}
\item[0 $\implies$ 1] $A=M^{\varepsilon}_{\varepsilon}(f_A)$, wobei $\lmap[f_A][\kk][\kk],\, x \mapsto A\cdot x$ und $\varepsilon = (\lldot{e})$\\
$(0)$ sagt, dass $f_A$ ein isomorphismus ist, wir haben also ein $f_A^{-1}$. Es gilt:
\begin{itemize}
\item $\mmat[\varepsilon][\varepsilon](f_A^{-1})\cdot\mmat[\varepsilon][\varepsilon](f_A) = \mmat[\varepsilon][\varepsilon](id_{\kk})=1_n$
\item $\mmat[\varepsilon][\varepsilon](f_A)\cdot\mmat[\varepsilon][\varepsilon](f_A^{-1}) = \mmat[\varepsilon][\varepsilon](id_{\kk})=1_n$
\end{itemize}
\item[1 $\implies$ 0] Sei $A$ invertierbar. $A=\mmat(f)$\\ Betrachten wir die
Abbildung $g$ mit $\mmat[C][B](g)=A^{-1}$, es gilt:
\\ $\mmat[B][B](g\circ f) = \mmat[C][B](g) \circ \mmat(f) = A \cdot A^{-1} = 1_n$ damit $g \circ f = \mId$, analog $f\circ g = \mId$. Nach Lemma \ref{surcomp} ist $f$ also ein Isomorphismus (Injektiv und Surjektiv).
\item[1 $\iff$ $1^T$] ...
\item[1 $\implies$ 2] $B:=A^{-1}$
\item[1 $\implies$ 3] $C:=A^{-1}$
\item[4 $ \iff $ 5 $ \iff $ 6] nach dem Lemma und $(1)$
\item[7 $ \iff $ 5] $\{x\mid A\cdot x = 0\} = \mKer (A)$
\item[8 $ \iff $ (5 $ \iff $ 6)] $\{x\mid A\cdot x = b\} = \mKer (A) = \underbrace{f_A^{-1}(b)}_{\text{Urbild}}$ also existiert eine L"osung genau dann, wenn $\mIm(f_A)=\mIm(A) = \kk$ ($b$ beliebig).\\
Andererseits ist die L"osung genau danneindeutig eindeutig, wenn $f_A$ injektiv ist. D.h. Existenz in $(8) \iff (6)$, Eindeutigkeit in $(8)\iff (5)$
\item[2 $ \implies $ 6] Wenn $A\cdot B=1_n$, dann muss nach dem Lemmma die
Abbildung $x\mapsto A\cdot x$ surjektiv sein $\implies$ 6
\item[3 $ \implies $ 5] $C\cdot A = 1_n$
\item[9 $ \implies $ 1] Elementarmatrizen sind invertierbar, und wenn...
\item[7 $ \implies $ 9] L"osen wir das LGS $A\cdot x = 0$ durch
Zeilenumformungen (Gauss-Jordan): also machen wir Zeilenumformungen. Wir
haben keine freien Variablen, denn wir haben nur eine L"osung $\implies$
$A$ wird zur $1_n$ durch Zeilenumformungen transformiert. Wenn wir den
Prozess invertieren, so transformieren wir $1_n$ zu $A$ durch
Zeilenumformungen. \\
Jede Zeilenumformung entspricht der Multiplikation mit einer
Elementarmatrix von links: \[A=T_1 \cdot \dots \cdot 1_n = T_1 \cdot \cdots
\cdot T_e\]
Nun wenn $A\cdot B = 1_n$ wie in (2) $\implies$, \\
Wenn wir ... \\
Analog
\end{theolist}
\end{prof}
\chapter{Determinanten}
\label{sec:det}
Motivation: Wir haben viele Kriterien f"ur invertierbarkeit, aber bislang kein
Kriterium, welches effizient berechenbar w"ahre. Ausserdem fehlt uns zur Zeit
eine geometrische Interpretation f"ur invertierbarkeit.
\begin{relation}
\begin{trivlist}
\item Wir haben gesehen: $A\in K^{n\times n}$ ist genau dann invertierbar, wenn ihre Spalten
(Zeilen) linear unabh"angig sind.
\item Wenn $A\in \mathbb{K}^{2\times 2}$, dann sind ihre
Spalten linear unabh"angig genau dann, wenn die entsprechenden Vektoren $a_1,
a_2 \in \mathbb{R}^2$ ein ''nicht ausgeartetes'' Parallelogramm aufspannen. \\
\item Analog sind $a_1, a_2, a_3$ linear unabh"angig in $\mathbb{R}^3$.
\end{trivlist}
\end{relation}
Wenn wir diese Ideen in einen ''abstrakten'' Vektorraum uebertragen wollen,
m"ussen wir also Volumen invertieren, indem wir nur die Struktur des
Vektorraums benutzen.\\
Welche Eigenschaften hat das Volumen bzgl. der Vektorraumstruktur in
$\mathbb{R}^2$ bzw. $\mathbb{R}^3$?
\begin{itemize}
\item $\mVol(a_1,a_2)=\mVol(a_1, a_2 + \lambda \cdot a_1)\; \forall \lambda \in
\mathbb{R}$
\item $\mVol(a_1,a_1)=0$
\item Bei Streckungen von einem Vektore multipliziert das Volumen mit dem
entsprechenden Faktor.
\begin{align*}
Vol(\lambda\cdot a_1, a_2)=\lambda\cdot \mVol(a_1,a_2) \tag{$\lambda \geq 0$}
\end{align*}
\end{itemize}
\begin{definition}{Volumenform}
Eine \textbf{Volumenform} $\omega$ auf $V$ ist eine Abbildung ... mit
folgenden Eigenschaften:
\begin{enumerate}
\item $\omega$ ist linear in jeder Variable: ...
\item $\omega$ ist alternierend: ...
\end{enumerate}
\end{definition}
\begin{notte}[zu (2)]
...
\end{notte}
\begin{prof}[zur Bemerkung]
Wir lassen die Variablen ausser ... fest und rechnen.
\end{prof}
\begin{notte}
Genau wie bei Volumina von Quadern in $\mathbb{R}^3$ die Wahl einer
Masseinheit das Volumen eindeutig.
\end{notte}
\begin{lemma}
Sei $\omega: V^n\mapsto K$ eine Volumenform und sei $B=(b_1m, ... , b_n)$
eine Basis in $V$. Der Wert .... ..
\end{lemma}
\begin{prof}[des Lemmas]
Stelle $v_i=\sum{\lambda_{ij}b_j}$ dar ($B$ ist ja eine Basis) und benutze
Linearit"at von $\omega$.
\begin{align*}
w(v_1, ..., v_n)=\text{Summe von Termen der Form } (...)
\end{align*}
Es ueberleben nur Terme, wo $b_{j1},...,b_{ji}$ in anderer Reihenfolge sind
$\implies$ dann ist ... $\implies$ ... Summe von Termen der Form
\end{prof}
\begin{proposition}
Sei ... eine Volumenform auf V. Dann gilt:
\begin{enumerate}
\item $\omega(v_1,...,v_n)$ ...
\item Sind ... linear unabh"angig, so gilt
\end{enumerate}
\end{proposition}
\begin{prof}
\begin{enumerate}
\item Linearit"at:
\item Sind ... linear abh"angig, dann ist ein $V_J=\sum$
\end{enumerate}
\end{prof}
Wir wollen die Abh"angigkeit aus dem lemma explizit aufschreiben
\section{Permutationen}
\label{sec:perm}
\begin{definition}{Permutationen}{}
Sei $X$ eine Menge. Eine Bijektion $\sigma: X \to X$ heißt Permutation
von X. \newline
Für \(X = \{1,...,n\}\) heißt die Menge aller Permutationen \(\sigma: \{1,...,n\}\to\{1,...,n\}\) die symmetrische Gruppe auf n Elementen. Notation: \(S_n = \{ \sigma: \{1,...,n\}\to\{1,...,n\}|\sigma\text{ bijektiv}\}\)
\end{definition}
\begin{exa}
Ein Elelement \(\sigma \in S_n\) schreibt man h"aufig als Tabelle:
\[
\left(
\begin{array}{cccc}
1 & 2 & ... & n\\
\sigma(1) & \sigma(2) & ... & \sigma(n)\\
\end{array}\right)
\]
\end{exa}
\begin{notte}
$\tau\circ\sigma \not= \sigma\circ\tau$
\end{notte}
Da Verknüpfungen von Bijektionen bijektiv sind, definiert die Verknüpfung eine Abbildung \(\circ: S_n \times S_n \to S_n \) (Multiplikation von Permutationen). Permutationen kann man auch invertieren: \(\sigma \in S_n \implies \sigma^{-1} \in S_n \)
\begin{definition}{Halbysystem}{}
Sei \(P=\{(i,j) \in \{1,...,n\}^2\mid i\neq j \} \) Ein Halbsystem \(H \subseteq P \) ist eine Teilmenge mit der Eigenschaft: Von den Paaren \((i,j) \) und \((j,i) \) ist immer genau eines in P enthalten. Formal:
\(\forall (i,j) \in P: ((i,j) \in H \land (j,i) \notin H) \lor ((j,i) \in H \land (i,j) \notin H )\)
\end{definition}
\begin{exa}
Für \(n=3 \) ist \(\{(1,2), (1,3), (2,3)\} \) ein Halbsystem.
\end{exa}
\begin{definition}{Vorzeichen}{}
Sei \(\sigma \in S_n. \quad \varepsilon(\sigma):= \prod\limits_{(i,j)\in H} \frac{\sigma(i)-\sigma(j)}{i-j} \) heißt Vorzeichen von \(\sigma \).
\end{definition}
\(\varepsilon(\sigma) \) ist unabhängig von der Wahl von H, denn: Wenn \(H^\prime \) ein anderes Halbsystem ist, muss ggf. \((j,i) \) statt \((i,j) \) genommen werden, aber \(\frac{\sigma(j)-\sigma(i)}{j-i} = \frac{\sigma(i)-\sigma(j)}{i-j} \).
Das heißt, wir können uns einfach ein Halbsystem aussuchen:
\(\varepsilon(\sigma) = \prod\limits_{i<j}\frac{\sigma(i)-\sigma(j)}{i-j} \)
\textbf{Interpretation für \(\varepsilon(\sigma) \)}:
\[\varepsilon(\sigma) = \prod\limits_{i<j}\frac{\sigma(i)-\sigma(j)}{i-j} = \prod_{i<j} sgn(\sigma(i)-\sigma(j)) = \prod_{\substack{i<j\\ \sigma(i)>\sigma(j)}} (-1)\]\[ = \text{Minus eins hoch Anzahl der „Reihenfolgenverstöße“ von }\sigma\]
\begin{definition}{}{}
Die Permutationen ... heissen gerade ... ungerade.
Sei $i\not=j$ ... Die Transposition von ... ist die Permutation: ..
(Vertauscht $i$ und $j$, alle andere bleibt gleicht)
\end{definition}
\begin{proposition}[das Vorzeichen ist multiplikativ]
$\varepsilon(\sigma\circ \tau)= \varepsilon (\sigma) \cdot \varepsilon (\tau)$
\end{proposition}
\begin{relation}
Sei $\tau_{ij}$ eine Transposition: $\varepsilon(\tau_{ij})=-1$.
\end{relation}
\begin{proposition}
Wenn ... ein Produkt von $n$ Transpositionen, dann gilt: ...
\end{proposition}
\begin{notte}
Jede Permutation ist als Produkt von Transpositionen darstellbar ("Ubung)
\end{notte}
Sei \(V\) ein Vektorraum, \(b_1, ..., b_n\) eine Basis, \(v_1, ..., v_n \in
V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\).
\todo{Das stand so nicht an der Tafel, aber \((-1)^\varepsilon\) kam mir spanisch vor}
\begin{align*}
\omega(v_1,\dots,v_n) &= \omega\left(\sum_{j_1=1}^n\lambda_{1,j_1}b_{j_1},\dots,\sum_{j_n=1}^n\lambda_{n,j_n}b_{j_n}\right) \\
&= \sum_{j_1,\dots,j_n=1}^n\left(\underbrace{\lambda_{1,j_1}\dots\lambda_{n,j_n}}_{\text{Produkt}}\cdot\omega(b_{j_1},\dots,b_{j_n})\right) \\
&= \sum_{\sigma\in S_n}\left(\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)}\omega(b_{\sigma(1)},\dots,b_{\sigma(n)})\right) \\
&= \left(\sum_{\sigma\in S_n}{\varepsilon(\sigma)}\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)}\right)\omega(b_1,\dots,b_n)
\end{align*}
Wenn \(V=K^n, (b_1,\dots,b_n) = (e_1,\dots,e_n)\) die Standardbasis in \(K^n\), und die Volumenform \(\omega:
V^n\to K\) so gew"ahlt ist, dass \(\omega(e_1,...,e_n)=1\), dann bekommt man
folgende Definition f"ur eine Matrix \(A\):
\begin{definition}{}{}
Sei \(A\in K^{n\times n}\) eine Matrix mit Eintr"agen \(a_{ij}\). Wenn man die Zeilen von \(A\) (sagen wir \(\alpha_1,\dots, \alpha_n\)) als
Vektoren in \(K^n\) auffast, dann gilt: \[\omega(\alpha_1,\dots,\alpha_n) = \sum_{\sigma\in S_n}{\varepsilon(\sigma)a_{1,\sigma(1)}\dots a_{n,\sigma(n)}} =: \det A \]
Das nennen wir ab jetzt auch Leibniz-Formel.
\end{definition}
\begin{relation}
Geometrische Bedeutung: \(\det A\) ist das (orientierte) Volumen des Quaders / Parallelotops aufgespannt durch Zeilen von \(A\) (wenn man das Volumen des \gq{Standardquaders} aufgespannt durch Standardzeilen \(e_1^T,\dots,e_n^T\) gleich 1 setzt)
\end{relation}
\begin{proposition}
Sei \(V\) ein \(n\)-dimensionaler Vektorraum. Es gibt eine bis auf ein Vielfaches eindeutige Volumenform \(\omega \neq 0\) auf \(V\).
\end{proposition}
\begin{prof}
W"ahle eine Basis \(B= (b_1,\dots,b_n) \in V\), definiere \(\omega(v_1,\dots,v_n)\) durch die Leibniz-Formel mit \(\omega(b_1,\dots,b_n):=1\). Dann ist \(\omega\neq 0\) nach Konstruktion. \(\omega\) ist linear in jeder Variable, weil \(\det\Delta \) definiert durch die Leibniz-Formel linear in jeder Zeile der Matrix \(\Delta\) ist. Wir m"ussen noch zeigen, dass es alternierend ist: \[\omega(v_1,\dots,v_{i-1},v_i,v_{i+1},\dots,v_{j-1},v_j,v_{j_1},\dots,v_n) = \det\Delta \cdot\omega(b_1,\dots,b_n) \] Wobei die \(i\)-te und \(j\)-te Zeile von \(\Delta\) "ubereinstimmen (es gilt also \(\lambda_{i,x}=\lambda_{j,x}\)). Es gilt:
\begin{align*}
\det\Delta &= \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)} \\
&= \sum_{\sigma = \sigma'\circ\tau_{ij}\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{i,\sigma(i)}\dots\lambda_{j,\sigma(j)}\dots\lambda_{n,\sigma(n)} \\
&= \sum_{\sigma\in S_n}\varepsilon(\sigma'\circ\tau_{ij})\cdot\lambda_{1,\sigma'(1)}\dots\overbrace{\lambda_{i,\sigma'(j)}}^{=\lambda_{i,\sigma(i)}}\dots\overbrace{\lambda_{j,\sigma'(i)}}^{=\lambda_{j,\sigma(j)}}\dots \lambda_{n,\sigma'(n)} \\
&= \mcolor{-} \sum_{\sigma'\in S_n} \mcolor{\varepsilon(\sigma')} \lambda_{1,\sigma'(1)}\dots\lambda_{i,\sigma'(i)}\dots\lambda_{j,\sigma'(j)}\dots\lambda_{n,\sigma'(n)} = -\det \Delta \\
&\implies \det \Delta = 0
\end{align*}
\(\implies\omega \) alternierend.
\end{prof}
\(\omega\) ist eindeutig durch den Wert (=1) auf \(B\) bestimmt \(\implies\) wenn \(\omega'\) eine Volumenform auf \(V\) ist, so gilt \(\omega' = \underbrace{\omega'(b_1,\dots,b_n)}_{\in K}\cdot\omega\)
\begin{definition}{Determinante}
Sei \(V\) ein \(n\)-dimensionaler Vektorraum, \(f: V\to V\) linear. Die Determinante von \(f\) ist
\[\det(f):= \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)}\]
wobei \(\omega \neq 0\) eine Volumenform auf \(V\) ist.
\end{definition}
\begin{beobachtung}
Die obige Proposition zeigt, dass \(\det(f)\) wohldefiniert ist (= auf die Wahl von \(\omega\neq 0\) nicht ankommt). Geometrisch: \(\det(f)\) ist der Verzerrungsfaktor von dem Volumen (unter \(f\)).
\end{beobachtung}
\begin{lemma}
\(\det\Delta = \det\Delta^T\quad\forall \Delta\in K^{n\times n}\)
\end{lemma}
\begin{prof}
Es gilt: \(\varepsilon(\sigma) = \varepsilon(\sigma^{-1})\quad\forall \sigma\in S_n \) (folgt z.B. aus \(\varepsilon(\sigma\circ\sigma^{-1})=1=\varepsilon(\sigma)\varepsilon(\sigma^{-1})\))
\begin{align*}
\det\Delta^T = \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{\sigma(1),1}\dots\lambda_{\sigma(n),n} = \sum_{\sigma^{-1}\in S_n}\varepsilon(\sigma^{-1})\lambda_{1,\sigma^{-1}(1)}\dots\lambda_{n,\sigma^{-1}(n)} = \det \Delta
\end{align*}
\end{prof}
\begin{proposition}
\begin{enumerate}
\item \(f, g: V\to V \) linear \(\implies\det(g\circ f) = \det(g)\det(f) \)
\item \(f\) ist genau dann invertierbar, wenn \(\det(f)\neq 0 \)
\end{enumerate}
\end{proposition}
\begin{korollar}
Sei \(B\) eine Basis in \(V\), \(f:V\to V \) linear. Dann gilt: \(\det(f) = \det M^B_B(f) \)
\end{korollar}
\begin{prof}
\begin{align*}
\det(f) = \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)} \stackrel{Def. Abb. + Leibniz}{=} \det M^B_B(f)^T \stackrel{Lemma}{=} \det M_B^B(f)
\end{align*}
\end{prof}
\begin{korollar}
Eine Matrix \(A\in K^{n\times n} \) ist genau dann invertierbar, wenn \(\det A \neq 0 \)
\end{korollar}
\begin{bem}
Es gibt eine Reihe von Begriffen f"ur Matrizen, die nach unseren Invertierbarkeitskriterien alle "aquivalent dazu sind, dass \(A \) invertierbar ist, z.B. nicht ausgeartet, regul"ar etc.
\end{bem}
\begin{korollar}
Wie berechnet man Determinanten?
Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnungen macht man normalerweise unter Benutzung folgender Eigenschaften der Determinante (die daraus folgen, dass \(\det : (K^n)^n \to K\) eine Volumenform ist):
\begin{itemize}
\item Wenn man zu einer Zeile / Spalte der Matrix ein Vielfaches einer anderen Zeile bzw. Spalte addiert, so "andert sich die Determinante nicht;
\item \(\det \) ist linear in jeder Zeile bzw. Spalte.
\end{itemize}
\end{korollar}
\begin{bem}
F"ur \(\varepsilon(\sigma)\), das Vorzeichen einer Permutation, gibt's auch die Physiker-Notation: \(\varepsilon_{1,\dots,n}=1\) und es ver"andert das Vorzeichen, wenn man zwei Indizes vertauscht.
\end{bem}
\begin{bem}[Orientierung von Vektorr"aumen]
Volumenformen sind laut unserer Definition linear \(\implies\) selbst wenn \(V\) ein \(\mathbb{R}\)-Vektorraum ist, kann es passieren, dass \(\omega(v_1,\dots,v_n)< 0\). Die Wahl von einer Volumenform \(\omega\) definiert die sogenannte \emph{Orientierung} von \(V\) (\(V\) ein \(mathbb{R}\)-VR). Wenn wir \(\omega\) fixieren, dann entstehen zwei Klassen von Basen in \(V\): \(B = (b_1,\dots,b_n)\) hei"st positiv (negativ) orientiert, wenn \(\omega(b_1,\dots,b_n) > (<) 0\).
In diesem Sinne ist \(\omega(v_1,\dots,v_n)\) das \emph{orientierte} Volumen von dem Quader aufgespannt durch \(v_1,\dots,v_n\): wenn \(v_1,\dots,v_n\) positiv orientiert sind, ist \(\omega(v_1,\dots,v_n) = \) \(+\)Volumen, andernfalls \(-\)Volumen.
\end{bem}
\begin{proposition} Sei \(V\) ein \(n\)-dimensionaler Vektorraum. Es gibt eine bis auf ein Vielfaches eindeutige Volumenform \(\omega \neq 0\) auf \(V\).
\end{proposition}
\begin{prof}
W"ahle eine Basis \(B= (b_1,\dots,b_n) \in V\), definiere \(\omega(v_1,\dots,v_n)\) durch die Leibniz-Formel mit \(\omega(b_1,\dots,b_n):=1\). Dann ist \(\omega\neq 0\) nach Konstruktion. \(\omega\) ist linear in jeder Variable, weil \(\det\Delta \) definiert durch die Leibniz-Formel linear in jeder Zeile der Matrix \(\Delta\) ist. Wir m"ussen noch zeigen, dass es alternierend ist: \[\omega(v_1,\dots,v_{i-1},v_i,v_{i+1},\dots,v_{j-1},v_j,v_{j_1},\dots,v_n) = \det\Delta \cdot\omega(b_1,\dots,b_n) \] Wobei die \(i\)-te und \(j\)-te Zeile von \(\Delta\) "ubereinstimmen (es gilt also \(\lambda_{i,x}=\lambda_{j,x}\)). Es gilt:
\begin{align*}
\det\Delta &= \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)} \\
&= \sum_{\sigma = \sigma'\circ\tau_{ij}\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{i,\sigma(i)}\dots\lambda_{j,\sigma(j)}\dots\lambda_{n,\sigma(n)} \\
&= \sum_{\sigma\in S_n}\varepsilon(\sigma'\circ\tau_{ij})\cdot\lambda_{1,\sigma'(1)}\dots\overbrace{\lambda_{i,\sigma'(j)}}^{=\lambda_{i,\sigma(i)}}\dots\overbrace{\lambda_{j,\sigma'(i)}}^{=\lambda_{j,\sigma(j)}}\dots \lambda_{n,\sigma'(n)} \\
&= \mcolor{-} \sum_{\sigma'\in S_n} \mcolor{\varepsilon(\sigma')} \lambda_{1,\sigma'(1)}\dots\lambda_{i,\sigma'(i)}\dots\lambda_{j,\sigma'(j)}\dots\lambda_{n,\sigma'(n)} = -\det A \\
&\implies \det A = 0
\end{align*}
\(\implies\omega \) alternierend.
\end{prof}
\(\omega\) ist eindeutig durch den Wert (=1) auf \(B\) bestimmt \(\implies\) wenn \(\omega'\) eine Volumenform auf \(V\) ist, so gilt \(\omega' = \underbrace{\omega'(b_1,\dots,b_n)}_{\in K}\cdot\omega\)
\begin{definition}{Determinante}{}
Sei \(V\) ein \(n\)-dimensionaler Vektorraum, \(f: V\to V\) linear. Die Determinante von \(f\) ist
\[\det(f):= \frac{\omega(f(b_1),\dots,f(b_n))}{\omega(b_1,\dots,b_n)}\]
wobei \(\omega \neq 0\) eine Volumenform auf \(V\) ist.
\end{definition}
\begin{beobachtung}
Die obige Proposition zeigt, dass \(\det(f)\) wohldefiniert ist (= auf die Wahl von \(\omega\neq 0\) nicht ankommt). Geometrisch: \(\det(f)\) ist der Verzerrungsfaktor von dem Volumen (unter \(f\)).
\end{beobachtung}
\begin{lemma}
\(\det\Delta = \det\Delta^T\quad\forall \Delta\in K^{n\times n}\)
\end{lemma}
\begin{prof}
Es gilt: \(\varepsilon(\sigma) = \varepsilon(\sigma^{-1})\quad\forall \sigma\in S_n \) (folgt z.B. aus \(\varepsilon(\sigma\circ\sigma^{-1})=1=\varepsilon(\sigma)\varepsilon(\sigma^{-1})\))
\begin{align*}
\det\Delta^T = \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{\sigma(1),1}\dots\lambda_{\sigma(n),n} = \sum_{\sigma^{-1}\in S_n}\varepsilon(\sigma^{-1})\lambda_{1,\sigma^{-1}(1)}\dots\lambda_{n,\sigma^{-1}(n)} = \det \Delta
\end{align*}
\end{prof}
\begin{proposition}
\begin{enumerate}
\item \(f, g: V\to V \) linear \(\implies\det(g\circ f) = \det(g)\det(f) \)
\item \(f\) ist genau dann invertierbar, wenn \(\det(f)\neq 0 \)
\end{enumerate}
\end{proposition}
\begin{prof}
\begin{enumerate}
\item Wenn \(f\) oder \(g\) nicht bijektiv sind, dann ist \(g\circ f\) auch nicht bijektiv. Daher ist \(\det g\circ f = 0 = \det g \det f\). Sonst gilt:
\begin{align*}
\det (f\circ g) &= \frac{\omega (g\circ f(v_1), \dots, g\circ f(v_n))}{\omega (v_1, \dots, v_n)} \\
&= \frac{\omega (g\circ f(v_1), \dots, g\circ f(v_n))}{\omega (f(v_1), \dots, f(v_n))}\cdot\frac{\omega (f(v_1), \dots, f(v_n))}{\omega (v_1,\dots ,v_n)} = \det f\det g
\end{align*}
Wobei der letzte Schritt nur funktioniert, weil \(f\) bijektiv sein soll und damit \(f(v_1), \dots ,f(v_n)\) auch eine Basis in \(V\) ist.
\item \(f\) invertierbar \(\iff f\) bijektiv \(\iff f(v_1), \dots, f(v_n)\) ist eine Basis, wenn \(v_1, \dots, v_n\) eine Basis ist \(\iff\) \(f(v_1), \dots, f(v_n)\) sind linear unabh"angig f"ur linear unabh"angige \(v_1,\dots, v_n\) \(\iff \det f \neq 0\)
\end{enumerate}
\end{prof}
\begin{korollar}
Sei \(B\) eine Basis in \(V\), \(f:V\to V \) linear. Dann gilt: \(\det(f) = \det M^B_B(f) \)
\end{korollar}
\begin{prof}
\begin{align*}
\det(f) = \frac{\omega(f(b_1),\dots,f(b_n))}{\omega(b_1,\dots,b_n)} \stackrel{Def. Abb. + Leibniz}{=} \det M^B_B(f)^T \stackrel{Lemma}{=} \det M_B^B(f)
\end{align*}
\end{prof}
\begin{korollar}
Eine Matrix \(A\in K^{n\times n} \) ist genau dann invertierbar, wenn \(\det A \neq 0 \)
\end{korollar}
\begin{bem}
Es gibt eine Reihe von Begriffen f"ur Matrizen, die nach unseren Invertierbarkeitskriterien alle "aquivalent dazu sind, dass \(A \) invertierbar ist, z.B. nicht ausgeartet, regul"ar etc.
\end{bem}
\begin{korollar}
Wie berechnet man Determinanten?
Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnungen macht man normalerweise unter Benutzung folgender Eigenschaften der Determinante (die daraus folgen, dass \(\det : (K^n)^n \to K\) eine Volumenform ist):
\begin{itemize}
\item Wenn man zu einer Zeile / Spalte der Matrix ein Vielfaches einer anderen Zeile bzw. Spalte addiert, so "andert sich die Determinante nicht;
\item \(\det \) ist linear in jeder Zeile bzw. Spalte.
\end{itemize}
\end{korollar}
\begin{bem}
F"ur \(\varepsilon(\sigma)\), das Vorzeichen einer Permutation, gibt's auch die Physiker-Notation: \(\varepsilon_{1,\dots,n}=1\) und es ver"andert das Vorzeichen, wenn man zwei Indizes vertauscht.
\end{bem}
\begin{bem}[Orientierung von Vektorr"aumen]
Volumenformen sind laut unserer Definition linear \(\implies\) selbst wenn \(V\) ein \(\mathbb{R}\)-Vektorraum ist, kann es passieren, dass \(\omega(v_1,\dots,v_n)< 0\). Die Wahl von einer Volumenform \(\omega\) definiert die sogenannte \emph{Orientierung} von \(V\) (\(V\) ein \(mathbb{R}\)-VR). Wenn wir \(\omega\) fixieren, dann entstehen zwei Klassen von Basen in \(V\): \(B = (b_1,\dots,b_n)\) hei"st positiv (negativ) orientiert, wenn \(\omega(b_1,\dots,b_n) > (<) 0\).
In diesem Sinne ist \(\omega(v_1,\dots,v_n)\) das \emph{orientierte} Volumen von dem Quader aufgespannt durch \(v_1,\dots,v_n\): wenn \(v_1,\dots,v_n\) positiv orientiert sind, ist \(\omega(v_1,\dots,v_n) = \) \(+\)Volumen, andernfalls \(-\)Volumen.
\end{bem}
\chapter{Eigenvektoren, Eigenwerte, Diagonalisierbarkeit}
Wir haben gesehen: wenn \(f: V\to W\) linear, \(V, W\) endlichdimensionale Vektorr"aume \(\implies \exists B\subset V, C\subset W \) Basen so dass
\[M^B_C(f) = \begin{pmatrix}
1_r & 0\\
0 & 0
\end{pmatrix}, r = \mRg f\]
\begin{definition}{Endomorphismus, lineare Operatoren}{}
Ein Endomorphismus von \(V\) ist eine lineare Abbildung \(f: V\to V\). Bezeichnung: \(f\in \text{End}_K(V) = \text{Hom}_K(V,V) \)
Endomorphismus hei"sen auch lineare Operatoren auf \(V\). Die Wahl einer Basis \(B\subset V \) gibt uns eine Matrix \(M^B_B(f)\).
\end{definition}
\begin{korollar}[Hauptfrage]
Wenn \(f\) gegeben ist, wie findet man eine Basis \(B\), so dass \(M^B_B(f)\) eine besonders einfache Form hat?
"Aquivalent, in Termen von Matrizen: Gegeben eine Matrix \(A\in K^{n\times n} \), finde eine invertierbare Matrix \(S\) so dass \(S^{-1}AS\) besonders einfache Form hat.
\end{korollar}
Sei \(V\) ein \(\mathbb{R}\)-Vektorraum, sei \(B\) eine Basis mit \[M^B_B(f) =
\begin{pmatrix}
1 & 0 & 0 \\
0 & 2 & 0 \\
0 & 0 & 3
\end{pmatrix} = \mDiag(1,2,3) \]
Das hei"st, \(f\) ist in diesem Fall eine Streckung mit Koeffizienten 1, 2, oder 3 in Richtung von \(b_1\), \(b_2\) oder \(b_{3}\).
\begin{definition}{Eigenvektor, Eigenwert}{}
Sei \(f: V\to V\) eine lineare Abbildung. Ein Eigenvektor von \(f\) ist ein Vektor \(v\neq 0\), so dass \(f(v) = \lambda v\) f"ur ein \(\lambda \in K\), \(\lambda\) hei"st \emph{Eigenwert} von \(f\). Man sagt, dass \(v\) Eigenvektor zum Eigenwert \(\lambda\) ist. Geometrisch gesehen: \(f\) streckt \(v\) mit Koeffizienten \(\lambda\).
\end{definition}
\begin{lemma}
Sei \(f: V\to V\) ein Endomorphismus. Wenn \(B = (b_{1},\dots,b_{n})\) eine Basis in \(V\) aus Eigenvektoren zu Eigenwerten \(\lambda_{1},\dots,\lambda_{n}\) ist, so gilt:
\[M^{B}_{B}(f)=
\begin{pmatrix}
\lambda_{1} & & 0 \\
& \ddots & \\
0 & & \lambda_{n}
\end{pmatrix}
= \mDiag(\lambda_{1},\dots,\lambda_{n})
\]
(\(B\) hei"st auch Eigenbasis.)
\end{lemma}
\begin{prof}
Es gilt laut Definition \(f(b_i) = \lambda_ib_i\) wobei \(i = 1, \dots, n\) \(\implies\) die Form von \(M^B_B(f)\) folgt aus den Definitionen.
\end{prof}
Es folgt: Wenn wir die Diagonalform von \(M^B_B(f)\) errichen m"ochten, m"ussen wir Eigenwerte und Eigenvektoren suchen!
\begin{definition}{Diagonalisierbarkeit}{}
Ein Endomorphismus \(f\) hei"st diagonalisierbar, wenn er eine Eigenbasis hat.
\end{definition}
\begin{proposition}
Sei \(f\in \mEnd_K(V), \lambda\in K\).
\begin{enumerate}
\item \(v\in V\) ist ein Eigenvektor von \(f\) zum Eigenwert \(\lambda \iff v\in\mKer(\lambda\mId_V - f)\setminus\{0\}\)
\item \(\lambda\) ist ein Eigenwert von \(f\) (d.h., es existieren Eigenvektoren zum Eigenwert \(\lambda\iff\det(\lambda\mId_V-f)=0\))
\end{enumerate}
\end{proposition}
\begin{prof}
\begin{enumerate}
\item Sei \(v\in V\) ein Eigenvektor (Eigenvektoren sind per Definition \(\neq 0\)) zum Eigenwert \(\lambda\). Nach Definition gilt:
\begin{align*}
f(v) &= \lambda v \iff f(v) - \lambda v = 0 \iff (f - \lambda\mId_V)(v) = 0 \\
&\iff v\in \mKer(\lambda\mId_V - f)
\end{align*}
Andersherum: Wenn \(v \in \mKer(\lambda\mId_V -f)\setminus\{0\}\), dann ist \((\lambda\mId_V -f)(v)=0\land v\neq 0 \implies v\) ist Eigenvektor zum Eigenwert \(\lambda\).
\item Nach (oben) ist \(\lambda\) ein Eigenwert \(\iff\mKer(\lambda\mId_V -f)\neq 0\)\(\iff \lambda\mId_V -f\) ist nicht invertierbar \(\iff\det(\lambda\mId_V - f) = 0\)
\end{enumerate}
\end{prof}
F"ur die Suche nach Eigenvektoren bedeutet das:
\begin{enumerate}
\item Wenn wir einen Eigenwert \(\lambda\) kennen, k"onnen wir Eigenvektoren ganz einfach bestimmen, indem wir eine Basis von \(\mKer(\lambda\mId_V -f)\) finden (dazu muss man nur ein LGS l"osen).
\item Um Eigenwerte zu finden, m"ussen wir die Gleichung \(\det(\lambda\mId_V - f) = 0\) nach \(\lambda\) l"osen.
\end{enumerate}
\begin{definition}{Charakteristisches Polynom}{}
Sei \(f\in\mEnd_K(V)\). Das Polynom \[\chi_f(\lambda) := \det(\lambda\mId_V-f)\] hei"st charakteristisches Polynom von \(f\). Die Gleichung \[\chi_f(\lambda) = 0\] hei"st charakteristische Gleichung von \(f\).
\end{definition}
\begin{comm}
Wir haben bewiesen, dass die Determinante eines Endomorphismus gleich der Determinante der \emph{Matrix} dieses Endomorphismus ist: \(\det f = \det M_B^B(f)\). Daraus folgt auch, dass \(\det M_B^B(f) = \det M_{B'}^{B'}(f)\) (sp"ater werden wir Matrizen, die den gleichen Endomorphismus nur in unterschiedlichen Basen beschreiben, \gq{"ahnlich} nennen -- also sagen wir: "ahnliche Matrizen haben gleiche Determinanten).
\end{comm}
Aus obigen "Uberlegungen folgt: Die Nullstellen von \(\chi_f(\lambda)\) sind genau die Eigenwerte von \(f\). Wenn wir \(f\) also diagonalisieren wollen, m"ussen wir folgendes tun:
\begin{enumerate}
\item charakteristische Gleichung l"osen, um die Eigenwerte zu bestimmen
\item Basen von \(\mKer(\lambda\mId_V-f)\) zu jedem Eigenwert \(\lambda\) finden
\item hoffen, dass Vereinigung von diesen Basen eine Basis in \(V\) ergibt
\end{enumerate}
\begin{definition}{Eigenraum}{}
\(\mKer(\lambda\mId_V-f)\) hei"st Eigenraum zum Eigenwert \(\lambda\).
\end{definition}
\begin{lemma}
Die Eigenvektoren zu verschiedenen Eigenwerten sind linear unabh"angig, genauer: \[\lambda_1\neq\lambda_2\in K\implies\mKer(\lambda_1\mId_V-f)\cap\mKer(\lambda_2\mId_V-f)=\{0\}\]
Insbesondere ist die Summe verschiedener Eigenr"aume immer direkt.
\end{lemma}
\begin{prof}
Sei \(\lambda_1\neq\lambda_2\), sei weiterhin \(v\in\mKer(\lambda_1\mId_V-f)\cap\mKer(\lambda_2\mId_V-f)\). Dann gilt \(f(v)=\lambda_1v=\lambda_2v\) \(\implies(\lambda_1-\lambda_2)v = 0\implies v = 0\).
(Nachtrag). Ausf"uhrlicherer Beweis dieser Aussage: Seien \(v_1,\dots,v_n\) Eigenvektoren zu Eigenwerten \(\lambda_1,\dots,\lambda_n\) (diese sollen paarweise verschieden sein). Sei \(\alpha_1 v_1+\dots + \alpha_nv_n = 0\). Wir definieren \(g_i\):
\begin{align*}
g_i := (f-\lambda_1\mId_V)\dots(f-\lambda_{i-1}\mId_V)(f-\lambda_{i+1}\mId_V)\dots(f-\lambda_n\mId_V)
\end{align*}
(Beachte hierbei: Ob dieser Ausdruck ein Produkt oder eine Funktionsverkettung ist, ist egal.)
\begin{align*}
g_i(v_k) &= (\lambda_k-\lambda_1)(\lambda_k-\lambda_2)\dots(\lambda_k-\lambda_{i-1})(\lambda_k-\lambda_{i+1})\dots(\lambda_k-\lambda_n)v_k =
\begin{cases}
0, & k\neq i \\
\beta_iv_i, & k = i
\end{cases} \quad ,\beta_i\neq 0 \\
&\implies \text{auf }\alpha_1v_1+\dots +\alpha_nv_n = 0\text{ angewendet}: \alpha_i\beta_iv_i = 0 \xRightarrow{\beta_i \neq 0} \alpha_i = 0
\end{align*}
Und das kann man f"ur jedes \(i\) machen \(\implies\) alle \(v_i\) sind linear unabh"angig.
\end{prof}
Insbesondere folgt f"ur (3), dass die Vereinigung von Basen in Eigenr"aumen immer eine linear unabh"angige Menge ist, aber manchmal gibt es einfach \gq{zu wenige} Eigenvektoren, damit sie zu einer Basis werden.
\begin{exa}[Eigenwertberechnung]
\[M^B_B(f) =
\begin{pmatrix}
9 & -6 \\
2 & 2
\end{pmatrix}\]
Nun suchen wir eine Eigenbasis von \(f\).
\begin{enumerate}
\item Charakteristische Gleichung: \(\det(\lambda\mId_V-f)=0\)
\[\chi_f(\lambda) = \det\begin{pmatrix}9-\lambda & -6 \\ 2 & 2-\lambda\end{pmatrix} = (\lambda - 9)(\lambda - 2) + 12 = \lambda^2 - 11\lambda + 30 = (\lambda-5)(\lambda-6)\]
\item Eigenwerte: \(\lambda_1 = 5, \lambda_2 = 6\)
\item Eigenvektoren:
\begin{enumerate}
\item zu \(\lambda_1 = 5\): Finde Basis zu \(\mKer(f - \lambda\mId_V)\) \(\implies\) homogenes LGS mit Matrix \(
\begin{pmatrix}
4 & -6 \\
2 & -3
\end{pmatrix}
\) l"osen, Basen finden \(\implies\begin{pmatrix}3\\2\end{pmatrix}\) ist L"osung
\item f"ur \(\lambda_2 = 6\): L"ose homogenes LGS mit Matrix \(
\begin{pmatrix}
3 & -6 \\
2 & -4
\end{pmatrix}
\) \(\implies\begin{pmatrix}2\\1\end{pmatrix}\) ist L"osung
\end{enumerate}
\item Eigenbasis: \(B = (v_1, v_2)\), setze nun \(S = M^{B'}_B=\begin{pmatrix}3 & 2\\ 2 & 1\end{pmatrix}\)
\[\implies M^{B'}_{B'}=S^{-1}\begin{pmatrix}9 & -6 \\ 2 & 2 \end{pmatrix}S = \begin{pmatrix}5 & 0 \\ 0 & 6 \end{pmatrix}\]
\end{enumerate}
\end{exa}
Was sind m"ogliche Hindernisse zu Diagonalisierbarkeit?
Es kann passieren, dass es \gq{zu wenig} Eigenwerte gibt.
\begin{exa}[Rotation]
Rotation in \(\mathbb{R}^2\) um \(\frac{\pi}{2}\): \(R_{\frac{\pi}{2}}\) hat die Matrix \(
\begin{pmatrix}
0 & -1 \\
1 & 0
\end{pmatrix}
\).
\[\chi_{R_{\frac{\pi}{2}}}(\lambda) = \det
\begin{pmatrix}
\lambda & 1\\
-1 & \lambda
\end{pmatrix}
= \lambda^2 + 1
\] \(\implies\) keine reellen Nullstellen \(\implies\) keine Eigenwerte, keine Eigenvektoren. Hier scheitern wir daran, dass das Polynom \(\lambda^2+1\) nicht genug Nullstellen in \(\mathbb{R}\) hat.
\end{exa}
\section{Nullstellen von Polynomen}
\begin{definition}{Nullstelle}{}
Sei \(p\in K[\lambda] = \left\{\sum_{i=0}^n\alpha_i\lambda^i|\alpha_i\in K, n\in\mathbb{N} \right\}\) ein Polynom. Eine Nullstelle \(\mu\) von \(p\) ist ein Element \(\mu\in K\) so dass \(p(\mu) = 0\).
\end{definition}
\begin{lemma}[Bezout]
\(\mu\in K\) ist eine Nullstelle von \(p \iff p(\lambda) = (\lambda-\mu)\cdot p_1(\lambda)\), wobei \(p_1\) ein Polynom ist.
\end{lemma}
\begin{prof}[Bezout, Skizze]
\((\impliedby)\): offensichtlich \\
\((\implies)\): folgt durch Division mit Rest: Wenn man \(p\) durch \((\lambda-\mu)\) mit Rest dividiert, bekommt man \(p(\lambda) = (\lambda-\mu)p_1(\lambda) + r(\lambda)\). Es ist (siehe auch Analysis) \(\mDeg(r) < \mDeg(\lambda-\mu) = 1\) \(\implies r(\lambda)=r\) ist Konstante. \(0 = p(\mu) = 0 + r \implies r = 0\).
\end{prof}
\begin{beobachtung}
Ein Polynom von Grad \(d\) hat h"ochstens \(d\) Nullstellen.
\end{beobachtung}
\begin{theo}{Fundamentalsatz der Algebra}
Jedes Polynom \(p\in\mathbb{C}[\lambda]\) zerf"allt in Linearfaktoren:
\[p(\lambda) = a(\lambda - \lambda_1)(\lambda-\lambda_2)\dots(\lambda-\lambda_d) \qquad d = \mDeg p\]
"Aquivalent: Ein Polynom \(p\in\mathbb{C}[\lambda]\) von Grad \(d\) hat genau \(d\) Nullstellen in \(\mathbb{C}\), wenn man sie mit Vielfachheiten z"ahlt (das hei"st z.B. \(p(\lambda) = (\lambda-1)^3(\lambda-4)^5\) hat eine dreifache Nullstelle 1, eine f"unffache Nullstelle 4 \(\implies\) insgesamt 8 Nullstellen)
\end{theo}
Folgerung: Sei \(V\) ein \(\mathbb{C}\)-Vektorraum, dann hat lineares \(f: V\to V\) einen Eigenvektor. Idee dazu: Wenn \(V\) ein \(\mathbb{R}\)-Vektorraum ist, k"onnen wir es zu einem \(\mathbb{C}\)-Vektorraum \gq{aufr"usten}. Das hilft auch, \(\mathbb{R}\)-lineare Abbildungen zu studieren.
\begin{definition}{Komplexifizierung}{}
Sei \(V\) ein \(\mathbb{R}\)-Vektorraum. Die Komplexifizierung \(V_{\mathbb{C}}\) von \(V\) ist der folgende \(\mathbb{C}\)-Vektorraum: \[V_{\mathbb{C}} = \{(v, w)\mid v, w\in V\}\] als Menge, Addition komponentenweise: \[(\alpha + i\beta)\cdot (v, w) = (\alpha v - \beta w, \beta v + \alpha w)\]
\(\implies\) man denkt an \((v, w)\) als an \gq{\(v+iw\)}. Also schreibt man manchmal sogar \gq{\(V_{\mathbb{C}} = V\oplus iV\)}, um das hervorzuheben.
\end{definition}
\begin{lemma}
Sei \(f:V \to V\) \(\mathbb{R}\)-linear, dann ist \[f_{\mathbb{C}}: V_{\mathbb{C}}\to V_{\mathbb{C}} \qquad (v, w)\mapsto (f(v), f(w))\] \(\mathbb{C}\)-linear. (\(f_{\mathbb{C}}\) hei"st Komplexifizierung von \(f\))
\end{lemma}
\begin{prof}
\begin{align*}
f_{\mathbb{C}}((\alpha + i\beta)\cdot(v,w)) &= f_{\mathbb{C}}((\alpha v - \beta w, \beta v + \alpha w)) = (\alpha f(v) - \beta f(w), \beta f(v) + \alpha f(w)) \\
&= (\alpha + i \beta)\cdot (f(v), f(w)) = (\alpha + i \beta) \cdot f_{\mathbb{C}}((v, w))
\end{align*}
\end{prof}
\begin{bem}
(v, 0) + i(w, 0) = (v, 0) + (0, w) = (v, w)
\end{bem}
\begin{lemma}
Wenn \(B = (b_1, \dots, b_n)\) eine Basis von \(V\) ist, so ist \((b_1, 0), \dots, (b_n, 0)\) eine Basis von \(V_{\mathbb{C}}\).
\end{lemma}
\begin{prof}
\((b_1, 0), \dots, (b_n, 0)\) spannen \(V_{\mathbb{C}}\) auf, weil reelle Linearkombinationen von \((b_1, 0), \dots, (b_n, 0)\) den Raum \(\{(v, 0)\mid v\in V\}\) aufpsannen, \(i(b_1, 0), \dots, (b_n, 0)\) spannen \(\{(0, w)\mid w \in V\}\) auf. Sie sind auch linear unabh"angig "uber \(\mathbb{C}\), denn die Aufspannabbildung \(\varphi: \mathbb{C}^n \to V_{\mathbb{C}}, \lambda\mapsto \sum_{i=1}^n\lambda_i(b_i, 0)\) ist die Komplexifizierung der reellen Aufspannabbildung . \(\varphi_{\mathbb{R}}\) war injektiv \(\implies \varphi\) war injektiv.
\end{prof}
\begin{lemma}
Wenn $f: V\to V$ linear ist und \(f_{\mathbb{C}}: V_{\mathbb{C}} \to V_{\mathbb{C}}\) die Komplexifizierung, $B$ Basis
in $V$, dann gilt: \[M^B_B(f_{\mathbb{C}}) = M^B_B(f)\] (Informell: bei Komplexifizierung nehmen wir Matrizen "uber \(\mathbb{R}\) als die "uber \(\mathbb{C}\) war)
\end{lemma}
\begin{prof}
Inspektion der Abbildungsmatrix. \[f_{\mathbb{C}}(b_i,0) = (f(b_i), 0)\]
\end{prof}
\begin{exa}
\(R_{\frac{\pi}{2}}: \mathbb{R}^2\to\mathbb{R}^2\) mit Abbildungsmatrix
\[
\begin{pmatrix}
0 & -1 \\
1 & 0
\end{pmatrix}
\rightarrow \chi_{R_{\frac{\pi}{2}}}(\lambda) = \lambda^2 + 1
\]
\end{exa}
\begin{prof}
Inspektion der Abbildungsmatrix. \[f_{\mathbb{C}}(b_i,0) = (f(b_i), 0)\]
\end{prof}
\begin{definition}{Invarianter Untervektorraum}{}
Sei $f: V \mapsto V$ eine $K$-lineare Abbildung. Ein Untervektorraum
$U\subseteq V$ hei"st invariant, wenn $f(U) \subseteq U$.
\end{definition}
\begin{proposition}
Sei \(f: V\to V\) linear und \(V\) ein \(\mathbb{R}\)-Vektorraum, sei \(u = v + i w \in V_{\mathbb{C}}\) ein Eigenvektor von \(f_{\mathbb{C}}\) zum Eigenwert \(\lambda = \alpha + i \beta \not\in \mathbb{R} (\beta \neq 0)\). Genau dann ist der Raum \(U = \langle v, w\rangle\subseteq V\) invariant unter \(f\), und es gilt
\begin{align*}
f(v) = \alpha v - \beta w\\
f(w) = \beta v + \alpha w
\end{align*}
(also ist \(U\) ein 2-dimensionaler Unterraum von \(f\))
\end{proposition}
\begin{prof}
\begin{align*}
f_{\mathbb{C}}(u) &= \lambda u = (\alpha + i \beta) u = (\alpha + i\beta)(v + iw) = (\alpha v - \beta w) + i(\beta v + \alpha w)\\
f_{\mathbb{C}}(u) &= f_{\mathbb{C}}(v+iw) = f(v) + if(w) \rightarrow \text{Formeln von oben}
\end{align*}
Die Matrix von \(f|_U\) bez"uglich der Basis \(v, w\) ist
\[
\begin{pmatrix}
\alpha & \beta \\
-\beta & \alpha
\end{pmatrix}
\]
Diese Matrix hat Eigenwerte \(\alpha \pm i\beta\) (einfach nachrechnen) \(\implies f|_U\) hat keine Eigenvektoren in \(V\) (in \(V_{\mathbb{C}}\) schon: \((i\quad 1)^T\) und \((-i\quad 1)^T\) zum Beispiel bez"uglich der Basis \(v, w\))
\end{prof}
Zusammen mit der Existenz von Eigenvektoren f"ur $f_{\mathbb{C}}$ (Folgerung des Hauptsatzes der Algebra) haben wir:
\begin{proposition}
\(f: V\to V\) ein linearer Operator auf einem $\mathbb{R}$-Vektorraum. Dann hat $f$ einen 1-
oder 2-dimensionalen invarianten Unterraum.
\end{proposition}
\begin{relation}
Geometrisch:
\begin{itemize}
\item 1-dimensional \(\hat{=}\) Eigenraum
\item 2-dimensional \(\hat{=}\) Drehstreckung
\end{itemize}
\end{relation}
Diese Proposition beantwortet auf die bestm"ogliche Weise die Frage: \gq{Was
passiert, wenn ein reeller Operator Eigenwerte mit imagin"arem Teil hat}
\begin{exa}
Wir hatten noch die Frage, ob es passieren kann, dass man \gq{genug} Eigenwerte hat, aber nicht genug Eigenvektoren? Antwort: Ja, das kann auch passieren.
Sei \(K = \mathbb{R}\) oder \(\mathbb{C}\), \(V = K[t]_1 = \{a_0 + a_1 t\mid a_i\in K\}\). Dann sei
\[f = \frac{\text{d}}{\text{d}t}: V\to V; B = (1, t) \implies M^B_B(f) =
\begin{pmatrix}
0 & 1 \\
0 & 0
\end{pmatrix}
\implies \chi_f(\lambda) = \det
\begin{pmatrix}
\lambda & -1 \\
0 & \lambda
\end{pmatrix} = \lambda^2
\] \(\implies \lambda = 0\) ist der Eigenwert (der ist doppelt belegt), 1 ist der einzige Eigenvektor zu \(\lambda = 0\)
\(\implies f\) ist nicht diagnoalisierbar :(
\end{exa}
\begin{definition}{}{}
Seien $p,q\in K[\lambda]$ zwei Polynome. $p$ teilt $q$ ($p\mid q$), wenn \(\exists p_1 \in K[t]\) so dass \(q = pp_1\)
(man sagt auch, \(q\) spaltet einen Faktor \(p\) ab)
\end{definition}
\begin{proposition}
Sei \(f: V\to V\) linearer Operator, $U\subseteq V$ ein invarianter Untervektorraum. Dann gilt \(\chi_{f|_U} \mid \chi_f\) (\(f|_U:U\to U\) ist die Einschr"ankung von \(f\) auf \(U\))
\end{proposition}
\begin{prof}
Nehmen wir eine Basis $B'$ in $U$ und erweitern sie zu einer Basis $B$ in $V$
\begin{align*}
M^B_B(f) =
\begin{pmatrix}
M^{B'}_{B'}(f|_U') & * \\
0 & C
\end{pmatrix}
\end{align*}
Folglich ist
\begin{align*}
\chi_f(\lambda) &= \det(\lambda\cdot\mId_V - f) = \det
\begin{pmatrix}
\lambda\cdot\mId_{\dim U} - M^{B'}_{B'}(f|_U) & *\\
0 & \lambda\cdot\mId_m - C
\end{pmatrix}\\
&= \det(\lambda\cdot\mId_{\dim U} - M^{B'}_{B'}(f|_U))\det(\lambda\cdot\mId_m - C) = \chi_{f|_U}(\lambda)\cdot\det(\lambda\cdot\mId_m - C)
\end{align*}
mit \(m = \dim V - \dim U\).
\end{prof}
\begin{folgerung}
Die Dimension des Eigenraumes \(\mKer(\lambda\cdot\mId - f)\) ist kleiner gleich der Vielfachheit von \(\lambda\) als Nullstelle von \(\chi_f\).
\end{folgerung}
\begin{prof}
\(U:= \mKer(\lambda\cdot\mId - f)\) ist invariant,
\(\chi_{f|_U} \mid \chi_f\) \(\implies\) die Vielfachheit der Nullstelle \(\lambda\) in \(\chi_f\) (das bezeichnen wir als \glqq{}algebraische\grqq{} Vielfachheit von \(\lambda\)) ist gr"o"ser gleich der Vielfachheit der Nullstelle \(\lambda\) in \(\chi_{f|_U}\) (das ist die \glqq{}geometrische\grqq{} Vielfachheit von \(\lambda\)), da \(\exists p\in K[t]: \chi_f = p\chi_{f|_U}\)
\end{prof}
\begin{definition}{Algebraische Vielfachheit einer Nullstelle}{}
Sei \(f: V\to V\) linear, $\lambda$ ein Eigenwert von $f$. Die algebraische Vielfachheit von \(\lambda\), \(\mu_{alg}(\lambda)\), ist die Vielfachheit von \(\lambda\) als Nullstelle von \(\chi_f\).
\end{definition}
\begin{definition}{Geometrische Vielfachheit einer Nullstelle}{}
Sei \(f:V \to V\) linear, $\lambda$ ein Eigenwert von $f$. Die geometrische Vielfachheit von \(\lambda\) ist \(\mu_{geo}(\lambda) = \dim(\lambda\cdot\mId_V - f)\)
Die Behauptung oben ist: \(\mu_{geo}(\lambda) \leq \mu_{alg}(\lambda)\) f"ur jeden Eigenwert \(\lambda\).
\end{definition}
\begin{comm}
Warum ist die geometrische Vielfachheit eines Eigenwerts \(\lambda\) nun gleich der Nullstellen von \(\chi_{f|_U}\)? Nun, wir wissen, dass die geometrische Vielfachheit eines Eigenwerts \(\lambda\) ja gleich der Dimension des zugeh"origen Eigenraums \(\mKer (\lambda\cdot\mId_V - f) = U\) ist. Daher k"onnen wir eine Basis \(B\) f"ur diesen Eigenraum basteln, mit Vektoren \(v_1,\dots , v_{\mu_{geo}(\lambda)}\). Weil das alles Eigenvektoren sind, ist die Matrix \(M_B^B(f|_U) = \lambda\cdot 1_{\mu_{geo}(\lambda)}\). Das charakteristische Polynom dieser Matrix hat eine \(\mu_{geo}(\lambda)\)-fache Nullstelle bei \(\lambda\) (und sonst keine). In einem fr"uheren Kommentar haben wir gesagt, dass \(\chi_{M_B^B(f)}(\lambda) = \chi_{M_{B'}^{B'}}(\lambda)\) ist, also hat auch \(\chi_{f|_U}\) genau \(\mu_{geo}(\lambda)\) viele Nullstellen bei \(\lambda\).
\end{comm}
\begin{satz}{Vielfachheiten von Nullstellen, Diagonalisierbarkeit}{}
Sei \(f: V\to V\) linear (\(V\) ist ein \(K\)-Vektorraum). Dann ist \(f\) diagonalisierbar genau dann, wenn folgendes erf"ullt ist:
\begin{enumerate}
\item alle Nullstellen von \(\chi_f\) liegen in \(K\) (Bemerkung: automatisch erf"ullt f"ur \(K = \mathbb{C}\) nach dem Fundamentalsatz der Algebra)
\item f"ur jede Nullstelle \(\lambda\) von \(\chi_f\) gilt \(\mu_{geo}(\lambda) = \mu_{alg}(\lambda)\)
\end{enumerate}
\end{satz}
\begin{prof}
\[\chi_f(\lambda) = \det(\lambda\cdot\mId - f) = \det
\begin{pmatrix}
\lambda - a_1 & & * \\
& \ddots & \\
* & & \lambda - a_n
\end{pmatrix}
\] ist ein Polynom vom Grad $\dim V = n \implies \chi_f$ hat h"ochstens $n$ Nullstellen in $K$, gez"ahlt mit Vielfachheiten (f"ur \(K = \mathbb{C}\) genau \(n\) Nullstellen mit Vielfachheiten).
\begin{align*}
\implies \sum_{\lambda \text{ Nst von } \chi_f}\mu_{alg}(\lambda) \leq n = \dim V \implies \sum_{\lambda\text{ Nst von }\chi_f} \mu_{geo}(\lambda) \leq \sum_{\lambda\text{ Nst von }\chi_f}\mu_{alg}(\lambda) \leq \dim V
\end{align*}
mit Gleichheit genau dann, wenn\dots
\begin{enumerate}
\item \(\sum\mu_{alg}(\lambda) = n\)
\item \(\mu_{geo}(\lambda) = \mu_{alg}(\lambda) \quad\forall\lambda\)
\end{enumerate}
Andererseits ist $f$ genau dann diagonalisierbar, wenn es eine Basis aus
Eigenvektoren gibt, also \(\iff\) die Vereinigung von Basen in Eigenr"aumen eine Basis in \(V\) ergibt, was gleichbedeutend ist mit \(\sum_{\lambda \text{ Eigenwert von } f}\mu_{geo}(\lambda) = \dim V\).
\end{prof}
\begin{notte}[Tips und Tricks]
Der obige Satz ist nur interessant, wenn (1) erf"ullt ist und mehrfache
Nullstellen existieren, weil f"ur jeden Eigenwert $\lambda$ von $f$ gilt ja
nach Definition $\mu_{geo}(\lambda)\geq 1$. D.h., wenn alle Nullstellen in
$K$ liegen und \(\mu_{alg}(\lambda) = 1\) f"ur alle Eigenwerte $\lambda$ dann gilt: \(\mu_{geo}(\lambda) = 1\) f"ur alle
Eigenwerte $\lambda$, und $f$ ist dann diagonalisierbar.
$\implies$ Jede Komplexe Matrix ist bis auf eine beliebeig kleine
Pertubation diagonalisierbar. In diesen Sinne sind \glqq{}die meissten\grqq{} Matrizen diagonalisierbar.
\end{notte}
Zum charakteristischen Polynom:
\begin{relation}
\begin{enumerate}
\item $\chi_A(0) = \det (-A) = (-1)^n \det A$
\item $\chi_A (\lambda) = \lambda^n + \dots$, weil der Einzige Summand in \(\det (\lambda\cdot 1_n-A)\), wo \(n\) Faktoren mit \(\lambda\) zusammenkommen, gleich \((\lambda- a_{11})\dots (\lambda - a_{nn})\) ist
\item Der Koeffizient vor \(\lambda^{n-1}\) in \(\chi_A(\lambda)=\text{Tr}(A)\) (dabei ist \(\text{Tr}(A) = \sum_{i=1}^n a_{ii}\)), denn wegen der Leibniz-Formel kann \(\lambda^{n-1}\) auch nur durch Ausdr"ucke der Form \((\lambda - a_{11})\dots (\lambda - a_{nn})\) zustande kommen.
\end{enumerate}
\end{relation}
Folglich kann man $\chi_A$ f"ur $2\times 2$ Matrizen direkt ablesen: \(\chi_A(\lambda) = \lambda^2 - \text{Tr}(A)\cdot \lambda + \det A\)
\begin{definition}{}{}
Sei V ein $K$ Vektorraum, \(f: V\to V\) linear. Das Spektrum von \(f\) ist \[\sigma(f) = \langle \lambda\in K \mid \lambda\cdot\mId_V -f \text{ nicht invertierbar}\rangle\]
F"ur \(\dim V < \infty\) gilt \(\sigma(f) = \langle \lambda \mid \lambda \text{ Eigenwert von }f\rangle\).
\end{definition}
Dieses Mathematische Spektrum hat f"ur viele Physikalisch motivierte Operatoren
tats"achliche Bedeutung.
\begin{bem}
Wir haben gesehen, dass es nicht-diagonalisierbare Abbildungen / Matrizen gibt. Es gibt die
nahelegende Frage: was ist f"ur solche allgemeinen Matrizen/Abbildungen die
\gq{bestm"ogliche} Form?
\end{bem}
\begin{relation}
Antwort: Die Jordan-Normalform: Blockform mit Bl"ocken \[J_k(\lambda) =
\begin{pmatrix}
\lambda & 1 & & 0 \\
& \ddots & \ddots & \\
& & \ddots & 1 \\
0 & & & \lambda
\end{pmatrix}
\]
Die Jordan-Normalform ist dann:
\[ J=
\begin{pmatrix}
J_1 & & 0 \\
& \ddots & \\
0 & & J_n
\end{pmatrix}
\]
Diagonalisierbarkeit entspricht der Bedingung, dass alle Bl"ocke Gr"osse 1 haben.
\end{relation}
\part{Bilineare und Quadratische Formen}
\chapter{Grundlagen}
\label{sec:bili}
\textbf{Motivation}: Bislang haben wir Vektorr"aume ohne geometrische Strukturen
studiert; Speziell: wir konnten den Vektoren in Vektorra"umen keine
l"ange/Winkel zuordnen.
Eine Zusatzstruktur auf $V$, die das erm"oglicht, ist das Skalarprodukt. z.B.
im $\mathbb{R^n}$ gibt es das Standartskalarprodukt...) Dieses Skalarpordukt ist
linear in jeder Variable $\rightarrow$ ''Bilinearform''
In der Physik ist die folgene Bilinearform von Bedeutung: ...
\begin{definition}{}{}
Sei $V$ ein $K$ - Vektorraum. Eine Bilinearform $b$ auf V ist eine Abbildung
$b: V\times V \mapsto K$, die linear in jeder Variable ist:
\begin{align*}
b(v_1 + \lambda v_2, w) = b(v_1, w) + \lambda b(v_2, w) \qquad v_1, v_2, w \in V, \lambda \in K\\
b(v, w_1+\lambda w_2) = b(v, w_1) + \lambda b(v, w_2) \qquad v, w_1, w_2 \in V, \lambda \in K
\end{align*}
Die Zugeh"orige quadratische Form: $q(v):=b(v,v)$
\end{definition}
\begin{definition}{}{}
Eine Bilinearform \(b: V\times V \to K\) hei"st:
\begin{itemize}
\item symmetrisch, wenn \(b(v, w) = b(w, v)\qquad \forall v, w\in V\)
\item schiefsymmetrisch, wenn \(b(v, w) = -b(w, v)\qquad \forall v, w\in V\)
\end{itemize}
\end{definition}
\begin{definition}{}{}
Sei $V$ ein $K$-Vektorraum, $B\subset V$ eine Basis, \(b: V\times V\to K\) eine Biliniearform.
Die Matrix $M_B(b)$ der Bilinearform $b$ bzgl. der Baiss $B$ ist definiert
durch die Eigenschaft $(M_B(b))_{ij}=b(b_i, b_j)$
\end{definition}
\begin{exa}
\(b = \langle\cdot , \cdot\rangle_{st}\) auf \(\mathbb{R}^n\): \(\langle x, y\rangle_{st} = \sum_{i=1}^nx_i y_i, B = (e_1, \dots, e_n)\subset \mathbb{R}^n\) \[\implies M_B(b) =
\begin{pmatrix}
1 & & 0 \\
&\ddots & \\
0 & & 1
\end{pmatrix}
\] Dieses Skalarprodukt ist linear in jeder Variable und daher eine Bilinearform.
\end{exa}
Wenn $x,y$ die Koordinatenspalten von $v$ bzw. $w$ bzgl. $B = \{b_1,\dots, b_n\}$ sind, so haben wir
\begin{align*}
b(v,w) = b\left(\sum_{i=1}^nx_ib_i, \sum_{j=1}^ny_jb_j\right) = \sum_{i=1}^n\sum_{j=1}^nx_ib\underbrace{(b_i, b_j)}_{M_B(b)_{ij}}y_j
\end{align*}
Wenn $B'$ eine andere in Basis $V$ ist und $x'$, $y'$ Koordinatenspalten von $v$
bzw. $w$ bzgl. $B'$, so haben wir: $x=M_{B}^{B'}x', y = M_{B}^{B'}y'$ $\implies b(v,w)= (x')^T(M_B^{B'})^TM_B(b)M_B^{B'}y'$. Es
folgt, dass $M_{B'}= (M^{B'}_{B})^T\cdot M_B(b)\cdot (M^{B'}_{B})$.
Wie bei linearen Abbildungen stellt sich die Frage: \gq{Gibt es eine Basis so dass
$M_B(b)$ besonders einfach ist?} Diese Form ist f"ur unterschiedliche
Bilinearformen unterschiedlich. (Hier nur f"ur symetrische Formen.)
\begin{definition}{}{}
Sei $U\subset V$ ein Untervektorraum, $b$ eine Bilinearform auf $V$. Das
orthogonale Komplement von $U$ bzgl. $b$ ist der Untervektorraum \[U^\perp = \{v\in V\mid b(u, v) = 0\quad \forall u \in U\}\]
Der Kern/Annulator von $b$ ist der Untervektorraum $V^\perp = \{v\in V \mid b(u, w) = 0 \quad \forall u\in V\}$. Die Bilinearform $b$ hei"st nicht ausgeartet, wenn \(V^\perp = \{0\}\).
\end{definition}
\begin{comm}
Zuerst einmal bemerken wir, dass \(U^\perp\) tats"achlich ein Untervektorraum ist, denn aus \(v\in U^\perp, w\in U^\perp\) folgt
\begin{align*}
&b(f_i, v) = 0\;\forall i=\overline{1,k}\qquad b(f_i, w) = 0\;\forall i=\overline{1,k}\qquad f_i\text{ bilden Basis in }U \\
&\implies b(f_i, v) + b(f_i, w) = b(f_i, v+ w) = 0\;\forall i=\overline{1, k}
\end{align*}
und \(b(f_i, \lambda v) = \lambda b(f_i, v) = 0\). \(U^\perp\) enth"alt au"serdem immer den Nullvektor \(\vec{0}\) wegen \(b(\vec{0}, u) = b(0\cdot \vec{0}, u) = 0\cdot b(\vec{0}, u) = 0\). Man kann sich au"serdem "uberlegen, dass ausgeartete Bilinearformen immer Vektoren haben m"ussen, f"ur die \(b(v, v) = 0\) gilt. Der Umkehrschluss muss nicht stimmen -- ein Beispiel ist die Bilinearform mit der Matrix \[M_B(b) = \begin{pmatrix}0 & 1\\ 1& 0\end{pmatrix}\]
\end{comm}
\begin{lemma}
Sei $V$ ein $K$ Vektorraum, $B\subset V$ eine Basis, $\dim V < \infty$, $b$
eine Bilinearform. Es gilt: $b$ nicht ausgeartet $\iff$ $M_B(b)$ nicht
ausgeartet (also invertierbar)
\end{lemma}
\begin{prof}
Wenn \(B = (b_1, \dots, b_n)\), so gilt:
\begin{align*}
V^\perp = \{v \in V \mid b(u, v) = 0\quad \forall u \in V\} = \{ v\in V \mid b(b_i, v) = 0, i = 1,\dots, n\}
\end{align*}
Weil \(B\) eine Basis ist.
Die Bedingungen \(b(b_i, v) = 0, i = 1,\dots, n\) sind "aquivalent zum LGS $M_B(b) \cdot x = 0 $ auf die
Koordinatenspalte $x$ von $v$. Dieses LGS hat genau dann nur die Null"osung,
wenn $M_B(b)$ nicht ausgeartet ist (wenn sie also invertierbar ist).
\end{prof}
Der Beweis Zeigt auch, dass $\dim V^\perp = \dim
\{x\in K^n\mid M_B(b)x= 0\} = \dim V - \mRg M_B(b)$. Insbesondere ist die Zahl $\mRg M_B(b)$
unabh"angig von der Basis $B$.
\begin{definition}{}{}
\(\mRg(b):=\dim V - \dim V^\perp = \mRg M_B(b)\)
\end{definition}
\begin{exa}
Das Skalarprodukt ist nicht ausgeartet, und \(\mRg
\begin{pmatrix}
1 & & 0 \\
& \ddots & \\
0 & & 1
\end{pmatrix}
= n\). Geometrisch wissen wir: wenn $U$ in
$\mathbb{R}^3$ eine Gerade ist, dann ist \(U^\perp\) eine Ebene und umgekehrt.
\end{exa}
\begin{proposition}
Sei $V$ ein $K$ - Vektorraum, \(\dim V < \infty\), $b$ eine nicht ausgeartete Bilinearform auf V.
Dann gilt f"ur jeden Untervektorraum \(U\subset V\):
\[\dim U^\perp = \dim V - \dim U\]
\end{proposition}
\begin{prof}
Sei \((b_1, \dots, b_k)\) eine Basis in \(U\), erweitert zu Basis \((b_1,\dots, b_n)\) von \(V\).
\begin{align*}
U^\perp = \{v\in V \mid b(u, v) = 0\quad \forall u\in U\} = \{v\in V\mid b(b_i, v) = 0, i=1,\dots, k\}
\end{align*}
Wenn man diese Bedingungen als LGS auf den Koordinatenvektor \(x\) von \(v\) aufschreibt, haben wir \(k\) lineare Gleichungen
\begin{align*}
\sum_{j=1}^nb(b_i, b_j)x_j = 0\quad i = 1,\dots, k
\end{align*}
Die Matrix dieses LGS besteht aus den ersten \(k\) Zeilen von \(M_B(b)\), die sind linear unabh"angig (weil \(b\) nicht ausgeartet war und deshalb die Matrix invertierbar ist, daher sind die Zeilen stets linear unabh"angig), daher ist der Rang der Matrix vom LGS \(k\). Es folgt, dass \(\dim U^\perp = n - k = \dim V - \dim U\)
\end{prof}
\begin{korollar}
Wenn $b$ nicht ausgeartet und symmetrisch oder schiefsymmetrisch ist, so gilt
$(U^\perp)^\perp = U$ f"ur jeden Untervektorraum $U\subseteq V$.
\end{korollar}
\begin{prof}
\(U\subseteq (U^\perp)^\perp\) nach dem Prinzip \gq{Paul, wie hei"st du?}: Denn \[(U^\perp)^\perp = \{v\in V \mid b(u', v) = 0\;\forall u\in U^\perp\}\] Aber f"ur alle \(u'\in U^\perp\) gilt ja schon \(b(u, u') = b(u', u) = 0\;\forall u\in U\), also ist \(U\subseteq (U^\perp)^\perp\). Au"serdem gilt nach der obigen Formel \(\dim (U^\perp)^\perp = \dim U\).
\end{prof}
Die Frage war: gegeben $b$, finde eine Basis in $V$, s.d. $M_B(b)$ m"oglichst
einfach aussieht.
\begin{proposition}
Sei $b$ nicht ausgeartet und symmetrisch oder schiefsymmetrisch. Sei $U\subseteq
V$ ein Untervektorraum. Dann gilt $V=U\oplus U^\perp \iff b|_U
\text{ nicht ausgeartet}$.
\end{proposition}
\begin{prof}
\begin{align*}
U^\perp = \{v\in V \mid b(f_i,v)=0\; \forall i=\overline{1,k}\}\qquad f_1,\dots, f_k\text{ Basis in } U
\end{align*}
Das hei"st, $\dim U^\perp \geq \dim V - \dim U$, egal ob \(b\) ausgeartet ist.
Andererseits gilt: \[U\cap U^\perp = \{u\in U \mid b(u,u')=0\;\forall u'\in U \}
= \text{das orthogonale Komplement von U bzgl. } b|_U\]
Es gilt also: wenn $V=U \oplus U^\perp \implies U\cap U^\perp = \{0\} \implies b|_U$ ist nicht ausgeartet. Andererseits: wenn \(b|_U\) nicht ausgeartet, dann ist \(U\cap U^\perp = 0\) also ist die Summe von \(U\) und \(U^\perp\) direkt, \(\dim U + \dim U^\perp \geq \dim V \implies \dim U + \dim U^\perp = \dim V \implies U\oplus U^\perp = V\).
\end{prof}
\begin{definition}{Orthogonale Basis}{}
Sei $b$ eine symmetrische Bilinearform auf $V$, $e_1,\dots, e_n$ eine Basis
in V. Basis heisst \emph{orthogonal} (bzgl. $b$), wenn $b(e_i,e_j)=0$ f"ur
$i\not= j$.
\end{definition}
\begin{exa}
Im $\mathbb{R}^3$ ist es mit dem Skalarprodukt genau geometrische Orthogonalit"at.
\end{exa}
\begin{satz}{Existenz von Orthogonalbasen}
Sei $V$ ein $K$ - Vektorraum, $b$ eine symmetrische Bilinearform. Es gibt eine
orthogonale Basis in $V$ bzgl. $b$.
\end{satz}
\begin{prof}[Vorbereitung]
Sei $q(x)=b(x,x)$ die quadratische Form, die zu $b$ geh"ort. Da $b$ symmetrisch
ist, kann man $b$ aus $q$ durch folgende Formel wiederherstellen:
(Polarisierungsidentit"at)
\[
b(x,y) = \frac{1}{2} (q(x+y) - q(x) - q(y))
\]
\end{prof}
\begin{prof}[des Satzes]
Induktion "uber $n=\dim V$.
(IA) Wenn $n=1$ nichts zu zeigen.
(IS) Sei $n>1$ und es sei die Aussage f"ur alle Vektorr"aume mit Dimension $<n$
gezeigt.
\begin{itemize}
\item[1. Fall] $b=0$: Jede Basis ist orthogonal, fertig.
\item[2. Fall] $b\neq 0\xRightarrow{\text{Polarisierung}} \exists e_1\in V$ mit
$q(e_1)=b(e_1,e_1)\neq 0$. Es sei $U=\langle e_1 \rangle$, also ist \(b|_U\) nicht ausgeartet. Aus der Proposition folgt daher \(V = U\oplus U^\perp = \langle e_1\rangle\oplus\langle e_1\rangle^\perp\). Die Induktionsvoraussetzung angewandt auf \(\langle e_1\rangle^\perp\) liefert \(e_2,\dots,e_n\in \langle e_1\rangle^\perp\), daher ist \(e_1,\dots, e_n\) eine Orthogonalbasis in \(V\).
\end{itemize}
\end{prof}
\begin{relation}
$\mathcal{E}=(e_1,\ldots, e_n) \subset V$ ist eine Orthogonalbasis genau dann, wenn \[
M_{\mathcal{E}}(b)=
\begin{pmatrix}
b_{11} & & 0 \\
& \ddots & \\
0 & & b_{nn} \\
\end{pmatrix}
\] eine Diagonalmatrix ist. Also: f"ur jede symmetrische Matrix $A$ gibt es eine invertierbare Matrix $S$
mit $S^T\cdot A\cdot S = D$ (Diagonalmatrix). Wenn $K=\mathbb{R}$, kann man
erreichen, dass die Diagonaleintr"age aus ${0,1,-1}$ bestshen (wenn
$b(e_i,e_i)\not= 0$, ersetze $e_i\rightarrow\frac{e_i}{\sqrt{|b(e_i, e_i)|}}$). Wenn \(K = \mathbb{C}\), erreicht man sogar Diagonaleintr"age aus \(\{0, 1\}\).
\end{relation}
Der Satz "uber die Existenz von Orthogonalbasen ist nicht besonders konstruktiv, was das Finden angeht.
\begin{relation}
Sei $F=(f_1, \dots, f_n)\subset V$ eine Basis, sei
\[A:= M_F(b)=\begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn}\end{pmatrix}\] Sei $A_k$ die \gq{obere linke} ($k\times k$) -
Untermatrix von \(A\), also \((A_k)_{ij} = A_{ij}\;\forall i,j=\overline{1,k}\).
Sei $\delta_k:= \det A_k$ der Eckminor von $A$. Sei ausserdem $V_k=\langle
f_1,\ldots, f_k \rangle, V_0:=\{0\}, \delta_0=1$. Daher ist \(A_k = M_{\{f_1,\dots, f_k\}}(b|_{V_k})\).
\end{relation}
\begin{comm}
Die Forderung im Gram-Schmidt-Verfahren, dass \(\delta_k\neq 0\) sein soll, impliziert, dass \(b\) nicht ausgeartet ist.
\end{comm}
\begin{satz}{Gram-Schmidt-Verfahren}{}
Sei $b$ eine Bilinearform auf $V$, $F\subset V$ eine Basis in V wie oben. Sei
au"serdem $\delta_k \neq 0\;\forall k=\overline{0,n}$. Dann existiert eine eindeutig
bestimmte Orthogonalbasis $(e_1,\ldots,e_n)$ in $V$, so dass \(e_k\in (f_k + V_{k-1})\;\forall k =1,\dots, n\) (\(\iff (e_1,\dots,e_k)\) spannen den gleichen Untervektorraum auf wie \((f_1,\dots,f_k)\)), zudem gilt \(q(e_k) = b(e_k, e_k) = \frac{\delta_k}{\delta_{k-1}}\)
\end{satz}
\begin{prof}
Induktion "uber $n=\dim V$: (IA, $n=1$) $V=\langle f_1 \rangle, \delta_1 = \frac{\delta_1}{\delta_0} = b(f_1, f_1) \neq 0$ (IS) nach Induktionsvoraussetzung gilt die gilt die Aussage f"ur
$V_{n-1}=\langle f_1,\ldots,f_{n-1} \rangle\implies e_1,\dots, e_{n-1}$, eine Orthogonalbasis in \(V_{n-1}\), die die Aussagen des Satzes erf"ullt. Wir suchen nun \(e_n = f_n + \sum_{i=1}^{n-1}\lambda_i e_i\). F"ur \(i=1,\dots,n-1\) gilt \(q(e_i) = \frac{\delta_i}{\delta_{i-1}} \neq 0\):
\begin{align*}
0 \overset{!}{=} b(e_n, e_j) &= b(f_n, e_j) + \sum_{i=1}^n\lambda_i\underbrace{b(e_i,e_j)}_{=0\iff i\neq j} \\
&= b(f_n, e_j) + \lambda_j\underbrace{b(e_j, e_j)}_{\neq 0} \\
\lambda_j &= -\frac{b(f_n, e_j)}{b(e_j, e_j)}
\end{align*}
Bleibt zu zeigen: \(q(e_i) = \frac{\delta_n}{\delta_{n-1}}\). Wir wissen bereits: \(e_k \in f_k + V_{k-1}\;\forall k=1,\dots,n\). Die Basiswechselmatrix von \(F = (f_1,\dots, f_n)\) zu \(\mathcal{E} = (e_1, \dots, e_n)\) sieht so aus:
\[ S=
\begin{pmatrix}
1 & & * \\
& \ddots & \\
0 & & 1
\end{pmatrix} \implies \det S = 1\]
Andererseits gilt
\begin{align*}
M_{\mathcal{E}}(b) &= \begin{pmatrix}q(e_1) & & 0\\ & \ddots & \\ 0 & & q(e_n)\end{pmatrix} = S^TAS \\
&\implies \det M_{\mathcal{E}}(b) = \underline{q(e_1)\cdot\dots\cdot q(e_n)} = 1\cdot\det A\cdot 1 = \det A = \underline{\delta_n} \\
&\implies q(e_n) = \frac{q(e_1)\cdot\dots\cdot q(e_n)}{q(e_1)\cdot\dots\cdot q(e_{n-1})} = \frac{\delta_n}{\delta_{n-1}}
\end{align*}
\end{prof}
\begin{exa}
$f_1=\begin{pmatrix}1\\ 1\\ 1\\\end{pmatrix},\;f_2=\begin{pmatrix}1\\ 2\\ 1\\\end{pmatrix},\;f_3=\begin{pmatrix}0\\ 0\\ 1\\\end{pmatrix}$
\end{exa}
Geometrische Interpretation:
\begin{relation}
Man subtrahiert passende Linearkombinationen von bereits orthogonalisierten
Vektoren, um Orthogonalit"at zu erzwingen.
\end{relation}
\begin{notte}
Symetrische Bilinearformen entsprechen ihren quadratischen Formen:
\[
b(x,y) = \frac{1}{2}(q(x+y)-q(x)-q(y))
\]
Daher benutzen wir diese Begriffe fortan Synonym.
\end{notte}
Sei \(\mathcal{E} = (e_1,\dots,e_n)\) eine Orthogonalbasis bez"uglich \(b\):
\[M_{\mathcal{E}}(b) =
\begin{pmatrix}
q(e_1) & & 0 \\
& \ddots & \\
0 & & q(e_n)
\end{pmatrix}
\]
Wenn \(K=\mathbb{R}\), kann man durch Streckungen und Permutationen der Basisvektoren eine Basis \(\mathcal{E}' = (e_1',\dots,e_n')\) finden, so dass \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1,-1,\dots,-1,0,\dots,0)\), indem wir \(e_j' = \lambda_ie_i\) setzen. Dann soll \(q(e_j') \in \{1, -1, 0\}\) sein, also: \[q(e_j') = q(\lambda_ie_i) = \lambda_i^2q(e_i) \implies \lambda_i =
\begin{cases}
1 & \text{ falls } q(e_i) = 0 \\
\sqrt{\frac{1}{q(e_i)}} & \text{ falls } q(e_i) > 0 \\
\sqrt{\frac{-1}{q(e_i)}} & \text{ falls } q(e_i) < 0
\end{cases}
\]
Man bemerkt: Wenn \(K=\mathbb{C}\), dann kann man das \(\lambda_i\) auch komplex machen und somit eine Matrix der Form \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1, 0,\dots, 0)\) erreichen.
\begin{relation}
Diagonalformen f"ur $b$ entsprechen der Tatsache, dass $q$ in Koordinaten der
Basis $\mathcal{E}'$ eine Summe von Quadraten ist.
Wir haben bereits gesehen, dass bei Basiswechsel die Matrix der Bilinearform
so transformiert:
\[
M_{B'}=S^T\cdot M_B(b)\cdot S\qquad (S = M_B^{B'}) \\
\implies \mRg M_B(b)=\mRg (b) \text{ ist eine Invariante von } b
\]
In Diagonalform ist der Rang gleich der Anzahl von Nicht-Null-Eintr"agen. In
$\mathbb{C}$ folgt: Der Rang ist die einzige Invariante der (symmetrsichen)
Bilinearformen.
"Uber $\mathbb{R}$ taucht die folgende Frage auf: Ist die Anzahl von $1$ und
$-1$ auf der Diagonale unabh"angig von der Basis?
\end{relation}
\begin{definition}{Positive Definiertheit}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum , $q(x)=b(x,x)$ eine quadratische Form auf
\(V\) (zu einer symmetrischen Bilinearform). Sei $U\subseteq V$ ein Untervektorraum.
\begin{itemize}
\item $q$ hei"st \emph{positiv definit} auf $U$, wenn $q(u) > 0\; \forall
u\in U\setminus\{0\}$
\item $q$ hei"st \emph{negativ definit} auf $U$, wenn $q(u) < 0\; \forall
u\in U\setminus\{0\}$
\item $q$ hei"st \emph{indefinit} sonst
\end{itemize}
\end{definition}
\begin{exa}
\(V = \mathbb{R}^3, b(x, y) = x^T\cdot\mDiag (1, 1, -1)\cdot y, q(x) = b(x,x) = x_1^2 + x_2^2 - x_3^2\):
\begin{itemize}
\item \(q\) ist negativ definit auf \(\spn \{e_3\}\), weil \(q(\lambda\cdot e_3) = \lambda^2q(e_3) = -\lambda^2 < 0\)
\item \(q\) ist positiv definit auf \(\spn \{e_1, e_2\}\), weil \(q(x_1e_1 + x_2e_2) = x_1^2 + x_2^2 > 0\)
\item \(q\) ist indefinit auf \(\mathbb{R}^3\), weil es Vektoren gibt mit \(q(x) > 0\) und welche mit \(q(x) < 0\)
\end{itemize}
\end{exa}
\begin{relation}
Allgemeiner: Wenn \[M_{\mathcal{E}'}(b) = \mDiag (\underbrace{1,\dots,1}_{r_+},\underbrace{-1,\dots,-1}_{r_-},0,\dots,0)\] Dann ist \(q(x) = b(x,x)\) positiv definit auf \(\spn\{e_1,\dots,e_{r_+}\}\) und negativ definit auf \(\spn\{e_{r_++1},\dots,e_{r_++r_-}\}\)
\end{relation}
\begin{definition}{Signatur}{}
Das Paar \((r_+,r_-)\) hei"st \emph{Signatur} von \(b\).
\end{definition}
\begin{exa}
Die Minkowski-Bilinearform hat die Matrix \(\mDiag (1, -1, -1, -1)\) und Signatur \((1, 3)\).
\end{exa}
\begin{satz}{Bestimmung von $r_+, r_-$ durch Definitheit}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \to \mathbb{R}$ eine symmetrische Bilinearform, \(\mathcal{E}'\) eine Basis in \(V\) mit \(M_{\mathcal{E}'}(b) = \mDiag (1,\dots,1,-1,\dots,-1,0,\dots,0)\).
Dan gilt:
\begin{align*}
r_+&=\max\{\dim U\mid U\subseteq\text{ Untervektorraum, } q \text{ positiv definit auf } U\} \\
r_-&=\max\{\dim U\mid U\subset \text{ Untervektorraum, }q\text{ negativ definit auf } U\}
\end{align*}
\end{satz}
\begin{prof}
Sei \(U:=\spn\{e_1,\dots,e_{r_+}\}\), \(q\) positiv definit auf \(U\). Dann ist \(\max\{\dim U\mid q\text{ positiv definit}\}\geq r_+\). Andererseits: Wenn \(W\subseteq V\) mit \(\dim W > r_+\), dann ist \(W\cap \spn\{e_{r_++1},\dots,e_n\}\neq \{0\}\) (denn nach der Dimensionsformel: \(\dim W + \dim \spn\{e_{r_++1},\dots,e_n\} = \dim W + n - r_+ > n = \dim V\)). Wenn \(v\neq 0\) ein Vektor aus diesem Durchschnitt ist, folgt \(v\in \{e_{r_++1},\dots,e_n\} \implies q(v)\leq 0\implies\) nicht positiv definit auf \(W\). Die Aussage f"ur \(r_-\) folgt durch Ersetzen \(q \rightarrow -q\).
\end{prof}
\begin{satz}{Jacobi}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \rightarrow \mathbb{R}$
eine Bilinearform, so dass \[\delta_k = \det A_k \neq 0, \qquad k=1,\dots,n\]
wobei \(A = M_B(b)\) die Matrix von \(b\) bez"uglich einer Basis \(B\) ist. Betrachte die Folge \((1 = \delta_0, \delta_1,\dots,\delta_n)\). Dann gilt: \(r_- = \) Anzahl der Vorzeichnenwechsel in dieser Folge. Ein Vorzeichenwechsel liegt vor, wenn \(\delta_i\cdot\delta_{i+1} < 0\).
\end{satz}
\begin{prof}
Nach dem Gram-Schmidt-Verfahren existiert eine Orthogonalbasis \(\mathcal{E}\) mit \(M_{\mathcal{E}}(b) = \mDiag (\frac{\delta_1}{\delta_0}, \frac{\delta_2}{\delta_1},\dots,\frac{\delta_n}{\delta_{n-1}})\). Nach dem Satz "uber die Signatur gilt: \(r_- = \) Anzahl von negativen Zahlen in der Folge \((\frac{\delta_1}{\delta_0},\frac{\delta_2}{\delta_1},\dots,\frac{\delta_n}{\delta_{n-1}})\)
\end{prof}
\begin{korollar}{Sylvester-Kriterium}
Sei $V$ ein $\mathbb{R}$ Vektorraum, $b: V\times V \rightarrow \mathbb{R}$
eine symmetrische Bilinearform (\(q\) die zugeh"orige quadratische Form), $A=M_B(b)$, $\delta_k = \det A_k$ die Eckminore von $A$.
Es gilt: $q$ positiv definit auf $V \iff \delta_K > 0 \forall k=\overline{1,n}$.
\end{korollar}
\begin{prof}
Wenn $q$ positiv definit $\implies$ alle $\delta_k\neq 0$, weil man sonst einen Vektor
$v\in V, v\neq 0$ mit $q(v)=0$ h"atte ($q$ w"are ausgeartet); wenden nun den Satz von
Jacobi an.
\end{prof}
\chapter{Euklidische Vektorr"aume}
\label{sec:evr}
\begin{definition}{Euklidischer Vektorraum}{}
Sei $V$ ein $\mathbb{R}$ Vektorraum. Das Paar $(V, \langle\cdot,\cdot\rangle)$ hei"st
euklidischer Vektorraum, wenn $\langle\cdot,\cdot\rangle: V\times V \rightarrow \mathbb{R}$
eine positiv definite Bilinearform ist. $\langle\cdot,\cdot\rangle$ hei"st Skalarprodukt.
\end{definition}
Skalarprodukt liefert die geometrische Struktur auf $V$, die uns erlaubt, von L"angen der Vektoren und Winkeln zwischen Vektoren zu reden.
\begin{definition}{Orthogonalit"at}{}
$x,y\in V$ hei"sen \emph{orthogonal}, wenn $\langle x,y\rangle=0$
\end{definition}
\begin{definition}{Norm / L"ange}{}
Die Norm / L"ange eines Vektors \(x\) in \((V, \langle\cdot , \cdot\rangle)\) ist \(||x|| = \sqrt{\langle x,x\rangle}\).
\end{definition}
\begin{exa}
\(\mathbb{R}^n\) mit \(\langle x, y\rangle_{st} = \sum_{i=1}^nx_iy_i\) ist ein euklidischer VR.
\end{exa}
\begin{satz}{Cauchy-Schwarz-Gleichung}{}
\[|\langle x,y \rangle |\leq ||x||\cdot ||y||\] in einem euklidischen Vektorraum \(V\).
\end{satz}
\begin{prof}
Wenn \(x, y\) linear abh"angig sind, z.B. \(x = \lambda y\), dann ist \(|\langle x, y\rangle | = ||x||\cdot ||y||\). Wenn \(x, y\) linear unabh"angig sind, dann ist \[A =
\begin{pmatrix}
\langle x, x\rangle & \langle x, y\rangle \\
\langle x, y\rangle & \langle y, y\rangle
\end{pmatrix}
\] die Matrix von \(\langle\cdot , \cdot\rangle\) auf dem Vektorraum \(\spn\{x, y\}\). Nach dem Sylvesterkriterium gilt: \(0 < \det A = ||x||^2\cdot ||y||^2 - \langle x, y\rangle ^2\).
\end{prof}
\begin{exa}
\(V = C([0, 1], \mathbb{R}), \langle f, g\rangle := \int_0^1f(x)g(x)\dif x \forall f, g \in V\)
\begin{align*}
\left(\int_0^1f(x)g(x)\dif x\right)^2 &\leq \int_0^1 f(x)^2\dif x\int_0^1 g(x)^2\dif x \\
\implies (\int_0^1 f(x))
\end{align*}
\end{exa}
\begin{definition}{Winkel}{}
Sei $(V, \langle {\cdot,\cdot} \rangle)$ ein euklidischer Vektorraum. Der \emph{Winkel}
$\Theta_{v,w}$ zwischen zwei Winkeln $v,w\in V$ wird gegeben durch die Gleichung: \[\cos
\Theta_{v,w} = \frac{\langle v, w\rangle}{||v||\cdot ||w||}\]
\end{definition}
\begin{definition}{Gram Matrix}{}
Die \emph{Gram Matrix} der Vektoren $v_1, \ldots, v_n \in V$ ist definiert
als die Matrix ihrer Paarweisen Skalarprodukte:
\[G(v_1, \ldots, v_n):= (\langle v_i, v_j \rangle)_{i,j=1\ldots n}\]
\end{definition}
\begin{satz}{Positivit"at der Determinante der Gram Matrix}{}
Es gilt stets $\det G(v_1, \ldots, v_n) \geq 0$. Gleichheit gilt genau dann, wenn \(v_1,\dots,v_n\)
linear abha"ngig sind.
\end{satz}
\begin{prof}
Wenn eine nichttriviale Linearkombination \(\sum_{i=1}^k \lambda_iv_i\) gleich null ist, dann gilt aufgrund der Linearit"at von \(\langle ., .\rangle\) in der 1. Variable \begin{align*}\sum_{i=1}^k \lambda_i\langle v_i, v_j\rangle &= 0 \forall j\in \{1, \dots, n\} \\ \implies \det G(v_1, \dots, v_n) &= 0\end{align*} (Linearit"at von \(\det\) in Zeilen)
Sind \(v_1, \dots, v_k\) linear unabh"angig, dann bilden sie eine Basis ihrer linearen H"ulle \(U = span(v_1, \dots, v_k)\) (mit \(k \in \{1,\dots, n\}\)). Die Gram-Matrix ist genau die Matrix des Skalarproduktes bez"uglich dieser Basis. Nach dem Silvester-Kriterium ist sie positiv.
\end{prof}
\begin{definition}{Orthonormalbasis}{}
Eine Basis $\mathcal{E} = \{e_1, \ldots, e_n\} \subset V$ heisst
\textbf{Orthonomalbasis}, wenn $G(e_1, \ldots, e_n) = 1_n$ ist. ($\iff \langle
e_i, e_j \rangle = \delta_{ij} \forall i,j = \overline{1,n}$)
\end{definition}
% Sei \(E\) eine Orthogonalbasis (ONB), \(B\) eine weitere Basis von \(V\). Sei \(S = M_E^B\) die Basiswechselmatrix von \(E\) zu \(B\). Nach Transformationsregel f"ur Matrizen von Bilinearformen gilt \[G(B) = S^T\underbrace{1_n}_{=G(E)}S = S^TS\] \(\implies B\) ist ONB \(\iff S^TS = 1_n \iff S^T = S^{-1} \quad (SS^T = 1_n)\)
\begin{relation}
Sei $\mathcal{E}$ eine Orthonormalbasis (=ONB), $B$ eine weitere Basis von $V$. Sei
$S=M^B_\mathcal{E}$ die Basiswechselmatrix von $\mathcal{E}$ zu $B$. Nach
Transformationsregel f"ur Matrizen von Bilinearformen gilt:
\begin{align*}
G(B) = S^T\cdot 1_n \cdot S = S^T\cdot S\\
\iff \text{ B ist ONB } \iff S^T\cdot S = 1_n \iff S^T = S^{-1}
\end{align*}
\end{relation}
\begin{definition}{Orthogonale Matrix}
Eine Matriz $S$ hei"st \emph{orthogonal} wenn $S^T=S^{-1} \implies S$ ist
invertierbar und $\det S = \pm 1$.
\end{definition}
\emph{"Ubung:} Beweisen Sie, dass eine \(n\times n\)-Matrix genau dann orthogonal ist, wenn ihre Spalten (oder Zeilen) eine ONB bez"uglich des Standardskalaproduktes bilden
Sei \(U\subseteq V\) ein Unterraum. Dann ist die Einschr"ankung von \(\langle ., .\rangle\) auf \(U\) eine positiv definite (also nicht ausgeartete) Bilinearform nach dem Silvester-Kriterium. \(\implies\) Direkte Summenzerlegung \(V = U\oplus U^\perp\) \(\implies\) jedes \(v\in V\) ist eindeutig darstellbar als \(v = u + u^\perp\) mit \(u\in U, u^\perp \in U^\perp\). \(u\) hei"st orthogonale Projektion von \(v\) auf \(U\). \(\implies\) Lineare Abbildung \(p_U: V\to U, p_U(v = u + u^\perp) = u\). \(p_U\) hei"st orthogonale Projektion auf \(U\).
\begin{lemma}[Explizite Formel f"ur orthogonale Projektion]
Sei \(e_1, \dots, e_k\) ONB von \(U \subseteq V\). Dann gilt f"ur \(v\in V\):
\begin{align*}
p_U(v) = \sum_{i=1}^k\langle e_i, v\rangle e_i
\end{align*}
\end{lemma}
\begin{korollar}
Wenn \(e_1,\dots, e_n\) ONB von \(V\) ist, dann gilt f"ur jedes \(v \in V\):
\begin{align*}
v = \sum_{i=1}^n\langle e_i, v\rangle e_i
\end{align*}
\end{korollar}
\begin{prof}[des Lemmas]
\(\sum_{i=1}^k \langle e_i, v\rangle e_i\) liegt in \(U\). Wir m"ussen also noch zeigen, dass \(v - \sum_{i=1}^k\langle e_i, v\rangle e_i\) orthogonal zu \(U\) ist. Es reicht zu zeigen, dass dieser Vektor orthogonal zu jedem \todo{Nicht 100\% sicher}\(e_j \;\forall j \in \{1,\dots, k\}\) ist. Das folgt aus der Orthonormalit"at der Basis: \(\langle e_j, v\rangle - \sum_{i=1}^k \langle e_j, e_i\rangle\langle e_i, v\rangle = \langle e_j, v\rangle - \langle e_j, v\rangle = 0\).
\end{prof}
\emph{"Ubung:} "Uberzeugen Sie sich, dass das Gram-Schmidt-Verfahren in einem euklidischen VR so beschrieben werden kann: wenn \(f_1, \dots, f_n \in V\) eine beliebige Basis von \(V\) ist, und \(V_k = span(f_1, \dots, f_k)\), dann bilden die Vektoren \begin{align*}e_k := p_{V_{k-1}^\perp}(f_k) = f_k - p_{V_{k-1}}(f_k) = f_k - \sum_{i=1}^{k-1}\frac{\langle e_i, f_k\rangle}{\langle e_i, e_i\rangle}e_i\end{align*} eine Orthogonalbasis von \(V\). Eine ONB erh"alt man, indem man \(e'_k = \frac{e_k}{||e_k||} \quad\forall k\in \{1,\dots,n\}\) setzt.
\emph{"Ubung:} "Uberpr"ufen Sie, dass das Gram-Schmidt-Verfahren angewandt auf die Basis \(1, x, x^2, x^3\) von \(C[-1, -1]\) mit dem Skalarprodukt \(\langle f, g\rangle = \int_{-1}^1f(x)g(x)\dif x\) die Vielfachen der Legendre-Polynome
\begin{align*}
p_0(x) = 1, p_1(x) = x, p_2(x) = \frac{1}{2}(3x^2 - 1), p_3(x) = \frac{1}{2}(5x^3 - 3x)
\end{align*}
liefert.
\begin{bem}
Skalarprodukt \(\langle . , .\rangle \implies ||x|| = \sqrt{\langle x, x\rangle}\) ist eine Norm \(\implies d(x, y) = ||x-y||\) ist eine Metrik \(\implies\) Topologie, Konvergenz.
\end{bem}
\begin{definition}{Abstand zwischen Teilmengen $X,Y \subseteq V$}{}
$d(X,Y)= \inf_{x\in X, y\in Y} \underbrace{d(x,y)}_{\Vert x - y\Vert}$.
\end{definition}
\begin{satz}{Abstand ist gleich L"ange des Lotes}{}
Sei $(V, \langle {\cdot, \cdot} \rangle$ ein eukl. VR, $U\subseteq V$ ein UVR
und $v\in V$. Dann gilt: \[d(v, U) = \Vert p_{U^\perp}(v)\Vert\] und der zu $v$ am
n"achsten gelegene Vektor $u\in U$ ist $u=p_U(v)$
\end{satz}
\begin{prof}
Sei \(v = u + u^\perp\) mit \(u = p_U(v) \in U, u^\perp \in U^\perp\). F"ur jedes \(u' \in U\) gilt \(z = u - u' \in U\).
\begin{align*}
\Vert v - u'\Vert^2 = \Vert z + u^\perp\Vert^2 = \langle z, z\rangle + \langle u^\perp , u^\perp\rangle = \Vert z\Vert^2 + \Vert u^\perp\Vert^2 \geq \Vert u^\perp\Vert^2
\end{align*}
mit Gleichheit genau dann, wenn \(u' = u\).
\end{prof}
\begin{satz}{Abstandsformel f"ur Gram-Matrizen}{}
Sei $V$ ein eukl. VR, $U\subseteq V$ ein UVR, $v\in V$. Dann gilt f"ur jede
Basis $f_1, \ldots, f_k$ von $U$: \[d(v,U)^2 = \frac{\det G(f_1, \ldots, f_k, v)}{det G(f_1, \ldots, f_k)}\]
\end{satz}
\begin{prof}[Abstandsformel f"ur Gram-Matrizen]
Gilt \(v\in U\), dann sind beide Seiten gleich null (Determinante hat dann linear abh"angige Spalten). Sonst (\(v \not\in U\)) sei \(z = p_{U^\perp}(v)\). Dann ist \(f_1, \dots, f_k, v\) eine Basis von \(U\oplus \langle v\rangle\). (Wir orthogonalisieren diese Basis mit dem Gram-Schmidt-Verfahren und erhalten eine orthogonale Basis \(e_1, \dots, e_k, z\).) Nach dem Satz "uber das Gram-Schmidt-Verfahren k"onnen wir jetzt den Wert \(\langle z, z\rangle\) durch die Eckminore der Gram-Matrix ausdr"ucken. \(\langle z,z\rangle = \frac{\delta_{k+1}}{\delta_k} = \frac{\det G(f_1,\dots, f_k, v)}{\det G(f_1, \dots, f_k)} = \Vert z\Vert^2 = d(v, U)^2\)
\end{prof}
\begin{satz}{W"urfel aufgespannt durch Orthonormalbasen haben Volumen 1}{}
Sei \(\mathcal{E} = (e_1,\dots,e_n)\) eine Orthonormalbasis in einem euklidischen Vektorraum \(V\) und \(\omega : V^n\to\mathbb{R}\) die eindeutig bestimmte Volumenform mit \(\omega (e_1,\dots,e_n) = 1\). Dann gilt \(|\omega (\mathcal{E'})| = 1\) f"ur jede Orthonormalbasis \(\mathcal{E}'\) von \(V\).
\end{satz}
\begin{prof}
Es gilt: \(\omega (\mathcal{E}') = \det (S)\cdot\omega (\mathcal{E})\), wobei \(S\) die Basiswechselmatrix von \(\mathcal{E}\) zu \(\mathcal{E}'\) ist. Nun ist \(S\) aber orthogonal, \(\det S = \pm 1\), also \(|\omega (\mathcal{E}')| = 1\).
\end{prof}
\begin{definition}{Volumen}{}
Seien \(v_1,\dots, v_n\in V\) (\(V\) ist ein euklidischer Vektorraum). Das \emph{Volumen} des von \(v_1,\dots, v_n\) aufgespannten Parallelepipeds definieren wir als \[\text{vol}(v_1,\dots,v_n) := |\omega (v_1,\dots,v_n)|\] wobei \(\omega\) eine Volumenform ist mit \(\omega (\mathcal{E}) = 1\) f"ur eine (und damit jede) ONB.
\end{definition}
\begin{satz}{Volumen durch die Determinante der Gram-Matrix}{}
Seien \(v_1,dots,v_n\in V\) Vektoren in einem \(n\)-dimensionalen euklidischen Vektorraum. Dann gilt: \(\text{vol}(v_1,\dots,v_n)^2 = \det G(v_1,\dots,v_n)\)
\end{satz}
\begin{prof}
Seien \(v_1,\dots,v_n\) linear abh"angig, dann stimmt die Formel, denn beide Seiten sind 0. Sind sie jedoch linear unabh"angig, bilden sie eine Basis von \(V\). Sei \(S\) die Basiswechselmatrix zu einer ONB \(\mathcal{E}\), also:
\begin{align*}
G(v_1,\dots,v_n) &= S^T1_nS = S^TS \\
\det G(v_1,\dots,v_n) &= \det (S^TS) = \left(\det (S)\right)^2 = \text{vol}(v_1,\dots,v_n)^2
\end{align*}
\end{prof}
\begin{bem}
Abstandsformel von \(v\in V\) zu einem UVR \(U\subseteq V\) mit Basis \(f_1,\dots, f_k\):
\[\text{vol}(f_1,\dots,f_k,v) = \text{vol}(f_1,\dots,f_k)\cdot d(v,U)\]
\end{bem}
\section{Lineare Abbildungen zwischen Vektorräumen mit Skalarprodukt }
\label{sec:vsk}
\textbf{Fragen}:
\begin{enumerate}
\item Welche Geometrie von Abbildungen liefert das Skalarprodukt?
\item Welche Eigenschaften folgen f"ur Vektorra"ume und Eigenr"aume?
\end{enumerate}
\begin{notte}
Sei $(V, \langle {\cdot, \cdot} \rangle)$ ein eukl./unit. Vektorraum. Sei
$\mathcal{E}=(e_1,...,e_n)$ eine Orthonormalbasis in $V$, $f: V\mapsto V $
linear. Dann gilt ...
Insbesondere gilt: eine Beliebige Matrix $A\in K^{m\times n}$ ist die Matrix
eine Lineare Abbildung bez. der Standartorthonormalbasis.
\end{notte}
\begin{lemma}{Adjungierte Abbildung}
Sei $(V, \langle {\cdot, \cdot} \rangle)$ ein eukl./unit. Vektorraum, $(\dim V
< \infty)$, $V$, $f: V\mapsto V $ linear. Dann gibt es eine eindeutig bestimme
linearte Abbildung $f*: V\mapsto V $ mit: \[
\langle {v, f(w} \rangle \langle {f*(v), w} \rangle\; \forall v, w \in V
\]
\end{lemma}
\begin{exa}
Wenn $V=(K^n, \langle {\cdot, \cdot} \rangle _{st})$ $f$ ist gegeben durch
eine Matrix $A$, und die definierende Eigenschaft der adjungierten Abbildung
$A'$:
\[ \lambda*\cdot A \cdot \mu = (A'\cdot \lambda)^*\cdot\]
\end{exa}
\begin{prof}
\begin{enumerate}
\item F"ur ein $v\in V$ fest bekommen wir eine Lineare Abbildung: $\alpha_v:
V\rightarrow \; w \mapsto $... Das heisst
\item Setze jetzt $f^*(v):=u$ mit $\langle {u, w} \rangle = \alpha_v(w)\forall
w\in V$.
\end{enumerate}
\end{prof}
\begin{notte}
WEnn $\mathcal{E}=(e_1, ..., e_n)$ eine Orthonoermalbasis in V ...
\end{notte}
\begin{definition}
Sei $(V, \langle {\cdot, \cdot} \rangle)$ ein eukl./unit. Vektorraum. Sei
$\mathcal{E}=(e_1,...,e_n)$ eine Orthonormalbasis in $V$, $f: V\mapsto V $
linear.
\begin{itemize}
\item selbstadjungiert, wenn $f^*=f$
\item orthogonal bzw. unit"ar, wenn $f^*\circ f = f\circ f^*=id_v$
\item normal, wenn $f^*\circ f = f\circ f^* $ ($f$ kommutiert mit $f^*$)
\item orthogonale Projektion, wenn $f^*=f, f^2=f$
\end{itemize}
\end{definition}
\begin{lemma}
$f$ ist orthogonal/unit"ar $iff \forall v\in V$ git $\langle {f(v), f(w)}
\rangle = \langle {v,w} \rangle$
\end{lemma}
\begin{prof}
\begin{itemize}
\end{itemize}
\end{prof}
\begin{notation}
\begin{itemize}
\item $O(V)=\{f\in\mEnd (V) \mid f\text{ Orthogonal}\}$ ($V$ eukl)
\item $O(n):= O(\mathbb{R}^n, \langle{\cdot, \cdot} = \{A\in
\mathbb{R}^{n\times n} \mid A \text{ Orthogonal}\})$
\item $U(V)=\{f\in\mEnd (V) \mid f\text{ Unit"ar}\}$ ($V$ unit"ar)
\item $U(n):= O(\mathbb{C}^n, \langle{\cdot, \cdot} = \{A\in
\mathbb{C}^{n\times n} \mid A \text{ Orthogonal}\})$
\item $S O(n) = {A\in O(u) \mid \det A = 1}$ - spez. Orth. Gruppe
\item $S O(n) = {A\in U(u) \mid \det A = 1}$ - spez. Unit"are. Gruppe
\item $GL(V)=\{f\in End(Vektorraum | f \text{ invertierbar})\}$, $GL(u, K)=GL(K^n)$
\end{itemize}
Alle Mengen in dieser Liste sind Teilmengen von bijektiven Abbildungen von
$V\rightarrow V$, s.d. $f,g\in G \implies g\circ f \in G; f\in G \implies
f^{-1}\in G$. Solche Teilmengen $G$ heissen Transformationsgruppen.
\end{notation}
\begin{notte}
F"ur die Physik sind folgende dieser Gruppen besonders releveant:
\begin{itemize}
\item $SO(3)$ - Rotation von $\mathbb{R}^3$
\item $SO(2)$ - Rotation von Teilchen mit Spin
\item $U(1)$ EM, $SU(2)$ Schwache WW, $SU(3)$ Starke WW - Eichgruppen f"ur fundamentale Wechselwirkungen
\end{itemize}
\end{notte}
\begin{proposition}
Sei $V$ eukl./unit. Vektorraum . Dann gilt:
\begin{enumerate}
\item wenn $U\subseteq V$ ein UVR ist, $p_U: V\rightarrow U$ die Orthogonale
Projektion auf $U$ dann gilt: $p_U=p_U^2 p_u^*= p_U$
\item $p\in \mEnd (V)$ eine Orthogonale Projektion $\implies p = p_U $ wobei
$U=\Im p$
\end{enumerate}
\end{proposition}
\begin{prof}
\begin{itemize}
\item $P$
\end{itemize}
\end{prof}
\subsection{Spektralsatz f"ur normale Operatoren}
\label{sec:spekt}
Erinnerung: $f\in \mEnd (V)$ ehisst normal, wenn $f^*\cdot f = f\cdot f^*$
\begin{definition}{Spektrum}{}
Das Spektrum um $f\in \mEnd (V)$ ist die Menge $\sigma (f) = \{\lambda \mid
\lambda \text{ Eigenwert von } f\}$
\end{definition}
\begin{satz}{Spektralsatz f"ur normale Operatoren}
Sei $V$ ein unit"arer Vektorraum
. Ein Operator $f\in \mEnd (V)$ ist genau dann normal, wenn eine
Orthonormalbasis aus Eigenwerten von $f$ existiert (d.h., f ist
diagonalisierbar in einer Orthonormalbasis).
\end{satz}
\begin{notte}
Das heisst insbesondere, dass selbstadjungierte und unit"are Operatoren
diagonalisierbar sind. (Sog. in OMB)
\end{notte}
\begin{lemma}
Sei $V$ ein unit"arer Vektorraum $u\subseteq V$ UVR, $f\in \mEnd (V)$ normal. Es
gilt: $U$ Eigenraum (ist damit $f$ invariant $(f(U)\subseteq U) $) $\implies $ dann ist $U^\perp$
$f$ invariant:
$U^\perp\subseteq U$
\end{lemma}
\begin{korollar}
$f$ selbstadjungiert $\implies$ $f$ diagonalisierbar in einer Orthogonalbasis
und die Eigenwerte sind reell. (Wenn unt"ar, Eigenwerte auf Einheitskreis)
\end{korollar}
\begin{relation}
Sei $f\in \mEnd (V)$ normal, $\mathcal{E}$ eine Orthonormalbasis aus Eigenwerten,
$\phi: \mathbb{C} \rightarrow \mathbb{C}$ beliebig. Definiere $(\phi(f))(v)=\phi(\lambda)*v$
\end{relation}
\begin{proposition}
Sei $V$ ein eukl./unit. VR. $f\in \mEnd (V) \implies f^* f, ff^*$
selbstadjungierte Operatoren auf $V$ mit nochtnegativen Eigenwerten. Wenn $f$
invertierbar ist, sind die Eigenwerte positiv.
\end{proposition}
\begin{prof}
\begin{enumerate}
\item Es gilt f"ur $g$
\end{enumerate}
\end{prof}
\begin{definition}{Operatornorm}{}
Sei $f\in \mEnd (V)$: $|f|:= \sqrt{f^*\circ f}$.
\end{definition}
\begin{relation}
Wenn $f$ invertierbar ist $\implies f^*$ invertierbar $\implies f^* f$
invertierbar $\implies |f| $ invertierbar.
Damit $u:= f\circ |f|^{-1}$ Dann $u* \cdot u=id \implies u$ unit./orth.
\end{relation}
\begin{proposition}{Polarzerlegung}
Wenn $f$ invertierbar $\implies \exists u$ unit./orth. mit $f=u\cdot |f|$.
(Auch fuer nicht invertierbare Operatoren.)
\end{proposition}
\begin{relation}
Orthogonale Abbildungen sind (anders als unit"are!) nicht immer Diagonalisierbar.
\end{relation}
\begin{satz}{Spektralsatz / $\mathbb{R}$}
Sei $V$ ein eukl. VR, $f=f^* \in \mEnd (V)$ slebstadjungiert. Dann existiert
eine Orthonormalbasis aus Eigenvektoren von $f$.
\end{satz}
\begin{prof}
Sei $V_{\mathbb{C}}=V \oplus iV$ die Komplexifizierung von $V$,
$f_{\mathbb{C}}: V_{\mathbb{C}} \rightarrow V_{\mathbb{C}}$ die
Komplezifizierung von $f$. Definiere auf $V_{\mathbb{C}}$ das Skalarpordukt
$\langle {v_1+ iv_2, w_1+ iw_2} \rangle := \langle {v_1, w_1} \rangle + i
\langle {v_2, w_1} \rangle - i \langle {v_2, w_1} \rangle + \langle {v_2, w_2}
\rangle$. Damit haben wir einen unit. Raum.
\end{prof}
\begin{notte}
F"ur Matrizen koennte man den Bew. so f"uhren: wenn $A=A^* \in \mathbb{R}^{n
\times n} \subset \mathbb{C}^{n\times n}$, hat eine Orthonormalbasis aus EV
in $\mathbb{C}^n$ aus Eigenvektoren $\implies$ Komponenten dieser
Eingenvektoren liefern EV in $\mathbb{R}^n$
\end{notte}
\section{Drehungen des $\mathbb{R}^3 = SO(3)$}
Errinerung: $SO(3) = \{A\in \mathbb{R}^{3\times r}\mid A^T \cdot A = 1_3, \det A
= 1\}$
\begin{proposition}
$SO(3)$ sind gerade drehungen von $(\mathbb{R}^3, \langle\cdot , \cdot \rangle)$.
\end{proposition}
Probleme:
\begin{itemize}
\item Matrixmultiplikation un"ubersichtlich
\item Bestimmung der Drehachse aufwendig
\end{itemize}
Ausweg: Quarternione
\begin{definition}{Quarternione}{}
$\mathbb{H} =\{t+xi+yj+zk \mid t,x,y,z \in \mathbb{R}\}$ mit Regeln:
\begin{itemize}
\item $i^2=j^2=k^2 = -1$
\item $ij=k=-ji$
\item $jk = i = -kj$
\item $ki=j=-ik$
\end{itemize}
\end{definition}
\begin{definition}{Skalarpordukt auf $\mathbb{H}$}{}
\begin{itemize}
\item Konjugation $h=t+xi+yj+zk \implies \bar{h}=t-xi-yj-zk$
\item $\langle {h, h} \rangle := \Re (h, \bar{h'})$
\end{itemize}
\end{definition}
Ziel: Drehungen im $\mathbb{R}^3$ durch Quarternione darstellen.
\begin{notte}
$h\in \mathbb{H} \implies h\cdot \bar{haben = t^2+x^2+y^2+z^2 \geq 0 \forall h
\in \mathbb{H}, = 0 \text{ wenn } h=0}$
\end{notte}
\begin{definition}{Quarternion Konjugation}{}
$||h||^2 = h\cdot \bar{h}$
\end{definition}
\begin{relation}
....
Jedes Quarternion hat ein Inverses.
$\mathbb{H}$ ist isomorph zu $\mathbb{R}^4$. $\Im (h) \tilde{} \mathbb{R}^3$
\begin{itemize}
\item $\forall h \not= 0$ ist $\frac{\bar{h}}{||h||^2}$ das inverse
\item Multipl. Assoziativ aber nicht kommutativ (Schiefk"ortper)
\end{itemize}
\end{relation}
Wir betrachten nun $Sp(1)=\{h\in \mathbb{H} \mid ||h|| = 1\}$
\begin{relation}
Es gilt $\overline{(h_1\cdot h_2}=\bar{h_2}\cdot \bar{h_1} \implies ||h_1
\cdot h_2||^2 = (h_1 \cdot h_2) \cdot \overline{(h_1 \cdot h_2)} = h_1\cdot
h_2 \cdot \bar{h_2} \bar{h_1} = ||h_1||^2 + ||h_2||^2$
Sei $h\in \Im \mathbb{H}, q\in Sp(1): \overline{q\cdot h }$
\end{relation}
...
\begin{relation}
\begin{enumerate}
\item $\phi_{q_1 \cdot q_2} = \phi_{q_1} \cdot \phi_{q_2} $
\item $\phi_q$ ist invertierbar $\forall q \in Sp(1)$
\item $\phi_q \in O(\Im \mathbb{H}) \tilde{=} O(3)$
\item $\phi_q$ ist stets eine Rotation, also $\phi_q \in SO(\Im \mathbb{H})
\tilde{=} SO(3)$
\item $\phi_q$ ist surj. $\forall R\in So(3) \exists q\in Sp(1): \phi_q = R$
$n$ ist rot. Achse von $R$, $\varphi$ der Winkel der Rotation.
Sei $\mathcal{E} = (h, e_1, e_2)$ eine Basis in $\mathbb{R}^3$ s.d.
Sei $q=\cos \frac{\varPhi}{2} + \sin \frac{\varPhi}{2}\cdot n$ Da $\mathcal{E}$
ONB gilt: ... Wenn $\mathcal{E}$ pos. orientierte ONB in $\mathbb{R}^3$ ist es
auch eine Standartbasis in $\mathbb{H}$
\end{enumerate}
$Sp(1)$ ist einheitssph"are in $\mathbb{R}^4$ Da man je zwei Punkte auf der
Sph"are durch eine stetige Kurve verbinden kann ist $\det \phi$ konstant ($=1$)
\end{relation}
\section{Schlagworte:}
\label{sec:orgcf8c685}
\begin{itemize}
\item \(A\cdot B\) Zeilen von \(A\) mal Spalten von \(B\)
\item LGS L"osungen als Vektor!
\begin{itemize}
\item Keine nicht offensichtlich Schritte ueberspringen!
\item Paramatervektor und sine Elemente genau definieren!
\end{itemize}
\item Transposition vertauscht faktoren.
\item k-te Spalte \((A)_k\)
\end{itemize}
\tcblistof[\chapter]{definition}{Defintionen, S"atze und Theoreme}
\end{document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: t
%%% End: