% Created 2017-11-19 Sun 20:51 % Intended LaTeX compiler: pdflatex \documentclass[11pt]{article} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{graphicx} \usepackage{grffile} \usepackage{longtable} \usepackage{wrapfig} \usepackage{rotating} \usepackage[normalem]{ulem} \usepackage{amsmath} \usepackage{textcomp} \usepackage{amssymb} \usepackage{capt-of} \usepackage{hyperref} \usepackage{nicefrac} \usepackage[a4paper, left=2cm, right=2cm, top=2cm, bottom=2cm]{geometry} \setlength{\parfillskip}{0pt plus 1fil} \setlength{\parindent}{0pt} \usepackage{german} \usepackage{fancyhdr} \usepackage{mathtools} % for xrightarrow \usepackage{todonotes} \pagestyle{fancy} \fancyhead{} \fancyfoot{} \fancyhead[L]{\rightmark} \fancyhead[R]{\thepage} \renewcommand{\headrulewidth}{0.4pt} \renewcommand{\footrulewidth}{0pt} \newcommand{\gq}[1]{\glqq{}#1\grqq{}} % german quotes \newcommand{\mcolor}[2][red]{\begingroup\color{#1}#2\endgroup } \DeclareMathOperator{\mdim}{dim} \DeclareMathOperator{\mKer}{Ker} \DeclareMathOperator{\mIm}{Im} \DeclareMathOperator{\mRg}{Rg} \DeclareMathOperator{\mHom}{Hom} \DeclareMathOperator{\mId}{id} \DeclareMathOperator{\mVol}{Vol} \usepackage{tcolorbox} \tcbuselibrary{theorems} \newtcbtheorem[number within=section]{definition}{Definition}% {colback=green!5,colframe=green!35!black,fonttitle=\bfseries}{th} \newtcbtheorem[number within=section]{axiom}{Axiom}% {colback=orange!5,colframe=orange!35!black,fonttitle=\bfseries}{th} \newtcbtheorem[number within=section]{theo}{Satz}% {colback=blue!5,colframe=blue!35!black,fonttitle=\bfseries}{th} \newtcbtheorem[number within=section]{satz}{Satz}% {colback=orange!5,colframe=orange!35!black,fonttitle=\bfseries}{th} \newtcolorbox{comm}[1][] {title=Kommentar,colback=black!5,colframe=black!35!black,fonttitle=\bfseries} \newtcolorbox{relation}[1][] { colframe = red!25, colback = red!10, halign = center, #1, } \usepackage{etoolbox} \usepackage{amsthm} \usepackage{amssymb} \usepackage{gauss} \usepackage{stmaryrd} \newtheorem{exa}{Beispiel}[section] \newtheorem{expe}{experiment}[section] \renewcommand*{\proofname}{Beweis} \newtheorem{beobachtung}{Beobachtung} \newtheorem{folgerung}{Folgerung} \newtheorem*{notte}{Beachte} \newtheorem*{notation}{Notation} \newtheorem*{proposition}{Proposition} \newtheorem*{lemma}{Lemma} \newtheorem*{korollar}{Korollar} \newtheorem*{bem}{Bemerkung} \author{Valentin Boettcher} \date{\today} \title{Lineare Algebra (f"ur Physiker) I} \hypersetup{ pdfauthor={Valentin Boettcher}, pdftitle={Lineare Algebra (f"ur Physiker) I}, pdfkeywords={}, pdfsubject={}, pdfcreator={Emacs 25.3.1 (Org mode 9.1.2)}, pdflang={English}} \begin{document} \maketitle \tableofcontents \maketitle \newpage \section{Vorwort} \label{sec:org8d9fa1c} Ihr habt hier die Mitschriften Valentin Boettchers vor euch. Er teilt eben Diese "ausserst gern mit euch und freut sich "uber Feedback, Fehlerkorrekturen und Verbesserungsvorschl"age. Kontaktiert ihn am besten via \href{mailto:valentin.boettcher@mailbox.tu-dresden.de}{Email} :). Vor allem aber ist es wichtig zu verstehen, dass das Format dieses Skriptes kein allumfassendes Kompendium ist und nur den Inhalt der Vorlesung abdeckt. Wenn Valentin einmal ein Paar interessante Gedanken kommen, packt er sie wohlm"oglich auch hinein, versucht aber immer deren Korrektheit zu gew"ahrleisten. Auch Kommentare des Lesenden k"onnen Teil dieses Skriptes werden. Wie ihr bestimmt bis hierher bemerkt habt, ist Valentins Rechtschreibung grausig: Also frisch ans Werk und Feedback geben. Viel Vergn"ugen. \textbf{Mathe ist sch"on.} \section{Mengenlehre} \label{sec:orgd4be270} In der modernen Mathematik fasst man Strukturen (R"aume, Fl"achen, Zahlensysteme) als \emph{Mengen} und \emph{Abbildungen} auf. \begin{definition}{Menge}{def-meng} Eine Zusammenfassung von Objekten die \textbf{Elemente} der Menge heissen. Eine Menge ist also eindeutig dadurch bestimmt, welche Elemente sie enth"alt. \end{definition} \begin{notation}\ \begin{itemize} \item \(M=\{m_1,m_2,m_3,...\}\) - Aufz"ahlung \begin{itemize} \item \(\{...\}\) - Mengenklammern \end{itemize} \item \(M=\{x| P(x)\}\) - Eigenschaft \begin{itemize} \item Alle \(x\) mit der Eigenschaft \(P(x)\) \end{itemize} \end{itemize} \end{notation} \begin{exa}\ \begin{itemize} \item \(n=\{\text{Nat"urliche Zahlen}\} = \{0,1,2,...\}\) \item \(E=\{x|\text{x hat die Eigenschaft } P(x)\}\) \end{itemize} \end{exa} \subsection{Wichtige Mengen} \label{sec:orga565e26} \begin{itemize} \item \(\mathbb{N}=\{\text{Nat"urliche Zahlen}\} = \{1,2,...\}\) \item \(\mathbb{Z}=\{\text{Ganze Zahlen}\} = \{...,-2,-1,0,1,2,...\}\) \item \(\mathbb{Q}=\{\text{Rationale Zahlen}\}=\left\{\left.\displaystyle\frac{p}{q}\;\right\vert\begin{array}{c}p \in \mathbb{Z} \\ q \in \mathbb{N} \setminus \{0\}\end{array}\right\}\) \item \(\mathbb{R}=\{\text{Reelle Zahlen}\}\) \end{itemize} \subsection{Beziehungen zwischen Mengen} \label{sec:orgcffbbc3} \begin{definition}{Mengenbeziehungen}{def-teilmenge} Seien \(A,B\) zwei Mengen. \begin{enumerate} \item \(A\) heisst \textbf{Teilmenge} von B, wenn f"ur jedes Element \(a\in A\) gilt: \(a\in B\). \item Es sei die Menge \(C = \{a|a\in A \text{ und } b\in B\}\), so heisst \(C\) \textbf{Durchschnitt} von \(A\) und \(B\). \item Es sei die Menge \(C = \{a|a\in A \text{ oder } b\in B\}\), so heisst \(C\) \textbf{Vereinigung} von \(A\) und \(B\). \end{enumerate} \end{definition} \begin{notation}\ \begin{itemize} \item \(\in\) Element von: \(x\in X\) - \gq{x ist Element von X} \item \(\subseteq\) Teilmenge: \(A\subseteq B\) - \gq{A ist eine Teilmenge von B} \item \(\subset\) echte Teilmenge: \(A\subset B \iff A\subseteq B \land A \neq B\) \item \(\cap\) Durchschnitt: \(A\cap B = \{a|a\in A \text{ und } b\in B\}\) \item \(\cup\) Vereinigung: \(A\cup B = \{a|a\in A \text{ oder } b\in B\}\) \item \(\varnothing\) Leere Menge: enth"alt keine Elemente und ist Teilmenge aller Mengen \item \(\setminus\) Mengendifferenz: \( A\setminus B = \{a|a\in A \land a\notin B \} \) \item \(A\times B\) Direktes Produkt: \(A \times B = \{(a,b)|a\in A\land b\in B \} \) \begin{itemize} \item \((a,b)\): geordentes Paar mit dem ersten Element \(a\) und dem zweiten Element \(b\). \end{itemize} \end{itemize} \end{notation} \begin{exa} \(\mathbb{N}\subseteq \mathbb{Z}\), aber \(\mathbb{Q} \nsubseteq \mathbb{Z}\): \(\frac{1}{2} \notin \mathbb{Z}\) \end{exa} \begin{exa} F"ur \(A = \{1,2,3,4,5\}\) und \(B = \{2,3,10\}\): \begin{itemize} \item \(A\cap B = \{2,3\}\) \item \(A\cup B = \{1,2,3,4,5,10\}\) \end{itemize} \end{exa} \begin{definition}{Leere Menge}{} Die leere Menge \(\varnothing\) ist die (eindeutig bestimmte) Menge, die kein Element enth"alt. \end{definition} \begin{exa} \(\{\pi\} \cap Q = \varnothing\) \end{exa} \begin{definition}{Differenz}{} Die Differenz zweier Mengen \(A, B\) wird definiert als \(A\setminus B = \{a\in A | a\not\in B\}\) (Elemente aus \(A\), die nicht in \(B\) liegen). \end{definition} \begin{definition}{Direktes/Kartesisches Produkt}{} Wenn \(A,B\) zwei Mengen sind dann ist die Menge der Paare \((a,b)\) und \(a\in A, b\in B\) das direkte (kartesische) Produkt von \(A\) und \(B\) (\(A\times B\)). \end{definition} Analog gilt: \(A_1\times A_2\times ... \times A_n = \{(a_1,...,a_n)| a_1\in A_1,...,a_n\in A_n\}\) \begin{exa} \(\mathbb{R}^n=\mathbb{R}\times ... \times \mathbb{R} = \{(x_1,...,x_n)| x_1\in \mathbb{R},...,x_n\in \mathbb{R}\}\) \end{exa} Geometrie \(m\) der Ebene mit Koordinaten \(=\) Untersuchung von Konstruktionen in \(\mathbb{R}^2=\mathbb{R}\cdot\mathbb{R}\). \begin{definition}{Komplemen"armenge} Seien \(A,M\) Mengen und \(A\subseteq B\) so ist \(A^c = M\setminus A\) und heisst \textbf{Komplement"armenge} zu \(M\). \end{definition} Seien \(A,B,M\) Mengen und \(A\subseteq M\) und \(B\subseteq M\), so gilt: \begin{relation} \begin{enumerate} \item \((A\cup B)^c = A^c \cap B^c\) \item \((A\cap B)^c = A^c \cup B^c\) \item \((A^c)^c = A\) \item \(A\cup A^c = M\) \end{enumerate} \end{relation} \begin{notte} Es gelten auch alle Identit"aten f"ur Mengen. \end{notte} \subsection{Abbildungen zwischen Mengen} \label{sec:org4ef8946} \begin{definition}{Abbildung}{} Seien \(X,Y\) Mengen. Eine Abbildung \(f\) von \(X\) nach \(Y\) (Bez: \(f:X\rightarrow Y\)) ist eine Vorschrift, die jedem Element \(x\in X\) ein Element von \(y\in Y\) Zuordnet. \end{definition} \begin{notation} Man schreibt: \(x\mapsto f(x)\) - ''x wird auf \(f(x)\) abgebildet'' = ''dem \(x\in X\) wird ein \(f(x)\in Y\) zugeordnet.'' \end{notation} \begin{exa}\ \begin{itemize} \item \(f(t)=t^2+1\) definiert eine Abbildung \(f: \mathbb{R}\to \mathbb{R}, t\mapsto f(t)=t^2+1\) \item \(g(t)= \frac{t^2+1}{t-1}\) definiert eine Abbildung \(g: \mathbb{R}\setminus\{ 1\}\to \mathbb{R}, t\mapsto \frac{t^2+1}{t-1}\) \item \(h: S=\{\text{Teilnehmer der Vorlesung}\}\to N, s\mapsto Geburtsjahr(s)\) \end{itemize} \end{exa} \subsubsection{Spezielle Abbildungen} \label{sec:orge512a75} \begin{relation} \begin{enumerate} \item F"ur jede Menge \(X\) ist die \textbf{Indentit"atsabbildung} auf \(X\) definiert durch \(Id_x:X\to X, x\mapsto x\). \item Gegeben seien Mengen \(A,B\). Die Abbildung \(\pi_A: A\times B \to A, (a,b) \mapsto a\) heisst \textbf{Projektionsabbildung} von \(A\times B\) auf \(A\). \item Seien \(X,Y\) Mengen, sei \(y_0 \in Y\). Dann heisst die Abbildung \(f: X\to Y, x\mapsto y_0\) eine \textbf{konstante Abbildung} (mit dem wert \(y_0\)). \end{enumerate} \end{relation} \begin{exa}\ \begin{itemize} \item Identit"atsabbildung: \(f(x)=x\) \item konstante Abbildung: \(f(x)=1\) \item Projektionsabbildung: \(f(x,y)=x\) \end{itemize} \end{exa} \subsubsection{Bild und Urbild} \label{sec:org006b051} \begin{definition}{Bild und Urbild einer Funktion}{} Sei \(f: X\to Y\) eine Abbildung. \begin{itemize} \item Sei \(A\subseteq X\). Dann heisst \(f(A):=\{f(a)|a\in A\}\) das Bild von A. \item Sei \(B\subseteq Y\). Dann heisst \(f^{-1}(B):=\{a\in A|f(a)\in B\}\) das Urbild von \(B\). \end{itemize} \end{definition} \begin{notte} Das Bild und das Urbild f"ur eine \emph{Menge} einer Funktion ist wieder eine \emph{Menge}. \end{notte} \begin{notte} \(f^{-1}\) ist keine Abbildung, sonder nur ein formales Symbol! \end{notte} \subsubsection{Einige Eigenschaften von Funktionen} \label{sec:org1909a84} Seien \(X,Y\) Mengen, \(f: X\to Y\) eine Abbildung. \(f\) heist: \begin{relation} \begin{enumerate} \item \textbf{Injektiv}, wenn f"ur \(x\in X\not = x' \in X\) gilt: \(f(x) \not = f(x')\) \begin{itemize} \item Keine Verklebung von Punkten! \end{itemize} \item \textbf{Surjektiv}, wenn f"ur \(y\in Y\) ein \(x\in X\) existiert mit \(f(x)=y\). \begin{itemize} \item Keine Abbildung auf eine echte Teilmenge von \(Y\)! \end{itemize} \item \textbf{Bijektiv}, wenn \(f\) injektiv und surjektiv ist. \end{enumerate} \end{relation} \begin{exa}\ \begin{enumerate} \item \(f: \mathbb{R} \to \mathbb{R}, t\mapsto t^2\) \begin{itemize} \item ist nicht injektiv: \end{itemize} \end{enumerate} \(-1\mapsto 1\) \begin{itemize} \item ist nicht surjektiv: f"ur \(-1\in \mathbb{R}\) gibt es kein \(t\in\mathbb{R}\) mit \(t^2=-1\) \end{itemize} \begin{enumerate} \item \(g: \mathbb{N}\to\mathbb{Z}, n\mapsto-n\) \begin{itemize} \item ist injektiv: \(m\ne n\implies g(m)=-m \ne -n = g(n)\) \item ist nicht surjektiv: f"ur \(1\in \mathbb{Z}\) gibt es kein \(n\in \mathbb{N}\) mit \(-n=1\) \end{itemize} \item \(h: \mathbb{R}\to\mathbb{R},t\mapsto t^3\) ist Bijektiv ("Ubung) \end{enumerate} \end{exa} \subsubsection{Inverse Abbildung zu einer bijektiven Abbildung} \label{sec:orgaae7124} \begin{definition}{Inverse Abbildung}{} Sei \(f:X\to Y\) bijektiv. Sei \(y\in Y\). Definiere eine Abbildung \(f^{-1}: Y\to X\) so: \(f^{-1}(y)=x\) mit der Eigenschaft \(f(x)=y\). \end{definition} Dies ist wohldefiniert (diese Vorschrift definiert tats"achlich eine Abbildung) weil: \begin{relation} \begin{itemize} \item Das x mit der gew"unschten Eigenschaft existiert f"ur jedes \(y\in Y\), weil \(f\) surjectiv ist. \item F"ur jedes \(y\in Y\) existiert h"ochstens ein \(x\in X\) mit der gew"unschten Eigenschaft, weil \(f\) injektiv ist. \end{itemize} \end{relation} \begin{notte} Wenn die Abbildung \(f\) bijektiv ist, hat \(f^{-1}(A)\) f"ur ein \(A\subseteq Y\) a priori zwei Bedeutungen: \begin{itemize} \item Urbild von \(A\) unter f \item Bild von \(A\) von \(f^{-1}\) \end{itemize} Wenn \(f\) bijektiv ist, stimmen aber diese Mengen "uberein. (Bew. "Ubung) \textbf{Aber}: Wenn \(f\) nicht bijektiv ist, hat \(f^{-1}\) nur einen Sinn: Urbild! \end{notte} \subsubsection{Verkn"upfung von Abbildungen} \label{sec:org540b965} \begin{definition}{Verkn"upfung}{} \(f: X\to Y, g: Y\to Z\) ist die verkn"upfung \(g\circ: X\to Z\) definiert als \(g\circ f(x)=g(f(x))\). Diagramme Siehe V2\(_{\text{1}}\). \end{definition} Die Verkn"upfung hat folgende Eigenschaften: \begin{relation} \begin{enumerate} \item Sie ist Assoziativ: \(h\circ (g\circ f) = (h \circ g) \circ f\) f"ur alle Abb. \(f: X\to Y, g:Y\to Z\), \(h:Z\to V\) \item F"ur jede abbildung \(f: X\to Y\) gilt: \(f\circ id_X=id_Y\circ f = f\). \item Wenn \(f:X\to Y\) bijektiv ist, dann gilt: \(f\circ f^{-1}=id_Y\): \begin{itemize} \item \(f^{-1}\circ f=id_X\) weil: \(f(f^{-1}(y))=y\): \item \(f^{-1}(f(x))=x'\) mit \(f(x')=f(x)\implies x=x'\) wenn \emph{Bijektiv} \end{itemize} \end{enumerate} \end{relation} \subsubsection{Kommutative Diagramme} \label{sec:org429b8d6} Siehe V2\(_{\text{2}}\): \begin{enumerate} \item Dieses Diagramm heist kommutativ, wenn \(h=g\circ f\). \item kommutativ wenn \(g\circ f=h\circ k\) \end{enumerate} \subsubsection{Eingeschr"ankte Abbildungen} \label{sec:org60b2559} \begin{definition}{Einschr"ankung}{} Sei \(f: X\to Y\) eine Abbildung.\\ Die Einschr"ankung von \(f\) auf eine Teilmenge \(A\subseteq X\) ist die Abbildung: \(f|_A:\begin{matrix}A\to Y\\ a\mapsto f(a)\end{matrix}\) \end{definition} \begin{exa} \(f: \mathbb{R}\to \mathbb{R}, t\mapsto t^{2}\) ist nicht injektiv, \(f|_{[0, \infty)}\) ist injektiv. \end{exa} \subsubsection{Quantoren} \label{sec:orgd2b2557} \begin{definition}{Quantoren}{} \begin{itemize} \item f"ur alle \(x\) in \(X\) - \(\forall x \in X\) \item es existiert \(x \in X\) - \(\exists x \in X\) \end{itemize} \end{definition} \begin{exa} \(f:X\to Y\) ist surjektiv, wenn \(\forall y \in Y \exists x\in X\) mit \(f(x)=y\). \end{exa} F"ur die Negation der Quantoren gilt: \begin{relation} \begin{itemize} \item \(\neg(\forall x\in X : A(x)) = \exists x\in X : \neq A(x)\) \item \(\neg(\exists x\in X : A(x)) = \forall x\in X : \neq A(x)\) \end{itemize} \end{relation} \begin{exa}[] \label{} \ \(f: X\to Y\) ist surjektiv \(\iff \forall y\in Y \exists x\in X : f(x)=y\).\\ Also: \(f: X\to Y\) ist \textbf{nicht} surjektiv \(\iff \exists y\in Y \forall x\in X : f(x)\not=y\). \end{exa} \subsection{Schlagworte} \label{sec:org0cab6a2} \begin{itemize} \item Venn Diagram - Kreise und Schnittmengen \item Zeigen von "Aquivalenz zweier Zusammengeseten Mengen: \begin{itemize} \item Wahrheitstafel \item Zur"uckf"uhren auf Aussagenlogik \end{itemize} \item Zeigen das \(p,q,r\) "aquivalent sind: \begin{itemize} \item \(p\implies q \implies r \implies q\) \end{itemize} \item \emph{Injektivit"at} zeigen: \begin{itemize} \item nicht I. wenn Gegenbeispiel existiert \item Zeigen das Funktion streng monoton steigt. \end{itemize} \item \emph{Surjektivit"at} zeigen: \begin{itemize} \item nicht S. wenn Gegenbeispiel existiert \item Zeigen das Funktion streng monoton steigt und gegen \(+-\infty\) strebt. \end{itemize} \item \(A\setminus (A\setminus B) = A \cap B\) \item Beweise mit Abbildungen \(M\) sei Menge, \(f\) sei Abbildung: \begin{itemize} \item \(y \in f(M) \implies \exists x \in M : f(x)=y\) \end{itemize} \end{itemize} \section{Logik und Beweisf"uhrung} \label{sec:orgc083250} Mathematik operiert mit \textbf{Aussagen}. \begin{definition}{Aussage}{} Eine Aussage ist eine Behauptung, die Wahr oder Falsch sein kann. \end{definition} \begin{notation}\ \begin{description} \item[{1}] wahr \item[{0}] falsche \end{description} \end{notation} \(A,B\) seien Aussagen, dann kann man folgende Aussagen betrachten: \begin{relation} \begin{itemize} \item ''nicht \(A\)'': \(\neg A\) \end{itemize} \begin{center} \begin{tabular}{lrr} \(A\) & 0 & 1\\ \hline \(\neg A\) & 1 & 0\\ \end{tabular} \end{center} \begin{itemize} \item Vernk"upfungen \end{itemize} \begin{center} \begin{tabular}{rrrrrr} \(A\) & \(B\) & \(\neg A\) & \(A\wedge B\) & \(A \vee B\) & \(A\implies B\)\\ \hline 0 & 0 & 1 & 0 & 0 & 1\\ 0 & 1 & 1 & 0 & 1 & 1\\ 1 & 0 & 0 & 0 & 1 & 0\\ 1 & 1 & 0 & 1 & 1 & 1\\ \end{tabular} \end{center} \begin{itemize} \item ''A "aquivalent zu B'': \(A\iff B\) \end{itemize} \begin{center} \begin{tabular}{rrr} \(A\) & \(B\) & \(\iff A\)\\ \hline 0 & 0 & 1\\ 0 & 1 & 0\\ 1 & 0 & 0\\ 1 & 1 & 1\\ \end{tabular} \end{center} \end{relation} \begin{exa} F"ur ein Element \(x\in X\) k"onnen wir Aussagen betrachten: \begin{enumerate} \item \(A(x)=x\in A\) \item \(B(x)=x\in B\) \end{enumerate} \(A(x)\wedge B(x)=x\in (A\cap B)\) \end{exa} \subsection{Identit"aten der Aussagenlogik} \label{sec:orgd743b6e} \begin{relation} \begin{enumerate} \item Direkter Beweis \begin{itemize} \item \((A\implies B) = (\neg A)\vee B\) \item Vorraussetzung \(\rightarrow\) logische Aussage \(\rightarrow\) Behauptung \end{itemize} \item Beweis in Schritten \begin{itemize} \item \(((A\implies B)\wedge (B\implies C))\implies (A\implies C)\) \\ \(\rightarrow\) Konstant \(=1\) (\emph{Tautologie}) \end{itemize} \item Beweis durch Kontraposition \begin{itemize} \item \((A\implies B) \iff (\neg B \implies \neg A)\) - \emph{Tautologie} \end{itemize} \end{enumerate} \end{relation} \subsection{Widerspruchsbeweis} \label{sec:org54c9d02} Wenn wir die Konsequenz aus der Negation der zu beweisenden Aussage und die Pr"amisse zu einem widerspruch f"uhren so ist die Aussage bewiesen, denn: \begin{relation} \[(A\wedge \neg A)=0\] \end{relation} Wir wollen \(A\implies B\) zeigen. Nehmen an \(\neg B\) und leiten her:\\ \begin{relation} \((\neg B \wedge A)\implies 0\), also \(\neg B\wedge A = 0\), und daher \(A\implies B\). \end{relation} \begin{theo}{Satz von Euklid}{} Es gibt unendlich viele Primzahlen. \end{theo} \begin{proof}\ \begin{enumerate} \item Nehmen wie an, es gibt nur endlich viele Primzahlen. \(p_1, ..., p_n\). \item Betrachte \(n=p_1\cdot p_2\cdot ... \cdot p_n + 1\). \(n\) geteilt durch jede von den Primzahlen \(p_1, ..., p_n\) gibt Rest \(1\). \item Also ist \(n\) eine Primzahl, aber \(n\not=p_1 ... p_n\) weil gr"osser. \item Folglich enth"alt die Menge \({p_1,...,p_n}\) nicht alle Primzahlen. \end{enumerate} \indent\indent \(\rightarrow\) Das ist ein \textbf{Widerspruch}. (\((A\wedge \neg A) = 0\)) \end{proof} \begin{exa} Wir werden die Aussage: wenn \(q\) eine gerade Primzahl ist \(\implies q=2\) beweisen. \begin{proof}[Direkter Beweis] \label{} \ \begin{enumerate} \item \(q\) ist gerade \(\implies q\) ist durch \(2\) Teilbar f"ur \(k\in\mathbb{N}\) \item \(q\) ist aber eine Primzahl \(\implies\) einer der Faktoren in \(2\cdot k\) ist gerade \(1\), \(2\not= 1\) \item \(\implies k=1, q=2\) \end{enumerate} \end{proof} \begin{proof}[Kontraposition] \label{} \ Wir m"ussen zeigen: \(q\not= 2\implies\) (\(q\) ungerade) \(\vee\) (\(q\) keine Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl) \(\implies q\) ist ungerade! \begin{enumerate} \item Wenn \(q\) gerade ist, \(q\cdot 2k\), also ist \(k>1\) \item also \(q\not= 2\) \end{enumerate} \end{proof} \begin{proof}[Widerspruchsbeweis] \label{} \ Annahme: \(q\) ist gerade, \(q\) ist eine Primzahl, \(q\not= 2\). Wir wollen einen Widerspruch herleiten. \begin{enumerate} \item da \(q\) gerade ist, gilt \(q=2\cdot k\) f"ur ein \(k\in \mathbb{N}\) \item da \(q\not= 2\), gilt \(k>1\) \item aber \(q\) ist prim, also kann \(q\) kein Produkt von zwei Zahlen sein! \(\lightning\) \end{enumerate} \end{proof} \end{exa} \section{Komplexe Zahlen} \label{sec:org73b0a26} Idee: Man m"ochte Quadratische Gleichungen ohne reelle Nullstellen trotzdem l"osen, also erweitert man die reellen Zahlen. \begin{relation} Die pototypische Quadratische Gleichungen ohne reelle L"osungen ist: \(x^2+1 = -1\).\\ Man f"ugt K"unstlich die Zahl \(i\) hinzu mit \(i^2=-1\), m"oglichst unter Beibehaltung der "ublichen Rechenregeln: man braucht also die Zahlen \(b\cdot i : b\in \mathbb{R}\) und \(a+b\cdot i : a,b\in \mathbb{R}\). \end{relation} Was passiert, wenn man solche Zahlen miteinander multipliziert ''als ob'' sie normale Zahlen w"aren: \begin{relation} \((a+bi)\cdot(c+di)=ac+bc\cdot i+ad\cdot i+(-bd)=(ac-bd)+(bc+ad)\cdot i\) f"ur \(a,b,c,d\in \mathbb{R}\) \end{relation} Addieren kann man solche Ausdr"ucke auch: \begin{relation} \((a+bi)+(c+di)=(a+c)+(b+d)\cdot i\) \end{relation} \begin{definition}{Komplexe Zahlen}{} Die komplexen Zahlen \(\mathbb{C}\) sind die Menge der Paare \((a,b)\in \mathbb{R}^2\) versehen mit der Addition \((a,b)+(c,d)=(a+c,b+d)\) und der Multiplikation \((a,b)\cdot (c,d)=(ac-bd, bc+ad)\). \end{definition} \begin{notation}[] \label{} \ \begin{itemize} \item Statt \((a,b)\) schreibt man auch \((a+bi)\in \mathbb{C}\). \item \(i:=(0,1)=0+1\cdot i\): \begin{itemize} \item nach Multiplikation erf"ullt \(i^2=-1\) \end{itemize} \end{itemize} \end{notation} Man "uberpr"uft, dass die "ublichen Rechenregeln aus \(\mathbb{R}\) weiterhin gelten (\emph{K"orperaxiome}): F"ur \(z_1, z_2, z_3 \in \mathbb{C}\) gilt, z.B.: \begin{relation} \begin{itemize} \item \(z_1\cdot (z_2+z_3)=z_1z_2+z_1z_3\) \item \(z_1\cdot (z_2\cdot z_3)=(z_1\cdot z_2)\cdot z_3\) \item \(z_1 + (z_2 + z_3)=(z_1 + z_2) + z_3\) \end{itemize} \end{relation} \begin{notte}[] \label{} \((\mathbb{R},+,\cdot)\subsetneq (\mathbb{C},+,\cdot)\) auf nat"urliche Weise als der der Form \(a+0\cdot i = (a,0)\), \(a\in \mathbb{R}\). \end{notte} \begin{definition}{Real- und Imagin"aranteil}{} F"ur \(z=a+b\cdot i\in \mathbb{C}\) heisst: \begin{itemize} \item \(a:=:Re(z)\) Realanteil von \(z\) \item \(b:=:Im(z)\) Imagin"aranteil von \(z\) \end{itemize} Also ist \(z=Re(z)+ Im(z)\cdot i\). \end{definition} \begin{definition}{Rein Imagin"are Zahlen}{} Die Zahlen der Form \(b\cdot i : b\in \mathbb{R}\) heissen \textbf{rein Imagin"ar}. \end{definition} F"ur reele Zahlen wissen wir: \(\forall a\in \mathbb{R}\) mit \$a\textlnot{}= 0 \(\exists\) \(a^{-1} \in \mathbb{R}\) mit \(a*a^{-1}=1\). Gilt das auch in \(\mathbb{C}\) ? \begin{definition}{Komplexe Konjugation}{} F"ur \(z\in \mathbb{C}\) heisst die Zahl \(\overline{z}:=a-bi\) die komplex konjugierte Zahl zu \(a+bi\). \end{definition} \begin{exa}[] \label{} \(\overline{1+i}=1-i\) \end{exa} \begin{relation} \(z*\overline{z}=(a+bi)(a-bi)=a^2+b^2\geq -\) mit Gleichheit genau dann, wenn \(z=0\). \end{relation} \begin{definition}{Betrag der Komplexen Zahl}{} \(|z|:=\sqrt{x\cdot \overline{z}}=\sqrt{a^2+b^2}\) mit \(z=a+bi\). \end{definition} \subsection{Inverses zu einer komplexen Zahl} \label{sec:org0018acd} Das Inverse zu \(z\not= 0\): \begin{relation} \(z\cdot \frac{\overline{z}}{|z|^2}=1\) \\ Also: \(\forall z\not= 0 \exists z^{-1} = \frac{\overline{z}}{|z|^2}\) mit \(z \cdot z^{-1}=1\) \end{relation} \begin{exa}[] \label{} \ \((1+i)^{-1}=\frac{1-i}{2}\) \end{exa} Mnemonische Rechenregel, Multipliziere mit dem Inversen: \begin{relation} \(\frac{1}{1+i}=\frac{1-i}{(1+i)(1-i)}=\frac{1-i}{2}\) \end{relation} \subsection{Geometrische Interpretation von \(\mathbb{C}\)} \label{sec:org992fe0c} Siehe Zeichung \(C_1\). \begin{relation} \begin{itemize} \item Addition: als Addition von Vektoren \item Betrag: L"ange des Vektors \item \(\varphi\) - Winkel zwischen der reellen Achse und dem Vektor der \(z\) entspricht, gez"ahlt gegen den Urzeigersinn. \end{itemize} \end{relation} Es folgt: \begin{relation} \(a=|z|\cdot \cos(\varphi)\) und \(b=|z|\cdot \sin(\varphi)\) \end{relation} \begin{notte}[] \label{} \(\varphi\) ist nicht eindeutig bestimmt, sondern bis auf Addition von eines vielfachen von \(2\pi\). \end{notte} \begin{exa}[] \label{} \(\varphi=\frac{\pi}{4}\) und \(\varphi=-\frac{7\pi}{4}\) sind im geometrischen Bild von \(\mathbb{C}\) "aquivalent. \end{exa} \begin{definition}{}{} Der wert von \(\varphi\), welcher in \([0, 2\pi)\) liegt, heisst Hauptargument von \(z\), \(arg(z)=\varphi\).\\ Das Argument von \(z\) ist die Menge von allen \(\varphi \in R\),4 \(z=|z|(\cos(\varphi)+i\cdot \sin(\varphi))\), \(Arg\, z = {\varphi \in R : |z|(\cos(\varphi)+i\cdot \sin(\varphi))}\). \end{definition} \begin{notte}[] \label{} \(Arg\, z= {arg(z)+2\pi\cdot k : k\in \mathbb{Z}}\) \end{notte} \begin{exa}[] \label{} \ Seien \(z_1=|z_1|\cdot \cos(\varphi_1)+i\cdot \sin(\varphi_1)\), \(z_2=|z_2|\cdot \cos(\varphi_2)+i\cdot \sin(\varphi_2)\) zwei komplexe Zahlen.\\ So gilt: \(z_1\cdot z_2 = |z_1|\cdot |z_2|(\cos(\varphi_1+\varphi_2)+i\cdot \sin(\varphi_1 + \varphi_2))\) \end{exa} \begin{relation} Bei der Multiplikation von komplexen Zahlen multiplizieren sich die Betr"age, und die Argumente addieren sich. \end{relation} F"ur geometrische Interpretation: Siehe \(C_2\). Besonders n"utzlich ist dies f"ur die Multiplikation einer komplexen Zahl vom Betrag \(1\): \begin{align*} |z|=1\iff z=\cos(\varphi)+i\cdot \sin(\varphi) \text{f"ur ein} \varphi \in \mathbb{R} \end{align*} \begin{relation} Es liegen \(\{z\in \mathbb{C} : |z|=1\}\) auf dem Einheitskreis. Die Multiplikation mit von komplexen Zahlen Zahlen mit dem Betrag 1 entspricht also der Rotation gegen den Urzeigersinn um \(\varphi\). \end{relation} \subsection{Exponentialform der komplexen Zahlen} \label{sec:orgb4d9f14} \begin{notation}[] \label{} \ \begin{itemize} \item Exponentialform: \(\cos(\varphi)+i\cdot \sin(\varphi):=e^{i\cdot \varphi}\) \item es gilt \(e^{i(\varphi_k)}, k\in\mathbb{R}\) sind die Zahlen auf dem Einheitskreis \end{itemize} \end{notation} \begin{definition}{Exponentialform der komplexen Zahlen}{} Die Exponentialform f"ur jede komplexe Zahl \(z\in\mathbb{C}\) lautet \(z=|z|e^{i\cdot arg\,z}\). \end{definition} Mit dieser Notation folgt: \begin{relation} \((e^{i\varphi})^n=(\cos(\varphi)+i\cdot\sin(\varphi))^2=e^{n\cdot i\cdot \varphi}=\cos(n\varphi)+i\cdot\sin(n\varphi)\) f"ur alle \(n\in\mathbb{N}\) \end{relation} \begin{exa}[] \label{}\ \begin{equation*} %\begin{split} (\cos(\varphi)+i\cdot \sin(\varphi))^2 =\cos^2(\varphi)-\sin^2(\varphi)+2\cdot\sin(\varphi)\cdot\cos(\varphi) = \cos(2\varphi) + 2\sin(2\varphi) \implies \begin{cases} \cos(2\varphi)=\cos^2(\varphi)-\sin^2(\varphi) \\ \sin(2\varphi)=2\cdot\sin(\varphi)\cdot\cos(\varphi) \end{cases} %\end{split} \end{equation*} \end{exa} \subsection{Einscheitswurzeln} \label{sec:org0755105} Sei die gleichung \(x^n=a\) "uber \(\mathbb{R}\) gegeben. Je nach Vorzeichen von \(a\) und Parit"at von \(n\), gibt es Varianten f"ur die Anzahl der L"osungen. \begin{relation} In \(\mathbb{C}\) hat aber die Gleichung \(z^n=a\) f"ur ein \(a\in \mathbb{C}\setminus \{0\}\) immer genau \(n\) L"osungen. \end{relation} Sei \(w\in \mathbb{C}\) mit \(w^n=a\). Dann gilt \((\frac{z}{w})^n=1\) f"ur jedes \(z\in \mathbb{C}\) mit \(z^n=a\). \textbf{Also} l"osen wir erst mal die Gleichung \(z^n=1\), und dann reduzieren wir den allgemeinen Fall darauf. \begin{definition}{Einheitswurzel}{} Eine Zahl \(z\in \mathbb{C}\) heisst \(n\text{-te}\) Einheitswurzel, wenn \(z^n=1\). \end{definition} \begin{proposition}[] \label{} F"ur jedes \(n\geq, n\in\mathbb{N}\) existieren genau \(n\) Einheitswurzeln in \(\mathbb{C}\). Sie sind durch die Formel \(z_k=e^{\frac{2\pi\cdot k\cdot i}{n}},\quad k=0,1,...,n-1\) gegeben. \end{proposition} \begin{proof}[] \label{} \ \(z_k\) sind \(n\text{-te}\) Einheitswurzeln denn: \begin{align*} z_k^n & = (e^{\frac{2\cdot\pi\cdot k}{n}})^n \\ & = e^{2\pi\cdot k} \\ & = 1 \end{align*} Wir m"ussen noch zeigen, dass jede \(n\text{-te}\) Einheitswurzel von dieser Form ist. \\ Sei \(z\in\mathbb{C}\) mit \(z^n=1\). Es gilt: \begin{align*} |z|^n & =|z^n|=1 \\ & \implies |z|=1 \\ & \implies z=e^{i\cdot\varphi} \tag*{f"ur ein $\varphi\in[0, 2\pi)$} \\ & \implies 1 = z^n \\ & = (e^{i\varphi})^n=e^{i\varphi\cdot n} \\ & =\cos(n\varphi)+i\cdot \sin(n\varphi) \end{align*} Also folgt: \begin{gather*} \cos(n\varphi)=1,\;\sin(n\varphi)=0 \\ \implies n\cdot\varphi = 2\pi\cdot k \tag*{f"ur ein $k\in \mathbb{Z}$} \\ \implies \varphi = \frac{2\pi\cdot k}{n} \tag*{f"ur ein $k\in \mathbb{Z}$} \end{gather*} Da \(\varphi\) in \([0,2\pi)\implies 0\leq k < n\). \end{proof} Wenn wir jetzt also eine Gleichung \(z^n=a\) l"osen wollen, reicht es, eine L"osung \(w\) zu finden, die anderen L"osungen bekommt man als \(w\cdot z_k,\; k=0,...,n-1\) mit \(z_k\), der \(n\text{-ten}\) Einheitswurzeln: \(z^n=a\iff (\frac{z}{w})^n=1\).\\ Eine L"osung \(w\) kann man folgendermassen finden: \begin{relation} \begin{align*} \text{Schreiben wir a}\; & =|a|\cdot e^{i\cdot \psi}\; \text{f"ur ein $\psi\in \mathbb{R}$} \\ \text{Dann gilt: } w & =\sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}} \text{ l"ost $w^n=a$} \\ & \\ \left(\sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}}\right)^n & = \sqrt[n]{|a|}\cdot e^{\frac{i\cdot\psi}{n}\cdot n} \\ & = |a|\cdot e^{i\cdot \psi} \\ & = a \end{align*} \end{relation} Gemetrische Interpretation: regul"ares \(n\text{-Eck}\). \newpage \section{Lineare Gleichungsysteme} \label{sec:org4c2c71d} Wir werden die Bezeichung \(K\) f"ur \(\mathbb{R}\) oder \(\mathbb{C}\) verwenden. \begin{definition}{Lineare Gleichung}{} Eine Lineare Gleichung "uber \(K\) ist eine Gleichung der Form \(a_1x_1+a_2x_2+...+a_nx_n=b\).\\ Hierbei sind \(x_1,...,x_n\) die Variablen und \(a_1,...,a_n,b \in K\), die Koeffizienten. \end{definition} \begin{definition}{Lineares Gleichunssystem}{} Ein Lineares Gleichungsystem ist eine endliche Menge von Gleichungen: \[{\displaystyle {\begin{matrix}a_{11}x_{1}+a_{12}x_{2}\,+&\cdots &+\,a_{1n}x_{n}&=&b_{1}\\a_{21}x_{1}+a_{22}x_{2}\,+&\cdots &+\,a_{2n}x_{n}&=&b_{2}\\&&&\vdots &\\a_{m1}x_{1}+a_{m2}x_{2}\,+&\cdots &+\,a_{mn}x_{n}&=&b_{m}\\\end{matrix}}}\] \end{definition} Ein L"osung von diesem Gleichungssystem ist ein \[n\text{-Tupel } \left( \begin{matrix} x_{1}\\ \vdots\\ x_{n}\end{matrix} \right) \in K^{n} \] dass jede Gleichung erf"ullt. Ein lineares Gleichungssystem (LGS) zu l"osen, heisst, alle L"osungen zu finden. \begin{relation} \textbf{Idee}: Man formt das LGS durch Operationen um, die die Menge der L"osungen nicht ver"andern. Solche Operationen heissen "Aquivalenzumformungen. Diese sind unter anderem: \begin{enumerate} \item Multiplikation einer Gleichung mit einer zahl \(\alpha\in K\setminus \{0\}\) \item Addierung von einer Gleichung zu der anderen (z.B. Ersetzen der zweiten Gleichung durch die Summe der ersten und zweiten.) \item Vertauschen von zwei Gleichungen; dies kann man auf Operationen von Typ eins und Zwei zur"ukf"uhren \end{enumerate} \end{relation} Wir werden ein LGS umformen, um es auf eine Form zu bringen, wo die L"osung offensichtlich ist. Wir beobachten: \begin{relation} Es ist "uberflu"ssig, die Variablen mitzuschleppen. Man k"onnte statdessen die ''Tabellen'' von Koeffizienten umformen. \end{relation} \begin{definition}{}{} Eine \(M\times N\) Matrix \(A\) ist eine Tabelle der Gr"osse \(m\times n\), gef"ullt mit Elementen aus \(K\). \[A=(a_{ij})_{\substack{i=1,\cdots,m \\ j=1,\cdots,n}}\] \end{definition} \begin{exa}[] \label{} \[ A=\left( \begin{matrix} 1& 1\\ 2& -3\end{matrix} \right) \] Wobei \(a_{11} = 1\), \(a_{21} = 2\), \(a_{12}=1\) und \(a_{22}=-3\). \end{exa} \begin{relation} Gegeben ein LGS (\(*\)), k"onnen wir eine Matrix \[ A=\left( \begin{matrix} a_{11}& \cdots & a_{1n}\\ \vdots & & \vdots \\ a_{n1}& \ldots & a_{nn}\end{matrix} \right) \] aufstellen. Sie heisst Koeffizientenmatrix des LGS. Auch stellen wir \[b=\left( \begin{matrix} b_{1}\\ \vdots \\ b_{n}\end{matrix} \right)\] eine \(m\times 1\) Matrix (Spalte) auf. (Sie heisst rechter Teil des LGS). Die Matrix \(A'=(A\mid b)\) heisst erweiterte Koeffizientenmatrix des LGS (\(*\)). \end{relation} \begin{definition}{Elementare Zeilenumforumungen}{} Die "Aquivalenzumformungen des LGS, die wir vorhin betrachtet haben, entsprechen dann folgenden Umformungen von der erweiterten Koeffizientenmatrix: \begin{itemize} \item[1'.] Multiplikation einer Zeile mit $\alpha \in K$ \item[2'.] Addieren von einer Zeile zu der anderen. \end{itemize} Wir werden dann versuchen, die (erweiterten koeffzienten-) Matrizen durch diese Umformungen auf eine Form zu bringen, in der man die L"osung leicht ablesen kann. \(1'\) und \(2'\) heissen elementare Zeilenumforumungen. \end{definition} Weitere Zeilenumformungen, die man aus diesen erhalten kann: \begin{relation} \begin{itemize} \item Vertauschen Zweier Zeilen \item Addieren einer Zeile, Multipliziert mit \(\alpha \not= 0\) \end{itemize} \end{relation} Ziel ist eine gegebe erweiterte Koeffizientenmatrix \((A\mid b)\), durch Zeilenumformungen zu einer Matrix umzuformen, aus der man die L"osung leicht ablesen kann. \begin{definition}{Pivotelement}{} Gegeben einer Zeile \(Z=(a_1,...,a_n)\in K^n\), nennen wir das erste Element \(a\not= 0\) das Pivotelement. Wenn \(Z=(0,...,0)\) ist dann gibt es kein Pivotelement. \end{definition} \begin{definition}{Zeilenstufenform}{} Eine Matrix \(A\) hat Zeilenstufenform, wenn folgendes gilt: \begin{enumerate} \item Die Nummern von Pivotlementen der Zeilen von \(A\) bilden eine aufsteigende Folge. \item Die Nullzeilen, falls existent, stehen am Ende. \end{enumerate} \end{definition} \begin{exa}[] \label{} \ \[ \begin{pmatrix} 0 & a_{12} & a_{13} \\ 0 & 0 & a_{23} \\ 0 & 0 & 0 \\ \end{pmatrix} \] \end{exa} \begin{theo}{Gauss}{} Jede Matrix kann durch elementare Zeilenumformungen auf die Stufenform gebracht werden. \end{theo} \begin{proof}[] \label{} Sei \(A=\begin{matrix}a_{11}&...&a_{nn}\end{matrix}\). \\ Wenn \(A=0\) - Bewiesen. \\ Wenn \(A\not=0\), dann gibt es eine Spalte \(\not= 0\). Sei \(j_1\) die Nummer dieser Spalte. Durch vertausche von Zeilen erreichen wir zun"achst \(a_{1j_1}\not= 0\). Multiplaktion der ersten Zeule mit \(\frac{1}{j_1}\). Jetzt Subtrahiere von jeder Zeile ab der Zweiten die erste Zeile multipliziert mit \(a_{kj_1}\) (\(k=\) Nummer der Zeile). \\ Wir erhalten dann Restmatrix \(A_1n\), dann sind \(w_1,...,w_n\) linear abhaengig. \begin{proof}[] \label{} Seien \begin{align*} w_1= a_{11} v_1 + a_{12} v_2 + ... + a_{nn} v_n \\ w_1= a_{21} v_1 + a_{22} v_2 + ... + a_{nn} v_n \\ \end{align*} Wir suchen \(\lambda\) (*). Das ist "aquivalent zu: Dies ist nach linearer Unabhaenig von \ldots{} "Aquivalent zu: Das heist (*) ist "aquivalent zu einem homogenen LGS aus \(n\) Gleichungen mit \(m\) Variablen. \(n:=\{\}\) (Menge aller Linearkombinationen von Vektoren in \(S\)). Alternative Notation: \(=\text{span S}\). \end{definition} \begin{notte}[] \label{} \(\) ist der kleinste Untervektorraum in \(V\), der \(S\) enth"alt. \(<\varnothing >:=\{0\}\) \end{notte} \begin{exa}[] \label{} Seien \(v_1, v_2 \in \mathbb{R}^3\). \(\) ist eine Gerade wenn \(v_1,v_2\) linear abh. Ist Ebene wenn \(v_1,v_2\) linear unbh. \end{exa} \begin{definition}{}{} \(S\in V\) heisst Erzeugendensystem wenn \(=V\). (S spannt den Vektorraum auf.) ist ein Erzeugendensystem: jeder Vektor in \(V\) ist eine Linearkombination von: \(\lambda_i\) sind nicht unbedingt eindeutig bestimmt, weil nicht linear unabh. vorrausgesetzt waren. \end{definition} \begin{definition}{}{} Ein Erzeugendensystem \(B\in V\) heisst basis, wenn es linear unabh. ist. Nach dem Lemma ueber Eindeutigkeit der koeffzienten der Linearkombination gilt: \(B=\{v_1, ..., v_n\}\) ist eine Basis genau dann, wenn f"ur jeden Vektor \(v \in V\) gibt es eindeutig bestimmte Zahlen. \end{definition} \begin{definition}{}{} Ein Vektorraum \(V\) heisst endlich dimensional, wenn er ein endliches erzeugendensystem besitzt. (= wird von endlich vielen Vektoren aufgespannt). \end{definition} \begin{theo}{}{} Jeder endlichedimensionale Vektorraum \(V\) hat eine Basis, Je zwei Basen von \(V\) haben gleich viele Elemente. \end{theo} \begin{proof}[] \label{} Sei \(S\) ein endliches Erzeugendensyste von \(V\), Wenn \(S\) lin. unabh. ist, ist es eine Basis und wir haben gewonnen. Wenn \(S\) linear abh"angig ist $\implies$ (Lemma) einer von den Vektoren in \(S\) ist eine Linearkombination von den anderen. Das entfernen dieses Vektors "andert die Tatsache nicht, das \(S\) den Vektorraum aufspannt. Jetzt haben wir eine kleinere Menge und fangen von vorne an. Da \(S\) endlich ist und durch entfernen Vektoren kleiner wird haben wir am Ende eine Basis. \(\rightarrow\) Wir haben eine Basis. Seien \(S, S'\) zwei Basen. Da \(S\) eine Basis ist, ist jedes element von \(S'\) eine linearkombination in \(S\). Die elemente von \(S\) sind linear unabh. (weil Basis). Wenn also \(m>n\), dann folgt aus der Proposition, dass \(S'\) linear abh. ist, was unm"oglich ist, da \(S'\) eine Basis ist. Also \(m \leq n\) und aus Symmetriegr"unden folgt auch \(n \leq m\). \end{proof} \begin{definition}{}{} Sei \(V\) ein endlichdimensionaler Vektorraum. Die Anzahl der Vektoren in einer (folglich in jeder) Basis von \(V\) heist Dimension von V. \emph{Bezeichung}: \(\dim V\).n \end{definition} \begin{exa}[s] \label{} \(\dim K^{n}=n\) weil \ldots{} eine Basis bilden. \end{exa} \textbf{Frage}: kannn man eine lineare unabh"angige Menge \(S\in V\) zu eine Basis erweitern?. \textbf{Proposition} Jede linear unabh"angige Teilmenge \(S\in V\) eines endlichdimensionalen Vektorraumes \(V\) ist in einer maximalen linear unabh"angigen Teilmenge enthalten. Eine maximal linear unabh. Teilmenge von \(V\) st eine Basis von \(V\). \begin{definition}{Maximal linear unabh"angige Teilmengen}{} Eine Teilmenge \(S'\in V\) ist maximal linear unabh., wenn aus \(S\) linear unabh. folgt. \end{definition} \begin{proof}[1] \label{} Sei linear unabh. Zwei F"alle: entweder ist \(S\) schon maximal (dann sind wir fertig) oder man kann S erweitern. Wenn wir \(S\) erweitern k"onnen, f"ugen wir neue Vektoren hinzu, bis wir es nicht mehr tun koennen, ohne lineare unabh. zu verletzen. Dieser Prozess endet, weil eine linear unabh. Teilmenge h"ochstens von \(V\) hoechstens \(\dim V\) viele Vektoren enthalten kann. (Prop. "uber lineare unabh. von vektoren aus linearkombinartionen der Basis.) \end{proof} \begin{proof}[2] \label{} Sei \(S\in V\) maximal linear unabh"angig. Wir habe zu zeigen: \(=V\) (Def. einer Basis). Wenn $\ldots{}$ d.h. aber, aber \(S\cup {v}\) ist linear unabh. (lemma) $\implies$ \(S\) dann nicht maximal. \end{proof} \textbf{Korollar} Man kann jeder lienar unabh. Teilmenge \(S\in V\) zu einer Basis erweitern. \begin{notte} Wenn \(V=K^n, S\in V\) linear unabh. \(\rightarrow\) man kann zur erweiterung passende Spalten der Einheitsmatrix. \end{notte} \begin{notte}[] \label{} Man kann bei der obrigen Proposition das Wort "endlichdimensional" fallen lassen, aber es braucht ein bisschen mehr Mengenlehre (Auswahlaxiom).x \end{notte} \begin{theo}{}{} Sei V ein endlichdimensionaler Vektorraum und \(U\in V\) ein Untervektorraum. Dann gillt: \(\dim U \leq \dim V\). \(\dim U = \dim V \iff U=V\) \end{theo} \begin{proof}[] \label{} Sei eine maximale linear unabh. Teilmenge in U. (so eine Teilmenge existiert weil V endlich ist.) Nach Proposition (2) ist \ldots{} eine Basis in \(U\), also gilt \(\dim U = k\) Erweitere \ldots{} zu einer Basis in V \ldots{}. (2) \ldots{} trivial \ldots{} Sei \ldots{} eine Basis in U. Erweitere sie zu einer Basis in \(V\). Diese Basis in V muss aber wegen \ldots{} gleich viele Vektoren haben. \ldots{}. ist eine Basis in \(V\) \ldots{} \end{proof} \begin{definition}{}{} Sei \(V\) ein Vektorraum \$\$ eine Basis in V. Die Zahlen \((\lambda_1,...\lambda_n)\) heissen Koordinaten bzgl. des Vektors. Die Spalte \ldots{} heisst Koordinatenspalte dieses Vektors bzgl. \(B\). Die Definition einer Basis garantiert, dass hierdurch eine Bijektion \ldots{} entsteht. \end{definition} \textbf{Warnung} Diese Korrespondenz kommt auf die Wahl der Basis an. \begin{exa}[] \label{} \end{exa} \begin{exa}[] \label{} Sei \(Ax=0\) ein h. LGS \end{exa} \textbf{Aus Uebungen} \ldots{} \textbf{Lemma} Die Spalten von \(\Phi\) bilden eine Basis in L. \begin{proof}[] \label{} Die Spalten von \(\Phi\) sind linear unabhaenig. (sonst abb. nicht injektiv) Ferner spannen sie das ganze L auf (Surjektiv). \end{proof} \textbf{Frage} Gegeben Basen \ldots{} in \(V\), und einem Vektor \(v\in V\). Wie rechnet man die Koordinaten bezgl. B in Koordinaten bzgl. B' um. Sprachweise ist: B ist alte Basis und B' ist neue Basis. So gilt: \begin{relation} \ldots{} Dr"ucken wir Vektoren von B' bzgl. Vektoren von B aus: \(V\) \ldots{} wir erhalten \(C\) (Die Spalten von C sind Koordinaten der "neuen" Basis bzgl der alten Basis. ) Also gilt: \ldots{} \(\lambda = G\cdot \lambda'\) \end{relation} \textbf{Frage} Ist \(D\) in diesem Fall immer invertierbar? (Ja, aber wir brauchen mehr Theorie.) \subsection{Lineare Abbildungen zwischen Vektorr"aumen} \label{sec:orgb4c03c4} \begin{definition}{Lineare Abbildung}{} Seien \(V, W\) zwei K-Vektorr"aume. Eine Abbildung \(f: V\rightarrow W\) heißt linear, wenn: \begin{enumerate} \item \(\forall v,v' \in V: f(v+v')=f(v)+f(v')\) \item \(\forall v\in V, \lambda \in K: f(\lambda v)=\lambda f(v)\) \end{enumerate} \end{definition} \begin{exa}[] \label{} $f_{A}: K^n\rightarrow K^m, x\mapsto A\cdot x$, für $A \in K^{m\times n}$ ist eine lineare Abbildung. \end{exa} \begin{exa}[] \label{} \(V=\mathbb{R}[x]_5,\;W=\mathbb{R}[x]_4\). $f: V\rightarrow W, p \mapsto \frac{dp}{dx}$ ist eine lineare Abbildung, die jedem Polynom seine Ableitung zuordnet. \end{exa} \begin{exa}[] \label{} $V=W=\{f:\mathbb{R}\rightarrow\mathbb{R}\}$ die Menge aller reellen, reellwertiger Funktionen. Für eine gegebene Abbildung $g:\mathbb{R}\rightarrow\mathbb{R}$ ist die Abbildung $mg: V\rightarrow W, f\mapsto g\cdot f, (g\cdot f)(x)=g(x)\cdot f(x)$ linear. \end{exa} \begin{definition}{}{} Sei $f:V\rightarrow W$eine Lineare Abbildung. Der Kern von \(f\) wird definiert als \[Ker\: f := f^{-1}(0) = \{v\in V|f(v)=0\}\] Der Kern der Abbildung f ist also die Menge aller Elemente in V, die auf das Nullelement von W abgebildet werden. \end{definition} \begin{exa}[] \label{} $f=f_A: K^n\rightarrow K^m \quad x\mapsto A\cdot x$\\ $Ker (f_A) = \{x\in K^n|A\cdot x = 0\}$, also die Lösung des homogenen LGS mit der Koeffizientenmatrix A. \end{exa} \textbf{Beobachtung} Der Kern von \(f\) ist ein Untervektorraum von \(V\): \[v_1 , v_2 \in Ker(f) \Rightarrow f(v_1 + v_2)=f(v_1 )+f(v_2 )=0 \Rightarrow v_1 + v_2 \in Ker(f) \] \[v \in Ker(f), \lambda \in K \Rightarrow f(\lambda v)=\lambda f(v)=\lambda \cdot 0 = 0 \Rightarrow \lambda v \in Ker(f) \] \textbf{Beobachtung} Das Bild von f $Im(f) \subseteq W$ ist Untervektorraum, wenn: \[w_1 =f(v_1 ), w_2 = f(v_2 )\in Im(f) \Rightarrow w_1 +w_2 = f(v_1 )+f(v_2 )= f(v_1 +v_2) \Rightarrow w_1 +w_2 \in Im(f) \] \[w=f(v)\in Im(f), \lambda \in K \Rightarrow \lambda w = \lambda f(v)=f(\lambda v) \in Im(f) \] $\Rightarrow$ Das Bild einer linearen Abbildung ist ein Untervektorraum. \begin{exa}[] \label{} $Im(f_A )=\{b\in K^m \:|\: \exists x \in K^n: A\cdot x=b \}=\{b\in K^m\:|\:LGS Ax=b\; l"osbar\} $ \end{exa} \textbf{Beobachtung} Definitionsgemäß ist $f:V\rightarrow W$ genau dann surjektiv, wenn $Im(f) = W$. \textbf{Proposition} Sei \(f:V\rightarrow W\) eine lineare Abbildung. Es gilt: \(f\) injektiv $\iff$ \(Ker(f)=\{0\}\) \begin{proof}[] \label{} f injektiv $\iff v_1 \neq v_2 \in V: f(v_1)\neq f(v_2) \iff f(v_1)-f(v_2)\neq 0 \iff f(v_1 -v_2)\neq 0 \iff v_1,v_2 \in V, v_1-v_2\neq 0: f(v_1 -v_2)\neq 0 \iff v\neq 0: f(v)\neq 0 \iff Ker(f) = \{0\}$ \end{proof} \begin{definition}{}{} Eine bijektive Lineare Abbildung \(f:V\rightarrow W\) heißt Vektorraumisomorphismus zwischen \(V\) und \(W\). \(V\) und \(W\) heißen isomorph, wenn es einen Vektorraumisomorphismus \(f: V\rightarrow W\) gibt. \end{definition} \begin{exa}[] \label{} Sei \(V\) ein Vektorraum, \(S\subseteq V = \{v_1, v_2, ..., v_n\}\). Die Aufspannabbildung $\varphi_S: K^n \rightarrow V$ wird definiert als $\varphi_S(\lambda)=\sum_{i=1}^{n}\lambda_i v_i$ \begin{itemize} \item \(\varphi_s\) ist linear. \item \(\varphi_s\) ist bijektiv \(\iff\) S ist Basis. \end{itemize} \end{exa} \begin{korollar} \(S=\{v_1,\ldots,v_n\}\) ist eine Basis von V $\implies \varphi_S: K^n \rightarrow V$ ist Isomorphismus ($K^n\cong V$) \end{korollar} \begin{korollar} \(\dim V = n \iff V\cong K^n\) \end{korollar} \begin{beobachtung} Wenn \(f:V\rightarrow W\) Isomorphismus $\implies f^{-1}:W\rightarrow V $ ist auch ein Isomorphismus. \end{beobachtung} \subsubsection{Dimensionsformel} \label{sec:org9a58004} \begin{theo}{}{} Sei \(f:V\to W\) eine Lineare Abbildung, sei \(V\) endlich dimensional. Dann gilt: \(\mdim\mKer f + \mdim\mIm f = \mdim V\). \end{theo} \begin{lemma} sei \(f\) wie oben. Sei \(U \subseteq \mKer(f)\) ein Untervektorraum mit \(U \cap \mKer(f) = \{0\}\). Dann ist \(f|_U:U\to f(U)\) ein Isomorphismus. \end{lemma} \begin{proof}[Beweis des Lemmas] \label{} \(f|_U:U\to f(U)\) ist surjektiv nach Konstruktion. Zu zeigen: \(f|_U\) injkektiv \(\iff \mKer f|_U = \{0\}\). Sei \(u\in \mKer f|_U \). Dann gilt \(u\in U \land u \in \mKer(f) \implies u \in U \cap \mKer f \implies u = 0\) \end{proof} \begin{proof}[Beweis der Dimensionsformel] \label{} W"ahle eine Basis \({e_1, ..., e_k}\) in \(\mKer f\) und erg"anze sie zu einer Basis \({e_1, ..., e_n}\) in \(V\). Betrachte jetzt \(U:=\langle e_{k+1}, ..., e_n\rangle \subseteq V\) Untervektorraum. Es gilt $U \cap \ker(f) = \{0\}$, weil für $u\in U \cap \ker(f)$ gilt: \(u = \sum\limits_{i=1}^k \lambda_ie_i \), weil \(e_1, \dots e_k\) eine Basis im Kern ist, und \(u = \sum\limits_{i=k+1}^{n} \lambda_i e_i\) weil \(u\in U\). Also: \(\sum\limits_{i=1}^k \lambda_ie_i - \sum\limits_{i=k+1}^{n} \lambda_ie_i = 0 \xRightarrow{e_1,\dots, e_n \text{Basis}} \text{alle }\lambda_i = 0 \implies u =0\). Das Lemma sagt jetzt: \(f|_U\) ist ein Isomorphismus. Außerdem gilt f"ur \(v =\sum\limits_{i=1}^{n}\lambda_ie_i \in V:\) \begin{align*} f(v) = f\left(\underbrace{\sum_{i=1}^{k}\lambda_ie_i}_{\in \mKer(f)}\right) + f\left(\sum_{i=k+1}^{n}\lambda_ie_i\right) = f\left(\underbrace{\sum_{i=k+1}^{n} \lambda_ie_i}_{\in U}\right) \end{align*} \(\implies f(V)=f(U)\) also \(f|_U : U\to f(V) = \mIm(f) \) ist ein Isomorphismus \(\implies \mdim \mIm f = \mdim U \) Nun gilt nach Konstruktion von \(U\): \[\underbrace{\mdim \mKer(f)}_{k} + \underbrace{\mdim U}_{n-k} = \underbrace{\mdim V}_{n} \implies \mdim\mKer f + \mdim\mIm f = \mdim V \] \end{proof} \subsubsection{Summe von Untervektorr"aumen} \label{sec:org83dfe63} \begin{definition}{}{} Sei V ein Vektorraum, $U_1, U_2 \subseteq V$ Untervektorräume. \[U_1 + U_2 := \{u_1+u_2 | u_1 \in U_1, u_2 \in U_2\}\] heißt Summe von $U_1$ und $U_2$. $U_1 + U_2$ ist Untervektorraum. \end{definition} \begin{definition}{}{} Die Summe von $U_1$ und $U_2$ heißt direkt, wenn $U_1 \cap U_2 = \{0\}$. Bezeichnung: $U_1 + U_2 = U_1 \oplus U_2$ \end{definition} \textbf{Bemerkung} \ldots{} In dieser Bezeichnung haben wir im Beseris der Dimensionsformel haben wir den Ausgangsraum als eine direkte Summe dargestellt. \todo{Das bitte ergänzen, da habe ich nicht gut mitgeschrieben} \textbf{Bemerkung}: Dimensionsformel ist auch Rangformel. \begin{definition}{Rang}{} Sei $f:V\to W$ linear. Der Rang von \(f\) ist $\mRg(f) = \text{rk}(f) := \dim\mIm(f)$ \end{definition} \begin{proposition} Sei \(f:V\to W\) linear, endlichdimensional. Dann gilt: \begin{align*} f injektiv & \\ \mKer(f) = \{0\} & \\ \mRg(f) = \dim V & \end{align*} Andererseits gilt: \begin{align*} \text{f surjektiv} \\ \mIm(f) = W & \\ \mRg(f) = \dim W & \end{align*} \end{proposition} \begin{korollar} Ist \(\mdim V = \mdim W \), so ist \(f\) injektiv $\iff $ \(f\) surjektiv.\end{korollar} \begin{beobachtung} Das ist analog zu Abbildungen endlicher Mengen: Sind \(X,Y\) endliche Mengen, \(h: X\to Y\) eine Abbildung, so gilt: \begin{itemize} \item \(h\text{ injektiv} \iff |h(X)| = |X| \) \item \(h\text{ surjektiv} \iff |h(X)| = |Y| \) \item \(h\text{ bijektiv} \iff |X|=|h(X)|=|Y| \) \end{itemize} \end{beobachtung} \begin{proposition}[Dimensionsformel] Sind \(U_1, U_2 \subset V\) Untervektorr"aume, dann gilt: \(\dim(U_1 +U_2) =\dim U_1 + \dim U_2 - \dim (U_1\cap U_2)\) \end{proposition} \begin{bem} \(U_1\cap U_2\) ist stets ein Untervektorraum, wenn \(U_1\) und \(U_2\) Untervektorr"aume sind. \end{bem} \begin{proof}[Dimensionsformel] Betrachte die Abbildung \(f: U_1 \times U_2 \to U_1 + U_2, (u_1, u_2) \mapsto u_1 + u_2 \). Hierbei ist \(U_1\times U_2 = \{(u_1, u_2) | u_1 \in U_1, u_2 \in U_2 \} \) der Verktorraum der Paare \((u_1, u_2)\) mit elementweisen Operationen: \begin{align*} (u_1, u_2) + (u_1', u_2') &= (u_1 + u_1', u_2 + u_2') \\ \lambda (u_1, u_2) &= (\lambda u_1, \lambda u_2) \end{align*} Oft nennt man \(U_1 \times U_2\) auch \gq{"au"sere direkte Summe} von \(U_1\) und \(U_2\) mit Bezeichnung \(U_1 \oplus U_2\). \begin{bem}Die Kollision der Bezeichnungen \(U_1\oplus U_2\) für die direkte Summe zweier Untervektorr"aume / "außere Summe ist harmlos ("Ubg). \end{bem} Nun gilt \(\dim \mKer(f) + \dim\mIm(f) = \dim(U_1\times U_2) \) Es gilt weiterhin: \(\dim(U_1 \times U_2) = \dim U_1 + \dim U_2 \) Wenn \(e_1, \dots, e_k \) eine Basis in \(U_1\) und \(b_1, \dots, b_l \) eine Basis in \(U_2\) \(\implies\) \(e_1, \dots, e_k, b_1, \dots, b_l\) Basis in \(U_1\times U_2\) Ferner gilt: \(\mIm(f) = U_1 + U_2\) per Definition. Nun ist: \begin{align*} \mKer(f) &= \{(u_1, u_2) | u_1 \in U_1, u_2\in U_2, u_1 + u_2 = 0\} = \{(u, -u)| u \in U_1 \cap U_2 \}\\ &\implies \dim\mKer (f) = \dim(U_1 \cap U_2)\\ &\implies \underbrace{\dim(U_1 \cap U_2)}_{\dim\mKer(f)} + \underbrace{\dim(U_1 + U_2)}_{\dim\mIm(f)} = \underbrace{\dim(U_1) + \dim(U_2)}_{\dim (U_1\times U_2)} \end{align*} \end{proof} Was hat diese ganze Theorie mit Matrizen zu tun? Intuitiv: Abbildungen sind \gq{geometrisch} und Matrizen sind Koordinatenformen dieser geometrischen Abbildungen. \begin{exa} Strecken in Richtung von \(l_2\) mit Faktor 2. Wie beschreibt man \(f\) in Koordinaten? \end{exa} \subsubsection{Abbildunngsmatrix} \begin{definition}{}{} Seien \(V,W\) zwei (\(\mathbb{K}\)-) Vektorr"aume. Dann nennen wir \(\mHom_\mathbb{K}(V,W) = \{f: V\to W | f \text{ist }\mathbb{K}\text{-linear}\}\). \end{definition} \begin{proposition} \(\mHom_\mathbb{K}(V,W)\) ist auch ein Vektorraum. \end{proposition} \begin{proof} Wenn \(f_1, f_2 \in \mHom_\mathbb{K}(V,W)\): \begin{align*} (f_1 + f_2)(v) &= f_1(v) + f_2(v) \quad\text{ist linear} \\ (\lambda f_1)(v) &= \lambda\cdot f_1(v)\quad\text{ist auch linear} \end{align*} \end{proof} Seien \(V, W\) endlichdimensional, \(B = \{b_1, \dots, b_n\}\) Basis in \(V\), \(C = \{c_1, \dots, c_m\}\) Basis in \(W\). Sei \(f \in \mHom_\mathbb{K}(V,W)\). Die Abbildungsmatrix \(F= M_C^B(f)\) in \(f\) bzgl. \(B\) und \(C\) ist definiert als Matrix, deren Spalten die Koordinatenspalten von \(f(b_1),\dots, f(b_n)\) bzgl. der Basis \(C\) sind: \begin{align*} f(b_j) = \sum_{i=1}^mF_{ij}c_i \implies F \in \mathbb{K}^{m\times n} \end{align*} \textbf{Vorsicht!} \(M_C^B(f)\) h"angt von der Wahl der Basen B und C ab (\(f\) jedoch nicht!). \begin{exa} Rotation um \(\frac{\pi}{4}\) gegen Urzeigersinn. \begin{align*} M_B^B(f) = \begin{pmatrix} \nicefrac{\sqrt{2}}{2} & -\nicefrac{\sqrt{2}}{2}\\ \nicefrac{\sqrt{2}}{2} & \nicefrac{\sqrt{2}}{2} \end{pmatrix} \end{align*} \end{exa} \begin{proposition} Seien \(V,W,B,C\) wie oben. Dann entsprechen die Abbildungsmatrizen \(F = M_C^B(f)\) den Abbildungen. Genauer: Die Abbildung \(M_C^B: \mHom_\mathbb{K}(V,W)\to\mathbb{K}^{m\times n}\), \(f \mapsto M_C^B(f)\) ist ein Isomorphismus von Vektorra"umen. \end{proposition} \begin{proof} Aus Definition von \(M_C^B(f)\) folgt sofort: \begin{align*} M^B_C(f_1 + f_2) &= M_C^B(f_1) + M_C^B(f_2)\\ M^B_C(\lambda\cdot f) &= \lambda\cdot M_C^B(f) \end{align*} Also ist \(M_C^B(f)\) eine lineare Abbildung. \(M_C^B\) ist injektiv: wenn \(f\) mit \(M^B_C(f) = 0\), dann gilt \(f(b_j) = 0\quad\forall j= 1,\dots n\); Da jeder Vektor \(v \in V\) eine Linearkombination von \(b_j\)s ist, folgt \(f(v) = 0 \quad\forall v \in V\) \(\implies\) der Kern ist null \(M^B_C\) ist auch surjektiv: sei \(F\in \mathbb{K}^{m\times n}\) gegeben. Definiere eine Abbildung \(f: V\to W\) folgenderma"sen: \begin{align*} f\left(\sum_{j=1}^n\lambda_jb_j\right) = \sum_{j=1}^n\lambda_j\cdot\left(\sum_{i=1}^mF_{ij}c_i\right)=\sum_{i=1}^mc_i\sum_{j=1}^nF_{ij}\lambda_j \end{align*} \(f\) ist linear und es gilt: \begin{align*} f(b_j) = \sum_{i=1}^mF_{ij}c_i \implies M^B_C(f) = F \end{align*} \end{proof} Im Beweis haben wir unter anderem festgestellt: \begin{relation} \begin{align*} f\left(\sum_{j=1}^n\lambda_jb_j\right)=\sum_{i=1}^mc_i\underbrace{\sum_{j=1}^nF_{ij}\lambda_j}_{\mu_i} \end{align*} Das hei"st: Wenn \(v=\sum_{j=1}^n\lambda_jb_j\in V\) mit Koordinatenspalte \(\lambda = (\lambda_1,\dots,\lambda_n)^\top\) (bez"uglich \(B\)), \(w = f(v)\), dann hat \(w\) folgende Koordinatenspalte bez"uglich \(C\): \begin{align} \mu = F\cdot \lambda \end{align} \end{relation} \begin{exa} Wenn \(V=K^n, W=K^M\) dann hat \(V\) eine Basis \(\mathcal{E}_n = (e_1, \dots, e_n)\), wobei \(e_i\) der Vektor ist, der an der \(i\)-ten Stelle 1 ist und sonst 0. Und \(W\) hat die Basis \(\mathcal{E}_m = (e_1, \dots, e_m)\). Sei \(A\in K^{m\times n }\), \(f_A: \mathbb{K}^n\to \mathbb{K}^m\), \(x \mapsto A\cdot x\). Dann gilt: \begin{align*} M^{\mathcal{E}_n}_{\mathcal{E}_m}(f_A) &= A\\ f_A(e_j) &= A\cdot e_j = j\text{-te Spalte von } A = a_j \end{align*} \end{exa} Seien \(V, W, Z\) drei \(\mathbb{K}\)-Vektorr"aume, \(f \in \mHom_\mathbb{K}(V, W)\), \(g \in \mHom_\mathbb{K}(W,Z)\). Dann gilt: \(g\circ f \in \mHom_\mathbb{K}(V,Z)\). \begin{proposition} Seien \(B,C,D\) Basen in \(V,W,Z\). Dann gilt: \(M^B_D(g\circ f) = M^C_D(g)\cdot M^B_C(f)\). \end{proposition} \begin{proof} Sei \(F = M^B_C(f)\), \(G = M^C_D(g)\). Dann: \begin{align*} (g\circ f)(b_j) &= g(f(b_j)) = g\left(\sum_{i=1}^m F_{ij}c_i\right) = \sum_{i=1}^mF_{ij}g(c_i) \\&= \sum_{i=1}^m F_{ij}\sum_{k=1}^lG_{ki}d_k = \sum_{k=1}^l\underbrace{\left(\sum_{i=1}^mG_{ki}F_{ij}\right)}_{M^B_D(g\circ f)}d_k \end{align*} \end{proof} Wenn \(V\) ein Vektorraum ist, \(B,B'\) zwei Basen, dann erhalten wir die Basiswechselmatrix \(S\), deren Spalten die Koordinaten von den neuen Basisvektoren \((b_1', \dots, b_n')\) bez"uglich der alten Basis \(B = (b_1, \dots, b_n)\) sind. Es folgt sofort aus den Definitionen: \(S=M^{B'}_B(\mId_V)\) \begin{lemma}[Basiswechselmatrizen sind invertierbar] \(S = M^{B'}_B(\mId_V)\) ist invertierbar f"ur je zwei Basen \(B, B' \subset V\), und \(S^{-1} = M^B_{B'}(\mId_V)\). \end{lemma} \begin{proof} \(M^B_B(\mId_V)=1_n\), daher ist \[\underbrace{M^{B'}_B(\mId_V)}_{S}\cdot M^B_{B'}(\mId_V) = M^B_B(\mId_V) = 1_n \] \end{proof} \subsubsection{Basen und Abbildungsmatrizen (Zusammenfassung)} \label{sec:baab} Jede Basis in V definiert eine Bijektion $\phi_B^{-1}V\rightarrow K^n, v\mapsto C$ \begin{relation} $\phi_B$ ist hierbei die Aufspannabbildung. \end{relation} \textbf{Warnung} Unsere Konvention f"ur die Basiswechselmatrix: ''von $B$ zu $B'$'' ist $M^{B'}_B$, also dr"uckt die meue Basis in der alten aus und ist nicht die einzige! \subsubsection{Physikerdefinition eines Vektors} \label{sec:phyv} Ein (kontravarianter) Vektor ist ein Objekt, welches durch ein n-Tuperl \(\lambda\) von Zahlen beschrieben wird, die sich Koordinatentransformationenen so verh"alt: Ist $S$ die Basiswechselmatrix der Koordinatentransformation, so gilt in den neuen koordinaten $\lambda'=S^{-1}\lambda$ \begin{notte} Diese Transformationsformel haben wir gesehen: ist $v\in V$ mit der Koordinatenspalte $\lambda$ bzgl. $B$ so gilt $\lambda=M^{B'}_{Basiswechselmatrix}\cdot \lambda ' $ \end{notte} \textbf{Lemma}(Verhalten von Abbildungsmatrizen unter Basiswechsel) Sei .. eine Lineare Abbildung, ..., dann gilt: \[ M^{B'}_{C'}(f)= \] In Anderen Worten: wenn $S$ die Basiswechselmatrix von ... so gilt \begin{proof} $M^{B'}_{C'}(f)=$ \end{proof} \begin{notte}[zur Basiswechselmatrix] $ M^{B'}_{B}$ ist die Basiswechselmatrix von $B$ zu $B'$: sie enth"alt die Koordinaten von Vektoren aus $B'$ bzgl. $B$. Wie verhalten sich die Kootdinaten von Vektoren bzgl. $B$ und $B'$ Antwort: $\lambda = S^{-1}\lambda$. \end{notte} \begin{exa} $V=R^{2}$ \end{exa} \begin{proposition}[Rangform einer linearen Abbildung] Sei ... eine Lineare Abbildung und $V,W$ endlichdimensional. Dann existieren Basen ... , so dass ... \end{proposition} \begin{korollar} F"ur jede Matrix ... gibt es invertierbare Matrizen ... , so dass \end{korollar} \begin{proof} Sei ... w"ahle eine Basis ... im $\text{Ker}(f)$ und erweitere sie zu einer Basis ... in Basis. Setze: ... Beim Beweis der Dimensionsformal haben wir gesehen ... . Erweitere jetzt ... zu einer Basis ... in $W$. Es gilt. \end{proof} \subsubsection{Konsequenzen f"ur Matrizen} \label{sec:konsma} Sei ... $Rg(A)=Rg(f_A))=dim$ ... \begin{korollar}[Kriterien f"ur Invertierbarkeit] Sei ... Folgende bedingungen sin ... : \begin{enumerate} \item Wenn ..., dann ist $f$ ein Isomorphismus \item A ist invertierbar. \item $A^T$ ist Invertierbar \item $\exists B\in K^n$ mit (Ist ''Rechtsinvertierbar'') \item ... (Ist ''Linksinvertierbar'') \item ... A hat vollen Rang \item Kern ist die leere Menge \item Das LGS $A\cdot x = 0$ hat nur die triviale L"osung $x=0$ \item Das LGS $A\cdot x = n$ hat f"ur jedes $b\in $ genau eine L"osung \item A ist darstellbar als das Produkt von Elementarmatrizen \end{enumerate} Ausserdem gilt: wenn ... wie in ..., so ist ... \end{korollar} Aus dem Satz ergibt sich folgendes Verfahren zur Berechnung von $A^{-1}$: ... Das stimmt denn: dieses Verfahren l"ost gleichzeitig die LGS ... \begin{lemma}[Injektivit"at und Surjektivit"at bei Verkn"upfungen] Seien $X,Y,Z$ Mengen, ... Dann gilt: \end{lemma} \begin{proof}[Beweisschema] \begin{enumerate} \item (0) $ \iff $ (1) \item (1) $ \iff $ (2): $B:=A^{-1}$ \item (1) $ \iff $ (3): $C:=A^{-1}$ \end{enumerate} \end{proof} \begin{proof}[des Satzes] \begin{itemize} \item[(0) $\implies$ (1)] $A=M^{\varepsilon}_{\varepsilon}(f_A)$, woberi $f_A:$ \item[(1) $\implies$ (0)] Sei $A$ invertierbar, $A=$ Betrachten wir die Abbildung $g$ mit ..., es gilt: \item[(1) $\iff$ ($1^T$)] ... \item[(4) $ \iff $ (5) $ \iff $ (6)] nach dem Lemma \item[(7) $ \iff $ (5)] \item[(8) $ \iff $ ((5) $ \iff $ (6))] \item[(2) $ \implies $ (6)] Wenn $A\cdot B=1_n$, dann muss nach dem Lemmma die Abbildung $x\mapsto A\cdot x$ surjektiv sein $\implies$ (6) \item[(3) $ \implies $ (5)] $C\cdot A = 1_n$ \item[(9) $ \implies $ (1)] Elementarmatrizen sind invertierbar, und wenn... \item[(7) m (9)] L"osen wir das LGS $A\cdot x = 0$ durch Zeilenumformungen (Gauss-Jordan): also machen wir Zeilenumformungen. Wir haben keine freien Variablen, denn wir haben nur eine L"osung $\implies$ $A$ wird zur $1_n$ durch Zeilenumformungen transformiert. Wenn wir den Prozess invertieren, so transformieren wir $1_n$ zu $A$ durch Zeilenumformungen. \\ Jede Zeilenumformung entspricht der Multiplikation mit einer Elementarmatrix von links: \[A=T_1 \cdot \dots \cdot 1_n = T_1 \cdot \cdots \cdot T_e\] Nun wenn $A\cdot B = 1_n$ wie in (2) $\implies$, \\ Wenn wir ... \\ Analog \end{itemize} \end{proof} \subsubsection{Determinanten} \label{sec:det} Motivation: Wir haben viele Kriterien f"ur invertierbarkeit, aber bislang kein Kriterium, welches effizient berechenbar w"ahre. Ausserdem fehlt uns zur Zeit eine geometrische Interpretation f"ur invertierbarkeit. \begin{relation} \begin{trivlist} \item Wir haben gesehen: $A\in K^{n\times n}$ ist genau dann invertierbar, wenn ihre Spalten (Zeilen) linear unabh"angig sind. \item Wenn $A\in \mathbb{K}^{2\times 2}$, dann sind ihre Spalten linear unabh"angig genau dann, wenn die entsprechenden Vektoren $a_1, a_2 \in \mathbb{R}^2$ ein ''nicht ausgeartetes'' Parallelogramm aufspannen. \\ \item Analog sind $a_1, a_2, a_3$ linear unabh"angig in $\mathbb{R}^3$. \end{trivlist} \end{relation} Wenn wir diese Ideen in einen ''abstrakten'' Vektorraum uebertragen wollen, m"ussen wir also Volumen invertieren, indem wir nur die Struktur des Vektorraums benutzen.\\ Welche Eigenschaften hat das Volumen bzgl. der Vektorraumstruktur in $\mathbb{R}^2$ bzw. $\mathbb{R}^3$? \begin{itemize} \item $\mVol(a_1,a_2)=\mVol(a_1, a_2 + \lambda \cdot a_1)\; \forall \lambda \in \mathbb{R}$ \item $\mVol(a_1,a_1)=0$ \item Bei Streckungen von einem Vektore multipliziert das Volumen mit dem entsprechenden Faktor. \begin{align*} Vol(\lambda\cdot a_1, a_2)=\lambda\cdot \mVol(a_1,a_2) \tag{$\lambda \geq 0$} \end{align*} \end{itemize} \begin{definition}{Volumenform} Eine \textbf{Volumenform} $\omega$ auf $V$ ist eine Abbildung ... mit folgenden Eigenschaften: \begin{enumerate} \item $\omega$ ist linear in jeder Variable: ... \item $\omega$ ist alternierend: ... \end{enumerate} \end{definition} \begin{notte}[zu (2)] ... \end{notte} \begin{proof}[zur Bemerkung] Wir lassen die Variablen ausser ... fest und rechnen. \end{proof} \begin{notte} Genau wie bei Volumina von Quadern in $\mathbb{R}^3$ die Wahl einer Masseinheit das Volumen eindeutig. \end{notte} \begin{lemma} Sei $\omega: V^n\mapsto K$ eine Volumenform und sei $B=(b_1m, ... , b_n)$ eine Basis in $V$. Der Wert .... .. \end{lemma} \begin{proof}[des Lemmas] Stelle $v_i=\sum{\lambda_{ij}b_j}$ dar ($B$ ist ja eine Basis) und benutze Linearit"at von $\omega$. \begin{align*} w(v_1, ..., v_n)=\text{Summe von Termen der Form } (...) \end{align*} Es ueberleben nur Terme, wo $b_{j1},...,b_{ji}$ in anderer Reihenfolge sind $\implies$ dann ist ... $\implies$ ... Summe von Termen der Form \end{proof} \begin{proposition} Sei ... eine Volumenform auf V. Dann gilt: \begin{enumerate} \item $\omega(v_1,...,v_n)$ ... \item Sind ... linear unabh"angig, so gilt \end{enumerate} \end{proposition} \begin{proof} \begin{enumerate} \item Linearit"at: \item Sind ... linear abh"angig, dann ist ein $V_J=\sum$ \end{enumerate} \end{proof} Wir wollen die Abh"angigkeit aus dem lemma explizit aufschreiben \subsubsection{Permutationen} \label{sec:perm} \begin{definition}{Permutationen}{} Sei $X$ eine Menge. Eine Bijektion $\sigma: X \to X$ heißt Permutation von X. \newline Für \(X = \{1,...,n\}\) heißt die Menge aller Permutationen \(\sigma: \{1,...,n\}\to\{1,...,n\}\) die symmetrische Gruppe auf n Elementen. Notation: \(S_n = \{ \sigma: \{1,...,n\}\to\{1,...,n\}|\sigma\text{ bijektiv}\}\) \end{definition} \begin{exa} Ein Elelement \(\sigma \in S_n\) schreibt man h"aufig als Tabelle: \(\left(\begin{array}{cccc} 1 & 2 & ... & n\\ \sigma(1) & \sigma(2) & ... & \sigma(n)\\ \end{array}\right)\) \end{exa} \begin{notte} $\tau\circ\sigma \not= \sigma\circ\tau$ \end{notte} Da Verknüpfungen von Bijektionen bijektiv sind, definiert die Verknüpfung eine Abbildung \(\circ: S_n \times S_n \to S_n \) (Multiplikation von Permutationen). Permutationen kann man auch invertieren: \(\sigma \in S_n \implies \sigma^{-1} \in S_n \) \begin{definition}{Halbysystem}{} Sei \(P=\{(i,j) \in \{1,...,n\}^2\mid i\neq j \} \) Ein Halbsystem \(H \subseteq P \) ist eine Teilmenge mit der Eigenschaft: Von den Paaren \((i,j) \) und \((j,i) \) ist immer genau eines in P enthalten. Formal: \(\forall (i,j) \in P: ((i,j) \in H \land (j,i) \notin H) \lor ((j,i) \in H \land (i,j) \notin H )\) \end{definition} \begin{exa} Für \(n=3 \) ist \(\{(1,2), (1,3), (2,3)\} \) ein Halbsystem. \end{exa} \begin{definition}{Vorzeichen}{} Sei \(\sigma \in S_n. \quad \varepsilon(\sigma):= \prod\limits_{(i,j)\in H} \frac{\sigma(i)-\sigma(j)}{i-j} \) heißt Vorzeichen von \(\sigma \). \end{definition} \(\varepsilon(\sigma) \) ist unabhängig von der Wahl von H, denn: Wenn \(H^\prime \) ein anderes Halbsystem ist, muss ggf. \((j,i) \) statt \((i,j) \) genommen werden, aber \(\frac{\sigma(j)-\sigma(i)}{j-i} = \frac{\sigma(i)-\sigma(j)}{i-j} \). Das heißt, wir können uns einfach ein Halbsystem aussuchen: \(\varepsilon(\sigma) = \prod\limits_{i\sigma(j)}} (-1)\]\[ = \text{Minus eins hoch Anzahl der „Reihenfolgenverstöße“ von }\sigma\] \begin{definition} Die Permutationen ... heissen gerade ... ungerade. Sei $i\not=j$ ... Die Transposition von ... ist die Permutation: .. (Vertauscht $i$ und $j$, alle andere bleibt gleicht) \end{definition} \begin{proposition}[das Vorzeichen ist multiplikativ] $\varepsilon(\sigma\circ \tau)= \varepsilon (\sigma) \cdot \varepsilon (\tau)$ \end{proposition} \begin{relation} Sei $\tau_{ij}$ eine Transposition: $\varepsilon(\tau_{ij})=-1$. \end{relation} \begin{proposition} Wenn ... ein Produkt von $n$ Transpositionen, dann gilt: ... \end{proposition} \begin{notte} Jede Permutation ist als Produkt von Transpositionen darstellbar ("Ubung) \end{notte} Sei \(V\) ein Vektorraum, \(b_1, ..., b_n\) eine Basis, \(v_1, ..., v_n \in V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\). \todo{Das stand so nicht an der Tafel, aber \((-1)^\varepsilon\) kam mir spanisch vor} \begin{align*} \omega(v_1,\dots,v_n) &= \omega\left(\sum_{j_1=1}^n\lambda_{1,j_1}b_{j_1},\dots,\sum_{j_n=1}^n\lambda_{n,j_n}b_{j_n}\right) \\ &= \sum_{j_1,\dots,j_n=1}^n\left(\underbrace{\lambda_{1,j_1}\dots\lambda_{n,j_n}}_{\text{Produkt}}\cdot\omega(b_{j_1},\dots,b_{j_n})\right) \\ &= \sum_{\sigma\in S_n}\left(\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)}\omega(b_{\sigma(1)},\dots,b_{\sigma(n)})\right) \\ &= \left(\sum_{\sigma\in S_n}{\varepsilon(\sigma)}\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)}\right)\omega(b_1,\dots,b_n) \end{align*} Wenn \(V=K^n, (b_1,\dots,b_n) = (e_1,\dots,e_n)\) die Standardbasis in \(K^n\), und die Volumenform \(\omega: V^n\to K\) so gew"ahlt ist, dass \(\omega(e_1,...,e_n)=1\), dann bekommt man folgende Definition f"ur eine Matrix \(A\): \begin{definition} Sei \(A\in K^{n\times n}\) eine Matrix mit Eintr"agen \(a_{ij}\). Wenn man die Zeilen von \(A\) (sagen wir \(\alpha_1,\dots, \alpha_n\)) als Vektoren in \(K^n\) auffast, dann gilt: \[\omega(\alpha_1,\dots,\alpha_n) = \sum_{\sigma\in S_n}{\varepsilon(\sigma)a_{1,\sigma(1)}\dots a_{n,\sigma(n)}} =: \det A \] Das nennen wir ab jetzt auch Leibniz-Formel. \end{definition} \begin{relation} Geometrische Bedeutung: \(\det A\) ist das (orientierte) Volumen des Quaders / Parallelotops aufgespannt durch Zeilen von \(A\) (wenn man das Volumen des \gq{Standardquaders} aufgespannt durch Standardzeilen \(e_1^T,\dots,e_n^T\) gleich 1 setzt) \end{relation} \begin{proposition} Sei \(V\) ein \(n\)-dimensionaler Vektorraum. Es gibt eine bis auf ein Vielfaches eindeutige Volumenform \(\omega \neq 0\) auf \(V\). \end{proposition} \begin{proof} W"ahle eine Basis \(B= (b_1,\dots,b_n) \in V\), definiere \(\omega(v_1,\dots,v_n)\) durch die Leibniz-Formel mit \(\omega(b_1,\dots,b_n):=1\). Dann ist \(\omega\neq 0\) nach Konstruktion. \(\omega\) ist linear in jeder Variable, weil \(\det\Delta \) definiert durch die Leibniz-Formel linear in jeder Zeile der Matrix \(\Delta\) ist. Wir m"ussen noch zeigen, dass es alternierend ist: \[\omega(v_1,\dots,v_{i-1},v_i,v_{i+1},\dots,v_{j-1},v_j,v_{j_1},\dots,v_n) = \det\Delta \cdot\omega(b_1,\dots,b_n) \] Wobei die \(i\)-te und \(j\)-te Zeile von \(\Delta\) "ubereinstimmen (es gilt also \(\lambda_{i,x}=\lambda_{j,x}\)). Es gilt: \begin{align*} \det\Delta &= \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)} \\ &= \sum_{\sigma = \sigma'\circ\tau_{ij}\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{i,\sigma(i)}\dots\lambda_{j,\sigma(j)}\dots\lambda_{n,\sigma(n)} \\ &= \sum_{\sigma\in S_n}\varepsilon(\sigma'\circ\tau_{ij})\cdot\lambda_{1,\sigma'(1)}\dots\overbrace{\lambda_{i,\sigma'(j)}}^{=\lambda_{i,\sigma(i)}}\dots\overbrace{\lambda_{j,\sigma'(i)}}^{=\lambda_{j,\sigma(j)}}\dots \lambda_{n,\sigma'(n)} \\ &= \mcolor{-} \sum_{\sigma'\in S_n} \mcolor{\varepsilon(\sigma')} \lambda_{1,\sigma'(1)}\dots\lambda_{i,\sigma'(i)}\dots\lambda_{j,\sigma'(j)}\dots\lambda_{n,\sigma'(n)} = -\det A \\ &\implies \det A = 0 \end{align*} \(\implies\omega \) alternierend. \end{proof} \(\omega\) ist eindeutig durch den Wert (=1) auf \(B\) bestimmt \(\implies\) wenn \(\omega'\) eine Volumenform auf \(V\) ist, so gilt \(\omega' = \underbrace{\omega'(b_1,\dots,b_n)}_{\in K}\cdot\omega\) \begin{definition}{Determinante} Sei \(V\) ein \(n\)-dimensionaler Vektorraum, \(f: V\to V\) linear. Die Determinante von \(f\) ist \[\det(f):= \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)}\] wobei \(\omega \neq 0\) eine Volumenform auf \(V\) ist. \end{definition} \begin{beobachtung} Die obige Proposition zeigt, dass \(\det(f)\) wohldefiniert ist (= auf die Wahl von \(\omega\neq 0\) nicht ankommt). Geometrisch: \(\det(f)\) ist der Verzerrungsfaktor von dem Volumen (unter \(f\)). \end{beobachtung} \begin{lemma} \(\det\Delta = \det\Delta^T\quad\forall \Delta\in K^{n\times n}\) \end{lemma} \begin{proof} Es gilt: \(\varepsilon(\sigma) = \varepsilon(\sigma^{-1})\quad\forall \sigma\in S_n \) (folgt z.B. aus \(\varepsilon(\sigma\circ\sigma^{-1})=1=\varepsilon(\sigma)\varepsilon(\sigma^{-1})\)) \begin{align*} \det\Delta^T = \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{\sigma(1),1}\dots\lambda_{\sigma(n),n} = \sum_{\sigma^{-1}\in S_n}\varepsilon(\sigma^{-1})\lambda_{1,\sigma^{-1}(1)}\dots\lambda_{n,\sigma^{-1}(n)} = \det \Delta \end{align*} \end{proof} \begin{proposition} \begin{enumerate} \item \(f, g: V\to V \) linear \(\implies\det(g\circ f) = \det(g)\det(f) \) \item \(f\) ist genau dann invertierbar, wenn \(\det(f)\neq 0 \) \end{enumerate} \end{proposition} \begin{korollar} Sei \(B\) eine Basis in \(V\), \(f:V\to V \) linear. Dann gilt: \(\det(f) = \det M^B_B(f) \) \end{korollar} \begin{proof} \begin{align*} \det(f) = \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)} \stackrel{Def. Abb. + Leibniz}{=} \det M^B_B(f)^T \stackrel{Lemma}{=} \det M_B^B(f) \end{align*} \end{proof} \begin{korollar} Eine Matrix \(A\in K^{n\times n} \) ist genau dann invertierbar, wenn \(\det A \neq 0 \) \end{korollar} \begin{bem} Es gibt eine Reihe von Begriffen f"ur Matrizen, die nach unseren Invertierbarkeitskriterien alle "aquivalent dazu sind, dass \(A \) invertierbar ist, z.B. nicht ausgeartet, regul"ar etc. \end{bem} \begin{korollar} Wie berechnet man Determinanten? Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnungen macht man normalerweise unter Benutzung folgender Eigenschaften der Determinante (die daraus folgen, dass \(\det : (K^n)^n \to K\) eine Volumenform ist): \begin{itemize} \item Wenn man zu einer Zeile / Spalte der Matrix ein Vielfaches einer anderen Zeile bzw. Spalte addiert, so "andert sich die Determinante nicht; \item \(\det \) ist linear in jeder Zeile bzw. Spalte. \end{itemize} \end{korollar} \begin{bem} F"ur \(\varepsilon(\sigma)\), das Vorzeichen einer Permutation, gibt's auch die Physiker-Notation: \(\varepsilon_{1,\dots,n}=1\) und es ver"andert das Vorzeichen, wenn man zwei Indizes vertauscht. \end{bem} \begin{bem}[Orientierung von Vektorr"aumen] Volumenformen sind laut unserer Definition linear \(\implies\) selbst wenn \(V\) ein \(\mathbb{R}\)-Vektorraum ist, kann es passieren, dass \(\omega(v_1,\dots,v_n)< 0\). Die Wahl von einer Volumenform \(\omega\) definiert die sogenannte \emph{Orientierung} von \(V\) (\(V\) ein \(mathbb{R}\)-VR). Wenn wir \(\omega\) fixieren, dann entstehen zwei Klassen von Basen in \(V\): \(B = (b_1,\dots,b_n)\) hei"st positiv (negativ) orientiert, wenn \(\omega(b_1,\dots,b_n) > (<) 0\). In diesem Sinne ist \(\omega(v_1,\dots,v_n)\) das \emph{orientierte} Volumen von dem Quader aufgespannt durch \(v_1,\dots,v_n\): wenn \(v_1,\dots,v_n\) positiv orientiert sind, ist \(\omega(v_1,\dots,v_n) = \) \(+\)Volumen, andernfalls \(-\)Volumen. \end{bem} \subsubsection{Eigenvektoren, Eigenwerte, Diagonalisierbarkeit} Wir haben gesehen: wenn \(f: V\to W\) linear, \(V, W\) endlichdimensionale Vektorr"aume \(\implies \exists B\subset V, C\subset W \) Basen so dass \[M^B_C(f) = \begin{pmatrix} 1_r & 0\\ 0 & 0 \end{pmatrix}, r = \mRg f\] \begin{definition} Ein Endomorphismus von \(V\) ist eine lineare Abbildung \(f: V\to V\). Bezeichnung: \(f\in \text{End}_K(V) = \text{Hom}_K(V,V) \) Endomorphismus hei"sen auch lineare Operatoren auf \(V\). Die Wahl einer Basis \(B\subset V \) gibt uns eine Matrix \(M^B_B(f)\). \end{definition} \begin{korollar}[Hauptfrage] Wenn \(f\) gegeben ist, wie findet man eine Basis \(B\), so dass \(M^B_B(f)\) eine besonders einfache Form hat? "Aquivalent, in Termen von Matrizen: Gegeben eine Matrix \(A\in K^{n\times n} \), finde eine invertierbare Matrix \(S\) so dass \(S^{-1}AS\) besonders einfache Form hat. \end{korollar} \subsection{Schlagworte:} \label{sec:orgcf8c685} \begin{itemize} \item \(A\cdot B\) Zeilen von \(A\) mal Spalten von \(B\) \item LGS L"osungen als Vektor! \begin{itemize} \item Keine nicht offensichtlich Schritte ueberspringen! \item Paramatervektor und sine Elemente genau definieren! \end{itemize} \item Transposition vertauscht faktoren. \item k-te Spalte \((A)_k\) \end{itemize} \end{document}