53 KiB
Lineare Algebra (f"ur Physiker) I
Mengenlehre
In der modernen Mathematik fasst man Strukturen (R"aume, Fl"achen, Zahlensysteme) als Mengen und Abbildungen auf.
Eine Zusammenfassung von Objekten die Elemente der heissen. Eine Menge ist also eindeutig dadurch bestimmt, welche Elemente sie enth"alt.
-
$M=\{m_1,m_2,m_3,...\}$ - Aufzeahlung
- $\{...\}$ - Mengenklammern
-
$M=\{x| P(x)\}$ - Eigenschaft
- Alle $x$ mit der Eigenschaft $P(x)$
- $n=\{\text{Nat"urliche Zahlen}\} =(add-hook 'La(add-hook 'LaTeX-mode-hook 'LaTeX-math-mode)TeX-mode-hook 'LaTeX-math-mode) \{0,1,2,...\}$
- $E=\{x|\text{x hat die Eigenschaft } P(x)\}$
Wichtige Mengen
- $\mathbb{N}=\{\text{nat"urliche Zahlen}\} = \{1,2,...\}$
- $\mathbb{Z}=\{\text{ganze Zahlen}\} = \{...,-2,-1,0,1,2,...\}$
- $Q=\{\text{Rationale Zahlen}\}=\left\{\left.\displaystyle\frac{p}{q}\;\right\vert\begin{array}{c}p \in \mathbb{Z} \\ q \in N \setminus \{0\}\end{array}\right\}$
- $\mathbb{R}=\{\text{reelle Zahlen}\}$
Beziehungen zwischen Mengen
Seien $A,B$ zwei Mengen.
- $A$ heisst Teilmenge von B, wenn f"ur jedes Element $a\in A$ gilt: $a\in B$.
- Es sei die Menge $C = \{a|a\in A \text{ und } b\in B\}$, so heisst $C$ Durchschnitt von $A$ und $B$.
- Es sei die Menge $C = \{a|a\in A \text{ oder } b\in B\}$, so heisst $C$ Vereinigung von $A$ u(add-hook 'c++-mode-hook 'clang-format-bindings)nd $B$.
- $\in$ ``Element von'': $x\in X$ - ''x ist Element von X''
- $\subseteq$ Teilmenge: $A\subseteq B$ - ''A ist eine Teilmenge von B''
- $\cap$ Durchschnitt: $A\cap B = \{a|a\in A \text{ und } b\in B\}$
- $\cup$ Vereinigung $A\cup B = \{a|a\in A \text{ oder } b\in B\}$
- $\varnothing$ - Leere Menge
- $A\setminus B$ - Mengendifferenz
-
$A\times B$ - Direktes Produkt
- $(a,b)$ - geordentes Paar mit dem ersten Element $a$ und dem zweiten Element $b$.
$N\subseteq \mathbb{Z}$, aber $Q \not\subset \mathbb{Z}$: $\frac{1}{2} \not\in \mathbb{Z}$
F"ur $A = \{1,2,3,4,5\}$ und $B = \{2,3,10\}$:
- $A\cap B = \{2,3\}$
- $A\cup B = \{1,2,3,5,10\}$
Die leere Menge $\varnothing$ ist die (eindeutig bestimmte) Menge, die kein Element enth"alt.
$\{\pi\} \cap Q = \varnothing$
Die Differenz zweier Mengen $A, B$ wird definiert als $A\setminus B = \{a\in A | a\not\in B\}$ (Elemente aus $A$, die nicht in $B$ liegen).
Wenn $A,B$ zwei Mengen sind dann ist die Menge der Paare $(a,b)$ und $a\in A, b\in B$ das direkte (kartesische) Produkt von $A$ und $B$ ($A\times B$).
Analog gilt: $A_1\times A_2\times ... \times A_n = \{(a_1,...,a_n)| a_1\in A_1,...,a_n\in A_n\}$
$\mathbb{R}^n=\mathbb{R}\times ... \times \mathbb{R} = \{(x_1,...,x_n)| x_1\in \mathbb{R},...,x_n\in \mathbb{R}\}$
Geometrie $m$ der Ebene mit Koordinaten $=$ Untersuchung von Konstruktionen in $\mathbb{R}^2=\mathbb{R}\cdot\mathbb{R}$.
Seien $A,M$ Mengen und $A\subseteq B$ so ist $A^c = M\setminus A$ und heisst Komplement"armenge zu $M$.
Seien $A,B,M$ Mengen und $A\subseteq M$ und $B\subseteq M$, so gilt:
- $(A\cup B)^c = A^c \cap B^c$
- $(A\cap B)^c = A^c \cup B^c$
- $(A^c)^c = A$
- $A\cup A^c = M$
Es gelten auch alle Identit"aten f"ur Mengen.
Abbildungen zwischen Mengen
Seien $X,Y$ Mengen. Eine Abbildung $f$ von $X$ nach $Y$ (Bez: $f:X\rightarrow Y$) ist eine Vorschrift, die jedem Element $x\in X$ ein Element von $y\in Y$ Zuordnet.
Man schreibt: $x\mapsto f(x)$ - ''x wird auf $f(x)$ abgebildet'' = ''dem $x\in X$ wird ein $f(x)\in Y$ zugeordnet.''
- $f(t)=t^2+1$ definiert eine Abbildung $f: \mathbb{R}\mapsto \mathbb{R}, t\mapsto f(t)=t^2+1$
- $g(t)= \frac{t^2+1}{t-1}$ definiert eine Abbildung $g: \mathbb{R}\setminus\{ 1\}\mapsto \mathbb{R}, t\mapsto \frac{t^2+1}{t-1}$
- $h: S=\{\text{Teilnehmer der Vorlesung}\}\mapsto N, s\mapsto Geburtsjahr(s)$
Spezielle Abbildungen
- F"ur jede Menge $X$ ist die Indentit"atsabbildung auf $X$ definiert durch $Id_x:X\mapsto X, x\mapsto x$.
- Gegeben seien Mengen $A,B$. Die Abbildung $\pi_A: A\times B \mapsto A, (a,b) \mapsto a$ heisst Projektionsabbildung von $A\times B$ auf $A$.
- Seien $X,Y$ Mengen, sei $y_0 \in Y$. Dann heisst die Abbildung $f: X\mapsto Y, x\mapsto y_0$ eine konstante Abbildung (mit dem wert $y_0$).
- Identit"atsabbildung: $f(x)=x$
- konstante Abbildung: $f(x)=1$
- Projektionsabbildung: $f(x,y)=x$
Bild und Urbild
Sei $f: X\mapsto Y$ eine Abbildung.
- Sei $A\subseteq X$. Dann heisst $f(A):=\{f(a)|a\in A\}$ das Bild von A.
- Sei $B\subseteq Y$. Dann heisst $f^{-1}(B):=\{a\in A|f(a)\in B\}$ das Urbild von $B$.
Das Bild und das Urbild f"ur eine Menge einer Funktion ist wieder eine Menge.
$f^{-1}$ ist keine Abbildung, sonder nur ein formales Symbol!
Einige Eigenschaften von Funktionen
Seien $X,Y$ Mengen, $f: X\mapsto Y$ eine Abbildung. $f$ heist:
-
Injektiv, wenn f"ur $x\in X\not = x' \in X$ gilt: $f(x) \not = f(x')$
- Keine Verklebung von Punkten!
-
Surjektiv, wenn f"ur $y\in Y$ ein $x\in X$ existiert mit $f(x)=y$.
- Keine Abbildung auf eine echte Teilmenge von $Y$!
- Bijektiv, wenn $f$ injektiv und surjektiv ist.
-
$f: \mathbb{R} \implies \mathbb{R}, t\mapsto t^2$
- ist nicht injektiv:
$-1\mapsto 1$
- ist nicht surjektiv: f"ur $-1\in \mathbb{R}$ gibt es kein $t\in\mathbb{R}$ mit $t^2=-1$
-
$g: \mathbb{N}\mapsto\mathbb{Z}, n\mapsto-n$
- ist injektiv: $m\ne n\implies g(m)=-m \ne -n = g(n)$
- ist nicht surjektiv: f"ur $1\in \mathbb{Z}$ gibt es kein $n\in \mathbb{N}$ mit $-n=1$
- $h: \mathbb{R}\mapsto\mathbb{R},t\mapsto t^3$ ist Bijektiv ("Ubung)
Inverse Abbildung zu einer bijektiven Abbildung
Sei $f:X\mapsto Y$ bijektiv. Sei $y\in Y$. Definiere eine Abbildung $f^{-1}: Y\mapsto X$ so: $f^{-1}(y)=x$ mit der Eigenschaft $f(x)=y$.
Dies ist wohldefiniert (diese Vorschrift definiert tats"achlich eine Abbildung) weil:
- Das x mit der gew"unschten Eigenschaft existiert f"ur jedes $y\in Y$, weil $f$ surjectiv ist.
- F"ur jedes $y\in Y$ existiert h"ochstens ein $x\in X$ mit der gew"unschten Eigenschaft, weil $f$ injektiv ist.
Wenn die Abbildung $f$ bijektiv ist, hat $f^{-1}(A)$ f"ur ein $A\subseteq Y$ a priori zwei Bedeutungen:
- Urbild von $A$ unter f
- Bild von $A$ von $f^{-1}$
Wenn $f$ bijektiv ist, stimmen aber diese Mengen "uberein. (Bew. "Ubung)
Aber: Wenn $f$ nicht bijektiv ist, hat $f^{-1}$ nur einen Sinn: Urbild!
Verkn"upfung von Abbildungen
$f: X\mapsto Y, g: Y\mapsto Z$ ist die verkn"upfung $g\circ: X\mapsto Z$ definiert als $g\circ f(x)=g(f(x))$. Diagramme Siehe V2_1.
Die Verkn"upfung hat folgende Eigenschaften:
- Sie ist Assoziativ: $h\circ (g\circ f) = (h \circ g) \circ f$ f"ur alle Abb. $f: X\mapsto Y, g:Y\mapsto Z$, $h:Z\mapsto V$
- F"ur jede abbildung $f: X\mapsto Y$ gilt: $f\circ id_X=id_Y\circ f = f$.
-
Wenn $f:X\mapsto Y$ bijektiv ist, dann gilt: $f\circ f^{-1}=id_Y$:
- $f^{-1}\circ f=id_X$ weil: $f(f^{-1}(y))=y$:
- $f^{-1}(f(x))=x'$ mit $f(x')=f(x)\implies x=x'$ wenn Bijektiv
Kommutative Diagramme
Siehe V2_2:
- Dieses Diagramm heist kommutativ, wenn $h=g\circ f$.
- kommutativ wenn $g\circ f=h\circ k$
Eingeschr"ankte Abbildungen
Sei $f: X\mapsto Y$ eine Abbildung.
Die Einschr"ankung von $f$ auf eine Teilmenge $A\subseteq X$ ist die Abbildung:
$f|_A:\begin{matrix}A\mapsto Y\\ a\mapsto f(a)\end{matrix}$
$f: \mathbb{R}\mapsto \mathbb{R}, t\mapsto t^{2}$ ist nicht injektiv, $f|_{[0, \infty)}$ ist injektiv.
Quantoren
- f"ur alle $x$ in $X$ - $\forall x \in X$
- es existiert $x \in X$ - $\exists x \in X$
$f:X\mapsto Y$ ist surjektiv, wenn $\forall y \in Y \exists x\in X$ mit $f(x)=y$.
F"ur die Negation der Quantoren gilt:
- $\neg(\forall x\in X : A(x)) = \exists x\in X : \neq A(x)$
- $\neg(\exists x\in X : A(x)) = \forallx\in X : \neq A(x)$
$f: X\mapsto Y$ ist surjektiv $\iff \forall y\in Y \exists x\in X : f(x)=y$.
Also: $f: X\mapsto Y$ ist nicht surjektiv $\iff \exists y\in Y \forall x\in X : f(x)\not=y$.
Schlagworte
- Venn Diagram - Kreise und Schnittmengen
-
Zeigen von "Aquivalenz zweier Zusammengeseten Mengen:
- Wahrheitstafel
- Zur"uckf"uhren auf Aussagenlogik
-
Zeigen das $p,q,r$ "aquivalent sind:
- $p\implies q \implies r \implies q$
-
Injektivit"at zeigen:
- nicht I. wenn Gegenbeispiel existiert
- Zeigen das Funktion streng monoton steigt.
-
Surjektivit"at zeigen:
- nicht S. wenn Gegenbeispiel existiert
- Zeigen das Funktion streng monoton steigt und gegen $+-\infty$ strebt.
- $A\setminus (A\setminus B) = A \cap B$
-
Beweise mit Abbildungen $M$ sei Menge, $f$ sei Abbildung:
- $y \in f(M) \implies \exists x \in M : f(x)=y$
Logik und Beweisf"uhrung
Mathematik operiert mit Aussagen.
Eine Aussage ist eine Behauptung, die Wahr oder Falsch sein kann.
- 1
- wahr
- 0
- falsche
$A,B$ seien Aussagen, dann kann man folgende Aussagen betrachten:
- ''nicht $A$'': $\neg A$
$A$ | 0 | 1 |
---|---|---|
$\neg A$ | 1 | 0 |
- Vernk"upfungen
$A$ | $B$ | $\neg A$ | $A\wedge B$ | $A \vee B$ | $A\implies B$ |
---|---|---|---|---|---|
0 | 0 | 1 | 0 | 0 | 1 |
0 | 1 | 1 | 0 | 1 | 1 |
1 | 0 | 0 | 0 | 1 | 0 |
1 | 1 | 0 | 1 | 1 | 1 |
- ''A "aquivalent zu B'': $A\iff B$
$A$ | $B$ | $\iff A$ |
---|---|---|
0 | 0 | 1 |
0 | 1 | 0 |
1 | 0 | 0 |
1 | 1 | 1 |
F"ur ein Element $x\in X$ k"onnen wir Aussagen betrachten:
- $A(x)=x\in A$
- $B(x)=x\in B$
$A(x)\wedge B(x)=x\in (A\cap B)$
Identit"aten der Aussagenlogik
-
Direkter Beweis
- $(A\implies B) = (\neg A)\vee B$
- Vorraussetzung $\rightarrow$ logische Aussage $\rightarrow$ Behauptung
-
Beweis in Schritten
- $((A\implies B)\wedge (B\implies C))\implies (A\implies C)$
→ Konstant $=1$ (Tautologie)
- $((A\implies B)\wedge (B\implies C))\implies (A\implies C)$
-
Beweis durch Kontraposition
- $(A\implies B) \iff (\neg B \implies \neg A)$ - Tautologie
Widerspruchsbeweis
Wenn wir die Konsequenz aus der Negation der zu beweisenden Aussage und die Pr"amisse zu einem widerspruch f"uhren so ist die Aussage bewiesen, denn:
\[(A\wedge \neg A)=0\]
Wir wollen $A\implies B$ zeigen. Nehmen an $\neg B$ und leiten her:\\
$(\neg B \wedge A)\implies 0$, also $\neg B\wedge A = 0$, und daher $A\implies B$.
Es gibt unendlich viele Primzahlen.
- Nehmen wie an, es gibt nur endlich viele Primzahlen. $p_1, ..., p_n$.
- Betrachte $n=p_1\cdot p_2\cdot ... \cdot p_n + 1$. $n$ geteilt durch jede von den Primzahlen $p_1, ..., p_n$ gibt Rest $1$.
- Also ist $n$ eine Primzahl, aber $n\not=p_1 ... p_n$ weil gr"osser.
- Folglich enth"alt die Menge ${p_1,...,p_n}$ nicht alle Primzahlen.
∈dent∈dent → Das ist ein Widerspruch. ($(A\wedge \neg A) = 0$)
Wir werden die Aussage: wenn $q$ eine gerade Primzahl ist $\implies q=2$ beweisen.
- $q$ ist gerade $\implies q$ ist durch $2$ Teilbar f"ur $k\in\mathbb{N}$
- $q$ ist aber eine Primzahl $\implies$ einer der Faktoren in $2\cdot k$ ist gerade $1$, $2\not= 1$
- $\implies k=1, q=2$
Wir m"ussen zeigen: $q\not= 2\implies$ ($q$ ungerade) $\vee$ ($q$ keine Primzahl). Es reicht zu zeigen: ($q\not=2)\wedge(q$ ist eine Primzahl) $\implies q$ ist ungerade!
- Wenn $q$ gerade ist, $q\cdot 2k$, also ist $k>1$
- also $q\not= 2$
Annahme: $q$ ist gerade, $q$ ist eine Primzahl, $q\not= 2$. Wir wollen einen Widerspruch herleiten.
- da $q$ gerade ist, gilt $q=2\cdot k$ f"ur ein $k\in \mathbb{N}$
- da $q\not= 2$, gilt $k>1$
- aber $q$ ist prim, also kann $q$ kein Produkt von zwei Zahlen sein! $\lightning$
Komplexe Zahlen
Idee: Man m"ochte Quadratische Gleichungen ohne reelle Nullstellen trotzdem l"osen, also erweitert man die reellen Zahlen.
Die pototypische Quadratische Gleichungen ohne reelle L"osungen ist: $x^2+1 =
-1$.
Man f"ugt K"unstlich die Zahl $i$ hinzu mit $i^2=-1$, m"oglichst unter
Beibehaltung der "ublichen Rechenregeln: man braucht also die Zahlen $b\cdot i :
b\in \mathbb{R}$ und $a+b\cdot i : a,b\in \mathbb{R}$.
Was passiert, wenn man solche Zahlen miteinander multipliziert ''als ob'' sie normale Zahlen w"aren:
$(a+bi)\cdot(c+di)=ac+bc\cdot i+ad\cdot i+(-bd)=(ac-bd)+(bc+ad)\cdot i$ f"ur $a,b,c,d\in \mathbb{R}$
Addieren kann man solche Ausdr"ucke auch:
$(a+bi)+(c+di)=(a+c)+(b+d)\cdot i$
Die komplexen Zahlen $\mathbb{C}$ sind die Menge der Paare $(a,b)\in \mathbb{R}^2$ versehen mit der Addition $(a,b)+(c,d)=(a+c,b+d)$ und der Multiplikation $(a,b)\cdot (c,d)=(ac-bd, bc+ad)$.
- Statt $(a,b)$ schreibt man auch $(a+bi)\in \mathbb{C}$.
-
$i:=(0,1)=0+1\cdot i$:
- nach Multiplikation erf"ullt $i^2=-1$
Man "uberpr"uft, dass die "ublichen Rechenregeln aus $\mathbb{R}$ weiterhin gelten (K"orperaxiome): F"ur $z_1, z_2, z_3 \in \mathbb{C}$ gilt, z.B.:
- $z_1\cdot (z_2+z_3)=z_1z_2+z_1z_3$
- $z_1\cdot (z_2\cdot z_3)=(z_1\cdot z_2)\cdot z_3$
- $z_1 + (z_2 + z_3)=(z_1 + z_2) + z_3$
$(\mathbb{R},+,\cdot)\subsetneq (\mathbb{C},+,\cdot)$ auf nat"urliche Weise als der der Form $a+0\cdot i = (a,0)$, $a\in \mathbb{R}$.
F"ur $z=a+b\cdot i\in \mathbb{C}$ heisst:
- $a:=:Re(z)$ Realanteil von $z$
- $b:=:Im(z)$ Imagin"aranteil von $z$
Also ist $z=Re(z)+ Im(z)\cdot i$.
Die Zahlen der Form $b\cdot i : b\in \mathbb{R}$ heissen rein Imagin"ar.
F"ur reele Zahlen wissen wir: $\forall a\in \mathbb{R}$ mit $a\not= 0 \exists a^{-1}\in \mathbb{R} mit $a*a-1=1$. Gilt das auch in $\mathbb{C}$ ?
F"ur $z\in \mathbb{C}$ heisst die Zahl $\overline{z}:=a-bi$ die komplex konjugierte Zahl zu $a+bi$.
$\overline{1+i}=1-i$
$z*\overline{z}=(a+bi)(a-bi)=a^2+b^2\geq -$ mit Gleichheit genau dann, wenn $z=0$.
$|z|:=\sqrt{x\cdot \overline{z}}=\sqrt{a^2+b^2}$ mit $z=a+bi$.
Inverses zu einer komplexen Zahl
Das Inverse zu $z\not= 0$:
$z\cdot \frac{\overline{z}}{|z|^2}=1$
Also: $\forall z\not= 0 \exists z^{-1} = \frac{\overline{z}}{|z|^2}$ mit $z \cdot z^{-1}}=1$
$(1+i)^{-1}=\frac{1-i}{2}$
Mnemonische Rechenregel, Multipliziere mit dem Inversen:
$\frac{1}{1+i}=\frac{1-i}{(1+i)(1-i)}=\frac{1-i}{2}$
Geometrische Interpretation von $\mathbb{C}$
Siehe Zeichung $C_1$.
- Addition: als Addition von Vektoren
- Betrag: L"ange des Vektors
- $\varphi$ - Winkel zwischen der reellen Achse und dem Vektor der $z$ entspricht, gez"ahlt gegen den Urzeigersinn.
Es folgt:
$a=|z|\cdot \cos(\varphi)$ und $b=|z|\cdot \sin(\varphi)$
$\varphi$ ist nicht eindeutig bestimmt, sondern bis auf Addition von eines vielfachen von $2\pi$.
$\varphi=\frac{\pi}{4}$ und $\varphi=-\frac{7\pi}{4}$ sind im geometrischen Bild von $\mathbb{C}$ "aquivalent.
Der wert von $\varphi$, welcher in $[0, 2\pi)$ liegt, heisst Hauptargument von $z$,
$arg(z)=\varphi$.
Das Argument von $z$ ist die Menge von allen $\varphi \in R$,4
$z=|z|(\cos(\varphi)+i\cdot \sin(\varphi))$, $Arg\, z = {\varphi \in R : |z|(\cos(\varphi)+i\cdot \sin(\varphi))}$.
$Arg\, z= {arg(z)+2\pi\cdot k : k\in \mathbb{Z}}$
Seien $z_1=|z_1|\cdot \cos(\varphi_1)+i\cdot \sin(\varphi_1)$, $z_2=|z_2|\cdot \cos(\varphi_2)+i\cdot \sin(\varphi_2)$ zwei komplexe Zahlen.\\
So gilt: $z_1\cdot z_2 = |z_1|\cdot |z_2|(\cos(\varphi_1+\varphi_2)+i\cdot \sin(\varphi_1 + \varphi_2))$
Bei der Multiplikation von komplexen Zahlen multiplizieren sich die Betr"age, und die Argumente addieren sich.
F"ur geometrische Interpretation: Siehe $C_2$.
Besonders n"utzlich ist dies f"ur die Multiplikation einer komplexen Zahl vom Betrag $1$:
\begin{align*} |z|=1\iff z=\cos(\varphi)+i\cdot \sin(\varphi)$ f"ur ein $\varphi \in \mathbb{R} \end{align*}Es liegen $\{z\in \mathbb{C} : |z|=1\}$ auf dem Einheitskreis. Die Multiplikation mit von komplexen Zahlen Zahlen mit dem Betrag 1 entspricht also der Rotation gegen den Urzeigersinn um $\varphi$.
Exponentialform der komplexen Zahlen
- Exponentialform: $\cos(\varphi)+i\cdot \sin(\varphi):=e^{i\cdot \varphi}$
- es gilt $e^{i(\varphi_k)}, k\in\mathbb{R}$ sind die Zahlen auf dem Einheitskreis
Die Exponentialform f"ur jede komplexe Zahl $z\in\mathbb{C}$ lautet $z=|z|e^{i\cdot arg\,z}$.
Mit dieser Notation folgt:
$(e^{i\varphi})^n=(\cos(\varphi)+i\cdot\sin(\varphi))^2=e^{n\cdot i\cdot \varphi}=\cos(n\varphi)+i\cdot\sin(n\varphi)$ f"ur alle $n\in\mathbb{N}$
Einscheitswurzeln
Sei die gleichung $x^n=a$ "uber $\mathbb{R}$ gegeben. Je nach Vorzeichen von $a$ und Parit"at von $n$, gibt es Varianten f"ur die Anzahl der L"osungen.
In $\mathbb{C}$ hat aber die Gleichung $z^n=a$ f"ur ein $a\in \mathbb{C}\setminus \{0\}$ immer genau $n$ L"osungen.
Sei $w\in \mathbb{C}$ mit $w^n=a$. Dann gilt $(\frac{z}{w})^n=1$ f"ur jedes $z\in \mathbb{C}$ mit $z^n=a$. Also l"osen wir erst mal die Gleichung $z^n=1$, und dann reduzieren wir den allgemeinen Fall darauf.
Eine Zahl $z\in \mathbb{C}$ heisst $n\text{-te}$ Einheitswurzel, wenn $z^n=1$.
F"ur jedes $n\geq, n\in\mathbb{N}$ existieren genau $n$ Einheitswurzeln in $\mathbb{C}$. Sie sind durch die Formel $z_k=e^{\frac{2\pi\cdot k\cdot i}{n}},\quad k=0,1,...,n-1$ gegeben.
$z_k$ sind $n\text{-te}$ Einheitswurzeln denn:
\begin{align*} z_k^n & = (e^{\frac{2\cdot\pi\cdot k}{n}})^n \\ & = e^{2\pi\cdot k} \\ & = 1 \end{align*}Wir m"ussen noch zeigen, dass jede $n\text{-te}$ Einheitswurzel von dieser Form ist. \\
Sei $z\in\mathbb{C}$ mit $z^n=1$. Es gilt:
\begin{align*} |z|^n & =|z^n|=1 \\ & \implies |z|=1 \\ & \implies z=e^{i\cdot\varphi} \tag*{f"ur ein $\varphi\in[0, 2\pi)$} \\ & \implies 1 = z^n \\ & = (e^{i\varphi})^n=e^{i\varphi\cdot n} \\ & =\cos(n\varphi)+i\cdot \sin(n\varphi) \end{align*}Also folgt:
\begin{gather*} \cos(n\varphi)=1,\;\sin(n\varphi)=0 \\ \implies n\cdot\varphi = 2\pi\cdot k \tag*{f"ur ein $k\in \mathbb{Z}$} \\ \implies \varphi = \frac{2\pi\cdot k}{n} \tag*{f"ur ein $k\in \mathbb{Z}$} \end{gather*}Da $\varphi$ in $[0,2\pi)\implies 0\leq k < n$.
Wenn wir jetzt also eine Gleichung $z^n=a$ l"osen wollen, reicht es, eine L"osung $w$ zu finden, die anderen L"osungen bekommt man als $w\cdot z_k,\; k=0,...,n-1$ mit $z_k$, der $n\text{-ten}$ Einheitswurzeln: $z^n=a\iff (\frac{z}{w})^n=1$.\\
Eine L"osung $w$ kann man folgendermassen finden:
Gemetrische Interpretation: regul"ares $n\text{-Eck}$.
≠wpage
Lineare Gleichungsysteme
Wir werden die Bezeichung $K$ f"ur $\mathbb{R}$ oder $\mathbb{C}$ verwenden.
Eine Lineare Gleichung "uber $K$ ist eine Gleichung der Form
$a_1x_1+a_2x_2+...+a_nx_n=b$.
Hierbei sind $x_1,...,x_n$ die Variablen und $a_1,...,a_n,b \in K$, die Koeffizienten.
Ein Lineares Gleichungsystem ist eine endliche Menge von Gleichungen: \[{\displaystyle {\begin{matrix}a_{11}x_{1}+a_{12}x_{2}\,+&\cdots &+\,a_{1n}x_{n}&=&b_{1}\\a_{21}x_{1}+a_{22}x_{2}\,+&\cdots &+\,a_{2n}x_{n}&=&b_{2}\\&&&\vdots &\\a_{m1}x_{1}+a_{m2}x_{2}\,+&\cdots &+\,a_{mn}x_{n}&=&b_{m}\\\end{matrix}}}\]
Ein L"osung von diesem Gleichungssystem ist ein \[n\text{-Tupel } \left( \begin{matrix} x_{1}\\ \vdots\\ x_{n}\end{matrix} \right) \in K^{n} \] dass jede Gleichung erf"ullt. Ein lineares Gleichungssystem (LGS) zu l"osen, heisst, alle L"osungen zu finden.
Idee: Man formt das LGS durch Operationen um, die die Menge der L"osungen nicht ver"andern. Solche Operationen heissen "Aquivalenzumformungen. Diese sind unter anderem:
- Multiplikation einer Gleichung mit einer zahl $\alpha\in K\setminus \{0\}$
- Addierung von einer Gleichung zu der anderen (z.B. Ersetzen der zweiten Gleichung durch die Summe der ersten und zweiten.)
- Vertauschen von zwei Gleichungen; dies kann man auf Operationen von Typ eins und Zwei zur"ukf"uhren
Wir werden ein LGS umformen, um es auf eine Form zu bringen, wo die L"osung offensichtlich ist.
Wir beobachten:
Es ist "uberflu"ssig, die Variablen mitzuschleppen. Man k"onnte statdessen die ''Tabellen'' von Koeffizienten umformen.
Eine $M\times N$ Matrix $A$ ist eine Tabelle der Gr"osse $m\times n$, gef"ullt mit Elementen aus $K$. \[A=(a_{ij})_{\substack{i=1,\cdots,m \\ j=1,\cdots,n}}\]
\[ A=\left( \begin{matrix} 1& 1\\ 2& -3\end{matrix} \right) \]
Wobei $a_{11} = 1$, $a_{21} = 2$, $a_{12}=1$ und $a_{22}=-3$.
Gegeben ein LGS ($*$), k"onnen wir eine Matrix \[ A=\left( \begin{matrix} a_{11}& \cdots & a_{1n}\\ \vdots & & \vdots \\ a_{n1}& \ldots & a_{nn}\end{matrix} \right) \] aufstellen. Sie heisst Koeffizientenmatrix des LGS. Auch stellen wir \[b=\left( \begin{matrix} b_{1}\\ \vdots \\ b_{n}\end{matrix} \right)\] eine $m\times 1$ Matrix (Spalte) auf. (Sie heisst rechter Teil des LGS). Die Matrix $A'=(A\mid b)$ heisst erweiterte Koeffizientenmatrix des LGS ($*$).
Die "Aquivalenzumformungen des LGS, die wir vorhin betrachtet haben, entsprechen dann folgenden Umformungen von der erweiterten Koeffizientenmatrix:
\begin{itemize} \item[1'.] Multiplikation einer Zeile mit $\alpha \in K^\times$ \item[2'.] Addieren von einer Zeile zu der anderen. \end{itemize}Wir werden dann versuchen, die (erweiterten koeffzienten-) Matrizen durch diese Umformungen auf eine Form zu bringen, in der man die L"osung leicht ablesen kann.
$1'$ und $2'$ heissen elementare Zeilenumforumungen.
Weitere Zeilenumformungen, die man aus diesen erhalten kann:
- Vertauschen Zweier Zeilen
- Addieren einer Zeile, Multipliziert mit $\alpha \not= 0$
Ziel ist eine gegebe erweiterte Koeffizientenmatrix $(A\mid b)$, durch Zeilenumformungen zu einer Matrix umzuformen, aus der man die L"osung leicht ablesen kann.
Gegeben einer Zeile $Z=(a_1,...,a_n)\in K^n$, nennen wir das erste Element $a\not= 0$ das Pivotelement. Wenn $Z=(0,...,0)$ ist dann gibt es kein Pivotelement.
Eine Matrix $A$ hat Zeilenstufenform, wenn folgendes gilt:
- Die Nummern von Pivotlementen der Zeilen von $A$ bilden eine aufsteigende Folge.
- Die Nullzeilen, falls existent, stehen am Ende.
0 | $a_{12}$ | $a_{13}$ |
0 | 0 | $a_{23}$ |
0 | 0 | 0 |
Jede Matrix kann durch elementare Zeilenumformungen auf die Stufenform gebracht werden.
Sei $A=\begin{matrix}a_{11}&...&a_{nn}\end{matrix}$.
Wenn $A=0$ - Bewiesen.
Wenn $A\not=0$, dann gibt es eine Spalte $\not= 0$. Sei
$j_1$ die Nummer dieser Spalte. Durch vertausche von Zeilen erreichen wir
zun"achst $a_{1j_1}}\not= 0$. Multiplaktion der ersten Zeule mit
$\frac{1}{j_1}$. Jetzt Subtrahiere von jeder Zeile ab der Zweiten die erste
Zeile multipliziert mit $a_{kj_1}$ ($k=$ Nummer der Zeile). \\
Wir erhalten dann Restmatrix $A_1<A$ und wir wenden das selbe Verfahren auf $A_1$ an. Da $A_1$ weniger Zeilen hat, stoppt der ganze Prozess.
Nach diesem Verfahren gilt sogar: Pivotelemente sind alle $=1$1
Nachdem wir die Zeilenstufenform mit Pivotelementen $=1$ erreicht haben, k"onnen wir durch weitere Zeilenumformungen die eintr"age zu Null f"uhren, die oberhalb von Pivotelementen stehen; Die Finalform heisst dann reduzierte Zeilenstufenform.
Das entsprechende Verfahren zum L"osen von LGS sieht so aus:
- Bringe die erweiterte Koeffizientenmatrix auf die reduzierte
Zeilenstufenform:
Die Spalten mit den Pivotelementen in dieser reduzierten Zeilenstufenform nennen wir Basispalten. -
Zwei F"alle:
- Letzte Spalte des ist eine Basispalte - in diesem Fall hat das LGS keine L"osungen, da eine Gleichung $0=1$ entsteht.
- Die letzte Spalte ist keine Basisspalte:
Das LGS in der reduzierten Zeilenstufenform dr"uckt die Variablen, die zu Basisspalten geh"oren , durch die restlichen (freien) Variablen und den rechten Teil des LGS aus. Alle L"osungen werden dadurch erhalten, dass man f"ur die freien Variablen beliebige Werte in $K$ ausw"ahlt. Die Basisvariablen werden dann durch Freie Variablen ausgedr"uckt.
In unserem Beispiel l"asst sich die L"osung so aufschreiben: \\
Errinnerung: ein LGS hatte die erweiterte Koeffizientenmatrix $(A|b)$. Das LGS4 l"asst sich dann auch so aufschreiben:\\ $:=A\cdot x$, wobei $x=$
Matrizenrechnung
Das Produkt von einer $m\times n$ Matrix $A$ und einer Spalte (in dieser Reihenfolge) wird definiert durch $A\cdot x =$. In dieser Spalte wird das LGS $A\cdot b$.
Die Menge von Matrizen der Gr"osse $m\times n$ mit Eintr"agen in $K$ wird durch $M(m\times n, k)$ oder $K^{m\times n}$ bezeichnet. Matrizen der Gr"osse $1\times n$ heissen Spalten der L"ange $n$. Matrizen der Gr"osse $n\times 1$ heissen Zeilen der L"ange $n$.
Matrizen gleicher Gr"osse kann man eintragsweise Addieren: $A,B \in K^{m\times n} \rightarrow (A+B)_{ij}:=$Aij+Bij$$
Matrizen kann man mit Zahlen multiplizieren (indem man jeden eintrag mit dieser Zahl multipliziert).
$(\lambda \cdot A)_{ij}:=\lambda \cdot A_{ij}$.
Wenn die Breite von $A$ mit der H"ohe von $B$ "ubereinstimmt, kann man das
Produkt $A\cdot B$ definieren:
$A\cdot B:=(A\cdot b_1\; ... \4; A\cdot b_n)$ mit $B=(b_1\; ...\; b_n)$ (Spalten)
mit $A\cdot B \in K^{p\times n}$
Eigenschaften der Matrix-Multiplikation
- wenn $\alpha_1,...,\alpha_n\in K$ dann notieren wir $\alpha_1+...+\alpha_n := \sum_{i=1}^{n}{\alpha_i}$
- analog $\alpha_1\cdot ...\cdot\alpha_n := \Pi_{i=1}^{n}{\alpha_i}$
Es gilt dann mit $A=(a_{ij})_{\substack{i=1,p}}$ : $(A\cdot x))_i=\sum_{j=1}^{m}{a_{ij}\cdot x_j,\, i=1,p}$ \\
Insbesondere gilt: $(A\cdot b_k)_i$ Aber $(A\cdot b_k)_i = (A\cdot B)_{ik}$ und $(b_k)_j=b_jk$
Matrixmultiplikation ist linear: $A\cdot (\lambda B_1 + \lambda_2 A B_2)$ Analog:
Sei $C=A\cdot (\lambda_1 B_1 + \lambda_2 B_2)$
Die Matrixmultiplikation ist assoziativ: $A\cdot (B\cdot C)=(A\cdot B)\cdot C$
Die Einheitsmatrix der gr"osse $r$ ist die Matrix, die auf der Hauptdiagonale (links-oben nach rechts unten) Einsen und sonnst Nullen hat. Beizeichnung $E_r$ oder $1_r$.
Das Kronecker-Symbol ist definiert als:
Also gilt: $(Er)_{ij}=\delta_{ij}$.
F"ir alle $A\in K^{p\times m}$ gilt:
- $E_p\cdot A=A$
- $A\cdot E_m =A$
Die Matrix Multiplikation ist nicht Konjunktiv: $A\cdot B\not= B\cdot A$ im Allgemeinen, selbst wenn beide Produkte definiert sind und die gleiche Gr"osse haben.
Die $i\text{te}$ Spalten der Einheitsmatrix wird durch $e_i=()$ bezeichnet.
Sei $A\in K^{m\times n}$. Die transponierte Matrix $A^{T}\in K^{n\times n}$ ist definiert durch $(A^T)_{ij}:=A_{ji}$. Also ist die i-te Zeile der Einheitsmatrix $(e_i)^T$
Wie l"ost man nun das LGS $A\cdot x=b$? Man bringt die erweiterte Koeffizientenmatrix in die reduzierten Zeilenstufenform.
Die Basisspalten in der reduzierten Zeilenstufenform sind von der Form, wo $e_i$ die i-te Spalte der Einheitsmatrix $1_r$ ist. $r <= m$.
Wenn die ersten $r$ Spalten Basisspalten sind, dann sieht die reduzierte Zeilenstufenform so aus:
Dann sehen die L"osungen so aus:
- Es gibt keine $\iff$ $b''\not= 0$
- Wenn $b''=0$, dann sehen die L"osungen so aus: \[x=+\]
Proposition: Sei $A\in k^{m\times n}$. Das homogene LGS der Form $L=\{\phi t\sep \}$ fuer ein $r\geq 0, \phi$
→ es gibt $n-r$ freie Parameter, die die Loesungsmenge beschreiben.
Anmerkung Ein homogenes LGS $A\cdot x=0$ mit hat immer eine L"osung $x\not= 0$ (es gibt mindestens eine freie Variable).
Finde ein reelles Polynom von Grad 2.
Die Frage ist aequivalent zu dem LGS:
Die Menge der Polynome vom Grad h"ochstens $n$ mit Koeffizienten in $K$ ist durch $K[t]_n$ berechnet.
Vektorra"ume
Ein $k$ - Vektorraum $V$ ist eine Menge zusammen mit den Operationen und mit folgenden Eigenschaften:
-
"Addition" $+:\, V\times V \mapsto V, (v_1,v_2)\mapsto v_1+v_2$
- kommutativ
- assoziativ
- $\exists 0 \in V$ mit $0+v=v+0=v$ $v \in V$
-
"Skalarmultiplikation" $+:\, V\times V \mapsto V, (v_1,v_2)\mapsto v_1+v_2$
- assoziativ
- distributiv bez. addition
- $1\cdot v = v$, $v\in V$
- $K$ ist selbst ein Vektorraum mit $+$ und $\cdot$
-
$K^{n}:=K^{n\times 1}$ ist ein K-Vektorraum mit:
- Addition
- Skalarmultiplikation
- $K^{m \times n}$, eine Matrix der Gr"osse $m\times n$ mit Eintr"agen in K, ist ein K-Vektorraum mit Addition und Skalarmultiplikation von Matrizen:
- $K[t]_n$ ist ein K-Vektorraum:
- $K[t]:=\{a_n\cdot \}$ - alle Polynome mit Koeffizienten in $K$ bilden einen K-Vektorraum mit gleichen Operatoren.
-
Sei $X$ X eine Menge (z.B. $X=\mathbb{R}$) $Fun(X,K)=\{\}$ ist ein K-Vektorraum:
- Addition $(f_1 + f_2)(x):= f_1(x)+ f_2(x)$, $x\in X$
- Miltiplikation
-
Sei $A\in K^{m\times n}$. Die L"osungen von dem homogenen LGS bilden einen Vektorraum:
- Wenn $x_1,x_2$ L"osungen sind, dann gilt: Also ist die Menge der L"osungen auch ein Vekorraum bzgl. der Operatoren aus $K^n$
Bei der Entwicklung der Vektorraumtheorie ist es oft n"utzlich, an das Beispiel $V=K^n$ zu denken.
Vektorraumtheorie
Sei $V$ ein K-Vektorraum.
Seien $v_1, v_2$. Die Linearkombination mit Koeffizienten ist der Vektor.
Eine Linearkombination heist trivial wenn $\lambda_1 = \lambda_2 = ... = \lambda_n = 0$. (Nichttrivial wenn mindestens ein $\lambda_i\not= 0$).
Die Menge der Vektoren heist linear Unabh"angig wenn: $$ (Nur die Triviale linearkombination ergibt 0). Andernfalls heist die Menge linear abh"angig."
$\begin{pmatrix}1\\0\end{pmatrix}\begin{pmatrix}0\\1\end{pmatrix}$
$\{v_1,v_2\}$ sind linear abhaengig wenn sie Proportional sind.
Lemma Die Menge ist linear abh"angig. $v_i$ ist eine Linearkombination von $$
Wenn $v_i=\lambda_1 v_1$, dann $0=$ Denn $-1$ ist ein nicht-trivialer Linearfaktor.
$(\implies)$ Nach Definition gibt es eine nichttriviale Linearkombination: als $\exists i : \lambda_i \not= 0$ Also gilt folglich
Eine L"osung des LGS $Ax=b$ ist eine Spalte $$ mit Deis heisst, das LGS $Ax=b$ zu l"osen ist genau linearkombinationen von spalten zu finden, welche $b$ ergeben.
Lemma Seien die Vektoren linear unabh"angig. Ein Vektor $v$ ist genau dann eine Linearkombination von $v_1,...,v_n$ wenn linear abh"angig ist.
($\implies$) Sei Dann gilt , also ist linear ab"angig. Sei .. linear abh"angig Dann
Es gilt: $\lambda \not= 0$ (wenn .. linearunabh"angig.) Also gilt $v=-\lambda_1$
Lemma Sei $v=\lambda$ eine Linearkombination von $v_1,...,v_n$. Diese Darstellung ist eindeutig ganau dann, wenn linear unabh"angig sind.
$(\implies)$ Sei die Darstellung eindeutig $v=..$ Wenn jetzt $$, dan gilt $v=$ Eindeutigkeit der Darstellung ergibt:
Seien $v_1,..,v_n$ linear unabh"angig, sei Dann gilt: $\rightarrow$ lineare Unabhaengigkeit von erzwingt Korrolar: Wenn die Spalten von $A$ linear unabhaenig sind, hat das LGS $Ax=b$ h"ochstens eine L"osung, folglich hat $Ax=0$ genau eine L"osung x=0.
Geometrische Deutung der linearen Abh"angigket
Wichitige Beispiele von Vektorr"aumen sind: $V=\mathbb{R}^2$ (Ebene), $V=\mathbb{R}^3$ (3D-Raum).
Seien $v_1, v_2$ nicht proportional. In drei Dimensionen:
- wenn $v_3$ in $\Epsilon$ liegt, dann ist $v_3$ eine Linearkombination $v_1, v_2$
- wenn nicht, dann linear Unabhaenig (sonst in Ebene.)
Lineare unabhangigkeit in R"aumenx
Proposition Seien $v_1,...,v_n \in \mathbb{V}$ linear unabhaenig, seien $W_1, ..., W_n \in \mathbb{V}$ so dass jedes $w_i$ eine Linearkombination von $v_1,...,v_n$ ist. Wenn $m>n$, dann sind $w_1,...,w_n$ linear abhaengig.
Seien
\begin{align*} $w_1= a_{11} v_1 + a_{12} v_2 + ... + a_{nn} v_n$ \\ $w_1= a_{21} v_1 + a_{22} v_2 + ... + a_{nn} v_n$ \\ \end{align*}Wir suchen $\lambda$ (*). Das ist "aquivalent zu:
Dies ist nach linearer Unabhaenig von … "Aquivalent zu:
Das heist (*) ist "aquivalent zu einem homogenen LGS aus $n$ Gleichungen mit $m$ Variablen. $n<m$, also gibt es eine L"osung …, die ungleich $0$ ist. $\implies sind linear unabh"angig.
Korrolar Je drei Vektoren in $\mathbb{R}^2$ sind linear unabh"angig, je $n+1$ Vektoren in $$ sind linear unabh"angig.
Seien $e_i$ die Spalten der Einheitsmatrix sind linear unabh"angig.
Dies zeigt auch, dass jeder Vektor in $R$ eine Linearkombination von $e_i$ ist.
Sei V ein $K-$ Vektorraum, $U\subseteq V$ eine Teilmenge von V. $U$ heist untervektorraum wenn:
- $V\not= \varnothing$
In anderen Worten: Eine Teilmenge von $V$ die selbst ein Vektorraum ist bzgl. der von $V$ vererbten Operationen.
(1) und (3) \implies $0\in U$
Sei $S \in V$ eine Teilmenge. Der von $S$ erzeugte Vektorraum (lineare H"ulle von $S$) $<S>:=\{\}$ (Menge aller Linearkombinationen von Vektoren in $S$).
Alternative Notation: $<s>=\text{span S}$.
$<s>$ ist der kleinste Untervektorraum in $V$, der $S$ enth"alt. $<\varnothing >:=\{0\}$
Seien $v_1, v_2 \in \mathbb{R}^3$. $<v1,v2>$ ist eine Gerade wenn $v_1,v_2$ linear abh. Ist Ebene wenn $v_1,v_2$ linear unbh.
$S\in V$ heisst Erzeugendensystem wenn $<S>=V$. (S spannt den Vektorraum auf.)
ist ein Erzeugendensystem: jeder Vektor in $V$ ist eine Linearkombination von:
$\lambda_i$ sind nicht unbedingt eindeutig bestimmt, weil nicht linear unabh. vorrausgesetzt waren.
Ein Erzeugendensystem $B\in V$ heisst basis, wenn es linear unabh. ist. Nach dem Lemma ueber Eindeutigkeit der koeffzienten der Linearkombination gilt: $B=\{v_1, ..., v_n\}$ ist eine Basis genau dann, wenn f"ur jeden Vektor $v \in V$ gibt es eindeutig bestimmte Zahlen.
Ein Vektorraum $V$ heisst endlich dimensional, wenn er ein endliches erzeugendensystem besitzt. (= wird von endlich vielen Vektoren aufgespannt).
Jeder endlichedimensionale Vektorraum $V$ hat eine Basis, Je zwei Basen von $V$ haben gleich viele Elemente.
Sei $S$ ein endliches Erzeugendensyste von $V$, Wenn $S$ lin. unabh. ist, ist es eine Basis und wir haben gewonnen. Wenn $S$ linear abh"angig ist \implies (lemma) einer von den Vektoren in $S$ ist eine Linearkombination von den anderen. Das entfernen dieses Vektors "andert die Tatsache nicht, das $S$ den Vektorraum aufspannt. Jetzt haben wir eine kleinere Menge und fangen von vorne an. Da $S$ endlich ist und durch entfernen Vektoren kleiner wird haben wir am Ende eine Basis. → Wir haben eine Basis.
Seien $S, S'$ zwei Basen. Da $S$ eine Basis ist, ist jedes element von $S'$ eine linearkombination in $S$. Die elemente von $S$ sind linear unabh. (weil Basis). Wenn also $m>n$, dann folgt aus der Proposition, dass $S'$ linear abh. ist, was unm"oglich ist, da $S'$ eine Basis ist. Also $m \seq n$ und $n \seq m$.
Sei $V$ ein endlichdimensionaler Vektorraum. Die Anzahl der Vektoren in einer (folglich in jeder) Basis von $V$ heist Dimension von V. Bezeichung: $\dim V$.n
$\dim K^{n}=n$ weil … eine Basis bilden.
Frage: kannn man eine lineare unabh"angige Menge $S\in V$ zu eine Basis erweitern?.
Proposition Jede linear unabh"angige Teilmenge $S\in V$ eines endlichdimensionalen Vektorraumes $V$ ist in einer maximalen linear unabh"angigen Teilmenge enthalten. Eine maximal linear unabh. Teilmenge von $V$ st eine Basis von $V$.
Eine Teilmenge $S'\in V$ ist maximal linear unabh., wenn aus $S$ linear unabh. folgt.
Sei linear unabh. Zwei F"alle: entweder ist $S$ schon maximal (dann sind wir fertig) oder man kann S erweitern. Wenn wir $S$ erweitern k"onnen, f"ugen wir neue Vektoren hinzu, bis wir es nicht mehr tun koennen, ohne lineare unabh. zu verletzen.
Dieser Prozess endet, weil eine linear unabh. Teilmenge h"ochstens von $V$ hoechstens $\dim V$ viele Vektoren enthalten kann. (Prop. "uber lineare unabh. von vektoren aus linearkombinartionen der Basis.)
Sei $S\in V$ maximal linear unabh"angig. Wir habe zu zeigen: $<S>=V$ (Def. einer Basis). Wenn … d.h. aber, aber $S\cup {v}$ ist linear unabh. (lemma) \implies $S$ dann nicht maximal.
Korrolar Man kann jeder lienar unabh. Teilmenge $S\in V$ zu einer Basis erweitern.
Wenn $V=K^n, S\in V$ linear unabh. → man kann zur erweiterung passende Spalten der Einheitsmatrix.
Man kann bei der obrigen Proposition das Wort "endlichdimensional" fallen lassen, aber es braucht ein bisschen mehr Mengenlehre (Auswahlaxiom).x
Sei V ein endlichdimensionaler Vektorraum und $U\in V$ ein Untervektorraum. Dann gillt: $\dim U \seq \dim V$. $\dim U = \dim V \iff U=V$
Sei eine maximale linear unabh. Teilmenge in U. (so eine Teilmenge existiert weil V endlich ist.) Nach Proposition (2) ist … eine Basis in $U$, also gilt $\dim U = k$ Erweitere … zu einer Basis in V ….
(2) … trivial … Sei … eine Basis in U. Erweitere sie zu einer Basis in $V$. Diese Basis in V muss aber wegen … gleich viele Vektoren haben. …. ist eine Basis in $V$ …
Sei $V$ ein Vektorraum $$ eine Basis in V. Die Zahlen $(λ_1,…λ_n)$ heissen Koordinaten bzgl. des Vektors. Die Spalte ... heisst Koordinatenspalte dieses Vektors bzgl. $B$. Die Definition einer Basis garantiert, dass hierdurch eine Bijektion … entsteht.
Warnung Diese Korrespondenz kommt auf die Wahl der Basis an.
Sei $Ax=0$ ein h. LGS
Aus Uebungen …
Lemma Die Spalten von $\Phi$ bilden eine Basis in L.
Die Spalten von $\Phi$ sind linear unabhaenig. (sonst abb. nicht injektiv)
Ferner spannen sie das ganze L auf (Surjektiv).
Frage Gegeben Basen … in $V$, und einem Vektor $v\in V$. Wie rechnet man die Koordinaten bezgl. B in Koordinaten bzgl. B' um.
Sprachweise ist: B ist alte Basis und B' ist neue Basis. So gilt:
… Dr"ucken wir Vektoren von B' bzgl. Vektoren von B aus: $V$ … wir erhalten $C$ (Die Spalten von C sind Koordinaten der "neuen" Basis bzgl der alten Basis. )
Also gilt: … $\lambda = G\cdot \lambda'$
Frage Ist $D$ in diesem Fall immer invertierbar? (Ja, aber wir brauchen mehr Theorie.)
Lineare Abbildungen zwischen Vektorr"aumen
Seien $V, W$ zwei K-Vektorr"aume. Eine Abbildung. $f$ heist linear wenn:
(Strukturell kopatiebel.)
$W=K^n,\; W=K^n$
Es gilt tats"achlich $A(x_1+x_2) = A\cdot x_1 + A\cdot x_2$…
$V=\mathbb{R}[x]_5,\;W=\mathbb{R}[x]_4$ Ableitung ist lineare abbildung.
Relle Funktionen
Sei eine Lineare Abbildung. Der Kern von $f$ wird definiert als:
Beobachtung Kern von $f$ ist ein Untervektorraum von $V$: …
Errinerung: f"ur djede Abbildung $f$ existiert ein Bild:
Wenn, dann definiert A eine Lineare Abbildung
Definitionsgem"ass ist $f: V\mapsto W$ surjektiv genau dann, wenn $lm(f)=W$.
Proposition Sei $f:$ linear Es gilt: $f$ injektiv \iff $Ker(f)=\{0\}$
$f$ injektiv \iff f"ur $v_1\not= v_2 \in V$ gilt $f(v_1)\not= f(v_2)$
Eine Bijektive Lineare Abbilfung $f:V\mapsto W$ heisst Vektorraum Isomorphismus zwischen $V$ und $V$. $V$ und $W$ heissen isomorph, wenn es einen Vektorraumisomorphismus $f: V\mapsto W$ gibt.
Sei $V$ ein Vektorraum, $S\subseteq V = \{v_1, v_2, ..., v_n\}$. Die Aufspannabbildung … wird definiert als …
Korrolar $S={v_1, …, v_n} eine Basis \implies … ein Isomorphismus
Korrolar $\dim V = n \iff V$ ismorph $K^n$. (… isomorphe Vektorraume haben die gleiche Dimension)
Beobachung Wenn … Isomorphismus \implies … ist auch ein Isomorphismus.
Dimensionsformel
Sei $f$ eine Lineare Abbildung, sei $V$ endlich dimensional. Dann gilt:
lemma sei $f$ wie oben. Sei $U \subseteq \Ker(f)$ Dann ist … ein Isomorphismus
… ist surjektiv nach Konstruktion. Inkektiv \iff … Sei … . Dann gilt ….
W"ahle eine Basis ${e_1, ..., e_k}$ in … und erg"anze sie zu einer Basis ${e_1, ..., e_n}$ in $V$.
Betrachte jetzt $U:=<e_{k+1}, ..., e_n> \subseteq V$ Untervektorraum. Es gilt Lemma. es gilt: … weil .. eine Basis im Kern ist. und … weil $u\in U$ also …
Das Lemma sagt jetzt … ist ein Isomorphismus. Ausserdem gilt f"ur … \implies $f(V)=f(V)$ also … \implies …
Nun gilt nach Konstruktion von $U$ …
Summe von Untervektorr"aumen
Sei … ein Vektorraum….
Die Summe von … heisst direkt wenn …
Bemerkung …
In dieser Bezeichnung haben wir im Beseris der Dimensionsformel haben wir den Ausgangsraum als eine direkte Summe dargestellt.
Bemerkung: Dimensionsformel ist auch Rangformel.
Sei … linear. Der Rang von $f$ ist $rk...$
Proposition Sei … linear, endlichdimensional. Dann gilt:
- f injekt. …
Insbesondere gilt: Korrolar Ist …, so ist f injektiv \iff f surjektiv.
Proposition Dimensionformel' $\dim (U_1+U_2)=\di..$
ist stehts ein Untervektorraum, wenn Untervektorra"me sind.
Betrachte die Abbildung .. Hierbei ist … der Verktorraum der Paare mit elementweisen operationen. (auch ''A"ussere Summe'', die Kollision der Bezeichnunge … fuer die direkte Summe zweier Unterr"aume/a"ussere Summe ist harmlos.)
Nun gilt …
Weiterhin gilt eine Basis in eine Basis in … eine Basis in … Ferner gilt: …
$Ker(f)$ … (Unterraum)
Was hat diese ganze Theorie mit Matrizen zu tun? Intuitiv: Abbildungen sind "geometisch" und Matrizen sind Koordinatenform dieser "geometrischen"" Abbildungen.
Strecken in richtung von $l_2$ mit Faktor 2. Wie beschreibt man $f$ in Koordinaten?4
Abbildunngsmatrix
Seien $V,W$ zwei Vektorraume. $\Hom_k(v,w)$ ist selbst ein Vektorraum.
Seien $V, W$ endlichdimensional, … Sei Die Abbildungsmatrix ist definiert als Matrix, deren Spalten die Koordinatenspalten von … bzgl. der Basis $C$ sind.
Vorsicht H"angt von der Wahl der Basen B und C ab ($f$ nicht!)
Rotation um $\frac{\pi}{4}$ gegen Urzeigersinn.
Proposition Seien $V,W,B,C$ wie oben. Dann entsprechen die Abbildungsmatrizen …den Abbildungen. gennauer. Die Abbildung. Ist ein Isomorphismus von Vektorra"umen.
Aus Definition der $M_C^B$ folgt sofort: … also ist … eine lineare Abbildung:
Ist injektiv: wenn $f$ dann gilt → Kern ist injektiv.
Ist auch surjektiv: sei gegeben: Definiere eine Abbildung… folgendermassen:
Ist linear und es gilt: …
Im Beweis haben wir unter anderem festgestellt:
…
Das heisst: wenn $v$
Wenn $V=K^n, W=K^M$ dann hat $V$ eine Basis … Sei $A\in K^{m\times n }$
Seien $V, W, Z$ drei Vektorraume … Dann gilt … . Seien $B,C,D$ Basen in $V,W,Z$
Proposition …
Sei
Bemerkung Wenn $V$ ein Vektorraum ist, $B,B'$ zwei Basen, dann Haben wir die Basiswechselmatrix. Bezueglich der alten Basis. Es folgt sofort aus den = Definitionen: $S+$
Schlagworte:
- $A\cdot B$ Zeilen von $A$ mal Spalten von $B$
-
LGS L"osungen als Vektor!
- Keine nicht offensichtlich Schritte ueberspringen!
- Paramatervektor und sine Elemente genau definieren!
- k-te Spalte $(A)_k$