{proof} zu {prof} umbenannt

Huh, {prof} kann man viel besser manuell manipulieren.
This commit is contained in:
sammecs 2017-12-20 14:34:32 +01:00
parent c27bcbfb8c
commit 75dd7c977b

View file

@ -65,15 +65,18 @@ halign = center,
\usepackage{amssymb}
\usepackage{gauss}
\usepackage{stmaryrd}
\theoremstyle{remark}
\newtheorem{exa}{Beispiel}[section]
\newtheorem{expe}{experiment}[section]
\renewcommand*{\proofname}{Beweis}
\newtheorem{beobachtung}{Beobachtung}
\newtheorem{folgerung}{Folgerung}
\newtheorem*{notte}{Beachte}
\theoremstyle{definition}
\newtheorem{prof}{Beweis}
\newtheorem*{notation}{Notation}
\newtheorem*{proposition}{Proposition}
\newtheorem*{lemma}{Lemma}
\theoremstyle{remark}
\newtheorem*{korollar}{Korollar}
\newtheorem*{bem}{Bemerkung}
\author{Valentin Boettcher}
@ -579,7 +582,7 @@ B\).
Es gibt unendlich viele Primzahlen.
\end{theo}
\begin{proof}\
\begin{prof}\
\begin{enumerate}
\item Nehmen wie an, es gibt nur endlich viele Primzahlen. \(p_1, ..., p_n\).
\item Betrachte \(n=p_1\cdot p_2\cdot ... \cdot p_n + 1\). \(n\) geteilt durch jede
@ -588,23 +591,23 @@ von den Primzahlen \(p_1, ..., p_n\) gibt Rest \(1\).
\item Folglich enth"alt die Menge \({p_1,...,p_n}\) nicht alle Primzahlen.
\end{enumerate}
\indent\indent \(\rightarrow\) Das ist ein \textbf{Widerspruch}. (\((A\wedge \neg A) = 0\))
\end{proof}
\end{prof}
\begin{exa}
Wir werden die Aussage: wenn \(q\) eine gerade Primzahl ist \(\implies q=2\)
beweisen.
\begin{proof}[Direkter Beweis] \label{} \
\begin{prof}[Direkter Beweis] \label{} \
\begin{enumerate}
\item \(q\) ist gerade \(\implies q\) ist durch \(2\) Teilbar f"ur \(k\in\mathbb{N}\)
\item \(q\) ist aber eine Primzahl \(\implies\) einer der Faktoren in \(2\cdot k\) ist
gerade \(1\), \(2\not= 1\)
\item \(\implies k=1, q=2\)
\end{enumerate}
\end{proof}
\end{prof}
\begin{proof}[Kontraposition] \label{} \
\begin{prof}[Kontraposition] \label{} \
Wir m"ussen zeigen: \(q\not= 2\implies\) (\(q\) ungerade) \(\vee\) (\(q\) keine
Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl)
\(\implies q\) ist ungerade!
@ -612,9 +615,9 @@ Primzahl). Es reicht zu zeigen: (\(q\not=2)\wedge(q\) ist eine Primzahl)
\item Wenn \(q\) gerade ist, \(q\cdot 2k\), also ist \(k>1\)
\item also \(q\not= 2\)
\end{enumerate}
\end{proof}
\end{prof}
\begin{proof}[Widerspruchsbeweis] \label{} \
\begin{prof}[Widerspruchsbeweis] \label{} \
Annahme: \(q\) ist gerade, \(q\) ist eine Primzahl, \(q\not= 2\). Wir wollen einen
Widerspruch herleiten.
@ -623,7 +626,7 @@ Widerspruch herleiten.
\item da \(q\not= 2\), gilt \(k>1\)
\item aber \(q\) ist prim, also kann \(q\) kein Produkt von zwei Zahlen sein! \(\lightning\)
\end{enumerate}
\end{proof}
\end{prof}
\end{exa}
\section{Komplexe Zahlen}
@ -854,7 +857,7 @@ Einheitswurzeln in \(\mathbb{C}\). Sie sind durch die Formel
\(z_k=e^{\frac{2\pi\cdot k\cdot i}{n}},\quad k=0,1,...,n-1\) gegeben.
\end{proposition}
\begin{proof}[] \label{} \
\begin{prof}[] \label{} \
\(z_k\) sind \(n\text{-te}\) Einheitswurzeln denn:
\begin{align*}
z_k^n & = (e^{\frac{2\cdot\pi\cdot k}{n}})^n \\
@ -886,7 +889,7 @@ Also folgt:
Da \(\varphi\) in \([0,2\pi)\implies 0\leq k < n\).
\end{proof}
\end{prof}
Wenn wir jetzt also eine Gleichung \(z^n=a\) l"osen wollen, reicht es, eine
L"osung \(w\) zu finden, die anderen L"osungen bekommt man als \(w\cdot z_k,\;
@ -1039,7 +1042,7 @@ Jede Matrix kann durch elementare Zeilenumformungen auf die Stufenform gebracht
werden.
\end{theo}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Sei \(A=\begin{matrix}a_{11}&...&a_{nn}\end{matrix}\). \\
Wenn \(A=0\) - Bewiesen. \\
Wenn \(A\not=0\), dann gibt es eine Spalte \(\not= 0\). Sei
@ -1054,7 +1057,7 @@ Wir erhalten dann Restmatrix \(A_1<A\) und wir wenden das selbe Verfahren auf
\begin{notte}
Nach diesem Verfahren gilt sogar: Pivotelemente sind alle \$=1\$1
\end{notte}
\end{proof}
\end{prof}
\begin{exa}
@ -1173,17 +1176,17 @@ Matrixmultiplikation ist \emph{linear}: \(A\cdot (\lambda B_1 + \lambda_2 A B_2)
Analog:
\end{relation}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Sei \(C=A\cdot (\lambda_1 B_1 + \lambda_2 B_2)\)
\end{proof}
\end{prof}
\begin{relation}
Die Matrixmultiplikation ist assoziativ: \(A\cdot (B\cdot C)=(A\cdot B)\cdot C\)
\end{relation}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
\end{proof}
\end{prof}
\begin{definition}{Einheitsmatrix}{}
Die Einheitsmatrix der gr"osse \(r\) ist die Matrix, die auf der Hauptdiagonale
@ -1205,9 +1208,9 @@ F"ir alle \(A\in K^{p\times m}\) gilt:
\end{itemize}
\end{theo}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
\end{proof}
\end{prof}
\begin{notation}[] \label{Vorsicht!}
@ -1348,20 +1351,20 @@ linearkombination ergibt 0). Andernfalls heist die Menge linear abh"angig.
\begin{exa}[] \label{}
\(\{v_1,v_2\}\) sind linear abhaengig wenn sie Proportional sind.
\begin{proof}[] \label{}
\begin{prof}[] \label{}
\end{proof}
\end{prof}
\end{exa}
\textbf{Lemma} Die Menge ist linear abh"angig. \(v_i\) ist eine Linearkombination von \$\$
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Wenn \(v_i=\lambda_1 v_1\), dann \(0=\) Denn \(-1\) ist ein nicht-trivialer
Linearfaktor.
\((\implies)\) Nach Definition gibt es eine nichttriviale Linearkombination: als
\(\exists i : \lambda_i \not= 0\) Also gilt folglich
\end{proof}
\end{prof}
\begin{notte}[] \label{}
Eine L"osung des LGS \(Ax=b\) ist eine Spalte \$\$ mit
@ -1372,17 +1375,17 @@ zu finden, welche \(b\) ergeben.
\textbf{Lemma} Seien die Vektoren linear unabh"angig. Ein Vektor \(v\) ist genau dann
eine Linearkombination von \(v_1,...,v_n\) wenn linear abh"angig ist.
\begin{proof}[] \label{}
\begin{prof}[] \label{}
(\(\implies\)) Sei Dann gilt , also ist linear ab"angig.
Sei .. linear abh"angig Dann
Es gilt: \(\lambda \not= 0\) (wenn .. linearunabh"angig.) Also gilt \(v=-\lambda_1\)
\end{proof}
\end{prof}
\textbf{Lemma} Sei \(v=\lambda\) eine Linearkombination von \(v_1,...,v_n\). Diese
Darstellung ist eindeutig ganau dann, wenn linear unabh"angig sind.
\begin{proof}[] \label{}
\begin{prof}[] \label{}
\((\implies)\) Sei die Darstellung eindeutig \$v=..\$ Wenn jetzt \$\$, dan gilt \(v=\)
Eindeutigkeit der Darstellung ergibt:
@ -1390,7 +1393,7 @@ Seien \(v_1,..,v_n\) linear unabh"angig, sei
Dann gilt: \(\rightarrow\) lineare Unabhaengigkeit von erzwingt Korollar: Wenn die
Spalten von \(A\) linear unabhaenig sind, hat das LGS \(Ax=b\) h"ochstens eine
L"osung, folglich hat \(Ax=0\) genau eine L"osung x=0.
\end{proof}
\end{prof}
\subsection{Geometrische Deutung der linearen Abh"angigket}
\label{sec:org95b9a1d}
@ -1414,7 +1417,7 @@ In drei Dimensionen:
..., W_n \in \mathbb{V}\) so dass jedes \(w_i\) eine Linearkombination von
\(v_1,...,v_n\) ist. Wenn \(m>n\), dann sind \(w_1,...,w_n\) linear abhaengig.
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Seien
\begin{align*}
w_1= a_{11} v_1 + a_{12} v_2 + ... + a_{nn} v_n \\
@ -1427,16 +1430,16 @@ Dies ist nach linearer Unabhaenig von \ldots{} "Aquivalent zu:
Das heist (*) ist "aquivalent zu einem homogenen LGS aus \(n\) Gleichungen mit \(m\)
Variablen. \(n<m\), also gibt es eine L"osung $\ldots{}$, die ungleich \(0\) ist. \(\implies\)
sind linear unabh"angig.
\end{proof}
\end{prof}
\textbf{Korollar} Je drei Vektoren in \(\mathbb{R}^2\) sind linear unabh"angig, je \(n+1\)
Vektoren in \$\$ sind linear unabh"angig.
\begin{proof}[von Korollar] \label{}
\begin{prof}[von Korollar] \label{}
Seien \(e_i\) die Spalten der Einheitsmatrix sind linear unabh"angig.
Dies zeigt auch, dass jeder Vektor in \(R\) eine Linearkombination von \(e_i\) ist.
\end{proof}
\end{prof}
\begin{definition}{}{}
Sei V ein \(K-\) Vektorraum, \(U\subseteq V\) eine Teilmenge von V. \(U\) heist
@ -1500,7 +1503,7 @@ Jeder endlichedimensionale Vektorraum \(V\) hat eine Basis, Je zwei Basen von \
haben gleich viele Elemente.
\end{theo}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Sei \(S\) ein endliches Erzeugendensyste von \(V\), Wenn \(S\) lin. unabh. ist, ist es
eine Basis und wir haben gewonnen. Wenn \(S\) linear abh"angig ist $\implies$
(Lemma) einer von den Vektoren in \(S\) ist eine Linearkombination von den
@ -1514,7 +1517,7 @@ Seien \(S, S'\) zwei Basen. Da \(S\) eine Basis ist, ist jedes element von \(S'\
linearkombination in \(S\). Die elemente von \(S\) sind linear unabh. (weil Basis).
Wenn also \(m>n\), dann folgt aus der Proposition, dass \(S'\) linear abh. ist, was
unm"oglich ist, da \(S'\) eine Basis ist. Also \(m \leq n\) und aus Symmetriegr"unden folgt auch \(n \leq m\).
\end{proof}
\end{prof}
\begin{definition}{}{}
Sei \(V\) ein endlichdimensionaler Vektorraum. Die Anzahl der Vektoren in einer
@ -1538,7 +1541,7 @@ Eine Teilmenge \(S'\in V\) ist maximal linear unabh., wenn aus \(S\)
linear unabh. folgt.
\end{definition}
\begin{proof}[1] \label{}
\begin{prof}[1] \label{}
Sei linear unabh.
Zwei F"alle: entweder ist \(S\) schon maximal (dann sind wir fertig) oder man kann
S erweitern. Wenn wir \(S\) erweitern k"onnen, f"ugen wir neue Vektoren hinzu, bis
@ -1547,13 +1550,13 @@ wir es nicht mehr tun koennen, ohne lineare unabh. zu verletzen.
Dieser Prozess endet, weil eine linear unabh. Teilmenge h"ochstens von \(V\)
hoechstens \(\dim V\) viele Vektoren enthalten kann. (Prop. "uber lineare unabh.
von vektoren aus linearkombinartionen der Basis.)
\end{proof}
\end{prof}
\begin{proof}[2] \label{}
\begin{prof}[2] \label{}
Sei \(S\in V\) maximal linear unabh"angig. Wir habe zu zeigen: \(<S>=V\) (Def. einer
Basis). Wenn $\ldots{}$ d.h. aber, aber \(S\cup {v}\) ist linear unabh. (lemma) $\implies$
\(S\) dann nicht maximal.
\end{proof}
\end{prof}
\textbf{Korollar} Man kann jeder lienar unabh. Teilmenge \(S\in V\) zu einer Basis
erweitern.
@ -1574,7 +1577,7 @@ Sei V ein endlichdimensionaler Vektorraum und \(U\in V\) ein Untervektorraum. Da
gillt: \(\dim U \leq \dim V\). \(\dim U = \dim V \iff U=V\)
\end{theo}
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Sei eine maximale linear unabh. Teilmenge in U. (so eine Teilmenge existiert
weil V endlich ist.)
Nach Proposition (2) ist \ldots{} eine Basis in \(U\), also gilt \(\dim U = k\) Erweitere
@ -1583,7 +1586,7 @@ Nach Proposition (2) ist \ldots{} eine Basis in \(U\), also gilt \(\dim U = k\)
(2) \ldots{} trivial \ldots{} Sei \ldots{} eine Basis in U. Erweitere sie zu einer Basis in
\(V\). Diese Basis in V muss aber wegen \ldots{} gleich viele Vektoren haben. \ldots{}. ist
eine Basis in \(V\) \ldots{}
\end{proof}
\end{prof}
\begin{definition}{}{}
@ -1606,11 +1609,11 @@ Sei \(Ax=0\) ein h. LGS
\textbf{Aus Uebungen} \ldots{}
\textbf{Lemma} Die Spalten von \(\Phi\) bilden eine Basis in L.
\begin{proof}[] \label{}
\begin{prof}[] \label{}
Die Spalten von \(\Phi\) sind linear unabhaenig. (sonst abb. nicht injektiv)
Ferner spannen sie das ganze L auf (Surjektiv).
\end{proof}
\end{prof}
\textbf{Frage} Gegeben Basen \ldots{} in \(V\), und einem Vektor \(v\in V\). Wie rechnet man die
Koordinaten bezgl. B in Koordinaten bzgl. B' um.
@ -1678,9 +1681,9 @@ $Im(f_A )=\{b\in K^m \:|\: \exists x \in K^n: A\cdot x=b \}=\{b\in K^m\:|\:LGS A
\textbf{Proposition} Sei \(f:V\rightarrow W\) eine lineare Abbildung. Es gilt: \(f\) injektiv $\iff$ \(Ker(f)=\{0\}\)
\begin{proof}[] \label{}
\begin{prof}[] \label{}
f injektiv $\iff v_1 \neq v_2 \in V: f(v_1)\neq f(v_2) \iff f(v_1)-f(v_2)\neq 0 \iff f(v_1 -v_2)\neq 0 \iff v_1,v_2 \in V, v_1-v_2\neq 0: f(v_1 -v_2)\neq 0 \iff v\neq 0: f(v)\neq 0 \iff Ker(f) = \{0\}$
\end{proof}
\end{prof}
\begin{definition}{}{}
Eine bijektive Lineare Abbildung \(f:V\rightarrow W\) heißt Vektorraumisomorphismus
@ -1719,11 +1722,11 @@ Sei \(f:V\to W\) eine Lineare Abbildung, sei \(V\) endlich dimensional. Dann gil
\begin{lemma} sei \(f\) wie oben. Sei \(U \subseteq \mKer(f)\) ein Untervektorraum mit \(U \cap \mKer(f) = \{0\}\). Dann ist \(f|_U:U\to f(U)\) ein Isomorphismus.
\end{lemma}
\begin{proof}[Beweis des Lemmas] \label{}
\begin{prof}[Beweis des Lemmas] \label{}
\(f|_U:U\to f(U)\) ist surjektiv nach Konstruktion. Zu zeigen: \(f|_U\) injkektiv \(\iff \mKer f|_U = \{0\}\). Sei \(u\in \mKer f|_U \). Dann gilt \(u\in U \land u \in \mKer(f) \implies u \in U \cap \mKer f \implies u = 0\)
\end{proof}
\end{prof}
\begin{proof}[Beweis der Dimensionsformel] \label{}
\begin{prof}[Beweis der Dimensionsformel] \label{}
W"ahle eine Basis \({e_1, ..., e_k}\) in \(\mKer f\) und erg"anze sie zu einer Basis
\({e_1, ..., e_n}\) in \(V\).
@ -1736,7 +1739,7 @@ f(v) = f\left(\underbrace{\sum_{i=1}^{k}\lambda_ie_i}_{\in \mKer(f)}\right) + f\
\(\implies f(V)=f(U)\) also \(f|_U : U\to f(V) = \mIm(f) \) ist ein Isomorphismus \(\implies \mdim \mIm f = \mdim U \)
Nun gilt nach Konstruktion von \(U\): \[\underbrace{\mdim \mKer(f)}_{k} + \underbrace{\mdim U}_{n-k} = \underbrace{\mdim V}_{n} \implies \mdim\mKer f + \mdim\mIm f = \mdim V \]
\end{proof}
\end{prof}
\subsubsection{Summe von Untervektorr"aumen}
\label{sec:org83dfe63}
@ -1793,7 +1796,7 @@ Sind \(U_1, U_2 \subset V\) Untervektorr"aume, dann gilt: \(\dim(U_1 +U_2) =\dim
\begin{bem}
\(U_1\cap U_2\) ist stets ein Untervektorraum, wenn \(U_1\) und \(U_2\) Untervektorr"aume sind.
\end{bem}
\begin{proof}[Dimensionsformel]
\begin{prof}[Dimensionsformel]
Betrachte die Abbildung \(f: U_1 \times U_2 \to U_1 + U_2, (u_1, u_2) \mapsto u_1 + u_2 \). Hierbei ist \(U_1\times U_2 = \{(u_1, u_2) | u_1 \in U_1, u_2 \in U_2 \} \) der Verktorraum der Paare \((u_1, u_2)\) mit
elementweisen Operationen:
@ -1816,7 +1819,7 @@ Ferner gilt: \(\mIm(f) = U_1 + U_2\) per Definition. Nun ist:
&\implies \dim\mKer (f) = \dim(U_1 \cap U_2)\\
&\implies \underbrace{\dim(U_1 \cap U_2)}_{\dim\mKer(f)} + \underbrace{\dim(U_1 + U_2)}_{\dim\mIm(f)} = \underbrace{\dim(U_1) + \dim(U_2)}_{\dim (U_1\times U_2)}
\end{align*}
\end{proof}
\end{prof}
Was hat diese ganze Theorie mit Matrizen zu tun? Intuitiv: Abbildungen sind
\gq{geometrisch} und Matrizen sind Koordinatenformen dieser geometrischen
@ -1835,13 +1838,13 @@ Seien \(V,W\) zwei (\(\mathbb{K}\)-) Vektorr"aume. Dann nennen wir
\begin{proposition}
\(\mHom_\mathbb{K}(V,W)\) ist auch ein Vektorraum.
\end{proposition}
\begin{proof}
\begin{prof}
Wenn \(f_1, f_2 \in \mHom_\mathbb{K}(V,W)\):
\begin{align*}
(f_1 + f_2)(v) &= f_1(v) + f_2(v) \quad\text{ist linear} \\
(\lambda f_1)(v) &= \lambda\cdot f_1(v)\quad\text{ist auch linear}
\end{align*}
\end{proof}
\end{prof}
Seien \(V, W\) endlichdimensional, \(B = \{b_1, \dots, b_n\}\) Basis in \(V\), \(C = \{c_1, \dots, c_m\}\) Basis in \(W\). Sei \(f \in \mHom_\mathbb{K}(V,W)\). Die Abbildungsmatrix \(F= M_C^B(f)\) in \(f\) bzgl. \(B\) und \(C\) ist definiert als
Matrix, deren Spalten die Koordinatenspalten von \(f(b_1),\dots, f(b_n)\) bzgl. der Basis \(C\) sind:
@ -1866,7 +1869,7 @@ M_B^B(f) = \begin{pmatrix}
Vektorra"umen.
\end{proposition}
\begin{proof}
\begin{prof}
Aus Definition von \(M_C^B(f)\) folgt sofort:
\begin{align*}
M^B_C(f_1 + f_2) &= M_C^B(f_1) + M_C^B(f_2)\\
@ -1886,7 +1889,7 @@ f\left(\sum_{j=1}^n\lambda_jb_j\right) = \sum_{j=1}^n\lambda_j\cdot\left(\sum_{i
\begin{align*}
f(b_j) = \sum_{i=1}^mF_{ij}c_i \implies M^B_C(f) = F
\end{align*}
\end{proof}
\end{prof}
Im Beweis haben wir unter anderem festgestellt:
\begin{relation}
@ -1915,12 +1918,12 @@ Seien \(V, W, Z\) drei \(\mathbb{K}\)-Vektorr"aume, \(f \in \mHom_\mathbb{K}(V,
Seien \(B,C,D\) Basen in
\(V,W,Z\). Dann gilt: \(M^B_D(g\circ f) = M^C_D(g)\cdot M^B_C(f)\).
\end{proposition}
\begin{proof}
\begin{prof}
Sei \(F = M^B_C(f)\), \(G = M^C_D(g)\). Dann:
\begin{align*}
(g\circ f)(b_j) &= g(f(b_j)) = g\left(\sum_{i=1}^m F_{ij}c_i\right) = \sum_{i=1}^mF_{ij}g(c_i) \\&= \sum_{i=1}^m F_{ij}\sum_{k=1}^lG_{ki}d_k = \sum_{k=1}^l\underbrace{\left(\sum_{i=1}^mG_{ki}F_{ij}\right)}_{M^B_D(g\circ f)}d_k
\end{align*}
\end{proof}
\end{prof}
Wenn \(V\) ein Vektorraum ist, \(B,B'\) zwei Basen, dann erhalten wir die
Basiswechselmatrix \(S\), deren Spalten die Koordinaten von den neuen
@ -1931,10 +1934,10 @@ Wenn \(V\) ein Vektorraum ist, \(B,B'\) zwei Basen, dann erhalten wir die
\begin{lemma}[Basiswechselmatrizen sind invertierbar]
\(S = M^{B'}_B(\mId_V)\) ist invertierbar f"ur je zwei Basen \(B, B' \subset V\), und \(S^{-1} = M^B_{B'}(\mId_V)\).
\end{lemma}
\begin{proof}
\begin{prof}
\(M^B_B(\mId_V)=1_n\), daher ist
\[\underbrace{M^{B'}_B(\mId_V)}_{S}\cdot M^B_{B'}(\mId_V) = M^B_B(\mId_V) = 1_n \]
\end{proof}
\end{prof}
\subsubsection{Basen und Abbildungsmatrizen (Zusammenfassung)}
@ -1968,9 +1971,9 @@ Sei .. eine Lineare Abbildung, ..., dann gilt:
M^{B'}_{C'}(f)=
\] In Anderen Worten: wenn $S$ die Basiswechselmatrix von ... so gilt
\begin{proof}
\begin{prof}
$M^{B'}_{C'}(f)=$
\end{proof}
\end{prof}
\begin{notte}[zur Basiswechselmatrix]
$ M^{B'}_{B}$ ist die Basiswechselmatrix von $B$ zu $B'$: sie enth"alt die
@ -1992,11 +1995,11 @@ Sei .. eine Lineare Abbildung, ..., dann gilt:
F"ur jede Matrix ... gibt es invertierbare Matrizen ... , so dass
\end{korollar}
\begin{proof}
\begin{prof}
Sei ... w"ahle eine Basis ... im $\text{Ker}(f)$ und erweitere sie zu einer
Basis ... in Basis. Setze: ... Beim Beweis der Dimensionsformal haben wir
gesehen ... . Erweitere jetzt ... zu einer Basis ... in $W$. Es gilt.
\end{proof}
\end{prof}
\subsubsection{Konsequenzen f"ur Matrizen}
\label{sec:konsma}
@ -2029,15 +2032,15 @@ Das stimmt denn: dieses Verfahren l"ost gleichzeitig die LGS ...
Seien $X,Y,Z$ Mengen, ... Dann gilt:
\end{lemma}
\begin{proof}[Beweisschema]
\begin{prof}[Beweisschema]
\begin{enumerate}
\item (0) $ \iff $ (1)
\item (1) $ \iff $ (2): $B:=A^{-1}$
\item (1) $ \iff $ (3): $C:=A^{-1}$
\end{enumerate}
\end{proof}
\end{prof}
\begin{proof}{des Satzes}\leavevmode
\begin{prof}{des Satzes}\leavevmode
\begin{itemize}
\item[(0) $\implies$ (1)] $A=M^{\varepsilon}_{\varepsilon}(f_A)$, woberi $f_A:$
\item[(1) $\implies$ (0)] Sei $A$ invertierbar, $A=$ Betrachten wir die
@ -2063,7 +2066,7 @@ Das stimmt denn: dieses Verfahren l"ost gleichzeitig die LGS ...
Wenn wir ... \\
Analog
\end{itemize}
\end{proof}
\end{prof}
\subsubsection{Determinanten}
\label{sec:det}
@ -2115,9 +2118,9 @@ $\mathbb{R}^2$ bzw. $\mathbb{R}^3$?
...
\end{notte}
\begin{proof}[zur Bemerkung]
\begin{prof}[zur Bemerkung]
Wir lassen die Variablen ausser ... fest und rechnen.
\end{proof}
\end{prof}
\begin{notte}
Genau wie bei Volumina von Quadern in $\mathbb{R}^3$ die Wahl einer
@ -2129,7 +2132,7 @@ $\mathbb{R}^2$ bzw. $\mathbb{R}^3$?
eine Basis in $V$. Der Wert .... ..
\end{lemma}
\begin{proof}[des Lemmas]
\begin{prof}[des Lemmas]
Stelle $v_i=\sum{\lambda_{ij}b_j}$ dar ($B$ ist ja eine Basis) und benutze
Linearit"at von $\omega$.
\begin{align*}
@ -2138,7 +2141,7 @@ $\mathbb{R}^2$ bzw. $\mathbb{R}^3$?
Es ueberleben nur Terme, wo $b_{j1},...,b_{ji}$ in anderer Reihenfolge sind
$\implies$ dann ist ... $\implies$ ... Summe von Termen der Form
\end{proof}
\end{prof}
\begin{proposition}
Sei ... eine Volumenform auf V. Dann gilt:
\begin{enumerate}
@ -2147,12 +2150,12 @@ $\mathbb{R}^2$ bzw. $\mathbb{R}^3$?
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{prof}
\begin{enumerate}
\item Linearit"at:
\item Sind ... linear abh"angig, dann ist ein $V_J=\sum$
\end{enumerate}
\end{proof}
\end{prof}
Wir wollen die Abh"angigkeit aus dem lemma explizit aufschreiben
@ -2254,7 +2257,7 @@ V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\).
\begin{proposition}
Sei \(V\) ein \(n\)-dimensionaler Vektorraum. Es gibt eine bis auf ein Vielfaches eindeutige Volumenform \(\omega \neq 0\) auf \(V\).
\end{proposition}
\begin{proof}
\begin{prof}
W"ahle eine Basis \(B= (b_1,\dots,b_n) \in V\), definiere \(\omega(v_1,\dots,v_n)\) durch die Leibniz-Formel mit \(\omega(b_1,\dots,b_n):=1\). Dann ist \(\omega\neq 0\) nach Konstruktion. \(\omega\) ist linear in jeder Variable, weil \(\det\Delta \) definiert durch die Leibniz-Formel linear in jeder Zeile der Matrix \(\Delta\) ist. Wir m"ussen noch zeigen, dass es alternierend ist: \[\omega(v_1,\dots,v_{i-1},v_i,v_{i+1},\dots,v_{j-1},v_j,v_{j_1},\dots,v_n) = \det\Delta \cdot\omega(b_1,\dots,b_n) \] Wobei die \(i\)-te und \(j\)-te Zeile von \(\Delta\) "ubereinstimmen (es gilt also \(\lambda_{i,x}=\lambda_{j,x}\)). Es gilt:
\begin{align*}
\det\Delta &= \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)} \\
@ -2264,7 +2267,7 @@ V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\).
&\implies \det A = 0
\end{align*}
\(\implies\omega \) alternierend.
\end{proof}
\end{prof}
\(\omega\) ist eindeutig durch den Wert (=1) auf \(B\) bestimmt \(\implies\) wenn \(\omega'\) eine Volumenform auf \(V\) ist, so gilt \(\omega' = \underbrace{\omega'(b_1,\dots,b_n)}_{\in K}\cdot\omega\)
@ -2281,12 +2284,12 @@ V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\).
\begin{lemma}
\(\det\Delta = \det\Delta^T\quad\forall \Delta\in K^{n\times n}\)
\end{lemma}
\begin{proof}
\begin{prof}
Es gilt: \(\varepsilon(\sigma) = \varepsilon(\sigma^{-1})\quad\forall \sigma\in S_n \) (folgt z.B. aus \(\varepsilon(\sigma\circ\sigma^{-1})=1=\varepsilon(\sigma)\varepsilon(\sigma^{-1})\))
\begin{align*}
\det\Delta^T = \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{\sigma(1),1}\dots\lambda_{\sigma(n),n} = \sum_{\sigma^{-1}\in S_n}\varepsilon(\sigma^{-1})\lambda_{1,\sigma^{-1}(1)}\dots\lambda_{n,\sigma^{-1}(n)} = \det \Delta
\end{align*}
\end{proof}
\end{prof}
\begin{proposition}
\begin{enumerate}
\item \(f, g: V\to V \) linear \(\implies\det(g\circ f) = \det(g)\det(f) \)
@ -2296,11 +2299,11 @@ V\) mit Darstellungen \(v_i = \sum_{i=1}^n{\lambda_{ij}\cdot b_j}\).
\begin{korollar}
Sei \(B\) eine Basis in \(V\), \(f:V\to V \) linear. Dann gilt: \(\det(f) = \det M^B_B(f) \)
\end{korollar}
\begin{proof}
\begin{prof}
\begin{align*}
\det(f) = \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)} \stackrel{Def. Abb. + Leibniz}{=} \det M^B_B(f)^T \stackrel{Lemma}{=} \det M_B^B(f)
\end{align*}
\end{proof}
\end{prof}
\begin{korollar}
Eine Matrix \(A\in K^{n\times n} \) ist genau dann invertierbar, wenn \(\det A \neq 0 \)
\end{korollar}
@ -2328,7 +2331,7 @@ Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnung
\begin{proposition}
Sei \(V\) ein \(n\)-dimensionaler Vektorraum. Es gibt eine bis auf ein Vielfaches eindeutige Volumenform \(\omega \neq 0\) auf \(V\).
\end{proposition}
\begin{proof}
\begin{prof}
W"ahle eine Basis \(B= (b_1,\dots,b_n) \in V\), definiere \(\omega(v_1,\dots,v_n)\) durch die Leibniz-Formel mit \(\omega(b_1,\dots,b_n):=1\). Dann ist \(\omega\neq 0\) nach Konstruktion. \(\omega\) ist linear in jeder Variable, weil \(\det\Delta \) definiert durch die Leibniz-Formel linear in jeder Zeile der Matrix \(\Delta\) ist. Wir m"ussen noch zeigen, dass es alternierend ist: \[\omega(v_1,\dots,v_{i-1},v_i,v_{i+1},\dots,v_{j-1},v_j,v_{j_1},\dots,v_n) = \det\Delta \cdot\omega(b_1,\dots,b_n) \] Wobei die \(i\)-te und \(j\)-te Zeile von \(\Delta\) "ubereinstimmen (es gilt also \(\lambda_{i,x}=\lambda_{j,x}\)). Es gilt:
\begin{align*}
\det\Delta &= \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{1,\sigma(1)}\dots\lambda_{n,\sigma(n)} \\
@ -2338,7 +2341,7 @@ Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnung
&\implies \det A = 0
\end{align*}
\(\implies\omega \) alternierend.
\end{proof}
\end{prof}
\(\omega\) ist eindeutig durch den Wert (=1) auf \(B\) bestimmt \(\implies\) wenn \(\omega'\) eine Volumenform auf \(V\) ist, so gilt \(\omega' = \underbrace{\omega'(b_1,\dots,b_n)}_{\in K}\cdot\omega\)
@ -2355,12 +2358,12 @@ Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnung
\begin{lemma}
\(\det\Delta = \det\Delta^T\quad\forall \Delta\in K^{n\times n}\)
\end{lemma}
\begin{proof}
\begin{prof}
Es gilt: \(\varepsilon(\sigma) = \varepsilon(\sigma^{-1})\quad\forall \sigma\in S_n \) (folgt z.B. aus \(\varepsilon(\sigma\circ\sigma^{-1})=1=\varepsilon(\sigma)\varepsilon(\sigma^{-1})\))
\begin{align*}
\det\Delta^T = \sum_{\sigma\in S_n}\varepsilon(\sigma)\lambda_{\sigma(1),1}\dots\lambda_{\sigma(n),n} = \sum_{\sigma^{-1}\in S_n}\varepsilon(\sigma^{-1})\lambda_{1,\sigma^{-1}(1)}\dots\lambda_{n,\sigma^{-1}(n)} = \det \Delta
\end{align*}
\end{proof}
\end{prof}
\begin{proposition}
\begin{enumerate}
\item \(f, g: V\to V \) linear \(\implies\det(g\circ f) = \det(g)\det(f) \)
@ -2370,11 +2373,11 @@ Die Leibniz-Foreml ist zu ineffizient (sie hat \(n!\) Summanden). Die Berechnung
\begin{korollar}
Sei \(B\) eine Basis in \(V\), \(f:V\to V \) linear. Dann gilt: \(\det(f) = \det M^B_B(f) \)
\end{korollar}
\begin{proof}
\begin{prof}
\begin{align*}
\det(f) = \frac{\omega(f(b_1),\dots,f(b_n)}{\omega(b_1,\dots,b_n)} \stackrel{Def. Abb. + Leibniz}{=} \det M^B_B(f)^T \stackrel{Lemma}{=} \det M_B^B(f)
\end{align*}
\end{proof}
\end{prof}
\begin{korollar}
Eine Matrix \(A\in K^{n\times n} \) ist genau dann invertierbar, wenn \(\det A \neq 0 \)
\end{korollar}
@ -2440,9 +2443,9 @@ Wir haben gesehen: wenn \(f: V\to W\) linear, \(V, W\) endlichdimensionale Vekto
\]
(\(B\) hei"st auch Eigenbasis.)
\end{lemma}
\begin{proof}
\begin{prof}
Es gilt laut Definition \(f(b_i) = \lambda_ib_i\) wobei \(i = 1, \dots, n\) \(\implies\) die Form von \(M^B_B(f)\) folgt aus den Definitionen.
\end{proof}
\end{prof}
Es folgt: Wenn wir die Diagonalform von \(M^B_B(f)\) errichen m"ochten, m"ussen wir Eigenwerte und Eigenvektoren suchen!
\begin{definition}{Diagonalisierbarkeit}{}
Ein Endomorphismus \(f\) hei"st diagonalisierbar, wenn er eine Eigenbasis hat.
@ -2454,7 +2457,7 @@ Es folgt: Wenn wir die Diagonalform von \(M^B_B(f)\) errichen m"ochten, m"ussen
\item \(\lambda\) ist ein Eigenwert von \(f\) (d.h., es existieren Eigenvektoren zum Eigenwert \(\lambda\iff\det(\lambda\mId_V-f)=0\))
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{prof}
\begin{enumerate}
\item Sei \(v\in V\) ein Eigenvektor (Eigenvektoren sind per Definition \(\neq 0\)) zum Eigenwert \(\lambda\). Nach Definition gilt:
\begin{align*}
@ -2464,7 +2467,7 @@ Es folgt: Wenn wir die Diagonalform von \(M^B_B(f)\) errichen m"ochten, m"ussen
Andersherum: Wenn \(v \in \mKer(\lambda\mId_V -f)\setminus\{0\}\), dann ist \((\lambda\mId_V -f)(v)=0\land v\neq 0 \implies v\) ist Eigenvektor zum Eigenwert \(\lambda\).
\item Nach (oben) ist \(\lambda\) ein Eigenwert \(\iff\mKer(\lambda\mId_V -f)\neq 0\)\(\iff \lambda\mId_V -f\) ist nicht invertierbar \(\iff\det(\lambda\mId_V - f) = 0\)
\end{enumerate}
\end{proof}
\end{prof}
F"ur die Suche nach Eigenvektoren bedeutet das:
\begin{enumerate}
\item Wenn wir einen Eigenwert \(\lambda\) kennen, k"onnen wir Eigenvektoren ganz einfach bestimmen, indem wir eine Basis von \(\mKer(\lambda\mId_V -f)\) finden (dazu muss man nur ein LGS l"osen).
@ -2486,7 +2489,7 @@ Aus obigen "Uberlegungen folgt: Die Nullstellen von \(\chi_f(\lambda)\) sind gen
Die Eigenvektoren zu verschiedenen Eigenwerten sind linear unabh"angig, genauer: \[\lambda_1\neq\lambda_2\in K\implies\mKer(\lambda_1\mId_V-f)\cap\mKer(\lambda_2\mId_V-f)=\{0\}\]
Insbesondere ist die Summe verschiedener Eigenr"aume immer direkt.
\end{lemma}
\begin{proof}
\begin{prof}
Sei \(\lambda_1\neq\lambda_2\), sei weiterhin \(v\in\mKer(\lambda_1\mId_V-f)\cap\mKer(\lambda_2\mId_V-f)\). Dann gilt \(f(v)=\lambda_1v=\lambda_2v\) \(\implies(\lambda_1-\lambda_2)v = 0\implies v = 0\).
(Nachtrag). Ausf"uhrlicherer Beweis dieser Aussage: Seien \(v_1,\dots,v_n\) Eigenvektoren zu Eigenwerten \(\lambda_1,\dots,\lambda_n\) (diese sollen paarweise verschieden sein). Sei \(\alpha_1 v_1+\dots + \alpha_nv_n = 0\). Wir definieren \(g_i\):
\begin{align*}
@ -2501,7 +2504,7 @@ Aus obigen "Uberlegungen folgt: Die Nullstellen von \(\chi_f(\lambda)\) sind gen
\end{cases} \quad ,\beta_i\neq 0
\end{align*}
\todo{Beweis vervollst"andigen, ich verstehe den letzten Schritt nicht :(}
\end{proof}
\end{prof}
Insbesondere folgt f"ur (3), dass die Vereinigung von Basen in Eigenr"aumen immer eine linear unabh"angige Menge ist, aber manchmal gibt es einfach \gq{zu wenige} Eigenvektoren, damit sie zu einer Basis werden.
\begin{exa}[Eigenwertberechnung]
\[M^B_B(f) =
@ -2558,10 +2561,10 @@ Es kann passieren, dass es \gq{zu wenig} Eigenwerte gibt.
\begin{lemma}[Bezout]
\(\mu\in K\) ist eine Nullstelle von \(p \iff p(\lambda) = (\lambda-\mu)\cdot p_1(\lambda)\), wobei \(p_1\) ein Polynom ist.
\end{lemma}
\begin{proof}[Bezout, Skizze]
\begin{prof}[Bezout, Skizze]
\((\impliedby)\): offensichtlich \\
\((\implies)\): folgt durch Division mit Rest: Wenn man \(p\) durch \((\lambda-\mu)\) mit Rest dividiert, bekommt man \(p(\lambda) = (\lambda-\mu)p_1(\lambda) + r(\lambda)\). Es ist (siehe auch Analysis) \(\mDeg(r) < \mDeg(\lambda-\mu) = 1\) \(\implies r(\lambda)=r\) ist Konstante. \(0 = p(\mu) = 0 + r \implies r = 0\).
\end{proof}
\end{prof}
\begin{beobachtung}
Ein Polynom von Grad \(d\) hat h"ochstens \(d\) Nullstellen.
\end{beobachtung}
@ -2579,30 +2582,30 @@ Folgerung: Sei \(V\) ein \(\mathbb{C}\)-Vektorraum, dann hat lineares \(f: V\to
\begin{lemma}
Sei \(f:V \to V\) \(\mathbb{R}\)-linear, dann ist \[f_{\mathbb{C}}: V_{\mathbb{C}}\to V_{\mathbb{C}} \qquad (v, w)\mapsto (f(v), f(w))\] \(\mathbb{C}\)-linear. (\(f_{\mathbb{C}}\) hei"st Komplexifizierung von \(f\))
\end{lemma}
\begin{proof}
\begin{prof}
\begin{align*}
f_{\mathbb{C}}((\alpha + i\beta)\cdot(v,w)) &= f_{\mathbb{C}}((\alpha v - \beta w, \beta v + \alpha w)) = (\alpha f(v) - \beta f(w), \beta f(v) + \alpha f(w)) \\
&= (\alpha + i \beta)\cdot (f(v), f(w)) = (\alpha + i \beta) \cdot f_{\mathbb{C}}((v, w))
\end{align*}
\end{proof}
\end{prof}
\begin{bem}
(v, 0) + i(w, 0) = (v, 0) + (0, w) = (v, w)
\end{bem}
\begin{lemma}
Wenn \(B = (b_1, \dots, b_n)\) eine Basis von \(V\) ist, so ist \((b_1, 0), \dots, (b_n, 0)\) eine Basis von \(V_{\mathbb{C}}\).
\end{lemma}
\begin{proof}
\begin{prof}
\((b_1, 0), \dots, (b_n, 0)\) spannen \(V_{\mathbb{C}}\) auf, weil reelle Linearkombinationen von \((b_1, 0), \dots, (b_n, 0)\) den Raum \(\{(v, 0)\mid v\in V\}\) aufpsannen, \(i(b_1, 0), \dots, (b_n, 0)\) spannen \(\{(0, w)\mid w \in V\}\) auf. Sie sind auch linear unabh"angig "uber \(\mathbb{C}\), denn die Aufspannabbildung \(\varphi: \mathbb{C}^n \to V_{\mathbb{C}}, \lambda\mapsto \sum_{i=1}^n\lambda_i(b_i, 0)\) ist die Komplexifizierung der reellen Aufspannabbildung . \(\varphi_{\mathbb{R}}\) war injektiv \(\implies \varphi\) war injektiv.
\end{proof}
\end{prof}
\begin{lemma}
Wenn $f: V\mapsto V$ ... linear ist und ... die Komplexifizierung, $B$ Basis
in $V$, dann gilt: ... (Wir nehmen reelle Matrizen als Complexe war.)
\end{lemma}
\begin{proof}
\begin{prof}
Inspektion der Abbildungsmatrix. \[f_{\mathbf{C}}(b_i,0) = (f(b_i), 0)\]
\end{proof}
\end{prof}
\begin{definition}
Sei $f: V \mapsto V$ eine $K$ - Lineare Abbildung. Ein Untervektorraum
@ -2615,10 +2618,10 @@ Folgerung: Sei \(V\) ein \(\mathbb{C}\)-Vektorraum, dann hat lineares \(f: V\to
mit ...
\end{proposition}
\begin{proof}
\begin{prof}
... Diese Matrix hat Eigenwerte $\alpha + i\cdot\beta$ und hat keine
Eigenvektoren.
\end{proof}
\end{prof}
Zusammen mit der Existenz von Eigenvektoren f"ur $f_{\mathbb{C}}$ haben wir:
@ -2652,18 +2655,18 @@ passiert, wenn ein reeller Operator Eigenwerte mit imagin"arem Teil hat''
Sei ... linearer Operator $U\subseteq V$ ein invarianter Untervektorraum. Dann
Es ist $f$ nicht diagonalisierbargilt $\Xi_{f} | $...
\end{proposition}
\begin{proof}
\begin{prof}
Nehmen wir eine Basis $B_U$ in $U$ und erweitern sie zu einer Basis $B$ in $V$
\end{proof}
\end{prof}
\begin{folgerung}
Die Dimension des Eigenraumes $Ker...$ ist kleiner gleich der Vielfachheit von
Es ist $f$ nicht diagonalisierbar $\lambda$ als Nullstelle $\Xi_f$.
\end{folgerung}
\begin{proof}
\begin{prof}
.... ist invariant,
\end{proof}
\end{prof}
\begin{definition}
Sei ... linear $\lambda$ ein Eigenwert von $f$. Die algebraische Vielfachheit
@ -2686,17 +2689,17 @@ passiert, wenn ein reeller Operator Eigenwerte mit imagin"arem Teil hat''
\end{enumerate}
\end{theo}
\begin{proof}
\begin{prof}
... ist ein Polynom vom Grad $\dim V \rightarrow{} \Xi_f$ hat h"ochstens $n$
Es ist $f$ nicht diagonalisierbarNullstellen in $K$, gez"ahlt mit
Es ist $f$ nicht diagonalisierbarVielfachheiten. $\implies$ ....
Andererseits ist $f$ genau dann diagonalisierbar, wenn es eine Basis aus
Es ist $f$ nicht diagonalisierbarEigenvektoren gibt, also ..
\end{proof}
\end{prof}
\begin{notte}
\begin{proof}[Tips und Tricks]
\begin{prof}[Tips und Tricks]
Der obige Satz ist nur interessant, wenn (1) erf"ullt ist und mehrfache
Nullstellen existieren, weil f"ur jeden Eigenwert $\lambda$ von $f$ gilt ja
nach Definition $\mu_{geo}(\lambda)\geq 1$. D.h., wenn alle Nullstellen in
@ -2705,7 +2708,7 @@ passiert, wenn ein reeller Operator Eigenwerte mit imagin"arem Teil hat''
$\implies$ Jede Komplexe Matrix ist bis auf eine beliebeig kleine
Pertubation diagonalisierbar. In diesen Sinne sind ''die meissten'' Matrizen diagonalisierbar.
\end{proof}
\end{prof}
\end{notte}
Zum charakteristischen Polynom:
@ -2792,14 +2795,14 @@ Bilinearformen unterschiedlich. (Hier nur f"ur symetrische Formen.)
ausgeartet (Invertierbar)
\end{lemma}
\begin{proof}
\begin{prof}
Wenn ..
Die Bedingungen ... sind "Aquivalent zum LGS $M_B(x) \cdot x = 0 $ auf die
Koordinatenspalte $x$ von $v$. Dieses LGS hat genau dann nur die Null"osung,
wenn $M_B(b)$ nicht ausgeartet ist. Der Beweis Zeigt auf $\dim V... = \dim
\{x\mid| M_B(b)= \dim V - \mRg M_B(b)\}$ insbesondere ist die Zahl $\mRg M_B(b)$
unabh"angig von der Basis $B$
\end{proof}
\end{prof}
\begin{definition}{pff}{}
\(\mRg(b):=\dim V - \dim V = \mRg M_B(b)\)
@ -2815,18 +2818,17 @@ Bilinearformen unterschiedlich. (Hier nur f"ur symetrische Formen.)
Dann gilt f"ur jeden UVR ....
\end{proposition}
\begin{proof}
\begin{prof}
...
\end{proof}
\end{prof}
\begin{korollar}
Wenn $b$ nicht ausgeartet ist, so gilt $(...)$ f"ur Jeden Untervektorraum
$U\subset V$
\end{korollar}
\begin{proof}
\begin{prof}
.... nach dem Prinzip ''Paul, wie heisst du'' Ausserdem gilt ...
\end{proof}
\end{prof}
\subsection{Schlagworte:}
\label{sec:orgcf8c685}