This commit is contained in:
Ameyah 2019-04-23 09:06:24 +02:00
commit 0f853d1619
10 changed files with 331 additions and 10 deletions

View file

@ -1 +1,76 @@
\section{A-Stabilität}
Wir betrachten die Test-AWA
\begin{align}
\label{3_29}
y'=\lambda y\quad\mit\quad y(0)=1
\end{align}
wobei $\lambda\in\comp$ ein Parameter ist. Die eindeutige Lösung dieser Aufgabe ist gegeben durch $y(x)=\exp(\lambda x)$ und es gilt insbesondere
\begin{align}
\Re(\lambda)&< 0 \quad\Rightarrow\quad \abs{y(x)}\to 0 \quad\text{für } x\to\infty \notag \\
\Re(\lambda)&=0 \quad\Rightarrow\quad\abs{y(x)}=1 \quad\text{für alle } x\in[0,\infty) \notag
\end{align}
\begin{definition}[A-Stabilität]
Ein Verfahren erzeuge zu einem beliebigen Paar $(h,\lambda)\in(0,\infty)\times\comp$ eine Folge $\{y_k\}$. Dann heißt das Verfahren \begriff{A-stabil}, wenn
\begin{align}
\abs{y_{k+1}} \le \abs{y_k}\quad\forall k\in\natur\notag
\end{align}
für jedes $(h,\lambda)\in (0,\infty)\times\comp$ mit $\Re(\lambda)\le 0$.
\end{definition}
Bei ESV gilt $y_{k+1}=y_k + h\Phi(x_k,y_k,y_{k+1},h)$. Wir nehmen an, dass für $f(x,y)=\lambda y$ eine Darstellung des ESV in der Form
\begin{align}
y_{k+1} = g(h\lambda)y_k \notag
\end{align}
mit einer Funktion $g$: $\comp\to\comp$ existiert. Die Funktion $g$ heißt dann auch \begriff{Stabilitätsfunktion}. Falls der \begriff{Stabilitätsbereich} (Bereich der absoluten Stabilität)
\begin{align}
\mathcal{S} = \{z\in\comp\mid \abs{g(z)}\le 1\}\notag
\end{align}
die Halbebene $\comp_-=\{z\in\comp\mid \Re(z)\le 0\}$ enthält, dann ist das ESV A-stabil (und umgekehrt), denn es gilt $\abs{y_{k+1}} = \abs{g(h\lambda)}\abs{y_k}\le \abs{y_k}$ für $k\in\natur$ und beliebige $(h,\lambda)\in (0,\infty)\times\comp$ mit $h\lambda\in\comp_-$. Für die \begriff{Trapenzregel} (ein implizites ESV)
\begin{align}
y_{k+1} = y_k + \frac{h}{2}\bigg(f(x_k,y_k) + f(x_{k+1},y_{k+1})\bigg) \notag
\end{align}
erhält aus der Test-AWA \cref{3_29} $y_{k+1} = y_k + \frac{h}{2}(\lambda y_k + \lambda y_{k+1})$ und somit
\begin{align}
\left(1-\frac{h}{2}\lambda\right)y_{k+1} = y_k\left(1+\frac{h}{2}\lambda\right)\notag
\end{align}
das heißt die Stabilitätsfunktion der Trapezregel ist gegeben durch
\begin{align}
g(z) = \frac{1+\frac{z}{2}}{1-\frac{z}{2}} = \frac{2+z}{2-z}\notag
\end{align}
Falls $\Re(z)\le 0$, so folgt
\begin{align}
\abs{g(z)}^2 = \frac{(2+\Re(z))^2 + (\Im(z))^2}{(2-\Re(z))^2 + (\Im(z))^2} \le 1\notag
\end{align}
also die A-Stabilität der Trapezregel.
Für das \begriff[\person{Euler}-Verfahren!]{explizite \person{Euler}-Verfahren} ergibt sich (wegen \cref{3_29})
\begin{align}
y_{k+1} = y_k + h\lambda y_k = (1+h\lambda)y_k\quad\text{und}\quad g(z) = 1+z\notag
\end{align}
Damit gilt
\begin{align}
\abs{g(z)}^2 = \abs{1+z}^2 = (1+\Re(z))^2 + (\Im(z))^2 \le 1 \notag
\end{align}
genau dann, wenn $z=h\lambda$ im Einheitskreis um $(-1,0)\in\comp$ liegt. Da der Stabilitätsbereich beim expliziten \person{Euler}-Verfahren nicht alle $z\in\comp$ mit $\Re(z)\le 0$ enthält, ist dieses Verfahren nicht A-stabil. Das explizite \person{Euler}-Verfahren hat Konsistenzordnung 1 (vgl. \propref{3_2_3}) und ist mit dieser Ordnung auch konvergent (vgl. \propref{satz_3_8}). Die fehlende A-Stabilität hat zur Folge, dass zur erfolgreichen numerischen Lösung der Test-AWA \cref{3_29} für $\lambda <0$ zumindest $-2\le h\lambda$ gelten muss. Dies erfordert $h\sim \frac{1}{\abs{\lambda}}$, also gegebenenfalls sehr kleine Schrittweiten. Dies ist neben einem hohen Aufwand auch die Gefahr des Überwiegens von Rundungsfehlern verbunden, vgl. Abschnitt 2.4. Verfahren, die A-stabil sind, bzw. einen hinreichend großen Bereich absoluter Stabilität besitzen, haben außerdem Vorteile bei sogenannten steifen AWA, vgl. Abschnitt 5.
Bei RKV kann man den Stabilitätsbereich untersuchen, indem man sich die Stabilitätsfunktion beschafft. Zum Beispiel betrachten wir das 2-stufige explizite RKV
\begin{align}
y_{k+1} &= y_k + hc_1k_1 + hc_2k_2 \notag \\
&= y_k + hc_1f(x_k,y_k) + hc_2f(x_k+\alpha_2h,y_k + h\beta_{21}f(x_k,y_k))\notag
\end{align}
Mit der Test-AWA \cref{3_29} folgt
\begin{align}
y_{k+1} &= y_k + h\lambda c_1y_k + h\lambda c_2(y_k + h\lambda\beta_{21} y_k) \notag \\
&= y_k(1+h\lambda c_1 + h\lambda c_2 + (h\lambda)^2 c_2\beta_{21}) \notag
\end{align}
Beim Verfahren von \person{Heun} (vgl. Abschnitt 2.5) mit $c_1=c_2=\sfrac{1}{2}$ und $\beta_{21}=1$ ergibt sich
\begin{align}
y_{k+1} = y_k\left(1+h\lambda + \frac{1}{2}(h\lambda)^2\right)\quad\text{und also}\quad g(z) = 1+z+\frac{1}{2}z^2 \notag
\end{align}
Man sieht schnell, dass dieses Verfahren nicht A-stabil ist (man wähle $z=(a,0)$ mit $a<-2$).
\begin{remark}
Es gibt kein explizites lineares MSV und kein explizites RKV, dass A-stabil ist und die A-stabilen impliziten MSV haben höchstens Konsistenzordnung 2 (zweite \person{Dahlquist}-Barriere).
\end{remark}

View file

@ -1 +1,3 @@
\section{Ausblick}
Die Theorie zur numerischen Behandlung von AWA ist natürlich wesentlich umfangreicher als hier dargestellt werden konnte. Das bedeutet einerseits, dass von den behandelten Themen nur wichtige Grundlagen des vorhandenen Wissens präsentiert wurden. Beispielsweise gibt es eine Reihe von speziellen Verfahren, die nicht oder nur beispielhaft beschrieben und analysiert wurden. Andererseits konnten verschiedene weitere Themen in der Vorlesung gar nicht angesprochen werden. Dazu zählen insbesondere Fragen der Fehlerabschätzung und Schrittweitensteuerung sowie angepasste Stabilitätsbegriffe. Zur Vertiefung stehen neben der Literatur auch weitere Lehrveranstaltungen zur Verfügung.

View file

@ -1 +1,68 @@
\section{Einblick: Steife Probleme}
Für $A\in\R^{m\times m}$ werde die AWA
\begin{align}
\label{3_30}
y' = Ay\quad\mit\quad y(a)=y^0
\end{align}
für $x\in [a,b]$ betrachtet. Wir setzen in diesem Abschnitt voraus, dass $A$ eine diagonalisierbare Matrix ist, das heißt es gibt eine reguläre Matrix $S\in\comp^{m\times m}$ und eine Diagonalmatrix $D\in\comp^{m\times m}$ mit $A=SDS^{-1}$. Dann ist die allgemeine Lösung $y$: $[a,b]\to\R^m$ von $y'=Ay$ gegeben durch
\begin{align}
y(x) = \sum_{i=1}^m c_i\exp(\lambda_i (x-a))v^i \notag
\end{align}
wobei $\lambda_1,...,\lambda_m\in\comp$ die Eigenwerte von $A$ und $v^1,...,v^m\in\comp^m$ ein zugehöriges System linear unabhängiger Eigenvektoren bezeichnet ($A$ diagonalisierbar!). Die Koeffizienten $c_1,...,c_m$ ergeben sich damit eindeutig aus der Anfangsbedingung $y(a)=c_1v^1+\dots+c_mv^m=y^0$.
Falls $\Re(\lambda_i)<0$ für $i=1,...,m$ wird die Zahl
\begin{align}
\frac{\max_{1\le i\le m}\abs{\Re(\lambda_i)}}{\min_{1\le i\le m}\abs{\Re(\lambda_i)}}\notag
\end{align}
als \begriff{Steifigkeitsquotient} von $A$ bezeichnet. Ist dieser Quotient groß, dann dient dies als Indikator für ein Phänomen, das bei der Anwendung bestimmter numerischer Verfahren aus \cref{3_30} auftreten kann und als \begriff{Steifheit} (stiffness) der AWA \cref{3_30} bezeichnet wird. Ein solches Phänomen wird im folgenden Beispiel beschrieben und führt bei bestimmten Lösungsverfahren (hier explizites \person{Euler}-Verfahren) zum Erfordernis sehr kleiner Schrittweiten.
\begin{example}
Für $a=0$ und
\begin{align}
A = \begin{pmatrix}
-80.6 & 119.4 \\ 79.6 & -120.4
\end{pmatrix} \notag
\end{align}
ergibt sich als allgemeine Lösung von $y'=Ay$
\begin{align}
y(x) = c_1\exp(-x)v^1 + c_2\exp(-200x)v^2 \quad\mit\quad v^1 = \begin{pmatrix}
3 \\ 2
\end{pmatrix} \text{ und } v^2 = \begin{pmatrix}
-1 \\ 1
\end{pmatrix} \notag
\end{align}
Für $y^0=(2,3)^T$ hat man als exakte Lösung von \cref{3_30} $y(x) = c_1\exp(-x)v^1 + c_2\exp(-200x)v^2$. Das explizite \person{Euler}-Verfahren liefert
\begin{align}
y^{k+1} = y^k + hAy^k = (\mathbbm{1} + hA)y^k \notag
\end{align}
Da $A$ diagonalisierbar ist, gilt $A=SDS^{-1}$ mit $S=(v^1,v^2)$ und $D=\diag(-1,-200)$ und
\begin{align}
S^{-1} = \frac{1}{5}\begin{pmatrix}
1 & 1 \\ -2 & 3
\end{pmatrix}\notag
\end{align}
Damit folgt
\begin{align}
S^{-1}y^{k+1} &= S^{-1}y^k + hS^{-1}ASS^{-1}y^k \notag \\
&= S^{-1}y^k + hDS^{-1}y^k \notag \\
&= (\mathbbm{1} + hD)S^{-1}y^k \notag
\end{align}
Setzt man $z^k = S^{-1}y^k$ ergibt sich weiter
\begin{align}
z^{k+1} = (\mathbbm{1} + hD)u^k \notag
\end{align}
für $k=0,...$. Wegen $z^0=S^{-1}y^0 = S^{-1}(v^1+v^2) = (1,0)^T + (0,1)^T = (1,1)^T$ erhält man
\begin{align}
z^k = (\mathbbm{1} + hD)^k\begin{pmatrix}
1 \\ 1
\end{pmatrix} \notag
\end{align}
Für $k\to\infty$ folgt $x_k\to\infty$ und $y(x_k)\to 0$. Um die Konvergenz der Folge $\{z^k\}$ und damit der Folge $\{y^k\}$ gegen 0 zu sichern, müssen
\begin{align}
\abs{1+\lambda_1 h} = \abs{1-h} < 1\quad\text{und}\quad \abs{1+\lambda_2 h} = \abs{1-200h} < 1 \notag
\end{align}
erfüllt sein. Dies impliziert $h < \sfrac{1}{100}$. Der für die exakte Lösung eigentlich unwesentliche (das heißt sehr schnell abklingende) Anteil $\exp(-200x)v^2$ verursacht beim expliziten \person{Euler}-Verfahren sehr kleine Schrittweiten.
\end{example}
Ähnliche Phänomene können bei der Anwendung anderer Verfahren, die nicht A-stabil sind, bzw. deren Bereich der absoluten Stabilität ungeeignet ist, auftreten. Auch bei allgemeineren AWA als \cref{3_30} treten Phänomene der Steifheit auf und erfordern angepasste Verfahren.

View file

@ -130,6 +130,7 @@ definiert.
In der Literatur findet man für vorstehende und ähnliche Aussagen die Bezeichnung \textit{diskretes \person{Grönwall}sches Lemma}.
\begin{proposition}
\proplbl{satz_3_8}
Die AWA \cref{3_1_1} besitze die eindeutige Lösung $y$: $[a,b]\to\R^m$. Ein Einschrittverfahren mit der Verfahrensfunktion $\Phi$ habe für die Differentialgleichung $y'=f(x,y)$ die Konsistenzordnung $p$. Es gebe ferner $L_\Phi>0$ und $H>0$, so dass die Lipschitz-Bedingung
\begin{align}
\label{3_1_6}

View file

@ -53,9 +53,159 @@ Danach wird eine Näherungslösung von \cref{3_22} (\person{Adams-Moulton}) etwa
\end{align}
die für ein vorgegebenes $j\ge 1$ abgebrochen wird. Die Bezeichnung $\beta_\nu^C$ dient der Unterscheidung von den im Prädiktor verwendeten Parametern $\beta_\nu$. Für $j=1$ ergibt sich ein nichtlineares MSV (\person{Adams-Bashford-Moulton}-Verfahren). Für $j\to\infty$ kann unter bestimmten Voraussetzungen für hinreichend kleine $h>0$ die Konvergenz der Folge $\{\zeta^j\}$ gegen den eindeutigen Fixpunkt $y^{k+l}$ gezeigt werden.
Eine Klasse von impliziten linearen MSV (sogenannte \begriff{Backward Differentiation Formulas} bzw. \begriff{BDF-Verfahren}) erhält man aus der Idee $y'(x_{k+l}) = f(x_{k+l},y(x_{k+l}))$ durch $\sfrac{1}{h}\sum_{\nu=0}^l \alpha_\nu y(x_{k+\nu})$ (verallgemeinerte Sekantensteigung) zu approximieren. Man hat dann ein lineares MSV der Form
Eine Klasse von impliziten linearen MSV (sogenannte \begriff{Backward Differentiation Formulas} bzw. \begriff{BDF-Verfahren}) erhält man aus der Idee $y'(x_{k+l}) = f(x_{k+l},y(x_{k+l}))$ durch $\frac{1}{h}\sum_{\nu=0}^l \alpha_\nu y(x_{k+\nu})$ (verallgemeinerte Sekantensteigung) zu approximieren. Man hat dann ein lineares MSV der Form
\begin{align}
\sum_{\nu=0}^l \alpha_\nu y^{k+\nu} = hf(x_{k+l},y^{k+l}) \notag
\end{align}
\subsection{Konsistenz- und Konvergenzordnung für lineare MSV}
Die Konsistenzordnung eines linearen MSV wird in Analogie zur entsprechenden Definition bei den ESV eingeführt. Verallgemeinerungen für beliebige MSV werden hier nicht betrachtet. Der lokale Diskretisierungsfehler eines MSV ergibt sich zu
\begin{align}
\Delta(x,h) &= y(x+lh) - \frac{1}{\alpha_l}\left(-\sum_{\nu=0}^{l-1} \alpha_\nu y(x+\nu h) + h\sum_{\nu=0}^l \beta_\nu f(x+\nu h,y(x+\nu h))\right) \notag \\
\label{3_23}
&= \frac{1}{\alpha_l} \left(\sum_{\nu=0}^l \alpha_\nu y(x+\nu h) - h\sum_{\nu=0}^l \beta_\nu f(x+\nu h,y(x+\nu h))\right)
\end{align}
Wenn es also $p\ge 1$, $M>0$ und $\tilde{h}>0$ gibt, so dass
\begin{align}
\norm{\frac{\Delta(x,h)}{h}} \le Mh^p\quad\forall (x,h)\in [a,b)\times (0,\tilde{h}]\text{ mit } x+h\le b \notag
\end{align}
für jede Lösung $y$: $[a,b]\to\R^m$ der Differentialgleichung $y'=f(x,y)$ gilt, dann sagt man, dass das MSV die \begriff[Mehrschrittverfahren!]{Konsistenzordnung} $p\ge 1$ besitzt. Unter der Voraussetzung, dass $f$ und damit die Lösungen $y$ der Differentialgleichung hinreichend glatt sind, gelten die Entwicklungen
\begin{align}
y(x+\nu h) = \sum_{q=0}^{p} \frac{\nu^q}{q!} y^{(q)}(x) h^q + R_p(x,h) \notag
\end{align}
und (mit $\frac{\diff y(x+\nu h)}{\diff h} = y'(x+\nu h)\nu$)
\begin{align}
f(x+\nu h,y(x+\nu h)) = y'(x+\nu h) = \sum_{q=1}^{p} \frac{\nu^{q-1}}{(q-1)!} y^{(q)}(x)h^{q-1} + r_p(x,h) \notag
\end{align}
wobei für die Restglieder $\norm{R_p(x,h)} \le M_R h^{p+1}$ und $\norm{r_p(x,h)}\le M_r h^p$ bei festem $x$ mit gewissen Konstanten $M_R,M_r>0$ gilt. Aus \cref{3_23} hat man daher
\begin{align}
\alpha_l\Delta(x,h) = c_0y(x) + \sum_{q=1}^p c_qy(x)^{(q)} h^q + Q(x,h)\quad\mit\quad\norm{Q(x,h)}\le M_Q h^{p+1} \notag
\end{align}
wobei $M_Q>0$ sowie
\begin{align}
\label{3_24}
c_0 = \sum_{\nu=0}^l \alpha_\nu\quad\text{und}\quad c_q ? \sum_{\nu=0}^l \left(\frac{\nu^q\alpha_\nu}{q!} - \frac{\nu^{q-1}\beta_\nu}{(q-1)!}\right)\quad\text{für } q=1,...,p
\end{align}
(mit $0^0=1$). Falls $c_0=\dots = c_p=0$, folgt damit
\begin{align}
\norm{\frac{\Delta(x,h)}{h}}\le \alpha_l M_Q h^p\notag
\end{align}
Also gilt
\begin{proposition}
\proplbl{satz_3_12}
Die Funktion $f$: $[a,b]\times\R^m\to\R^m$ sei $p$ mal stetig differenzierbar. Dann hat das MSV \cref{3_17} (mindestens) die Konsistenzordnung $p$, wenn $c_0=\dots=c_p=0$.
\end{proposition}
Unter Beachtung von \cref{3_18} und \cref{3_24} gilt $c_0=c_1=0$ (und damit entsprechend Satz \propref{satz_3_12} Konsistenzordnung $p\ge 1$), genau dann wenn
\begin{align}
\rho(1)=0\quad\text{und}\quad \rho'(1)-\sigma(1)=0 \notag
\end{align}
Ein $l$-schrittiges explizites lineares MSV \cref{3_17} hat die $2l$ freien Parameter $\alpha_0,...,\alpha_{l-1}$ und $\beta_0,...,\beta_{l-1}$ (o.B.d.A. kann $\alpha_l=1$ gewählt werden, $\beta_l$ kommt nicht vor, da MSV explizit sein sollte). Durch geeignete Wahl dieser Parameter könnte man $c_0=0,...,c_{2l-1}=0$ erreichen und damit die Konsistenzordnung $p=2l-1$. Wie wir aber sehen werden, sind solche Verfahren im Allgemeinen nicht konvergent.
\begin{example}
Sei $l=2$ und $m=1$. Dann lautet \cref{3_17}
\begin{align}
y_{k+2} + \alpha_1y_{k+1} + \alpha_0y_k = h\big(\beta_1 f(x_{k+1},y_{k+1}) + \beta_0 f(x_k,y_k)\big) \notag
\end{align}
Um $c_0=c_1=c_2=c_3=0$ und damit Konsistenzordnung 3 zu erreichen, muss man also $\alpha_0,\alpha_1,\beta_0,\beta_1$ so wählen, dass (mit $\alpha_2=1$ und $\beta_2=0$)
\begin{align}
\systeme[\alpha_0,\alpha_1,\beta_0,\beta_1]{\alpha_0 + \alpha_1 + 1 = 0@c_0,\alpha_1 - \beta_0 - \beta_1 + 2 = 0@c_1, \frac{1}{2}\alpha_1 - \beta_1 + 2 = 0@c_2, \frac{1}{6}\alpha_1 - \frac{1}{2}\beta_1 + \frac{4}{3} = 0@c_3} \notag
\end{align}
gilt. Die Lösung dieses Systems ist gegeben durch $\alpha_0=-5$, $\alpha_1=4$, $\beta_0=2$ und $\beta_1=4$. Also besitzt das MSV
\begin{align}
\label{3_25}
y_{k+2} + 4y_{k+1} - -5y_k = h\big(2f(x_k,y_k) + 4f(x_{k+1},y_{k+1})\big)
\end{align}
die Konsistenzordnung 3. Für das Testproblem
\begin{align}
y'=-y\quad\mit\quad y(0)=1 \notag
\end{align}
lautet die Lösung $y(x)=\exp(-x)$. Das Verfahren \cref{3_25} geht wegen $f(x,y)=-y$ über die homogene lineare Differentialgleichung mit konstanten Koeffizienten
\begin{align}
\label{3_26}
y_{k+2} + (4+4h)y_{k+1} + (-5+2h)y_k=0
\end{align}
Mit dem Ansatz $y_k=z^k$ für ein $z\in\R\backslash\{0\}$ erhält man aus \cref{3_26} (nach Division durch $z^k$)
\begin{align}
\label{3_27}
z^2 + (4+4h)z + (-5+2h) = \rho(z) - h\sigma(z) = 0
\end{align}
Die Lösungen dieser quadratischen Gleichungen lauten
\begin{align}
z_{1/2} = z_{1/2}(h) &= -2(1+h) \pm \sqrt{4(1+h)^2 - 2h+5} \notag \\
&= -2(1+h) \pm\sqrt{1 + \frac{2h}{3} + \frac{4h^2}{9}} \notag
\end{align}
Für $h\to 0$ hat man
\begin{align}
z_1(h) = 1-h + \mathcal{O}(h^2)\quad\text{und}\quad z_2(h) = -5 + \mathcal{O}(h) \notag
\end{align}
Die allgemeine Lösung der Differentialgleichung \cref{3_26} ist gegeben durch
\begin{align}
y_k = c_1z_1 ^k + c_2z_2^k \notag
\end{align}
Gibt man sich die Startwerte $y_0=y(0)=1$ und $y_1=y(h)=\exp(-h)$ als exakte Funktionswerte vor, bestimmen sich die Konstanten $c_1=c_1(h)$ und $c_2=c_2(h)$ aus $y_0=c_1+c_2$ und $y_1=c_1z_1 + c_2z_2$. Bei genauerer Betrachtung der Abhängigkeit von $z_1,z_2$ von $h$ ergibt sich dafür $c_1(h)=1+\mathcal{O}(h^2)$ und $c_2(h)=-\frac{h^4}{216} + \mathcal{O}(h^5)$. Für festes $x>0$ und $x=kh$ folgt für $k\to\infty$ und $h\to 0$
\begin{align}
\abs{c_2(h) z_2(h)^k} = \abs{\mathcal{O}\left(\left(\frac{x}{k}\right)^4\right)}\cdot\abs{-5+\mathcal{O}(h)}^k\to\infty \notag
\end{align}
sowie
\begin{align}
c_1(h) z_1(h) &= (1+\mathcal{O}(h^2))\cdot (1-h+\mathcal{O}(h^2))^k \notag \\
&= \left(1-\frac{x}{k}\right)^k + \mathcal{O}(h^2) \notag \\
&\to\exp(-x)\notag
\end{align}
Da die sogenannte parasitäre Lösungskomponente $c_2z_2^k$ die andere sinnvolle Lösungskomponente der Differentialgleichung beliebig übersteigt, kann man für das MSV \cref{3_25} keine Konvergenz erwarten. Um dieses Verhalten bei einem linearen MSV zu verhindern, darf zumindest der Betrag jeder Lösung (Wurzel) der Polynomgleichung $\rho(z)=0$ den Wert 1 nicht übersteigen, vergleiche \cref{3_27} für $h\to 0$.
\end{example}
\begin{definition}[D-stabil, nullstabil]
Das lineare MSV \cref{3_17} heißt \begriff[Mehrschrittverfahren!]{D-stabil} (oder \begriff[Mehrschrittverfahren!]{nullstabil}), falls es die \begriff{Wurzelbedingung} erfüllt, das heißt wenn der Betrag jeder Nullstelle seines ersten charakteristischen Polynoms $\rho$ durch 1 beschränkt ist und der Betrag jeder mehrfachen Nullstelle von $\rho$ kleiner als 1 ist.
\end{definition}
Die Bezeichnung D-stabil ist zu Ehren von \person{Dahlquist} (1925-2005) für seine Arbeiten zur Stabilität von linearen MSV gewählt worden.
Zur formalen Definition der Konvergenzordnung eines linearen MSV nehmen wir (wie bei ESV) an, dass die AWA \cref{3_1_1} die eindeutige Lösung $y$: $[a,b]\to\R^m$ besitzt. Weiter nehmen wir an, dass zu jeder Schrittweite $h$ Startvektoren $y_0^h,...,y_h^{l-1}$ gegeben sind, aus denen das MSV die Näherungen $y_h^l,...,y_h^N$ erzeugt. Falls für jede Schrittweite $h=\frac{b-a}{N}$ die Startvektoren die Bedingung
\begin{align}
\label{3_28}
\norm{y_h^\nu - y(x_o+\nu h)} \le C_1h^p\quad\forall\nu=0,...,l-1
\end{align}
genügen (mit einem von $h$ unabhängigen $C_1>0$), dann heißt ein linearen Mehrschrittverfahren \begriff[Mehrschrittverfahren!]{konvergent mit der Ordnung} $p\ge 1$, wenn es $C_2>0$ und $\tilde{h}>0$ gibt, so dass
\begin{align}
\norm{y_h^k - y(x_0+kh)} \le C_2h^p \notag
\end{align}
für alle $k=l,...,N$ und alle Schrittweiten $h\in (0,\tilde{h}]$.
Die beiden folgenden Sätze geben wir ohne Beweis an.
\begin{proposition}
\proplbl{satz_3_15}
Die AWA \cref{3_1_1} besitze die eindeutige Lösung $y$: $[a,b]\to\R^m$. Das lineare MSV \cref{3_17} sei D-stabil und habe die Konsistenzordnung $p$. Es gebe $L_f>0$, so dass die Lipschitz-Bedingung
\begin{align}
\norm{f(x,y) - f(x,\bar{y})} \le L_f\norm{y-\bar{y}}\notag
\end{align}
für alle $(x,y),(x,\bar{y})\in [a,b]\times\R^m$ gilt. Weiter gelte die Bedingung \cref{3_28} an die Startvektoren. Dann ist das MSV konvergent mit der Ordnung $p$.
\end{proposition}
\begin{proposition}[Erste \person{Dahlquist}-Barriere]
\proplbl{satz_3_16}
Ein $l$-schrittiges lineares MSV \cref{3_17} sei D-stabil. Dann gilt für seine Konsistenzordnung
\begin{align}
p \le \begin{cases}
l+1 & \text{falls } l \text{ ungerade} \\
l+2 & \text{falls } l \text{ gerade} \\
l & \text{falls } \frac{\beta_l}{\alpha_l} \le 0
\end{cases} \notag
\end{align}
\end{proposition}
Für den Einfluss von Rundungsfehlern lassen sich für lineare MSV zu Abschnitt 2.4 vergleichbare Überlegungen durchführen.
Zum Beispiel hat man bei den \person{Adams-Bashford}-Verfahren für die Schrittzahl $l=2$ ein explizites lineares MSV, nämlich
\begin{align}
y^{k+2} - y^{k+1} = h(\beta_0 f(x_k,y^k) + \beta_1 f(x_{k+1},y^{k+1})) \notag
\end{align}
Bezogen aus die allgemeine Form \cref{3_17} linearer MSV gilt hier $\alpha_2=1$, $\alpha_1=-1$, $\alpha_0=0$ und $\beta_2=0$. Also ist für dieses spezielle MSV $\frac{\beta_2}{\alpha_2}=0$ und nach \propref{satz_3_16} daher bei gewünschter Konvergenz (und damit D-Stabilität) maximal die Konsistenzordnung $p=2$ erreichbar. Um diese zu sichern, müssen $c_0=0$, $c_1=0$ und $c_2=0$ nach \propref{satz_3_12} gelten. Wegen $c_0=\rho(1)=\alpha_0 + \alpha_1 + \alpha_2 = 0-1+1=0$ sind noch $c_1=\rho'(1)-\sigma(1)=2\alpha_2 + \alpha_1 - (\beta_0 + \beta_1 + \beta_2) = 1-\beta_0 - \beta_1 = 0$ und $c_2=\frac{\alpha_1}{2} - \beta_1 + \frac{4\alpha_2}{2} - 2\beta_2 = -\sfrac{1}{2} - \beta_1 + 2 = 0$ zu erfüllen. Dies liefert $\beta_1 = \sfrac{3}{2}$ und $\beta_0=-\sfrac{1}{2}$. Also hat das Verfahren
\begin{align}
y^{k+2} - y^{k+1} = \frac{h}{2}\bigg(-f(x_k,y^k) + 3f(x_{k+1},y^{k+1})\bigg)\notag
\end{align}
nach \propref{satz_3_12} die Konvergenzordnung 2. Das charakteristische Polynom $\rho$ des linearen MSV ist offenbar gegeben durch $\rho(z)=z^2-z$. Seine Nullstellen sind $z_1=0$ und $z_2=1$. Folglich ist das Verfahren auch D-stabil und damit nach \propref{satz_3_15} konvergent mit der Ordnung 2.

Binary file not shown.

View file

@ -1,4 +1,4 @@
\section{Bedingte Wahrscheinlichkeiten}
\part{title}\section{Bedingte Wahrscheinlichkeiten}
\begin{example}
\proplbl{3_1_1}
Das Würfeln mit zwei fairen, sechsseitigen Würfeln können wir mit

View file

@ -30,12 +30,12 @@ In vielen Fällen besagt die Intuition über verschiedene Zufallsexperimente / E
\end{align*}
Betrachte nun
\begin{align*}
C&:= \set{(i,j) \in \O \mid i\neq j = 1}\\
C&:= \set{(i,j) \in \O \mid i + j = 7}\\
D&:= \set{(i,j) \in \O \mid i = 6}
\intertext{dann gilt}
\P(C) = \frac{1}{6}, \quad \P(D) = \frac{1}{6}
\intertext{und wegen $C \cap D = \set{(6,1)}$ folgt}
\P(C\cap D) &= \frac{1}{36} = \frac{1}{6} \frac{1}{6} = \P(C \setminus D)
\P(C\cap D) &= \frac{1}{36} = \frac{1}{6} \frac{1}{6} = \P(C) \cdot \P(D)
\end{align*}
$C$ und $D$ sind also \emph{stochastisch} unabhängig, obwohl eine kausale Abhängigkeit vorliegt!
\end{example}
@ -78,7 +78,7 @@ In vielen Fällen besagt die Intuition über verschiedene Zufallsexperimente / E
% started using \O for \Omega and \E for this special generating set E_i
Seien $(\O, \F,\P)$ Wahrscheinlichkeitsraum, $I \neq \emptyset$ Indexmenge und $(E_i, \E_i)$ Messräume
\begin{enumerate}
\item Die Familie $\F_i \subset \F, i \in I$, heißen \begriff{unabhängig}, wenn für die $J \subseteq I, I \neq \emptyset, \abs{J} < \infty$ gilt
\item Die Familie $\F_i \subset \F, i \in I$, heißen \begriff{unabhängig}, wenn für die $J \subseteq I, J \neq \emptyset, \abs{J} < \infty$ gilt
\begin{align*}
\P\brackets{\bigcap_{i \in J} A_i} = \prod_{i\in J} \P(A_i) \qquad \text{ für beliebige } A_i \in \F_i, i \in J
\end{align*}

View file

@ -9,7 +9,7 @@ Skript und Aufgaben zu den Vorlesungen **Grundlagen der Analysis** (Prof. Dr. Fr
### Einführung in die Analysis (WS2017/18 + SS2018)
Aufgrund von Prof. Schurichts Wunsch sind die Vorlesungsmaterialien von hier verschwunden. Wer sie haben möchte, kann ein Issue erstellen und dort seine TU-Mail-Adresse hinterlegen. Ich werde dann die Materialien an diese Adresse schicken
- Lösungen zu den Aufgaben ANAG 1:
- Lösungen zu den Aufgaben ANAG 1: _wollte ich irgendwann mal einscannen, bin aber bis jetzt noch nicht dazu gekommen_
- Lösungen zu den Aufgaben ANAG 2: [https://drive.google.com/open?id=15OhQHHOEGEf-oO-K6hMFMz3AgnV797eW](https://drive.google.com/open?id=15OhQHHOEGEf-oO-K6hMFMz3AgnV797eW)
### Programmieren für Mathematiker (WS2017/18 + SS2018)
@ -80,3 +80,29 @@ Skript und Aufgaben zu den Vorlesungen **Theoretische Mechanik** (Prof. Dr. Ketz
# Erasmus-Semester in der University of Bristol, UK
Während meines Erasmus-Aufenthaltes in Bristol, UK habe ich mir folgenden Vorlesungen angehört: **Applied Statistics**, **Introduction into Artificial Intelligience**, **Partial Differential Equations** und **Web Technologies**. Eine Auswahl an Mitschriften ist hier veröffentlicht.
### Applied Statistics
- Vorlesungsfolien: [https://drive.google.com/open?id=1oc3C01NKrx6OJJzYci3ICDGyXHlgLW9Y](https://drive.google.com/open?id=1oc3C01NKrx6OJJzYci3ICDGyXHlgLW9Y)
- Hausaufgaben: [https://drive.google.com/open?id=1l1ami4W3lqi0IHPXDT6r5E8EnUlTJTq7](https://drive.google.com/open?id=1l1ami4W3lqi0IHPXDT6r5E8EnUlTJTq7)
- Daten für Hausaufgabe 1: [https://drive.google.com/open?id=12Grs0UWB_qDo2u6etcGqg2B6V518jahW](https://drive.google.com/open?id=12Grs0UWB_qDo2u6etcGqg2B6V518jahW)
- Daten für Hausaufgabe 2: [https://drive.google.com/open?id=1Tg3AgpBagAUSa3aB0qdTK0TzdbwL92M4](https://drive.google.com/open?id=1Tg3AgpBagAUSa3aB0qdTK0TzdbwL92M4)
- Übungsaufgaben + manchmal Lösungen: [https://drive.google.com/open?id=13ZXF5hfvXEamwvbfD_KRexp33QGuKiYV](https://drive.google.com/open?id=13ZXF5hfvXEamwvbfD_KRexp33QGuKiYV)
### Introduction into Artificial Intelligience
- Vorlesungsfolien: [https://drive.google.com/open?id=1rH2H4j8yl0CA3pTH1r8-L-jVrDl-geGS](https://drive.google.com/open?id=1rH2H4j8yl0CA3pTH1r8-L-jVrDl-geGS)
- Hausaufgaben + Musterlösungen: [https://drive.google.com/open?id=1RqbTvCVbMCztAb_2NYWypfucE3ksqEwt](https://drive.google.com/open?id=1RqbTvCVbMCztAb_2NYWypfucE3ksqEwt)
- Daten für Hausaufgabe 0 und 1: [https://drive.google.com/open?id=1QayW__jBGbTln91bUAj1ybEfAPXo4_8x](https://drive.google.com/open?id=1QayW__jBGbTln91bUAj1ybEfAPXo4_8x)
- Skript für Hausaufgabe 1: [https://drive.google.com/open?id=18ApTQwaR8mNQPWBsj7DU45IXgFmql3m_](https://drive.google.com/open?id=18ApTQwaR8mNQPWBsj7DU45IXgFmql3m_)
- Universal Cost Search - Skript für Hausaufgabe 2: [https://drive.google.com/open?id=1XKoxLMMER1N0fEEoNirHkpnnpL-cV6v8](https://drive.google.com/open?id=1XKoxLMMER1N0fEEoNirHkpnnpL-cV6v8)
### Web Technologies
- Vorlesungsfolien: [https://drive.google.com/open?id=19gmL2quriN9X-I4efOwhub8H21de-xhf](https://drive.google.com/open?id=19gmL2quriN9X-I4efOwhub8H21de-xhf)
### Partial Differential Equations
- Vorlesungsfolien: _demnächst_
- Übungsaufgaben: [https://drive.google.com/open?id=1noa9PZtWlPb6eeeDeqcjx7CvrdDlgqIk](https://drive.google.com/open?id=1noa9PZtWlPb6eeeDeqcjx7CvrdDlgqIk)
- Musterlösungen: [https://drive.google.com/open?id=1e4_e2d3ZsSJzRBVJZv2sN1zmfoaOAH23](https://drive.google.com/open?id=1e4_e2d3ZsSJzRBVJZv2sN1zmfoaOAH23)
# related repos
- andere (unvollständige?) Mitschriften von vor einem Jahr: [https://github.com/volleimer/math_scripts](https://github.com/volleimer/math_scripts)
- Sammlung von Mitschriften zum Master in Mathematik: [https://github.com/LostInDarkMath/MatheMaster](https://github.com/LostInDarkMath/MatheMaster)