This commit is contained in:
Ameyah 2019-04-14 10:49:43 +02:00
commit a389e60e60
8 changed files with 179 additions and 38 deletions

View file

@ -1,18 +1,14 @@
\section{Aufgabe und Lösbarkeit}
Es seien $a,b \in \R$ mit $a < b$, eine stetige Funktion $f$: $[a,b] \times \R^m \to \R^m$ und $y^0 \in \R^m$ gegeben. Unter \begriff{Anfangswertaufgabe} (AWA) 1. Ordnung versteht man das Problem, eine stetige Funktion $y$: $[a,b] \to \R^m$ zu ermitteln, so dass $y$ auf $(a,b)$ stetig differenzierbar ist und
\begin{align}
y'(x) = f(x,y(x)) \quad \mit \quad y(a)=y^0 \notag
\end{align}
für alle $x \in [a,b]$ gilt. Eine solche Funktion wollen wir \begriff[Anfangswertaufgabe!]{Lösung} der AWA nennen. Kürzer schreibt man für die AWA auch
\begin{align}
\label{3_1_1}
y'=f(x,y) \quad \mit \quad y(a)=y^0
\end{align}
Die Existenz und Eindeutigkeit einer Lösung einer AWA hängen von den Eingangsinformationen $a,b,f$ und $y^0$ ab. Es gilt folgender Satz zur (globalen) Existenz und Eindeutigkeit einer Lösung auf $[a,b]$:
\begin{proposition}[\person{Picard-Lindelöf}: eine globale Version]
@ -25,17 +21,13 @@ Die Existenz und Eindeutigkeit einer Lösung einer AWA hängen von den Eingangsi
\end{proposition}
Die Bedingung \cref{3_1_2} ist eine globale Lipschitz-Bedingung an $f$ bezüglich der zweiten Veränderlichen. Es ist leicht, AWA anzugeben, in denen diese Bedingung nicht erfüllt ist und keine Lösung in ganz $[a,b]$ existiert, zum Beispiel
\begin{align}
y'= y^2 \quad \mit \quad y(0) = 1 \notag
\end{align}
Dafür erhält man für beliebige $x,y,z \in \R$
\begin{align}
\abs{f(x,y) - f(x,z)} = \abs{y^2 - z^2} = \abs{y+z} \abs{y-z} \notag
\end{align}
das heißt die Bedingung \cref{3_1_2} kann in diesem Beispiel (global) nicht gelten. Die Lösung der AWA lautet $y(x) = \sfrac{-1}{x-1}$ für $x \in [0,1)$. Für Intervalle $[0,b]$ mit $b \ge 1$ existiert keine Lösung. Eine Abschwächung der Lipschitz-Bedingung \cref{3_1_2} gestattet folgender
\begin{proposition}[\person{Picard-Lindelöf}: eine lokale Version]
@ -47,25 +39,18 @@ das heißt die Bedingung \cref{3_1_2} kann in diesem Beispiel (global) nicht gel
\end{proposition}
Seien $g$: $[a,b]\times \R^n \to \R$ stetig und $\eta \in \R^n$. Jede explizite Differentialgleichung $n$-ter Ordnung
\begin{align}
y^{(n)} = g(x,y,y',y'',...,y^{(n-1)})\notag
\end{align}
mit den Anfangsbedingungen
\begin{align}
y(a) = \eta_1, \quad y'(a) = \eta_2, \quad y''(a) = \eta_3, \quad \dots \quad y^{(n-1)}(a) = \eta_n\notag
\end{align}
kann mittels Substitution
\begin{align}
y_1 = y,\quad y_2=y', \quad y_3=y'', \quad \dots \quad y_n = y^{(n-1)}\notag
\end{align}
in eine AWA 1. Ordnung überführt werden:
\begin{align}
\begin{pmatrix}
y_1' \\ \vdots \\ y_n'

View file

@ -67,6 +67,7 @@ Der lokale Diskretisierungsfehler gibt also die Abweichung zwischen exakter Lös
\end{definition}
\begin{proposition}
\proplbl{3_2_3}
Sei $f$: $[a,b]\times \real^m\to\real^m$ stetig differenzierbar. Dann hat das explizite \person{Euler}-Verfahren die Konsistenzordnung 1.
\end{proposition}
\begin{proof}
@ -240,3 +241,121 @@ $\sim \sqrt[p+1]{\epsilon}$ wählen sollte. Setzt man speziell $h=\sqrt[p+1]{\ep
Durch Erhöhung der Konvergenzordnung $p$ kann man also versuchen, mit einer größeren Schrittweite einen kleineren Gesamtfehler zu erreichen. Ein weiterer Grund für das Interesse an Verfahren mit höherer Konvergenzordnung liegt in der Möglichkeit, die Gesamtzahl der erforderlichen Funktionswertbestimmungen der Funktion $f$ zu verringern.
\subsection{\person{Runge-Kutta}-Verfahren}
Die Klasse der \person{Runge-Kutta}-Verfahren (RKV) ist eine Möglichkeit, Einschrittverfahren mit höheren Konsistenz- bzw. Konvergenzordnungen zu konstruieren. Betrachten wir folgende Idee, eine Näherung $y^{k+1}$ für $y(x_{k+1})$ aus einer Näherung $y^k$ für $y(x_k)$ zu erzeugen.
Wegen $y'=f(x,y)$ liefert der Hauptsatz der Differential- und Integralrechnung
\begin{align}
\label{3_1_10}
y(x_{k+1}) = y(x_k) + \int_{x_k}^{x_{k+1}} f(x,y(x))\diff x
\end{align}
Approximiert man das Integral durch eine gewichtet Summe von Funktionswerten (vgl. \person{Newton-Cotes} Formeln), so ergibt sich die folgende Verfahrensidee
\begin{align}
\label{3_1_11}
y^{k+1} = y^k + h_k\sum_{i=1}^s c_if(s_i,y(s_i))
\end{align}
wobei $c_1,...,c_s$ die Gewichte und $s_1,...,s_s$ Stützstellen bezeichnen. Zur Darstellung der Stützstellen sei
\begin{align}
s_i = x_k + \alpha_ih_k\quad\text{für } i=1,...,s\notag
\end{align}
mit $\alpha_1=0$ und den Parametern $\alpha_2,...,\alpha_s$. Da $y(s_i)$ unbekannt ist, ersetzt man $f(s_i,y(s_i))$ zunächst durch einen Parameter $k^i$, wobei $k^1=f(x_k,y^k)\approx f(x_k,y(x_k))$ gesetzt wird. Um $y(s_i)$ und damit $f(s_i,y(s_i))$ zu approximieren, verwendet man (bei expliziten RKV) den Ansatz
\begin{align}
y(s_i) \approx y^k + h_k\sum_{j=1}^{i-1} \beta_{ij}k^j\notag
\end{align}
mit Parametern $\beta_{ij}$. Bei sogenannten impliziten RKV läuft die Summation von $j=1$ bis $j=s$ (und mindestens ein $\beta_{ij}$ mit $j\ge 1$ ist ungleich 0). Für die Parameter $\alpha_i$, $k^i$, $\beta_{ij}$ ergibt sich (im expliziten Fall) somit das folgende Gleichungssystem
\begin{align}
\label{3_1_12}
\begin{split}
k^1 &= f(x_k,y^k) \\
k^2 &= f(x_k+\alpha_2h_k,y^k+h_k\beta_{21}k^1) \\
k^3 &= f(x_k+\alpha_3h_k,y_k+h_k(\beta_{31}k^1 + \beta_{32}k^2)) \\
&\vdots \\
k^s &= f(x_k+\alpha_sh_k,y^k+h_k(\beta_{s1}k^1+\dots+\beta_{s,s-1}k^{s-1}))
\end{split}
\end{align}
Ersetzt man in \cref{3_1_11} die unbekannten Vektoren $f(s_i,y(s_i))$ durch die Näherungen $k^i$, so hat man das $s$-stufige \begriff{\person{Runge-Kutta}-Verfahren}
\begin{align}
\label{3_1_13}
y^{k+1} = y^k + h_k\sum_{i=1}^s c_ik^i
\end{align}
mit den Parametern $c_1,...,c_s$. Die Verfahrensfunktion eines expliziten RKV ist damit gegeben durch
\begin{align}
\Phi(x,y,h) = \sum_{i=1}^s c_if\left(x+\alpha_ih_iy+h\sum_{j=1}^{i-1}\beta_{ij}k^j(x,y,h)\right) \notag
\end{align}
wobei $k^i=k^i(x,y,h)$ entsprechend \cref{3_1_12} verwendet wird (die bei expliziten Verfahren nicht vorhandene Abhängigkeit der Funktion $\Phi$ von $z$ wurde weggelassen). Zum Beispiel ist das explizite \person{Euler}-Verfahren $y^{k+1}=y^k+h_kf(x_k,y^k)$ ein einstufiges RKV mit $c_1=1$.
\begin{proposition}
Sei $f$: $[a,b]\times \R^m\to\R^m$ stetig differenzierbar. Ein explizites RKV \cref{3_1_13} mit
\begin{align}
\label{3_1_14}
\sum_{i=1}^s c_i=1
\end{align}
hat dann (mindestens) die Konsistenzordnung 1.
\end{proposition}
\begin{proof}
Sei $x\in\R$ fest gegeben. Weiter sei $\eta=y(x)$. Da $f$ stetig differenzierbar ist, gibt es $L_f>0$, so dass
\begin{align}
\norm{f(x,\eta) - f(x+\delta x,\eta + \delta\eta)} \le L_f(\abs{\delta x} + \norm{\delta\eta}) \notag
\end{align}
für alle $(\delta x,\delta\eta)\in\R\times\R^m$ mit $\abs{\delta x} + \norm{\delta\eta}\le 1$. Induktiv folgt damit, dass $\tilde{h}>0$ existiert, so dass
\begin{align}
\norm{k^i(x,\eta,h) - f(x,\eta)} = \mathcal{O}(h) \quad\forall h\in [0,\tilde{h}] \notag
\end{align}
für alle $i=1,...,s$. Also gilt wegen \cref{3_1_14}
\begin{align}
\norm{\Phi(x,\eta,h) - f(x,\eta)} = \mathcal{O}(h) \quad\forall h\in [0,\tilde{h}] \notag
\end{align}
Daraus erhält man (da $f$ in $[a,b]$ stetig differenzierbar und somit $y$ zweimal stetig differenzierbar ist, vgl. Beweis zu \propref{3_2_3})
\begin{align}
\norm{\frac{\Delta(x,h)}{h}} &= \norm{\frac{y(x+h) - y(x)}{h} - f(x,y(x)) + f(x,y(x)) - \Phi(x,y(x),h)} \notag \\
&\le \mathcal{O}(h) \notag
\end{align}
\end{proof}
\begin{proposition}
Sei $f$: $[a,b]\times\R^m\to\R^m$ zweimal stetig differenzierbar. Ein explizites RKV \cref{3_1_13} mit \cref{3_1_14},
\begin{align}
\label{3_1_15}
\sum_{j=1}^{i-1}\beta_{ij}=\alpha_i\quad\text{für } i=2,...,s
\end{align}
und
\begin{align}
\label{3_1_16}
\sum_{i=2}^s c_i\alpha_i = ^\frac{1}{2}
\end{align}
hat dann (mindestens) die Konvergenzordnung 2.
\end{proposition}
\begin{proof}
Übungsaufgabe
\end{proof}
Verwendet man zur Approximation des bestimmten Integrals in \cref{3_1_10} die Trapezregel, das heißt
\begin{align}
\int_{x_k}^{x_{k+1}} f(x,y(x))\diff x \approx \frac{1}{2}\bigg(f(x_k,y(x_k)) + f(x_k+h_k,y(x_k+h_k))\bigg) \notag
\end{align}
und ersetzt man $f(x_k,y(x_k))$ und $f(x_k+h_k,y(x_k+h_k))$ im RKV durch $k^1=f(x_k,y^k)$ bzw. $k^2=f(x_k+h_k,y^k+h_kk^1)$, dann ergibt sich ein 2-stufiges RKV mit
\begin{align}
c_1=c_2=\frac{1}{2},\quad \alpha_2=1,\quad \beta_{21}=1\notag
\end{align}
das heißt die Bedingungen \cref{3_1_14}, \cref{3_1_15} und \cref{3_1_16} sind erfüllt. Also besitzt dieses explizite RKV die Konsistenzordnung 2. es ist als \begriff{Verfahren von \person{Heun}} bekannt.
Verwendet man zur Quadratur des Integrals in \cref{3_1_10} die \person{Simpson}-Regel, das erhält man ein 4-stufiges RKV mit folgenden Parametern (im sogenannten \begriff{\person{Butcher}-Schema})
\begin{align}
\begin{array}{c|cccc}
0 & & & & \\
\alpha_2 & \beta_{21} &&& \\
\alpha_3 & \beta_{31} & \beta_{32} && \\
\alpha_4 & \beta_{41} & \beta_{42} & \beta_{43} & \\
\hline
& c_1 & c_2 & c_3 & c_4
\end{array} =
\begin{array}{c|cccc}
0 & & & & \\
\sfrac{1}{2} & \sfrac{1}{2} &&& \\
\sfrac{1}{2} & 0 & \sfrac{1}{2} && \\
1 & 0 & 0 & 1 & \\
\hline
& \sfrac{1}{6} & \sfrac{1}{3} & \sfrac{1}{3} & \sfrac{1}{6}
\end{array}\notag
\end{align}
Dieses Verfahren hat die Konsistenzordnung 4 (sofern $f$ hinreichend glatt).

View file

@ -106,14 +106,14 @@ zu wählen. Dieses Verfahren heißt \begriff{Gesamtschrittverfahren} oder \begri
\begin{proposition}
Die Matrix $A$ sei streng diagonaldominant (vgl. Definition 3.1 der Vorlesung ENM). Dann ist die Matrix $B$ aus \cref{eq_1_2_6} regulär und es gilt
\begin{align}
\norm{M_J}_{\infty} \le \lambda_{SD} := \max_{i = 1,\dots,n} \frac{1}{\abs{a_{ii}}} \sum_{\substack{j =1 \\ j\neq i}^{n}} \abs{a_{ij}} < 1. \notag
\norm{M_J}_{\infty} \le \lambda_{SD} := \max_{i = 1,\dots,n} \frac{1}{\abs{a_{ii}}} \sum_{\substack{j =1 \\ j\neq i}}^n \abs{a_{ij}} < 1. \notag
\end{align}
\end{proposition}
\begin{proof}
Die Regularität von $B$ ergibt sich sofort aus der strengen Diagonaldominanz von $A$. Nutzt man die Definition der Zeilensummennorm $\norm{\cdot}_{\infty}$ erhält man sofort
\begin{align}
\norm{M_J}_{\infty} = \norm{D^{-1}(L+R)}_{\infty} =\max_{i = 1,\dots,n} \frac{1}{\abs{a_{ii}}} \sum_{\substack{j =1 \\ j\neq i}^{n}} \abs{a_{ij}} = \lambda_{SD}.\notag
\norm{M_J}_{\infty} = \norm{D^{-1}(L+R)}_{\infty} =\max_{i = 1,\dots,n} \frac{1}{\abs{a_{ii}}} \sum_{\substack{j =1 \\ j\neq i}}^n \abs{a_{ij}} = \lambda_{SD}.\notag
\end{align}
Die vorrausgesetzte strenge Diagonaldominanz von $A$ sichert $\lambda_{SD} < 1$.
\end{proof}
@ -172,7 +172,7 @@ zu wählen. Dieses Verfahren heißt \begriff{Einzelschrittverfahren} oder \begri
für ein $k \in \set{2,\dots,n}$ gilt. Dann folgt wegen \cref{1_2_10} und $\norm{y}_{\infty} = 1$
\begin{align}
\abs{z_k} = \frac{1}{\abs{a_{kk}}} \abs{-\sum_{i=1}^{k-1} a_{ki}z_i + \sum_{i=k+1}^{n} a_{ki}y_i}
\le \frac{1}{\abs{a{kk}}} \brackets{\sum_{i=1}^{k-1} \abs{a_{ki}} + \sum_{i=k+1}^{n} \abs{a_{ki}}} \le \lambda_{SD}. \notag
\le \frac{1}{\abs{a_{kk}}} \brackets{\sum_{i=1}^{k-1} \abs{a_{ki}} + \sum_{i=k+1}^{n} \abs{a_{ki}}} \le \lambda_{SD}. \notag
\end{align}
Somit hat man induktiv $\abs{z_k} \le \lambda_{SD}$ für $k = 1, \dots, n$ und damit
\begin{align}

View file

@ -1,17 +0,0 @@
\newpage
\section*{Literatur}
\begin{itemize}
\item Bollhöfer/Mehrmann: Numerische Mathematik, Vieweg 2004
\item Deuflhard/Hohmann: Numerische Mathematik1, de Gruyter 2008
\item Deuflhard/Bornemann: Numerische Mathematik, de Gruyter 2008
\item Deuflhard/Weiser: Numerische Mathematik 3, de Gruyter 2011
\item Freund/Hoppe: Stoer/Bulirsch: Numerische Mathematik 1, Springer 2007
\item Hämmerlin/Hoffmann: Numerische Mathematik, Springer 2013
\item Knorrenschild, M: Numerische Mathematik, Fachbuchverlag 2005
\item Plato, R: Numerische Mathematik kompakt, Vieweg 2009
\item Preuß/Wenisch: Lehr- und Übungsbuch Numerische Mathematik, Fachbuchverlag 2001
\item Quarteroni/Sacco/Saleri: Numerische Mathematik 1+2, Springer 2002
\item Roos/Schwetlick: Numerische Mathematik, Teubner 1999
\item Schaback/Wendland: Numerische Mathematik, Springer 2004
\item Stoer/Bulirsch: Numerische Mathematik II, Springer 2005
\end{itemize}

Binary file not shown.

View file

@ -21,7 +21,6 @@
\chapter*{Vorwort}
\input{./TeX_files/Vorwort}
\input{./TeX_files/Lit}
\chapter{Das gewöhnliche Iterationsverfahren}
\input{./TeX_files/Fixpunkte}
\include{./TeX_files/Der_Fixpunktsatz_von_Banach}
@ -44,6 +43,10 @@
\addcontentsline{toc}{part}{Anhang}
\appendix
\nocite{*}
\bibliography{literatur}
\bibliographystyle{acm}
%\printglossary[type=\acronymtype]
\printindex

View file

@ -0,0 +1,51 @@
@book{barwolff_2016, place={Wiesbaden}, title={Numerik für Ingenieure, Physiker und Informatiker}, publisher={Springer Spektrum}, author={Bärwolff, Günter}, year={2016}}
@book{bollhofer_mehrmann_2004, edition={1}, title={Numerische Mathematik}, publisher={Vieweg Teubner Verlag}, author={Bollhöfer, Matthias, Mehrmann, Volker}, year={2004}}
@book{freund_hoppe_2007, place={Berlin}, title={Stoer, Bulirsch: Numerische Mathematik 1}, publisher={Springer}, author={Freund, Roland W., Hoppe, Ronald H.}, year={2007}}
@book{hanke-bourgeois_2009, place={Wiesbaden}, title={Grundlagen der numerischen Mathematik und des wissenschaftlichen Rechnens}, publisher={Vieweg Teubner}, author={Hanke-Bourgeois, Martin}, year={2009}}
@book{hestenes_stiefel_1952, place={Washington}, title={Methods of conjugate gradients for solving linear systems}, publisher={NBS}, author={Hestenes, Magnus Rudolph., Stiefel, Eduard}, year={1952}}
@book{kanzow_2005, place={Berlin}, title={Numerik linearer Gleichungssysteme: direkte und iterative Verfahren}, publisher={Springer}, author={Kanzow, Christian}, year={2005}}
@book{knorrenschild_2017, place={München}, title={Numerische Mathematik}, publisher={Fachbuchverlag Leipzig im Carl Hanser Verlag}, author={Knorrenschild, Michael}, year={2017}}
@article{lanczos_1952, title={Solution of systems of linear equations by minimized iterations}, volume={49}, DOI={10.6028/jres.049.006}, number={1}, journal={Journal of Research of the National Bureau of Standards}, author={Lanczos, C.}, year={1952}, pages={3353}}
@book{meister_2015, place={Wiesbaden}, title={Numerik linearer Gleichungssysteme: eine Einführung in moderne Verfahren; mit MATLAB-Implementierungen von C. Vömel}, publisher={Springer Spektrum}, author={Meister, Andreas}, year={2015}}
@article{lin_more_1999, title={Incomplete Cholesky Factorizations with Limited Memory}, volume={21}, DOI={10.1137/s1064827597327334}, number={1}, journal={SIAM Journal on Scientific Computing}, author={Lin, Chih-Jen, Moré, Jorge J.}, year={1999}, pages={2445}}
@article{paige_saunders_1975, title={Solution of Sparse Indefinite Systems of Linear Equations}, volume={12}, DOI={10.1137/0712047}, number={4}, journal={SIAM Journal on Numerical Analysis}, author={Paige, C. C., Saunders, M. A.}, year={1975}, pages={617629}}
@book{bierbaum_preuss_wenisch_2001, place={München}, title={Lehr- und übungsbuch numerische Mathematik}, publisher={Fachbuchverlag Leipzig im Carl Hanser Verlag}, author={Bierbaum, Fritz, Preuss, Wolfgang, Wenisch, Günter}, year={2001}}
@book{quarteroni_sacco_saleri_2002, place={Berlin}, title={Numerische Mathematik 1}, publisher={Springer}, author={Quarteroni, Alfio, Sacco, Riccardo, Saleri, Fausto}, year={2002}}
@book{quarteroni_sacco_saleri_2002, place={Berlin}, title={Numerische Mathematik 2}, publisher={Springer}, author={Quarteroni, Alfio, Sacco, Riccardo, Saleri, Fausto}, year={2002}}
@book{roos_schwetlick_1999, title={Numerische Mathematik}, publisher={Teubner}, author={Roos, Hans-G., Schwetlick, Hubert}, year={1999}}
@article{doi:10.1137/0907058,
author = {Saad, Y., Schultz, M.},
title = {GMRES: A Generalized Minimal Residual Algorithm for Solving Nonsymmetric Linear Systems},
journal = {SIAM Journal on Scientific and Statistical Computing},
volume = {7},
number = {3},
pages = {856-869},
year = {1986},
doi = {10.1137/0907058},
URL = {https://doi.org/10.1137/0907058},
eprint = {https://doi.org/10.1137/0907058}}
@book{schaback_wendland_2005, place={New York}, title={Numerische Mathematik}, publisher={Springer-Verlag Berlin Heidelberg}, author={Schaback, Robert, Wendland, Holger}, year={2005}}
@book{schwarz_1997, title={Numerische Mathematik}, publisher={Teubner}, author={Schwarz, Hans Rudolf}, year={1997}}
@book{steinbach_2005, title={Losungsverfahren fur lineare Gleichungssysteme: Algorithmen und Anwendungen}, publisher={Friedrick Vieweg und Son}, author={Steinbach, Olaf}, year={2005}}
@book{stoer_bulirsch_2005, place={Berlin}, title={Numerische Mathematik 2}, publisher={Springer}, author={Stoer, Josef, Bulirsch, Roland}, year={2005}}
@book{strehmel_weiner_podhaisky_2012, place={Wiesbaden}, title={Numerik gewöhnlicher Differentialgleichungen}, publisher={Vieweg und Teubner}, author={Strehmel, Karl, Weiner, Rüdiger, Podhaisky, Helmut}, year={2012}}

View file

@ -301,7 +301,7 @@
\DeclareMathOperator{\ord}{ord} % Order of a group
\DeclareMathOperator{\Orth}{O} % Orthogonal Group
\DeclareMathOperator{\Out}{Out} % Outer Automorphism
\DeclareMathOperator{\Landau}{O} % Big ``O'' (Landau)
\DeclareMathOperator{\Landau}{\mathcal{O}} % Big ``O'' (Landau)
\DeclareMathOperator{\pr}{pr} % Projection