\section{Einschrittverfahren} \subsection{Grundlagen} Anstelle der gesuchten Lösungsfunktion $y$: $[a,b]\to\real^m$ einer AWA ist man an möglichst guten Näherungen $y^k\in\real^m$ ($k=0,1,2,...,N$) für die Funktionswerte $y(x_k)\in\real^m$ der Funktion $y$ an \begriff{Gitterpunkten} $x_k\in [a,b]$ interessiert. Auf Grundlage der Paare $(x_k,y^k)$ ($k=0,1,...,N-1$) ist es auch möglich, eine Näherungsfunktion $y$ zu erzeugen (etwa durch Interpolation). Einschrittverfahren bilden eine Klasse von Verfahren, die Näherungen $y^k$ zu erzeugen. Das \begriff{Gitter} $\{x_0,...,x_N\}$ is so gewählt, dass \begin{align} x_0=a0$ mit $x+h\le b$ heißt \begin{align} \label{3_1_5} \Delta(x,h) = y(x+h) - \bigg( y(x) + h\Phi\big(x,y(x),y(x+h),h\big)\bigg) \end{align} \begriff{lokaler Diskretisierungsfehler} und \begin{align} \frac{\Delta(x,h)}{h} = \frac{y(x+h)-y(x)}{h} - \Phi(x,y(x),y(x+h),h) \end{align} relativer lokaler Diskretisierungsfehler des Einschrittverfahrens. \end{definition} Der lokale Diskretisierungsfehler gibt also die Abweichung zwischen exakter Lösung $y(x+h)$ an der Stelle $x+h$ und der Näherung an dieser Stelle an, wobei angenommen wird, dass die Näherung unter Verwendung der exakten Lösung $y(x)$ (und ggf. $y(x+h)$) berechnet wird. Die Bezeichnung relativer Diskretisierungsfehler ist bezüglich der Schrittweite $h$ zu verstehen. \begin{definition}[konsistent, Konsistenzordnung] Ein Einschrittverfahren heißt \begriff{konsistent} zur Differentialgleichung $y'=f(x,y)$, wenn \begin{align} \lim\limits_{h\downarrow 0} \left\Vert\frac{\Delta(x,h)}{h}\right\Vert =0\quad\forall x\in [a,b) \notag \end{align} für jede Lösung $y$: $[a,b]\to\real^m$ der Differentialgleichung gilt. Gibt es außerdem $p\ge 1$, $M>0$, $\tilde{h}>0$, so dass \begin{align} \left\Vert\frac{\Delta(x,h)}{h}\right\Vert \le Mh^p\quad\forall (x,h)\in [a,b)\times (0,\tilde{h})\text{ mit } x+h\le b \notag \end{align} für jede Lösung $y$: $[a,b]\to\real^m$ der Differentialgleichung gilt, so hat das Einschrittverfahren (für diese Differentialgleichung) die \begriff{Konsistenzordnung} $p$. \end{definition} \begin{proposition} \proplbl{3_2_3} Sei $f$: $[a,b]\times \real^m\to\real^m$ stetig differenzierbar. Dann hat das explizite \person{Euler}-Verfahren die Konsistenzordnung 1. \end{proposition} \begin{proof} Mit \cref{3_1_4} folgt \begin{align} \Delta(x,h) = y(x+h) - y(x) - hf(x,y(x)) \notag \end{align} Da $y$ die Differentialgleichung $y'=f(x,y)$ löst und $f$ stetig differenzierbar ist, muss $y$ zweimal stetig differenzierbar sein. Aus der \person{Taylor}-Formel erhält man für $i\in\{1,...,m\}$ \begin{align} \Delta(x,h)_i &= y'_i(x)h + \frac{1}{2}y''_i(\xi_i(x,h))h^2 - hf_i(x,y(x)) \notag \\ &= \frac{1}{2} y''_i(\xi_i(x,h))h^2 \notag \end{align} für ein $\xi_i(x,h)\in (x,x+h)$. Die Stetigkeit von $y''$ auf $[a,b]$ und Division durch $h$ liefert die Behauptung mit $M=\frac{1}{2}\max_{1\le i\le m}\max_{\xi\in[a,b]}\Vert y''_i(\xi)\Vert$ und $\tilde{h}=b-a$. \end{proof} \subsection{Konvergenz von Einschrittverfahren} Zum Gitter $G=\{x_0,...,x_N\}\subset [a,b]$ mit $x_0=a$ und $x_N=b$ seien $y^0,...,y^N\in\R^m$ durch ein Einschrittverfahren erzeugt. Weiter bezeichne $y$: $[a,b]\to\R^m$ die eindeutige Lösung der AWA \cref{3_1_1}. Dann seien \begin{align} e(x_k) &= y(x_k)-y^k \notag \\ e(G) &= \max_{x\in G}\norm{e(x)} \notag \end{align} sowie \begin{align} h_{max}(G) = \max_{k=0,...,N-1} h_k\notag \end{align} definiert. \begin{definition}[konvergent] Die AWA \cref{3_1_1} besitzt die eindeutige Lösung $y$: $[a,b]\to\R^m$. Ein Einschrittverfahren für diese AWA heißt dann \begriff[Einschrittverfahren!]{konvergent}, falls \begin{align} \lim_{l\to\infty} e(G_l)=0\notag \end{align} für alle Gitterfolgen $\{G_t\}$ gilt, für die $\lim_{l\to\infty} h_{max}(G_l)=0$. Gibt es außerdem $p\ge 1$, $C>0$, $\tilde{h}>0$, so dass \begin{align} e(G) \le C\cdot h_{max}(G)^p\notag \end{align} für jedes Gitter mit $h_{max}(G)\le\tilde{h}$, so hat das Einschrittverfahren für die gegebene AWA die \begriff[Einschrittverfahren!]{Konvergenzordnung} $p$. \end{definition} \begin{lemma}[diskretes \person{Grönwall}sches Lemma] \proplbl{3_2_5} Falls die Zahlenfolgen $\{\alpha_k\}$, $\{\beta_k\}$, $\{v_k\}\subset [0,\infty)$ den Bedingungen \begin{align} v_0=0\quad\text{und}\quad v_{k+1}=(1+\alpha_k)v_k+\beta_k\quad\forall k=0,...,N-1\notag \end{align} genügen, dann folgt \begin{align} v_{k+1} \le \sum_{i=0}^{k} \beta_i\cdot \exp\left(\sum_{j=i+1}^{k} \alpha_j\right)\quad\text{für } k=0,...,N-1\notag \end{align} gilt zusätzlich $\alpha_k=\alpha>0$ und $\beta_k=\beta>0$ für jedes $k=0,...,N-1$, dann folgt \begin{align} v_k \le \frac{\beta}{\alpha}(\exp(k\alpha)-1)\quad\text{für } k=0,...,N-1\notag \end{align} \end{lemma} \begin{proof} Zum Beispiel durch vollständige Induktion (vgl. Übungsaufgabe). \end{proof} In der Literatur findet man für vorstehende und ähnliche Aussagen die Bezeichnung \textit{diskretes \person{Grönwall}sches Lemma}. \begin{proposition} Die AWA \cref{3_1_1} besitze die eindeutige Lösung $y$: $[a,b]\to\R^m$. Ein Einschrittverfahren mit der Verfahrensfunktion $\Phi$ habe für die Differentialgleichung $y'=f(x,y)$ die Konsistenzordnung $p$. Es gebe ferner $L_\Phi>0$ und $H>0$, so dass die Lipschitz-Bedingung \begin{align} \label{3_1_6} \norm{\Phi(x,y,z,h) - \Phi(x,\tilde{y},\tilde{z},h)} \le L_\Phi(\norm{y-\tilde{y}} + \norm{z-\tilde{z}}) \end{align} für alle $(x,y,z,h),(x,\tilde{y},\tilde{z},h)\in [a,b]\times \R^m\times \R^m\times (0,H]$ gilt. Dann besitzt das Einschrittverfahren die Konvergenzordnung $p$. \end{proposition} \begin{proof} Entsprechend \cref{3_1_3} und \cref{3_1_5} gilt \begin{align} y^{k+1} = y^k + h_k\Phi(x_k,y^k,y^{k+1},h_k) \notag \end{align} und \begin{align} y(x_{k+1}) = y(x_k) + h_k\Phi(x_k,y(x_k),y(x_k+h_k),h_k) + \Delta(x_k,h_k) \notag \end{align} also folgt \begin{align} e(x_{k+1}) &= y(x_{k+1}) - y^{k+1} \notag \\ &= y(x_k) - y^k + h_k\big(\Phi((x_k,y(x_k),y(x_k+h_k),h_k) - \Phi(x_k,y^k,y^{k+1},h_k)\big) + \Delta(x_k,h_k) \notag \end{align} und weiter mit \cref{3_1_6} für $00$ gelte. Außerdem sei für gewisse $L_\Phi,H>0$ die Lipschitz-Bedingung \cref{3_1_6} für alle $(x,y,z,h),(x,\tilde{y},\tilde{z},h)\in [a,b]\times \R^m\times \R^m\times (0,H]$ erfüllt. Dann gibt es $\tilde{h}>0$, so dass \begin{align} \norm{y^k-\tilde{y}^k} \le \frac{\epsilon}{2hL_\Phi}(\exp(4L_\Phi(x_k-a)) - 1)\quad\text{für } k=0,...,N\notag \end{align} falls $0>h<\tilde{h}$. \end{proposition} \begin{proof} Für $z^k=y^k-\tilde{y}^k$ folgt \begin{align} z^{k+1} &= y^{k+1} - \tilde{y}^{k+1} \notag \\ &= y^k - \tilde{y}^k + h\big(\Phi(x_k,y^k,y^{k+1},h) - \Phi(x_k,\tilde{y}^k,\tilde{y}^{k+1},h)\big) - \epsilon_k \notag \end{align} und weiter \begin{align} \norm{z^{k+1}} \le \norm{z^k} + hL_\Phi(\norm{z^k} + \norm{z^{k+1}}) + \epsilon \notag \end{align} Mit $v_k=\norm{z^k}$, $\alpha=4hL_\Phi$ und $\beta=2\epsilon$ hat man für $00$, so dass \begin{align} \norm{f(x,\eta) - f(x+\delta x,\eta + \delta\eta)} \le L_f(\abs{\delta x} + \norm{\delta\eta}) \notag \end{align} für alle $(\delta x,\delta\eta)\in\R\times\R^m$ mit $\abs{\delta x} + \norm{\delta\eta}\le 1$. Induktiv folgt damit, dass $\tilde{h}>0$ existiert, so dass \begin{align} \norm{k^i(x,\eta,h) - f(x,\eta)} = \mathcal{O}(h) \quad\forall h\in [0,\tilde{h}] \notag \end{align} für alle $i=1,...,s$. Also gilt wegen \cref{3_1_14} \begin{align} \norm{\Phi(x,\eta,h) - f(x,\eta)} = \mathcal{O}(h) \quad\forall h\in [0,\tilde{h}] \notag \end{align} Daraus erhält man (da $f$ in $[a,b]$ stetig differenzierbar und somit $y$ zweimal stetig differenzierbar ist, vgl. Beweis zu \propref{3_2_3}) \begin{align} \norm{\frac{\Delta(x,h)}{h}} &= \norm{\frac{y(x+h) - y(x)}{h} - f(x,y(x)) + f(x,y(x)) - \Phi(x,y(x),h)} \notag \\ &\le \mathcal{O}(h) \notag \end{align} \end{proof} \begin{proposition} Sei $f$: $[a,b]\times\R^m\to\R^m$ zweimal stetig differenzierbar. Ein explizites RKV \cref{3_1_13} mit \cref{3_1_14}, \begin{align} \label{3_1_15} \sum_{j=1}^{i-1}\beta_{ij}=\alpha_i\quad\text{für } i=2,...,s \end{align} und \begin{align} \label{3_1_16} \sum_{i=2}^s c_i\alpha_i = ^\frac{1}{2} \end{align} hat dann (mindestens) die Konvergenzordnung 2. \end{proposition} \begin{proof} Übungsaufgabe \end{proof} Verwendet man zur Approximation des bestimmten Integrals in \cref{3_1_10} die Trapezregel, das heißt \begin{align} \int_{x_k}^{x_{k+1}} f(x,y(x))\diff x \approx \frac{1}{2}\bigg(f(x_k,y(x_k)) + f(x_k+h_k,y(x_k+h_k))\bigg) \notag \end{align} und ersetzt man $f(x_k,y(x_k))$ und $f(x_k+h_k,y(x_k+h_k))$ im RKV durch $k^1=f(x_k,y^k)$ bzw. $k^2=f(x_k+h_k,y^k+h_kk^1)$, dann ergibt sich ein 2-stufiges RKV mit \begin{align} c_1=c_2=\frac{1}{2},\quad \alpha_2=1,\quad \beta_{21}=1\notag \end{align} das heißt die Bedingungen \cref{3_1_14}, \cref{3_1_15} und \cref{3_1_16} sind erfüllt. Also besitzt dieses explizite RKV die Konsistenzordnung 2. es ist als \begriff{Verfahren von \person{Heun}} bekannt. Verwendet man zur Quadratur des Integrals in \cref{3_1_10} die \person{Simpson}-Regel, das erhält man ein 4-stufiges RKV mit folgenden Parametern (im sogenannten \begriff{\person{Butcher}-Schema}) \begin{align} \begin{array}{c|cccc} 0 & & & & \\ \alpha_2 & \beta_{21} &&& \\ \alpha_3 & \beta_{31} & \beta_{32} && \\ \alpha_4 & \beta_{41} & \beta_{42} & \beta_{43} & \\ \hline & c_1 & c_2 & c_3 & c_4 \end{array} = \begin{array}{c|cccc} 0 & & & & \\ \sfrac{1}{2} & \sfrac{1}{2} &&& \\ \sfrac{1}{2} & 0 & \sfrac{1}{2} && \\ 1 & 0 & 0 & 1 & \\ \hline & \sfrac{1}{6} & \sfrac{1}{3} & \sfrac{1}{3} & \sfrac{1}{6} \end{array}\notag \end{align} Dieses Verfahren hat die Konsistenzordnung 4 (sofern $f$ hinreichend glatt).