Seien eine reguläre Matrix $A \in\R^{n \times n}$ und $b \in Rn$ gegeben. In diesem Kapitel werden iterative Verfahren zur Lösung des linearen Gleichungssystems
\begin{align}
Ax = b\label{eq_2_2_1}
\end{align}
betrachtet.
%TODO fix counter, this equation should be the 1 and the one in the following section, 2!
Grundidee dieser Verfahren ist die geeignete Umformulierung des System $Ax = b$ als Fixpunktaufgabe und die Anwendung des gewöhnlichen Iterationsverfahrens. Die hier betrachtete (zu \cref{eq_2_2_1} äquivalente) Fixpunktaufgabe lautet
wobei $B \in\R^{n \times n}$ eine noch zu wählende reguläre Matrix ist. Bei Wahl eines Startpunktes $x^0\in\Rn$ ergibt sich das gewöhnliche Iterationsverfahren damit zu
\begin{align}
x^{k+1} := x^{k} - B^{-1}(A x^k -b) = (I - B^{-1}A)x^{k} + B^{-1}b, \qquad k = 0,1,2,\dots\label{eq_2_2_2}%TODO add underbraces for M = I - B^{-1}A and c = B^{-1}b
\item Die für eine beliebiges $x^0\in\Rn$ durch \cref{eq_2_2_3} erzeugte Folge $\set{x^k}$ konvergiert gegen die eindeutige Lösung $x*$ des linearen Gleichungssystems \cref{eq_2_2_1}.
\item Die Abschätzungen \cref{eq_1_2_2} - \cref{eq_1_2_4} sind für alle $k \in\N$ erfüllt.
für jede beliebige zugeordnete Matrixnorm $\norm{\cdot}_{\ast}$ gilt (vgl. Übungsaufgabe), ist \cref{eq_2_1_5} eine schwächere Forderung als \cref{eq_2_1_4}. Andererseits gibt es zu jedem Paar $(C,\epsilon)\in\Rnn\times(0,\infty)$ eine zugeordnete Matrixnorm $\norm{\cdot}_{(C,\epsilon)}$, so dass
wobei $\lambda_1,\dots,\lambda_n \in\C$ die Eigenwerte der Matrix $C \in\Rnn$ bezeichnen. Man kann weiter zeigen, dass \cref{eq_2_1_5} auch notwendig dafür ist, dass die durch \cref{eq_2_2_2} erzeugte Folge $\set{x^k}$ für jedes $x^0$ gegen $x*$ konvergiert.
Um eine Matrix $B$ zu finden, so dass einerseits der Aufwand pro Iteration \cref{eq_2_2_2} niedrig und andererseits die Bedingung \cref{eq_2_1_4} bzw. \cref{eq_2_1_5} erfüllt ist, betrachten wir die folgende Zerlegung
der Matrix $A$, wobei $D:=\diag(a_{11}, \dots, a_{nn})$ die aus den Diagonalelementen von $A$ bestehende Diagonalmatrix bezeichnet und $L$ bzw. $R$ eine untere bzw. obere Dreiecksmatrix ist mit
zu wählen. Dieses Verfahren heißt \begriff{Gesamtschrittverfahren} oder \begriff{Jacobi-Verfahren}. Der Aufwand pro Schritt (Berechnung von $x^{k+1}$ aus $x^k$) beträgt $\Landau(n^2)$ bei voll besetzter Matrix $A$ und mindestens $\Landau(n)$, falls $A$ schwach besetzt ist.
Die Regularität von $B$ ergibt sich sofort aus der strengen Diagonaldominanz von $A$. Nutzt man die Definition der Zeilensummennorm $\norm{\cdot}_{\infty}$ erhält man sofort
zu wählen. Dieses Verfahren heißt \begriff{Einzelschrittverfahren} oder \begriff{Gauß-Seidel-Verfahren}. Der Aufwand pro Schritt beträgt im ungünstigsten Fall $\Landau(n^2)$. Verbesserungen sind möglich, wenn eine Sparse-Struktur in $A$ ausgenutzt werden kann.
Für $\omega=1$ erhält man offenbar als Spezialfall das Gauß-Seidel-Verfahren, so dass der folgende Satz auch dafür Anwendung finden kann. Man beachte dazu \propref{2_2_2}.
Die Matrix $A$ sei symmetrisch und positiv definit. Dann ist die Matrix $B$ aus \cref{eq_2_2_11} regulär (für jedes $\omega\neq0$). Falls $\omega\in(0,2)$, dann gilt
Da $A$ positiv definit ist, gilt $e_i^TA e_i = a_{ii} > 0$ für $i =1, \dots, n$. Also ist $D$ positiv definit und damit $B$ regulär für alle $\omega\neq0$.\\
Also gilt $\rho(M(\omega))=\max_{i =1,\dots,n}\abs{\lambda_i} < 1$, sofern $\omega\in(0,2)$. Die Umkehrung der Aussage ergibt sich aus dem Satz von \person{Kahan} ($\nearrow$ Übungsaufgabe). %TODO add later.
Es ist nun naheliegend, dass man $\omega\in(0,2)$ so wählen möchte, dass $\rho(\omega)$ möglichst klein ist. Dies ist in bestimmten Fällen näherungsweise möglich, ansonsten beschränkt man sich auf geeignete Heuristiken zur Wahl von $\omega$. Auf der Fixpunktiteration \cref{eq_2_2_3} beruhende Verfahren werden häufig auch \begriff{Splitting-Methoden} genannt. Es gibt noch weitere solche Verfahren, auf die hier nicht eingegangen wird.