Das CG-Verfahren (von engl. conjugate gradients oder auch Verfahren der konjugierten Gradienten) ist eine effiziente numerische Methode zur Lösung von großen, symmetrischen, positiv definiten Gleichungssystemen der Form Ax=b. Es gehört zur Klasse der Krylow-Unterraum-Verfahren. Das Verfahren konvergiert nach spätestens m Schritten. Insbesondere ist es aber als iteratives Verfahren interessant, da der Fehler monoton fällt.
Idee des CG-Verfahrens
Die Idee des CG-Verfahrens besteht darin, dass das Maximieren von
E(x):=⟨b,x⟩−21⟨Ax,x⟩
äquivalent zum Lösen von Ax=b ist.
Der Gradient von E an der Stelle x(k) ist gerade g(k)=b−Ax(k) und somit bei großen, dünn besetzten Matrizen schnell zu berechnen. Die Idee des CG-Verfahrens ist es nun, anstelle in Richtung g(k) in eine andere Richtung d(k) die FunktionE zu maximieren. Die Richtungen d(k) sind dabei alle A-konjugiert, d.h. es gilt
⟨Ad(i),d(j)⟩=0∀i=/j.
Weiter realisieren alle x(k) das Maximum von E in dem affinen Raum
Vk:=x(0)+span({d(1),…,d(k)}).
Dabei handelt es sich also um den Vektorraum, der durch die Vektoren d(1),…,d(k) aufgespannt und um x(0) verschoben wird.
Da die Vektoren d(k) alle A-konjugiert sind, ist die Dimension von Vk gerade k. Ist also A eine m×m-Matrix, so terminiert das Verfahren nach spätestens m Schritten, falls korrekt gerechnet wird. Numerische Fehler können durch weitere Iterationen eliminiert werden. Hierzu betrachtet man den Gradienteng(k), der den numerischen Fehler, d.h. das Residuum angibt. Unterschreitet die Norm dieses Residuums einen gewissen Schwellenwert, wird das Verfahren abgebrochen.
Das Verfahren baut sukzessive eine orthogonale Basis für den Rm auf und minimiert in die jeweilige Richtung bestmöglich.
CG-Verfahren ohne Vorkonditionierung
Zunächst wählt man ein x(0)∈Rm beliebig und berechnet:
g(0)=b−Ax(0)
d(0)=−g(0)
Für k=0,1,… setzt man:
Finde von x(k) in Richtung d(k) das Minimumx(k+1) und aktualisiere den Gradienten bzw. das Residuum
α(k)=d(k)TAd(k)g(k)Tg(k)
x(k+1)=x(k)−α(k)d(k)
g(k+1)=g(k)+α(k)Ad(k)
Korrigiere die Suchrichtung d(k+1) mit Hilfe von d(k) und g(k+1)
βk=g(k)Tg(k)g(k+1)Tg(k+1)
d(k+1)=−g(k+1)+βkd(k)
bis das Residuum in der Norm kleiner als eine Toleranz ist (∥g(k+1)∥<tol).
CG-Verfahren mit symmetrischer Vorkonditionierung (PCG-Verfahren)
Die Konvergenz des CG-Verfahren ist nur bei symmetrischen positiv definiten Matrizen gesichert. Dies muss ein Vorkonditionierer berücksichtigen. Bei einer symmetrischen Vorkonditionierung wird das Gleichungssystem Ax=b mithilfe einer Vorkonditionierer-Matrix C=KKT≈A−1 zu KTAKy=KTb mit y=K−1x transformiert, und darauf das CG-Verfahren angewandt.
Die MatrixKTAK ist symmetrisch, da A symmetrisch ist. Sie ist ferner positiv definit, da nach dem Trägheitssatz von Sylvester A und KTAK die gleichen Anzahlen positiver und negativer Eigenwerte besitzen.
Das resultierende Verfahren ist das sogenannte PCG-Verfahren (von engl. Preconditioned Conjugate Gradient):
Zunächst wählt man ein x(0)∈Rm beliebig und berechnet:
g(0)=b−Ax(0)
h(0)=Cg(0)
d(0)=−h(0)
Für k=0,1,… setzt man:
Finde von x(k) in Richtung d(k) das Minimumx(k+1) und aktualisiere Gradienten und vorkonditionierten Gradienten
αk=⟨d(k),Ad(k)⟩⟨g(k),h(k)⟩
x(k+1)=x(k)−αkd(k)
g(k+1)=g(k)+αkAd(k) (Residuum)
h(k+1)=Cg(k+1)
Korrigiere die Suchrichtung d(k+1)
βk=⟨g(k),h(k)⟩⟨g(k+1),h(k+1)⟩
d(k+1)=−h(k+1)+βkd(k)
bis das Residuum in der Norm kleiner als eine Toleranz ist (∥g(k+1)∥<tol).
Vergleich von ICCG mit CG anhand der 2D-Poisson-Gleichung
Ein häufiger Vorkonditionierer im Zusammenhang mit CG ist die unvollständige Cholesky-Zerlegung. Diese [!Kombination] wird auch als ICCG bezeichnet und wurde in den 1970ern von Meijerink und van der Vorst eingeführt.
Zwei weitere für das PCG-Verfahren zulässige Vorkonditionierer sind der Jacobi-Vorkonditionierer C=D−1, wobei D die Hauptdiagonale von A ist, und der SSOR-Vorkonditionierer C=(2−ω1(ω1D+L)(ω1D)−1(ω1D+L)T)−1 mit ω∈(0,2), wobei D die Hauptdiagonale und L die strikte untere Dreiecksmatrix von A ist.
Konvergenzrate CG-Verfahrens
Man kann zeigen, dass die Konvergenz des CG-Algorithmus
∥xk−x∥A≤2κ(A)+1κ(A)−1∥xk−1−x∥A
ist. Hierbei ist κ(A) die Kondition der MatrixA, sowie ∥⋅∥A=∥A⋅∥2 die A-Norm.
(κ(A)−1) ist nicht negativ, da Asymmetrisch und positiv definit ist. Damit ist die Kondition
William H., Teukolsky, Saul A.:Numerical Recipes in C++, Cambridge University Press 2002, ISBN 0-521-75033-4.
Es ist unmöglich, die Schönheiten der Naturgesetze angemessen zu vermitteln, wenn jemand die Mathematik nicht versteht. Ich bedaure das, aber es ist wohl so.