Konsistenz numerischer Verfahren
Die
Konsistenz eines numerischen Verfahrens bedeutet, dass der
Algorithmus in einer gewissen grundlegenden Weise tatsächlich das gegebene Problem löst und nicht ein anderes. Die drei in der
Numerik entscheidenden Fehlerbewertungsmechanismen sind
Kondition,
Stabilität und
Konsistenz. Alle drei Größen analysieren die Entstehung von Fehlern, unterscheiden sich aber in der "Auswahl" der Fehlerquellen. Die Konditionsbewertung geht davon aus, dass der
Algorithmus genau funktioniert, jedoch die Eingabedaten gestört sind. Die
Stabilität vergleicht das Ergebnis des numerischen Verfahrens mit dem des exakten Verfahrens unter gestörten Eingabedaten.
Die
Konsistenz beschäftigt sich nun mit der Frage was passiert, wenn die exakte Lösung im numerischen Verfahren verarbeitet wird. Die aufgeführten Beispiele sind numerische
Differentiation oder Lösung eines
Anfangswertproblems. Hier wird der entstehende Fehler in Abhängigkeit eines gewählten Gitters oder einer gewählten Schrittweite betrachtet.
Definition
Gegeben sei ein kontinuierliches Problem und die exakte Lösung
u(t) sowie die numerische Lösung
uh(t) zu einer Schrittweite
h>0. Das Verfahren heißt konsistent, falls es eine
Funktion σ(h) mit
limh→0σ(h)=0 gibt, so dass für den lokalen Fehler gilt (das Verfahren startet mit exakten Anfangsdaten):
- ∥u(th)−uh(th)∥≤σ(h) ∀th=nh
gilt. Es besitzt die Konsistenzordnung
p∈N falls
σ(h)=O(hp).
Das bedeutet, dass man zu jedem Zeitpunkt (oder auch Ort) eine Fehlerbeschränkung in Abhängigkeit der gewählten Schrittweite hat. Es ist klar, dass in der Praxis Verfahren dieses Verhalten nur zeigen, wenn man eine hinreichend kleine Schrittweite wählt (vgl.
Stabilität). Viele solcher Konsistenzabschätzungen werden mit Hilfe des
Satzes von Taylor bewiesen, aus dem einfachen Grund, dass viele Verfahren die ersten Glieder der
Taylorreihe (die Abhängig von einer Schrittweite
h ist) entwickeln um ausgehend von der Lösung zum aktuellen Zeitpunkt die Lösung für den nächsten Zeitpunkt darzustellen:
- f(x+h)=f(x)+hf′(x)+h22f′′(ξ).
Die Konstante
c ist dann das
Restglied f′′(ξ), bzw. eine Supremumsnormabschätzung.
Beispiele
Differentiation
- f′(x)≈hf(x+h)−f(x)
- f′(x)≈2hf(x+h)−f(x−h)
Die Taylorentwicklungen
- f(x+h)=f(x)+f′(x)h+2f′′(ξ)h2 bzw. f(x±h)=f(x)±f′(x)h+2f′′(x)h2±6f′′′(ξ)h3
- hf(x+h)−f(x)=f′(x)+2f′′(ξ)h.
- 2hf(x+h)−f(x−h)=f′(x)+6f′′′(ξ1)+f′′′(ξ2)h2
Einsetzen und Subrahieren in der
Norm liefert dann die Konsistenzordnung eins bzw. zwei:
O(h) bzw.
O(h2). Man erkennt, dass man mit ähnlichem Rechenaufwand (je zwei Funktionsauswertungen und im Wesentlichen eine
Division) mittels des zentralen
Differenzenquotienten eine höhere Konsistenzordnung erreicht.
Eulerverfahren
Zum diskreten Lösen eines Anfangswertproblemes verwendet man Verfahren, ähnlich dem expliziten Eulerverfahren (Euler'sches Polygonzugverfahren). Dies bedeutet, dass für das Problem:
Gesucht ist
u(t) mit
- u′(t)=f(t,u(t)) mit u(t0)=u0.
Das explizite Eulerverfahren wird angewandt mittels
- uh(t+τ)=uh(t)+τf(t,uh(t)) mit uh(t0)=u0.
Man kann auch hier mit der
Taylorentwicklung die
Konsistenz von
O(τ) zeigen.
In der Mathematik gibt es keine Autoritäten. Das einzige Argument für die Wahrheit ist der Beweis.
K. Urbanik
Anbieterkеnnzeichnung: Mathеpеdιa von Тhοmas Stеιnfеld
• Dοrfplatz 25 • 17237 Blankеnsее
• Tel.: 01734332309 (Vodafone/D2) •
Email: cο@maτhepedιa.dе