numerische verfahren fur¨ material- wissenschaftler und ... · analysis und numerik institut fur¨...

145
Numerische Verfahren f¨ ur Material- wissenschaftler und Physiker Ronald H.W. Hoppe Lehrstuhl f¨ ur Angewandte Analysis und Numerik Institut f¨ ur Mathematik Universit¨ at Augsburg Skript zur Lehrveranstaltung im Sommersemester 2008

Upload: trankhuong

Post on 19-Aug-2019

223 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

Numerische Verfahren fur Material-wissenschaftler und Physiker

Ronald H.W. Hoppe

Lehrstuhl fur AngewandteAnalysis und Numerik

Institut fur Mathematik

Universitat Augsburg

Skript zur Lehrveranstaltungim Sommersemester 2008

Page 2: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

i

Inhaltsverzeichnis

1. Modellierung und Simulationphysikalischer Prozesse und Systeme 1

1.0 Einleitung 1

1.1 Das rotierende Pendel 1

1.2 Die Warmeleitungsgleichung 5

2. Lineare Gleichungssysteme 9

2.0 Einleitung 9

2.1 Direkte Verfahren 10

2.1.1 Gaussscher Algorithmus 10

2.1.2 Cholesky Verfahren 13

2.2 Iterative Verfahren 15

2.2.1 Lineare Iterationsverfahren 15

2.2.2 Verfahren der konjugierten Gradienten 21

2.2.3 Lineare Ausgleichsprobleme 27

3. Nichtlineare Gleichungssysteme 33

3.0 Einleitung 33

3.1 Fixpunktiteration 33

3.2 Nichtlineare skalare Gleichungen 38

3.3 Newton Verfahren im lRn 40

3.4 Nichtlineare Ausgleichsprobleme 45

4. Polynom- und Splineinterpolation.Trigonometrische Interpolation. 49

4.0 Einleitung 49

4.1 Polynominterpolation 49

4.1.1 Existenz und Eindeutigkeit 50

4.1.2 Lagrangesche Darstellung 51

4.1.3 Newtonsche Darstellung 52

4.1.4 Auswertung der Interpolationspolynome 55

4.1.5 Interpolationsfehler 56

Page 3: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

ii

4.1.6 Zur Konvergenz von Folgen von Interpolationspolynomen 57

4.2 Splineinterpolation 58

4.2.1 Einfuhrung 58

4.2.2 Die kubische Splineinterpolierende 60

4.2.3 Approximationseigenschaften der kubischen Splineinterpolierenden 63

4.2.4 Minimaleigenschaften der kubischen Splineinterpolierenden 64

4.3 Trigonometrische Interpolation 65

4.3.1 Diskrete Fouriertransformation 65

4.3.2 Dis schnelle Fouriertransformation 67

5. Numerische Integration 71

5.0 Einleitung 71

5.1 Newton-Cotes Formeln 71

5.2 Gauss Quadratur 73

6. Gewohnliche Di!erentialgleichungen 77

6.0 Einleitung 77

6.1 Theoretische Grundlagen 79

6.2 Einschrittverfahren 82

6.2.1 Explizites und implizites Euler-Verfahren 82

6.2.2 Allgemeine Einschrittverfahren 85

6.2.3 Runge-Kutta-Verfahren 87

6.3 Mehrschrittverfahren 90

6.4 Steife Di!erentialgleichungen 93

6.5 Di!erential-Algebraische Gleichungen 97

7. Partielle Di!erentialgleichungen 107

7.0 Einleitung 107

7.1 Elliptische Di!erentialgleichungen 110

7.2 Parabolische Di!erentialgleichungen 123

7.3 Hyperbolische Di!erentialgleichungen 129

Index 133

Literaturverzeichnis 140

Page 4: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

1 Modellierung und Simulation physikalischer

Prozesse und Systeme

1.0 Einleitung

Die Numerische Mathematik beschäftigt sich mit der Entwicklung, Analyseund Implementation algorithmischer Werkzeuge zur approximativen Berech-nung der Lösungen mathematischer Probleme. Vielfach basieren solche Pro-bleme auf der mathematischen Modellierung realer Prozesse und Systeme ausden Ingenieur- und Naturwissenschaften, den Lebens- und den Wirtschaftswis-senschaften.

Bei einer Einführung in die Numerische Mathematik, die sich an Ma-terialwissenschaftler und Physiker richtet, erscheint es sinnvoll, phsikalischmotivierte Problemstellungen sowie deren mathematische Modellierung undderen Simulation auf der Grundlage numerischer Verfahren zu betrachten.Wir beginnen daher mit zwei Beispielen: das erste entstammt der Mechanikund hat das rotierende Pendel zum Inhalt, während das zweite der Thermody-namik entnommen ist und die zeitliche und räumliche Temperaturverteilungin einem wärmeleitenden Körper untersucht. Ein intuitiver Zugang zur nu-merischen Lösung der diese Probleme modellierenden mathematischen Glei-chungen zeigt bereits die ganze Vielfalt von Aufgaben, die der Numerikerzu bewältigen hat: die numerische Lösung linearer und nichtlinearer Glei-chungssysteme, die Interpolation und Approximation von Funktionen, dienäherungsweise Berechnung von Integralen (Quadratur), und die approxima-tive Lösung gewöhnlicher und partieller Di!erentialgleichungen. Alle dieseThemenbereiche werden in den folgenden Kapiteln angesprochen.

1.1 Das rotierende Pendel

Wir betrachten ein rotierendes Pendel bestehend aus zwei dünnen Stäbender Länge 2l und der Masse m. Die beiden Stäbe sind untereinander überein ebenes Gelenk verbunden. Der erste Stab ist waagerecht fest an einervertikalen Achse fixiert, die mit der Winkelgeschwindigkeit !(t) rotiert. Derzweite Stab pendle dabei reibungsfrei unter dem Einfluss der Schwerkraftund der Zentrifugalkraft, die im System des rotierenden zweidimensionalenPendels wirkt, um das freie Ende des ersten Stabes (vgl. Fig. 1).

Page 5: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2 1 Modellierung und Simulation physikalischer Prozesse und Systeme

Es wirken also zwei Kräfte auf Stab 2: die Erdanziehung |Fg| = mg und dieZentrifugalkraft |Fz| = m!2r, die aus der Trägheit des Stabes 2 resultiert.Statt sich geradlinig fortzubewegen, wird er von der Verbindung mit Stab1 fortwährend in die Ebene gezwungen, die die Rotationsachse und Stab 1aufspannen. Dies führt im rotierenden System zu einer Beschleunigung vonder Rotationsachse weg, die als Zentrifugalbeschleunigung beschrieben wird.Dabei bezeichnet r den Abstand von der Rotationsachse.

Zur mathematischen Beschreibung des Pendels genügt es, die Bewegungin der rotierenden Ebene zu beschreiben. Der Ursprung des Koordinatensys-tems sei in der Mitte des Gelenkes zwischen den beiden Stäben. Die positivex-Achse sei von der Rotationsachse weg gerichtet, die positive y-Achse derGravitation entgegen. (vgl. Fig. 1)

Fig. 1. Rotierendes Pendel

In diesem Koordinatensystem ist Stab 1 fixiert. Es ist also ausreichend,die Lage von Stab 2 zu beschreiben. Dazu benötigen wir höchstens drei unab-hängige Koordinaten: die x- und y- Koordinaten des Schwerpunkts und denWinkel " des Stabes von der Vertikalen.

Es mag au!allen, dass durch die Zwangsbedingung des Gelenkes zweidieser Koordinaten überflüssig sind, da sie durch die Gleichungen x = l sin(")und y = !l cos(") aus der einzigen wirklich freien Koordinate " hervorge-hen. Man mag vermuten, dass die Beschreibung mit drei statt nur einer Vari-ablen das Problem verkompliziert. Hierin liegt aber gerade der Vorteil der

Page 6: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

1.1 Das rotierende Pendel 3

di!erential-algebraischen Formulierung, die zwar mit vielen aber relativ ein-fachen Gleichungen auskommt.

Im einfachsten Fall ist die Rotationsgeschwindigkeit ! konstant und

tan("(t = 0)) =|Fz||Fg|

.

In diesem Fall zieht die Summe der Kräfte den Schwerpunkt des Stabs radialvom Gelenk weg, was gerade von der Zwangskraft des Gelenkes kompensiertwird, und wir erhalten den statischen Fall einer Kreisbewegung, der schon ausder Schule bekannt ist. Bei anderen Anfangsbedingungen sind jedoch tieferemechanische Kenntnisse erforderlich.

Alternativ zum Newtonschen Kraftansatz ist der Ausgangspunkt zurHerleitung einer einfachen kanonischen Form das Hamiltonsche Prinzip derkleinsten Wirkung.

Sei das betrachtete mechanische System durch eine Funktion L beschrie-ben, die von n generalisierten Koordinaten qi und deren zeitlichen Ableitun-gen qi , i = 1 . . . f , den generalisierten Geschwindigkeiten, abhänge. DasWirkungsprinzip besagt nun, dass die Bewegung des Systems zwischen zweiZeitpunkten t1 und t2 so verläuft, dass das Integral

S =

! t2

t1

L(q1, . . . , qf , q1, . . . , qf , t)dt

extremal wird. Nach einiger Überlegung folgen daraus bei Wahl unabhängigergeneralisierter Koordinaten qi , i = 1 . . . f die Lagrange Gleichungen zweiterArt :

(1.1.1)d

dt(#

#qiL)!

#

#qiL = 0 , i = 1 . . . f .

Auf die Transformation in unabhängige generalisierte Koordinaten kannjedoch auch verzichtet werden. In diesem Fall können die Lagrange Gleichun-gen 2.Art mit Hilfe der Methode der Lagrange Multiplikatoren auf folgendeForm gebracht werden:

(1.1.2)d

dt(#

#qiL)!

#

#qiL =

r"

µ=1

$µFµi i = 1 . . . n

mit Fµi = !!qi

Fµ für holonome Zwangsbedingungen. Mit Hilfe dieses Forma-lismus muss man also nur die Lagrangefunktion L finden.

Im Fall konservativer Systeme ist die Lagrangefunktion L die Di!erenzaus der kinetischen Energie T und der potentiellen Energie U .

Wenn wir also diesen Formalismus für das rotierende Pendel verwendenwollen, müssen wir für die Kräfte Fg und Fz Potentiale Ug und Uz finden

Page 7: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4 1 Modellierung und Simulation physikalischer Prozesse und Systeme

mit Fg = !"Ug und Fz = "Uz. Man sieht leicht, dass im gewählten Ko-ordinatensystem Ug = mgy und Uz = ! 1

2m!2(2l + x)2 die Forderungen er-füllen. T setzt sich zusammen aus der kinetischen Energie des SchwerpunktesTlin = 1

2m(x2 + y2) und der Rotationsenergie des Stabes 2 um den Schwer-punkt Trot = 1

2%"2, wobei % das Trägheitsmoment des Stabes bezüglich des

Schwerpunkts ist.Also ist

(1.1.3) L = T ! V =1

2(mv2 + "2)!mgy +

1

2m!2(2l + x)2.

Die Forderung, dass das eine Ende von Stab 1 ein Gelenk mit Stab 2bildet definiert die holonomen Zwangsbedingungen:

0 = x! l sin" ,(1.1.4a)

0 = y + l cos" .(1.1.4b)

Einsetzen in die Lagrange Gleichungen für q1 = x, q2 = y, q3 = " liefertein System von drei Di!erentialgleichungen 2.Ordnung, die mit der Substi-tution qi = vi auf ein System von sechs Di!erentialgleichungen 1.Ordnungtransformiert werden können.

x = vx ,(1.1.5a)

y = vy ,(1.1.5b)

" = v" ,(1.1.5c)

mvx = m!2(2l + x) + $1 ,(1.1.5d)

mvy = !mg + $2 ,(1.1.5e)

%v" = $1 · (! cos") + $2 · (! sin") .(1.1.5f)

Die Gleichungen (1.1.4),(1.1.5) beschreiben die Dynamik des rotieren-den Pendels. Sie bestehen aus den sechs gewöhnlichen Di!erentialgleichungen(1.1.5a)-(1.1.5f) und den beiden algebraischen Gleichungen (1.1.4a),(1.1.4b).Ein solches System wird als di!erential-algebraisches System bezeichnet. Nu-merische Verfahren zur approximativen Lösung derartiger Systeme werden inKapitel 6 besprochen.

Wir betrachten im Unterschied zu (1.1.4a),(1.1.4b) und (1.1.5a)-(1.1.5f)bei gegebener Funktion f : I # Rd $ Rd, I := [a, b] % R, und gegebenemAnfangswert " & Rd ein Anfangswertproblem für ein System gewöhnlicherDi!erentialgleichungen 1.Ordnung in expliziter Form

y!(x) = f(x, y(x)) , x & I,(1.1.6a)

y(a) = ".(1.1.6b)

Bezüglich einer Zerlegung

Page 8: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

1.2 Die Wärmeleitungsgleichung 5

Ih := {xi = a + ih , 0 ' i ' N + 1 , h =b! a

N + 1}

des Intervalls I folgt durch Integration über [a, x1]

(1.1.7) y(x1) = " +

x1!

a

f(x, y(x)) dx.

Man kann nun das Integral in (1.1.7) näherungsweise dadurch berechnen, dassman den Integranden durch ein interpolierendes Polynom ersetzt und dasIntegral für dieses Polynom exakt auswertet. Die Polynominterpolation wirdin Kapitel 4 behandelt, die approximative Berechnung bestimmter Integralein Kapitel 5. Wählt man zur Approximation die konstante Funktion p0(x) =f(x1, y(x1)), x & [a, x1], so kann man eine Näherung yh(x1) & Rd durch Lösenvon

(1.1.8) yh(x1) = " + hf(x1, yh(x1))

erhalten. Die Gleichungen (1.1.8) stellen ein nichtlineares Gleichungssystemdar. Die numerische Lösung derartiger Gleichungssysteme ist Gegenstand vonKapitel 3.

1.2 Die Wärmeleitungsgleichung

Wir betrachten die zeitliche und räumliche Temperaturverteilung %(x, y, t),(x, y, t) & Q := & # [0, T ], in einem wärmeleitenden Körper, der ein Gebiet& := (a, b)2 % R2, a, b & R, a < b, einnimmt. Die thermodynamischen Gesetzebesagen, dass die zeitliche Änderung der spezifischen internen Energie e injedem Teilgebiet D % & gleich ist der Summe aus dem pro Zeiteinheit durchden Rand #D ein- bzw. austretenden Wärmefluss q und der pro Zeiteinheit inD durch Quellen bzw. Senken f erzeugten bzw. vernichteten Wärmemenge.In der mathematischen Formulierung führt dies auf die Bilanzgleichung

(1.2.1)#

#t

!

D

e dx =

!

!D

' · q ds +

!

D

f dx.

Nach dem Gaussschen Integralsatz gilt

(1.2.2)!

!D

' · q ds =

!

D

" · q dx.

Wir erhalten somit aus (1.2.1) und (1.2.2)

(1.2.3)!

D

##e

#t!" · q ! f

$

dx = 0.

Page 9: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6 1 Modellierung und Simulation physikalischer Prozesse und Systeme

Da (1.2.3) für alle Teilgebiete D % & erfüllt ist, erschliessen wir

(1.2.4)#e

#t!" · q = f in Q.

Die Gleichung (1.2.4) muss um Materialgesetze (konstitutive Gleichungen)ergänzt werden. Wir nehmen ein lineares Materialgesetz in Gestalt des lin-earen Fourierschen Gesetzes

(1.2.5) e = (c% , q = )"%

mit ( als der Dichte, c als der spezifischen Wärme und ) als der Wärmeleit-fähigkeit an. Der Einfachheit halber setzen wir voraus, dass diese Grössenkonstant sind. Einsetzen von (1.2.5) in (1.2.4) ergibt die Wärmeleitungs-gleichung

(1.2.6) (c#%

#t! )*% = f in Q,

die eine parabolische partielle Di!erentialgleichung in der Temperatur %darstellt und durch Anfangs- und Randbedingungen zu ergänzen ist, zumBeispiel durch

% = 0 auf + : #& # [0, T ],(1.2.7)

%(·, 0) = %0 in &.(1.2.8)

Zur numerischen Lösung von (??)-(1.2.8) betrachten wir eine Zerlegung

Ik := {tm = mk | 0 ' m ' M + 1 , k =T

M + 1}

des Zeitintervalls I := [0, T ] der Schrittweite k und ein äquidistantes Gitter

&h := {(xi, yj) | xi = ih , yj = jh , 0 ' i, j ' N + 1 , h =b! a

N + 1}

der Gitterweite h. Wir approximieren die Zeitableitung durch den rück-wärtsgenommenen Di!erenzenquotienten

D"k %(x, y, t) :=

%(x, y, t)! %(x, y, t! k)

k

und die Ortsableitungen durch die zentralen Di!erenzenquotienten

D2h,x,x%(x, y, t) :=

%(x! h, y, t)! 2%(x, y, t) + %(x + h, y, t)

h2,

D2h,y,y%(x, y, t) :=

%(x, y ! h, t)! 2%(x, y, t) + %(x, y + h, t)

h2.

Page 10: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

1.2 Die Wärmeleitungsgleichung 7

Setzen wir dann *h := D2h,x,x + D2

h,y,y, so besteht das Problem in der Be-stimmung einer Gitterfunktion %h,k(x, y, t), (x, y, t) & Qh,k := &h # Ik, dieden Gleichungen

(cD"k %h,k ! )*h%h,k = f in Qh,k := &h # Ik,(1.2.9a)

%h,k = 0 in +h,k := ,h # Ik,(1.2.9b)

%h,k(·, t0) = %0 in &,(1.2.9c)

mit&h := &h(& und ,h := &h(#& genügt. Man bezeichnet (1.2.9a)-(1.2.9c)als ein Di!erenzenverfahren zur Approximation der Wärmeleitungsgleichung.

Ordnet man die Gitterpunkte von &h lexikographisch an, i.e., zählt mansie von links nach rechts und unten nach oben ab und bezeichnet man mit%mh & RN2

den Vektor, dessen Komponenten die Werte der Gitterfunktion%h,k(·, tm) in den inneren Gitterpunkten sind, so hat man in jedem Zeitschrittein lineares Gleichungssystem zu lösen von der Gestalt

(1.2.10) ((cIh + )kAh)%mh = %m"1h + bm

h

mit einem Vektor bmh & RN2

und einer Blocktridiagonalmatrix Ah von derGestalt

Ah =1

h2

%

&&&&'

T !I!I T !I

· · ·!I T !I

!I T

(

))))*

,

wobei T eine Tridiagonalmatrix ist, deren explizite Bestimmung wir alsÜbungsaufgabe stellen. Die numerische Lösung linearer algebraischer Glei-chungssysteme ist Gegenstand des folgenden Kapitels.

Die numerische Lösung partieller Di!erentialgleichung wird in Kapitel 7behandelt.

Page 11: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester
Page 12: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2 Lineare Gleichungssysteme

2.0 Einleitung

Es seien A = (aij)ni,j=1 & Rn#n eine n#n Matrix mit Elementen aij & R, 1 '

i, j ' n, und b = (b1, · · · , bn)T & Rn ein Vektor mit bi & R, 1 ' i ' n.Gesucht ist ein Vektor x = (x1, · · · , xn)T & Rn, so dass

(2.0.1) Ax = b ,

oder ausgeschrieben

(2.0.2)

%

&&'

a11 · · · a1n

· ·· ·

an1 · · · ann

(

))*

%

&&'

x1

··

xn

(

))*

=

%

&&'

b1

··

bn

(

))*

.

(2.0.3) Definition: Die Gleichungen (2.0.1) bzw. (2.0.2) werden als ein line-ares algebraisches Gleichungssystem in den Unbekannten xi, 1 ' i ' n, beze-ichnet. Die Matrix A & Rn#n wird Koe"zientenmatrix genannt, und die Vek-toren b & Rn bzw. x & Rn heissen rechte Seite des linearen Gleichungssystemsbzw. Lösungsvektor.

Aus der linearen Algebra ist das folgende Ergebnis bekannt.

(2.0.4) Theorem: Ist die Matrix A & Rn#n regulär, dann besitzt (2.0.1) eineeindeutige Lösung x & Rn.

Wir beschäftigen uns in diesem Kapitel mit der numerischen Lösung line-arer algebraischer Gleichungssysteme von der Gestalt (2.0.2). Dabei unter-scheiden wir zwischen

– direkten Verfahren,– iterativen Verfahren.

Im Falle einer regulären Koe"zientenmatrix berechnen direkte Verfahren dieeindeutige Lösung bei exakter Algorithmik in einer endlichen Anzahl ele-mentarer Rechenoperationen (Additionen, Subtraktionen, Multiplikationenund Divisionen). In Abschnitt 2.1.1 behandeln wir den

Page 13: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

10 2 Lineare Gleichungssysteme

– Gausschen Algorithmus

für allgemeine n# n Matrizen und das

– Cholesky Verfahren

für den Spezialfall symmetrisch positiv definiter Matrizen.Ausgehend von einem Startvektor x(0) berechnen Iterationsverfahren eine

Folge (x(#))#$N von Vektoren, so dass x(#) $ x = A"1b für ' $). In Kapitel2.2 behandeln wir

– lineare Iterationsverfahren

für allgemeine n# n Matrizen und das

– cg Verfahren (Verfahren der konjugierten Gradienten)

für symmetrisch positiv definite Matrizen.

2.1 Direkte Verfahren

2.1.1 Gaussscher Algorithmus

Wir betrachten zunächst den Spezialfall sogenannter gesta!elter Gleichungs-systeme, die vorliegen, wenn die Koe"zientenmatrix A & Rn#n eine obereoder untere Dreiecksmatrix ist.

(2.1.1.1) Definition: Eine Matrix A & Rn#n heisst obere Dreiecksmatrix(untere Dreiecksmatrix), falls aij = 0, i > j (aij = 0, i < j). Ein lineares al-gebraisches Gleichungssystem (2.0.1) wird als ein gesta!eltes Gleichungssys-tem bezeichnet, falls die Koe"zientenmatrix A & Rn#n eine untere oder obereDreiecksmatrix ist.

Im Fall einer oberen Gleichungsmatrix ist das gesta!elte Gleichungs-system von der Gestalt

(2.1.1.2)

%

&&'

a11 · · · a1n

0 a22 · · a2n

· ·0 · · 0 ann

(

))*

%

&&'

x1

··

xn

(

))*

=

%

&&'

b1

··

bn

(

))*

.

Ist die obere Dreiecksmatrix regulär, so gilt aii *= 0, 1 ' i ' n, und wirkönnen (2.1.1.2) leicht durch Rückwärtssubstitution lösen:

(2.1.1.3) xn"i = (bn"i !i"1"

j=0

an"i,n"jxn"j)/an"i,n"i , i = 0, · · · , n! 1 .

Entsprechend berechnet sich die Lösung eines gesta!elten Gleichungssystemsmit einer regulären unteren Dreiecksmatrix durch Vorwärtssubstitution.

Page 14: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.1 Direkte Verfahren 11

(2.1.1.4) Bemerkung: Man zeigt leicht, dass der Aufwand zur Berechnungder Lösung eines gesta!elten linearen algebraischen Gleichungssystems O(n2)elementare Rechenoperationen beträgt.

Die Idee des Gaussschen Algorithmus, auch Gausssches Eliminationsver-fahren gennant, beruht auf der Transformation des Gleichungssystéms (2.0.2)auf obere Dreiecksgestalt (2.1.1.2). Dabei nutzt man die Eigenschaft linearerGleichungssysteme aus, dass die Lösung invariant ist bezüglich der Additiondes Vielfachen einer Gleichung zu einer anderen Gleichung.

Ausgehend von der 1.Gleichung eliminiert man sukzessive für i = 1, · · · ,n ! 1, die Variable xi aus den j-ten Gleichungen, i + 1 ' j ' n. Wirwollen diese Vorgehensweise eingehend anhand des 1.Eliminationsschrittesbeschreiben, der in der Elimination von x1 aus den Zeilen 2, · · · , n besteht.Dabei haben wir zwei Fälle zu unterscheiden:

1. Fall: a11 *= 0. Wir subtrahieren das -i1 := ai1/a11-fache der Zeile 1von den Zeilen 2, · · · , n und erhalten somit das zu (2.0.2) äquivalente Glei-chungssystem

(2.1.1.5)

%

&&&&'

a11 a12 · · · a1n

0 a(1)21 · · · a(1)

2n

· · ·· · ·0 a(1)

n2 · · · a(1)nn

(

))))*

+ ,- .

=: A(1)

%

&&&&'

x1

x2

··

xn

(

))))*

=

%

&&&&'

b1

b(1)2

··

b(1)n

(

))))*

+ ,- .

=: b(1)

.

wobei die Elemente a(1)ij , 2 ' i, j ' n, und die Komponenten b(1)

i , 2 ' i ' n,

des Vektors b(1) wie folgt gegeben sind

a(1)ij = aij !

ai1

a11aij ,

b(1)i = bi !

ai1

a11bi.

Die Matrix A(1) in (2.1.1.5) ergibt sich formal aus A durch Linksmulti-plikation mit der Matrix

L1 :=

%

&&&&'

1!-21 1··

!-n1 1

(

))))*

,

i.e., A(1) = L1A. Die Matrix L1 wird als Eliminationsmatrix bezeichnet.Matrizen dieser Gestalt heissen auch Frobeniusmatrizen (siehe Freund undHoppe (2007)).Man zeigt leicht, dass die Inverse L"1

1 durch

Page 15: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

12 2 Lineare Gleichungssysteme

L"11 :=

%

&&&&'

1-21 1··-n1 1

(

))))*

,

gegeben ist, i.e., A = L"11 A(1).

2.Fall: a11 = 0. Wir bestimmen das betragsgrösste Element ai1, 2 ' i ' nin der 1.Spalte:

|ai1| = max2%j%n

|aj1|

Ist ai1 *= 0, so vertauschen wir die 1. und die i-te Zeile und verfahren nachdieser Permutation wie in Fall 1.Man nennt diese Vorgehensweise Spaltenpivotsuche und bezeichnet das Ele-ment ai1 als Pivotelement.Sollte sich ai1 = 0 ergeben, so bedeutet dies, dass alle Elemente der 1.Spaltegleich Null sind: Die Matrix ist singulär, und wir brechen die Elimination miteiner entsprechenden Meldung ab.

Die Vertauschung der 1. und der i-ten Zeile im 2.Fall des ersten Elimina-tionsschrittes entspricht der Multiplikation der Matrix A von links mit einerPermutationsmatrix.

(2.1.1.6) Definition: Es seien ei, 1 ' i ' n, die i-ten Einheitsvektoren imRn und . eine Permutation von In := {1, · · · , n}. Dann wird die Matrix

P := [e$(1) e$(2) · · · e$(n)]

eine Permutationsmatrix genannt. P ist eine orthogonale Matrix, i.e., PT =P"1, und es gilt det(P ) = sgn(.).

Die weiteren Eliminationsschritte verlaufen analog zum 1.Eliminations-schritt, wobei - wenn nötig - jeweils eine entsprechende Spaltenpivotsuchedurchgeführt wird. Ist die Matrix A nichtsingulär, so liegt das Gleichungssys-tem (2.0.2) nach n!1 Schritten mit An"1) = R in gesta!elter Form (2.1.1.2)vor, wobei

(2.1.1.7) A(n"1) = R = Ln"1Ln"2 · · ·L1PA.

mit P als der Permutationsmatrix, die den vorgenommenen Zeilenvertau-schungen entspricht. Aus (2.1.1.7) folgt sofort

(2.1.1.8) PA = LR mit L := L"11 L"1

2 · · ·L"1n"1R,

i.e., der Gausssche Algorithmus liefert eine sogenannte LR-Zerlegung von PA,wobei L explizit durch

Page 16: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.1 Direkte Verfahren 13

(2.1.1.9) L =

%

&&&&'

1-21 1··-n1 -n2 · -n,n"1 1

(

))))*

gegeben ist.

(2.1.1.10) Definition: Es sei A & Rn#n. Gibt es eine untere DreiecksmatrixL und eine obere Dreiecksmatrix R mit

(2.1.1.11) A = LR,

so wird (2.1.1.11) als LR-Zerlegung von A bezeichnet.

Der Rechenaufwand zur Durchführung der Gaussschen Elimination be-trägt ungefähr 2

3n3 wesentliche Rechenoperationen.

(2.1.1.12) Bemerkung: Man speichert die Elemente von L bei Durchführungder Gaussschen Elimination zweckmässigerweise im frei werdenden unterenTeil der Matrix ab. Nach erfolgter Elimination kann man dann auch späterauf die LR-Zerlegung zurückgreifen, falls ein lineares Gleichungssystem mitderselben Koe"zientenmatrix erneut zu lösen ist: Man berechnet zunächst yals Lösung von Ly = b und dann x als Lösung von Rx = y. Der Rechenauf-wand beträgt dann nur noch O(n2) Rechenoperationen für die Lösung derbeiden gesta!elten Gleichungssysteme.

2.1.2 Cholesky Verfahren

Das Cholesky Verfahren ist auf symmetrisch positiv definite (spd) Matrizenanwendbar.

(2.1.2.1) Definition: Eine Matrix A = (aij)ni,j=1 heisst symmetrisch, falls

A = AT , i.e. falls aij = aji , 1 ' i, j ' n.

Sie wird positiv definit genannt, falls

(2.1.2.2) (Ax, x) *= 0 für x *= 0,

wobei (·, ·) das Euklidische innere Produkt auf Rn bezeichnet.

(2.1.2.3) Theorem: Es sei A & Rn#n spd. Dann gilt:

(i) A ist invertierbar,

(ii) aii > 0 , 1 ' i ' n,

(iii) max1%i,j%n

|aij | ' max1%i%n

aii ,

(iv) Bei der Gauss Elimination ohne Pivotsuche ist in jedem Eliminations-schritt die (n! i)# (n! i) Restmatrix wieder spd.

Page 17: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

14 2 Lineare Gleichungssysteme

Beweis: (i): Es gilt

Ax = 0 =+ (Ax, x) = 0 =+ x = 0.

(ii): Mit x = ei, 1 ' i ' n, folgt

(Aei, ei) = aii > 0.

(iii): Da A spd, existiert A1/2, und man erhält mit , ·, := (·, ·)1/2

|aij | = |(Aei, ej)| = |(A1/2ei, A1/2ej)| '

' ,A1/2ei,,A1/2ej, = (Aei, ei)1/2(Aej , ej)

1/2 = a1/2ii a1/2

jj .

(iv): Nach dem 1.Eliminationsschritt ergibt sich

A(1) = L1A =

%

'

a11 | zT

! ! !0 | B(2)

(

* , L1ALT1 =

%

'

a11 | 0! ! !0 | B(2)

(

* .

Da L1ALT1 spd, so auch B(2). !

Die Eigenschaften (iii),(iv) aus Theorem 2.1.2.3 implizieren, dass bei derLR-Zerlegung von spd Matrizen eine Pivotsuche nicht angemessen ist.

(2.1.2.4) Theorem: Es sei A & Rn#n spd. Dann existiert eine untere Drei-ecksmatrix L, so dass

(2.1.2.5) A = LLT .

Beweis: Der Beweis erfolgt durch konstruktive Fortsetzung des Beweises vonTheorem (2.1.2.3)(iv) mit L = L"1

1 · · ·L"1n"1. !

Die Gleichungen (2.1.2.5) lauten ausgeschrieben%

&&'

a11 · · · a1n

· · · · ·· · · · ·

an1 · · · ann

(

))*

=

%

&&'

-11 0 · · 0· · · · ·· · · · 0-n1 · · · -nn

(

))*

%

&&'

-11 · · · -n1

0 · · · ·· · · · ·0 · · 0 -nn

(

))*

.

Eine elementweise Auswertung ergibt

i = k : akk = -2k1 + · · · + -2k,k"1 + -2kk,

i > k : aik = -i1-k1 + · · · + -i,k"1-k,k"1 + -ik -kk

Page 18: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 15

Algorithmus: Cholesky Zerlegung

for k = 1 to n do

-kk = (akk !k"1/

j=1-2kj)

1/2

for i = k + 1 to n do

-ik = (aik !k"1/

j=1-ij -kj)/-kk

Der Rechenaufwand zur Durchführung des Cholesky Verfahrens beträgtca. 1

3n3 wesentliche Operationen und ist damit etwa halb so gross wie der fürdie Gausssche Elimination.

2.2 Iterative Verfahren

2.2.1 Lineare Iterationsverfahren

Wir behandeln lineare Iterationsverfahren zur Lösung linearer algebraischerGleichungssysteme

(2.2.1.1) Ax = b

bei gegebener regulärer Matrix A & Rn#n und gegebener rechter Seite b & Rn.

(2.2.1.2) Definition: Es seien M,N & Rn#n und x(0) & Rn. Dann wird

(2.2.1.3) x(k+1) = Mx(k) + Nb , k & N0,

als ein lineares Iterationsverfahren zur Lösung von (2.2.1.1) mit Startwertx(0) bezeichnet. Das lineare Iterationsverfahren (2.2.1.3) heisst konsistent mit(2.2.1.1), falls die Lösung x = A"1b Fixpunkt der Iteration ist, i.e., falls

(2.2.1.4) x = Mx + Nb

gilt. Die Matrix M wird Iterationsmatrix von (2.2.1.3) genannt.

(2.2.1.5) Bemerkung: O!enbar ist ein lineares Iterationsverfahren (2.2.1.3)konsistent mit (2.2.1.1) genau dann, wenn

(2.2.1.6) M = I !NA.

Wir untersuchen im Folgenden die Konvergenz der Folge (x(k))k$N der miteinem linearen Iterationsverfahren generierten Iterierten gegen die Lösungx = A"1b von (2.2.1.1).

(2.2.1.7) Definition: Ein lineares Iterationsverfahren (2.2.1.3) heisst kon-vergent, falls limk&' x(k) unabhängig von der Wahl der Startiterierten x(0)

existiert.

Page 19: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

16 2 Lineare Gleichungssysteme

Die Konvergenz linearer Iterationsverfahren lässt sich charakterisierendurch den Spektralradius der Iterationsmatrix M .

(2.2.1.8) Definition: Der Spektralradius ((C) einer Matrix C & Rn#n ist derbetragsgrösste Eigenwert $(C) der Matrix, i.e.,

((C) := max%(C)$&(C)

|$(C)|,

wobei /(C) das Spektrum (Menge aller Eigenwerte) von C bezeichnet.

(2.2.1.9) Theorem: Ein konsistentes lineares Iterationsverfahren (2.2.1.3)mit der Iterationsmatrix M ist konvergent dann und nur dann, wenn

(2.2.1.10) ((M) < 1.

Die Konvergenz ist umso ’besser’, je kleiner ((M) ausfällt.

Beweis: Sei das lineare Iterationsverfahren (2.2.1.3) konvergent. Ohne Be-schränkung der Allgemeinheit können wir b = 0 in (2.2.1.1) annehmen. Danngilt

x(k) = Mkx(0) $ x

unabhängig von der Wahl von x(0). Für x(0) = 0 erhalten wir x = 0. Nehmenwir nun im Widerspruch zur Behauptung ((M) - 1 an und wählen x(0) alsEigenvektor zu einem Eigenwert $(M) mit |$(M)| = ((M), so folgt x(k) =$(M)kx(0) *= 0 im Widerspruch zur Konvergenz des Verfahrens.

Zum Beweis der Umkehrung zeigen wir zunächst durch vollständige In-duktion

(2.2.1.11) x(k)Mkx(0) +k"1"

j=0

M jNb

(Übungsaufgabe). Gilt dann ((M) < 1, so hat man

Mkx(0) $ 0 ,k"1"

j=0

M j $ (I !M)"1 für k $),

und somit bei Beachtung von (2.2.1.6)

x(k) = Mkx(0) +k"1"

j=0

M jNb $ (I !M)"1Nb = A"1b.

!

Wir beschliessen unsere allgemeinen Betrachtungen über die Konvergenzlinearer Iterationsverfahren mit einem Konvergenzkriterium für spd Ma-trizen.

Page 20: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 17

(2.2.1.12) Definition: Es sei A & Rn#n spd. Dann definiert

(2.2.1.13) ,x,A := (Ax, x)1/2 = (A1/2x,A1/2x)1/2 = ,A1/2x,

eine Vektornorm, die als Energienorm bezeichnet wird. Für die assoziierteMatrixnorm erhält man

,B, = supx(=0

,Bx,A

,x,A= sup

x(=0

,A1/2Bx,,A1/2x,

=(2.2.1.14)

= supy=A1/2x

,A1/2BA1/2y,,y,

= ,A1/2BA1/2,.

Wir führen ferner auf der Menge der spd Matrizen gemäss

(2.2.1.15) A > B .+ A!B ist spd

eine Halbordnung ein. Dann haben wir das folgende Resultat:

(2.2.1.16) Theorem: Es seien A & Rn#n spd und N & Rn#n regulär. FürW := N"1 gelte

(2.2.1.17) W + WT > A.

Setzen wir M = I !NA, so folgt

(2.2.1.18) ((M) ' ,M,A < 1.

Beweis: Da ((M) ' ,M,A, genügt es, ,M,A < 1 zu zeigen. Wegen M =I !NA = I !W"1A hat man

,M,A = ,A1/2MA"1/2, = , I !A1/2W"1A1/2+ ,- .

=: M

,.

Für die Matrix M ergibt sich

MT M = (I !A1/2W"1A1/2)T (I !A1/2W"1A1/2) =

= I !A1/2(W"T + W )A1/2 + A1/2W"T AW"1A1/2 =

= I !A1/2W"T (W + WT )W"1A1/2 + A1/2W"T AW"1A1/2 <

< I !A1/2W"T AW"1A1/2 + A1/2W"T AW"1A1/2 = I,

und somit,M,A = ,M, = ((MT M)1/2 < ((I)1/2 = 1.

!

Page 21: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

18 2 Lineare Gleichungssysteme

Wir betrachten nun einige klassische lineare Iterationsverfahren:

– Richardson Iteration,– Jacobi Verfahren,– Gauss-Seidel Verfahren,– Methode der sukzessiven Überrelaxation.

(2.2.1.19) Definition: Das lineare Iterationsverfahren mit

M = MR(%) := I ! %A , N = NR(%) := %I , % & R,

ergibt die Iterationsvorschrift

(2.2.1.20) x(k+1) = x(k) + %(b!Ax(k))

und wird als Richardson Iteration bezeichnet. Der Parameter % heisst Däm-pfungsparameter. Man erhält also die ’neue’ Iterierte dadurch, dass man zur’alten’ Iterierten das durch % ’gedämpfte’ Residuum r(x(k)) := b! Ax(k) ad-diert.

(2.2.1.21) Theorem: Es gelte /(A) % (0,)). Dann konvergiert die Richard-son Iteration für alle Dämpfungsparameter

0 < % <2

$max(A)

mit $max(A) := max%(A)$&(A) $(A) (vgl. Fig. 2).

Beweis: Setzen wir $min(A) := min%(A)$&(A) $(A), so erhalten wir wegen$(MR(%)) = 1! %$(A)

((MR(%)) = max(|1! %$min(A)|, |1! %$max(A)|),

woraus die Behauptung folgt. !

Die drei anderen genannten klassischen linearen Iterationsverfahren be-ruhen auf der Wahl der Iterationsmatrix bezüglich einer Dreieckszerlegungder Koe"zientenmatrix A in (2.2.1.1).

(2.2.1.22) Definition: Die Zerlegung einer Matrix A = (aij)ni,j=1 gemäss

(2.2.1.23) A = D ! E ! F,

wobei D := diag(A) und

E :=

%

&&&&'

0 · · · 0!a21 · · · ·· · · · ·· · · · ·

!an1 · · !an,n"1 0

(

))))*

, F :=

%

&&&&'

0 !a12 · · !a1n

· · · · ·· · · · ·· · · · !an"1,n

0 · · · 0

(

))))*

wird Dreieckszerlegung von A genannt.

Page 22: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 19

|maxθ λ| 1 −

maxλ2/

1 −

1

)θ(

θ λ min

ρ(ΜR

maxλθ1 −

optθ

θ

Fig. 2. Zur Konvergenz der Richardson Iteration

(2.2.1.24) Definition: Es sei A = (aij)ni,j=1 mit aii *= 0, 1 ' i ' n. Das

lineare Iterationsverfahren mit

M = MJ := I !D"1A , N = NJ := D"1

ergibt die Iterationsvorschrift

(2.2.1.25) x(k+1) = D"1(E + F )xk + D"1b,

die komponentenweise

x(k+1)i = a"1

ii

#

bi !"

j (=i

aijx(k)i

$

, 1 ' i ' n,

lautet. Das Verfahren (2.2.1.25) heisst Jacobi Verfahren oder Gesamtschritt-verfahren.

(2.2.1.26) Theorem: Es sei A & Rn#n spd, und es gelte

(2.2.1.27) 2D !A > 0.

Dann ist das Jacobi Verfahren (2.2.1.25) konvergent.

Beweis: Gemäss Theorem (2.2.1.16) überprüfen wir (2.2.1.17). Mit WJ =N"1

J = D folgt wegen (2.2.1.27)

WTJ + WJ = 2D > A.

!

(2.2.1.28) Definition: Es sei A = (aij)ni,j=1 mit aii *= 0, 1 ' i ' n. Das

lineare Iterationsverfahren mit

Page 23: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

20 2 Lineare Gleichungssysteme

M = MGS := I ! (D ! E)"1A , N = NGS := (D !E)"1

führt auf die Iterationsvorschrift

(2.2.1.29) x(k+1) = (D ! E)"1Fxk + (D !E)"1b.

Sie lautet komponentenweise

x(k+1)i = a"1

ii

#

bi !i"1"

j=1

aijx(k+1)i !

"

j=i+1

aijx(k)j

$

, 1 ' i ' n.

Das Verfahren (2.2.1.29) wird als Gauss-Seidel Verfahren oder Einzelschritt-verfahren bezeichnet.

(2.2.1.30) Theorem: Es sei A & Rn#n spd. Dann ist das Gauss-Seidel Ver-fahren (2.2.1.29) konvergent.

Beweis: Wir wenden wiederum das Kriterium (2.2.1.27) aus Theorem (2.2.1.16)an. Mit WGS = N"1

GS = D ! E ergibt sich

WGS + WTGS = D ! E + D ! ET = D ! E ! F /D = A + D > A.

!

Die Konvergenz des Gauss-Seidel Verfahrens kann durch die Methode dersukzessiven Überrelaxation (SOR Verfahren; Successive OverRelaxation) sig-nifikant verbessert werden.

(2.2.1.31) Definition: Es seien A = (aij)ni,j=1 mit aii *= 0, 1 ' i ' n, und

0 < ! < 2. Die Iterationsvorschrift

x(k+1/2)i = a"1

ii

#

bi !i"1"

j=1

aijx(k+1)i !

"

j=i+1

aijx(k)j

$

, 1 ' i ' n,(2.2.1.32)

x(k+1)i = !x(k+1/2)

i + (1! !)x(k)i , 1 ' i ' n,

wird als Methode der sukzessiven Überrelaxation (SOR Verfahren) bezeichnet.Es ist ein lineares Iterationsverfahren (2.2.1.3) mit

M = MGS(!) := (D ! !E)"1#

(1! !)D + !F$

,(2.2.1.33)

N = NGS(!) := !(D ! !E)"1.

Für 0 < ! < 1 spricht man von Unterrelaxation, für ! > 1 von Überre-laxation. Im Fall ! = 1 erhält man das Gauss-Seidel Verfahren.

(2.2.1.34) Theorem: Es sei A & Rn#n spd. Dann ist das SOR Verfahren(2.2.1.32) für alle 0 < ! < 2 konvergent.

Page 24: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 21

ω1 2opt

))ω(SORMρ(

ω

Fig. 3. Zur Konvergenz des SOR Verfahrens

Beweis: Den Beweis überlassen wir als Übungsaufgabe. !

Fig. 3 zeigt das typische Verhalten des Spektralradius ((MGS(!) in Ab-hängigkeit von !. Es empfiehlt sich, den Relaxierungsparameter ! gemäss! > 1 zu wählen, also eine Überrelaxierung vorzunehmen.

(2.2.1.35) Bemerkung: Für weitergehende Konvergenzaussagen bezüglichder klassischen linearen Iterationsverfahren verweisen wir auf Freund undHoppe (2008).

2.2.2 Verfahren der konjugierten Gradienten

Das Verfahren der konjugierten Gradienten, auch cg-Verfahren (conjugategradients) genannt, leitet sich aus dem Gradientenverfahren ab, das fernerals Methode des steilsten Abstiegs bezeichnet wird. Es kann zur iterativenLösung linearer algebraischer Gleichungssysteme

(2.2.2.1) Ax = b

mit einer spd Matrix A & Rn#n verwendet werden.Die Herleitung geht aus von der Äquivalenz von (2.2.2.1) mit einem

quadratischen Minimierungsproblem.

(2.2.2.2) Theorem: Es seien A & Rn#n spd und b & Rn. Dann ist x) & Rn

Lösung von (2.2.2.1) genau dann, wenn x) das folgende quadratische Mini-mierungsproblem löst

(2.2.2.3) J(x)) = minx$Rn

J(x) , J(x) :=1

2(Ax, x)! (b, x).

Page 25: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

22 2 Lineare Gleichungssysteme

Beweis: Es giltJ !(x) = grad J(x) = Ax! b.

Da J !!(x) = A > 0, ist J !(x) = 0 notwendig und hinreichend für die Existenzeines Minimums. !

(2.2.2.4) Definition: Sind x & Rn eine Näherung der Lösung x) von (2.2.2.3)und p & Rn \ {0} eine Suchrichtung zur Bestimmung des Minimums, so ver-sucht man, ausgehend von x, eine (eindimensionale) Minimierung von J inRichtung p durchzuführen:

(2.2.2.5) J(x + $optp) = min%$R

J(x + $p).

(2.2.2.6) Lemma: Die Lösung des eindimensionalen Minimierungsproblems(2.2.2.5) ist gegeben durch

(2.2.2.7) $opt =(r, p)

(Ap, p), r := b!Ax.

$opt wird als optimale Schrittweite in Suchrichtung p bezeichnet.

Beweis: Notwendige und hinreichende Optimalitätsbedingung ist

(J !(x + $optp) , p ) = (Ax + $optAp! b, p) = 0.

!

Eine geeignete Suchrichtung ist die Richtung des steilsten Abstiegs

(2.2.2.8) p = ! grad J(x) = b!Ax = r.

(2.2.2.9) Definition: Wählt man als Suchrichtung p das Residuum r = b !Ax, so ergibt sich das Gradientenverfahren

Initialisierung: Wähle einen Startvektor x(0) & Rn und berechne das Residuumr(0) := b!Ax(0).

Iterationsschleife: Für k = 0, 1, 2, · · · berechne

x(k+1) := x(k) + $opt r(k) , $opt :=(r(k), r(k))

(Ar(k), r(k)),(2.2.2.10)

r(k+1) := r(k) ! $opt Ar(k).

Das Gradientenverfahren (2.2.2.10) wird auch die Methode des steilsten Ab-stiegs genannt.

Page 26: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 23

x

2N

1

(2)

3N (3)x

N

(1)x

(0)x

Fig. 4. Gradientenverfahren

Fig. 4 zeigt eine graphische Veranschaulichung des Gradientenverfahrens:Betrachte A = diag($1,$2), 0 < $1 ' $2 sowie b = 0. Für c & R seien Nc diedurch

Nc := { x & R2|J(x) =

1

2($1x

21 + $2x

22) = c}

gegebenen Niveaulinien. Die Iterierten x(k) liegen auf den Ellipsen Nk mitJ(x(k)) = c. Es gilt

x(k+1)!x(k) = $opt r(k) = !$opt grad J(x(k)) =+ (x(k+1) ! x(k)) 0 Nk

Somit berührt der Vektor x(k+1) ! x(k) die Ellipse Nk+1 tangential.

(2.2.2.11) Definition: Ein Vektor x & Rn heisst optimal bezüglich der Rich-tung p & Rn \ {0}, falls gilt

(2.2.2.12) J(x) ' J(x + $p) , $ & R.

(2.2.2.13) Lemma: Die Optimalität von x & Rn bezüglich p & Rn \ {0} istäquivalent zu

(2.2.2.14) (p, r) = 0 , i.e., p 0 r = b!Ax = !grad J(x).

Beweis: Es gilt

J(x) = min%$R

J(x + $p) .+

(grad J(x + $opt+,-.

=0

p), p) = (grad J(x), p) = !(b!Ax, p) = 0.

!

(2.2.2.15) Lemma: Beim Gradientenverfahren ist die Iterierte x(k+1) opti-mal bezüglich der Suchrichtung r(k), i.e.,

r(k+1) 0 r(k) = $"1opt(x

(k+1) ! x(k)).

Page 27: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

24 2 Lineare Gleichungssysteme

Beweis: Mit r(k+1) = r(k) ! $optAr(k) gilt

(r(k+1), r(k)) = (r(k), r(k))! $opt(Ar(k), r(k)).

!

Der Nachteil des Gradientenverfahrens besteht darin, dass die Optimalitätvon x(k+1) bezüglich r(k) bei der Bestimmung x(k+2) verloren geht. Es stelltsich von daher die Frage, welche Eigenschaften eine Suchrichtung haben muss,damit Optimalität erhalten bleibt: Falls x optimal bezüglich p ist (i.e., r 0 p),und x! = x + q, wie muss q gewählt werden, damit auch x! optimal bezüglichp ist? Es gilt

(r!, p) = (r !Aq, p) = (r, p)+ ,- .

=0

!(Aq, p) = 0 .+ Aq 0 p.

(2.2.2.16) Definition: Zwei Vektoren p, q & Rn \ {0} mit der EigenschaftAq 0 p heissen konjugiert bzw. A-orthogonal. Das Verfahren

Initialisierung: Wähle einen Startvektor x(0) & Rn und berechne r(0) = b !Ax(0).

Iterationsschleife: Für k = 0, 1, 2, · · · : Wähle eine Richtung p(k), die kon-jugiert zu p('), - < k ist und berechne

x(k+1) := x(k) + $optp(k) , $opt :=

(r(k), p(k))

(Ap(k), p(k)).

sowier(k+1) := r(k) ! $optAp(k).

wird Verfahren der konjugierten Richtungen genannt.

Das Verfahren der konjugierten Richtungen ist unpraktisch, falls keinegeeignete Wahl von p(k) getro!en wird. Die Idee des Verfahrens der kon-jugierten Gradienten besteht darin, die Residuen r(k) zur Berechnung vonp(k) zu verwenden, indem man die Residuen gemäss

(2.2.2.17) p(k) = r(k) !k"1"

'=0

(Ar(k), p('))

(Ap('), p('))p(')

A-orthogonalisiert.

(2.2.2.18) Definition: Die Methode der konjugierten Gradienten (cg-Verfahren)wird wie folgt durchgeführt:

Initialisierung: Wähle einen Startvektor x(0) und berechne r(0) := b!Ax(0).Setze p(0) := r(0).

Page 28: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 25

Iterationsschleife: Für k = 0, 1, 2, · · · berechne

x(k+1) := x(k) + " p(k) , " :=(r(k), p(k))

(Ap(k), p(k)),

r(k+1) := r(k) ! "Ap(k),

p(k+1) := r(k+1) ! 0p(k) , 0 :=(Ar(k+1), p(k))

(Ap(k), p(k)).

(2.2.2.19) Theorem: Bei exakter Rechnung bricht das Verfahren spätestensnach n Schritten mit der exakten Lösung x) = A"1b ab.

Beweis: Falls r(m) = 0 für m < n, gilt x(m) = x). Andernfalls hat manr(m), p(m) *= 0, und das Verfahren wird fortgesetzt. Falls m = n ! 1, giltRn = span {p(0), · · · , p(n"1)}, so dass eine Fortsetzung nicht möglich ist. !

Es kann gezeigt werden, dass die Konvergenz des cg-Verfahrens entschei-dend von der spektralen Kondition der Matrix A abhängt.

(2.2.2.20) Definition: Es seien A & Rn#n spd und $min(A),$max(A) derminimale und maximale Eigenwert von A. Dann wird

(2.2.2.21) )(A) :=$max(A)

$min(A)

als die spektrale Kondition von A bezeichnet.

(2.2.2.22) Theorem: Es seien A & Rn#n spd und )(A) die spektrale Kondi-tion (2.2.2.21) von A. Ferner seien x) & Rn die Lösung von (2.2.2.1) undx(k) & Rn, k & N0, die mit dem cg-Verfahren (2.2.2.18) generierten Vektoren.Für den Iterationsfehler e(k) := x(k) ! x) gilt dann

(2.2.2.23) ,e(k), '2ck

1 + c2k,e(0), , c :=

0

)(A)! 10

)(A) + 1.

Beweis: Für den Beweis verweisen wir auf Freund und Hoppe (2008). !

Beispiel: Wir betrachten die Tridiagonalmatrix A ! Rn!n mit

(2.2.2.24) A := h"2

0

B

B

@

2 "1 0 · 0"1 2 "1 · ·· · · · ·0 · · "1 2

1

C

C

A

, h := 1/(n + 1).

A besitzt die Eigenwerte

!i(A) = 4 h"2 sin2 i "2(n + 1)

, 1 # i # n =$(2.2.2.25)

!max(A) = !n(A) = 4 h"2 cos2"

2(n + 1),

!min(A) = !n(A) = 4 h"2 sin2 "2(n + 1)

.

Page 29: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

26 2 Lineare Gleichungssysteme

Damit folgt

#(A) =!max(A)!min(A)

=1 " sin2 !

2(n+1)

sin2 !2(n+1)

= O(h"2) = O(n2).

Die Konvergenz des cg-Verfahrens kann durch eine Vorkonditionierungsignifikant verbessert werden. Dies führt auf das vorkonditionierte cg-Ver-fahren bzw. pcg-Verfahren (preconditioned conjugate gradient).

Es seien A,P & Rn#n spd und 0 < 1 ' , mit

$min(A) 1 1 sowie , 1 $max(A) , so dass

,

11$max(A)

$min(A)= )(A) =+ 1I ' P"1/2 A P"1/2 ' , I.

Wendet man nun das cg-Verfahren auf das transformierte lineare Gleichungs-system

P"1/2 A P"1/2+ ,- .

=: A

P 1/2x+ ,- .

=: x

= P"1/2b+ ,- .

=: b

an, so ergibt sich:

Initialisierung: x(0) := P 1/2x(0) r(0) := b! Ax(0) , p(0) := r(0).

Iterationsschleife: Für k = 0, 1, 2, · · · berechne

x(k+1) := x(k) + "p(k) , " :=(r(k) , p(k))

(Ap(k), p(k)),

r(k+1) := r(k) ! "Ap(k),

p(k+1) := r(k+1) ! 0p(k) , 0 :=(Ap(k), r(k+1))

(Ap(k), p(k)).

Mit x(k) = P 1/2x(k) und p(k) = P 1/2p(k) gilt

P"1/2r(k) = P"1/2(b!Ax(k)) = b! Ax(k) = r(k) =+

(r(k) , p(k)) = (P"1/2r(k) , P 1/2p(k)) = (r(k), p(k)),

(Ap(k) , p(k)) = (P"1/2Ap(k) , P 1/2p(k)) = (Ap(k), p(k)),

(Ap(k), r(k+1)) = (P"1/2Ap(k), P"1/2r(k+1)) = (Ap(k), P"1r(k+1)).

Daher kann das cg - Verfahren in den ursprünglichen Variablen bei nur einerzusätzlichen Matrixinversion von P durchgeführt werden.

(2.2.2.26) Definition: Das vorkonditionierte cg-Verfahren (pcg-Verfahren)lautet:

Initialisierung: Wähle einen Startvektor x(0). Berechne r(0) := b ! Ax(0),

p(0) := P"1r(0), (0 := (p(0), r(0)).

Page 30: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 27

Iterationsschleife: Für k = 0, 1, 2, · · · berechne

a(k) := Ap(k) , x(k+1) := x(k) + "p(k) , " :=(k

(a(k), p(k)),

r(k+1) := r(k) ! "a(k) , q(k+1) := P"1r(k+1),

p(k+1) := q(k+1) +(k+1

(kp(k) , (k+1 := (q(k+1), r(k+1)).

P wird als Vorkonditionierer bezeichnet.

(2.2.2.27) Theorem: Es seien A,P & Rn#n spd mit 1P ' A ' ,P, 0 < 1 ', . Ferner seien x) & Rn die Lösung von (2.2.2.1) und x(k) & Rn, k & N0, diemit dem pcg-Verfahren (2.2.2.26) berechneten Iterierten. Dann gilt für denIterationsfehler e(k) := x(k) ! x)

(2.2.2.28) ,e(k),A '2ck

1 + c2k,e(0),A , c :=

2)! 12)+ 1

, ) :=,

1.

Beweis: Wir verweisen auf Freund und Hoppe (2008). !

Das cg-Verfahren ist ein Beispiel für ein sogenanntes Krylov-UnterraumVerfahren. Solche Verfahren spielen auch eine bedeutende Rolle bei der Lö-sung linearer algebraischer Gleichungssysteme mit nicht symmetrischer Ko-e"zientenmatrix. Die bedeutendsten Vertreter sind das GMRES Verfahren(Generalized Minimum RESidual) und die stabilisierte Version des Bi-cg Ver-fahrens, BiCGStab (Bi Conjugate Gradient Stabilized). Wir verweisen aufFreund und Hoppe (2008).

2.2.3 Lineare Ausgleichsprobleme

In der Physik besteht vielfach das Problem, in einem Materialgesetz auftre-tende Parameter (Materialgrössen) anhand von experimentellen Messdatenzu bestimmen:Zwischen einer messbaren Grösse b und der Variablen t bestehe ein funk-tionaler Zusammenhang

b(t) = 2(t;x1, ..., xn)

mit einer von n Parametern xj , 1 ' j ' n, abhängigen Funktion 2. ZurBestimmung der Parameter führe man m - n Messungen in ti, 1 ' i ' m,durch, die die Messwerte bi, 1 ' i ' m, liefern Wir betrachten die Abwe-ichungen

*i := bi ! 2(ti;x1, · · · , xn) , 1 ' i ' m.

Wir wollen x1, · · · , xn so bestimmen, dass

m"

i=1

*2i

Page 31: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

28 2 Lineare Gleichungssysteme

minimal wird. Diese Technik wird Gausssche Methode der kleinsten Fehler-quadrate genannt.

(2.2.3.1) Definition: Ist die Funktion 2 linear in den Parametern xj , 1 'j ' n, i.e.,

2(t;x1, · · · , xn) := a1(t)x1 + · · · + an(t)xn(t),

so spricht man von einem linearen Ausgleichsproblem (siehe Fig. 5).Setzen wir A & Rm#n mit aij := aj(ti), 1 ' i ' m, 1 ' j ' n, und b :=(b1, · · · , bn)T , so gilt

(2.2.3.2) minx1,··· ,xn

m"

i=1

(bi ! 2(ti;x1, ..., xn))2 =+ minx$Rn

,b!Ax,,

wobei , · , die Euklidische Norm auf Rn bezeichnet.

...

...

.

mt1tt

b

..

Fig. 5. Lineares Ausgleichsproblem

Das klassische Verfahren zur Lösung des linearen Ausgleichsproblemsbasiert auf den Normalgleichungen.

(2.2.3.3) Definition: Es seien U % Rm ein Unterraum und v & Rm. Dannheisst Pv & U orthogonale Projektion von v auf U, falls

(2.2.3.4) (Pv ! v, u) = 0 , u & U.

(siehe Fig. 6). Die Abbildung P : Rm $ U, die (2.2.3.4) erfüllt, wird orthog-onale Projektion von Rm auf U genannt.

(2.2.3.5) Lemma: Für v & Rm ist Pv & U orthogonale Projektion von v aufden Unterraum U % Rm genau dann, wenn

(2.2.3.6) ,v ! Pv, = minu$U

,v ! u,.

Page 32: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 29

P v

Rm

U

v

Fig. 6. Orthogonale Projektion

Beweis: Für u & U hat man

,v ! u,2 = (v ! u, v ! u) = (v ! Pv + Pv ! u, v ! Pv + Pv ! u) =

= ,v ! Pv,2 + 2(v ! Pv, Pv ! u) + ,Pv ! u,2.

Ist Pv orthogonale Projektion von v auf U, so ist (v ! Pv, Pv ! u) = 0 undsomit

,v ! u,2 - ,v ! Pv,2 , u & U.

Gelte umgekehrt (2.2.3.6). Dann hat man

(v ! Pv, Pv ! u) - 0 , u & U

und mit u = Pv ± z , z & U, folgt

(v ! Pv,±z) - 0 , z & U =+ (v ! Pv, z) = 0 , z & U.

!

(2.2.3.7) Lemma: Es ist x & Rn Lösung des linearen Ausgleichsproblems(2.2.3.2) genau dann, wenn Ax & Rm orthogonale Projektion von b & Rm aufR(A) ist, i.e.,

(b!Ax,Ay) = 0 , y & Rn.

(2.2.3.8) Theorem: Es ist x & Rn Lösung des linearen Ausgleichsproblems(2.2.3.2) genau dann, wenn x den Normalgleichungen

(2.2.3.9) AT Ax = AT b

genügt.

Page 33: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

30 2 Lineare Gleichungssysteme

Beweis: Es gilt

(b!Ax,Ay) = 0 , y & Rn .+ (AT (b!Ax), y) = 0 , y & R

n

.+ AT Ax = AT b.

!

Zur numerischen Lösung der Normalgleichungen bietet sich das CholeskyVerfahren (siehe 2.1.2) an, da im Falle Rang A = n die Matrix AT A &Rn#n eine spd Matrix ist. Jedoch ist diese Vorgehensweise insbesondere beischlecht konditionierten Matrizen nicht angebracht. Stattdessen verwendetman Orthogonalisierungsverfahren.

(2.2.3.10) Definition: Es seien A % Rm#n,m - n, und Q & Rm#m eineorthogonale Matrix, so dass

(2.2.3.11) QT A =

1

R0

2

.+ A = Q

1

R0

2

mit einer oberen Dreiecksmatrix R & Rn#n. Dann wird (2.2.3.11) als QR-Zerlegung von A bezeichnet.

(2.2.3.12) Theorem: Es seien A % Rm#n,m - n,Rang A = n, b & Rm, undQ & Rm#m eine orthogonale Matrix mit

(2.2.3.13) QT A =

1

R0

2

, QT b =

1

b1

b2

2

,

wobei b1 & Rn, b2 & Rm"n und R & Rn#n eine reguläre obere Dreiecksmatrixist. Dann erhält man die Lösung des linearen Ausgleichsproblems (2.2.3.2)gemäss

(2.2.3.14) x = R"1b1.

Beweis: Es gilt

,b!Ax,2 = ,QT (b!Ax),2 = ,1

b1 !Rxb2

2

,2 = ,b1 !Rx,2 + ,b2,2.

O!ensichtlich wird ,b!Ax, minimal für x = R"1b1. !

Die QR-Zerlegung kann mit Hilfe von Householder Reflexionen durchge-führt werden.

Wir betrachten die Spiegelung eines Vektors a & R2 an der auf v & R2

senkrecht stehenden Geraden - (siehe Fig. 7)

sin (.

2! ") =

)

,a,2= cos " =

=(v, a)

,v,,a,=+ ) =

(v, a)

,v,.

Page 34: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

2.2 Iterative Verfahren 31

v

a

α e1

κl

α

Fig. 7. Householder Reflexion I

Damit erhält man

a 3!$ ,a, e1 = Qa := a! 2)v

,v,2=

= a! 2(v, a)

(v, v)v = (I ! 2

vvT

vT v)a.

(2.2.3.15) Definition: Die Matrix

Q := I ! 2vvT

vT v

heisst Householder Reflexion. Sie ist symmetrisch, i.e., QT = Q, orthogonal,i.e., QQT = QT Q = I und involutorisch, i.e., Q2 = I.

1− α e1

v

l

a

Fig. 8. Householder Reflexion II

Hinsichtlich der praktischen Durchführung der Householder Reflexionenerrechnet man für v := a! "e1," := ,a,

vT v = aT a! 2"aT e1 + "2 = 2"2 ! 2"a1 = 2"("! a1),

Page 35: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

32 2 Lineare Gleichungssysteme

und erhält für x & Rm

Qx = x!vT x

"("! a1)v.

Falls " = (/m

i=1 a2i )

1/2 4 a1, können unerwünschte numerische E!ekte ein-treten (Auslöschung). Um dies zu vermeiden, bildet man in diesem Fall a auf!"e1 ab. Es empfiehlt sich also, stets

" = !sgn(a1),a,

zu wählen (vgl. Fig. 8).Bei der QR-Zerlegung einer Matrix A & Rm#n,m - n, geht man wie folgt

vor:

1.Schritt: Man wählt v1 := a1!"1e1 mit "1 := !sgn(a11),a1, ( a1 1.Spaltevon A ):

Q1A =

%

&&&&&&'

"1 | / · · · /! ! ! ! ! ! !0 |· | T (2)

· |0 |

(

))))))*

mit der Restmatrix T (2) & Rm"1#n"1.

2.Schritt: Man wählt Q2 := I ! 2(v2vT2 )/(vT

2 v2) & Rm"1#m"1

Q2 =

%

&&&&&&'

1 | 0 · · · 0! ! ! ! ! ! !0 |· | Q2

· |0 |

(

))))))*

mitv2 := t(2)1 ! "2e1 , "2 := !sgn(t(2)11 ),t(2)1 ,.

Nach insgesamt p = min(m!1, n) Schritten erhält man die gewünschte obereDreiecksmatrix 1

R0

2

= Qp · · ·Q1A.

Page 36: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3 Nichtlineare Gleichungssysteme

3.0 Einleitung

Wie wir bereits in Kapitel 1 gesehen haben, ist man in den Anwendungenvielfach mit dem Problem der Lösung nichtlinearer Gleichungssysteme vonder Gestalt

(3.0.1) F (x) = 0

bei gegebener nichtlinearer Funktion F : D % Rn $ Rn konfrontiert. Esgibt zahlreiche Verfahren zur Bestimmung einer Lösung von (3.0.1), die alle-samt von iterativer Natur sind. Aufgrund ihrer Konvergenzeigenschaften sinddas Newton Verfahren und seine Varianten die gebräuchlichsten Verfahren.Für nichtlineare skalare Gleichungen wird das Newton Verfahren in 3.2 be-sprochen, während 3.3 der Anwendung des Newton Verfahrens auf nicht-lineare Gleichungssysteme gewidmet ist. Die Konvergenz des Newton Ver-fahrens kann mit Hilfe des Banachschen Fixpunktsatzes analysiert werden,der von unabhängigem Interesse ist, so dass wir in 3.1 Fixpunktproblemeund Fixpunktiterationen behandeln. Schliesslich beinhaltet 3.4 einen kurzenAbriss der Numerik nichtlinearer Ausgleichsprobleme.

3.1 Fixpunktiteration

Wir betrachten in diesem Abschnitt die iterative Lösung von Fixpunktpro-blemen: Zu gegebener Funktion 3 : Rn $ Rn bestimme x) & Rn, so dass(siehe Fig. 9)

(3.1.1) 3(x)) = x).

(3.1.2) Definition: Ein Vektor x) & Rn, der (3.1.1) erfüllt, heisst Fixpunktvon 3. Ferner wird bei gegebenem Startvektor x(0) & Rn die Vorschrift

(3.1.3) x(k+1) = 3(x(k)) , k & N0,

als Fixpunktiteration (Methode der sukzessiven Approximation) bezeichnet.

Page 37: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

34 3 Nichtlineare Gleichungssysteme

x

y

Φ (x)

y = x

Fig. 9. Fixpunkte einer Abbildung

x (1)x x (0)(2)

(x)Φ

*x

y

x

y = x

Fig. 10. Anziehender Fixpunkt

Fig. 10 und Fig. 11 zeigen, dass die Fixpunktiteration sowohl konvergierenals auch divergieren kann. Man spricht von einem anziehenden bzw. ab-stossenden Fixpunkt.

(3.1.4) Definition: Eine Abbildung 3 : D % Rn $ Rn heisst kontrahierendauf D, falls es eine Zahl 0 ' ) < 1 gibt, so dass

(3.1.5) ,3(x1)! 3(x2), ' ),x1 ! x2, , x1, x2 & D.

Die Zahl ) wird als Kontraktionszahl bezeichnet.

(3.1.6) Bemerkung: Im Falle n = 1 und D = [a, b] % R sei 3 & C1([a, b])mit

(3.1.7) ) := maxz$[a,b]

| 3!(z)| < 1.

Page 38: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.1 Fixpunktiteration 35

*x

y

x

y = x

x

(x)Φ

(2)x

(1)x

(0)

Fig. 11. Abstossender Fixpunkt

Dann ist 3 kontrahierend auf [a, b] mit der Kontraktionszahl ).

y = x

x

y

1 2 4

1

10

= x2 1/2Φ(x)

8

2

4

8

3

3

6

6

Fig. 12. Existenz von Fixpunkten I

(3.1.8) Bemerkung: Die Kontraktionsbedingung ist nicht hinreichend fürdie Existenz von Fixpunkten (siehe Fig. 12 und Fig. 13):(i) Die Abbildung 3(x) = 2

2x besitzt einen Fixpunkt in x = 4. Es gilt

|3!(x)| < 1, x & [3, 6] . Ferner hat man

3(3) > 3,3(6) < 6 =+ 3([3, 6]) % [3, 6].

(ii) Die Abbildung 3(x) = 20

x! 3/2 besitzt keinen Fixpunkt. Auch hiergilt |3!(x)| < 1, x & [3, 6]. Andererseits hat man

3(3) < 3 =+ 3([3, 6]) *% [3, 6].

Page 39: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

36 3 Nichtlineare Gleichungssysteme

y = x

x

y

1

6

6 8 10

Φ (x)=2(x−3/2) 1/2

3

2 4

12

4

8

3

Fig. 13. Existenz von Fixpunkten II

Der Banachsche Fixpunktsatz gibt notwendige und hinreichende Bedin-gungen für die Existenz und Eindeutigkeit von Fixpunkten sowie für die Kon-vergenz der Methode der sukzessiven Approximation. Darüber hinaus stellter für den Iterationsfehler eine a priori und eine a posteriori Fehlerschätzungbereit.

(3.1.9) Theorem: Es seien D % Rn und 3 : D $ Rn eine Abbildung mitden Eigenschaften

3(D) % D,(3.1.10a)

,3(x1)! 3(x2), ' ),x1 ! x2, , x1, x2 & D , 0 ' ) < 1.(3.1.10b)

Dann gilt:

(i) Es gibt genau einen Fixpunkt x) & D von 3 in D .

(ii) Für jeden Startvektor x(0) & D konvergiert die Fixpunktiteration mit dera priori Fehlerabschätzung

(3.1.11) ,x(k) ! x), ')k

1! ),x(1) ! x(0), , k & N,

und der a posteriori Fehlerabschätzung

(3.1.12) ,x(k) ! x), ')

1! ),x(k) ! x(k"1), , k & N.

Beweis: Es gilt

,x(k+1) ! x(k), ' ,3(x(k))! 3(x(k"1)), '

' ),x(k) ! x(k"1), ' · · · ' )k,x(1) ! x(0),.

Page 40: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.1 Fixpunktiteration 37

Wir zeigen, dass (x(k))k$N Cauchy Folge in Rn ist

,x(k+m) ! x(m), ' ,x(k+m) ! x(k+m"1),+ · · · + ,x(k+1) ! x(k), '

(3.1.13)

' ()k+m"1 + · · ·)k),x(1) ! x(0), =

= )k()m"1 + · · · + 1) ,x(1) ! x(0), ')k

1! ),x(1) ! x(0),.

Damit folgt die Existenz von x) & D mit x(k) $ x) (k $ )). Da x(k) &D, k & N, und D abgeschlossen ist, hat man x) & D. x) ist Fixpunkt von 3,denn

,x) ! 3(x)), = ,x) ! x(k+1) + x(k+1) ! 3(x)), =

= ,x) ! x(k+1) + 3(x(k))! 3(x)), '

' ,x) ! x(k+1),+ ),x(k) ! x), $ 0 (k $)).

Zum Beweis der Eindeutigkeit: Sind x)1, x

)2 & D zwei Fixpunkte von 3, so gilt

0 ' ,x)1 ! x)

2, = ,3(x)1)! 3(x)

2), ' ),x)1 ! x)

2,,

woraus mit ) < 1 folgt, dass x)1 = x)

2.Die a priori Abschätzung (3.1.11) folgt aus (3.1.13) durch Grenzübergangk $). Die a posteriori Abschätzung (3.1.12) ergibt sich aus (3.1.13), wennman x(k"1) als Startvektor wählt. !

(3.1.14) Bemerkung: Bei vorgegebener Genauigkeitsschranke 0 < 4 1 1gestattet die a priori Abschätzung (3.1.11) vor Beginn der Iteration eineAussage darüber, wieviele Iterationen nötig sind , um diese Genauigkeit zuerhalten. Die a posteriori Abschätzung (3.1.12) kann während der Iterationals Abbruchkriterium verwendet werden.

Die Konvergenzordnung von Iterationsfolgen gestattet eine Aussage darü-ber, wie ’schnell’ die Iterierten gegen die Lösung eines Problems konvergieren.

(3.1.15) Definition: Eine Iterationsfolge (x(k))k$N, x(k) & Rn, k & N, kon-vergiert von der Ordnung p - 1 gegen x) & Rn, falls mit einer KonstantenC - 0 gilt

(3.1.16) ,x(k+1) ! x), ' C,x(k) ! x),p , k & N,

und p die grösste Zahl ist, für die eine solche Abschätzung Gültigkeit besitzt.Im Falle p = 1 verlangt man noch C < 1.Bei p = 1 spricht man von linearer Konvergenz, bei p = 2 von quadratischerKonvergenz usw. Schliesslich heisst die Folge superlinear konvergent, fallseine Nullfolge (Ck)k$N nichtnegativer Zahlen Ck, k & N0, existiert, so dass

(3.1.17) ,x(k+1) ! x), ' Ck,x(k) ! x), , k & N0.

Page 41: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

38 3 Nichtlineare Gleichungssysteme

(3.1.18) Lemma: Es seien 3 & Cp([a, b]), [a, b] % R, und x(/) & [a, b] Fix-punkt von 3 mit 3(i)(x)) = 0, 1 ' i ' p ! 1, und 3(p)(x)) *= 0. Dannkonvergiert die Fixpunktiteration von der Ordnung p.

Beweis: Taylorentwicklung liefert mit 5 & [min(x(k), x)),max(x(k), x))]

x(k+1) ! x) = 3(x(k))! 3(x)) =1

p!3(p)(5) (x(k) ! x))p.

!

3.2 Nichtlineare skalare Gleichungen

Wir behandeln numerische Verfahren zur Bestimmung einer Nullstelle x) & R

einer nichtlinearen skalaren Funktion f : D % R $ R, i.e., wir suchen einx) & D, so dass

(3.2.1) f(x)) = 0.

x *

f(x)

y

x(a+b)/2 ba

Fig. 14. Bisektionsverfahren

Das einfachste Verfahren ist das Bisektionsverfahren (siehe Fig. 14):Existieren Punkte a < b mit

f(a)f(b) < 0,

und ist f & C([a, b]), dann besitzt f in (a, b) nach dem Zwischenwertsatzmindestens eine Nullstelle x). Man nennt das Intervall [a, b] ein Einschlies-sungsintervall. Je nach Vorzeichen von f((a+b)/2) erhält man ein neues Ein-schliessungsintervall [a, (a + b)/2] bzw. [(a + b)/2, b]. Die Fortsetzung dieser

Page 42: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.2 Nichtlineare skalare Gleichungen 39

Vorgehensweise liefert bei vorge-gebener Toleranz 4 > 0 das Bisektionsver-fahren:

A := f(a) ; B := f(b) mit A · B < 0 ;solange b! a > 4 berechne:t := (a + b)/2 ; T := f(t);falls A · T > 0 : a := t ; A := T ;sonst b := t ; B := T ;t := (a + b)/2.

Für Modifikationen des Bisektionsverfahrens wie zum Beispiel die Regulafalsi und für andere Verfahren wie das Sekantenverfahren verweisen wir aufFreund und Hoppe (2007). Als wichtigstes Verfahren zur Bestimmung vonNullstellen konzentrieren wir uns auf das Newton Verfahren.

Die Idee des Newton Verfahrens besteht darin, bezüglich einer gegebenenIterierten die nichtlineare Funktion in einer Umgebung dieser Iterierten durcheine lineare Funktion, nämlich die Tangente an den Graphen der Funktion,zu approximieren und die neue Iterierte als Schnittpunkt des Graphen dieserlinearen Funktion mit der x-Achse zu wählen (siehe Fig. 15):Ausgehend von einem Startwert x(0) bestimmt man die neue Iterierte x(1) alsNullstelle der Tangente durch den Punkt (x(0), f(x(0)))

T0(x) = f(x(0)) + f !(x(0))(x! x(0)).

Man erhält

x(1) = x(0) !f(x(0))

f !(x(0)).

Allgemein ergibt sich daraus die Iterationsvorschrift

(3.2.2) x(k+1) = x(k) !f(x(k))

f !(x(k)), k & N.

Das Newton Verfahren ist im Falle einer einfachen Nullstelle lokal quadra-tisch konvergent.

(3.2.3) Theorem: Es seien f & C2(R) und x) einfache Nullstelle, i.e.,f !(x)) *= 0. Dann ist das Newton Verfahren lokal quadratisch konvergent.

Beweis: Die Newton Iteration entspricht der Fixpunktiteration bezüglichder Funktion

3(x) = x!f(x)

f !(x)=+ 3!(x) =

f(x) f !!(x)

(f !(x))2.

Nach Voraussetzung gibt es ein Intervall I((x)) := {x & R||x ! x)| ' (}, sodass |3!(x)| < 1, x & I((x)), woraus man Konvergenz für Startwerte x(0) &

Page 43: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

40 3 Nichtlineare Gleichungssysteme

x (1)x *

(0) x

yf(x)

x

Fig. 15. Newton Verfahren

I((x)) (lokale Konvergenz) erschliesst. Durch Taylorentwicklung findet manferner für ein 5 & [min(x, x(k)),max(x, x(k))]

f(x) = f(x(k)) + f !(x(k))(x! x(k)) +1

2f !!(5)(x! x(k))2.

Wählt man x = x) und berücksichtigt f(x(k)) = f !(x(k))(x(k) ! x(k+1)), sofolgt

x(k+1) ! x) =1

2

f !!(5)

f !(x(k))(x(k) ! x))2.

!

3.3 Newton Verfahren im Rn

Wir betrachten die Anwendung des Newton Verfahrens auf nichtlineare Glei-chungssysteme

(3.3.1) F (x) = 0,

wobei F : Rn $ Rn als stetig di!erenzierbar vorausgesetzt wird. Schreibenwir F = (F1, ..., Fn), so lautet (3.3.1) ausgeschrieben

F1(x1, · · · , xn) = 0,(3.3.2)

F2(x1, · · · , xn) = 0,

...

Fn(x1, · · · , xn) = 0.

Page 44: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.3 Newton Verfahren im Rn 41

Ausgehend von einem Startvektor x(0) & Rn approximieren wir F lokal durchdie a"ne Funktion

(3.3.3) F (x) = F (x(0)) + F !(x(0))(x! x(0)),

wobei F !(x(0)) die Jacobi Matrix (Funktionalmatrix) in x(0) bezeichnet.Die Jacobi Matrix F !(x(0)) ist die Matrix der partiellen Ableitungen von

F in x(0)

(3.3.4) F !(x(0)) =

%

&&'

!F1!x1

(x(0)) · · · !F1!xn

(x(0))· · · · ·· · · · ·

!Fn!x1

(x(0)) · · · !Fn!xn

(x(0))

(

))*

.

Wir berechnen die neue Iterierte x(1) als Nullstelle der linearen Approxima-tion

F (x) = F (x(0)) + F !(x(0))(x! x(0)),

i.e., über die Lösung des linearen Gleichungssystems

(3.3.5) F !(x(0))(x(1) ! x(0)) = !F (x(0)).

Sukzessive Fortsetzung führt auf das Newton Verfahren

F !(x(k))*x(k) = ! F (x(k)),(3.3.6)

x(k+1) = x(k) +*x(k).

Die Vektoren *x(k) werden als Newton Inkremente bezeichnet.Eine wichtige Eigenschaft des Newton Verfahrens ist sein A"ninvarianz :

Ist A & Rn#n regulär, so ist o!enbar x) & Rn Lösung von (3.3.1) genau dann,wenn x) auch das Gleichungssystem

G(x) := AF (x) = 0

löst. Das nichtlineare Gleichungssystem (3.3.1) ist also invariant gegenüberA"ntransformationen (ohne Translationen) im Bildraum. Dieselbe Eigen-schaft liegt beim Newton Verfahren vor, denn es gilt

(G!(x))"1G(x) = (F !(x))"1A"1AF (x) = (F !(x))"1F (x).

Man nennt daher das Newton Verfahren a"n invariant. Aus diesem Grundesollten auch die Konvergenzeigenschaften des Newton Verfahrens im Rahmeneiner a"n invarianten Konvergenztheorie untersucht werden.

(3.3.7) Theorem: Es seien D % Rn eine o!ene, konvexe Menge und F &C1(D) mit regulärer Jacobi Matrix F !(x), x & D. Ferner gelte:

(1) Es existiert eine Zahl ! - 0, so dass für alle $ & [0, 1], x & D und y & Rn

mit x + $y & D

Page 45: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

42 3 Nichtlineare Gleichungssysteme

(3.3.8) ,(F !(x))"1[F !(x + $y)! F !(x)]y, ' $!,y,2

(a"n invariante Lipschitz Bedingung an die Jacobi Matrix).

(ii) Es existiere eine Lösung x) & D von (3.3.1) und ein Startvektor x(0) & Dmit

(3.3.9) ( := ,x(0) ! x), <2

!.

(iii) Es gelte

(3.3.10) K((x)) := { x & R

n | ,x! x), < (} % D.

Ist dann (x(k))k$N die durch das Newton Verfahren erzeugte Iterationsfolge,so hat man

(3.3.11) x(k) & K((x)) , k & N und lim

k&'x(k) = x).

Die Lösung ist eindeutig in K2/)(x)), und es gilt

(3.3.12) ,x(k+1) ! x), '!

2,x(k) ! x),2 , k & N0.

Beweis: Es gilt

x(k+1) ! x) = x(k) ! (F !(x(k)))"1F (x(k))! x) =

(3.3.13)

= x(k) ! x) ! (F !(x(k)))"1[F (x(k))! F (x))] =

= (F !(x(k)))"1[F (x))! F (x(k))! F !(x(k))(x) ! x(k))].

Nach dem verallgemeinerten Mittelwertsatz der Di!erentialrechnung hat manfür x, y & D

F (y)! F (x) =

1!

0

F !(x + $(y ! x))(y ! x) d$,

und somit

F (y)! F (x)! F !(x)(y ! x) =

=

1!

0

[F !(x + $(y ! x))! F !(x)](y ! x) d$,

woraus folgt

Page 46: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.3 Newton Verfahren im Rn 43

,(F !(x))"1[F (y)! F (x)! F !(x)(y ! x)], '

'1!

0

,(F !(x))"1[F !(x + $(y ! x))! F !(x)](y ! x), d$.

Wegen der Konvexität von D ist x + $(y ! x) & D, und es folgt aus Voraus-setzung (3.3.8)

,(F !(x))"1[F (y)! F (x)! F !(x)(y ! x)], '

'1!

0

$!,y ! x,2 d$ =!

2,y ! x,2.

Mit y = x) und x = x(k) liefert daher (3.3.13)

,x(k+1) ! x), '!

2,x(k) ! x),2.

Falls 0 < ,x(k) ! x), ' (, hat man

,x(k+1) ! x), '!

2,x(k) ! x),

+ ,- .

% ()/2<1

,x(k) ! x), < ,x(k) ! x),

und somit x(k) & K((x)), k & N, sowie die Konvergenz der Folge (x(k))k$N

gegen x).Zum Beweis der Eindeutigkeit sei x)) & K2/)(x)) eine zweite Lösung. Danngilt

,x)) ! x), = ,(F !(x)))"1 [F (x)))+ ,- .

=0

!F (x))+ ,- .

=0

!F !(x))(x)) ! x))], '

'!

2,x)) ! x),

+ ,- .

<1

,x)) ! x), < ,x)) ! x),,

woraus x)) = x) folgt. !

Die Verwendung des Residuums F (x(k)) als Test für die Konvergenz(Forderung: Residuum nimmt monoton ab) war lange Zeit üblich. Jedochist der Monotonietest

,F (x(k+1)), ' 6,F (x(k)),

mit geeignetem 6 < 1 nicht a"n invariant.Stattdessen verwendet man den natürlichen (a"n invarianten) Monotonie-test

Page 47: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

44 3 Nichtlineare Gleichungssysteme

(3.3.14) ,(F !(x(k)))"1 F (x(k+1)), ' 6,(F !(x(k)))"1 F (x(k)),.

Da !(F !(x(k)))"1 F (x(k)) der Newton Korrektur *x(k) = x(k+1) ! x(k)

entspricht, muss zur Ausführung des Monotonietests zusätzlich nur

(F !(x(k)))"1 F (x(k+1))

berechnet werden. Bezeichnen wir die Lösung *x(k+1) von

(3.3.15) (F !(x(k)))*x(k+1) = !F (x(k+1))

als vereinfachte Newton Korrektur, so lautet der natürliche Monotonietest

(3.3.16) ,*x(k+1), ' 6,*x(k),.

In der Praxis hat sich die Wahl 6 = 1/2 als e"zient erwiesen.

arctan x

/2π

1

Fig. 16. Gedämpftes Newton Verfahren

Bei einem Scheitern des natürlichen Monotonietests (3.3.16) lässt sichvielfach Konvergenz erzwingen durch eine Dämpfung der Newton Korrektur(siehe Fig. 16) gemäss

(3.3.17) x(k+1) = x(k+1)($k) := x(k) + $k*x(k),

wobei der Dämpfungsparameter $k mit 0 < $k ' 1 unter Verwendungdes natürlichen Monotonietests nach folgender Dämpfungsstrategie bestimmtwerden kann:

Für ein $k & {1, 12 , 1

4 , · · · ,$min} berechnet man *x(k+1)($k) als Lösung von

F !(x(k))*x(k+1)($k) = !F (x(k+1)($k))

Page 48: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.4 Nichtlineare Ausgleichsprobleme 45

und überprüft, ob

(3.3.18) ,*x(k+1)($k), ' (1!$k

2),*x(k),

erfüllt ist. Bei erfolgreichem Test versucht man im nächsten Schritt $k+1 =min(1, 2$k). Ist hingegen (3.3.18) nicht erfüllt, wiederholt man den Schrittmit $k = max($min, %k

2 ). Ist für $k = $min der Test nicht erfüllt, bricht dasVerfahren mit der Meldung ’keine Konvergenz’ ab. Man muss sich dann einen’besseren’ Startvektor x(0) verscha!en.

Für weitere Einzelheiten und Varianten des Newton Verfahrens wie zumBeispiel Quasi-Newton Verfahren verweisen wir auf Freund und Hoppe(2007).

3.4 Nichtlineare Ausgleichsprobleme

In Kapitel 2.2.3 haben wir bereits lineare Ausgleichsprobleme kennen ge-lernt. Hier beschäftigen wir uns mit dem Gauss-Newton Verfahren und demLevenberg-Marquardt Verfahren zur Lösung nichtlinearer Ausgleichsprobleme.

(3.4.1) Definition: Es seien 2 = 2(t;x1, ..., xn) eine von n Parametern ab-hängige Funktion von t und bi & R, 1 ' i ' m, sowie F : D % Rn $ Rm diedurch

(3.4.2) Fi(x) := bi ! 2(ti;x1, · · · , xn) , 1 ' i ' m,

gegebene (nichtlineare) Funktion. Die Aufgabe, x) = (x)1, · · · , x)

n)T & D sozu bestimmen, dass

(3.4.3) g(x)) := ,F (x)),2 = minx$D

,F (x),2,

wird als nichtlineares Ausgleichsproblem bezeichnet.

Hinreichende Bedingungen für ein lokales inneres Minimum x) & D vong sind

(3.4.4) g!(x)) = 0 , g!!(x)) positiv definit,

mit g!! als der Hesse Matrix (Matrix der zweiten partiellen Ableitungen) vong. Man errechnet

g(x) = F (x)T F (x),(3.4.5)

g!(x) = F !(x)T F (x) + (F (x)T F !(x))T = 2F !(x)T F (x).

Somit gilt g!(x) = 0 genau dann, wenn

Page 49: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

46 3 Nichtlineare Gleichungssysteme

(3.4.6) G(x) := F !(x)T F (x) = 0.

Das Newton Verfahren in der Anwendung auf (3.4.6) lautet

G!(x(k))*x(k+1) = !G(x(k)) , k & N0,(3.4.7)

G!(x) = F !(x)T F !(x) + F !!(x)T F (x).

Wegen (3.4.4) ist G!(x)) positiv definit und somit in einer Umgebung U*(x))invertierbar. Wir bemerken, dass G!(x) positiv definit genau dann ist, wennRang F !(x) = n (maximaler Rang).

(3.4.8) Definition: Das nichtlineare Ausgleichsproblem (3.4.3) heisst kom-patibel, falls F (x)) = 0 und fast kompatibel, falls ,F (x)), 1 1.

Ist das nichtlineare Ausgleichsproblem kompatibel, so gilt

G!(x)) = F !(x))T F !(x)).

Im Falle eines kompatiblen oder fast kompatiblen Ausgleichsproblems liegtes nahe, den Term F !!(x)T F (x) in G!(x) zu vernachlässigen. Dies führt aufdie Iterationsvorschrift:

(3.4.9) F !(x(k))T F !(x(k))*x(k+1) = !F !(x(k))T F (x(k)) , k & N0.

(3.4.10) Definition: Die Iteration (3.4.9) wird als Gauss-Newton Verfahrenfür das nichtlineare Ausgleichsproblem (3.4.3) bezeichnet.

(3.4.11) Bemerkung: Setzt man A := F !(x(k)) und b := !F (x(k)), soentspricht (3.4.9) den Normalgleichungen AT A *x(k+1) = AT b des linearenAusgleichsproblems

min ,b!A *x,.

(3.4.12) Theorem: (i) Hat die Jacobi Matrix F !(x)) maximalen Rang

Rang F !(x)) = n,

dann besitzt das nichtlineare Ausgleichsproblem (3.4.3) eine eindeutige Lö-sung x) & D.

(ii) Im Falle nichtmaximalen Rangs Rang F !(x)) < n existiert eine Lösungs-mannigfaltigkeit von der Dimension des Rangdefekts n! Rang F !(x)).

(iii) Ist das nichtlineare Ausgleichsproblem kompatibel und hat F !(x)) maxi-malen Rang, so konvergiert das Gauss-Newton Verfahren lokal quadratisch.

(iv) Ist das nichtlineare Ausgleichsproblem fast kompatibel und hat F !(x))maximalen Rang, so liegt lokal lineare Konvergenz vor.

Beweis: Wir verweisen auf Freund und Hoppe (2007). !

Page 50: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

3.4 Nichtlineare Ausgleichsprobleme 47

Zur Erweiterung des Konvergenzbereichs des Gauss-Newton Verfahrenslässt sich wie im Falle nichtlinearer Gleichungssysteme eine Dämpfungsstrate-gie realisieren:Ist *x(k+1) die gemäss (3.4.9) berechnete Gauss-Newton Korrektur, so be-stimme man eine neue Iterierte

(3.4.13) x(k+1) = x(k) + $k*x(k+1)

mit geeignetem Dämpfungsparameter 0 < $k ' 1 (siehe Freund und Hoppe(2007)).

Der Levenberg-Marquardt Algorithmus zur numerischen Lösung nichtline-arer Ausgleichsprobleme ist eine Trust-Region Methode. Die Idee besteht inder Approximation der nichtlinearen Funktion F bei Kenntnis der Iteriertenx(k) durch die a"ne Funktion

(3.4.14) F (x(k)) + F !(x(k))(x! x(k))

und der Bestimmung von x(k+1) = x(k) + *x(k+1) als Lösung des linearenAusgleichsproblems

(3.4.15) min+x

,F (x(k)) + F !(x(k))*x,

in einer geeigneten Umgebung T (x(k)) = {*x & Rn|,*x, ' *k} (TrustRegion) von x(k). Dies führt auf das restringierte lineare Ausgleichsproblem

(3.4.16) min+x$T (x(k))

,F (x(k)) + F !(x(k))*x,.

Die Ankopplung der Nebenbedingung durch einen Lagrangeschen Multiplika-tor $k - 0 ergibt das Sattelpunktproblem

(3.4.17) min+x$Rn

max%k*0

[,F (x(k)) + F !(x(k))*x,2 + $k(,*x,2 !*2k)].

Die Optimalitätsbedingungen für das Sattelpunktproblem (3.4.17) sindgegeben durch das lineare Komplementaritätsproblem

[(F !(x(k)))T F !(x(k)) + $kI] *x = ! F !(x(k))T F (x(k)) ,(3.4.18)

$k - 0*k - ,*x,

3

$k (,*x, !*k) = 0.

(3.4.19) Definition: Das Verfahren (3.4.17) bzw. (3.4.18) wird als Levenberg-Marquardt Verfahren bezeichnet.

Für weitere Diskussionen verweisen wir auf Freund und Hoppe (2007).

Page 51: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester
Page 52: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4 Polynom- und Splineinterpolation.

Trigonometrische Interpolation

4.0 Einleitung

Die Theorie der Interpolation und Approximation von Funktionen nimmtin der Numerischen Matheamtik eine wesentliche Rolle ein mit signifikantenAnwendungen u.a. im computergestützten Design und in der Bild- und Sig-nalverarbeitung. Dabei ist man daran interessiert, dass die approximierendenFunktionen zum einen von möglichst einfacher Bauart und damit einfachauszuwerten sind und zum anderen über sehr gute Approximationseigen-schaften verfügen.

Wir behandeln in Kapitel 4.1 die klassische Polynominterpolation undgehen auf verschiedene Darstellungsformen interpolierender Polynome ein.Wesentlich besser als Polynome sind stückweise polynomiale Funktionenmit gewissen globalen Glattheitseigenschaften zur Approximation geeignet.Unter dieser Klasse von Funktionen betrachten wir die kubische Splieinter-polierende, deren Berechnung und Eigenschaften wir in Kapitel 4.2 unter-suchen. Für periodische Funktionen bietet sich die trigonometrische Inter-polation an, die e"zient mit der schnellen Fouriertransformation realisiertwerden kann. In Kapitel 4.3 begegnen wir zum ersten Mal einem wichtigenPrinzip in der Numerischen Mathematik zur Reduktion des Rechenaufwan-des, dem rekursiven Prinzip.

4.1 Polynominterpolation

Für I := [a, b] % R bezeichnen wir mit Pn(I), n & N, den linearen Raum derPolynome vom Grad ' n auf I, i.e.,

Pn(I) := {pn : I $ R | pn(x) =n"

j=1

ajxj , aj & R , 0 ' j ' n} .

Wir merken an, dass dim Pn(I) = n + 1. Jedes Polynom pn & Pn(I) isteindeutig durch seine Koe"zienten aj , 0 ' j ' n bestimmt.

Wir betrachten das folgende Interpolationsproblem (vgl. Fig. 17):Zu gegebenen n + 1 Punkten (xi, fi), 0 ' i ' n, mit xi & I, fi & R, ist einPolynom pn & Pn(I) gesucht, so dass

Page 53: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

50 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.1.1) pn(xi) = fi , 0 ' i ' n .

x 0 x x 5 62x

y

p(x)

4x x x x1 3

Fig. 17. Polynominterpolation

(4.1.2) Definition: Die Punkte xi, 0 ' i ' n, werden als Stützpunkte oderKnotenpunkte, die Zahlen fi, 0 ' i ' n, als Stützwerte und die Paare(xi, fi), 0 ' i ' n, als Stützstellen des Interpolationsproblems bezeichnet. Dien + 1 Gleichungen (4.1.1) heissen Interpolationsbedingungen. Ein Polynompn & Pn(I), das (4.1.1) erfüllt, wird Interpolationspolynom genannt.

4.1.1 Existenz und Eindeutigkeit

Die Frage nach der Existenz und Eindeutigkeit eines interpolierenden Poly-noms lässt sich einfach beantworten. Die Interpolationsbedingungen (4.1.1)lauten in expliziter Form

n"

j=0

ajxji = fi , 0 ' i ' n ,

und stellen somit ein lineares Gleichungssystem in den unbekannten Koef-fizienten aj , 0 ' j ' n, dar:

(4.1.1.1)

%

&&&&&&'

1 x0 x20 · · · xn

0

1 x1 x21 · · · xn

1

· · · ·· · · ·· · · ·1 xn x2

n · · · xnn

(

))))))*

+ ,- .

=: V

%

&&&&&&'

a0

a1

···

an

(

))))))*

=

%

&&&&&&'

f0

f1

···

fn

(

))))))*

.

Page 54: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.1 Polynominterpolation 51

(4.1.1.2) Definition: Die Koe"zientenmatrix V in (4.1.1.1) heisst Vander-mondesche Matrix. Ihre Determinante det V wird als Vandermondesche De-terminante bezeichnet.

Das lineare Gleichungssystem (4.1.1.1) ist genau dann eindeutig lösbar,wenn die Vandermondesche Matrix V nichtsingulär ist, was wiederum zu derBedingung det V *= 0 äquivalent ist.

(4.1.1.3) Lemma: Für die Vandermondesche Determinante gilt

(4.1.1.4) det V =4

0%j<k%n

(xk ! xj) .

Beweis: Man beweist (4.1.1.4) unter Verwendung des Laplaceschen Entwick-lungssatzes für Determinanten. !

Mit Lemma 4.1.1.3 erhalten wir sofort den folgenden Existenz- und Ein-deutigkeitssatz für die Polynominterpolation.

(4.1.1.5) Theorem: Im Falle paarweiser verschiedener Stützpunkte

(4.1.1.6) xi *= xj , 0 ' i *= j ' n ,

gibt es genau ein Interpolationspolynom pn & Pn(I).

Beweis: Aus (4.1.1.4) folgt sofort det V *= 0. !

Die Berechnung des Interpolationspolynoms über die Lösung des linearenGleichungssystems (4.1.1.1) ist jedoch nicht empfehlenswert, da gemäss Kapi-tel 2 der Aufwand O((n+1)3) wesentliche Rechenoperationen beträgt und dieVandermondesche Matrix V schlecht konditioniert ist, wenn die Stützpunktenahe beieinander liegen.

4.1.2 Lagrangesche Darstellung

Bei paarweise verschiedenen Stützstellen ist eine Basis des Pn(R) in natür-licher Weise gegeben durch die Polynome

Li & Pn(R) , Li(xj) = 7ij , 0 ' i, j ' n .

Man errechnet

Li(xj) = 0 , i *= j =+ Li(x) = an

4

j (=i

(x ! xj) ,

Li(xi) = an

4

j (=i

(xi ! xj) = 1 =+ an = 1/(4

j (=i

(xi ! xj)) .

Page 55: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

52 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

xi−1 1+ix

(x)

x

y

1iL

ix

Fig. 18. Lagrangesches Fundamentalpolynom

(4.1.2.1) Definition: Die durch

(4.1.2.2) Li(x) =4

j (=i

x ! xj

xi ! xj

gegebenen Polynome heissen Lagrangesche Fundamentalpolynome (vgl. Fig.18).

Mit Hilfe der Fundamentalpolynome erhalten wir die folgende Lagrange-sche Darstellung des Interpolationspolynoms.

(4.1.2.3) Theorem: Im Falle paarweiser verschiedener Stützpunkte besitztdas Interpolationspolynom die Darstellung

(4.1.2.4) pn(x) =n"

i=0

fi Li(x) .

Beweis: Die Eigenschaften der Lagrangeschen Fundamentalpolynome im-plizieren sofort, dass pn aus (4.1.2.4) den Interpolationsbedingungen (4.1.1)genügt. !

Die Berechnung des Interpolationspolynoms mit Hilfe der LagrangeschenDarstellung (4.1.2.4) ist nicht empfehlenswert, da die Hinzufügung einesPaars (xn+1, fn+1) zu den Interpolationsbedingungen die vollständige Neu-berechnung der Fundamentalpolynome erfordert.

4.1.3 Newtonsche Darstellung

Die Idee zur Newtonschen Darstellung des Interpolationspolynoms besteht ineiner rekursiven Konstruktion:Sei p0 & P0(R) das Interpolationspolynom 0-ten Grades bezüglich (x0, f0),

Page 56: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.1 Polynominterpolation 53

i.e., p0(x) = f0. Für p1 & P1(R) bezüglich (x0, f0) , (x1, f1) machen wir denAnsatz

p1(x) = p0(x) + q1(x) , q1 & P1(R) .

Die Bestimmung von q1 ergibt

p1(x0) = f0 + q1(x0) = f0 =+ q0(x0) = 0 ,

=+ q1(x) = b1 (x ! x0) =+ p1(x) = f0 + b1 (x ! x0) .

Den Koe"zienten b1 erhält man aus der Bedingung p1(x1) = f1.Entsprechend macht man für p2 & P2(R) bezüglich (x0, f0) , (x1, f1) und(x2, f2) den Ansatz

p2(x) = p1(x) + q2(x) , q2 & P2(R) ,

und erhält zur Bestimmung von q2

p2(x0) = f0 + q2(x0) = f0 =+ q2(x0) = 0 ,

p2(x1) = f1 + q2(x1) = f1 =+ q2(x1) = 0 =+q2(x) = b2 (x ! x0) (x ! x1) .

In Verallgemeinerung dieser Überlegungen sei pn"1 & Pn"1(R) das inter-polierende Polynom bezüglich (xi, fi) , 0 ' i ' n ! 1. Für pn & Pn(R)bezüglich (xi, fi) , 0 ' i ' n machen wir den Ansatz

pn(x) = pn"1(x) + qn(x) , qn & Pn(R) .

Zur Bestimmung von qn erhalten wir

pn(xi) = fi + qn(xi) = fi =+ qn(xi) = 0 , 0 ' i ' n! 1

=+ qn(x) = bn (x ! x0) (x ! x1)...(x ! xn"1) .

Im Prinzip lässt sich bn bestimmen aus der Bedingung

pn(xn) = pn"1(xn) + qn(xn) = fn .

Diese Vorgehensweise ist allerdings unpraktisch, da pn"1 aufgestellt und inxn ausgewertet werden müsste. Andererseits gilt

pn(x) = bn xn +n"1"

i=0

ci xi .

bn ist Koe"zient der höchsten Potenz xn in pn. Gefragt ist somit eine Formelzur Berechnung des Koe"zienten der höchsten Potenz.

Page 57: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

54 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.1.3.1) Definition: Die durch

(4.1.3.2) pn(x) = b0 + b1 (x ! x0) + ... + bn (x ! x0) ... (x ! xn"1)

gegebene Darstellung heisst Newtonsche Darstellung des Interpolationspoly-noms.

Die rekursive Berechnung des führenden Koe"zienten bn gestaltet sichwie folgt: Seien pij & Pj"i(R) , 0 ' i < j ' n, die bezüglich (xi, fi), (xi+1,fi+1), · · · , (xj , fj) interpolierenden Polynome. Für pij machen wir den Ansatz

pij(x) = r1(x) pi,j"1(x) + s1(x) pi+1,j(x) , r1, s1 & P1(R) .

Für die Polynome r1, s1 erhalten wir

pij(xi) = r1(xi) pi,j"1(xi) + s1(xi) pi+1,j(xi) = fi

Setze r1(xi) = 1 , s1(xi) = 0 ,

pij(xj) = r1(xj) pi,j"1(xj) + s1(xj) pi+1,j(xj) = fj

Setze r1(xj) = 0 , s1(xj) = 1

=+ r1(x) =xj ! x

xj ! xi, s1(x) =

x ! xi

xj ! xi.

Damit haben wir gezeigt:

(4.1.3.3) Theorem: Die in (xk, fk) , i ' k ' j, interpolierenden Polynomepij & Pj"i(R), 0 ' i < j ' n, genügen der Rekursion

(4.1.3.4) pij(x) =xj ! x

xj ! xipi,j"1(x) +

x ! xi

xj ! xipi+1,j(x) .

(4.1.3.5) Korollar: Die führenden Koe"zienten f [xi, xi+1, ..., xj ] der inter-polierenden Polynome pij & Pj"i(R), 0 ' i < j ' n, genügen der Rekursion

(4.1.3.6) f [xi, xi+1, ..., xj ] =f [xi+1, ..., xj ] ! f [xi, xi+1, ..., xj"1]

xj ! xi,

wobei f [xi] := fi, 0 ' i ' n.

Beispiel: Für i = 0 und j = 1 hat man

f [x0, x1] =f [x1] " f [x0]

x1 " x0=

f1 " f0

x1 " x0.

(4.1.3.7) Definition: Die durch (4.1.3.6) rekursiv definierten Grössen heis-sen dividierte Di!erenzen. Insbesondere wird f [xi, ..., xj ] als (j ! i)-te divi-dierte Di!erenz bezeichnet.

Die dividierten Di!erenzen berechnen sich nach dem folgenden rekursivenSchema:

Page 58: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.1 Polynominterpolation 55

x0 | f0 = f[x0]| f[x0, x1]

x1 | f1 = f[x1] f[x0, x1, x2]| f[x1, x2] ·

x2 | f2 = f[x2] ·· | · ·· | · f[x0, ..., xn]· | · ·

xn!2 | fn!2 = f[xn!1] ·

| f[xn!2, xn!1] ·

xn!1 | fn!1 = f[xn!1] f[xn!2, xn!1, xn]

| f[xn!1, xn]

xn | fn = f[xn]

(4.1.3.8) Theorem: Da die Koe"zienten bi, 0 ' i ' n, des NewtonschenInterpolationspolynoms den dividierten Di!erenzen f [x0, ..., xi] entsprechen,erhält man die folgende Darstellung

pn(x) = f [x0] + f [x0, x1] (x ! x0) + · · · +(4.1.3.9)

+ f [x0, ..., xn] (x ! x0) ... (x ! xn"1) .

4.1.4 Auswertung der Interpolationspolynome

Die Auswertung von Interpolationspolynomen in der Newtonschen Dar-stellung erfolgt mit dem Horner Schema oder dem Aitken-Neville Schema.Beim Horner Schema schreibt man (4.1.3.9) um gemäss

pn(x) = (f [x0, ..., xn](x! xn"1) + f [x0, ..., xn"1](x! xn"2) + · · · ++ f [x0, x1](x! x0) ) + f [x0] .

Dies führt auf die folgende Rechenvorschrift:

Berechne f [x0, ..., xn] (x ! xn"1) + f [x0, ..., xn"1]

Multipliziere mit (x ! xn"2) und addiere f [x0, ..., xn"2]

Multipliziere mit (x ! xn"3) und addiere f [x0, ..., xn"3]

usw.

Ein Nachteil des Horner Schemas ist, dass es die Kenntnis des NewtonschenInterpolationspolynoms erfordert. Das Aufstellen des Interpolationspolynomslohnt nicht, falls nur an einer Stelle ausgewertet werden soll.In diesem Fall ist das Aitken-Neville Schema vorzuziehen, das auf der Ver-wendung der Rekursionsformel für die interpolierenden Polynome beruht:

x0 | f0 = p00(x)| p01(x)

x1 | f1 = p11(x) p02(x)| p01(x) ·

x2 | f2 = p22(x) ·· | · ·· | · p0n(x)· | · ·

xn!2 | fn!2 = pn!2,n!2(x) ·

| pn!2,n!1(x) ·

xn!1 | fn!1 = pn!1,n!1(x) pn!2,n(x)

| pn!1,n(x)

xn | fn = pnn(x)

Page 59: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

56 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

4.1.5 Interpolationsfehler

Interpolationspolynome lassen sich zur Approximation stetiger Funktionenheranziehen. Wir betrachten die folgende Problemstellung:Eine stetige Funktion f : I := [a, b] $ R werde durch das in den Punktenxi & [a, b] , 0 ' i ' n, interpolierende Polynom pn & Pn(I) approximiert.Was kann über die Güte dieser Approximation ausgesagt werden?

(4.1.5.1) Definition: Es seien f & C([a, b]) und pn & Pn([a, b]) das f bezüg-lich der Stützpunkte (xi, f(xi)), xi & [a, b], 0 ' i ' n, interpolierende Poly-nom. Die Funktion

(4.1.5.2) Rn := f ! pn

heisst Restglied der Interpolation. Der Wert des Restglieds an einer Stellex & [a, b], x *= xi, 0 ' i ' n, wird als Interpolationsfehler bezeichnet.

(4.1.5.3) Theorem: Es seien f & Cn+1([a, b]) und pn & Pn([a, b]) das fbezüglich der Stützpunkte (xi, f(xi)), xi & [a, b], 0 ' i ' n, interpolierendePolynom. Für jedes x & [a, b] existiert ein

5 & Ix := [min(x0, ..., xn, x),max(x0, ..., xn, x)],

so dass

Rn(x) = f(x) ! pn(x) =f (n+1)(5)

(n + 1)!!n+1(x) ,(4.1.5.4)

!n+1(x) := (x ! x0) (x ! x1) ... (x ! xn) .

Beweis: O.B.d.A. sei x *= xi, 0 ' i ' n. Wir betrachten die Hilfsfunktion

F (t) := f(t) ! pn(t) !f(x) ! pn(x)

!n+1(x)!n+1(t) , t & [a, b] .

O!ensichtlich gilt F & Cn+1([a, b]), und man hat

F (xi) = 0 , 0 ' i ' n , F (x) = 0 .

Nach dem Satz von Rolle folgt, dass F mindestens n + 2 Nullstellen in [a, b]besitzt (vgl. Fig. 19).

Eine wiederholte Anwendung des Satzes von Rolle ergibt, dass F (n+1)

mindestens eine Nullstelle in 5 & [a, b] besitzt, i.e.,

F (n+1)(5) = f (n+1)(5)! p(n+1)n (5)+ ,- .

=0

!f(x)! pn(x)

!n+1(x)(n + 1)! = 0

Man erschliesst daraus

f(x) ! pn(x) =f (n+1)(5)

(n + 1)!!n+1(x) ,

was die Behauptung darstellt. !

Page 60: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.1 Polynominterpolation 57

x

y

x1 x2 x3 41x x2 x3 x

Fig. 19. Anwendung des Satzes von Rolle

(4.1.5.5) Korollar: Unter den Voraussetzungen von Theorem (4.1.5.3) gilt

f [x0, ..., xn, x] =f (n+1)(5)

(n + 1)!, 5 & [a, b].

Beweis: Es gilt

pn(x) = p0,n(x) =n"

i=0

f [x0, ..., xi]i"14

j=0

(x ! xj) .

Mit xn+1 := x und fn+1 := f(x) folgt

f(x) = p0,n+1(x) = p0,n(x) + f [x0, ..., xn, x] !n+1(x) .

!

Aus Theorem (4.1.5.3) ergibt sich auch unmittelbar die folgende Ab-schätzung des Interpolationsfehlers :

(4.1.5.6) Korollar: Ist f & Cn+1([a, b]) und ist pn & Pn([a, b]) das f in xi &[a, b], 0 ' i ' n, interpolierende Polynom, dann gilt die Restgliedabschätzung

(4.1.5.7) | f(x) ! pn(x) | ' max,$[a,b]

|f (n+1)(5)|(n + 1)!

maxx$[a,b]

|!n+1(x)| .

4.1.6 Zur Konvergenz von Folgen von Interpolationspolynomen

Nach dem Satz von Weierstrass lässt sich zwar jede stetige Funktion beleibiggenau durch ein Polynom approximieren, jedoch bedeutet dies keineswegs diegleichmässige Konvergenz von Folgen von Interpolationspolynomen bezüglicheines Stützstellenschemas.

Page 61: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

58 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.1.6.1) Definition: Seien xn,i, 0 ' i ' n, n & N0, die paarweise verschiede-nen Stützstellen von pn & Pn([a, b]) mit pn(xn,i) = f(xn,i), 0 ' i ' n. Dannhei"st

x0,0

x1,0 x1,1

S : · · ·xn,0 xn,1 · · · xn,n

· · · · · · ·

Stützstellenschema der Folge (pn)n$N0 der Interpolationspolynome.

Man hat zunächst das folgende vermeintlich positive Ergebnis in Gestaltdes Satzes von Marcienkiewicz :

(4.1.6.2) Theorem: Zu jeder Funktion f & C([a, b]) gibt es ein Stützstellen-schema S mit xn,i & [a, b], 0 ' i ' n, n & N0, so dass die Folge (pn)n$N0 derInterpolationspolynome gleichmässig gegen die Funktion f konvergiert.

Der mit approximationstheoretischen Argumenten geführte Beweis desSatzes von Marcienkiewicz liefert aber kein brauchbares Verfahren zur Kon-struktion des Stützstellenschemas.

Der Satz von Faber konstatiert:

(4.1.6.3) Theorem: Zu jedem vorgegebenen Stützstellenschema S mit xn,i &[a, b], 0 ' i ' n, n & N0, gibt es eine stetige Funktion f : [a, b] $ R, sodass die Folge (pn)n$N0 der Interpolationspolynome nicht gleichmässig gegenf konvergiert.

Besser geeignet zur Approximation sind stückweise polynomiale Funk-tionen mit globalen Glattheitseigenschaften, die wir im nächsten Abschnittbehandeln werden.

4.2 Splineinterpolation

4.2.1 Einführung

Wir beschäftigen uns in diesem Abschnitt mit der Interpolation durch stück-weise polynomiale Funktionen bezüglich einer Zerlegung

(4.2.1.1) * := {a = x0 < x1 < · · · < xn = b}

des Intervalls [a, b] % R durch n + 1 Knotenpunkte xi, 0 ' i ' n. Sindin den Knoten xi Werte fi, 0 ' i ' n, vorgegeben, so besteht die einfach-ste Möglichkeit der Interpolation durch eine stetige stückweise polynomiale

Page 62: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.2 Splineinterpolation 59

x x x xxx 0 x1

y

sΔ(x)

x3 4 5 62

Fig. 20. Interpolation durch einen linearen Spline

Funktion in der Verbindung der Punkte (xi, fi), 0 ' i ' n, durch Geraden,was einen Polygonzug ergibt (siehe Fig. 20).

Bezeichnen wir die interpolierende Funktion mit s*, so ist sie dadurchcharakterisiert, dass die in jedem Teilintervall [xi, xi+1] ein Polynom erstenGrades darstellt, auf [a, b] eine stetige Funktion repräsentiert und in denPunkten (xi, fi), 0 ' i ' n, interpoliert, i.e.,

s+|[xi,xi+1] & P1([xi, xi+1]) , 0 ' i ' n! 1 ,(4.2.1.2a)

s+ & C([a, b]) ,(4.2.1.2b)

s+(xi) = fi , 0 ' n ' n .(4.2.1.2c)

Da ein Polynom ersten Grades durch zwei Koe"zienten bestimmt ist undinsgesamt n Teilintervalle vorliegen, haben wir 2n Unbekannte. Als Bestim-mungsgleichungen dienen die Stetigkeit

s+|[xi!1,xi](xi) = s+|[xi,xi+1](xi) , 1 ' i ' n! 1,

in den n ! 1 inneren Knoten und die n + 1 Interpolationsbedingungen(4.2.1.2c), also insgesamt ebenfalls 2n Bestimmungsgleichungen. Man kannzeigen, dass diese 2n Gleichungen s+ in der Tat bestimmen (Übungsaufgabe).

Sind die fi, 0 ' i ' n, die Funktionswerte f(xi) einer ’glatten’ Funk-tion f auf [a, b], so wird der Graph der Funktion durch s+ ’nichtglatt’ ap-proximiert: Der Graph von s+ hat ’Knicke’, nämlich in den Knoten xi (vgl.Abb. 4). Von daher liegt der Gedanke nahe, zur Approximation stückweisePolynome höheren als ersten Grades zu verwenden und diese in den Knotenmöglichst ’glatt’ zusammenzufügen. Diese Anforderungen erfüllt die kubis-che Splineinterpolierende, deren Definition und Berechnung wir in Abschnitt4.2.2 vorstellen und deren Eigenschaften wir in den Abschnitten 4.2.3 und4.2.4 diskutieren.

Page 63: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

60 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

4.2.2 Die kubische Splineinterpolierende

Wir führen zunächst den Begri! des Splines vom Grad m! 1 bzw. der Ord-nung m,m & N, ein.

(4.2.2.1) Definition: Es seien * eine Zerlegung von [a, b] % R von derGestalt (4.2.1.1) und m & N. Eine Funktion s+ : [a, b] $ R heisst Splinevom Grad m ! 1 bzw. von der Ordnung m bezüglich der Zerlegung *, fallsgilt

s+|[xi,xi+1] & Pm"1([xi, xi+1]) , 0 ' i ' n! 1,(4.2.2.2a)

s+ & Cm"2([a, b]).(4.2.2.2b)

Für m = 1 spricht man von einem linearen Spline für m = 2 von einemquadratischen Spline und für m = 3 von einem kubischen Spline. Der lineareRaum aller Splines vom Grad m! 1 wird mit Sm,+ bezeichnet.

(4.2.2.3) Bemerkung: Gemäss Definition (4.2.2.1) erkennen wir in s+ aus(4.2.1.2a),(4.2.1.2b) einen linearen Spline wieder.

Wir beschränken uns in diesem Abschnitt auf kubische Splines und ziehendiese zur Interpolation heran.

(4.2.2.4) Definition: Es seien * eine Zerlegung von [a, b] % R von derGestalt (4.2.1.1) und fi & R, 0 ' i ' n. Ein Spline s+ & S4,+ heisst ku-bische Splineinterpolierende, falls gilt

(4.2.2.5) s+(xi) = fi , 0 ' i ' n.

Wir überprüfen zunächst die Wohlgestelltheit des Interpolationsproblems,i.e., wir untersuchen, ob die Anzahl der Unbekannten mit der Anzahl derBestimmungsgleichungen übereinstimmt.

Da ein Polynom dritten Grades durch 4 Koe"zienten bestimmt ist und nTeilintervalle vorliegen, haben wir insgesamt 4n Unbekannte.Ein kubischer Spline muss auf [a, b] zweimal stetig di!erenzierbar sein, wasbedeutet, dass in den inneren Knoten xi, 1 ' i ' n ! 1, die Funktionswerteund die ersten und zweiten Ableitungen übereinstimmen müssen

(4.2.2.6) s(j)+ |[xi!1,xi](xi) = s(j)

+ |[xi,xi+1](xi) , 0 ' j ' 2.

Dies sind 3# (n! 1) = 3n! 3 Bedingungen. Dazu kommen gemäss (4.2.2.5)n+1 Interpolationsbedingungen. Also stehen insgesamt 4n!2 Bedingungsgle-ichungen zur Verfügung. Das Problem ist somit unterbestimmt, und es bedarfmindestens zwei weiterer Bedingungen, die in den Endpunkten a = x0 undb = xn von * formuliert werden.

Page 64: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.2 Splineinterpolation 61

(4.2.2.7) Definition: Eine kubische Splineinterpolierende s+ heisst

vollständig,natürlich,

periodisch,

5

6

7falls

8

9

:

s!+(x0) = f !0 , s!+(xn) = f !

n

s!!+(x0) = 0 , s!!+(xn) = 0s!+(x0) = s!+(xn) , s!!+(x0) = s!!+(xn)

,

wobei f !0, f

!n & R.

Der Beweis der Existenz und Eindeutigkeit der vollständigen (bzw. natür-lichen, periodischen) Splineinterpolierenden wird konstruktiv geführt undstellt gleichzeitig eine Methode zur Berechnung der vollständigen (natür-lichen, periodischen) Splineinterpoierenden bereit.

Die Berechnung kann über die Steigungen mi = s!+(xi), 0 ' i ' n, oderüber die Momente Mi = s!!+(xi), 0 ' i ' n, erfolgen, wobei aus numerischenGründen die Berechnung über die Steigungen vorzuziehen ist. Wir führen hierdaher nur die Berechnung über die Steigungen vor und verweisen bezüglichder Berechnung über die Momente auf Freund und Hoppe (2007).

Wir gehen dabei davon aus, dass die Polynome si := s+|[xi,xi+1] in je-dem Teilintervall [xi, xi+1], 0 ' i ' n! 1, eine Darstellung als HermiteschesInterpolationspolynom besitzen.

(4.2.2.8) Definition: Es seien [xi, xi+1] % [a, b] und fi, fi+1 sowie f !i , f

!i+1

gegebene reelle Zahlen. Ein Polynom Hi & P3([xi, xi+1]) wird kubisches Her-mitesches Interpolationspolynom genannt, falls gilt

Hi(xj) = fj , i ' j ' i + 1,(4.2.2.9a)

H !i(xj) = f !

j , i ' j ' i + 1.(4.2.2.9b)

(4.2.2.10) Lemma: Das kubische Hermitesche Interpolationspolynom aus De-finition (4.2.2.8) ist eindeutig bestimmt.

Beweis: Als Polynom dritten Grades ist Hi(x) von der Gestalt

Hi(x) = a0 + a1(x! xi) + a2(x! xi)2 + a3(x! xi)

3.

Die Berechnung der Koe"zienten ak, 0 ' k ' 3, gemäss (4.2.2.9a),(4.2.2.9b)führt auf ein lineares Gleichungssystem mit regulärer Koe"zientenmatrix.Die explizite Berechnung (Übungsaufgabe) ergibt die folgende Darstellung

Hi(x) = fi + f !i(x! xi) +

#

3fi+1 ! fi

h2i

!f !

i+1 + 2f !i

hi

$

(x! xi)2+(4.2.2.11)

+#

! 2fi+1 ! fi

h3i

+f !

i+1 + f !i

h2i

$

(x! xi)3,

wobei hi := xi+1 ! xi. !

Page 65: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

62 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

Wir wenden das Ergebnis von Lemma (4.2.2.10) auf si an und erhaltengemäss (4.2.2.11) die Darstellung

si(x) = fi + mi(x! xi) +#

3fi+1 ! fi

h2i

!mi+1 + 2mi

hi

$

(x! xi)2+

(4.2.2.12)

+#

! 2fi+1 ! fi

h3i

+mi+1 + mi

h2i

$

(x! xi)3 , x & [xi, xi+1].

O!enbar ist nach Konstruktion s+ & C1([a, b]), da die Funktionswerte und dieersten Ableitungen in den inneren Knoten nbereinstimmen. Die Bedingungs+ & C2([a, b]) führt auf

(4.2.2.13) s(2)i"1(xi) = s(2)

i (xi) , 1 ' i ' n! 1.

Zweimalige Di!erentiation in (4.2.2.12) ergibt

s(2)i (x) = 2

#

3fi+1 ! fi

h2i

!mi+1 + 2mi

hi

$

+(4.2.2.14)

+ 6#

! 2fi+1 ! fi

h3i

+mi+1 + mi

h2i

$

(x! xi).

Unter Verwendung von (4.2.2.14) ergibt (4.2.2.13) die folgenden Bestim-mungsgleichungen für die Steigungen mi

himi"1 + 2(hi"1 + hi)mi + hi"1mi+1 =(4.2.2.15)

= 3#

hi"1fi+1 ! fi

hi+ hi

fi ! fi"1

hi"1

$

, 1 ' i ' n! 1.

Division durch hi"1 + hi in (4.2.2.15 resultiert in

hi

hi"1 + hi+ ,- .

=: (i

mi"1 + 2mi + hi"1hi"1 + hi+ ,- .

=: %i

mi+1 =(4.2.2.16)

=3

hi"1 + hi

#

hi"1fi+1 ! fi

hi+ hi

fi ! fi"1

hi"1

$

+ ,- .

=: di

, 1 ' i ' n! 1.

Im Fall der vollständigen kubischen Splineinterpolierenden führen die n ! 1Gleichungen in (4.2.2.16) zusammen mit den Randbedingungen

s!+(x0) = f !0 =+ m0 = f !

0,

s!+(xn) = f !n =+ mn = f !

n

auf das tridiagonale Gleichungssystem

Page 66: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.2 Splineinterpolation 63

(4.2.2.17)%

&&&&&&'

2 $1 0 · · · 0(2 2 $2 · · · 0· · · · · · ·· · · · · · ·0 · · · (n"2 2 $n"2

0 · · · 0 (n"1 2

(

))))))*

%

&&&&&&'

m1

m2

··

mn"2

mn"1

(

))))))*

=

%

&&&&&&'

d1 ! (1f !0

d2

··

dn"2

dn"1 ! $n"1f !n

(

))))))*

.

Unter Beachtung von

(i + hi = 1 , 1 ' i ' n! 1,

folgt, dass die Koe"zientenmatrix in (4.2.2.17) strikt diagonaldominant ist.Somit ist das Gleichungssystem eindeutig lösbar.

(4.2.2.18) Bemerkung: Im Fall der natürlichen und periodischen kubischenSplineinterpolierenden führt die Berechnung über die Steigungen ebenfallsauf lineare Gleichungssysteme mit strikt diagonaldominanter Koe"zienten-matrix. Wir verweisen auf Kapitel 2.5.3 in Freund und Hoppe (2007).

Wir erhalten somit die folgende Existenz- und Eindeutigkeitsaussage.

(4.2.2.19) Theorem: Die vollständige (natürliche, periodische) kubischeSplineinterpolierende s+ & S4,+ ist eindeutig bestimmt. Die Steigungenergeben sich als Lösung eines linearen Gleichungssystems mit strikt diago-naldominanter Koe"zientenmatrix.

4.2.3 Approximationseigenschaften der kubischenSplineinterpolierenden

Wir betrachten eine Folge von Gittern

(4.2.3.1) *n := { a = xn,0 < xn,1 < · · · < xn,mn = b },

bestehend aus mn +1 paarweise verschiedenen Stützstellen. Zu vorgegebenenmn + 1 Stützwerten fn,j , 0 ' j ' mn, bezeichne sn & S4,+n die kubischeSplineinterpolierende.

Wir betrachten die folgende Fragestellung : Falls f & C([a, b]) und fn,j =f(xn,j), 0 ' j ' mn, konvergiert die Folge (sn)n$N gleichmässig auf [a, b]gegen die Funktion f?

(4.2.3.2) Definition: Die Grössen

(4.2.3.3) *n := max0%j%mn

|xn,j+1 ! xn,j | , *n := min0%j%mn

|xn,j+1 ! xn,j |

heissen maximale bzw. minimale Gitterweite. Eine Folge (*n)n$N von Git-tern heisst quasiuniform, falls eine von n unabhängige Konstante 0 > 0existiert, so dass

(4.2.3.4) *n/*n ' 0 , n & N.

Page 67: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

64 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.2.3.5) Theorem: Es seien f & C([a, b]) und *n)n$N eine quasiuniformeFolge von Gittern sowie (sn)n$N die zugehörige Folge der vollständigen (bzw.natürlichen, periodischen) kubischen Splineinterpolierenden. Dann gilt

(4.2.3.6) limn&'

,f ! sn,' = 0 für *n $ 0 , n $).

Beweis: Wir verweisen auf Freund und Hoppe (2007). !

Unter zusätzlichen Glattheitseigenschaften der Funktion f lassen sich dieKonvergenzaussagen verschärfen:

(4.2.3.7) Theorem: Es seien f & C4([a, b]) und (*n)n$N eine quasiuniformeFolge von Gittern. Ferner bezeichne (sn)n$N die zugehörige Folge vollständi-ger kubischer Splineinterpolierender. Dann gibt es von n und f unabhängigeKonstanten Ci, 0 ' i ' 3, so dass

,f (i) ! s(i)n ,' ' Ci0,f (4),'(*n)4"i , 0 ' i ' 3,(4.2.3.8)

wobei ,f (3) ! s(3)n ,' := max

0%j%mn"1max

x$[xn,j ,xn,j+1]|f (3)(x)! s(3)

n (x)|.

Beweis: Wir verweisen auf Freund und Hoppe (2007). !

4.2.4 Minimaleigenschaften der kubischen Splineinterpolierenden

In diesem Abschnitt zeigen wir, dass die kubische Splineinterpolierendes+ & S4,+ unter allen interpolierenden Funktionen diejenige mit minimalerKrümmung ist.

Wir erinnern daran, dass die Krümmung )(x), x & [a, b], einer para-metrisierten Kurve y : [a, b] $ R, y & C2([a, b]) durch

(4.2.4.1) )(x) =y!!(x)

(1 + y!(x)2)3/2

gegeben ist. Für |y!(x)|1 1 gilt näherungsweise

)(x) 5 y!!(x),

so dass ein geeignetes Mass für die Krümmung einer Kurve die L2-Norm derzweiten Ableitung ist

(4.2.4.2) ,y!!,0 :=#

b!

a

|y!!(x)|2 dx$1/2

.

(4.2.4.3) Theorem: Es seien * eine Zerlegung von [a, b] % R wie in (4.3.1.1)und fi & R, 0 ' i ' n. Ferner seien s+ & S4,+ eine kubische Splineinter-polierende und y & C2([a, b]) eine beliebige interpolierende Funktion mit

Page 68: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.3 Trigonometrische Interpolation 65

(4.2.4.4)#

s!!+(x)(y!(x)! s!+(x))$

|ba = 0.

Dann gilt

(4.2.4.5) ,s!!+,0 ' ,y!!,0.

Beweis: Mit y!! = s!!+ + (y!! ! s!!+) hat man

(4.2.4.6)

b!

a

(y!!)2dx =

b!

a

(s!!+)2dx + 2

b!

a

s!!+(y!! ! s!!+)dx +

b!

a

(y!! ! s!!+)2dx.

Für den zweiten Term auf der rechten Seite in (4.2.4.6) ergeben partielleIntegration und (4.2.4.4)

b!

a

s!!+(y!! ! s!!+)dx =n"1"

i=0

xi+1!

xi

s!!+(y!! ! s!!+)dx =

=n"1"

i=0

#

s!!+(y! ! s!+)|xi+1xi

!xi+1!

xi

s!!!++,-.

= const.

(y! ! s!+)dx$

=

=n"1"

i=0

#

(s!!+(y! ! s!+))|xi+1xi

! s!!!+ (y ! s+)|xi+1xi

+ ,- .

= 0

$

= (s!!+(y! ! s!+))|ba = 0,

woraus die Behauptung folgt. !

(4.2.4.7) Bemerkung: Der Name ’Spline’ ist das englische Wort für ’Strak-latte’. Die ’Straklatte’ ist ein elastischer, einem biegsamen Lineal ähnlicherKörper (aus Holz), der an bestimmten Stellen fixiert werden kann. Beschreibty = y(x), x & [a, b], die Auslenkung der Straklatte, so entspricht derGleichgewichtszustand der fixierten Straklatte physikalisch dem Zustand, indem die Biegeenergie

J(y) :=

b!

a

(y!!(x)

(1 + y!(x)2)3/2)2 dx

minimal wird.

4.3 Trigonometrische Interpolation

4.3.1 Diskrete Fouriertransformation

Die Fourier Transformierte f := Ff : Z $ C einer 2.-periodischen Funktionf : R $ C ist bekanntlich gegeben durch

Page 69: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

66 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.3.1.1) f(k) =1

2.

2$!

0

f(t)exp(!ikt) dt , k & Z.

Die Umkehrabbildung f = F"1f ist gegeben durch die Fourierreihe

(4.3.1.2) f(t) =+'"

k="'

f(k)exp(ikt).

Wählt man eine äquidistante Zerlegung von [0, 2.) bezüglich der Stützstellentj := 2.j/n, 0 ' j ' n! 1, n & N, und verwendet die Trapezsumme

2$!

0

g(t) dt.=

2.

n

n"1"

j=0

g(tj),

so erhält man aus (4.3.1.1)

f(k).=

1

n

n"1"

j=0

f(tj) exp(!2.ijk/n).

(4.3.1.3) Definition: Es seien f : R $ C 2.-periodisch, tj := 2.j/n, 0 'j ' n! 1, n & N, und fj := f(tj), 0 ' j ' n! 1. Dann heisst die Abbildung

Fn : Cn $ C

n,(4.3.1.4)

(fj) 3!$ (cj)

ck =1

n

n"1"

j=0

fj exp(!2.ijk/n) , 0 ' k ' n! 1,

diskrete Fouriertransformation. Die Umkehrabbildung F"1n ist gegeben durch

(4.3.1.5) fj =n"1"

k=0

ckexp(2.ijk/n) , 0 ' j ' n! 1.

(4.3.1.6) Bemerkung: Ist n = 2m+1, so erhalten wir mit ck = cm+k,!m 'k < 0

(4.3.1.7) fj =+m"

k="m

ckexp(2.ijk/n)

und können somit (4.3.1.5) als abgebrochene Fourierreihe interpretieren.

(4.3.1.8) Definition: Es seien ck & C, 0 ' k ' n! 1, n & N. Dann wird

(4.3.1.9) Tn"1(t) =n"1"

k=0

ckexp(ikt), t & [0, 2.)

als trigonometrisches Polynom bezeichnet.

Page 70: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.3 Trigonometrische Interpolation 67

(4.3.1.10) Definition: Es seien f : R $ C 2.-periodisch, tj := 2.j/n, 0 'j ' n ! 1, n & N, und fj = f(tj), 0 ' j ' n ! 1. Die Bestimmung einestrigonometrischen Polynoms Tn"1 mit

(4.3.1.11) Tn"1(tj) = fj , 0 ' j ' n! 1,

wird als trigonometrische Interpolationsaufgabe bezeichnet.

(4.3.1.12) Theorem: Die trigonometrische Interpolationsaufgabe (4.3.1.11)ist eindeutig lösbar, wobei die Koe"zienten ck, 0 ' k ' n! 1, durch

(4.3.1.13) ck =1

n

n"1"

j=0

fjexp(!2.ijk/n)

gegeben sind.

Beweis: Bezeichnen wir mit

!j := exp(2.ij/n) , 0 ' jlen! 1,

die n-ten Einheitswurzeln, so ist (4.3.1.11) äquivalent zu der komplexen Poly-nominterpolationsaufgabe: Bestimme

Tn"1(z) =n"1"

k=0

ckzz,

so dassTn"1(!j) = fj , 0 ' j ' n! 1.

Da !j *= !', 0 ' j *= - ' n! 1, besitzt diese Aufgabe eine eindeutige Lösung.Die Darstellung der Koe"zienten ck gemäss (4.3.1.13) folgt aus der Ortho-gonalitätseigenschaft

1

n

n"1"

j=0

!kj !

"'j = 7k'.

!

4.3.2 Die schnelle Fouriertransformation

Die schnelle Fouriertransformation (FFT; Fast Fourier Transform) ist diee"ziente Implementation der diskreten Fouriertransformation

(4.3.2.1) ck =1

n

n"1"

j=0

fjexp(!2.ijk/n) , 0 ' k ' n! 1,

bzw. der inversen Abbildung

Page 71: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

68 4 Polynom- und Splineinterpolation. Trigonometrische Interpolation

(4.3.2.2) fj =+m"

k="m

ckexp(2.ijk/n) , 0 ' j ' n! 1,

im Fall n = 2p, p & N.

Wir erläutern die schnelle Fouriertransformation am Beispiel (4.3.2.2):Bei ’naiver’ Vorgehensweise würde die Berechnung O(n2) wesentliche Rechen-operationen für komplexe Additionen, Multiplikationen und die Auswer-tung trigonometrischer Funktionen erfordern. Bei der nachstehend beschrie-benen ’intelligenten’ Vorgehensweise beträgt der Rechenaufwand stattdessenlediglich O(n logn) Operationen.

Die Idee zur Reduktion des Rechanaufwandes besteht mit n = 2m,m =2p"1, in der Zerlegung von (4.3.2.2)

• bezüglich k in gerade (2k) und ungearde (2k + 1) Terme,

• bezüglich j in die untere Hälfte (0, · · · ,m!1) und obere Hälfte (m, · · · , 2m).

Für 0 ' j ' m! 1 führt diese Zerlegung auf

fj =m"1"

k=0

c2kexp(2.ijk/m) + exp(.ij/m)m"1"

k=0

c2k+1exp(2.ijk/m)

(4.3.2.3)

fj+m =m"1"

k=0

c2kexp(2.ijk/m)! exp(.ij/m)m"1"

k=0

c2k+1exp(2.ijk/m).

(4.3.2.4)

Da in (4.3.2.3) und (4.3.2.4) dieselben Partialsummen auftreten, reduziertdies den Rechenaufwand bereits um 50 %. Eine rekursive Anwendung derVorgehensweise führt zu der folgenden, aus p Schritten bestehenden Zer-legung:

fj 0 " j " 2p ! 1

fj fj+2p!1 0 " j " 2p!1 ! 1

fj fj+2p!2 f

j+2p!1 fj+3·2p!2 0 " j " 2p!2 ! 1

· · · · · · · ·· · · · · · · ·· · · · · · · ·

f0 f1 · · · · · · f2n!2 f2n!1

Der Rechenaufwand setzt sich zusammen aus:

• p · n/2 Additionen, Subtraktionen und Multiplikationen,

• n2 + n

4 + · · · + n2p = n

p/

i=12"1 5 2n Funktionsauswertungen,

Da n = 2p und somit p = logn, ergeben sich O(n logn) wesentliche Opera-tionen.

Page 72: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

4.3 Trigonometrische Interpolation 69

Die praktische Ausführung der FFT geschieht wie folgt:

Input: ck, 0 ' k ' n! 1, in Feld c[0, · · · , n! 1]

Output: fj , 0 ' j ' n! 1, im selben Feld (c wird überschrieben)

Die Realisierung erfolgt durch Sortierschritte und Kombinationsschritte:

Sortierschritte: Sortiere alle Komponenten ck nach dem Prinzip ’gerade’ vor’ungerade’.

0 1 2 · · · 2p ! 1 3!$ 0 2 · · · 2p ! 2 1 3 · · · 2p ! 1

p-ter Kombinationsschritt:

fj = cj + exp(.ij/m)cj+m , fj+m = cj ! exp(.ij/m)cj+m,

wobei

cj =m"1"

k=0

ckexp(2.ijk/m) , cj+m =m"1"

k=0

ck+mexp(2.ijk/m).

fj und fj+m werden in cj und cj+m gespeichert.

Page 73: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester
Page 74: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

5 Numerische Integration

5.0 Einleitung

Die numerische Integration, auch numerische Quadratur genannt, beschäftigtsich mit der approximativen Berechnung bestimmter Integrale

(5.0.1) I(f) :=

b!

a

f(x) dx,

wobei f : [a, b] % R $ R eine gegebene stetige Funktion ist. Sie ist dannanzuwenden, wenn eine Stammfunktion des Integranden nicht explizit zurVerfügung steht.

Quadraturformeln bestehen aus einer gewichteten Summe von Funktions-werten des Integranden in ausgewählten Punkten des Integrationsbereichs,den sogenannten Knoten der Quadraturformel. Üblicherweise ersetzt manden Integranden durch das ihn bezüglich der Knoten interpolierende Poly-nom. Dies führt auf die Newton-Cotes Formeln, die in Kapitel 5.1 behandeltwerden. Werden die Knoten nicht a priori festgelegt, sondern so gewählt, dassdie Quadraturformel für eine möglichst grosse Klasse von Polynomen exaktist, so spricht man von Gauss Quadratur, die Gegenstand von Kapitel 5.2 ist.

5.1 Newton-Cotes Formeln

Wir beginnen mit der Definition einer Quadraturformel.

(5.1.1) Definition: Es seien f : [a, b] % R $ R stetig und I(f) das durch(5.0.1) gegebene bestimmte Integral. Eine endliche Summe gewichteter Funk-tionswerte von der Form

(5.1.2) I(f) :=n"

i=0

$if(xi) , n & N0,

zur Berechnung von I(f) wird als Quadraturformel bezeichnet. Man nennt diePunkte xi, 0 ' i ' n, die Knoten und die Zahlen $i, 0 ' i ' n, die Gewichteder Quadraturformel. Der Fehler

Page 75: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

72 5 Numerische Integration

(5.1.3) E(f) := I(f)! I(f)

heisst Quadraturfehler.Erhält man (5.1.2) durch Approximation des Integranden f vermöge des inden Knoten interpolierenden Polynoms pn, so spricht man von einer inter-polatorischen Quadraturformel.

Beispiel: Im Falle n = 1 und x0 = a, x1 = b approximiert man den Integranden fdurch die lineare Interpolierende

p1(x) = f(a) +x " ab " a

f(b)

und erhält als interpolatorische Quadraturformel die Trapezregel.

(5.1.4) I(f) =b " a

2(f(a) + f(b)).

Bei einer Zerlegung des Integrationsbereichs [a, b] in n Teilintervalle a = x0 < x1 <· · · < xn = b der Länge hi := xi+1 " xi und Approximation von I(f) durch dieSumme der Trapezflächen

T (n) =n"1X

i=0

Ti , Ti =h2

[f(xi) + f(xi+1)]

ergibt sich die Trapezsumme

I(f) =n

X

i=0

!i f(xi) , !0 =h0

2, !i =

(hi"1 + hi)2

, !n =hn"1

2.

Die Trapezsumme besitzt (für hi = h, 0 # i # n " 1,) eine asymptotische Ent-

wicklung des Quadraturfehlers nach Potenzen von h2 (Euler-Maclaurinsche Sum-

menformel), die bei der Romberg Integration zur Extrapolation ausgenutzt wirdund somit ebenfalls die Grundlage für eine adaptive Quadratur darstellt. Dazuund bezüglich einer adaptiven Mehrgitter-Quadratur verweisen wir auf Freund undHoppe (2007).

In Verallgemeinerung der Trapezregel ersetzt man den Integranden durchseine Polynominterpolierende

pn(f) =n"

i=0

f(xi)Li,n(x)

mit den Lagrangeschen Fundamentalpolynomen Li,n(·), 0 ' i ' n. Esergeben sich die Newton-Cotes Formeln.

(5.1.5) Definition: Die durch

(5.1.6) I(f) = (b!a)n"

i=0

"inf(xi) , "in :=1

b! a

b!

a

Li,n(x) dx , 0 ' i ' n,

gegebenen Quadraturformeln heissen Newton-Cotes Formeln. Die Gewichte"in, 0 ' i ' n, werden Newton-Cotes Gewichte genannt.

Page 76: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

5.2 Gauss Quadratur 73

Im Falle äquidistanter Zerlegungen von [a, b] zur Schrittweite h := (b !a)/n erhält man durch Substitution t := (x! a)/h = n(x! a)/(b! a)

(5.1.7) "in =1

b! a

b!

a

4

j (=i

x! xj

xi ! xjdx =

1

n

n!

0

4

j (=i

t! j

i! jdt,

und darausn"

i=0

"in = 1 , "n"i,n = "i,n , 0 ' i ' n.

Abschätzungen des Quadraturfehlers ergeben sich unter Verwendung derRestgliedabschätzungen für den Interpolationsfehler.

Die folgende Tabelle enthält die Newton-Cotes Formeln für n = 1, 2, 3, 4:

n "in Fehler Name

1 12

12 h3/12 f (2)(5) Trapezregel

2 16

23

16 h5/90 f (4)(5) Simpson-Regel

3 18

38

38

18 3h5/80 f (4)(5) Keplersche Fassregel

4 790

1645

215

1645

790 8h7/945 f (6)(5) Milne-Regel

(5.1.8) Bemerkung: Man beachte, dass für n > 6 negative Gewichte auftreten(Gefahr der Auslöschung).

5.2 Gauss Quadratur

Die der Gauss Quadratur zugrundeliegende Idee besteht darin, zu vorgegeben-em n & N die n + 1 Knoten x0n, · · · , xnn & [a, b] und die n + 1 Gewichte$0n, · · · ,$nn so zu bestimmen, dass das bezüglich einer Gewichtsfunktion

! : (a, b) $ R , !(x) < 0 , x & (a, b),

gewichtete Integral

(5.2.1) I(f) =

b!

a

!(x)f(x) dx

durch die Quadraturformel

(5.2.2) I(f) =n"

i=0

$inf(xin)

Page 77: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

74 5 Numerische Integration

für Polynome pN & PN ([a, b]) bis zu einem möglichst hohen Grad N exaktintegriert wird:

(5.2.3) I(pN ) = I(pN ) , pN & PN ([a, b]).

Die Anzahl der freien Parameter ist 2n + 2.Daher ist zu erwarten, dass Poly-nome pN & PN ([a, b]), N ' 2n + 1 exakt integriert werden.

(5.2.4) Theorem: Es seien p0, ..., pn+1 die bezüglich des gewichteten Skalar-produkts

(f, g) :=

b!

a

!(x)f(x)g(x) dx

orthogonalen Polynome mit führendem Koe"zienten 1 und x0n, ..., xnn dien + 1 einfachen Nullstellen von pn+1 in (a, b). Für die Gewichte

(5.2.5) $in :=

b!

a

!(x)pn+1(x)

(x! xin)p!n+1(xin)dx , 0 ' i ' n,

gilt dann

(5.2.6) I(p) = I(p) , p & P2n+1([a, b]).

Die entsprechenden Quadraturformeln werden als Gausssche Quadraturfor-meln bezeichnet.

Beweis: Sei p & P2n+1([a, b]). Dann existieren q, r & Pn([a, b]), so dass

p = qpn+1 + r,

und somit

p(xin) = q(xin)pn+1(xin) + r(xin) = r(xin) , 0 ' i ' n.

Sei ferner

r =n"

i=0

r(xin)Lin =n"

i=0

p(xin) Lin

die Darstellung von r als Lagrangesches Interpolationspolynom bezüglich derKnoten x0n, · · · , xnn. Dann gilt

I(p) =

b!

a

!(x)p(x) dx =

b!

a

!(x) q(x)pn+1(x) dx

+ ,- .

= 0

+

b!

a

!(x) r(x) dx =

=n"

i=0

p(xin)

b!

a

!(x)Lin(x) dx.

Page 78: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

5.2 Gauss Quadratur 75

Darüber hinaus hat man

Lin(x) =4

k (=i

x! xkn

xin ! xkn=

pn+1(x)

x! xin

4

k (=i

1

xin ! xkn,

p!n+1(x) = [n4

k=0

(x! xkn)]! =n"

j=0

4

k (=j

(x! xkn) =+

p!n+1(xin) =4

k (=i

(xin ! xkn),

woraus folgt

Lin(x) =pn+1(x)

(x! xin)p!n+1(xin).

!

(5.2.7) Bemerkung: Unter Ausnutzung der Eigenschaften orthogonaler Poly-nome lässt sich zeigen, dass alle Gewichte (5.2.5) der Gaussschen Quadratur-formel positiv sind, i.e., $in > 0, 0 ' i ' n.

Die nachfolgende Tabelle gibt eine Übersicht über verschiedene Gewichts-funktionen, zugehörige Intervalle und Orthogonalpolynome:

Name der Quadraturformel [a, b] !(",0) pn

Gauss - Legendre [!1,+1] 1 Pn

Gauss - Tschebysche! [!1,+1] (1! x2)"1/2 Tn

Gauss - Jacobi [!1,+1] (1! x)"(1 + x)- P (",-)n

Gauss - Laguerre [0,)) x"exp(!x) L(")n

Gauss - Hermite (!),+)) exp(!x2) Hn

Wir beschäftigen uns abschliessend mit der Herleitung einer Abschätzungdes Quadraturfehlers.

(5.2.8) Theorem: Es sei f & C2n+2([a, b]), wobei !) ' a < b ' +), undes gelte

maxx$[a,b]

|f (k)(x)| < ) , 0 ' k ' 2n + 2.

Dann hat man

(5.2.9) |I(f)! I(f)| ' (pn+1, pn+1) maxx$[a,b]

|f (2n+2)(x)|(2n + 2)!

.

Beweis: Es sei f & P2n+1([a, b]) das Hermitesche Interpolationspolynombezüglich xi , 0 ' i ' n, i.e.,

f(xi) = f(xi) , f !(xi) = f !(xi) , 0 ' i ' n.

Page 79: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

76 5 Numerische Integration

f besitzt die Darstellung

f(x) =n"

i=0

(cin x + din)L2in(x)f(xin) +

n"

i=0

(x! xin)L2in(x)f !(xin),

mit cin := ! 24

j (=i

1

xin ! xjn, din := 1! cinxin , 0 ' i ' n.

Gemäss der Restglieddarstellung für die Hermiteinterpolation hat man

f(x)! f(x) =f (2n+2)(5(x))

(2n + 2)!

n4

i=0

(x! xin)2 =f (2n+2)(5(x))

(2n + 2)!p2

n+1(x),

wobei5(x) & ( min

0%i%n(x, xin), max

0%i%n(x, xin)).

Der Mittelwertsatz der Integralrechnung liefert mit geeignetem 5 & (a, b)

I(f ! f) =f (2n+2)(5)

(2n + 2)!

b!

a

!(x)p2n+1(x) dx =

f (2n+2)(5)

(2n + 2)!(pn+1, pn+1).

Andererseits folgt unter Beachtung von f & P2n+1([a, b])

I(f) =

b!

a

!(x)f(x) dx =n"

i=0

$inf(xin) =n"

i=0

$in f(xin) = I(f),

woraus die Behauptung resultiert. !

Page 80: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6 Gewöhnliche Di!erentialgleichungen

6.0 Einleitung

In Kapitel 1 haben wir bereits mit dem Doppelpendel ein Beispiel für einSystem gewöhnlicher Di!erentialgleichungen kennen gelernt. Im allgemeinenFall ist eine di!erenzierbare vektorwertige Funktion y : I := [a, b] $ Rd, d &N, mit Ableitungen y(k), 1 ' k ' m,m & N, gesucht, die für eine gegebenevektorwertige Funktion F mit Werten in Rd den Gleichungen

(6.0.1) F (x, y, y(1), · · · , y(m)) = 0

genügt. Man nennt (6.0.1) ein System gewöhnlicher Di!erentialgleichungenm-ter Ordnung, wobei die Ordnung durch die höchste auftretende Ableitunggegeben ist. Durch Einführung der Funktionen

z1(x) := y(x),

z2(x) := y(1)(x),

...

zm(x) := y(m"1)(x)

können wir (6.0.1) stets gemäss

%

&&&&&&&'

z(1)1 ! z2

···

z(1)m"1 ! zm

F (x, z1, · · · , zm, z(1)m )

(

)))))))*

=

%

&&&&&&&&'

00···00

(

))))))))*

auf ein System erster Ordnung transformieren. Wir betrachten daher im Fol-genden ausschliesslich Systeme erster Ordnung

(6.0.2) F (x, y, y!) = 0,

wobei wir statt y(1) die Notation y! für die erste Ableitung verwenden.

Page 81: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

78 6 Gewöhnliche Di!erentialgleichungen

Ist die Funktion F in (6.0.2) a"n in y!, so gibt es eine matrixwertigeFunktion B : I # Rd $ Rd#d und eine Funktion g = g(x, y), so dass (6.0.2)in der Form

(6.0.3) B(x, y)y! = g(x, y)

geschrieben werden kann. Man spricht dann von einem quasilinearen Systemgewöhnlicher Di!erentialgleichungen 1.Ordnung in impliziter Form. Hängtdie matrixwertige Funktion B in (6.0.3) nicht von y & Rd ab, i.e., hat man

(6.0.4) B(x)y! = g(x, y),

so liegt ein semilineares System gewöhnlicher Di!erentialgleichungen 1.Ord-nung vor.

Wenn der Wertebereich der matrixwertigen Funktion B nur aus regulärenMatrizen besteht, kann man (6.0.3) bzw. (6.0.4) explizit nach y! auflösen underhält ein System von der Gestalt

(6.0.5) y! = f(x, y),

das als System gewöhnlicher Di!erentialgleichungen 1.Ordnung in expliziterForm bezeichnet wird.

Sind die Funktionen g in (6.0.4) bzw. f in (6.0.5) a"n in y, dann gibt eseine matrixwertige Funktion A : I $ Rd#d und eine Funktion h = h(x), sodass man

B(x)y! = A(x)y + h(x),(6.0.6)

y! = A(x)y + h(x)(6.0.7)

erhält. Man nennt (6.0.6) bzw. (6.0.7) ein lineares System gewöhnlicher Dif-ferentialgleichungen 1.Ordnung in impliziter bzw. expliziter Form.

Ist schliesslich die matrixwertige Funktion B in (6.0.3) von der Gestalt

B(x, y) =

1

B1(x, y) 00 0

2

,

mit einer matrixwertigen Funktion B : I # Rd $ Rd1#d1 , 1 ' d1 < d, sosind in (6.0.3) d1 Gleichungen in di!erentieller Form und d! d1 Gleichungenin algebraischer Form gegeben. Man nennt ein solches System ein Systemdi!erential-algebraischer Gleichungen. Wir haben in Kapitel 1 ein derartigesSystem bereits kennen gelernt.

Im Allgemeinen ist die Lösung y der zuvor betrachteten Systeme nichteindeutig bestimmt. Dazu bedarf es der Vorgabe einer Anfangsbedingung

(6.0.8) y(a) = "

bei gegebenem Anfangswert " & Rd. Die Systeme (6.0.2)-(6.0.7) in Verbindungmit der Anfangsbedingung (6.0.8) werden als Anfangswertproblem für einSystem gewöhnlicher Di!erentialgleichungen 1.Ordnung bezeichnet.

Page 82: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.1 Theoretische Grundlagen 79

Statt einer Anfangsbedingung können auch bei vorgebener Funktion r :Rd # Rd $ Rd Randbedingungen von der Gestalt

(6.0.9) r(y(a), y(b)) = 0

vorliegen. In Verbindung mit (6.0.2)-(6.0.7) spricht man dann von einemRandwertproblem für ein System gewöhnlicher Di!erentialgleichungen 1.Ord-nung.

Wir beginnen in Kapitel 6.1 mit einigen theoretischen Grundlagen für An-fangswertprobleme bei Systemen gewöhnlicher Di!erentialgleichungen 1.Ord-nung in expliziter Form. Hinsichtlich der numerischen Lösung solcher An-fangswertprobleme unterscheidet man zwischen

– Einschrittverfahren,– Mehrschrittverfahren.

Wir behandeln Einschrittverfahren in Kapitel 6.2 und Mehrschrittverfahrenin Kapitel 6.3. Ferner unterscheidet man zwischen

– expliziten Verfahren,– impliziten Verfahren.

Implizite Verfahren erfordern gegenüber expliziten Verfahren im Allgemeinendie Lösung eines nichtlinearen Gleichungssystems und sind daher naturgemässwesentlich rechenaufwändiger. Implizite Verfahren müssen aber aus Stabili-tätsgründen für sogenannte steife Di!erentialgleichungen eingesetzt werden,deren numerische Lösung wir in Kapitel 6.4 eingehend besprechen werden.Schliesslich betrachten wir in Kapitel 6.5 numerische Integratoren für di!eren-tial-algebraische Gleichungen.

Randwertprobleme werden wir hier nicht ansprechen. Zu ihrer numerischenLösung können die Mehrzielmethode, Di!erenzenverfahren, Galerkin Ver-fahren und Kollokationsmethoden herangezogen werden. Wir verweisen aufFreund und Hoppe (2008).

6.1 Theoretische Grundlagen

Wir untersuchen die Existenz sowie die Eindeutigkeit von Lösungen des An-fangswertproblems

y!(x) = f(x, y(x)) , x & I := [a, b],(6.1.1a)

y(a) = "(6.1.1b)

für ein System gewöhnlicher Di!erentialgleichungen 1.Ordnung in expliziterForm. Die Existenz einer Lösung ist bei Stetigkeit der rechten Seite f in(6.1.1a) gewährleistet. Dies ist die Aussage des Existenzsatzes von Peano.

Page 83: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

80 6 Gewöhnliche Di!erentialgleichungen

(6.1.2) Theorem: Es seien I := [a, b] % R, D % Rd, und f & C(I#D) sowie" & D. Dann besitzt das Anfangswertproblem (6.1.1a),(6.1.1b) eine Lösungy & C1(D).

Beweis: Wir verweisen auf Arnold (2004) und Walter (1995). !

Das folgende Beispiel zeigt, dass Stetigkeit von f allein nicht ausreicht,um die Eindeutigkeit einer Lösung sicherzustellen.

Beispiel: Wir betrachten das Anfangswertproblem

y#(x) =p

|y(x)| , x ! R , y(2) = 1.

Falls y = y(x), x ! R, eine Lösung ist, so auch z(x) := "y("x), i.e., es genügtpositive Lösungen zu betrachten. Separation der Variablen führt auf

Z

dy%

y=

Z

dx =$ 2%

y = x + C =$ y(x; C) =(x + C)2

4.

Die Bedingung y(2) = 1 impliziert

(C + 2)2 = 4 =$ C = 0.

Somit liegen mehrfache Lösungen vor von der Gestalt

y(x; a) =

8

<

:

x2/4 , x > 00 , a # x # 0 (a # 0)

" (x " a)2/4 , x < ay(x) =

!

x2/4 , x > 00 , x # 0

.

Unter der zusätzlichen Voraussetzung, dass die rechte Seite f einer Lip-schitz Bedingung im zweiten Argument genügt, kann Eindeutigkeit nachgewie-sen werden (Existenz- und Eindeutigkeitssatz von Picard-Lindelöf ).

(6.1.3) Theorem: Es seien f : I # D $ Rd, I := [a, b] % R, D % Rd, und" & D. Ferner gelte

(1) f & C(I #D)

(2) ,f(x, y1)! f(x, y2), ' L,y1 ! y2, , (x, yi) & I #D, 1 ' i ' 2 (L - 0).

Dann besitzt das Anfangswertproblem (6.1.1a),(6.1.1b) eine eindeutige Lö-sung y & C1([a, b]).

Beweis: Wir verweisen auf Arnold (2004) und Walter (1995). !

Man nennt das Anfangswertproblem wohlgestellt, falls die Lösung stetigvon den Anfangsdaten abhängt. Die stetige Abhängigkeit von den Anfangs-daten ist eine Folgerung aus dem Gronwallschen Lemma.

Page 84: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.1 Theoretische Grundlagen 81

(6.1.4) Lemma: Es seien 3 : I $ R, I := [a, b] % R,3 & C(I). Ferner sei

3(x) ' "+ 0

x!

a

3(s) ds , x & I , " - 0,0 > 0.

erfüllt. Dann gilt

3(x) ' "exp(0(x! a)) , x & I.

Beweis: Sei 4 > 0. Wir betrachten

8(x) := ("+ 4)exp(0(x! a)) , x & I =+ 8 !(x) = 09(x)

=+ 9(x) = 9(a) + 0

x!

a

8(s) ds.

Wir zeigen3(x) < 8(x) , x & I.

O!enbar hat man3(a) ' " ' "+ 4 = 8(a).

Im Widerspruch zur Behauptung nehmen wir die Existenz eines x & (a, b]an, so dass 3(x) - 8(x). Wir definieren

x0 := min{x & (a, b] | 3(x) = 8(x)}.

Es gilt 3(x) ' 8(x), x & [a, x0], und damit

3(x0) ' "+ 0

x0!

a

3(s) ds < "+ 4+ 0

x0!

a

8(s) ds = 8(x0),

was der Annahme 3(x0) = 8(x0) widerspricht. !

(6.1.5) Theorem: Unter den Voraussetzungen des Theorems von Picard-Lindelöf seien yi, 1 ' i ' 2, zwei Lösungen von y!(x) = f(x, y(x)), x & I,bezüglich der Anfangsbedingungen yi(a) = "i. Dann gilt

,y1(x)! y2(x), ' ,"1 ! "2,exp(L(x! a)) , x & I.

Beweis: Unter Berücksichtigung von

yi(x) = "i +

x!

a

f(s, yi(s)) ds , 1 ' i ' 2,

hat man

Page 85: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

82 6 Gewöhnliche Di!erentialgleichungen

,y1(x)! y2(x),+ ,- .

=: !(x)

' ,"1 ! "2,+

x!

a

,f(s, y1(s))! f(s, y2(s)), ds '

' ,"1 ! "2,+ ,- .

=: "

+ L+,-.

=: -

x!

a

,y1(s)! y2(s),+ ,- .

=: !(s)

ds.

Das Gronwallsche Lemma liefert die Behauptung. !

6.2 Einschrittverfahren

6.2.1 Explizites und implizites Euler-Verfahren

Zu einer gegebenen Funktion f : I # Rd $ Rd und einem gegebenen Vektor" & Rd betrachten wir das Anfangswertproblem

y!(x) = f(x, y(x)) , x & I,(6.2.1.1a)

y(0) = ".(6.2.1.1b)

Wir betrachten eine Zerlegung

(6.2.1.2) Ih := {a = x0 < x1 < · · · < xN = b}

des Intervalls I = [a, b] in Teilpunkte xk, 0 ' k ' N, zu den Schrittweitenhk := xk+1 ! xk, 0 ' k ' N ! 1 und bezeichnen mit h := max0%k%N"1 hk

die maximale Schrittweite.Für die Herleitung numerischer Verfahren zur näherungsweisen Lösung

von (6.2.1.1a),(6.2.1.1b) integrieren wir (6.2.1.1a) über ein Teilintervall [xk,xk+1] und erhalten die Integralgleichung

(6.2.1.3) y(xk+1) = y(xk) +

xk+1!

xk

f(x, y(x)) dx.

Es liegt nun der Gedanke nahe, das Integral in (6.2.1.3) durch eine interpo-latorische Quadraturformel aus Kapitel 5 zu approximieren. Approximierenwir den Integranden in [xk, xk+1] durch die konstante Funktion f(xk, y(xk))bzw. f(xk+1, y(xk+1)), so erhalten wir (siehe Fig. 21)

xk+1!

xk

f(x, y(x)) dx 5 hkf(xk, y(xk))

bzw.

Page 86: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.2 Einschrittverfahren 83

x

f(x,y(x))

k+1xkx

y

x

y

f(x,y(x))

k+1xkx

Fig. 21. Herleitung numerischer Integratoren

xk+1!

xk

f(x, y(x)) dx 5 hkf(xk+1, y(xk+1)).

Insbesondere ergeben sich für k = 0 wegen y(a) = "

y(x1) 5 "+ h0f(a,")

bzw.y(x1) 5 "+ h0f(x1, y(x1)).

Im ersten Fall erhalten wir unmittelbar durch yh(x1) = " + h0f(a,")) eineNäherung in x1, wohingegen wir im zweiten Fall yh(x1) als Lösung des nicht-linearen Gleichungssystems

yh(x1) = "+ h0f(x1, yh(x1))

bestimmen müssen. Wir können aber in beiden Fällen mit der Näherungyh(x1) die Rechnung entsprechend fortsetzen. Im ersten Fall erhalten wir sodas explizite Euler-Verfahren

yh(xk+1) = yh(xk) + hkf(xk, yh(xk)) , 0 ' k ' N ! 1,(6.2.1.4a)

yh(x0) = ".(6.2.1.4b)

Im zweiten Fall ergibt sich das implizite Euler-Verfahren

yh(xk+1) = yh(xk) + hkf(xk+1, yh(xk+1)) , 0 ' k ' N ! 1,(6.2.1.5a)

yh(x0) = ",(6.2.1.5b)

das zur Bestimmung von yh(xk+1) der Lösung des nichtlinearen Gleichungs-systems

(6.2.1.6) F (x, yh(xk+1)) := yh(xk+1)! hkf(xk+1yh(xk+1)) = 0

etwa unter Verwendung des in Kapitel 3 besprochenen Newton Verfahrensbedarf.

Page 87: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

84 6 Gewöhnliche Di!erentialgleichungen

Nun stellt sich natürlich die Frage, warum man überhaupt den weitausgrösseren Rechenaufwand beim impliziten Euler Verfahren in Kauf nehmensoll, wenn doch das explizite Euler-Verfahren eine Approximation weitaus’kostengünstiger’ liefert. Das folgende Beispiel soll die Notwendigkeit der Ver-wendung impliziter Verfahren in gewissen Fällen erläutern.

Beispiel: Wir betrachten das Di!erentialgleichungssystem

y#

1(x) =!1 + !2

2y1 +

!1 " !2

2y2,(6.2.1.7)

y#

2(x) =!1 " !2

2y1 +

!1 + !2

2y2,

mit negativen Konstanten !i < 0, 1 # i # 2. Die allgemeine Lösung ist

y1(x) = C1e"1x + C2e

"2x,(6.2.1.8)

y2(x) = C1e"1x " C2e

"2x,

mit Integrationskonstanten C1, C2.Integriert man (6.2.1.7) mit dem expliziten Euler-Verfahren, so lassen sich die

numerischen Näherungen geschlossen darstellen

yh,1(xi) = C1(1 + h!1)i + C2(1 + h!2)

i,(6.2.1.9)

yh,2(xi) = C1(1 + h!1)i " C2(1 + h!2)

i.

O!ensichtlich konvergieren die Näherungen für i & ' nur dann gegen die Lösung,falls die Schrittweite h so klein gewählt wird, dass

(6.2.1.10) |1 + h!1| < 1 und |1 + h!2| < 1.

Es sei nun |!2| gross gegen |!1|. Wegen !2 < 0 ist dann in (6.2.1.8) der Einflussder Komponente e"2x gegenüber e"1x vernachlässigbar klein. Dies gilt nicht fürdie numerische Integration. Wegen (6.2.1.10) muss die Schrittweite h > 0 so kleingewählt werden, dass

h <2

|!2|.

Für den Fall !1 = "1, !2 = "1000 ist h # 0.002. Obwohl also e"1000x zur Lösungkaum beiträgt, bestimmt der Faktor 1000 im Exponenten die Schrittweite.

Andererseits ergibt die Anwendung des impliziten Euler-Verfahrens auf (6.2.1.7)

yh,1(xi) = C11

(1 " h!1)i+ C2

1(1 " h!2)i

,

yh,2(xi) = C11

(1 " h!1)i" C2

1(1 " h!2)i

.

Man erkennt, dass die Näherungen ohne Einschränkung an die Schrittweite h fürh & 0 gegen die Lösung konvergieren.

Das Di!erentialgleichungssystem ist ein Beipiel für sogenannte steife Dif-ferentialgleichungen, die dadurch charakterisiert sind, dass Lösungskompo-nenten mit stark unterschiedlichem Wachstumsverhalten auftreten. Die nu-merische Integration steifer Di!erentialgleichungsysteme erfordert impliziteVerfahren. Wir werden auf spezielle Verfahren für solche Systeme näher inKapitel 6.4 eingehen.

Page 88: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.2 Einschrittverfahren 85

6.2.2 Allgemeine Einschrittverfahren

Das explizite und implizite Euler Verfahren sind Beispiele sogenannter Ein-schrittverfahren, i.e., solcher Verfahren, bei denen die Berechnung einerNäherung in xk+1 nur die Kenntnis einer Näherung in xk erfordert. Manführt nur einen Schritt von xk nach xk+1 durch.

(6.2.2.1) Definition: Es seien I := [a, b] und Ih eine gemäss (6.2.1.2)gegebene Zerlegung von I. Ferner sei

(6.2.2.2) 3h : Ih # Ih #Rd #Rd $ Rd.

Dann wird

yh(xk+1) = yh(xk) + h3h(xk, xk+1, yh(xk), yh(xk+1)),(6.2.2.3a)

yh(x0) = "(6.2.2.3b)

als ein Einschrittverfahren zur numerischen Integration des Anfangswertpro-blems (6.2.1.1a),(6.2.1.1b) bezeichnet. Die durch (6.2.2.2) gegebene Funktionheisst Verfahrensfunktion.

Natürlich sind wir an der Konvergenz der mit einem Einschrittverfahrenberechneten Näherungen yh gegen die Lösung y des Anfangswertproblemsinteressiert.

(6.2.2.4) Definition: Es seien y und yh die Lösungen des Anfangswertprob-lems (6.2.1.1a),(6.2.1.1b) bzw. des Einschrittverfahrens (6.2.2.3a),(6.2.2.3b).Dann wird

y(x)! yh(x) , x & Ih

als der globale Diskretisierungsfehler bezeichnet. Das Einschrittverfahren heisstkonvergent, falls

(6.2.2.5) maxx$Ih

|y(x)! yh(x)|$ 0 as h $ 0.

Das Einschrittverfahren wird als konvergent von der Ordnung p bezeichnet,falls

(6.2.2.6) maxx$Ih

|y(x)! yh(x)| = O(hp).

Eine naheliegende Forderung ist, dass das Einschrittverfahren überhaupteine sinvolle Approximation des Anfangswertproblems darstellt. Dies über-prüft man dadurch, dass man die Lösung y des Anfangswertproblems in dasEinschrittverfahren einsetzt. Man kann zwar nicht erwarten, dass der resul-tierende Ausdruck gleich Null ist, er sollte aber für h $ 0 gegen Null kon-vergieren.

Page 89: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

86 6 Gewöhnliche Di!erentialgleichungen

(6.2.2.7) Definition: Das Anfangswertproblem (6.2.1.1a),(6.2.1.1b) habe dieLösung y, und es sei 3h die Verfahrensfunktion des Einschrittverfahrens(6.2.2.3a),(6.2.2.3b). Dann wird die durch

(6.2.2.8) :h(xk) := h"1(y(xk+1)! y(xk))! 3h(xk, xk+1, y(xk), y(xk+1))

definierte Gitterfunktion als lokaler Diskretisierungsfehler bezeichnet. DasEinschrittverfahren (6.2.2.3a),(6.2.2.3b) heisst konsistent falls

(6.2.2.9) maxx$Ih

|:h(x)|$ 0 as h $ 0.

Das Einschrittverfahren wird als konsistent von der Ordnung p bezeichnet,falls

(6.2.2.10) maxx$Ih

|:h(x)| = O(hp).

Beispiel: Wir betrachten das explizite Euler Verfahren (6.2.1.4a),(6.2.1.4b) mitder Verfahrensfunktion

$h(xk, xk+1, yh(xk), yh(xk+1)) = f(xk, yh(xk))

und nehmen an, dass die Lösung y von (6.2.1.1a),(6.2.1.1b) zweimal stetig di!eren-zierbar ist. Dann folgt durch Taylorentwicklung

y(xk+1) = y(xk) + hky#(xk) + O(h2k).

Unter Beachtung von y#(xk) = f(xk, y(xk)) folgt daraus

%h(xk) = O(hk),

i.e., das explizite Euler Verfahren ist konsistent von der Ordnung p = 1.Ähnlich zeigt man, dass auch das implizite Euler Verfahren die Konsistenzord-

nung p = 1 besitzt.

Die Konsistenz allein gewährleistet noch nicht die Konvergenz eines Ver-fahrens. Dazu bedarf es einer weiteren Eigenschaft, nämlich der Stabilität desEinschrittverfahrens. Darunter versteht man die stetige Abhängigkeit der Lö-sung yh von Störungen in der Verfahrensfunktion. Wir beschränken uns beider Stabilitätsuntersuchung auf Verfahren mit einer von xk+1 und yh(xk+1)unabhängigen Verfahrensfunktion.

(6.2.2.11) Definition: Es seien yh Lösung des Einschrittverfahrens

yh(xk+1) = yh(xk) + hk3h(xk, yh(xk)) , 0 ' k ' N ! 1,(6.2.2.12a)

yh(x0) = ",(6.2.2.12b)

und zh Lösung des ’gestörten’ Verfahrens

zh(xk+1) = zh(xk) + hk

#

3h(xk, yh(xk)) + /h(xk)$

,(6.2.2.13a)

zh(x0) = ",(6.2.2.13b)

Page 90: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.2 Einschrittverfahren 87

mit Störungen /h(xk), 0 ' k ' N ! 1. Dann heisst das Einschrittverfahren(6.2.2.12a),(6.2.2.12b) stabil, falls es eine Zahl hmax > 0 gibt und zu jedem4 > 0 ein 7 = 7(4) > 0, so dass für h < hmax

maxx$Ih

|yh(x)! zh(x)| < 4

für alle Störungen /h mit

maxx$Ih

|/h(x)| < 7.

Die Stabilität konsistenter Einschrittverfahren ist hinreichend für die Kon-vergenz.

(6.2.2.14) Theorem: Das Einschrittverfahren (6.2.2.12a),(6.2.2.12b) sei kon-sistent mit dem Anfangswertproblem (6.2.1.1a),(6.2.1.1b). Ist es ausserdemstabil, dann ist konvergent. Die Konvergenzordnung ist dabei dieselbe wie dieKonsistenzordnung.

Beweis: Die Lösung y von (6.2.1.1a),(6.2.1.1b) genügt dem gestörten Ein-schrittverfahren (6.2.2.13a),(6.2.2.13b) mit zh(x) = y(x), x & Ih, und /h =:h. Wegen der Konsistenz hat man (6.2.2.9), und mit der Stabilität (6.2.2.11)erschliesst man die Konvergenz. O!enbar entspricht die Konvergenzordnungder Konsistenzordnung. !

(6.2.2.15) Bemerkung: Genügt die Verfahrensfunktion 3h in (6.2.2.12a)einer Lipschitzbedingung im zweiten Argument, so lässt sich Stabilität imSinne von (6.2.2.11) nachweisen. Der Beweis verwendet eine diskrete Versiondes Gronwallschen Lemmas. Wir verweisen auf Kapitel 8.2 in Freund undHoppe (2008).

Natürlich ist man an Einschrittverfahren höherer Ordnung als p = 1 inter-essiert. Die Konstruktion derartiger Einschrittverfahren ist Gegenstand desfolgenden Abschnittes.

6.2.3 Runge-Kutta Verfahren

Das explizite Euler Verfahren (6.2.1.4a),(6.2.1.4b) verwendet die approxima-tive Steigung f(xk, yh(xk)) 5 f(xk, y(xk)) des Graphen (x, y(x)) der Lö-sungskurve in xk zur Konstruktion einer Näherungslösung in xk+1 und führtanschaulich auf einen Polygonzug. Es wird daher auch als Polygonzugmethodebezeichnet (vgl. Fig. 22).

Zur Herleitung eines Verfahrens höherer als erster Ordnung ist es vondaher naheliegend, als eine verbesserte approximative Steigung eine Linear-kombination der Steigungen

f(xk, y(xk)) und f(xk + a21hk, y(xk + a21hk))

Page 91: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

88 6 Gewöhnliche Di!erentialgleichungen

x

y

x xx1 2

y(x)

0

α

y1

y2

Fig. 22. Polygonzugmethode (expliziter Euler)

zu verwenden. Dies führt auf das explizite Einschrittverfahren

yh(xk+1) = yh(xk) + hk

#

b1f(xk, yh(xk))+(6.2.3.1a)

+ b2f(xk + a21hk, yh(xk) + a21hkf(xk, yh(xk))$

,

yh(x0) = "(6.2.3.1b)

mit Koe"zienten a21, b1, b2, die so zu bestimmen sind, dass das Verfahrenmindestens die Konsistenzordnung p = 2 besitzt. Taylorentwicklung ergibtdie beiden Bestimmungsgleichungen

b1 + b2 = 1 , a21b2 =1

2.

Man erhält somit gemäss

(6.2.3.2) b1 = 0 , b1 = 1! 0 , a21 =1

20

eine einparametrige Familie von Einschrittverfahren der Konsistenzordnungp = 2.

(6.2.3.3) Definition: Das explizite Einschrittverfahren (6.2.3.1a),(6.2.3.1b)mit 0 = 1 in (6.2.3.2) heisst verbesserte Polygonzugmethode oder Verfahrenvon Runge. Das Verfahren mit 0 = 1/2 wird als Verfahren von Heun be-zeichnet.

Es ist jedoch nicht möglich, 0 so zu wählen, dass die Konsistenzordnungp = 3 erreicht wird. Dazu bedarf es der Einbeziehung weiterer Steigungen imAnsatz (6.2.3.1a). Die systematische Berücksichtigung weiterer Steigungenführt auf die s-stufigen expliziten Runge-Kutta-Verfahren.

Page 92: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.2 Einschrittverfahren 89

(6.2.3.4) Definition: Ein explizites Einschrittverfahren von der Gestalt

yh(xk+1) = yh(xk) +s

"

i=1

biki, ,(6.2.3.5a)

yh(x0) = "(6.2.3.5b)

mit

ki := hkf(xk + cihk, , yh(xk) +i"1"

j=1

aijkj),(6.2.3.6)

ci :=i"1"

j=1

aij , 1 ' i ' s,

wird als s-stufiges explizites Runge-Kutta-Verfahren bezeichnet. Es ist durchdie s(s + 1)/2 Parameter aij , 2 ' i ' s, 1 ' j ' i ! 1, und bi, 1 ' i ' s,eindeutig bestimmt.

Man charakterisiert s-stufige explizite Runge-Kutta Verfahren durch dassogenannte Butcher Schema

c2 a21

c3 a31 a32

· · · ·

· · · · ·

cs as1 as2 · · as,s"1

b1 b2 · · bs"1 bs

Für 1 ' s ' 10 zeigt die folgende Tabelle die maximal erreichbare Kon-sistenzordnung s-stufiger expliziter Runge-Kutta-Verfahren

s 1 2 3 4 5 6 7 8 9 10p 1 2 3 4 4 5 6 6 7 8

(6.2.3.7) Definition: Das klassische Runge-Kutta-Verfahren ist das 4-stufigeexplizite Runge-Kutta-Verfahren mit dem Butcher Schema

Page 93: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

90 6 Gewöhnliche Di!erentialgleichungen

12

12

12 0 1

2

1 0 0 1

16

13

13

16

Das explizite Euler Verfahren gestattet eine asymptotische Entwicklungdes globalen Diskretisierungsfehler nach Potenzen der Schrittweite h.Asymptotische Entwicklungen werden in Verbindung mit Extrapolation zurGewinnung von Approximationen höherer Ordnung herangezogen (Extrapo-lationsverfahren). Die Di!erenz zwischen Approximationen niedrigerer undhöherer Ordnung kann als Indikator für den globalen Diskretisierungsfehlerdienen und im Rahmen einer Ordnungs- und Schrittweitensteuerung einge-setzt werden. Dieses gilt auch für sogenannte eingebettete Runge-Kutta-Verfahren unterschiedlicher Ordnung. Für Einzelheiten verweisen wir auf Fre-und und Hoppe (2008).

6.3 Mehrschrittverfahren

Mehrschrittverfahren approximieren die Lösung des Anfangswertproblems(6.2.1.1a),(6.2.1.1b) unter Verwendung mehrerer Näherungen in Knoten deszugrundeliegenden Gitters, das wir im Folgenden zur Vereinfachung der No-tation als äquidistant mit der Schrittweite h annehmen. Sie sind von derGestalt

(6.3.1)r"

'=0

a'yh(xk+') = h3(xk; yh(xk), · · · , yh(xk+r);h)

und werden als linear bezeichnet, falls die Verfahrensfunktion 3 durch

(6.3.2) 3(xk; yh(xk), · · · , yh(xk+r);h) :=r"

'=0

b'f(xk+', yh(xk+'))

gegeben ist. Man beachte, dass es zur Realisierung von Mehrschrittverfahreneiner Anlaufrechnung bzw. Startrampe zur Berechnung von yh(x'), 1 ' - 'r! 1, bedarf, wozu meist Mehrschrittverfahren niedrigerer Schrittzahl einge-setzt werden.

Zur Herleitung der klassischen Mehrschrittverfahren gehen wir wiederumvon der Integralgleichung

Page 94: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.3 Mehrschrittverfahren 91

(6.3.3) y(xp+k)! y(xp"j) =

! xp+k

xp!j

f(x, y(x)) dx

aus, die man durch Integration von y!(x) = f(x, y(x)) erhält. Wie bei denNewton-Cotes-Formeln ersetzen wir in (6.3.3) den Integranden durch ein in-terpolierendes Polynom pq(x) mit

(i) Grad pq(x) ' q,

(ii) pq(xk) = f(xk, y(xk)), k = p, p! 1, . . . , p! q, xk := x0 + k h.

Mit Hilfe der Lagrangeschen Interpolationsformel

pq(x) =q"

i=0

f(xp"i, yp"i)Li(x), Li(x) :=q4

l=0,l (=i

x! xp"l

xp"i ! xp"l,

erhält man das lineare Mehrschrittverfahren

yh(xp+k)! yh(xp"j) =q"

i=0

f(xp"i, yh(xp"i))

! xp+k

xp!j

Li(x)dx(6.3.4)

= hq"

i=0

0qif(xp"i, yh(xp"i))

mit

(6.3.5) 0qi :=1

h

! xp+k

xp!j

Li(x)dx =

! k

"j

q4

l=0,l (=i

s + l

!i + lds, i = 0, 1, . . . , q.

Je nach Wahl von k, j und q bekommt man verschiedene Mehrschritt-verfahren.

Für k = 1, j = 0 und q = 0, 1, 2, . . . , resultieren die Verfahren vonAdams-Bashforth:

yh(xp+1) = yh(xp) + h[0q0f(xp, yh(xp))+(6.3.6)

+ 0q1f(xp"1, yh(xp"1)) + · · · + 0qqf(xp"q, yh(xp"q))]

mit 0qi :=

! 1

0

q4

l=0,l (=i

s + l

!i + lds, 0 ' i ' q.

Für k = 0, j = 1 und q = 0, 1, 2, . . . , ergeben sich die Formeln von Adams-Moulton:

yh(xp+1) = yh(xp) + h[0q0f(xp+1, yh(xp+1))+(6.3.7)

+ 0q1f(xp, yh(xp)) + · · · + 0qqf(xp+1"q, yh(xp+1"q))]

mit 0qi :=

! 0

"1

q4

l=0,l (=i

s + l

!i + lds, 0 ' i ' q,

Page 95: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

92 6 Gewöhnliche Di!erentialgleichungen

wobei wir formal p durch p + 1 ersetzt haben.Im Spezialfall q = 1 mit 010 = 011 = 1/2 erhält man die implizite

Trapezregel

(6.3.8) yh(xp+1) = yh(xp) + h/2[f(xp+1, yh(xp+1)) + f(xp, yh(xp))],

die der Approximation eines Integrals durch ein Trapez entspricht.Das Verfahren von Adams-Moulton ist ein implizites Verfahren und er-

fordert die Lösung eines nichtlinearen Gleichungssystems, zum Beispiel mitdem Newton Verfahren. Zu gegebenen yh(xp), . . . , yh(xp+1"q) kann man sicheinen guten Startwert yh(xp+1)(0) für das Newton Verfahren zum Beispielmit Hilfe des (expliziten) Verfahrens von Adams-Bashforth verscha!en. Ausdiesem Grunde bezeichnet man Verfahren wie das Verfahren von Adams-Bashforth auch als Prädiktor-Verfahren und Verfahren wie das von Adams-Moulton als Korrektor-Verfahren (die prädiktive Approximation wird durch(6.3.5) ’korrigiert’). In der Kombination spricht man von einem Prädiktor-Korrektor Verfahren.

Weitere Beispiele für Prädiktor-Verfahren sind die Verfahren von Nys-tröm, die sich aus k = 1 und j = 1 ergeben

yh(xp+1) = yh(xp"1) + h[0q0f(xp, yh(xp))+(6.3.9)

+ 0q1f(xp"1, yh(xp"1)) + · · · + 0qqf(xp"q, yh(xp"q))]

mit 0qi :=

! 1

"1

q4

l=0,l (=i

s + l

!i + lds, 0 ' i ' q.

Im Spezialfall q = 0 ist 000 =; 1"1 1ds = 2 und man erhält

(6.3.10) yh(xp+1) = yh(xp"1) + 2hf(xp, yh(xp)).

Dies ist die sogenannte Mittelpunktsregel (midpoint-rule), die der Approxi-mation eines Integrals durch „Rechtecks-Summen“ entspricht.

Die Wahl k = 0 und j = 2 liefert Korrektor-Verfahren, die als Verfahrenvon Milne bezeichnet werden.

yh(xp+1) = yh(xp"1) + h[0q0f(xp+1, yh(xp+1))+(6.3.11)

+ 0q1f(xp, yh(xp)) + · · · + 0qqf(xp+1"q, yh(xp+1"q))]

mit 0qi :=

! 0

"2

q4

l=0,l (=i

s + l

!i + lds, 0 ' i ' q.

Die Konvergenz von Mehrschrittverfahren lässt sich wie bei den Ein-schrittverfahren durch Konsistenz und Stabilität charakterisieren. Währenddie Konsistenz wiederum vermöge des lokalen Diskretisierungsfehlers erklärtist, liegen die Verhältnisse bei der Stabilität komplizierter. Die Stabilitäthängt essentiell ab von den Nullstellen des Polynoms

Page 96: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.4 Steife Di!erentialgleichungen 93

(6.3.12) /(µ) :="

j = 0rajµj ,

mit den Koe"zienten aj , 0 ' j ' r, aus (6.3.1), das als charakteristischesPolynom bezeichnet wird.

(6.3.13) Definition: Das Mehrschrittverfahren (6.3.1) genügt der Stabilitäts-bedingung, falls für jede Nullstelle $ von / gilt |$| ' 1 und jede Nullstelle mit|$| = 1 nur einfach ist.

Für eine eingehendere Betrachtung der Stabilität und die Herleitungvon Konvergenzaussagen wie auch für die Diskussion einer Ordnungs- undSchrittweitensteuerung bei Mehrschrittverfahren verweisen wir auf Freundund Hoppe (2008).

6.4 Steife Di!erentialgleichungen

Es stellt sich die Frage, wie man das Wachstumsverhalten der Lösungen vonAnfangswertproblemen und der durch numerische Integratoren gewonnenenNäherungen angemessen charakterisieren kann. Dazu betrachten wir das An-fangswertproblem

(6.4.1) y!(x) = f(y(x)) , y(x0) = y0

für ein autonomes Di!erentialgleichungssystem mit f & C1(D), D % Rn,. DasWachstumsverhalten der Lösung von (6.4.1) wird lokal, das heisst in einerUmgebung von y) & D, durch das Spektrum /(fy(y))) der Jacobimatrixfy(y)) bestimmt. Liegt das Spektrum in der linken komplexen HalbebeneC" := {z & C|Rez < 0}, so klingen die Lösungen des linearisierten Systemsy! = fy(y)) exponentiell ab.

(6.4.2) Theorem: Es sei A & Rn eine Matrix mit Re $(A) < 0 für $(A) &/(A). Dann gibt es Konstanten C - 0 und µ < 0, so dass für die Lösung desAnfangswertproblems y! = Ay, y(x0) = y0 gilt

(6.4.3) ,y(x), ' C exp(µ(x! x0)) , x - x0.

Beweis: Der Beweis erfolgt durch Orthogonaltransformation von A aufdie Schursche Normalform und rekursive Lösung des entsprechend trans-formierten Di!erentialgleichungssystems. !

Autonome Di!erentialgleichungssysteme sind a"n-kovariant in folgen-dem Sinne: Eine a"ne Transformation der abhängigen Variablen mit einernichtsingulären Matrix B & Rn#n führt auf das transformierte Anfangswert-problem

(6.4.4) y!(x) = f(y(x)) , y(x0) = By0

Page 97: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

94 6 Gewöhnliche Di!erentialgleichungen

mit f(y) := Bf(B"1y). Die Eindeutigkeit der Lösungen y von (6.4.1) und yvon (6.4.4) impliziert y = By. Andererseits erschliesst man wegen der Invari-anz des Spektrums der Jacobimatrix bezüglich Ähnlichkeitstransformationen,dass es bei diagonalisierbarem A := fy(y)) eine nichtsinguläre Matrix B gibt,sa dass BAB"1 = diag($1, · · · ,$n) mit $i & /(A), 1 ' i ' n. In Anbe-tracht der A"n-Kovarianz autonomer Di!erentialgleichungssysteme genügtes demnach, zum Studium des Wachstumsverhalten die skalare Testgleichung

(6.4.5) y!(x) = $y(x) , y(0) = 1 , $ & C

zu betrachten, deren Lösung durch y(x) = exp($x) gegeben ist.

Beispiel: Wendet man das explizite Euler-Verfahren auf die skalare Testgleichungan, so ergibt sich mit z = h! ! C

yh(xk+1) = yh(xk) + h!yh(xk) = g(z)yh(xk) , wobei g(z) := 1 + z.

Für das implizite Euler-Verfahren erhält man

yh(xk+1) = yh(xk) + h!yh(xk+1) , yh(xk+1) = g(z)yh(xk), wobei g(z) = 1/(1" z).

Schliesslich liefert die implizite Trapezregel

yh(xk+1) = yh(xk) +h2!(yh(xk) + yh(xk+1)) , yh(xk+1) = g(z)yh(xk),

wobei g(z) =1+ z

21" z

2.

Man erkennt an obigem Beispiel, dass sich numerische Integratoren in derAnwendung auf die skalare Testgleichung durch eine Funktion g(z), z = h$ &C, charakterisieren lassen, die eine Approximation der Exponentialfunktiondarstellt. Diese Funktion wird als Stabilitätsfunktion bezeichnet. Eine Min-destforderung an numerische Integratoren ist, dass die durch sie berechnetenNäherungen abklingen, wenn die Lösung exp(z) der skalaren Testgleichungein solches Verhalten zeigt. Dies führt auf den Begri! der A-Stabilität.

(6.4.6) Definition: Ein numerisches Verfahren mit der Stabilitätsfunktiong(z), z & C, heisst absolut stabil (A-stabil), falls |g(z)| < 1 für alle Re z < 0erfüllt ist.

Eine genauere Beschreibung des Verhaltens liefert das absolute Stabilitäts-gebiet, unter dem man die Menge

(6.4.7) M = {z & C<< |g(z)| < 1}

versteht: Ein Verfahren ist umso geeigneter für die Integration steifer Di!er-entialgleichungen, je grösser der Durchschnitt M(C" von M mit der linkenHalbebene C" ist. Es ist absolut stabil, falls M sogar C" enthält.

Page 98: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.4 Steife Di!erentialgleichungen 95

Beispiel: Das absolute Stabilitätsgebiet des expliziten Euler-Verfahrens ist

{z˛

˛ |1 + z| < 1},

das des impliziten Euler-Verfahrens

{z˛

˛ |1 " z| > 1},

und das der impliziten Trapezregel

{z˛

˛ |1 +z2| < |1 " z

2|}.

Das implizite Euler-Verfahren und die implizite Trapezregel sind also absolut stabil,das explizite Euler-Verfahren ist es nicht.

Eine grosse Klasse impliziter Einschrittverfahren sind s-stufige impliziteRunge-Kutta-Verfahren und Varianten davon.

(6.4.8) Definition: Ein s-stufiges implizites Runge-Kutta-Verfahren besitztbezüglich gegebener Zahlen ci,"i,0ij , 1 ' i, j ' s, die Verfahrensfunktion

3(x, y;h; f) = c1k1 + · · · + csks ,

ki = hf(x + "ih, y +s

"

j=1

0ijkj) , 1 ' i ' s.

Das zugehörige Butcher-Tableau lautet

"1 011 . . . 01s...

.... . .

"s 0s1 . . . 0s,s

c1 . . . cs

Die Berechnung der Näherungen mit einem s-stufigen impliziten Runge-Kutta-Verfahren erfordert die Lösung eines nichtlinearen Gleichungssystems.Mit ki = hf(xk + "ih, gi) erhält man(6.4.9)

Fi(g1, · · · , gs) := gi ! yh(xk)! hs

"

j=1

0ijf(xk + "ih, gj) = 0 , 1 ' i ' n.

Durch Taylorentwicklung findet man für die Jacobimatrix (#Fi/#gj)|gj=.k

mit ;k := yh(xk)

#Fi

#gj|gj=.k = 7ijI ! h0ijfy(xk + "ih, gj)|gj=.k =(6.4.10)

= 7ijI ! h0ijfy(xk, yh(xk)) + O(h2).

Vernachlässigung der Terme höherer Ordnung in (6.4.10) ergibt als Approxi-mation der Jacobimatrix mit A := fy(xk, ;k)

Page 99: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

96 6 Gewöhnliche Di!erentialgleichungen

J =

%

&&'

I ! h011A !h012A · · · !h01sA!h021A I ! h022A · · · !h02sA

. . . . . .!h0s1A !h0s2A · · · I ! h0ssA

(

))*

.

Da J |h=0 = I, ist J für hinreichend kleines h > 0 regulär. Somit bietet sichzur Lösung von (6.4.9) das vereinfachte Newton-Verfahren

J*g(#) = ! F (g(#)) , ' - 0,(6.4.11)

g(#+1) = g(#) +*g(#)

mit Startwert g(0) = (g(0)1 , · · · , g(0)

s )T , g(0)i = yh(xk), 1 ' i ' s, an.

(6.4.12) Definition: Führt man in (6.4.11) nur einen Newton-Schritt durch,so wird das resultierende Verfahren als semi-implizites Runge-Kutta-Verfahrenbezeichnet.

Der Rechenaufwand zur Berechnung von Näherungen gemäss (6.4.11)lässt sich signifikant reduzieren, wenn man nur solche Verfahren heranzieht,bei denen 0ij = 0 für i < j.

(6.4.13) Definition: Ein s-stufiges implizites Runge-Kutta-Verfahren mit0ij = 0, i < j, wird als DIRK-Verfahren (Diagonally Implicit Runge-Kutta)bezeichnet. Gilt zusätzlich 0ii = 1, 1 ' i ' s, so spricht man von einemSDIRK-Verfahren (Singly Diagonally Implicit Runge-Kutta).

Hinsichtlich der Anwendung von Mehrschrittverfahren auf steife Dif-ferentialgleichungssysteme kann man zeigen, dass es keine A-stabilen r-Schrittverfahren der Ordnung p > 2 gibt.

(6.4.14) Theorem: Ein konsistentes A-stabiles r-Schrittverfahren ist not-wendig implizit und hat eine Konsistenzordnung p ' 2 mit einem (be-tragskleinsten) Fehlerkoe"zienten c ' !1/12. Die implizite Trapezregel istdas einzige A-stabile lineare Mehrschrittverfahren mit p = 2 und c = !1/12.

Beweis: Wir verweisen auf Hairer und Wanner (1979). !

Zieht man zur Approximation von y!(x) = f(x, y(x)) in xj+r das inter-polierende Polynom pr mit pr(xj+k) = ;j+k, 0 ' k ' r, heran und verwendetdie Newtonsche Darstellung

pr(x) =r"

k=0

(!1)k

1!t

k

2

"kyh(xj+r) , t := (x! xj+r)/h,

so ergibt sich

p!r(xj+r) = h"1r"

k=0

(k"kyh(xj+r),(6.4.15)

(k = (!1)k d

dt

1!t

k

2

|t=0 , 0 ' k ' r.

Page 100: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.5 Di!erential-Algebraische Gleichungen 97

(6.4.16) Definition: Mit (k, 0 ' k ' r, aus (6.4.15) werden die durch

(6.4.17)r"

k=0

(k"kyh(xj+r) = hf(xj+r, yh(j+r)) , j - 0,

gegebenen linearen r-Schrittverfahren als BDF-Verfahren (Backward Dif-ferentiation Formula) bezeichnet. Für r = 1 ergibt sich das implizite Euler-Verfahren.

Für r = 1 und r = 2 sind die BDF-Verfahren A-stabil. Für r - 3 istdas Stabilitätsgebiet in C" enthalten. Von Widlund wurde der Begri! derA(")-Stabilität eingeführt.

(6.4.18) Definition: Ein Verfahren mit dem Stabilitätsgebiet M heisst A(")-stabil, falls

M = {z & C" | |arg(z)! .| < "}

Die folgende Tabelle enthält die Werte von " = "r für die BDF-Verfahren(6.4.17).

r 1 2 3 4 5 6"r 90o 90o 88o 73o 51o 18o

6.5 Di!erential-Algebraische Gleichungen

Wir beschränken uns im Folgenden auf lineare Systeme (6.0.6) mit konstan-ten Matrizen und betrachten für A,B & Rn#n sowie x0 & R, y0 & Rn dasAnfangswertproblem

(6.5.1) Ay!(x) = By(x) + f(x) , y(x0) = y0.

Wir unterscheiden die folgenden zwei Fälle:

1.Fall: A regulär, B beliebigObwohl das System formal gemäss y! = A"1By + f in explizite Form

gebracht werden kann, ist dies in der Praxis im Fall grosser dünn besetzterMatrizen A und B nicht sinnvoll, da A"1B in der Regel eine voll besetzteMatrix sein wird, die aufwändig zu berechnen und zu speichern ist.

2.Fall: A singulär, B beliebigWir beschränken uns auf solche Paare (A,B) von Matrizen, die zu

einer eindeutigen Lösung des Anfangswertproblems führen können. Derar-tige Paare lassen sich mit Hilfe regulärer Matrizenbüschel charakterisieren(siehe zum Beispiel Gantmacher (1999).)

Page 101: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

98 6 Gewöhnliche Di!erentialgleichungen

(6.5.2) Definition: Es seien A,B & Rn#n. Dann wird $A + B,$ & C, einMatrizenbüschel genannt. Gibt es ein $ & C mit det($A + B) *= 0, so sprichtman von einem regulären Matrizenbüschel.

(6.5.3) Bemerkung: Im Falle eines regulären Matrizenbüschels ist det($A+B) ein nichtverschindendes Polynom in $ vom Grad ' n. Es gibt dann höchs-tens n Zahlen $ & C, nämlich die Eigenwerte des verallgemeinerten Eigen-wertproblems Bx = !$Ax, für die $A + B singulär ist.

Die Bedeutung regulärer Matrizenbüschel bezüglich der Lösung des An-fangswertproblems liegt in der Transformation auf die sogenannte Weier-strasssche Normalform.

(6.5.4) Theorem: Für A,B & Rn#n und $ & C sei $A + b ein reguläresMatrizenbüschel. Dann gibt es nichtsinguläre Matrizen P,Q & Rn#n, so dass

(6.5.5) PAQ =

=

I 00 N

>

, PBQ =

=

C 00 I

>

.

Dabei ist N = blockdiag(N1, · · · , Nk) eine Blockdiagonalmatrix mit Diago-nalblöcken Ni & Rni#ni , 1 ' i ' k, der Gestalt

Ni =

?

@@@@A

0 1· ·

· ·0 1

0

B

CCCCD

,

und C kann ohne Einschränkung in Jordanscher Normalform angenommenwerden.

Beweis: Nach Bemerkung 6.5.3 gibt es ein c & C mit det(cA + B) *= 0. DieMultiplikation von

$A + B = cA + ($! c)A + B

von links mit (cA + B)"1 liefert

(cA + B)"1($A + B) = I + ($! c)(cA + B)"1A.

Die Matrix (cA + B)"1A kann durch Transformation mit einer regulärenMatrix T & Rn#n gemäss

T (cA + B)"1($A + B)T"1 = I + ($! c)T (cA + B)"1AT"1 =(6.5.6)

=

=

I 00 I

>

+ ($! c)

=

J1 00 J2

>

auf Jordansche Normalform gebracht werden, wobei J1 die zu den von Nullverschiedenen Eigenwerten und J2 die zum Eigenwert Null gehörenden Jor-danblöcke enthält. Damit sind J1 und I ! cJ2 invertierbar, und die Multi-plikation von (6.5.6) mit blockdiag(J"1

1 , (I ! cJ2)"1) ergibt

Page 102: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.5 Di!erential-Algebraische Gleichungen 99=

J"11 (I ! cJ1) 0

0 I

>

+ $

=

I 00 (I ! cJ2)"1J2.

>

Man erhält die gewünschte Darstellung (6.5.5) durch Transformation vonJ"1

1 (I!cJ!1) und (I!cJ2)"1J2 auf Jordansche Normalform unter Berück-sichtigung der Tatsache, dass alle Eigenwerte von (I ! cJ2)"1J2 gleich Nullsind. !

In der Anwendung von (6.5.5) erhält man aus (6.5.1) durch Multiplikationvon links mit P das entkoppelte System

Cu!(x) = u(x) + p(x),(6.5.7a)

Nv!(x) = v(x) + q(x),(6.5.7b)

wobei 1

u(x)v(x)

2

:= Q"1y(x) ,

1

p(x)q(x)

2

:= P"1f(x)

Das Teilsystem (6.5.7a) hat die Struktur von Fall 1 und ist für beliebige An-fangswerte y0 eindeutig lösbar. Dies gilt nicht für das Teilsystem (6.5.7b). InAbhängigkeit vom Index der nilpotenten Matrix N und einer entsprechendenGlattheitsvoraussetzung an die Funktion f müssen die Anfangswerte y0 einerzusätzlichen Konsistenzbedingung genügen.

(6.5.8) Definition: Mit dem Index einer nilpotenten Matrix N & Rn#n wirddie kleinste Zahl k & N bezeichnet, für die Nk = 0 erfüllt ist.

Nehmen wir nun k als den Index der nilpotenten Matrix N aus (6.5.7b)an und setzen f als (k ! 1)-mal stetig di!erenzierbar voraus, so erhalten wiraus (6.5.7b) durch sukzessive Di!erentiation

v(x) = !q(x) /Nv!(x)(6.5.9)

= !(q(x) /Nq!(x)) + N2v!!(x)

...

= !(q(x) + Nq!(x) + · · · + Nk"1q(k"1)(x)).

Wegen Nk = 0 bricht die Auflösungskette ab. Man sieht, dass v(x) alleindurch q(x) und die Ableitungen q(j)(x), 1 ' j ' k ! 1, bestimmt ist. Weitersieht man anhand der Struktur von N , dass nicht alle Komponenten von vdi!erenzierbar sein müssen. So wird zum Beispiel v1 schon bei der Berechnungvon Nv! nicht mehr benötigt. Andererseits ist die Wahl der Anfangswertedurch

(6.5.10) v(x0) = !q(x0)!Nq!(x0)! · · ·!Nk"1q(k"1)(x0)

eingeschränkt. Es treten also bei impliziten Systemen gewöhnlicher Di!er-entialgleichungen im Vergleich zu expliziten Systemen zwei grundsätzlicheUnterschiede auf:

Page 103: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

100 6 Gewöhnliche Di!erentialgleichungen

– Der Index der Nilpotenz der Matrix N aus der Weierstrassschen Normal-form (6.5.5) bestimmt die Glattheitsvoraussetzung an die Funktion f .

– Nicht alle Komponenten des Anfangswertes y0 sind frei wählbar. Die Lös-barkeit des Anfangswertproblems erfordert das Erfülltsein der Konsis-tenzbedingung (6.5.10).

Das Konzept des Index lässt sich vom linearen Fall auf nichtlineare Sys-teme gewöhnlicher Di!erentialgleichungen in impliziter Form verallgemei-nern. Dazu wird das System so oft di!erenziert, bis es als explizite Di!er-entialgleichung formuliert werden kann. Die Anzahl der erforderlichen Di!er-entiationen wird nach Gear (1988) als Di!erentiationsindex bezeichnet.

(6.5.11) Definition: Für F : R # Rn # Rn $ Rn und y : R $ Rn be-trachten wir unter der Annahme genügender Di!erenzierbarkeit von F undy das Gleichungssystem

F (x, y, y!) =0(6.5.12)d

dxF (x, y, y!) =

#F

#y! y!! +

#F

#yy! +

#F

#x= 0

...ds

dxsF (x, y, y!) =

#sF

#(y!)sy(s+1) + · · · +

#F

#yy! +

#F

#x= 0

als ein Gleichungssystem in den abhängigen Variablen y!, y(2), · · · , y(s+1). Diekleinste Zahl s & N, für die (6.5.12) nach y! aufgelöst werden kann, wirdals Di!erentiationsindex ' bezeichnet. Falls #F/#y! regulär ist, wird ' = 0gesetzt.

(6.5.13) Bemerkung: Betrachten wir die linearen Systeme gewöhnlicher Dif-ferentialgleichungen in impliziter Form (6.5.1) als Spezialfall, so stimmt derDi!erentiationsindex ' mit dem Index der Nilpotenz der Matrix N aus derWeierstrassschen Normalform (6.5.5) überein.

Da jede Lösung y von (6.5.1) das System (6.5.12) erfüllen muss, ist auchhier die Wahl der Anfangswerte y0 eingeschränkt. Hat (6.5.1) den Di!eren-tiationsindex ', so werden die Anfangswerte konsistent genannt, falls

F (x, y, y!)|x=x0,y=y0 = 0(6.5.14)...

d#

dx#F (x, y, y!)|x=x0,y=y0 = 0.

In der Praxis treten oft semi-explizite Systeme von Di!erentialgleichun-gen auf, bei denen die abhängigen Variablen a priori getrennt sind in di!er-entielle und algebraische Variablen. Man nennt sie deshalb auch di!erential-algebraische Gleichungen.

Page 104: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.5 Di!erential-Algebraische Gleichungen 101

(6.5.15) Definition: Es seien F1 : R # Rn # Rm # Rn $ Rn mit regulärerJacobi-Matrix #F1/#y! und F2 : R# Rn # Rm $ Rm. Dann heisst

F1(x, y(x), z(x), y!(x)) = 0,(6.5.16a)

F2(x, y(x), z(x)) = 0(6.5.16b)

ein System di!erential-algebraischer Gleichungen.

Da #F1/#y! regulär ist, genügt zur Bestimmung des Index ' die Di!er-entiation des algebraischen Teilsystems (6.5.16b). Als Beispiele betrachtenwir verschiedene di!erential-algebraische Gleichungssysteme von niedrigemIndex.

Beispiel: (Index-1 System) Wir betrachten das di!erential-algebraische System

y#(x) = f(y(x), z(x)),(6.5.17a)

0 = g(y(x), z(x))(6.5.17b)

unter der Voraussetzung, dass &g/&z invertierbar ist. Durch Di!erentiation nach xerhält man aus (6.5.17b)

0 =&g&y

y# +&g&z

z#,

und folglich durch Auflösen nach z#

z# = "(&g&z

)"1 &g&y

y# = "(&g&z

)"1 &g&y

f(x, y).

Somit gilt ' = 1. Die Anfangswerte (y(x0), z(x0))T sind konsistent, falls

g(y(x0), z(x0)) = 0.

Beispiel: (Index-2 System) Für das di!erential-algebraische System

y#(x) = f(y(x), z(x)),(6.5.18a)

0 = g(y(x))(6.5.18b)

erhält man durch Di!erentiation von (6.5.18b)

(6.5.19) 0 =&g&y

y# =&g&y

f(y, z).

Unter der Annahme, dass #g#y

#f#z

invertierbar ist, stellt (6.5.18a),(6.5.19) ein Index-1System dar. Folglich besitzt das System (6.5.18a),(6.5.18b) den Di!erentiations-index ' = 2. Die Anfangswerte sind konsistent, falls

g(z(x0)) = 0 ,&g&y

f(y, z)|x=x0 = 0.

Page 105: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

102 6 Gewöhnliche Di!erentialgleichungen

Beispiel: (Index-3 System) Das di!erential-algebraische System

y#(x) = f(y(x), z(x)),(6.5.20a)

z#(x) = k(y(x), z(x), w(x)),(6.5.20b)

0 = g(y(x))(6.5.20c)

ist unter der Voraussetzung der Invertierbarkeit von #g#y

#f#z

#k#w

ein System vom Di!er-entiationsindex ' = 3. Der Beweis und die Spezifikation der Konsistenzbedingungenbezüglich der Anfangswerte sind Inhalt einer Übungsaufgabe.

Die numerischen Verfahren zur Integration steifer Di!erentialgleichungs-systeme sind nicht direkt auf di!erential-algebraische Gleichungen anwend-bar, sondern bedürfen geeigneter Modifikationen. Wir stellen in diesem Ab-schnitt drei Verfahren zur numerischen Lösung di!erential-algebraischer Gle-ichungen vor:

• Eine auf Petzold (1982) zurückgehende Modifikation der BDF-Verfahren,realisiert im FORTRAN-Programm DASSL,

• ein von Deuflhard Hairer und Zugck (1987) stammendes, auf semi-impliziterExtrapolation basierendes Verfahren, das als FORTRAN-Programm LIMEXzur Verfügung steht, und

• ein von Hairer und Wanner (1996) entwickeltes und ein dreistufiges im-plizites Runge-Kutta-Verfahren verwendendes Verfahren, das im FORTRAN-Programm RADAU5 implementiert wurde.

Das letztgenannte Verfahren ist dabei das einzige unter den drei genanntenVerfahren, das direkt auf di!erential-algebraische Gleichungen mit einemIndex grösser als Eins angewendet werden kann. Im Falle der beiden erst-genannten Verfahren müssen bei einem Index grösser als Eins Technikenzur Indexreduktion herangezogen werden. Wir beschreiben die Verfahren inder Anwendung auf ein Anfangswertproblem für ein quasilineares Systemdi!erential-algebraischer Gleichungen von der Gestalt

(6.5.21) B(y(x))y!(x) = f(y(x)) , y(x0) = y0

mit Di!erentiationsindex ' = 1.Das BDF-Verfahren ergibt dann mit dem in xj+k gemäss pr(xj+k) =

;j+k, 0 ' k ' r, interpolierenden Polynom pr das nichtlineare Gleichungs-system

(6.5.22) F (;j+r) := B(;j+r)p!r(xj+r)! f(;j+r) = 0.

Zur Lösung von (6.5.22) mittels eines vereinfachten Newton-Verfahrens führtman formal ein Prädiktorpolynom qr"1 mit qr"1(xj+k) = ;j+k, 0 ' k ' r!1,

ein, dessen Wert ;(0)j+r = qr"1(xj+r) als Prädiktor für ;j+r dient. Man hatdann die Darstellung

Page 106: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.5 Di!erential-Algebraische Gleichungen 103

(6.5.23) pr(x)! qr"1(x) = br(x)(;j+r ! ;(0)j+r)

mit einem Polynom br, das durch br(xj+k) = 0, 0 ' k ' r!1 und br(xj+k) =1 eindeutig bestimmt ist. Di!erentiation in (6.5.23) liefert

p!r(x) = q!r"1(x) + b!r(x)(;j+r ! ;(0)j+r),

so dass die nichtlineare Abbildung F in (6.5.22) in der Form

F (y) = B(y)(q!r"1(xj+r) + b!r(xj+r)(y ! ;(0)j+r)! f(y)

geschrieben werden kann. Das vereinfachte Newton-Verfahren verwendet dieJacobimatrix J = DF (;(0)j+r) und lautet

J*;(#)j+r = !F (;(#)j+r) , ' - 0,(6.5.24)

;(#+1)j+r = ;(#)j+r +*;(#)j+r.

In Kombination mit einer Schrittweiten- und Ordnungssteuerung wird in(6.5.24) ein Dämpfungsfaktor $ verwendet, der gemäss $ = 2halt/(h + halt)von der aktuellen Schrittweite h und der vorhergehenden Schrittweite halt ab-hängt. Für Einzelheiten verweisen wir auf Ascher und Petzold (1998), Gearund Petzold (1984) sowie Petzold (1982).

Die Anwendung des semi-impliziten Euler-Verfahrens (implizites Euler-Verfahren mit nur einem Newton Schritt) auf (6.5.21) ergibt

(6.5.25) B(;i+1)(;i+1 ! ;i) = hf(;i+1).

Taylorentwicklung um ;i liefert in erster Näherung

B(;i+1).= B(;i) + By(;i)(;i+1)! ;i) 5 B(;i) + hBy(y)y!|y(x0),(6.5.26)

f(;i+1).= f(;i) + fy(;i)(;i+1 ! ;i) 5 f(;i) + fy(y)|y(x0).

Mit A := (fy(y)!By(y)y!)|y(x0) erhält man die vereinfachten Gleichungen

(6.5.27) (B(;i)! hA)(;i+1 ! ;i) = hf(;i).

Ist y!(x0) nicht verfügbar, so ersetzt man A zunächst durch A0 := fy(y(x0))und berechnet y!(x0) später durch Extrapolation unter Verwendung vonh"1(;' ! ;'"1). Das Verfahren (6.5.25) kann zur h-Extrapolation genutztund mit einer Ordnungs- und Schrittweitensteuerung kombiniert werden. FürEinzelheiten sowie eine Beschreibung des FORTRAN-Programms LIMEXverweisen wir auf Deuflhard und Nowak (1987).

Das von Hairer und Wanner entwickelte und in RADAU5 implementiertedreistufige implizite Runge-Kutta-Verfahren ist für di!erential-algebraischeGleichungen der Gestalt

(6.5.28) My!(x) = f(x, y(x))

Page 107: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

104 6 Gewöhnliche Di!erentialgleichungen

mit einer (singulären) Matrix M & Rn#n konzipiert. Die Anwendbarkeit auf(6.5.21) wird durch eine Transformation von (6.5.21) auf die separierte Form

y! = z , 0 = B(y)z ! f(y)

gewährleistet. Als Basisverfahren zur Lösung von (6.5.28) dient das dreistu-fige implizite Runge-Kutta-Verfahren (Radau-Verfahren)

M;k+1 = M;k + h3"

i=1

cif(xk + "ih, gi),(6.5.29)

Mgi = M;k + h3"

j=1

0ijf(xk + "jh, gj) , 1 ' i ' 3,

mit dem Butcher-Tableau

4"+

610

88"7+

6360

296"169+

61800

"2+3+

6225

4++

610

296+169+

61800

88+7+

6360

"2"3+

6225

1 16"+

636

16++

636

19

16"+

636

16++

636

19

Zur Vermeidung von Rundungsfehlern rechnet man bezüglich der Variablenzi := gi ! ;k, 1 ' i ' 3, womit (6.5.29) in

M;k+1 = M;k + h3"

i=1

cif(xk + "ih, zi + ;k),(6.5.30)

Mzi = M;k + h3"

j=1

0ijf(xk + "jh, zj + ;k) , 1 ' i ' 3,

übergeht. Da die Matrix B = (0ij)3i,j=1 invertierbar ist, lässt sich die zweiteGleichung in (6.5.30) nach f(xk +"ih, zi +;k) auflösen. Setzt man das Resul-tat in die erste Gleichung ein und nutzt ci = 03i, 1 ' i ' 3, aus, so vereinfachtsich die erste Gleichung zu

;k+1 = ;k + z3.

Es bleibt somit im Wesentlichen das nichtlineare Gleichungssystem

F (z) = 0 , z = (z1, z2, z3)T

Page 108: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

6.5 Di!erential-Algebraische Gleichungen 105

mit

Fi(z1, z2, z3) := Mzi !M;k + h3"

j=1

0ijf(xk + "jh, zj + ;k), 1 ' i ' 3,

zu lösen. Die Jacobimatrix DF (z) ist eine 3#3 Blockmatrix mit den Einträgen

(DF (z))ij = 7ijM ! h0ijfy(xk + "ih, zj + ;k) , 1 ' i, j ' 3.

Die Verwendung der Approximation

fy(xk + "ih, zj + ;k) 5 J := fy(xk, ;k)

führt auf das vereinfachte Newton-Verfahren#

(I 6M)! h(B 6 J)$

*z(#) = ! (I 6M)z(#) + h(B 6 I)F (z(#) , ' - 0,

z(#+1) = z(#) +*z(#).

Zur Schrittweitensteuerung wird ein eingebettetes Verfahren niedrigerer Ord-nung als das Radau-Verfahren (6.5.29) benutzt. Für Einzelheiten verweisenwir auf Hairer und Wanner (1996).

Page 109: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester
Page 110: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7 Partielle Di!erentialgleichungen

7.0 Einleitung

Partielle Di!erentialgleichungen sind Gleichungen, in denen eine auf einemGebiet& % Rd definierte Funktion u : & $ R und ihre partiellen Ableitungen

D"u :=#|"|u

#x"11 · · · #x"d

d

, " := ("1, · · · ,"d)T & N

d0,

bis zu einer gewissen Ordnung |"| :=/d

i=1 "i ' m,m & N, auftreten. Istnm := card{" & Nd

0 | |"| ' m}, und F : & # Rnm $ R eine gegebeneFunktion, so wird

(7.0.1) F (x, (D"u(x))|"|%m) = 0 , x & &,

als eine partielle Di!erentialgleichung m-ter Ordnung in u bezeichnet. Wirbeschränken uns hier auf lineare partielle Di!erentialgleichungen m-ter Ord-nung, i.e., solche, bei denen die Funktion F in (7.0.1) eine a"ne Funktion inD"u, |"| ' m, ist. Insbesondere besitzt eine lineare partielle Di!erentialglei-chung m-ter Ordnung mit gegebenen Funktionen a" : Rd $ R, |"| ' m, undf : Rd $ R die Darstellung

(7.0.2) Lu := L(·, D)u = f in &,

wobei L(·, D) den durch

(7.0.3) L(x,D)u :="

|"|%m

a"(x) D" , x & &,

gegebenen linearen partiellen Di!erentialoperator m-ter Ordnung bezeichnet.Der Di!erentialoperator

(7.0.4) LH(·, D)u :="

|"|=m

a"(·) D"

wird Hauptteil von L(·, D) genannt.

Page 111: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

108 7 Partielle Di!erentialgleichungen

Die Klassifizierung linearer partieller Di!erentialgleichungen m-ter Ord-nung erfolgt anhand ihres Symbols. Das Symbol des durch (7.0.3) gegebenenDi!erentialoperators ist

(7.0.5) L(x, i5) :="

|"|%m

a"(x)(i5)" , 5" :=d4

#=1

5"!# ,

wobei i die imaginäre Einheit darstellt. Wir bezeichnen

(7.0.6) LH(x, i5) :="

|"|=m

a"(x)(i5)"

als den Hauptteil des Symbols.Wir beschränken uns im folgenden auf den Fall m = 2. Mit stetigen

Funktionen aij : Rd $ R, 1 ' i, j ' d, und bi : Rd $ R sowie c : Rd $ R

lässt sich dann eine lineare partielle Di!erentialgleichung 2.Ordnung in derForm

(7.0.7) Lu =d"

i,j=1

aij uxixj +d"

i=1

bi uxi + c u = f

mit uxi := #u/#xi und uxixj := #2u/#xi#xj darstellen, wobei der HauptteilLH(x, i5) des zugeordneten Symbols L(x, i5) durch

(7.0.8) LH(x, i5) = !d"

i,j=1

aij(x) 5i5j

gegeben ist. Definieren wir A(x) & Rd#d als die Matrix

(7.0.9) A(x) := (!aij(x))di,j=1 ,

so ist o!ensichtlich der Hauptteil LH(x, i5) wegen

LH(x, i5) = 5T A(x)5

eine quadratische Form in 5.Lineare partielle Di!erentialgleichungen zweiter Ordnung werden ent-

sprechend der Eigenschaften ihres Hauptteils als quadratische Form in 5klassifiziert.

Die lineare partielle Di!erentialgleichung zweiter Ordnung (7.0.7) heisstelliptisch in x & Rd, falls alle Eigenwerte der Matrix A(x) aus (7.0.9) das-selbe Vorzeichen haben. Sie wird als parabolisch in x & Rd bezeichnet, fallsA(x) singulär ist. Sie wird hyperbolisch in x & Rd genannt, falls alle bisauf einen Eigenwert von A(x) dasselbe Vorzeichen haben und ein Eigenwertdas entgegengesetzte Vorzeichen aufweist. Dabei werden die Eigenwerte ihrer

Page 112: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.0 Einleitung 109

Vielfachheit nach gezählt.Die lineare partielle Di!erentialgleichung (7.0.7) heisst elliptisch (parabolisch,hyperbolisch) in einem Gebiet & 7 Rd, falls sie für alle x & & elliptisch(parabolisch, hyperbolisch) ist.

Der Hauptteil linearer partieller Di!erentialgleichung zweiter Ordnung(7.0.7) vom gleichen Typ lässt sich durch eine Hauptachsentransformationauf kanonische Form transformieren.

Die kanonische Form einer elliptischen Di!erentialgleichung zweiter Or-dung ist die Poisson-Gleichung

(7.0.10) ! *u = f

mit dem Laplace-Operator

(7.0.11) * :=d"

i=1

#2

#x2i

.

Die Poisson-Gleichung beschreibt stationäre Gleichgewichtszustände, zumBeispiel die Auslenkung einer elastischen Membran.Für verschwindende rechte Seite, i.e., f 8 0, nennt man (7.0.10) auch dieLaplace-Gleichung. Das Symbol von !* ist

/di=1 5

2i . Somit besitzt A = A(x)

den d-fachen Eigenwert +1.Zur Gewährleistung der Eindeutigkeit einer Lösung bedarf es der Spezifika-tion von Randbedingungen auf dem Rand , = #& des Rechengebietes &.Diese können in Gestalt sogenannter Dirichlet Randbedingungen

u(x) = ud(x) , x & ,,

Neumann Randbedingungen

' ·"u(x) = uN (x) , x & ,,

mit ' als dem nach aussen gerichteten Normaleneinheitsvektor auf , , oderRobin Randbedingungen

' ·"u(x) + a(x)u(x) = uR(x) , x & ,,

vorliegen. Denkbar ist auch, dass auf verschiedenen Teilen des Randes ver-schiedene Randbegingungen vom obigen Typ vorgeschrieben sind.In Verbindung mit einer Randbedingung spricht man dann von einem ellip-tischen Randwertproblem.

Die kanonische Form einer linearen parabolischen Di!erentialgleichungzweiter Ordnung ist die Wärmeleitungsgleichung

(7.0.12) ux1 !d"

i=2

uxixi = f

Page 113: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

110 7 Partielle Di!erentialgleichungen

mit dem Symbol i51 +/d

i=2 52i . In diesem Fall weist A = A(x) den einfachen

Eigenwert 0 und den (d! 1)-fachen Eigenwert +1 auf.Die Wärmeleitungsgleichung haben wir bereits in Kapitel 1 kennen gelernt.Sie beschreibt die zeitliche und räumliche Temperaturverteilung in einerwärmeleitenden Substanz.Die Eindeutigkeit einer Lösung erfordert neben der Spezifikation von Randbe-dingungen bezüglich der xi-Variablen, 2 ' i ' d, noch die Angabe einerAnfangsbedingung in x1. Man spricht dann auch von einem parabolischenAnfangs- Randwertproblem.

Die kanonische Form einer linearen hyperbolischen Di!erentialgleichungzweiter Ordnung ist die Wellengleichung

(7.0.13) ux1x1 !d"

i=2

uxixi = f .

Das zugehörige Symbol ist !521 +/d

i=2 52i . Die Matrix A = A(x) hat den

einfachen Eigenwert !1 und den (d! 1)-fachen Eigenwert +1.Die Bezeichnung ’Wellengleichung’ rührt von daher, dass sie die zeitliche undräumliche Ausbreitung akustischer Wellen beschreibt.Neben Randbedingungen in den xi-Variablen, 2 ' i ' d, werden zweiAnfangsbedingungen in der x1-Variablen benötigt (hyperbolisches Anfangs-Randwertproblem).

Zur numerischen Lösung von elliptischen Randwertproblemen und vonparabolischen/hyperbolischen Anfangs- Randwertaufgaben betrachten wirhier nur Di!erenzenverfahren. Die zugrundeliegende Idee besteht in der Ap-proximation der partiellen Ableitungen durch geeignete Di!erenzenquotien-ten bezüglich in Raum und Zeit gegebener Gitterpunktmengen. Di!erenzen-verfahren für elliptische Randwertprobleme werden in Kapitel 7.1 behandelt,während Kapitel 7.2 parabolischen und Kapitel 7.3 hyperbolischen Anfangs-Randwertaufgaben gewidmet sind.

Für andere numerische Verfahren wie die Methode der finiten Elementeverweisen wir auf Freund und Hoppe (2008).

7.1 Elliptische Di!erentialgleichungen

Wir betrachten das folgende Randwertproblem für eine lineare elliptische Dif-ferentialgleichung zweiter Ordnung

Lu := !d"

i,j=1

aijuxixj +d"

i=1

biuxi + cu = f in & ,(7.1.1a)

u = uD on , .(7.1.1b)

Page 114: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 111

Dabei seien& % Rd ein beschränktes Gebiet mit Rand , = #& und f & C(&)sowie uD & C(, ). Wir setzen voraus, dass a = (aij)d

i,j=1 mit aij & C(&),1 ' i, j ' d, eine symmetrische, matrixwertige Funktion (aij)d

i,j=1 darstellt,die in & gleichmässig positiv definit ist, i.e.,

(7.1.2)d"

i,j=1

aij(x)5i5j - "|5|2 , x & & , 5 & Rd , " > 0 ,

und dass bi & C(&), 1 ' i ' d, sowie c & C(&) mit c(x) - 0, x & &.Zur numerischen Lösung von (7.1.1a)-(7.1.1b) verwenden wir Di!erenzen-

verfahren auf der Grundlage einer Approximation der partiellen Ableitungenin (7.1.1a) durch Di!erenzenquotienten. Dazu nehmen wir zunächst das Ge-biet & als einen d-dimensionalen Würfel an.

(7.1.3) Definition: Es seien & := (a, b)d mit a, b & R, a < b, und h :=(b! a)/(N + 1), N & N. Dann wird

&h := {(xi1 , · · · , xid)T | xij = a + ijh , 0 ' ij ' N + 1 , 1 ' j ' d}

Gitterpunktmenge zur Schrittweite h oder auch uniformes Gitter bzw. äquidis-tantes Gitter genannt. Dabei heisst ein Gitter uniform bzw. äquidistant, wennseine Gitterpunkte den gleichen Abstand voneinander besitzen.Wir bezeichnen ferner &h := &h(& als die Menge der inneren Gitterpunkteund ,h := &h \&h als die Menge der Randgitterpunkte.

Zur Approximation der partiellen Ableitungen uxi , uxixi , 1 ' i ' d, be-trachten wir die folgenden Di!erenzenquotienten:

(7.1.4) Definition: Für u : & $ R und 1 ' i ' d werden die Di!erenzen-quotienten

D+h,iu(x) := h"1(u(x + hei)! u(x)) ,

D"h,iu(x) := h"1(u(x)! u(x! hei)) ,

D1h,iu(x) := (2h)"1(u(x + hei)! u(x! hei))

mit ei als dem i-ten Einheitsvektor in Rd als vorwärtsgenommene, rück-wärtsgenommene und zentrale Di!erenzenquotienten für die ersten partiellenAbleitungen uxi , 1 ' i ' d, bezeichnet. Die durch

D2h,i,iu(x) := h"2(u(x + hei)! 2u(x) + u(xi ! hei))

gegebenen Di!erenzenquotienten heissen zentrale Di!erenzenquotienten fürdie zweiten Ableitungen uxixi , 1 ' i ' d.

Man zeigt leicht durch Taylorentwicklung, dass für u & C2(&) die Dif-ferenzenquotienten D±

h,iu eine Approximation von uxi der Ordnung O(h)

Page 115: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

112 7 Partielle Di!erentialgleichungen

liefern, wohingegen für u & C4(&) die zentralen Di!erenzenquotienten D1h,iu

bzw. D2h,iu eine Approximation von uxi bzw. uxixi der Ordnung O(h2) be-

reitstellen.Zur Approximation der gemischten zweiten partiellen Ableitungen uxixj , 1 'i *= j ' d, in x & &h ist es naheliegend, eine gewichtete Summe von Funk-tionswerten von u in x und benachbarten Gitterpunkten in der (xi, xj)-Ebenezu verwenden. Dies führt auf den Ansatz

(7.1.5) D2h,i,ju(x) =

"

|"|,|-|%1

)",-u(x + "hei + 0hej)

mit )",- & R , ",0 & Z. Fordern wir bei hinreichender Glattheit von u,dass dieser Di!erenzenquotient die zweiten partiellen Ableitungen von derOrdnung O(h2) approximiert, so ergeben sich vermöge Taylorentwicklungmit 1i & R, 1 ' i ' 3, die Bedingungsgleichungen

#0,0 = " (h2)"1(1 ,

(7.1.6)

#$,% = (2h2)"1((1 " sgn())(2 " sgn(*)(3) , |)| + |*| = 1 ,

#$,% = (4h2)"1(sgn()*) " (1 + sgn())(2 + sgn(*)(3) , |)| = |*| = 1 .

Es gibt also mehrere Möglichkeiten zur Appoximation der gemischten zweitenpartiellen Ableitungen von der Ordnung O(h2). Welche dieser Möglichkeitenbei der finite Di!erenzenapproximation von (7.1.1a)-(7.1.1b) aus numerischenGründen zum Einsatz gelangt, wird später diskutiert werden.Ein probates Mittel zur Charakterisierung von Di!erenzenquotienten sindDi!erenzensterne. (vgl. Fig. 23). Dabei bezeichnen die durch • gekennzeich-neten Punkte die in dem Di!erenzenquotienten verwendeten Gitterpunkteund die mit einem Punkt assoziierte Zahl das Gewicht, mit dem der Wertder Funktion in dem betre!enden Punkt in die Di!erenzenapproximationeingeht.

)"1,1

)"1,0

)"1,"1

)0,1 )1,1

)0,0 )1,0

)0,"1 )1,"1

Fig. 23. Di!erenzenstern für gemischte zweite partielle Ableitungen

Häufig verwendet man auch die Charakterisierung

Page 116: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 113

(7.1.7)

?

A

)"1,1 )0,1 )1,1

)"1,0 )0,0 )1,0

)"1,"1 )0,"1 )1,"1

B

D .

Der durch (7.1.5) gegebene Di!erenzenquotient ist zugleich ein Beispiel füreine kompakte Di!erenzenapproximation. Dabei nennt man eine Di!eren-zenapproximation

"

|"|%m

)"u(x + "h) , " & Zd , m & N ,

und den dazugehörigen Di!erenzenstern kompakt, falls ausser dem Gitter-punkt x nur seine unmittelbaren Nachbarn in die Di!erenzenapproximationeingehen, i.e., wenn m = 1 ist.

Ein wichtiger Spezialfall von (7.1.1a) ist die Poisson-Gleichung, i.e., A =

!* mit dem Laplace-Operator* =/d

i=1 uxixi . In Hinblick auf die Definitionder zentralen Di!erenzenquotienten für die zweiten Ableitungen uxixi liegtdie folgende Di!erenzenapproximation des Laplace-Operators nahe:

(7.1.8) Definition: Der mit D2h,i,i aus Definition (7.1.4) durch

*h :=d"

i=1

D2h,i,i

gegebene Di!erenzenoperator wird als diskreter Laplace-Operator bezeichnet.Für u & C4(&) ist *hu eine Approximation von *u der Ordnung O(h2).Im Fall d = 2 ist der dem Di!erenzenoperator !*h zugeordnete Di!erenzen-stern in Fig. 24 dargestellt. Da genau fünf Gitterpunkte in die Di!erenzenap-proximation eingehen, wird er auch Fünf-Punkte-Di!erenzenstern genannt.

! 1h2

4h2 ! 1

h2

! 1h2

! 1h2 ! 1

3h2

! 13h2

! 13h2

! 13h2 ! 1

3h2

83h2 ! 1

3h2

! 13h2 ! 1

3h2

Fig. 24. Fünf-Punkte-Di!erenzenstern und Neun-Punkte-Di!erenzenstern zur Ap-proximation des Di!erentialoperators "+ in zwei Raumdimensionen

Page 117: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

114 7 Partielle Di!erentialgleichungen

Andererseits kann man zur Gewinnung einer kompakten Di!erenzenap-proximation von !*u wie in (7.1.5) den Ansatz

"

|"|,|-|%1

)",-u(x + "hei + 0hej) , ",0 & Z

machen und versuchen, die Gewichte )",- so zu bestimmen, dass bei hin-reichend glattem u eine Di!erenzenapproximation von der Ordnung O(h2)resultiert. Dies führt auf die Bedingungsgleichungen

)1,1 = )1,"1 = )"1,1 = )"1,"1 ,

)1,0 = )0,1 = )0,"1 = )"1,0 ,

4)1,1 + 4)1,0 + )0,0 = 0 ,

2)1,1 + )1,0 = !1/h2 .

Für )1,1 = 0 und )1,0 = !1/h2 ergibt sich der Fünf-Punkte-Di!erenzenstern.Für )1,1 = )1,0 = !1/(3h2) erhält man den in Fig. 24 (rechts) dargestell-ten Neun-Punkte-Di!erenzenstern. Jedoch ist bei keiner Wahl der Gewichtedie Approximationsordnung O(h3) realisierbar. Hingegen können nichtkom-pakte Di!erenzenapproximationen durchaus auf Approximationen höhererOrdnung führen (vgl. z.B. Grossmann und Roos (2005).

Für ein allgemeines beschränktes Gebiet & % Rd mit Rand , muss dieDefinition der Menge der inneren Gitterpunkte und der Randgitterpunkteneu gefasst werden.

(7.1.9) Definition: Es seien & % Rd ein beschränktes, zusammenhängendesGebiet mit Rand , und Rd

h die für h > 0 durch

Rdh := {x = (x1, · · · , xd)

T | xi = ih , i & Z} .

gegebene Gitterpunktmenge. Dann wird &h := Rdh(& die Menge der inneren

Gitterpunkte genannt. Ein Punkt x & , wird als Randgitterpunkt bezeichnet,falls es einen inneren Gitterpunkt x) & &h gibt, so dass für ein i & {1, · · · , d}und " & R mit |"| < 1 gilt, dass x = x) + "hei. Der Gitterpunkt x) wirddann randnah genannt. Alle inneren Gitterpunkte, die nicht randnah sind,nennt man randfern. Mit ,h,&/h bzw. &o

h bezeichnen wir die Mengen derRandgitterpunkte und der randnahen bzw. randfernen inneren Gitterpunkte(vgl. Fig. 25). Wir setzen &h := &h 9 ,h.Die Verbindung zweier benachbarter Gitterpunkte längs einer Gitterlinieheisst Kante, und die beiden Gitterpunkte werden als Eckpunkte der Kantebezeichnet. Wir nennen eine Gitterpunktmenge diskret zusammenhängend,falls je zwei Gitterpunkte aus &h durch einen aus Kanten mit Eckpunktenaus &h bestehenden Weg miteinander verbunden werden können.

(7.1.10) Bemerkung: Man beachte, dass ein innerer Gitterpunkt x randnahsein kann, obwohl x ± hei & &h, 1 ' i ' d.

Page 118: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 115

&

x/

'

x)/

x1

x2

Fig. 25. Randnaher innerer Gitterpunkt • und Randgitterpunkte ( bei einem Ge-biet mit krummlinigem Rand (links) und Approximation der Normalenableitung ineinem Randgitterpunkt (rechts)

Die Definition der Di!erenzenquotienten und des diskreten Laplace-Operatorsbedarf ebenfalls einer Modifikation, die als Shortley-Weller Approximationbezeichnet wird.

(7.1.11) Definition: Es seien &h % Rd eine Gitterpunktmenge wie in De-finition (7.1.9) und x & &h mit x ± h±

i ei & &h, h±i = "±i h, |"±i | ' 1, 1 ' i '

d. Dann sind die vorwärts- und rückwärtsgenommenen Di!erenzenquotientenzur Approximation von uxi in x definiert durch

D+h,iu(x) :=

#

u(x + h+i ei)! u(x)

$

/h+i ,

D"h,iu(x) :=

#

u(x)! u(x! h"i ei)

$

/h"i .

Der zentrale Di!erenzenquotient für die zweiten Ableitungen uxixi ist gegebendurch

D2h,i,iu(x) :=

2

h+i + h"

i

#u(x + h+i ei)! u(x)

h+i

+u(x! h"

i ei)! u(x)

h"i

$

.

Für die gemischten zweiten partiellen Ableitungen uxixj , 1 ' i *= j ' d, kannein Ansatz wie in (7.1.5) gemacht werden.Wir erklären den diskreten Laplace-Operator *h wie in Definition (7.1.8).Für d = 2 und x = (x1, x2) & &h mit (x1 ± "±1 h, x2 ± "±2 h) & &h erhaltenwir die explizite Darstellung

+hu(x) :=2h2

“ 1

)+1 ()+

1 + )"

1 )u(x1 + )+

1 h, x2) +1

)"

1 ()+1 + )"

1 )u(x1 " )"

1 h, x2) +

+1

)+2 ()+

2 + )"

2 )u(x1, x2 + )+

2 h, ) +1

)"

2 ()+1 + )"

2 )u(x1, x2 " )"

2 h) "

"(1

)+1 )

"

1

+1

)+2 )

"

2

)u(x1, x2)”

.

Page 119: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

116 7 Partielle Di!erentialgleichungen

(7.1.12) Bemerkung: (i) In randnahen Gitterpunkten stellen der zentraleDi!erenzenquotient für die zweiten Ableitungen und somit der diskreteLaplace-Operator im Allgemeinen nur eine Approximation von uxixi bzw.*u der Ordnung O(h) dar.(ii) Die Definition der Di!erenzenquotienten und des diskreten Laplace-Operators in (??) lässt sich sofort auf den Fall allgemeiner, nicht äquidis-tanter Gitter übertragen.

Zur Diskretisierung der Normalenableitung u# = ' ·"u in x/ & ,h mit 'als dem in x/ nach aussen gerichteten Normaleneinheitsvektor sei x)

/ & &h

der erste in &h gelegene Schnittpunkt der Normalen durch x/ mit einerGitterlinie (vgl. Fig. 25 (rechts)). Es seien xi, 1 ' i ' 2, die x)

/ benachbartenGitterpunkte auf dieser Gitterlinie, wobei wir annehmen, dass das Gitter sofein ist, dass xi & &h, 1 ' i ' 2. Wir bezeichnen mit u(x)

/ ) den bezüglichu(x1) und u(x2) linear interpolierten Wert. Dann stellt

(7.1.13) D#hu(x/ ) :=

u(x/ )! u(x)/ )

|x/ ! x)/ |

eine Approximation der Normalenableitung u# in x/ dar.Diese Vorgehensweise kann auch für Richtungsableitungen uµ = µ · "u miteinem in x/ nicht tangentialen Richtungsvektor µ herangezogen werden.

Wir sind nun in der Lage, finite Di!erenzenverfahren zur Approxima-tion des Randwertproblems (7.1.1a)-(7.1.1b) auch mit anderen als Dirichlet-Randbedingungen zu konzipieren. Wir bestimmen Approximationen im line-aren Raum der auf einer Gitterfunktmenge definierten Gitterfunktion.

(7.1.14) Definition: Es sei &h eine Gitterpunktmenge wie in Definition(7.1.11). Eine Funktion uh : &h $ R wird Gitterfunktion genannt. Wirbezeichen mit C(&h) den linearen Raum der Gitterfunktionen. Wir verse-hen C(&h) mit dem diskreten Analogon der Maximumnorm

(7.1.15) ,uh,h := maxx$0h

|uh(x)| .

Wir betrachten zunächst ein Di!erenzenverfahren zur Approximation derPoisson-Gleichung mit inhomogenen Dirichlet-Randbedingungen unter Ver-wendung des diskreten Laplace-Operators. Für gegebene Gitterfunktionenfh & C(&h) und uD

h & C(,h) ist uh & C(&h) gesucht, so dass

!*huh = fh in &h ,(7.1.16a)

uh = uDh auf ,h .(7.1.16b)

Die Existenz und Eindeutigkeit einer Lösung von (7.1.16a),(7.1.16b) kann ent-weder mit Hilfe eines diskreten Maximumprinzips und einer diskreten Green-schen Funktion gezeigt werden (vgl. z.B. Jost (2002)) oder vermöge der Unter-suchung des durch (7.1.16a),(7.1.16b) repräsentierten linearen algebraischen

Page 120: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 117

Gleichungssystems. Wir wählen hier letzteren Zugang und beschränken unszur Vereinfachung der Notation auf den Fall d = 2 und & = (a, b)2 sowieein uniformes Gitter &h. Wir können die unbekannten Werte der Gitterfunk-tion uh in den inneren Gitterpunkten x & &h als Komponenten eines Vektorsau!assen. Dabei hängt die Struktur des resultierenden linearen algebraischenGleichungssystems von der Anordnung der Gitterpunkte ab.

(7.1.17) Definition: Es seien & = (a, b)2, a, b & R, a < b, und &h ein uni-formes Gitter zur Schrittweite h := (b ! a)/N,N & N, mit den inneren Git-terpunkten x = (xi, xj)T , 1 ' i, j ' N, wobei xi = a + ih. Eine Abzählungder inneren Gitterpunkte von ’unten’ nach ’oben’ und von ’links’ nach ’rechts’gemäss

x(i"1)N+j = (a + ih, a + jh)T , 1 ' i, j ' N ,

wird als lexikographische Anordnung der Gitterpunkte bezeichnet.Eine Anordnung derart, dass man zunächst die Gitterpunkte mit geradem i+jund anschliessend jene mit ungeradem i + j abzählt, wird schachbrettartigeAnordnung der Gitterpunkte genannt.

Bei einer Anordnung der inneren Gitterpunkte nach Definition (7.1.17)können wir den Werten der Gitterfunktion in den inneren Gitterpunkteneinen Vektor mit nh := N2 Komponenten zuordnen. Zur Vereinfachung derNotation wählen wir für diesen Vektor dieselbe Bezeichnung wie für die Git-terfunktion, i.e., wir definieren uh & Rnh gemäss uh,i := uh(xi), 1 ' i 'nh. Dann entspricht (7.1.16a),(7.1.16b) einem linearen algebraischen Glei-chungssystem

(7.1.18) Ahuh = bh

mit einer Koe"zientenmatrix Ah & Rnh#nh und einem Vektor bh & Rnh ,dessen Komponenten durch die Funktionswerte von fh und uD

h gegeben sind.Bei lexikographischer Anordnung der Gitterpunkte ist Ah eine Block-Tridia-gonalmatrix

(7.1.19) Ah = h"2 tridiag(!I, T,!I) ,

wobei die nh Diagonalblöcke T & RN#N Tridiagonalmatrizen von der Gestalt

(7.1.20) T = tridiag(!1, 4,!1)

sind und die Nebendiagonalblöcke die negative N#N Einheitsmatrix darstellen.Man verifiziert anhand (7.1.19) und (7.1.20) sofort, dass Ah eine symmetrisch,positiv definite Matrix ist mit den Eigenwerten

(7.1.21) $ij(Ah) = 4h"2#

sin2(i.h/2) + sin2(j.h/2)$

, 1 ' i, j ' N ,

und den zugehörigen orthonormierten Eigenvektoren x(ij) & Rnh , 1 ' i, j 'N, mit den Komponenten

Page 121: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

118 7 Partielle Di!erentialgleichungen

x(ij)k' =

h

2sin(ihk.) sin(jh-.) , 1 ' k, - ' N .

Die Struktur des linearen algebraischen Gleichungssystems (7.1.18) im Falleiner schachbrettartigen Anordnung der Gitterpunkte ist Inhalt einer Übungs-aufgabe.

Aus den Eigenschaften von Ah folgt sofort die eindeutige Lösbarkeit desGleichungssystems (7.1.18) und damit des Di!erenzenverfahrens (7.1.16a),(7.1.16b). Die Eigenschaften von Ah implizieren auch die Konvergenz von uh

gegen die Lösung u der Poisson-Gleichung, sofern fh $ f und uDh $ uD für

h $ 0. Wir wollen aber die Frage der Konvergenz der Lösungen von Dif-ferenzenverfahren in einem allgemeineren Kontext behandeln und betrachtendazu ein solches Verfahren zur approximativen Lösung des Randwertprob-lems (7.1.1a),(7.1.1b) in & = (a, b)2 bezüglich eines uniformen Gitters &h

zur Schrittweite h > 0. Wir nehmen an, dass zur Approximation der zweitenpartiellen Ableitungen uxixi und der ersten partiellen Ableitungen uxi zen-trale Di!erenzenquotienten und zur Approximation der gemischten zweitenpartiellen Ableitungen uxixj , i *= j, Di!erenzenquotienten von der Gestalt(7.1.5),(7.1.6) herangezogen werden. Dies führt auf das Di!erenzenverfahren

Lhuh = fh in &h ,(7.1.22a)

uh = uDh auf ,h(7.1.22b)

mit dem durch

Lhuh(x) := !2"

i,j=1

aij(x)D2h,i,juh(x) +

2"

i=1

bi(x)D1h,iuh(x) + c(x)uh(x)

gegebenen Di!erenzenoperator und Gitterfunktionen fh & C(&h) sowieuD

h & C(,h).Vorbehaltlich der Existenz und Eindeutigkeit einer Lösung uh des Di!eren-zenverfahrens definieren wir Konvergenz und Konvergenzordnung wie folgt:

(7.1.23) Definition: Für & := (a, b)2, a, b & R, a < b, und ein uniformesGitter &h zur Schrittweite h > 0 seien u : & $ R klassische Lösung desRandwertproblems (7.1.1a),(7.1.1b) und uh & C(&h) Lösung des Di!eren-zenverfahrens (7.1.22a),(7.1.22b). Dann heisst das Di!erenzenverfahren kon-vergent, falls

,u! uh,h $ 0 für h $ 0 .

Das Di!erenzenverfahren wird konvergent von der Ordung p genannt, fallsfür hinreichend kleines h mit einer von h unabhängigen Konstanten C > 0gilt

,u! uh,h ' C hp .

Page 122: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 119

Hinreichende Bedingungen für die Konvergenz sind die Konsistenz mitdem Randwertproblem (7.1.1a),(7.1.1b) und die Stabilität des Di!erenzen-verfahrens. Die Konsistenz wird gemessen durch den lokalen Diskretisierungs-fehler, den man erhält, wenn man die Lösung des Randwertproblems in dasDi!erenzenverfahren einsetzt.

(7.1.24) Definition: Das Randwertproblem (7.1.1a),(7.1.1b) besitze die klas-sische Lösung u, und es seien Lh der Di!erenzenoperator sowie fh, uD

hdie Gitterfunktionen aus (7.1.22a),(7.1.22b). Dann wird die Gitterfunktion:h & C(&h) mit

:h(x) :=

E

Lhu(x)! fh(x) , x & &h

u(x)! uDh (x) , x & ,h

als lokaler Diskretisierungsfehler bezeichnet.Das Di!erenzenverfahren (7.1.22a),(7.1.22b) heisst konsistent mit dem Randw-ertproblem (7.1.1a),(7.1.1b), falls

,:h,h $ 0 für h $ 0 .

Es heisst konsistent von der Ordnung p, falls es eine von h unabhängige ZahlC > 0 gibt, so dass für hinreichend kleines h

,:h,h ' C hp .

(7.1.25) Lemma: Das Randwertproblem (7.1.1a),(7.1.1b) besitze eine klas-sische Lösung u mit u & C4(&), und es gelte

maxx$0h

|f(x)! fh(x)| = O(h2) , maxx$/h

|uD(x)! uDh (x)| = O(h2) .

Dann ist das Di!erenzenverfahren (7.1.22a),(7.1.22b) konsistent mit demRandwertproblem (7.1.1a),(7.1.1b) von der Ordnung p = 2.

Beweis: Der Beweis folgt unter den getro!enen Voraussetzungen an fh unduD

h aus den entsprechenden Approximationseigenschaften der in der Defini-tion des Di!erenzenoperators Lh verwendeten Di!erenzenquotienten. !

(7.1.26) Bemerkung: Das Ergebnis von Lemma (7.1.25) lässt sich ohneSchwierigkeiten auf höhere Raumdimensionen übertragen. Für allgemeinebeschränkte Gebiete und bei Verwendung der Shortley-Weller Approximationreduziert sich die Konsistenzordnung im Allgemeinen auf p = 1.

Die Stabilität der Di!erenzenapproximation ist gleichbedeutend mit derstetigen Abhängigkeit der Lösung uh von den Daten fh, uD

h .

(7.1.27) Definition: Es seien uh & C(&h) und zh & C(&h) die Lösungenvon (7.1.22a),(7.1.22b) bezüglich der Daten fh, uD

h bzw. gestörter Daten fh +7fh, uD

h + 7uDh mit 7fh & C(&h), 7uD

h & C(,h). Dann bezeichnet man das

Page 123: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

120 7 Partielle Di!erentialgleichungen

Di!erenzenverfahren (7.1.22a),(7.1.22b) als stabil, falls es zu jedem 4 > 0eine Zahl 7 = 7(4, h) > 0 gibt, so dass

,uh ! zh,h < 4

für alle Störungen (7fh, 7uDh ), für die

,(7fh, 7uDh ),h < 7

erfüllt ist.

(7.1.28) Theorem: Das Di!erenzenverfahren (7.1.22a),(7.1.22b) sei stabilund konsistent mit dem Randwertproblem (7.1.1a),(7.1.1b). Dann ist es kon-vergent, und die Konsistenzordnung ist gleich der Konvergenzordnung.

Beweis: Der Beweis folgt sofort aus

Lh(u(x)! uh(x)) = :h(x) , x & &h ,

und u(x)! uh(x) = :h(x), x & ,h. !

Ist das Di!erenzenverfahren konsistent mit dem Randwertproblem, so isteine hinreichende Bedingung für die Stabilität durch die L0-Matrix Eigen-schaft der mit dem Di!erenzenverfahren assoziierten Matrix gegeben.

(7.1.29) Definition: Eine Matrix A = (aij)ni,j=1 heisst L0-Matrix, falls aij '

0, 1 ' i *= j ' n. Eine L0-Matrix wird L-Matrix genannt, falls aii > 0, 1 'i ' n. Eine L0-Matrix wird als M-Matrix bezeichnet, falls sie regulär ist undA"1 - 0 gilt, wobei die Ungleichung elementweise zu verstehen ist.

M-Matrizen besitzen die folgende Charakterisierung.

(7.1.30) Theorem: Eine L0-Matrix A & Rn#n ist eine M-Matrix genaudann, wenn ein Vektor z & Rn mit z > 0 und Az > 0 existiert. Es giltdann

(7.1.31) ,A"1, ',z,'

min1%i%n

(Az)i,

wobei , · , die Zeilensummennorm bezeichnet.

Beweis: Es sei A eine M-Matrix. Dann gilt A"1 - 0, und wir können z =A"1e mit e = (1, · · · , 1)T wählen.

Seien andererseits A eine L0-Matrix und z & Rn, so dass z > 0 undAz > 0, i.e.,

/nj=1 aijzj > 0, 1 ' i ' n. Da aijzj ' 0 für i *= j, muss

aii > 0, 1 ' i ' n, gelten. Somit ist die Matrix DA := diag(A) invertierbar,und es gilt D"1

A > 0. Wir setzen P := D"1A (DA ! A) und haben folglich

A = DA(I ! P ). O!enbar gelten P - 0 und (I ! P )z = D"1A Az > 0, was

Pz < z nach sich zieht. Mit der speziellen Norm

Page 124: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.1 Elliptische Di!erentialgleichungen 121

,x,z := max1%i%n

|xi|zi

erhalten wir daraus

,P,z = max,x,z=1

,Px,z = ,Pz,z = max1%i%n

(Pz)i

zi< 1.

Es folgt, dass I ! P invertierbar ist mit (I ! P )"1 =/'

i=0 P i - 0. Wirerschliessen damit A"1 = (I ! P )"1D"1

A - 0.Zum Beweis von (7.1.31) seien b & Rn und x & Rn die Lösung von Ax = b.

Dann gilt

(7.1.32) ±x = ±A"1b ' ,b,inftyA"1e.

Darüber hinaus haben wir Az - min1%i%n(Az)ie, woraus

(7.1.33) A"1e 'z

min1%i%n

(Az)i.

folgt. Aus (7.1.32) and (7.1.33) erschliessen wir

,A"1b,' = ,x,' ' ,b,',z,'

min1%i%n

(Az)i

und somit die Behauptung. !

Wir wenden das voranstehende Ergebnis auf die betrachtete Di!eren-zenapproximation an.

(7.1.34) Lemma: Das Di!erenzenverfahren (7.1.22a),(7.1.22b) sei konsis-tent mit dem Randwertproblem (7.1.1a),(7.1.1b), und es sei Ah & Rnh#nh

die Koe"zientenmatrix in der Darstellung des Di!erenzenverfahrens als lin-eares algebraisches Gleichungssystem. Ist Ah eine L0-Matrix, dann ist dasDi!erenzenverfahren stabil.

Beweis: Aus der L0-Matrix Eigenschaft folgt gemäss Theorem (7.1.30), dassdie Matrizen Ah die M-Matrix Eigenschaft besitzen, falls es Vektoren zh &Rnh mit zh > 0 und Ahzh > 0 gibt. Ferner gilt dann

(7.1.35) ,A"1h , '

,zh,'min

1%i%nh

(Ahzh)i.

Ohne Beschränkung der Allgemeinheit können wir uD = 0 in (7.1.1b) an-nehmen. Es sei dann u) die Lösung des Randwertproblems (7.1.1a),(7.1.1b)mit f = 1 und uD = 0. Nach dem Hopfschen Maximumprinzip giltu)(x) > 0, x & &. Ausserdem ist Lu)(x) - 1, x & &, trivialerweise er-füllt. Wir definieren den Vektor zh gemäss zh := (u)(x1), · · · , u)(xnh))T .

Page 125: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

122 7 Partielle Di!erentialgleichungen

Wegen der vorausgesetzten Konsistenz hat man dann für hinreichend kleinesh, dass Ahzh - 1/2, woraus sich mit (7.1.35) die asymptotisch gleichmässigeBeschränkheit von A"1

h und somit die Stabilität des Di!erenzenverfahrensergeben. !

Nach Lemma (7.1.34) gengt es also zum Nachweis der Stabilität des Dif-ferenzenverfahrens, die L0-Matrix Eigenschaft von Ah & Rnh#nh sicherzu-stellen. Man zeigt leicht, dass im Fall a12(x) = 0, x & &, der Di!erenzenop-erator Lh auf den Di!erenzenstern

1

h2

?

A

0 h2 b2 ! a22 0

!h2 b1 ! a11 2(a11 + a22)

h2 b1 ! a11

0 !h2 b2 ! a22 0

B

D

führt. Unter der Voraussetzung h|b(x)| < 2aii(x), 1 ' i ' 2, ist dannAh eine M-Matrix. Für nichtverschwindendes a12 müssen hingegen die Dif-ferenzenquotienten D2

h,i,juh(x), 1 ' i *= j ' 2, aus (7.1.5) mit (7.1.6)in Abhängigkeit des Vorzeichens von a12(x) geeignet gewählt werden. Für11 = ±1, 12 = 13 = 0 in (7.1.6) erhält man die Di!erenzensterne

1

2h2

?

A

!1 1 01 !2 10 1 !1

B

D ,1

2h2

?

A

0 !1 1!1 2 !1

1 !1 0

B

D .

Wir bezeichnen mit D2,"h,i,j den mit dem linken Di!erenzenstern und mit D2,+

h,i,jden mit dem rechten Di!erenzenstern assoziierten Di!erenzenoperator. Ver-wendet man dann in der Definition von Lh im Fall ±a12(x) > 0 den Di!eren-zenquotienten D2,±

h,i,juh(x), so zeigt man leicht, dass unter der Voraussetzung

(7.1.36) h |bi(x)| < 2 (aii(x)! |a12(x)|) , 1 ' i ' 2 , x & &

die Matrix Ah eine L0-Matrix ist.

(7.1.37) Lemma: Es sei Lh der Di!erenzenoperator aus (7.1.22a) mit

D2h,i,juh(x) = D2,±

h,i,juh(x) , 1 ' i *= j ' 2, falls ± a12(x) > 0 , x & &,

und es sei (7.1.36) erfüllt. Dann ist das Di!erenzenverfahren (7.1.22a),(7.1.22b)stabil.

Beweis: Die Bedingung (7.1.36) impliziert die L0-Matrix Eigenschaft dermit dem Di!erenzenoperator assoziierten Matrix, und die Behauptung folgtmit Lemma (7.1.34). !

Zusammenfassend erhalten wir somit:

(7.1.38) Theorem: Es seien die Voraussetzungen aus Lemma (7.1.25) undLemma (7.1.37) erfüllt. Dann ist das durch (7.1.22a),(7.1.22b) gegebene Dif-ferenzenverfahren konvergent von der Ordnung p = 2.

Page 126: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.2 Parabolische Di!erentialgleichungen 123

Beweis: Lemma (7.1.25) zeigt die Konsistenz von der Ordnung p = 2 undLemma (7.1.37) gewährleistet die Stabilität des Di!erenzenverfahrens. DieBehauptung folgt dann aus Theorem (7.1.28). !

(7.1.39) Bemerkung: (i) Bei allgemeinen Gebieten und Verwendung derShortley-Weller Approximation lässt sich die Stabilität des Di!erenzenver-fahrens unter entsprechenden Voraussetzungen an die Koe"zientenfunktio-nen des Di!erentialoperators nachweisen. Gemäss Bemerkung (7.1.26) re-duziert sich die Konvergenzordnung im Allgemeinen auf p = 1.(ii) Ist die Koe"zientenfunktion bi betragsmässig signifikant grösser als dieKoe"zientenfunktion aii, so spricht man von einem konvektionsdominan-ten Problem, da bei durch (7.1.1a) beschriebenen Di!usions-Konvektions-Reaktions Problemen der Term b ·"u den konvektiven Anteil des Prozessesmodelliert. Die Bedingung (7.1.36) ist dann nur für sehr kleine Schrittweitenh zu erfüllen, was den Rechenaufwand unagemessen erhöht. In diesem Fallwählt man zur Diskretisierung der ersten partiellen Ableitungen statt des zen-tralen Di!erenzenquotienten in Abhängigkeit des Vorzeichens von bi (Kon-vektionsrichtung) den vorwärts- bzw. rückwärtsgenommenen Di!erenzenquo-tienten (upwind-Diskretisierung). Für Einzelheiten verweisen wir auf Gross-mann und Roos (2005).

7.2 Parabolische Di!erentialgleichungen

Wir betrachten das folgende Anfangs- Randwertproblem für eine parabolischeDi!erentialgleichung

Lu := ut + A(t)u = f in Q := & # (0, T ),(7.2.1a)

u = uD on , # [0, T ],(7.2.1b)

u(·, 0) = u0 in &.(7.2.1c)

Dabei seien & % Rd ein beschränktes Lipschitz-Gebiet mit Rand , = #&und T > 0 sowie A(t) für jedes t & [0, T ] ein linearer elliptischer Di!eren-tialoperator zweiter Ordnung von der Gestalt (7.1.1a) mit von (x, t) & Q ab-hängigen Koe"zientenfunktionen aij , bi, 1 ' i, j ' d, und c. Ferner nehmenwir f & C(Q), uD & C(, # [0, T ]) und u0 & C(&) an. Wir setzen voraus,dass die Anfangs- und Randdaten kompatibel sind, i.e., uD(·, 0) = u0|/ , unddass das Anfangs- Randwertproblem (7.2.1a)-(7.2.1c) wohlgestellt ist in demSinne, dass die Lösung u stetig von den Anfangs- und Randdaten abhängt.

Die numerische Lösung des Anfangs- Randwertproblems kann auf derGrundlage einer Semi-Diskretisierung in Raum oder Zeit durchgeführt wer-den. Die Semi-Diskretisierung im Raum wird Linienmethode genannt. Wirbetrachten eine Gitterpunktmenge

(7.2.2) &h := {x = (x#1 , · · · , x#d)T }

Page 127: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

124 7 Partielle Di!erentialgleichungen

äquidistanter Gitterpunkte zur Schrittweite h > 0 und definieren &h und,h als die Mengen der inneren Gitterpunkte und Randgitterpunkte gemäss&h := &h (& und ,h := &h ( , . Wir approximieren A(t), t & [0, T ], wie inKapitel 7.1 durch eine kompakte finite Differenzenapproximation und f, uD

sowie u0 durch fh(t) & C(&h), t & [0, T ], uDh (t) & C(,h), t & [0, T ], und

u0h & C(&h) mit uD

h (·, 0) = u0h|/h . Die Linienmethode erfordert dann die

Lösung des Anfangswertproblems

(uh)t + Ah(t)uh = bh(t) , t & (0, T ),(7.2.3a)

uh(0) = "h(7.2.3b)

für ein System gewöhnlicher Di!erentialgleichungen erster Ordnung in uh :[0, T ] $ Rnh , nh := card(&h), mit Ah(t) & Rnh#nh , bh(t) & Rnh , und"h & Rnh . Dieses System ist typischerweise steif, (vgl. Kapitel ??), so dass zurnumerischen Integration von (7.2.3a),(7.2.3b) implizite oder semi-impliziteVerfahren herangezogen werden müssen.Die Semi-Diskretisierung in der Zeit wird als Rothe-Verfahren bezeichnet.Diskretisiert man (7.2.1a) implizit in der Zeit, zum Beispiel mit dem im-pliziten Euler-Verfahren bezüglich einer äquidistanten Zerlegung

(7.2.4) Ik := {tm := mk , k := T/(M + 1) , M & N}

des Zeitintervalls [0, T ], so ist in jedem Zeitschritt ein elliptisches Randwert-problem von der Gestalt

(I + kA(tk))u(tk) = u(tk"1) + kf(tk) in &,(7.2.5a)

u(·, tk) = uD(tk) on ,.(7.2.5b)

zu lösen. Dazu können die im Kapitel 7.1 besprochenen Techniken verwendetwerden.

Im Folgenden betrachten wir finite Di!erenzenverfahren in Ort und Zeitbezüglich Qh,k := &h#Ik. Für Dh,k 7 Qh,k bezeichnen wir mit C(Dh,k) denlinearen Raum der auf Dh,k definierten reellwertigen Gitterfunktionen.Für Gitterfunktionen uh,k & C(Qh,k) definieren wir den vorwärtsgenom-menen Di!erenzenquotienten

(7.2.6) D+k uh,k(x, t) := k"1

#

uh,k(x, t + k)! uh,k(x, t)$

,

wobei x & &h , t & Ik \ {T} und den rückwärtsgenommenen Di!erenzenquo-tienten

(7.2.7) D"k uh,k(x, t) := k"1

#

uh,k(x, t)! uh,k(x, t! k)$

,

wobei x & &h , t & Ik\{0}. Ferner seien Ah(t), t & Ik, eine Di!erenzenapproxi-mation von A(t) und fh,k & C(Qh,k), uD

h & C(,h# Ik) sowie u0h & C(&h) mit

uDh (·, 0) = u0

h|/h .

Page 128: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.2 Parabolische Di!erentialgleichungen 125

Bei Verwendung des vorwärtsgenommenen Di!erenzenquotienten erhältman mit dem Di!erenzenoperator Lh,k := D+

k +Ah(t) das explizite Di!eren-zenverfahren

uh,k(·, t + k) = (Ih ! kAh(t))uh,k(·, t) + kfh,k in &h, t & Ik \ {T} ,(7.2.8a)

uh,k(·, t + k) = uDh (·, t + k) auf ,h , t & Ik \ {T} ,(7.2.8b)

uh,k(·, 0) = u0h(·) in &h(7.2.8c)

und bei Verwendung des rückwärtsgenommenen Di!erenzenquotienten mitdem Di!erenzenoperator Lh,k := D"

k + Ah(t) das implizite Di!erenzenver-fahren

(Ih + kAh(t))uh,k(·, t) = uh,k(·, t! k) + kfh,k in &h, t & Ik \ {0} ,(7.2.9a)

uh,k(·, t) = uD(·, t) auf ,h, t & Ik \ {0} ,(7.2.9b)

uh,k(·, 0) = u0(·) in &h .(7.2.9c)

Bei Kenntnis von uh,k(x, t) in x & &h, t = tm, 0 ' m ' M, erhält manbeim expliziten Di!erenzenverfahren die Näherungslösung uh,k(x, t) in x &&h, t = tm+1, durch Auflösen von (7.2.8a) nach uh,k(x, tm+1), wohingegenbeim impliziten Di!erenzenverfahren die Berechnung von uh,k(x, tm), x & &h,bei Kenntnis von uh,k(x, t) in x & &h, t = tm"1, 1 ' m ' M, die Lösung eineslinearen algebraischen Gleichungssystems erfordert.

Multipliziert man (7.2.9a) für t + k anstelle von t mit 6 & [0, 1] sowie(7.2.8a) mit 1!6 und addiert die resultierenden Di!erenzengleichungen, soergibt sich mit dem durch

L1h,kuh,k := k"1(uh,k(·, t + k)! uh,k(·, t)) +

+ 6Ah(t + k)uh,k(·, t + k) + (1!6)Ah(t)uh,k(·, t)

gegebenen Di!erenzenoperator und der Gitterfunktion

f1h,k := 6fh,k(·, t + k) + (1!6)fh,k(·, t)

die sogenannte 6-Methode:

L1h,kuh,k = f1h,k in &h # (Ik \ {T}) ,(7.2.10a)

uh,k = uDh auf ,h # (Ik \ {T}) ,(7.2.10b)

uh,k(·, 0) = u0h in&h .(7.2.10c)

Ist 6 = 0, so erhält man das explizite Di!erenzenverfahren (7.2.8a)-(7.2.8c).6 = 1 ergibt das implizite Di!erenzenverfahren (7.2.9a)-(7.2.9c). Im Fall6 = 1/2 wird (7.2.10a)-(7.2.10c) als Crank-Nicolsen Verfahren bezeichnet.

Wir untersuchen die Konvergenz der 6-Methode im Rahmen einer all-gemeineren Di!erenzenapproximation von (7.2.1a)-(7.2.1c) bei Verwendung

Page 129: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

126 7 Partielle Di!erentialgleichungen

eines Zwei-Level (Einschritt-) Di!erenzenverfahrens, i.e., eines Verfahrens,bei dem nur auf zwei Zeitschichten tj"1 und tj zurückgegri!en wird. Dazuseien Mh(tm), Nh(tm"1 : C(&h) $ C(&h) Di!erenzenapproximationen vonA(tm) bzw. A(tm"1) und gh(·, tm"1, tm) & C(&h). Mit dem durch

Lh,kuh,k(·, tm) := (Ih,k + kMh(tm))uh,k(·, tm)!(7.2.11)

! (Ih,k ! kNh(tm"1))uh,k(·, tm"1)

gegebenen Di!erenzenoperator Lh,k : C(Qh,k) $ C(Qh,k) betrachten wir dieDifferenzenapproximation

Lh,kuh,k = gh,k in &h # (Ik \ {0}) ,(7.2.12a)

uh,k = uDh auf ,h # (Ik \ {0}) ,(7.2.12b)

uh,k(·, 0) = u0h(x) in &h .(7.2.12c)

Zur Spezifikation der Konvergenz messen wir den globalen Diskretisierungs-fehler u|Qh,k

! uh,k in einer geeigneten Norm , ·, h,k des linearen Raums

C(Qh,k) der Gitterfunktionen auf Qh,k. Zum Beispiel kann die diskrete Maxi-mumnorm

,uh,k,h,k := max(x,t)$Qh,k

|uh,k(x, t)|

gewählt werden oder das diskrete Analogon der L2([0, T ];L2(&))-Norm

,uh,k,h,k :=#

kM"

j=0

,uh,k(·, tj),22,h

$1/2,

wobei , · ,2,h die diskrete L2-Norm auf C(&h) bezeichnet.

(7.2.13) Definition: Es seien u die klassische Lösung des Anfangs- Rand-wertproblems (7.2.1a)-(7.2.1c) und uh,k & C(Qh,k) die Lösung des durch(7.2.12a)-(7.2.12c) gegebenen Di!erenzenverfahrens. Das Di!erenzenverfah-ren wird konvergent genannt, falls gilt

,u! uh,k,h,k $ 0 für h, k $ 0 .

Das Di!erenzenverfahren heisst konvergent von der Ordnung p1 in h und p2

in k (pi & N, 1 ' i ' 2), falls für hinreichend kleine Schrittweiten h, k miteiner von h und k unabhängigen positiven Konstanten C gilt

,u! uh,k,h,k ' C (hp1 + kp2) .

Wie bei der numerischen Lösung von Anfangswertproblemen für gewöhn-liche Di!erentialgleichungen (vgl. Kapitel 6.1) sind hinreichende Bedingungenfür die Konvergenz durch die Konsistenz und Stabilität gegeben.

Page 130: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.2 Parabolische Di!erentialgleichungen 127

(7.2.14) Definition: Unter den Voraussetzungen von Definition (7.2.13) wirddie durch

:h,k(x, t) :=

8

9

:

Lh,ku(x, t)! gh,k(x, t) , x & &h , t & Ik \ {0}u(x, t)! uD

h,k(x, t) , x & ,h , t & Ik \ {0}u(x, 0)! u0

h(x) , x & &h

definierte Gitterfunktion :h,k als lokaler Diskretisierungsfehler bezeichnet.Das Di!erenzenverfahren (7.2.12a)-(7.2.12c) heisst konsistent mit dem Anfangs-Randwertproblem (7.2.1a)-(7.2.1c), falls gilt

,:h,k,h,k $ 0 für h, k $ 0 .

Das Di!erenzenverfahren wird konsistent von der Ordnung p1 in h und p2 ink (pi & N, 1 ' i ' 2) genannt, falls für hinreichend kleine Schrittweiten h, kmit einer von h und k unabhängigen positiven Konstanten C gilt

,:h,k,h,k ' C (hp1 + kp2) .

Unter der Annahme einer hinreichend glatten klassischen Lösung u von(7.2.1a)-(7.2.1c) kann der Nachweis der Konsistenz und der Konsistenzord-nung durch mehrdimensionale Taylorentwicklung erbracht werden.

Beispiel: Wir betrachten die ,-Methode (7.2.10a)-(7.2.10c) in der Anwendungauf die lineare Wärmeleitungsgleichung, i.e., A(t) = "+, t ! [0, T ], mit Ah(t) ="+h, t ! [0, T ], wobei +h den diskreten Laplaceoperator aus (7.1.8) bezeichnet, unduD

h = uD|&h!Iksowie u0

h = u0|'h . Nehmen wir an, dass für die klassische Lösungu ! C2([0, T ]; C4(-)) erfüllt ist, so zeigt eine mehrdimensionale Taylorentwicklung,dass die ,-Methode im Fall , )= 1/2 sowohl bezüglich der diskreten Maximumnormals auch bezüglich der diskreten L2([0, T ]; L2(-))-norm konsistent von der Ordnungp1 = 2 in h und p2 = 1 in k ist. Man beachte, dass als Entwicklungspunkt für dasexplizite Verfahren (x, t) und für die impliziten Verfahren (x, t + k) zu wählen ist.Genügt die klassische Lösung u der Bedingung u ! C3([0, T ]; C4(-)), so hat dasCrank-Nicolsen Verfahren (, = 1/2) die Konsistenzordnung p1 = 2 in h und p2 = 2in k. Als Entwicklungspunkt muss (x, t + k/2) gewählt werden.

Die Stabilität der Di!erenzenapproximation (7.2.12a)-(7.2.12c) bedeutetstetige Abhängigkeit der Lösung uh,k von den Daten gh,k, uD

h,k, u0h.

(7.2.15) Definition: Es seien uh,k bzw. zh,k die Lösung des Di!erenzen-verfahrens (7.2.12a)-(7.2.12c) bezüglich der Daten gh,k, uD

h,k, u0h bzw. der

gestörten Daten gh,k + 7gh,k, uDh,k + 7uD

h,k, u0h + 7u0

h mit Gitterfunktionen7gh,k & C(&h), 7uD

h,k & C(,h # Ik), 7u0h & C(&h). Dann heisst das Dif-

ferenzenverfahren (7.2.12a)-(7.2.12c) stabil, falls es zu jedem 4 > 0 ein7 = 7(4, h, k) > 0 gibt, so dass

,uh,k ! zh,k,h,k < 4

für alle Störungen 7u0h und (7gh,k, 7uD

h,k) mit

,7u0h,h + ,(7gh,k, 7uD

h,k),h,k < 7.

Page 131: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

128 7 Partielle Di!erentialgleichungen

Wie bei Di!erenzenverfahren für elliptische Randwertprobleme (vgl. Kapi-tel 7.1) ist die Stabilität konsistenter Di!erenzenverfahren hinreichend für dieKonvergenz.

(7.2.16) Theorem: Es sei (7.2.12a)-(7.2.12c) ein mit dem wohlgestelltenAnfangs- Randwertproblem (7.2.1a)-(7.2.1c) konsistentes Di!erenzenverfah-ren. Ist das Di!erenzenverfahren stabil, dann ist es konvergent, und die Ord-nung der Konvergenz ist gleich der Konsistenzordnung.

Beweis: Die Lösung u des Anfangs- Randwertproblems (7.2.1a)-(7.2.1c)genügt den Di!erenzengleichungen

Lh,ku(x, t) = gh,k(x, t) + :h,k(x, t) , x & &h , t & Ik \ {0},u(x, t) = uD

h,k(x, t) + :h,k(x, t) , x & ,h , t & Ik \ {0},u(x, 0) = u0

h(x) + :h,k(x, 0) , x & &h.

Mit 7gh,k(x, t) = :h,k(x, t), x & &h, t & Ik \ {0}, 7uDh,k = :h,k(x, t), x & ,h, t &

Ik \ {0}, sowie 7u0h(x) = :h,k(x, 0), x & &h, und ,:h,k,h,k $ 0 für h, k $ 0

folgt die Behauptung aus der Stabilität (7.2.15). !

(7.2.17) Bemerkung: Theorem (7.2.16) wird in der Literatur mitunter alsTheorem von Lax bezeichnet (siehe zum Beispiel Thomas (1995)). Unterden gleichen Voraussetzungen kann auch gezeigt werden, dass die Stabili-tät notwendig für die Konvergenz eines konsistenten Di!erenzenverfahrensist. Die Äquivalenz von Stabilität und Konvergenz konsistenter Di!erenzen-approximationen wohlgestellter Anfangs- Randwertprobleme wird Äquiva-lenzsatz von Lax-Richtmyer genannt. Für einen Beweis verweisen wir aufStrikwerda (2004).

Da das finite Di!erenzenverfahren (7.2.12a)-(7.2.12c) einem linearen al-gebraischen Gleichungssystem entspricht, lässt sich die Stabilität mit Argu-menten der numerischen linearen Algebra nachweisen, wie folgendes Beispielillustriert.

Beispiel: Wir untersuchen die Stabilität der ,-Methode (7.2.10a)-(7.2.10c) inder Anwendung auf die Wärmeleitungsgleichung (7.0.12) in - = (a, b)2 mita, b ! R, a < b. Ist -h = {x1, · · · , xnh)T und bezeichnet u(j)

h den Vektoru(j)

h = (uh, k(x1, tj), · · · , uh,k(xnh , tj))T , 0 # j # M + 1, so ist (7.2.10a)-(7.2.10c)

äquivalent zu dem linearen Gleichungssystem

(7.2.18) (Ih + kBh(,))u(j)h = (Ih " kCh(,))u(j"1)

h + b(j)h ,

wobei Bh(,) = ,Ah, Ch(,) = (1 " ,)Ah mit der durch (7.1.19) gegebenenBlocktridigonalmatrix Ah ! R

nh!nh und b(j)h ! R

nh . Sind .u(0)h ! R

nh bzw..b(j)

h ! Rnh , 1 # j # M + 1, Störungen in der Anfangsbedingung bzw. der rechten

Seite und bezeichnet z(j)h die Lösung von (7.2.18) bezüglich der gestörten Daten, so

Page 132: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.3 Hyperbolische Di!erentialgleichungen 129

zeigt man durch vollständige Induktion mit der Euklidischen Norm als Vektornormund der Spektralnorm als assoziierter Matrixnorm

*u(j)h " z(j)

h * # *Dh(,)*j*.u(0)h *+(7.2.19)

+j"1X

(=0

*Dh(,)*j"("1*(Ih + kBh(,))"1**.b(()h *,

wobei Dh(,) := (Ih + kBh(,))"1(Ih " kCh(,)). Aus (7.2.19) folgt, dass es zumNachweis der Stabilität genügt, /(Dh(,)) < 1 mit /(Dh(,)) als dem Spektralra-dius von DH(,) zu zeigen. Die Kenntnis der Eigenwerte von Ah (siehe (7.1.21)ermöglicht die Berechnung der Eigenwerte von Dh(,) (Übungsaufgabe). Unter derSchrittweitenbeschränkung k # h2(2" 4,),, < 1/2, erschliesst man /(Dh(,) < 1,wohingegen /(DH(,) < 1,, + 1/2, ohne Bedingungen an die Schrittweiten erfülltist. Die ,-Methode ist somit für , < 1/2 bedingt stabil und für , + 1/2 unbedingt

stabil.

Für weitergehende Ergebnisse zur Stabilität von Di!erenzenverfahren zurLösung parabolischer Anfangs- Randwertprobleme verweisen wir auf Kreissund Lorenz (1989), Strikwerda (2004) und Thomas (1995).

7.3 Hyperbolische Di!erentialgleichungen

Die kanonische Form einer linearen hyperbolischen Di!erentialgleichung 2.Ord-nung ist die Wellengleichung, die für räumlich eindimensionale Probleme inR auf der nichtnegativen Zeitachse R+ im homogenen Fall die Gestalt

(7.3.1) Lu := utt ! uxx = 0 iin R# R+

annimmt. Die Charakteristiken sind durch die Geraden

x! t = const. , x + t = const.

gegeben. Der lineare hyperbolische Di!erentialoperator (Wellenoperator) Lerlaubt die Faktorisierung

(7.3.2) L = (#

#t!#

#x)(#

#t+#

#x).

Die Variablentransformation y = x + t, z = x ! t führt auf die Di!erential-gleichung,

(7.3.3) uyz = 0

deren allgemeine Lösung mit Funktionen v, w & C2(R) durch

(7.3.4) u(y, z) = v(y) + w(z)

gegeben ist. Bei Vorgabe von Anfangsbedingungen für u und ut in t = 0erhalten wir eine explizite Darstellung der Lösung über die Anfangsdaten.

Page 133: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

130 7 Partielle Di!erentialgleichungen

(7.3.5) Theorem: Es seien u0 & C2(R) und u0t & C1(R). Dann ist die Lö-

sung des Anfangswertproblems

utt ! uxx = 0 in R# R+,(7.3.6a)

u(·, 0) = u0 in R,(7.3.6b)

ut(·, 0) = u0t in R,(7.3.6c)

gegeben durch

(7.3.7) u(x, t) =1

2

#

u0(x + t) + u0(x! t)$

+1

2

x+t!

x"t

u0t (s) ds.

Beweis: Unter Beachtung von (7.3.4) erhalten wir

v(x) + w(x) = u0(x),

v!(x)! w!(x) = u0t (x).

Intergation der zweiten Gleichung und Rücktransformation auf die ursprüng-lichen Variablen liefert die Behauptung. !

Anhand der Darstellung (7.3.7) erkennt man, dass die Lösung des An-fangswertproblems (7.3.6a)-(7.3.6c) in (x, t) & R#R+ nur von den Anfangs-daten im Intervall

(7.3.8) A(x, t) := [x! t, x + t]

abhängt. Andererseits haben die Anfangswerte u0(x), u0t (x) in einem Punkt

x & R nur einen Einfluss auf die Lösung in dem Kegel

(7.3.9) K(x) := {(y, t) & R# R+ | x! t ' y ' x + t}.

(7.3.10) Definition: Das durch (7.3.8) definierte Intervall A(x, t) und derdurch (7.3.9) gegebene Kegel K(x) werden als Abhängigkeitsgebiet der Lösungu und Einflussbereich der Anfangsdaten u0, u0

t bezeichnet.

(7.3.11) Bemerkung: Die Anfangsdaten breiten sich mit der Geschwindigkeit1 längs der Charakteristiken aus. Somit unterscheidet sich das Lösungsver-halten hyperbolischer Di!erentialgleichungen 2.Ordnung signifikant vom para-bolischen Fall (vgl. Kapitel 7.2).

Bei gegebenen äquidistanten Gittern Ik := {tm = mk|m & N0} sowieIh := {ih|i & Z} approximieren wir das Anfangswertproblem (7.3.6a)-(7.3.6c)unter Verwendung zentraler Di!erenzenquotienten D2

k und D2h für die zweiten

partiellen Ableitungen utt und uxx in (7.3.6a) und des vorwärtsgenommenenDi!erenzenquotienten D+

k für die erste partielle Ableitung ut in (7.3.6c). Diesführt auf das explizite Di!erenzenverfahren

Page 134: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

7.3 Hyperbolische Di!erentialgleichungen 131

uh,k(·, t + k) =2(Ih + k"2D2h)uh,k(·, t)!(7.3.12a)

! uh,k(·, t! k) in Ih , t & Ik \ {t0, t1},(7.3.12b)

uh,k(·, k) =u0(·) + ku0t (·) in Ih,(7.3.12c)

uh,k(·, 0) =u0(·) in Ih.(7.3.12d)

Genügt die Lösung u des Anfangswertproblems (7.3.6a)-(7.3.6c) der Be-dingung u & C4(R#R+), so ist das Di!erenzenverfahren (7.3.12b)-(7.3.12d)konsistent mit dem Anfangswertproblem von der Ordnung p1 = 2 in k undp2 = 2 in h.

Die Lösung uh,k in (xi, tm) & Ih # Ik hängt o!enbar nur ab von denAnfangsdaten u0, u0

t in

(7.3.13) Ah(xi, tm) := [xi !mh, xi + mh] ( Ih.

(7.3.14) Definition: Die durch (7.3.13) gegebene Gitterpunktmenge wird dasnumerische Abhängigkeitsgebiet des Di!erenzenverfahrens (7.3.12b)-(7.3.12d)genannt.

Eine natürliche Forderung besteht darin, dass das AbhängigkeitsgebietA(xi, tm) des Anfangswertproblems (7.3.6a)-(7.3.6c) im numerischen Ab-hängigkeitsgebiet Ah(xi, tm) enthalten ist. Dies ergibt die Bedingung

(7.3.15)k

h' 1,

die als Courant-Friedrichs-Lewy (CFL) Bedingung bezeichnet wird.

Das Drei-Level Verfahren (7.3.12b)-(7.3.12d) kann gemäss

(7.3.16)1

uh,k(·, t + k)uh,k(·, t)

2

=

1

2(Ih + k"2D2h) !Ih

Ih 0

21

uh,k(·, t)uh,k(·, t! k)

2

als Zwei-Level Verfahren formuliert werden. Somit kann eine zu der in Kapi-tel 7.2 durchgeführten Analyse analoge Stabilitätsuntersuchung vorgenom-men werden, die ebenfalls auf die CFL Bedingung (7.3.15) führt (siehe auchThomas (1995)). Unter der CFL Bedingung ist das Di!erenzenverfahren(7.3.12b)-(7.3.12d) konvergent

Das Drei-Level Verfahren (7.3.12b)-(7.3.12d) lässt sich übertragen sowohlauf höhere Raumdimensionen als auch bezüglich allgemeinerer Di!erential-operatoren, zum Beispiel auf Anfangs- Randwertprobleme der Gestalt

Lu := utt !A(t)u =f in Q := & # (0, T ),(7.3.17a)

u =uD on + := , # (0, T ),(7.3.17b)

u(·, 0) =u0 in &,(7.3.17c)

ut(·, 0) =u0t in &(7.3.17d)

Page 135: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

132 7 Partielle Di!erentialgleichungen

mit einem elliptischen Di!erentialoperator A(t), t & (0, T ), von der Gestalt(7.1.1a), wobei & % Rd ein beschränktes Lipschitz-Gebiet mit Rand , =#& ist und f & C(&) angenommen wird. Auch können andere als DirichletRandbedingungen behandelt werden.

Eine weitere Möglichkeit zur Lösung linearer hyperbolischer Di!erential-gleichungen 2.Ordnung von der Gestalt (7.3.17a) mit A(t) = A, t & (0, T ),und f = 0 besteht in der Verwendung des Separationsansatzes

(7.3.18) u(x, t) = v(x)w(t)

mit Funktionen v & C2(&) und w & C2([0, T ]). Der Ansatz (7.3.18) führt auf

wtt(t)

w(t)=

Av(x)

v(x)= $ = const.,

woraus man

wtt(t) = !$w(t),(7.3.19)

!Av(x) = $v(x)(7.3.20)

erhält. Sind $n, n & N, die Eigenwerte des elliptischen Di!erentialoperators!A mit zugehörigen Eigenfunktionen vn, n & N, so ist die Lösung durch

u(x, t) ="

n$N

#

"ncos(0

$nt) + 0nsin(0

$nt)$

vn(x)

gegeben, wobei die Koe"zienten "n,0n, n & N, aus den Anfangsbedingungenbestimmt werden können. Hinsichtlich der numerischen Realisierung ist daselliptische Eigenwertproblem (7.3.20) zu diskretisieren und das daraus resul-tierende algebraische Eigenwertproblem mit den Techniken aus Kapitel 7 inFreund und Hoppe (2008) zu lösen.

Page 136: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

Index

L0-Matrix, 120,-Methode– , Konsistenzordnung, 127Äquivalenzsatz von Lax-Richtmyer, 128

a posteriori Fehlerabschätzung, 36a priori Fehlerabschätzung, 36A())-Stabilität, 97A-stabil, 94Abbildung– , kontrahierende, 34Abhängigkeitsgebiet, 130– , numerisches, 131absolut stabil, 94absolutes Stabilitätsgebiet, 94Adams, 91adaptive Mehrgitter-Quadratur, 72adaptive Quadratur, 72A"n-Kovarianz, 93A"ninvarianz, 41Aitken-Neville Schema, 55Anfangs- Randwertproblem– , hyperbolisches, 110, 131– , parabolisches, 110, 123Anfangsbedingung, 6, 78, 110Anfangswertproblem– , System gewöhnlicher Di!erential-

gleichungen 1.Ordnung, 78Anlaufrechnung, 90Arnold, 80Ascher, 103asymptotische Entwicklung, 72– , des globalen Diskretisierungsfehlers,

90Ausgleichsproblem– , lineares, 28– , nichtlineares, 45

Banachscher Fixpunktsatz, 36Bashforth, 91BDF-Verfahren, 97bedingte Stabilität, 129BiCG-Stab, 27Biegeenergie, 65Bilanzgleichung, 5Bisektionsverfahren, 38Block-Tridiagonalmatrix, 117Butcher Schema, 89

CFL Bedingung, 131cg-Verfahren, 10, 24– , vorkondioniertes, 26Charakteristiken, 129charakteristisches Polynom– , eines Mehrschrittverfahrens, 93Cholesky Verfahren, 15Cholesky Zerlegung, 15Courant-Friedrichs-Lewy Bedingung,

131Crank-Nicolsen Verfahren, 125– , Konsistenzordnung, 127

Dämpfungsparameter, 18DASSL, 102Deuflhard, 102, 103di!erential-algebraische Gleichungen,

78, 101di!erential-algebraisches System, 4Di!erentialgleichungen– , autonome, 93– , steife, 124Di!erentiationsindex, 100Di!erenzenapproximation– , kompakte, 113Di!erenzenoperator, 118Di!erenzenquotient

Page 137: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

134 Index

– , für gemischte zweite Ableitungen,112, 122

– , rückwärtsgenommener, 111, 115– , vorwärtsgenommener, 111, 115– , zentraler, 111, 115– – , für erste Ableitungen, 111– – , für zweite Ableitungen, 111, 115Di!erenzenstern, 112– , kompakter, 113Di!erenzenverfahren, 7, 79, 110, 116– , ,-Methode, 125– , Drei-Level Verfahren, 130– , Einschrittverfahren– – , parabolische Di!erentialgleichung,

126– , Konsistenz, 119, 127, 131– , Konsistenzordnung, 119, 127– , Konvergenz, 126, 131– , Konvergenzordnung, 122, 126– , Poisson-Gleichung, 116– , Stabilität, 120, 127, 131– , Zwei-Level Verfahren– – , parabolische Di!erentialgleichung,

126– , explizites, 125– – , für die Wellengleichung, 130– , hyperbolische Di!erentialgleichung,

130– , implizites, 125– , upwind-Diskretisierung, 123Dirichlet Randbedingungen, 109DIRK-Verfahren, 96diskrete Fouriertransformation, 66Diskretisierungsfehler– , globaler, 85, 126– , lokaler, 86, 119, 127dividierte Di!erenzen, 54Drei-Level Verfahren, 131Dreiecksmatrix– , obere, 10– , untere, 10Dreieckszerlegung, 18

Eigenwertproblem– , elliptisches, 132Einflussbereich, 130eingebettete Runge-Kutta-Verfahren,

90Einschrittverfahren, 85

– , Konsistenz, 86– , Konsistenzordnung, 86– , Konvergenz, 85– , Konvergenzordnung, 85– , Stabilität, 87Einzelschrittverfahren, 20Eliminationsmatrix, 11Eliminationsverfahren– , Gausssches, 11elliptische Di!erentialgleichung– , Randwertproblem, 110elliptische partielle Di!erentialglei-

chung, 108Energienorm, 17Euler-Maclaurinsche Summenformel, 72Euler-Verfahren– , explizites, 83– , implizites, 83, 97, 124– , semi-implizites, 103Existenz- und Eindeutigkeitsbeweis– , konstruktiver, 61Existenz- und Eindeutigkeitssatz– , von Picard-Lindelöf, 80Existenzsatz von Peano, 79explizites Di!erenzenverfahren– , Konsistenzordnung, 127, 131explizites Euler-Verfahren, 83, 84Extrapolationsverfahren, 72, 90

Fünf-Punkte-Di!erenzenstern, 113Faber, 58Fast Fourier Transform, 67FFT, 67Finite Elemente Methode, 110Fixpunkit– , anziehender, 34Fixpunkt, 33– , abstossender, 34Fixpunktiteration, 33Fourier Transformation, 65Fourierreihe, 66Fouriersches Gesetz, 6Freund, 11, 21, 25, 27, 39, 45, 46, 61,

63, 64, 72, 79, 87, 90, 93, 110, 132Frobeniusmatrix, 11Funktionalmatrix, 41Funktionenraum– , C(-h), 116

Page 138: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

Index 135

Galerkin Verfahren, 79Gantmacher, 97Gauss Quadratur, 73Gauss-Hermite Polynome, 75Gauss-Jacobi Polynome, 75Gauss-Laguerre Polynome, 75Gauss-Legendre Polynome, 75Gauss-Newton Verfahren, 46– , gedämpftes, 47Gauss-Seidel Verfahren, 20Gauss-Tschebysche! Polynome, 75Gausssche Methode– , der kleinsten Fehlerquadrate, 28Gausssche Quadraturformeln, 74Gaussscher Algorithmus, 11Gaussscher Integralsatz, 5Gausssches Eliminationsverfahren, 11Gear, 100, 103Gesamtschrittverfahren, 19gewöhnliche Di!erentialgleichungen– , System m-ter Ordnung, 77– , System 1.Ordnung, 77– – , Anfangswertproblem, 78– – , Randwertproblem, 79– – , explizite Form, 78– , lineares System 1.Ordnung– – , explizite Form, 78– – , implizite Form, 78– , quasilineares System 1.Ordnung– – , implizite Form, 78– , semilineares System 1.Ordnung– – , implizite Form, 78– , steife, 84Gewichte– , einer Quadraturformel, 71Gitter– , äquidistantes, 111– , nicht äquidistantes, 116– , quasiuniformes, 63– , uniformes, 111Gitterfunktion, 7, 116Gitterpunkt– , Randgitterpunkt, 114– , innerer, 114– , randferner, 114– , randnaher, 114Gitterpunkte– , lexikographische Anordnung, 117

– , schachbrettartige Anordnung, 117Gitterpunktmenge, 111– , diskret zusammenhängende, 114Glattheitsvoraussetzung, 100Gleichungssysteme– , lineare– – , gesta!elte, 10globaler Diskretisierungsfehler, 85– , asymptotische Entwicklung, 90GMRES, 27Gradientenverfahren, 22Greensche Funktion– , diskrete, 116Gronwallsches Lemma, 80Grossmann, 114, 123

Hairer, 96, 102, 105Halbordnung, 17Hamiltonsches Prinzip, 3Hermitesches Interpolationspolynom– , kubisches, 61Hesse Matrix, 45Heun, 88holonome Zwangsbedingungen, 4Hopf– , Maximumprinzip, 121Hoppe, 11, 21, 25, 27, 39, 45, 46, 61,

63, 64, 72, 79, 87, 90, 93, 110, 132Horner Schema, 55Householder Reflexion, 31hyperbolische Di!erentialgleichung– , Anfangs- Randwertproblem, 131hyperbolische partielle Di!erential-

gleichung, 108

implizite Trapezregel, 92, 96implizites Di!erenzenverfahren– , Konsistenzordnung, 127implizites Euler-Verfahren, 83Index– , der Nilpotenz, 99Interpolationsbedingungen, 50Interpolationsfehler, 56Interpolationspolynom, 50Interpolationsproblem, 49Iterationsmatrix, 15Iterationsverfahren– , lineare, 10, 15

Page 139: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

136 Index

Jacobi Matrix, 41Jacobi Verfahren, 19Jost, 116

Keplersche Fassregel, 73Klassifizierung partieller Di!erential-

gleichungen, 108kleinste Fehlerquadrate, 28Knoten– , einer Quadraturformel, 71Knotenpunkte, 50Kollokationsmethoden, 79Kompatibilität, 123Konsistenz, 119, 131– , Di!erenzenverfahren, 127, 131– , von Einschrittverfahren, 86Konsistenzbedingung, 100Konsistenzordnung, 119– , ,-Methode, 127– , Crank-Nicolsen Verfahren, 127– , Di!erenzenverfahren, 127, 131– , explizites Di!erenzenverfahren, 127,

131– , implizites Di!erenzenverfahren, 127– , von Einschrittverfahren, 86konstitutive Gleichungen, 6Kontraktion, 34Kontraktionszahl, 34Konvektionsdominanz, 123– , upwind-Diskretisierung, 123Konvergenz– , Di!erenzenverfahren, 118, 126, 131– , des Newton Verfahrens, 39– , lineare, 37– , linearer Iterationsverfahren, 15– , quadratische, 37– , superlineare, 37– , von Einschrittverfahren, 85Konvergenzordnung, 37– , Di!erenzenverfahren, 118, 126– , von Einschrittverfahren, 85Korrektor-Verfahren, 92Krümmung, 64Kreiss, 129Krylov-Unterraum Verfahren, 27kubische Splineinterpolierende, 60– , Berechnung über die Momente, 61– , Berechnung über die Steigungen, 61– , natürliche, 61

– , periodische, 61– , vollständige, 61

L-Matrix, 120Lagrange Gleichungen, 3Lagrange Multiplikatoren, 3Lagrangesche Darstellung, 52Lagrangesche Fundamentalpolynome,

52Laplace-Gleichung, 109Laplace-Operator, 109, 113– , diskreter, 113, 115Lemma von Gronwall, 80Levenberg-Marquardt Verfahren, 47lexikographische Anordnung, 117LIMEX, 102lineare Gleichungssysteme– , direkte Verfahren, 9– , iterative Verfahren, 10lineares Gleichungssystem, 7Linienmethode, 123lokaler Diskretisierungsfehler, 86Lorenz, 129LR-Zerlegung, 13

M-Matrix, 120Marcienkiewicz, 58Materialgesetz, 6Matrix– , orthogonale, 12– , positiv definite, 13– , strikt diagonaldominant, 63– , symmetrische, 13Matrizenbüschel– , reguläres, 98Maximumprinzip– , diskretes, 116– , von Hopf, 121Mehrschrittverfahren, 90– , Stabilitätsbedingung, 93– , charakteristisches Polynom, 93– , lineare, 90Mehrzielmethode, 79Methode der finiten Elemente, 110Methode der sukzessiven Überrelax-

ation, 20Methode der sukzessiven Approxima-

tion, 33Methode des steilsten Abstiegs, 22

Page 140: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

Index 137

midpoint-rule, 92Milne-Regel, 73Minimierungsproblem– , quadratisches, 21Mittelpunktsregel, 92Monotonietest, 43Moulton, 91

Neumann Randbedingungen, 109Neun-Punkte-Di!erenzenstern, 113Newton Inkremente, 41Newton Verfahren, 39, 41– , Dämpfungsstrategie, 44– , Monotonietest, 43– , gedämpftes, 44Newton-Cotes Formeln, 72Newton-Cotes Gewichte, 72Newton-Cotes-Formeln, 91Newtonsche Darstellung, 54nichtlineares Ausgleichsproblem, 45– , fast kompatibles, 46– , kompatibles, 46Normalenableitung– , Di!erenzenapproximation, 116Normalform– , Weierstrasssche, 98Normalgleichungen, 29Nowak, 103

optimale Schrittweite, 22Ordnungssteuerung, 90, 93orthogonale Polynome, 74orthogonale Projektion, 28

parabolische Di!erentialgleichung, 6– , ,-Methode, 125– , Anfangs- Randwerproblem, 123– , Crank-Nicolsen Verfahren, 125– , Di!erenzenverfahren– – , Einschrittverfahren, 126– – , Zwei-Level Verfahren, 126– , explizites Di!erenzenverfahren, 125– , implizites Di!erenzenverfahren, 125parabolische partielle Di!erentialglei-

chung, 108partielle Di!erentialgleichung– , elliptische, 108– , hyperbolische, 108– , kanonische Form, 109

– , lineare, 107– – , Klassifizierung, 108– , m-ter Ordnung, 107– , parabolische, 108partieller Di!erentialoperator, 107– , Hauptteil, 107pcg-Verfahren, 26Peano– , Existenzsatz, 79Permutationsmatrix, 12Petzold, 102, 103Picard-Lindelöf– , Existenz- und Eindeutigkeitssatz,

80Pivotelement, 12Pivotsuche, 12Poisson-Gleichung, 109, 113– , Di!erenzenverfahren, 116Polygonzugmethode, 87– , verbesserte, 88Polynome– , orthogonale, 74Prädiktor-Korrektor Verfahren, 92Prädiktor-Verfahren, 92

QR-Zerlegung, 30quadratisches Minimierungsproblem, 21Quadratur– , adaptive, 72Quadraturfehler, 72Quadraturformel, 71– , Gewichte, 71– , Knoten, 71– , interpolatorische, 72Quasi-Newton Verfahren, 45quasiuniformes Gitter, 63

Rückwärtssubstitution, 10Radau-Verfahren, 104RADAU5, 102Randbedingung, 6Randbedingungen, 79, 109Randwertproblem– , System gewöhnlicher Di!erential-

gleichungen 1.Ordnung, 79– , elliptische Di!erentialgleichung, 110– , elliptisches, 109Rangdefekt, 46Regula falsi, 39

Page 141: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

138 Index

Residuum, 18Restglied– , der Polynominterpolation, 56Restgliedabschätzung, 57Richardson Iteration, 18Richtungsableitung– , Di!erenzenapproximation, 116Robin Randbedingungen, 109Romberg Integration, 72Roos, 114, 123Rothe-Verfahren, 124rotierendes Pendel, 1Runge, 88Runge-Kutta-Verfahren– , eingebettete, 90– , explizites s-stufiges, 89– , implizites s-stufiges, 95– , klassisches, 89– , semi-implizites, 96

Satz von Faber, 58Satz von Marcienkiewicz, 58schachbrettartige Anordnung, 117schnelle Fouriertransformation, 67Schrittweitensteuerung, 90, 93Schursche Normalform, 93SDIRK-Verfahren, 96Sekantenverfahren, 39Semi-Diskretisierung, 123semi-implizites Euler-Verfahren, 103Separationsansatz, 132Shortley-Weller Approximation, 115,

119Simpson-Regel, 73SOR Verfahren, 20spektrale Kondition, 25Spektralradius, 16spezifische interne Energie, 5Spline– , der Ordnung m, 60– , kubischer, 60– , linearer, 60– , vom Grad m " 1, 60Splineinterpolierende, kubische, 60Stützpunkte, 50Stützstellenschema, 58Stützwerte, 50Stabilität, 120– , A-stabil, 94

– , bedingte, 129– , unbedingte, 129– , von Di!erenzenverfahren, 127, 131– , von Einschrittverfahren, 87– , von Mehrschrittverfahren, 93Stabilitätsbedingung– , bei Mehrschrittverfahren, 93Stabilitätsfunktion, 94Stabilitätsgebiet, 94– , absolutes, 94Startrampe, 90steife Di!erentialgleichungen, 84Straklatte, 65Strikwerda, 128, 129Suchrichtung, 22Symbol, 108– , Hauptteil, 108

Theorem– , von Lax, 128thermodynamische Gesetze, 5Thomas, 128, 129, 131Trapezregel, 72Trapezsumme, 72trigonometrische Interpolationsaufgabe,

67trigonometrisches Polynom, 66Trust-Region Methode, 47

Ueberrelaxation, 20unbedingte Stabilität, 129Unterrelaxation, 20upwind-Diskretisierung, 123

Vandermondesche Determinante, 51Vandermondesche Matrix, 51vereinfachte Newton Korrektur, 44Verfahren– , A())-stabiles, 97– , BiCGStab, 27– , Bisektionsverfahren, 38– , Cholesky, 15– , Fixpunktiteration, 33– , GMRES, 27– , Gauss-Newton, 46– , Gauss-Seidel, 20– , Gausssche Elimination, 11– , Gradientenverfahren, 22– , Jacobi, 19

Page 142: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

Index 139

– , Krylov-Unterraum, 27– , Levenberg-Marquardt, 47– , Newton Verfahren, 39, 41– , Richardson Iteration, 18– , SOR Verfahren, 20– , cg-Verfahren, 24– , der konjugierten Gradienten, 10, 24– , der konjugierten Richtungen, 24– , lineare Iterationsverfahren, 10– , pcg-Verfahren, 26Verfahren von Adams-Bashforth, 91Verfahren von Adams-Moulton, 91Verfahren von Heun, 88Verfahren von Milne, 92Verfahren von Nyström, 92Verfahren von Runge, 88

Verfahrensfunktion, 85, 90Vorkonditionierer, 27Vorwärtssubstitution, 10

Wärmefluss, 5Wärmeleitungsgleichung, 6, 109Walter, 80Wanner, 96, 102, 105Weierstrasssche Normalform, 98Wellengleichung, 110, 129Wellenoperator, 129Widlund, 97Wohlgestellheit, 123wohlgestelltes Problem, 80

Zugck, 102Zwischenwertsatz, 38

Page 143: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

140

Literatur

[1] V.I. Arnold, Ordinary Di!erential Equations. 1st Edition. 2nd Printing.Springer, New York-Berlin-Heidelberg, 2006

[2] U. Ascher, L.R. Petzold, Computer Methods for Ordinary Di!erentilaEquations and Di!erential-Algebraic Equations. SIAM, Philadelphia, 1998

[3] M. Bollhofer, V. Mehrmann, Numerische Mathematik. Vieweg, Wiesbaden,2004

[4] G. Dahlquist, A. Bjorck, Numerical Methods. Dover, Mineola, 2003

[5] P. Deuflhard, A. Hohmann, Numerische Mathematik 1.3.Auflage. De Gruy-ter, Berlin, 2002

[6] P. Deuflhard, F. Bornemann, Numerische Mathematik 2. 2.Auflage. DeGruyter, Berlin, 2002

[7] P. Deuflhard, E. Hairer, J. Zugck, One-step and extrapolation methods fordi!erential-algebraic systems. Numer. Math. 51, 501–516, 1987

[8] P. Deuflhard, U. Nowak, Extrapolation integrators for quasilinear implicitODEs. In: Large Scale Scientific Computing (P. Deuflhard, B. Engquist;eds.), pp. 37-50, Birkhauser, Basel, 1987

[9] L.C. Evans, Partial Di!erential Equations. American Mathematical Socie-ty, Providence, 1983

[10] R.W. Freund, R.H.W. Hoppe, Stoer/Bulirsch: Numerische Mathematik 1.10., neu bearbeitete Auflage. Springer, Berlin-Heidelberg-New York, 2007

[11] R.W. Freund, R.H.W. Hoppe Stoer/Bulirsch: Numerische Mathematik 2.6., neu bearbeitete Auflage. Springer, Berlin-Heidelberg-New York, 2008

[12] F.R. Gantmacher, Theory of Matrices: Set of Two Volumes. Oxford Uni-versity Press, Oxford, 1999

[13] C.W. Gear, Di!erential algebraic equation index transformations. SIAM J.Sci. Statist. Comput. 9, 39–47, 1988

[14] C.W. Gear, L.R. Petzold, ODE methods for the solution of di!erenti-al/algebraic systems. SIAM J. Numer. Anal. 21, 716–728, 1984

[15] C. Grossmann, H.-G. Roos, Numerische Behandlung partieller Di!eren-tialgleichungen. 3.Auflage. Teubner, Stuttgart, 2005

Page 144: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

141

[16] G. Hammerlin, K.-H. Ho!mann, Numerische Mathematik. 2. Auflage.Springer, Berlin-Heidelberg-New York, 1991

rt: Teubner.

[17] E. Hairer, S.P. Nørsett, G. Wanner, Solving Ordinary Di!erential Equa-tions I. Nonsti! Problems. 2nd Edition. Springer, Berlin-Heidelberg-NewYork, 1993

[18] E. Hairer, G. Wanner, Solving Ordinary Di!erential Equations II. Sti! andDi!erential-Algebraic Problems. 2nd Edition. Springer, Berlin-Heidelberg-New York, 1996

[19] M. Hanke-Bourgeois, Grundlagen der Numerischen Mathematik und desWissenschaftlichen Rechnens. 2. Auflage. Teubner, Stuttgart, 2006

[20] T. Huckle, S. Schneider, Numerische Methoden. 2. Auflage. Springer, Ber-lin-Heidelberg-New York, 2006

[21] J. Jost, Partial Di!erential Equations. Springer, Berlin-Heidelberg-NewYork, 2002

[22] H.-O. Kreiss, J. Lorenz, Initial-Boundary Value Problems and the NavierStokes Equations. Academic Press, Boston, 1989

[23] R. Kress, Numerical Analysis. Springer, Berlin-Heidelberg-New York, 1998

[24] J.H. Mathews, K.D. Fink, Numerical Methods: Using Matlab. 4th Edition.Prentice Hall, Upper Saddle River, 2004

[25] D.F. Mayers, E. Suli, E. (2003): An Introduction to Numerical Analysis.Cambridge University Press, Cambridge, 2003

[26] C.B. Moler, Numerical Computing with Matlab. SIAM, Philadelphia, 2004

[27] G. Opfer, Numerische Mathematik fur Anfanger. 4. Auflage. Vieweg, Wies-baden, 2002

[28] L.R. Petzold, A description of DASSL – A di!erential algebraic systemsolver. IMACS Trans. Sci. Comp. 1 (H. Stepleman; ed.), pp. 65!., NorthHolland, Amsterdam, 1982

[29] R. Plato, Numerische Mathematik kompakt. 2. Auflage. Vieweg, Wiesba-den, 2004

[30] M. Renardy and R.C. Rogers, An Introduction to Partial Di!erential Equa-tions. Springer, Berlin-Heidelberg-New York, 1993

Page 145: Numerische Verfahren fur¨ Material- wissenschaftler und ... · Analysis und Numerik Institut fur¨ Mathematik Universit¨at Augsburg Skript zur Lehrveranstaltung im Sommersemester

142

[31] H.R. Schwarz, Numerische Mathematik. 4. Auflage. Teubner, Stuttgart,1997

[32] J.C. Strikwerda, Finite Di!erence Schemes and Partial Di!erential Equa-tions. 2nd Edition. SIAM, Philadelphia, 2004

[33] J.W. Thomas, Numerical Partial Di!erential Equations. Finite Di!erenceMethods. Springer, Berlin-Heidelberg-New York, 1995

[34] V. Thomee, S. Larsson, Partielle Di!erentialgleichungen und NumerischeMethoden. Springer, Berlin-Heidelberg-New York, 2005

[35] W. Walter, Ordinary Di!erential Equations. Springer, New York-Berlin-Heidelberg, 1996