theorieundnumerikvon differential-algebraischengleichungen...
TRANSCRIPT
Theorie und Numerik vondifferential-algebraischen Gleichungen (DAEs)
Prof. Dr. Martin Arnold & Markus Köbis M. Sc.
28. Juli 2014
Inhaltsverzeichnis
Einleitung i
1 Grundlagen 11.1 Differential-algebraische Gleichungen und Systeme gewöhnlicher Differentialgleichungen 1
Bemerkung 1.1 Differential-algebraische Gleichungen . . . . . . . . . . . . . . . . . . . 1Beispiel 1.2 Differential-algebraische Gleichungen . . . . . . . . . . . . . . . . . . . . . 1Beispiel 1.3 Netzwerkmodellierung: Modified Nodal Analysis . . . . . . . . . . . . . . . 2Bemerkung 1.4 Netzwerkmodellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Bemerkung 1.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Lineare DAEs mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . 3Bemerkung 1.6 Matrixbüschel (engl.: matrix pencil) . . . . . . . . . . . . . . . . . . . 3Satz 1.7 Weierstraß-Normalform, Kronecker-Normalform . . . . . . . . . . . . . . . . 3Definition 1.8 Nilpotenz-Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Bemerkung 1.9 Lineare DAEs mit konstanten Koeffizienten . . . . . . . . . . . . . . . 4
1.3 Zugrundeliegendes System gewöhnlicher Differentialgleichungen . . . . . . . . . . . . . 5Definition 1.10 Differentiationsindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Definition 1.11 Zugrundeliegendes System gewöhnlicher Differentialgleichungen . . . . 5Bemerkung 1.12 Differentiationsindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Beispiel 1.13 Mechanische Mehrkörpersysteme mit Zwangsbedingungen . . . . . . . . 6Definition 1.14 Anfangswertproblem, konsistente Anfangswerte . . . . . . . . . . . . . 7Beispiel 1.15 Mathematisches Pendel: Konsistente Anfangswerte . . . . . . . . . . . . . 8
2 Zeitintegration: Semi-explizite Index-1-Systeme 9Bemerkung 2.1 Aufgabenklasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Bemerkung 2.2 Linear-implizite Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . 9Bemerkung 2.3 Singulär gestörte Systeme gewöhnlicher Differentialgleichungen . . . . 10Bemerkung 2.4 Linear-implizite Systeme (II) . . . . . . . . . . . . . . . . . . . . . . . . 12Beispiel 2.5 One-leg-θ-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1 Einschrittverfahren für semi-explizite Index-1-Systeme . . . . . . . . . . . . . . . . . . 12Bemerkung 2.6 Verfahrensklasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Definition 2.7 Lokaler und globaler Fehler . . . . . . . . . . . . . . . . . . . . . . . . . 13Bemerkung 2.8 Fehlerrekursion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14Lemma 2.9 Fehlerrekursion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14Definition 2.10 Konsistenzordnung, Konvergenzordnung . . . . . . . . . . . . . . . . . . 15Satz 2.11 Konvergenz von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . 15Beispiel 2.12 Halb-explizite Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . 15Bemerkung 2.13 Taylorentwicklung der analytischen Lösung . . . . . . . . . . . . . . . 16Bemerkung 2.14 Taylorentwicklung der numerischen Lösung . . . . . . . . . . . . . . . 16Bemerkung 2.15 Konsistenzbedingungen und Konvergenz . . . . . . . . . . . . . . . . . 17Beispiel 2.16 Halb-explizite Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . 18
2.2 Lineare Mehrschrittverfahren für semi-explizite Index-1-Systeme . . . . . . . . . . . . 18Bemerkung 2.17 Lineare Mehrschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . 18Bemerkung 2.18 Erweiterung auf semi-explizite Index-1-Systeme . . . . . . . . . . . . 19Bemerkung 2.19 Gekoppelte Fehlerrekursion . . . . . . . . . . . . . . . . . . . . . . . . 20Definition 2.20 (Starke) Wurzelbedingung . . . . . . . . . . . . . . . . . . . . . . . . . 21Satz 2.21 Konvergenz von linearen Mehrschrittverfahren . . . . . . . . . . . . . . . . . 21
3
Inhaltsverzeichnis
3 Differential-algebraische Gleichungen höheren Indexes 233.1 Systeme in Hessenbergform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Definition 3.1 Hessenbergform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23Beispiel 3.2 Systeme in Hessenbergform . . . . . . . . . . . . . . . . . . . . . . . . . . 23Bemerkung 3.3 Systeme in Hessenbergform . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Sensitivitätsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25Beispiel 3.4 Implizites Euler-Verfahren für Index-2-Systeme . . . . . . . . . . . . . . . 25Definition 3.5 Störungsindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26Bemerkung 3.6 Störungsindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26Lemma 3.7 Störungsindex von Systemen in Hessenbergform . . . . . . . . . . . . . . . 27Beispiel 3.8 Störungsindex eines linear-impliziten Systems . . . . . . . . . . . . . . . . 28Bemerkung 3.9 Störungsindex und Differentiationsindex . . . . . . . . . . . . . . . . . 28
4 Zeitintegration: Systeme höheren Indexes 294.1 Direkte Diskretisierung von Systemen höheren Indexes . . . . . . . . . . . . . . . . . . 29
Bemerkung 4.1 Allgemeines Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29Beispiel 4.2 Implizites Euler-Verfahren, Index-3-System . . . . . . . . . . . . . . . . . 29Bemerkung 4.3 Systeme höheren Indexes: direkte Diskretisierung . . . . . . . . . . . . 30
4.2 Indexreduktion und Drift-off-Effekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30Bemerkung 4.4 Analytische Transformationen vor der Zeitdiskretisierung . . . . . . . . 30Beispiel 4.5 Index-1-Formulierung und Drift-off-Effekt . . . . . . . . . . . . . . . . . . 31Satz 4.6 Drift-off-Effekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Indexreduktion und Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33Bemerkung 4.7 Projektion der numerischen Lösung . . . . . . . . . . . . . . . . . . . 33Lemma 4.8 Projektion der numerischen Lösung . . . . . . . . . . . . . . . . . . . . . . 34Bemerkung 4.9 Index-1-Formulierung und Projektion . . . . . . . . . . . . . . . . . . 35Bemerkung 4.10 Stabilisierte Index-1-Formulierung . . . . . . . . . . . . . . . . . . . . 35
4
Einleitung
Dieses Vorlesungsskript umfasst den Stoff der gleichnamigen einsemestrigen (2+1) Vorlesung, gehaltenan der Martin-Luther-Universität Halle–Wittenberg im Sommersemester 2014.
i
1 Grundlagen
1.1 Differential-algebraische Gleichungen und Systeme gewöhnlicherDifferentialgleichungen
Bemerkung 1.1 Differential-algebraische GleichungenEin funktionaler Zusammenhang
F(t,x(t), x(t)) = 0, (t ∈ I) (1.1)
zwischen einer auf dem Intervall I ⊂ R definierten Funktion x ∈ C1(I,Rnx) und ihrer Ableitung x(t) =ddtx(t) heißt differential-algebraische Gleichung (auch: differentiell-algebraische Gleichung, Algebro-Differentialgleichung, engl.: differential-algebraic equation, DAE), wenn F : I × Rnx ×Rnx → Rnx
stetig differenzierbar bezüglich x ist, die Jacobimatrix Fx = ∂F∂x konstanten Rang hat und 0 <
r : = rank ∂F∂x (t,x, x) < nx gilt.
Beispiel 1.2 Differential-algebraische Gleichungen
(a) System gewöhnlicher Differentialgleichungen (engl.: ordinary differential equation, ODE)
x = f(t,x) ⇔ 0 = F(t,x, x) : = x− f(t,x)
keine DAE, da Fx = Inx ⇒ r = 0.
(b) (Parameterabhängiges) nichtlineares Gleichungssystem
0 = f(t,x) ⇔ 0 = F(t,x, x) : = f(t,x)
keine DAE, da Fx = 0 ⇒ r = 0.
(c) Sei 0 < r < nx und rank(C,D) = nx − r für Matrizen C ∈ R(nx−r)×r, D ∈ R(nx−r)×(nx−r).Partitioniert man x ∈ Rnx in Vektoren y ∈ Rny , z ∈ Rnz mit ny : = r, nz : =nx − r
x(t) =
(y(t)z(t)
)}r}nx − r ∈ Rnx ,
so ist
0 = F(t,x, x) =
((Ir 0
)x− f(t,x)(
C D)x− b(t)
)}r}nx − r
äquivalent zu dem semi-expliziten System
y = f(t,y, z)0 = Cy + Dz− b(t)
}⇒ Anfangswerte y0 = y(t0), z0 = z(t0) müssen Cy0 + Dz0 = b(t0) erfüllen (konsistente An-fangswerte).
Spezialfälle
a) D regulär ⇒ z(t) = −D−1(y(t)− b(t))
y(t) = ϕ(t,y(t)) : = f(t,y,−D−1(Cy − b(t)))
1
1 Grundlagen
b) D = 0nz×nz , f(t,y, z) = f0(t,y)−C>z, rank C = nx − r
⇒ Cy(t) = b(t)
ddt⇒ Cy(t) = b(t)
C(f0(t,y(t)) − C>z(t)) = b(t), („versteckte Zwangsbedingung“), rank C = nx − r = nz
⇒ C ·C> ∈ Rnz×nz regulär
⇒ z(t) = (CC>)−1(Cf0(t,y(t))− b(t)
),
y(t) =(I−C>(CC>)−1C
)f0(t,y) + C>(CC>)−1b(t)
Unterschiede zu Systemen gewöhnlicher Differentialgleichungen
• Anfangswerte müssen mit der DAE verträglich („konsistent“) sein.
• Bedingungen an Anfangswerte können direkt aus der DAE ablesbar sein oder sich ausDifferentiation von Teilen der DAE ergeben („versteckt“ sein).
• Die Lösung einer DAE hängt im Allgemeinen nicht stetig von zeitabhängigen Störungenab.
Beispiel 1.3 Netzwerkmodellierung: Modified Nodal Analysis
R
C
L
vS1 2
30
iR, vR
iC , vCiL, vL
iS , vS
Abbildung 1.1: Einfacher Schaltkreis und zugehöriger Graph
Bauelemente
• Spannungsquelle vS(t)
• Ohmscher Widerstand iR(t) = 1RvR(t)
• Kapazität iC(t) = CvC(t)
• Induktivität L ddt iL(t) = vL(t)
Es bezeichnet ui jeweils die Spannungsdifferenz zwischen Knoten i und Masse (Knoten 0 ).
Kirchhoffsche Regeln Knotenregel: In jedem Knoten verschwindet die vorzeichenbehaftete Summealler ein- und ausgehenden Ströme.
(K1) iR − iS = 0
(K2) iC − iR = 0
(K3) iL − iC = 0
(K0) iS − iL = 0 (redundant)
Maschenregel: In jeder Masche des Netzwerks addiert sich die Summe aller Teilspannungen zu Null.Darstellung aller Teilspannungen vj als Funktion der Knotenspannungen ui:
vR = u1 − u2, vC = u2 − u3,
vL = u3, vS = −u1
Modified Nodal Analysis (MNA): Beschreibung des Netzwerks durch
2
1.2 Lineare DAEs mit konstanten Koeffizienten
• Knotenspannungen ui,
• Ströme iL der Induktivitäten,
• Ströme iS der Spannungsquellen.
x =(u1 u2 u3 iL Is
)>, Gleichungen (K1), (K2), (K3), L ddt iL(t) = vL(t), vS = −u1.0 0 0
0 C −C0 −C C
u1
u2
u3
+
1/R −1/R 0−1/R 1/R 0
0 0 0
u1
u2
u3
+
00iL
+
iS00
= 0,
LddtiL = u3,
vS = −u1
Bemerkung 1.4 NetzwerkmodellierungComputergestützte Modellierung komplexer (technischer) SystemeBeispiel: (MNA) Anwendungsbereiche:
• Schaltungssimulation
• Chemische Verfahrenstechnik
• Wasser- und Abwassersysteme
• Blutkreislauf
Netzwerkmodellierung führt systematisch auf eine Systembeschreibung in redundanten Variablen, diegewissen (Gleichungs-) bedingungen genügen müssen DAEs.
Bemerkung 1.5 LiteraturLehrbuchliteratur (Numerik gewöhnlicher Differentialgleichungen): [7, 3, 4, 13]Monographien (DAE-Theorie und Numerik) [9, 10]Verschiedenes [5, 12, 1, 8]
1.2 Lineare DAEs mit konstanten Koeffizienten
Bemerkung 1.6 Matrixbüschel (engl.: matrix pencil)
(a) Zur linearen DAE mit konstanten Koeffizienten
Bx + Ax = d(t) (1.2)
betrachtet man Lösungen der Form x(t) = eλt x0 des zugehörigen homogenen Systems Bx+Ax =0
⇒ (A + λB) eλt x0 = 0.
(b) {A + λB : λ ∈ C} heißt Matrixbüschel , Bezeichnung: A + λB.
(c) Das Matrixbüschel A+λB heißt regulär , falls det(A+λB) 6= 0 für ein λ ∈ C und singulär sonst.
(d) Ist A + λB singulär, so hat (1.2) entweder keine oder unendlich viele Lösungen.
Satz 1.7 Weierstraß-Normalform, Kronecker-NormalformZu jedem regulären Matrixbüschel A + λB gibt es reguläre Matrizen P, Q, so dass
PAQ =
(C 00 I
), PBQ =
(I 00 N
)(1.3)
3
1 Grundlagen
mit N = blockdiag(N1,N2, . . . ,Nk) und Blöcken
Ni =
0 1
0 1. . . . . .
. . . 10
.
Beweis. Wähle c ∈ C so, dass A + cB regulär ist, und betrachte in
(A + cB)−1(A + λB) = (A + cB)−1(A + cB + (λ− c)B) = I + (λ− c)(A + cB)−1B
die Jordansche Normalform von (A + cB)−1B. Fasst man die Jordanblöcke zu den von Null verschie-denen Eigenwerten zusammen in J1 und die Jordanblöcke zu Null-Eigenwerten in J2, so gilt
T(I + (λ− c)(A + cB)−1B)T−1 =
(I 00 I
)+ (λ− c)
(J1 00 J2
)mit einer regulären Matrix T ∈ Cnx×nx . J1 und I− cJ2 sind regulär.
⇒(
I 00 I
)+ (λ− c)
(J1 00 J2
)=
(J1 00 I− cJ2
)((J−1
1 (I− cJ1) 00 I
)+ λ
(I 00 (I− cJ2)−1J2
)).
Da alle Eigenwerte von (I − cJ2)−1J2 verschwinden, folgt die Behauptung nach Transformation von(I− cJ2)−1J2 auf Jordansche Normalform.
Definition 1.8 Nilpotenz-IndexSei (1.3) die Normalform des (regulären) Matrixbüschels A + λB. Dann heißt
m : = max1≤i≤k
mi
Nilpotenz-Index von A + λB.
Bemerkung 1.9 Lineare DAEs mit konstanten Koeffizienten(a) Sei A + λB regulär und
Bx(t) + Ax(t) = d(t). (1.4)
⇔ PBQQ−1x(t) + PAQQ−1x(t) = Pd(t)
⇔ y(t) + Cy(t) = dy(t)Nz(t) + z(t) = dz(t)
}mit x = Q
(yz
), Pd =
(dy
dz
). Der algebraische Teil zerfällt in k Subsysteme
Niz[i](t) + z[i](t) = d
[i]z (t), (i = 1, . . . , k),
mit z[i](t) ∈ Rmi , vgl. Satz 1.7.
(b) Betrachte Nz(t) + z(t) = c(t) mit N =
0 1
0 1. . . . . .
0 10
∈ Rm×m.
zm(t) = cm(t)
zm(t) + zm−1(t) = cm−1(t)
...⇒ zm−1(t) = cm−1(t)− cm(t),
4
1.3 Zugrundeliegendes System gewöhnlicher Differentialgleichungen
vgl. Beispiel 1.2 (c) (ii).
Allgemein: Multipliziere den l-ten Block im Ableitungsfeld (engl.: derivative array)
Nz(t) + z(t) = c(t)Nz(t) + z(t) = c(t)
...Nz(m)(t) + z(m−1)(t) = c(m−1)(t)
mit (−N)l−1, (l = 1, . . . ,m).
(−N)m−1N︸ ︷︷ ︸=(−1)m−1Nm=0
z(m)(t) + (−N)0z(t) =
m∑l=1
(−N)l−1c(l−1)(t)
z(t) =m−1∑l=0
(−N)lc(l)(t) (1.5)
Ergebnis: Für c ∈ Cm−1(I) ist die Lösung z ∈ C(I) durch (1.5) eindeutig bestimmt. KonsistenteAnfangswerte z0 = z(t0) müssen (1.5) erfüllen.
Anmerkung: Schwächere Glattheitsvoraussetzungen möglich: Nlc ∈ C l(I), (l = 0, 1, . . . ,m−1).
1.3 Zugrundeliegendes System gewöhnlicher Differentialgleichungen
Definition 1.10 DifferentiationsindexGegeben sei eine differential-algebraische Gleichung (1.1) mit hinreichend oft stetig differenzierbarerFunktion F. Zu einem gegebenen m ∈ N betrachtet man das Ableitungsfeld
0 = F(t,x(t), x(t))
0 = ddtF(t,x(t), x(t)) = Ft + Fxx + Fxx
...0 = dm
dtm F(t,x(t), x(t)) = . . .+ Fxx(m+1)
(1.6)
Wenn man aus (1.6) Gleichungen auswählen kann, die durch algebraische Umformungen auf die Gestalt
x(t) = ϕ(t,x(t)) (1.7)
gebracht werden können, und wenn m die kleinste natürliche Zahl mit dieser Eigenschaft ist, dannheißt m Differentiationsindex von (1.1).
Definition 1.11 Zugrundeliegendes System gewöhnlicher DifferentialgleichungenHat die differential-algebraische Gleichung (1.1) den Differentiationsindex m, so heißt (1.7) das (derDAE) zugrundeliegende System gewöhnlicher Differentialgleichungen (engl.: underlying ODE).
Bemerkung 1.12 Differentiationsindex (a) Für lineare Systeme mit konstanten Koeffizientensind Nilpotenz-Index und Differentiationsindex gleich, denn mit einem weiteren Differentiati-onsschritt lässt sich das Ableitungsfeld in Bemerkung 1.9 (b) auflösen nach
z(t) =m−1∑l=0
(−N)lc(l+1)(t).
(b) Die Lösungsdarstellung (1.5) zeigt, dass zur numerischen Lösung eines Index-m-Systems ≤ m−1Differentiationsschritte ausreichend sind. Kunkel und Mehrmann [9] betrachten die Transforma-tion von (1.1) auf eine strangeness-freie Form
f(t,x(t), x(t)) = 0g(t,x(t)) = 0
},
5
1 Grundlagen
für die die Jacobimatrix(
fx(t,x, x)gx(t,x)
)regulär ist. Der zugehörige sog. Strangeness-Index ist meist
um Eins geringer als der Differentiationsindex.
(c) Häufig reicht es aus, statt des vollen Ableitungsfelds (1.6) nur die Ableitungen einzelner Glei-chungen von (1.1) zu betrachten. Für ein systematisches Vorgehen nutzt man graphentheoretischeHilfsmittel, z. B. Pantelides-Algorithmus (1988), [11].
(d) Unter geeigneten Glattheitsvoraussetzungen erfüllt die Lösung x(t) der DAE (1.1) alle Gleichun-gen des Ableitungsfelds (1.6). Notwendige Bedingung für die Lösbarkeit des Anfangswertproblems
x(t0) = x0, x(t0) = x0
für (1.1) ist deshalb die Existenz von Vektoren x[2]0 , . . . ,x
[m+1]0 , so dass
dl
dtlF(t,x(t), x(t))
∣∣∣∣∣( t=t0,x(t0)=x0,x(t0)=x0
dj
dtjx(t)∣∣t=t0
=x[j]0 , j=2,...,m
) = 0, (l = 0, 1, . . . ,m)
(konsistente Anfangswerte).
(e) Für differential-algebraische Gleichungen höherer Ordnung bestimmt man den Differentiations-index nach vorheriger Transformation in ein äquivalentes System erster Ordnung (1.1).
Beispiel 1.13 Mechanische Mehrkörpersysteme mit Zwangsbedingungen(a) Wird die Konfiguration eines mechanischen Systems durch Lagekoordinaten q ∈ Rnq beschrieben,
die gewissen Zwangsbedingungen
g(q(t)) = 0 mit g : Rnq → Rnλ und nλ ≤ nq
genügen müssen, so haben die Bewegungsgleichungen die allgemeine Form
M(q)q = f(q, q)−G>(q)λ0 = g(q)
}(1.8)
mit Lagrange-Multiplikatoren λ(t) ∈ Rnλ , einer symmetrischen, positiv definiten MassenmatrixM(q), einem Kraftvektor f(q, q) und der Zwangsmatrix G(q) : =(∂g/∂q)(q) mit rank G(q) = nλ(„Grübler-Bedingung“).
(b) Äquivalentes System erster Ordnung
0 = F(x, x) =
q− vM(q)v − f(q,v) + G>(q)λ
g(q)
mit x = (q,v,λ)> ∈ R2nq+nλ .
(c) (Reduziertes) Ableitungsfeld („versteckte“ Zwangsbedingungen)
0 =ddt
g(q(t)) =∂g
∂q(q(t))
dq
dt(t) = G(q(t))v(t) (1.9a)
0 =d2
dt2g(q(t)) = G(q(t))v(t) + gqq(q(t)) (v(t),v(t)) (1.9b)
mit gqq(q)(v,w) = ∂[G(q)v]∂q w, (w ∈ Rnq).(
M(q) G>(q)G(q) 0
)(vλ
)=
(f(q,v)
−gqq(q)(v,v)
)
6
1.3 Zugrundeliegendes System gewöhnlicher Differentialgleichungen
0 =ddt
(M(q)v − f(q,v) + G>(q)λ
G(q)v + gqq(q)(v,v)
)=
(M(q) G>(q)G(q) 0
)︸ ︷︷ ︸regulär, vgl. Übung
(v
λ
)+ h(q,v,λ)
⇒ zugrundeliegendes System gewöhnlicher Differentialgleichungenqv
λ
=
v(M(q))−1(f(q,v)−G>(q)λ)
ϕλ(q,v,λ)
⇒ (1.8) hat (höchstens) den Differentiationsindex 3.
(d) Beispiel: mathematisches Pendel in kartesischen Koordinaten.
q1
q2
mα
ggrav
q =
(q1
q2
)g(q) =
1
2
(q2
1 + q22 − l2
)G(q) =
(q1 q2
)mq1 = −q1λmq2 = −mggrav − q2λ
0 = 12
(q2
1 + q22 − l2
) (1.10)
Versteckte Zwangsbedingungen:
0 = q1q1 + q2q2
0 = q1q1 + q2q2︸ ︷︷ ︸G(q)
q1
q2
=G(q)v
+ q21 + q2
2︸ ︷︷ ︸gqq(q)(v,v)
Einsetzen von q1, q2 und Auflösen nach λ ergibt
λ = mq2
1 + q22 − q2ggravq2
1 + q22
(1.11)
Definition 1.14 Anfangswertproblem, konsistente Anfangswerte(a) Gibt es zu vorgegebenem t0 ∈ R ein a > 0 und ein x ∈ C1[t0 − a, t0 + a] mit
x(t0) = x0, x(t0) = x0
undF(t,x(t), x(t)) = 0, (t ∈ [t0 − a, t0 + a]),
so heißen die Anfangswerte x0, x0 konsistent (mit der differential-algebraischen Gleichung (1.1)im Punkt t = t0).
t
x
x0
t0 − a t0 t0 + a
x0
7
1 Grundlagen
(b) Betrachte zur differential-algebraischen Gleichung (1.1) die Bedingungen
x(t0) = x0, x(t0) = x0 (∗)
für ein t0 ∈ I und konsistente Anfangswerte x0, x0. Die Funktion x ∈ C1(I) heißt
Lösung des Anfangswertproblems (∗),
wenn x die Gleichungen (1.1) für alle t ∈ I und die Anfangsbedingungen (∗) bei t = t0 erfüllt.
Beispiel 1.15 Mathematisches Pendel: Konsistente Anfangswerte(a) Konsistente Anfangswerte (q0, q0, λ0)> zu (1.10) müssen die Bedingungen
0 =1
2
(q2
0,1 + q20,2 − l2
)und 0 = q0,1q0,1 + q0,2q0,2
erfüllen, λ0 ergibt sich aus (1.11).
(b) In einer Umgebung der Gleichgewichtslage
q∗ = (0,−l)>
sind durch Vorgabe von q0,1, q0,1 die konsistenten Anfangswerte x0, x0 bereits vollständig be-stimmt:
q0,2 = −√l2 − q2
,1, q0,2 = −q0,1
q0,2q0,1, λ0 aus (1.11).
8
2 Zeitintegration: Semi-expliziteIndex-1-Systeme
Bemerkung 2.1 AufgabenklasseDas differential-algebraische System
y = f(y, z)0 = g(y, z)
}(2.1)
heißt semi-explizit . Ist g stetig differenzierbar, so folgt
0 =ddt
g(y(t), z(t)) = gy(y, z)y + gz(y, z)z = [gyf ](y, z) + gz(y, z)z.
Ist gz(y, z) regulär, so ergibt sichz = −
[g−1
z gyf]
(y, z)
und damit Differentiationsindex 1. Für Lipschitz-stetige f , gy, gz zeigt man die lokal eindeutige Lös-barkeit des Anfangswertproblems
y(t0) = y0, z(t0) = z0
zu konsistente Anfangswerten y0, z0, (d. h. g(y0, z0) = 0). Ist gz(y, z) in einer Umgebung
Uγ : = {(η, ζ) : ‖η − y(t)‖+ ‖ζ − z(t)‖ ≤ γ für ein t0 ∈ [t0, te]}
t
η, ζ
t0 te
y0, z0
y(t), z(t)
Uγ
einer Lösung (y(t), z(t)), (t ∈ [t0, te]), von (2.1) regulär und ‖g−1z (y, z)‖ gleichmäßig beschränkt auf
Uγ , so definiert 0 = g(y, z) nach dem Satz über die Implizite Funktion eine stetig differenzierbareFunktion G mit z(t) = G(y(t)), (t ∈ [t0, te]), und (2.1) ist äquivalent zum System gewöhnlicherDifferentialgleichungen
y = ϕ(y) : = f(y,G(y)) (2.2)
Bemerkung 2.2 Linear-implizite Systeme(a) Für reguläre Matrizen B ∈ Rnx×nx ist das linear-implizite System
Bx = w(x) (2.3)
äquivalent zum System gewöhnlicher Differentialgleichungen
x = ϕ(x)
mit Bϕ(x) = w(x).
9
2 Zeitintegration: Semi-explizite Index-1-Systeme
(b) Für rang-defiziente Matrizen B ∈ Rnx×nx mit r : = rank B, 0 < r < nx, transformiert man Bmittels Gauß-Algorithmus mit Zeilen- und Spaltenvertauschung auf Trapezgestalt
PLBPR = L ·(
R1 R2
0 0
)mit Permutationsmatrizen PL, PR, einer unipotenten unteren Dreiecksmatrix L ∈ Rnx×nx , ei-ner regulären oberen Dreiecksmatrix R1 ∈ Rr×r und einer Matrix R2 ∈ Rr×(nx−r). ⇒ B =
S
(Ir 00 0
)T mit regulären Matrizen
S : = P−1L , T : =
(R1 R2
0 Inx−r
)RR−1.
Bx = w(x) ⇔ y = f(y, z)0 = g(y, z)
}mit
(yz
)= Tx,
(fg
)= S−1w, y ∈ Rr, z ∈ Rnx−r.
Index-1-Bedingung gz(y, z) regulär:
gz(y, z) =(0 Inx−r
)S−1wx(x)T−1
(0
Inx−r
)Konsistente Anfangswerte
w(x0) ∈ im B, Bx0 = w(x0)
Bemerkung 2.3 Singulär gestörte Systeme gewöhnlicher Differentialgleichungen(a) Betrachte
yε = f(yε, zε)εzε = g(yε, zε)
}(2.4)
mit einem kleinen Parameter ε > 0. Für ε → 0 wird der Koeffizient blockdiag(Iny , εInz) von(yε
zε
)singulär.
singulär gestörte Probleme.
Gilt für alle Eigenwerte λi von gz(y, z) die Beziehung <λi[gz(y, z)] ≤ −β mit einem β > 0, sozeigt man
‖yε(t)− y0(t)‖ = O(ε)‖zε(t)− z0(t)‖ = ζ(t/ε) +O(ε)
}, (t ∈ [t0, te]),
mit einer Funktion ζ = ζ(τ), für die gilt ‖ζ(τ)‖ ≤ C e−βτ mit einer Konstante C > 0 undβ ∈ (0, β). Hierbei ist (y0, z0) die Lösung des reduzierten Problems
y0 = f(y0, z0)0 = g(y0, z0)
}(2.5)
mit konsistenten Anfangswerten y0(t0), z0(t0) und y0(t0) = yε(t0).
−β<λi
=λi
t0 te
z0(t0)
zε(t0) zε1(t)
ε2 < ε1ε3 < ε2
z0(t)t
z
10
(b) Für Systeme gewöhnlicher Differentialgleichungen gibt es eine Vielzahl numerischer Lösungsver-fahren. ⇒ Direkter Zugang zur Konstruktion von Verfahren für semi-explizite Systeme (2.1):Betrachte in der Verfahrensvorschrift für (2.4) den Grenzübergang ε→ 0.
Beispiel: s-stufiges Runge-Kutta-Verfahren mit Gewichten bj und Runge-Kutta-Parametern aij ,(i, j = 1, . . . , s).
t0 tn tn+1 te
x0
xn+1
xn
x(t)
t
x
Zeitschritt tn → tn+1 = tn + h, xn 7→ xn+1 mit xn ≈ x(tn), xn+1 ≈ x(tn+1)
Xni − xnh
=s∑i=1
aijϕ(Xnj), (i = 1, . . . , s),
xn+1 − xnh
=s∑j=1
bjϕ(Xnj)
Hier: x =
(yε
zε
),(
Iny
εInz
)ϕ(x) =
(f(yε, zε)g(yε, zε)
)
⇒ zεn+1 = zεn + hs∑j=1
bj ·1
εg(Yε
nj ,Zεnj)
mitZεni − zεn
h=
s∑j=1
aij1
εg(Yε
nj ,Zεnj), (i = 1, . . . , s). Ist die Runge-Kutta-Matrix A = (aij)
si,j=1
regulär, so sei A−1 = (wki)sk,i=1 ⇒
∑si=1wkiaij = δkj , (k, j = 1, . . . , s).
s∑i=1
wkiZεni − zεn
h=
s∑j=1
δkj1
εg(Yε
nj ,Zεnj) =
1
εg(Yε
nk,Zεnk)
⇒ zεn+1 =
1−s∑j=1
s∑i=1
bjwji
zεn +
s∑j=1
bjwjiZεni
g(Yεnj ,Z
εnj) = ε
s∑i=1
wjiZεni − zεn
h= 0, (ε→ 0)
Bezeichnung: Yεnj = f(Yε
nj ,Zεnj)
Yεni − yεnh
=
s∑j=1
aijYεnj , (i = 1, . . . , s)
yεn+1 − yεnh
=s∑j=1
bjYεnj
mitYεnj = f(Yε
nj ,Zεnj)
0 = g(Yεnj ,Z
εnj)
}, (j = 1, . . . , s).
11
2 Zeitintegration: Semi-explizite Index-1-Systeme
Bemerkung 2.4 Linear-implizite Systeme (II)Die Transformation der linear-impliziten Systeme (2.3) auf semi-explizite Form (2.1), vgl. Bemer-kung 2.2, muss nicht ausgeführt werden, wenn Zeitintegrationsverfahren verwendet werden, die invari-ant gegenüber linearen Transformationen sind:
Bx = wy = f(y, z)0 = g(y, z)
BXnj = w(Xnj)Ynj = f(Ynj ,Znj)
0 = g(Ynj ,Znj)
Tx =
(yz
), w = S
(fg
)
Diskretisierung
Tx =
(yz
), w = S
(fg
)
Diskretisierung
Beispiel 2.5 One-leg-θ-Verfahrens = 1, a11 = θ mit θ ∈ (0, 1] w11 = 1
θ , b1 = 1.
Xn1 − xnh
= θXn1 mit BXn1 = w(Xn1)
xn+1 − xnh
= Xn1 ⇒ Xn1 = (1− θ)xn + θxn+1
xn+1 = xn + hXn1 mit BXn1 = w ((1− θ)xn + θxn+1)
Bxn+1 − xn
h= w ((1− θ)xn + θxn+1)
Semi-explizit:
yn+1 − ynh
= f ((1− θ)yn + θyn+1, (1− θ)zn + θzn+1)
0 = g ((1− θ)yn + θyn+1, (1− θ)zn + θzn+1)
Nichtlineares Gleichungssystem der Dimension ny + nz, Jacobimatrix(1hIny +O(1) O(1)O(1) θgz(yn, zn) +O(h)
)regulär für h ∈ (0, h0] und h0 � 1, falls gz(yn, zn) regulär.
2.1 Einschrittverfahren für semi-explizite Index-1-Systeme
Bemerkung 2.6 VerfahrensklasseGegeben sei das System (2.1)
y(t) = f(y(t), z(t))0 = g(y(t), z(t))
}mit regulärer Jacobimatrix gz(y, z).Zeitschritt: tn → tn+1 = tn + h
y(tn+1) = y(tn) +
∫ tn+1
tn
y(τ) dτ = y(tn) + h
∫ 1
0y(tn + sh) ds
= y(tn) + h ·∫ 1
0f (y(tn + sh), z(tn + sh)) ds, (τ : = tn + sh, dτ = h ds)
(nach Hauptsatz der Differential- und Integralrechnung).
z(tn+1) = G (y(tn+1)) mit 0 = g (y,G(y))
12
2.1 Einschrittverfahren für semi-explizite Index-1-Systeme
(nach dem Satz über die Implizite Funktion)Einschrittverfahren: yn ≈ y(tn), zn ≈ z(tn)
yn+1 = yn + hΦ(yn, zn; f ,g;h)zn+1 = Ψ(yn, zn; f ,g;h)
}(2.6)
mit Lipschitz-stetigen Verfahrensfunktionen Φ und Ψ, Lipschitz-Konstanten LΦ,y, LΦ,z, LΨ,y undLΨ,z.Beispiel: Implizite Runge-Kutta-Verfahren, vgl. Bemerkung 2.3(b)
zn+1 =
1−s∑
i,j=1
bjwji
zn +s∑
i,j=1
bjwjiZni mit Zni = Zni(yn, zn;h).
Lipschitz-Konstante LΨ,z = max∥∥∥∂zn+1
∂zn
∥∥∥0 = g (Yni(yn, zn;h),Zni(yn, zn;h))
0 = gy (yn +O(h), zn +O(h))∂Yni
∂zn+ gz (yn +O(h), zn +O(h))
∂Zni∂zn
mit regulärer Jacobimatrix
gz(yn, zn)
⇒∥∥∥∥∂Zni∂zn
∥∥∥∥ = O(1)
∥∥∥∥∂Yni
∂zn
∥∥∥∥ , (i = 1, . . . , s)
⇒ ∂Yni
∂zn= O(h)
s∑j=1
(∥∥∥∥∂Ynj
∂zn
∥∥∥∥+
∥∥∥∥∂Znj∂zn
∥∥∥∥) = O(h)
s∑j=1
∥∥∥∥∂Ynj
∂zn
∥∥∥∥ ,denn Yni = yn + h
s∑j=1
aijf(Ynj ,Znj).
Ergebnis:∂Yni
∂zn= O(h),
∂Zni∂zn
= O(h), (i = 1, . . . , s)
und analog∂Yni
∂yn= Iny +O(h),
∂Zni∂zn
= O(h), (i = 1, . . . , s).
⇒ Lipschitz-Konstanten LΦ,y, LΦ,z, LΨ,y = O(1) und
LΨ,z =
∣∣∣∣∣∣1−s∑
i,j=1
bjwji
∣∣∣∣∣∣+O(h)
Definition 2.7 Lokaler und globaler Fehler
(a) Der globale Fehler des Einschrittverfahrens (2.6) ist gegeben durch
εn,y : = yn − y(tn), εn,z : = zn − z(tn).
(b) Der lokale Fehler des Einschrittverfahrens (2.6) ist gegeben durch
len,y : = y(tn) + hΦ (y(tn), z(tn); f ,g;h)− y(tn+1),
len,z : = Ψ (y(tn), z(tn); f ,g;h)− z(tn+1).
13
2 Zeitintegration: Semi-explizite Index-1-Systeme
t0 tn tn+1 te
y0
y(t)
yn
y(tn)
yn+1 ≈ y(tn+1)
yn + hΦ(y(tn), z(tn); . . .)
εn,y
len,y
t
y
Bemerkung 2.8 FehlerrekursionZum Einschrittverfahren (2.6) seien LΦ,y, LΦ,z, LΨ,y und LΨ,z die Lipschitz-Konstanten der Verfah-rensfunktionen Φ und Ψ bezüglich y beziehungsweise z.
εn+1,y = yn+1 − y(tn+1)
(2.6)= yn + hΦ(yn, zn; f ,g;h)− (y(tn) + hΦ (y(tn), z(tn); f ,g;h)) +
+ (y(tn) + hΦ (y(tn), z(tn); f ,g;h))− y(tn+1)︸ ︷︷ ︸len,y
‖εn+1,y‖ ≤ ‖yn − y(tn)‖+ h ‖Φ(yn, zn; f ,g;h)−Φ (y(tn), z(tn); f ,g;h)‖≤ (1 + LΦ,yh) ‖yn − y(tn)‖+ LΦ,z‖zn − z(tn)‖+ ‖len,y‖≤ (1 + LΦ,yh) ‖εn,y‖+ LΦ,zh‖εn,z‖+ ‖len,y‖
analog:‖εn+1,z‖ ≤ LΨ,y‖εn,y‖+ LΨ,z‖εn,z‖+ ‖len,z‖
Betrachte Lipschitz-Konstanten LΦ,y, LΦ,z, LΨ,y und LΨ,z in
Uγ : = {(η, ζ) : ‖η − y(t)‖+ ‖ζ − z(t)‖ ≤ γ für ein t ∈ [t0, te]}
für ein γ > 0 und wähle L ≤ 0 und α ≥ 0 so, dass LΦ,y, LΦ,z, LΨ,y ≤ L und LΨ,z ≤ α in Uγ
⇒(‖εn+1,y‖‖εn+1,z‖
)≤(
1 + Lh LhL α+ Lh
)︸ ︷︷ ︸
=: T(h)
(‖εn,y‖‖εn,z‖
)+
(‖len,y‖‖len,z‖
).
Verbleibt (yn, zn) für alle n ≥ 0 mit tn = t0 +nh ≤ te in Uγ(!), so folgt mittels vollständiger Induktion(‖εn,y‖‖εn,z‖
)≤ (T(h))n
(‖ε0,y‖‖ε0,z‖
)︸ ︷︷ ︸
=0
+
n−1∑m=0
(T(h))m(hMM
)(2.7)
mit M : = max0≤m≤n 1h‖lem,y‖+ max0≤m≤n‖lem,z‖.
Lemma 2.9 FehlerrekursionZu vorgegebenen nichtnegativen Konstanten L, M und α mit α < 1 gibt es Konstanten C ≥ 0, L ≥ 0und h0 > 0 so, dass ∥∥∥∥∥
n−1∑m=0
(1 + Lh LhL α+ Lh
)m(hMM
)∥∥∥∥∥1
≤ C eLnh ·M
für alle h ∈ (0, h0].
14
2.1 Einschrittverfahren für semi-explizite Index-1-Systeme
Beweis. Übungen
Definition 2.10 Konsistenzordnung, Konvergenzordnung(a) Das Einschrittverfahren (2.6) hat die Konsistenzordnung p, wenn die lokalen Fehler für hinrei-
chend oft stetig differenzierbare Funktionen f und g die Bedingungen
‖len,y‖ = O(hp+1), ‖len,z‖ = O(hp)
erfüllen.
(b) Das Einschrittverfahren (2.6) hat die Konvergenzordnung p, wenn die globalen Fehler für hin-reichend oft stetig differenzierbare Funktionen f und g und für alle n ≥ 0 mit t0 + nh ≤ te dieBedingung
‖εn,y‖+ ‖εn,z‖ = O(hp)
erfüllen.
Satz 2.11 Konvergenz von EinschrittverfahrenErfüllt ein Einschrittverfahren (2.6) der Konsistenzordnung p die Kontraktivitätsbedingung LΨ,z < 1,so konvergiert es mit Ordnung p.
Beweis. Konsistenzordnung p ⇒ M ≤ CMhp in (2.7). Für tn = t0 + nh ∈ [t0, te] schätzt man in
Lemma 2.9 den Faktor eLnh nach oben ab durch eL(te−t0) ⇒ ‖εn,y‖ + ‖εn,z‖ ≤ C · CM · eL(te−t0) hp,falls tn ∈ [t0, te], h ∈ (0, h0] und ‖εm,y‖ + ‖εm,z‖ ≤ γ, (0 ≤ m < n). Wählt man h0 ∈ (0, h0] so, dassCCM eL(te−t0) hp ≤ γ, so folgt mittels vollständiger Induktion
‖εn,y‖+ ‖εn,z‖ ≤ γ, (tn ∈ [t0, te]),
und hieraus die Behauptung (vgl. Übungen).
Beispiel 2.12 Halb-explizite Runge-Kutta-VerfahrenExplizite Runge-Kutta-Verfahren: aij = 0, (j ≥ i) Stufenvektoren können (für x = ϕ(x)) nachein-ander berechnet werden:
Xn1 = xn,
Xn2 = xn + ha21Xn1 = xn + ha21ϕ(Xn1),
Xn3 = xn + ha31ϕ(Xn1) + ha32ϕ(Xn2), . . .
Yni = yn + h∑i−1
j=1 aij f(Ynj ,Znj)︸ ︷︷ ︸=Ynj0 = g(Yni,Zni)
}(i = 1, . . . , s),
yn+1 = yn +s∑j=1
bjf(Ynj ,Znj)
Definition von zn+1?
(a) 0 = g(yn+1, zn+1)
(b) zn+1 =
s∑j=1
µjZnj mit geeigneten Parametern µ1, µ2, . . . , µs.
Verfahren (a):
• Klassische Konvergenzordnung, da
Zni = G(Yni), zn+1 = G(yn+1), f(Ynj ,Znj) = f(Ynj ,G(Ynj)) = ϕ(Ynj),
vgl. (2.2).
15
2 Zeitintegration: Semi-explizite Index-1-Systeme
• Kontraktivitätsbedingung: LΨ,z = O(h), da Ψ(yn, zn; f ,g;h) = Ψ(yn+1, zn+1; f ,g;h) und
∂yn+1
∂zn= h
∂Φ
∂zn(yn, zn; f ,g;h) = O(h).
Praktische Implementierung: Endlich viele Schritte des vereinfachten Newtonverfahrens zur Lösungvon 0 = g(Yn, ζ). Startwerte?
Zn1 : = zn,
i = 2, . . . , s : Z(0)ni : =
i−1∑j=1
νijZnj , Zni = Z(κi)ni
mit gz(yn, zn)(Z
(k+1)ni − Z
(k)ni
)= −g(Yni,Z
(k)ni ), (k ≥ 0).
z(0)n+1 : =
s∑j=1
µjZnj , zn+1 : = z(κs+1)n+1
mit gz(yn, zn)(z
(k+1)n+1 − z
(k)n+1
)= −g(yn+1, z
(k)n+1), (k ≥ 0). Optimale Wahl von νij , µj , κi?
Untersuchung des lokalen Fehlers mittels Taylorentwicklung.
Bemerkung 2.13 Taylorentwicklung der analytischen Lösung
y = f(y, z)0 = g(y, z)
}, gz(y, z) regulär Implizite
========⇒Differentiation
0 = gyy + gzzz(t) = −[g−1
z gyf ](y(t), z(t))
(y = f(y, z): ) Und für höhere Ableitungen erhält man
y(t) =ddt
y(t) =ddt
f(y(t), z(t)) = fyy + fzz =fyf − fzg
−1z gyf
ddt
(gyy + gzz) = gyy(y, y) + gyy + 2gyz(y, z) + gzz(z, z) + gzz
z =
−g−1z gyy(f , f) −g−1
z gyfyf +g−1z gyfzg
−1z gyf
−2g−1z gyz(f ,−g−1
z gyf) −g−1z gzz(−g−1
z gyf ,−g−1z gyf)
und so weiter. Systematische Erstellung der Taylorentwicklung unter Verwendung graphentheoretischerHilfsmittel (Baummodell)
z(t+ h) = z(t) + hz(t) +h2
2z(t) +O(h3).
Bemerkung 2.14 Taylorentwicklung der numerischen Lösung(a) Sind die Taylorentwicklungen von Znj , (j = 1, . . . , i − 1), bekannt, so ergibt sich die Taylorent-
wicklung von Z(0)ni =
∑i−1j=1 νijZnj durch Linearkombination
(∑i−1j=1 νij = 1
).
16
2.1 Einschrittverfahren für semi-explizite Index-1-Systeme
(b) Ist ‖Yni − yn‖+ ‖Z(0)ni − zn‖ = O(h) mit ‖g(yn, zn)‖ = O(h), so folgt aus
gz(yn, zn)(Z
(k+1)ni − Z
(k)ni
)= −g(Yni,Z
(k)ni ),
dass ‖g(Yni,Z(k+1)ni ) = O(h) · ‖g(Yni,Z
(k)ni )‖, denn
g(Yni,Z(k+1)ni ) = g(Yni,Z
(k)ni ) + gz(Yni,Z
(k)ni )
(Z
(k+1)ni − Z
(k)ni
)+O(‖Z(k+1)
ni − Z(k)ni ‖2)
= −gz(yn, zn)(Z
(k+1)ni − Z
(k)ni
)+ gz(Yni,Z
(k)ni )
(Z
(k+1)ni − Z
(k)ni
)+O(‖Z(k+1)
ni − Z(k)ni ‖2)
= O(h) · ‖Z(k+1)ni − Z
(k)ni ‖ = O(h)‖g(Yni,Z
(k)ni )‖,
denn
Z(k+1)ni − Z
(k)ni = −g−1
z (yn, zn)g(Yni,Z(k)ni ) = O(1)‖g(Yni,Z
(k)ni )‖
= O(1)(‖g(yn, zn)‖︸ ︷︷ ︸
=O(h)
+O(h))
= O(h).
(c) Sei Znj = z(tn)−hZnj( )
[g−1z gyf ](y(tn), z(tn))+O(h2), so ist Zn1
( )= 0, denn Zn1 = zn =
z(tn) und
Zni( )
=
{∑i−1j=1 νijZnj
( ), falls κi = 0,∑i−1
j=1 aij , falls κi ≥ 1,
sofern∑i−1
j=1 νij = 1, (i = 1, . . . , s), denn dann gilt Zni = z(tn) +O(h)
⇒ f(Yni,Zni) = f(y(tn), z(tn)) +O(h),
⇒ Yni = y(tn) + h
i−1∑j=1
aijf(Ynj ,Znj)
= y(tn) + h
i−1∑j=1
aijf(y(tn), z(tn)) +O(h2)
≈ y
tn +i−1∑j=1
aij · h
+O(h2),
also nach (b) auch
Zni = z
tn +
i−1∑j=1
aij · h
+O(h2) = z(tn) + h
i−1∑j=1
aij z(tn) +O(h2).
Bemerkung 2.15 Konsistenzbedingungen und Konvergenz
p = 1:s∑i=1
bi = 1
p = 2: Lokale Fehler O(h3) in y und O(h2) in z, vgl. Definition 2.10a)s∑i=1
biaij =1
2, kurz
s∑i=1
bici =1
2mit ci : =
i−1∑j=1
aij , c1 : = 0
s∑i,j=1
bia∗ij =
1
2mit a∗ij : =
{∑i−1k=j+1 νikakj , falls κi = 0,
aij sonst.s∑
i,j=1
µia∗ij = 1 oder κs+1 ≥ 1, vgl. [2]
17
2 Zeitintegration: Semi-explizite Index-1-Systeme
Ist κs+1 ≥ 1 und h > 0 ausreichend klein, so ist die Kontraktivitätsbedingung LΨ,z < 1 aus Satz 2.11stets erfüllt, wenn
z(k+1)n+1 = z
(k)n+1 − g−1
z (yn, zn)g(yn+1, z(k)n+1), (k ≥ 0)
⇒ ∂z(k+1)n+1
∂zn=∂z
(k)n+1
∂zn− ∂
∂zn
(g−1
z (yn, zn) g(η, ζ)︸ ︷︷ ︸=O(h),
denn∑
i µi = 1
)∣∣∣∣η=yn+1,ζ=z
(k)n+1
− g−1z (yn, zn)
(gy(yn+1, z
(k)n+1)
∂yn+1
∂zn︸ ︷︷ ︸=O(h)
+gz(yn+1, z(k)n+1)
∂z(k)n+1
∂zn
)
= g−1z
(gz(yn, zn)− gz(yn+1, z
(k)n+1)︸ ︷︷ ︸
=O(h)
) ∂z(k)n+1
∂zn︸ ︷︷ ︸=O(1)
+O(h)
= O(h)
Beispiel 2.16 Halb-explizite Runge-Kutta-VerfahrenSeien
∑i−1j=1 aij = ci,
∑i−1j=1 νij = 1, (i = 2, . . . , s),
∑sj=1 µj = 1.
p = s = 1: b1 = 1, µ1 = 1, κ2 ≥ 1
p = s = 2:s∑i=1
bicki =
1
k + 1, (k = 0, 1), ν21 = 1, µ1 + µ2 = 1, µ2 =
1
c2, κ2 ≥ 1, κ2 ≥ 1
p = s = 3:s∑i=1
bicki =
1
k + 1, (k = 0, 1, 2), b3a32c2 =
1
6, ν21 = 1, ν31 + ν32 = 1, ν32 =
c3
c2,
µ1 + µ2 + µ3 = 1
mit µ2 =1− µ3c3
c2und µ3 ∈ R beliebig, κ2 ≥ 2 (b2 = 0, κ2 ≥ 1), κ3 ≥ 1, κ4 ≥ 1.
2.2 Lineare Mehrschrittverfahren für semi-explizite Index-1-Systeme
Bemerkung 2.17 Lineare Mehrschrittverfahren(a) Ein lineares k-Schritt-Verfahren verwendet k ≥ 1 Startwerte x−j : = x(t0− jh), (j = 0, 1, . . . , k−
1), um rekursiv mittels
k∑j=0
αjxn+1−j = hk∑j=0
βjϕ(xn+1−j), (n ≥ 0) (2.8)
eine numerische Lösung xn+1 ≈ x(tn+1) des Anfangswertproblems
x(t) = ϕ(x(t)), (t ∈ [t0, te]), x(t0) = x0
zu bestimmen
t−(k−1) t−1 t0 tn−(k−1) · · · tn−1 tn tn+1
x0
xn
xn+1
t
x
Verfahrensparameter: k, αj , βj , (j = 0, 1, . . . , k) mit α0 6= 0, α2k + β2
k > 0
Startwerte:
18
2.2 Lineare Mehrschrittverfahren für semi-explizite Index-1-Systeme
• oft auch xj ≈ x(t0 + jh), (j = 0, 1, . . . , k − 1), so dass Berechnung erst mit xn+1 = xkbeginnt (n ≥ k − 1),
• Bestimmung z. B. mittels eines Runge-Kutta-Verfahrens,
• professionelle Software: „selbststartend“, d. h., beginnend mit k = 1 im ersten Integrations-schritt (n = 0) wird k schrittweise erhöht (sehr) kleine Schrittweiten h in den erstenIntegrationsschritten, Schrittweitensteuerung.
(b) Lokaler (Abbruch-) Fehler: Einsetzen der analytischen Lösung
x = x(t)
in die Verfahrensvorschrift (2.8):
ln : =k∑j=0
αjx(t0 + (n+ 1− j)h︸ ︷︷ ︸=tn+1−j
)− hk∑j=0
βj ϕ(x(t0 + (n+ 1− j)h))︸ ︷︷ ︸=x(tn+1−j)
Taylorentwicklung in tn−(k−1) = t0 + (n− (k − 1))h
⇒ ln =
k∑j=0
αj∑r≥0
drxdtr
(tn−(k−1))(k − j)r
r!hr − h
k∑j=0
βj∑r≥0
dr+1x
dtr+1(tn−(k−1))
(k − j)rr!
hr︸ ︷︷ ︸=∑k
j=0 βj∑
r≥1drxdtr
(tn−(k−1))(k−j)r−1
(r−1)!hr
Koeffizientenvergleich für hr:
r = 0 :
k∑j=0
αj!
= 0,
r > 0 :1
r!
k∑j=0
αj(k − j)r − rk∑j=0
βj(k − j)r−1
!= 0
(c) Explizite Verfahren: β0 = 0, sonst: Implizite Verfahren, Bestimmung von xn+1 als Lösung einesnichtlinearen Gleichungssystems („Korrektorgleichungen“).
Bemerkung 2.18 Erweiterung auf semi-explizite Index-1-Systeme
(a) Direkter Zugang:
x =
(yz
), ϕ =
(f
1εg
), ε→ 0
∑kj=0 αjyn+1−j = h
∑kj=0 βjf(yn+1−j , zn+1−j)
0 =∑k
j=0 βjg(yn+1−j , zn+1−j)
}(2.9)
formal: g(yn+1−j0 , zn+1−j0) = 0, falls g(yj , zj) = 0, (j = 0, 1, . . . , k − 1) und β0 = β1 = · · · =βj0−1, βj0 6= 0.
(b) Indirekter Zugang:k∑j=0
αjyn+1−j = h
k∑j=0
βjyn+1−j mit
yn+1 = f(yn+1, zn+1)0 = g(yn+1, zn+1)
}
19
2 Zeitintegration: Semi-explizite Index-1-Systeme
Bemerkung 2.19 Gekoppelte Fehlerrekursion(a) Setzt man in (2.9) die analytische Lösung (y(tn+1−j), z(tn+1−j)) ein, so verbleibt ein Residuum(
leyn
0
)
⇒k∑j=0
αj εn+1−j,y = O(h)k∑j=0
(‖εn+1−j,y‖+ ‖εn+1−j,z‖)− leyn,
0 = O(1)k∑j=0
(‖εn+1−j,y‖+ ‖εn+1−j,z‖) + gz(y(tn), z(tn))k∑j=0
βj εn+1−j,z,
falls ‖εm,y‖+ ‖εm,z‖ ≤ C · h, (m ≥ 0), für eine geeignet gewählte Konstante C > 0.
(b) Sei
Eyn : =
εn,yεn−1,y
...εn−(k−1),y
∈ Rkny , Ezn : =
εn,zεn−1,z
...εn−(k−1),z
∈ Rknz ,
so gilt für implizite Verfahren (β0 6= 0):
Eyn+1−A⊗Ey
n = O(h) (‖Eyn‖+ ‖Ez
n‖) +O(1)‖leyn‖,
Ezn+1−B⊗Ez
n = O(1)‖Eyn‖+O(h)‖Ez
n‖mit
A⊗ =
−α1α0−α2α0· · · −αk−1
α0−αkα0
1 0 · · · · · · 00 1 · · · · · · 0...
.... . . 0
0 0 · · · 1 0
︸ ︷︷ ︸
=: A∈Rk×k
⊗Iny ∈ Rkny×kny ,
B⊗ =
−β1β0−β2β0· · · −βk−1
β0−βkβ0
1 0 · · · · · · 00 1 · · · · · · 0...
.... . . 0
0 0 · · · 1 0
︸ ︷︷ ︸
=: B∈Rk×k
⊗Inz ∈ Rknz×knz .
Beachte: Ist J = blockdiag(J1, . . . ,Jr) die Jordansche Normalform einer Matrix S ∈ Rk×k, soist
J⊗ = blockdiag(J1, . . . ,J1︸ ︷︷ ︸n-mal
,J2, . . . ,J2︸ ︷︷ ︸n-mal
,J3, . . . ,Jk−1,Jk, . . . ,Jk︸ ︷︷ ︸n-mal
)
die Jordansche Normalform von S⊗ In. Also existiert zu jedem ε > 0 eine mit einer Vektornorm‖·‖ε verträgliche Matrixnorm ‖·‖ε, so dass
‖S‖ε ≤ max {max{|λi| : ni = 1},max{|λi| : ni > 1}+ ε} ,wobei ni die Dimension des Jordanblocks
Ji =
λi 1
λi 1. . . . . .
. . . 1λi
bezeichnet, vgl. Übung.
20
2.2 Lineare Mehrschrittverfahren für semi-explizite Index-1-Systeme
Definition 2.20 (Starke) WurzelbedingungEin Polynom p(ζ) erfüllt die Wurzelbedingung , falls
p(ζ) = 0 ⇒ |ζ| ≤ 1 und p(ζ) = p′(ζ) = 0 ⇒ |ζ| < 1.
Es erfüllt die starke Wurzelbedingung , falls
p(ζ) = 0 ⇒ |ζ| < 1.
Satz 2.21 Konvergenz von linearen Mehrschrittverfahren
(a) Ein lineares Mehrschrittverfahren mit
k∑j=0
αj = 0,k∑j=0
αj(k − j)r =1
r
k∑j=0
βj(k − j)r−1, (r = 1, 2, . . . , p) (2.10)
hat einen lokalen Abbruchfehler leyn = O(hp+1).
(b) Erfüllt ein implizites lineares Mehrschrittverfahren
• für ρ(ζ) : =
k∑j=0
αjζj die Wurzelbedingung und
• für σ(ζ) : =k∑j=0
βjζk−j die starke Wurzelbedingung
und die Konsistenzbedingung (2.10), so konvergiert es bei Anwendung auf semi-explizite Index-1-Systeme (2.1) mit Ordnung p, sofern die Startwerte die Bedingung
‖y−j − y(t0 − jh)‖+ ‖z−j − z(t0 − jh)‖ = O(hp), (j = 0, 1, . . . , k − 1)
erfüllen.
Beweis. (a) mittels Taylorentwicklung, vgl. Bemerkung 2.17(b)
(b) Entwickelt man für die Matrizen A,B ∈ Rk×k aus Bemerkung 2.19(b) die Determinanten vonλIk −A und λIk −B, so folgt
det(λIk −A) =1
α0ρ(λ), det(λIk −B) =
1
β0σ(λ),
also existieren nach Bemerkung 2.19(b) wegen der (starken) Wurzelbedingung für ρ und σ Normen‖·‖y und ‖·‖z mit ‖A⊗‖y ≤ 1, ‖B⊗‖z < 1 und man erhält (vgl. Übung)
‖εn,y‖+ ‖εn,z‖ ≤ C eL(tn−t0)
(‖Ey
0‖+ ‖Ez0‖+ max
0≤m≤n1
h‖ley
m‖)
= O(hp),
falls tn ∈ [t0, te].
21
3 Differential-algebraische Gleichungenhöheren Indexes
3.1 Systeme in Hessenbergform
Definition 3.1 HessenbergformEin semi-explizites differential-algebraisches System
x[1] = F[1](t,x[1],x[2], . . . ,x[m−1],x[m]),
x[k] = F[k](t,x[k−1],x[k], . . . ,x[m−1]), (k = 2, 3, . . . ,m− 1)...
...0 = F[m](t,x[m−1])
(3.1)
hat Hessenbergform der Größe m, (m ≥ 2), wenn F : =
F[1]
F[2]
...F[m]
stetig differenzierbar ist und
∂F[m]
∂x[m−1]· ∂F[m−1]
∂x[m−2]· · · ∂F[2]
∂x[1]
∂F[1]
∂x[m]
in einer Umgebung der Lösung
x(t) : =
x[1](t)
x[2](t)...
x[m](t)
regulär ist.
Beispiel 3.2 Systeme in Hessenbergform
(a) Mit m = 2, x[1] =: y, x[2] =: z erhält man
y = f(y, z)0 = g(y).
}(3.2)
Ist ∂g∂y (y) · ∂f
∂z(y, z) regulär, so hat (3.2) Hessenbergform der Größe m = 2.
Versteckte „Zwangsbedingungen“:
0 =ddt
g(y(t)) =∂g
∂y(y(t)) · dy
dt(y) = [gyf ](y, z)
Ist gyfz regulär, so lässt sich diese Gleichung (formal) nach z auflösen; der Differentiationsindexist (höchstens) zwei.
Das Index-2-System (3.2) ist analytisch äquivalent zu dem semi-expliziten Index-1-System (2.1):
y = f(y, z)0 = [gyf ](y, z)
}
23
3 Differential-algebraische Gleichungen höheren Indexes
(b) Differential-algebraisches System in Hessenbergform der Größe m = 3:
x[2] : = y, x[1] : = z, x[3] : = u
y = f(y, z)z = k(y, z,u)0 = g(y)
(3.3)
mit regulärer Matrix [gyfzku](y, z,u) Differentiationsindex (≤)3.
System (3.3) ist analytisch äquivalent zum Index-2-System (3.2): Ersetze 0 = g(y(t)) durch
0 =ddt
g(y(t)) =∂g
∂y(y(t))
dy
dt(t) = [gyf ](y, z)
y = f(y, z)z = k(y, z,u)0 = [gyf ](y, z)
Spezialfall: Bewegungsgleichungen (1.8) von mechanischen Mehrkörpersystemen mit
q = v
v = [M−1fMKS](q,v)− [M−1G>](q) · λ0 = g(q)
y : = q, z : = v, u : =λ, f(y, z) = v, k(y, z,u) = M−1fMKS −M−1G>λ.
[gyfzku](y, z,u) = gq(q) · I ·(−[M−1G>](q)
)= −[GM−1G>](q)
regulär, falls M−1 symmetrisch, positiv definit und rank G = nλ.
(c) Ersetzt man für m ≥ 3 in einem System in Hessenbergform der Größe m die algebraischenGleichungen 0 = F[m](t,x[m−1]) durch 0 = d
dtF[m](t,x[m−1]), so ergibt sich ein äquivalentes
System in Hessenbergform der Größe m− 1.
(d) Beachte: Das Systemy = f(y, s, z),0 = s− h(y),0 = g(y)
mit regulärer Matrix [gyfz](y,h(y), z) ist äquivalent zu (3.2) mit f(y, s, z) = f(y,h(y), z) hataber selbst keine Hessenbergform.
Bemerkung 3.3 Systeme in HessenbergformDie spezielle Struktur von Systemen in Hessenbergform ermöglicht es, Existenz- und Eindeutigkeits-aussagen für Anfangswertprobleme mittels analytischer Transformationen zu beweisen.Beispiel: Ersetze für m = 2 die Gleichung g(y) = 0 durch [gyf ](y, z) = 0. Dies liefert ein Index-1-System (2.1). Eindeutige Lösbarkeit für konsistente Anfangswerte: g(y0) = 0, [gyf ](y0, z0) = 0.m = 3: Ersetze g(y) = 0 durch [gyf ] = 0, um ein äquivalentes System (3.2) zu erhalten. KonsistenteAnfangswerte
g(y0) = 0, [gyf ](y0, z0) = 0, [gyy(f , f) + gyfyf + gyfzku](y0, z0,u0) = 0.
24
3.2 Sensitivitätsanalyse
3.2 Sensitivitätsanalyse
Beispiel 3.4 Implizites Euler-Verfahren für Index-2-Systeme(a) Implizites Euler-Verfahren: Runge-Kutta-Verfahren mit s = 1, b1 = a11 = 1, Xn1 = xn+1.
In Analogie zu Bemerkung 2.3 (b) definiert man für (3.2) das implizite Euler-Verfahren durch
yn+1−yn
h = f(yn+1, zn+1),0 = g(yn+1)
}(b) Beispielproblem:
y1 = z1,y2 = z2,y3 = y2z1 − y1z2 + µ(z2
1 + z22),
0 = y1,0 = y2
(3.4)
mit einem reellen Parameter µ und Anfangswerten y(0) = (0, 0, 0)>, z(0) = (0, 0)>.
Wegen gy =
(1 0 00 1 0
), fz =
1 00 1∗ ∗
ist gyfz = I2 regulär und (3.4) hat den Differentiations-
index 2, die Anfangswerte sind konsistent.
(c) Betrachte zum impliziten Euler-Verfahren für (3.4) Folgen (yn), (zn) mit
yn =
θ sin(nπ/2)θ cos(nπ/2)
nh(θDh + 2µD2h)
, zn =
(cos(2n− 1)π4− sin(2n− 1)π4
)
und kleinen Störungsparametern δ > 0, θ > 0, Dh : = δ + θh . Das implizite Euler-Verfahren löst
(3.4) exakt, d. h., für yn : = = y(tn) = (0, 0, 0)>, zn : = = z(tn) = (0, 0)> gilt in (3.4)
yn+1−yn
h = f(yn+1, zn+1)0 = g(yn+1).
}Für die gestörten Folgen (yn), (zn) gilt hingegen
yn+1 − ynh
= f(yn+1, zn+1)−√
2δ
cos(2n+ 1)π/4− sin(2n+ 1)π/4
0
,
θ
(sinnπ/2cosnπ/2
)= g(yn+1),
d. h., Residuen g(yn) in der Größenordnung O(θ) führen zu Fehlern O(
1hθ
2 + µ(
1h · θ
)2) in den
differentiellen Lösungskomponenten yn und zu Fehlern O(
1hθ)in den algebraischen Lösungskom-
ponenten z.
(d) Das Fehlerwachstum in der numerischen Lösung für h → 0 entspricht einer unstetigen Abhän-gigkeit der analytischen Lösung (y(t), z(t)) von kleinen Störungen der algebraischen Gleichungeng(y) = 0:
Betrachte Funktionen
y(t) =
ε sinωtε cosωt
t(ε(εω + δ) + µ(εω + δ)2) + δt
, z(t) =
((εω + δ) cosωt,−(εω + δ) sinωt
)
mit kleinen Parametern δ > 0, ε > 0 und einer (großen) Frequenz ω > 0.
25
3 Differential-algebraische Gleichungen höheren Indexes
Residuen
˙y − f(y, z) =
−δ cosωtδ sinωt
0
, g(y) = ε
(sinωtcosωt
)Beachte: Für festes ε > 0 wachsen y(t)− y(t) und z(t)− z(t) unbeschränkt für ω →∞.
Definition 3.5 StörungsindexZu einem gegebenen differential-algebraischen System (1.1) mit Lösung x : [t0, te] → Rnx betrachtetman beliebige Funktionen x : [t0, te]→ Rnx , die
F(t, x(t), ˙x(t)) = δ(t), (t ∈ [t0, te]) (3.5)
erfüllen. Gibt es ein m ∈ N und eine Konstante C > 0 so, dass für t ∈ [t0, te] stets
‖x(t)− x(t)‖ ≤ C(‖x(t0)− x(t0)‖+
m∑l=0
maxτ∈[t0,t]
∥∥∥∥∥ dl
dτ l
∫ τ
t0
δ(s) ds
∥∥∥∥∥)
(3.6)
gilt, wenn δ ∈ Cm−1[t0, te] ist und die rechte Seite von (3.6) hinreichend klein ist, und ist m die kleinsteZahl mit dieser Eigenschaft, so heißt m Störungsindex von (1.1) entlang der Lösung x(t).
Bemerkung 3.6 Störungsindex
(a) Es gilt
m∑l=0
maxτ∈[t0,te]
∥∥∥∥∥ dl
dτ l
∫ τ
t0
δ(s) ds
∥∥∥∥∥ = maxτ∈[t0,te]
∥∥∥∥∫ τ
t0
δ(s) ds∥∥∥∥+
m∑l=1
maxτ∈[t0,te]
∥∥∥∥∥ dl−1
dτ l−1δ(τ)
∥∥∥∥∥und ∥∥∥∥∫ τ
t0
δ(s) ds∥∥∥∥ ≤ ∫ τ
t0
‖δ(s)‖ ds ≤ (τ − t0) maxs∈[t0,τ ]
‖δ(s)‖
⇒ stetige Abhängigkeit der Lösung von Störungen für m ≤ 1, sonst kann ‖x(t) − x(t)‖ (sehr)viel größer sein als maxτ‖δ(τ)‖.
(b) Für Systeme gewöhnlicher Differentialgleichungen mit Lipschitz-stetiger rechter Seite gilt (3.6)mit m = 0, also ist der Störungsindex m = 0:
x(t) = ϕ(t,x(t)),
˙x(t) = ϕ(t, x(t)) + δ(t)
x(t)− x(t) = x(t0)− x(t0) +
∫ t
t0
(˙x(τ)− x(τ)
)dτ
= x(t0)− x(t0) +
∫ t
t0
(ϕ(τ, x(τ)) + δ(τ)−ϕ(τ,x(τ))) dτ
‖x(t)− x(t)‖ ≤M +
∫ t
t0
L ‖x(τ)− x(τ)‖ dτ =:ψ(t)
mitM : =‖x(t0)−x(t0)‖+maxτ∈[t0,t]
∥∥∥∫ τt0 δ(s) ds∥∥∥. Es gelten ψ ∈ C1[t0, te], ψ = L‖x(t)−x(t)‖ ≤
ψ(t), also (vgl. Übung) ψ(t) ≤ eL(t−t0)ψ(t0)︸ ︷︷ ︸=0
(c) Der Störungsindex eines linearen Systems (1.4) mit konstanten Koeffizienten ist gleich dem Nil-potenzindex des Matrixbüschels A + λB und damit gleich dem Differentiationsindex, denn
B ˙x(t) + Ax(t) = b(t) + δ(t)
26
3.2 Sensitivitätsanalyse
lässt sich wie in Bemerkung 1.9 in einen differentiellen Teil (mit Störungsindex 0) und einenalgebraischen Teil
Nˆz(t) + z(t) = c(t) + δ(t)
mit N =
0 10 0 1
. . . . . .. . . 1
0
∈ Rm×m zerlegen. Wie in (1.5) erhält man
z(t)− z(t) =m−1∑l=0
(−N)lδ(l)
(t)
und damit den Störungsindex m.
Lemma 3.7 Störungsindex von Systemen in Hessenbergform
(a) Ist für ein semi-explizites Systemy = f(y, z)0 = g(y, z)
}die Jacobimatrix gz(η, ζ) entlang einer Lösung (y(t), z(t)) regulär, so hat das System untergeeigneten Glattheitsvoraussetzungen an f und g den Störungsindex 1.
(b) Systeme in Hessenbergform der Größe m ≥ 2 haben unter geeigneten Glattheitsvoraussetzungensowohl den Differentiationsindex m als auch den Störungsindex m.
Beweis. (a) Betrachte y, z mit˙y(t) = f(y(t), z(t)) + δ(t)θ(t) = g(y(t), z(t))
}mit hinreichend kleinen Störungen δ(t) und θ(t). Nach dem Satz über die implizite Funktion gibtes eine Funktion G = G(y,θ) mit g(y,G(y,θ)) = θ
⇒ z(t) = G(y(t),θ(t)),
z(t) = G(y(t),0)
⇒ ˙y(t) = f(y(t),θ(t)) + δ(t)
y(t) = f(y(t),G(y(t),0))
und die Behauptung folgt analog zu Bemerkung 3.6b)
(b) Ersetzt man für ein System in Hessenbergform (3.1) die algebraische Gleichung
0 = F[m](t,x[m−1](t))
durch ihre Zeitableitung, so erhält man
• für m = 2 ein analytisch äquivalentes semi-explizites Index-1-System (2.1),
• für m > 2 ein analytisch äquivalentes System in Hessenbergform der Größe m − 1, vgl.Übung.
Hieraus folgt mittels vollständiger Induktion, dass sich ein System in Hessenbergform der Größem durch (m − 1)-maliges Differenzieren in ein analytisch äquivalentes semi-explizites Index-1-System überführen lässt. Deshalb folgt die Behauptung aus a).
27
3 Differential-algebraische Gleichungen höheren Indexes
Beispiel 3.8 Störungsindex eines linear-impliziten SystemsBetrachte
y2y1 − y1y2 − y3 = 0y1 = 0y2 = 0
(3.7)
und Funktionen
y(t) =
ε sinωtε cosωtε2ωt
.
Es gilt
y2˙y1 − y1
˙y2 − ˙y3 = 0
y1 = ε sinωt = O(ε)
y2 = ε cosωt = O(ε),
aber y3(t)−y3(t) = O(ε2ω) bleibt für y3(0) = 0 und ω →∞ nicht gleichmäßig bezüglich ε beschränkt.Durch Transformation in Hessenbergform
y1 = z1
y2 = z2
y3 = y2z1 − y1z2
y1 = 0y2 = 0
zeigt man, dass (3.7) den Störungsindex m = 2 hat. Der Differentiationsindex von (3.7) ist hingegend.i. = 1.
Bemerkung 3.9 Störungsindex und Differentiationsindex
(a) Unter Verwendung des Ableitungsfelds zu
F(t,x(t),y(t)) = 0x(t) = y(t)
}zeigt man, dass der Störungsindex m von F(t,x, x) = 0 häufig beschränkt bleibt durch d.i. ≤m ≤ d.i.+ 1, wobei d.i. den Differentiationsindex bezeichnet (Gear, 1990).
(b) Gegenbeispiel (Campbell, Gear, 1995)
y3y2 + y1 = 0y3y3 = 0y3 = 0
d.i. = 1, denn aus y3 = 0 und y3 = 0 ergibt sich direkt y1 = y2 = 0. Dennoch ist der Störungsindexm = 3. (Betrachte hierzu etwa y3 = ε sinωt.)
28
4 Zeitintegration: Systeme höheren Indexes
4.1 Direkte Diskretisierung von Systemen höheren Indexes
Bemerkung 4.1 Allgemeines KonzeptSysteme gewöhnlicher Differentialgleichungen
x(t) = ϕ(t,x(t))
Differential-algebraische Systeme
F(t,x(t), x(t)) = 0
(a) Implizite Runge-Kutta-Verfahren
xn+1 = xn + hs∑j=1
bjXnj ,
Xnj = xn + h
s∑j=1
aijXnj , (i = 1, . . . , s)
Xni = ϕ(tn + cih,Xni) F(tn + cih,Xni, Xni) = 0
jeweils für i = 1, . . . , s.
(b) Lineare Mehrschrittverfahrenk∑j=0
αjxn+1−j = h
k∑j=0
βjxn+1−j
xn+1 = ϕ(tn+1,xn+1),
[xn+1−j = ϕ(tn+1−j ,xn+1−j),
(j = 0, 1, . . . , k)]
F(tn+1,xn+1, xn+1) = 0
[F(tn+1−j ,xn+1−j , xn+1−j) = 0,
(j = 0, 1, . . . , k)]Spezialfall: β0 = 1, β1 = . . . = βk = 0 (BDF)
F
tn+1,xn+1,1
h
k∑j=0
αjxn+1−j
= 0
Beispiel: Implizites Euler-Verfahren (k = 1)
F
(tn+1,xn+1,
xn+1 − xnh
)= 0
Beispiel 4.2 Implizites Euler-Verfahren, Index-3-System
q = v,
M(q)v = f(t,q,v)−G>(t,q)λ,
0 = g(t,q)
mit G(t,q) : = ∂∂qg(t,q).
qn+1 − qnhn
= vn+1,
M(qn+1)vn+1 − vn
hn= f(tn+1,qn+1,vn+1)−G>(tn+1,qn+1)λn+1,
0 = g(tn+1,qn+1)
29
4 Zeitintegration: Systeme höheren Indexes
Beispiel: M = I, f = 0, g(t,q) = Cq− z(t), G = C.
0 = Cq− z ⇒ 0 = Cq− z = Cv − z
⇒ 0 = Cv − z = −CC>λ− z
⇒ λ(t) = −(CC>)−1z(t)
t = tn−1 = tn+1 − hn − hn−1 : 0 = Cqn−1 − z(tn−1)
t = tn = tn+1 − hn : 0 = Cqn − z(tn)
t = tn+1 : 0 = Cqn+1 − z(tn+1)
Cvn = Cqn − qn−1
hn−1=
z(tn)− z(tn−1)
hn−1
Taylor= z(tn)− hn−1
2z(tn) +O(h2
n−1)
Cvn+1 = Cqn+1 − qn
hn=
z(tn+1)− z(tn)
hn= z(tn+1)− hn
2z(tn+1) +O(h2
n)
−CC>λn+1 = Cvn+1 − vn
hn=
z(tn+1)− z(tn)
hn− hnz(tn+1)− hn−1z(tn)
2hn+O(hn) +O
(h2n−1
hn
)= z(tn+1)− hn − hn−1
2hnz(tn+1) +O(hn) +O
(h2n−1
hn
)Bemerkung 4.3 Systeme höheren Indexes: direkte Diskretisierung(a) Variable Zeitschrittweite: keine Konvergenz der algebraischen Variablen (implizites Euler-Verfah-
ren) beziehungsweise Ordnungsreduktion (Verfahren höherer Ordnung).
(b) Starke Empfindlichkeit der numerischen Lösung gegenüber kleinen Störungen (Rundungsfehler,Abbruchfehler im Newtonverfahren), vgl. Abschnitt 3.2.
(c) Korrektoriteration: Lineare Gleichungssysteme (sehr) schlecht konditioniert → Skalierung (vgl.[3]).
(d) Fehlerschätzer (lokaler Fehler) versagen bei Anwendung auf differential-algebraische Systeme Skalierung einzelner Fehlerkomponenten (RADAU5) oder Ausblenden einzelner Fehler-komponenten (DASSL)
Beispiel: Sinuslauf (hunting motion) eines starren Radsatzes, Index-3-Formulierung, RADAU5 (im-plizites Runge-Kutta-Verfahren)
4.2 Indexreduktion und Drift-off-Effekt
Bemerkung 4.4 Analytische Transformationen vor der Zeitdiskretisierung(a) Für Anfangswerte y(t0) = y0 mit γ(y0) = 0 erfüllt die Lösung eines differential-algebraischen
Systems mit y = ϕ(y, z) genau dann die algebraische Gleichung
γ(y(t)) = 0, (t ∈ [t0, te]),
wenn [γyϕ
](y(t), z(t)) = 0, (t ∈ [t0, te]),
dennγ(y(t)) = 0 ⇒ 0 =
ddtγ(y(t)) =
∂γ
∂y(y(t)) · dy
dt(t) =
[γyϕ
](y(t), z(t))
und nach dem Hauptsatz der Differential- und Integralrechnung gilt
γ(y(t)) = γ(y(t0))︸ ︷︷ ︸=0
+
∫ t
t0
ddτγ(y(τ)) dτ
mitddτγ(y(τ)) =
[γyϕ
](y(τ), z(τ)) = 0.
30
4.2 Indexreduktion und Drift-off-Effekt
10−8 10−7 10−6 10−5 10−4 10−3 10−2
10−7
10−5
10−3
Fehlertoleranz TOL
Fehl
erin
y[m
]
Starrer Radsatz: Index-3-Formulierung
θ ≤ 10−5TOLθ ≤ 0.03TOL
Abbildung 4.1: Simulation eines starren Radsatzes: Alternative Fehlertoleranzen θ als Abbruchkriteri-um im Newton-Verfahren
(b) für die numerische Lösung gilt hingegen
γ(yn+1) = γ(yn) +
∫ 1
0
ddϑγ(yn + ϑ(yn+1 − yn)) dϑ
= γ(yn) + h
∫ 1
0γy(yn + ϑ(yn+1 − yn)) · yn+1 − yn
hdϑ
= γ(yn) + h
∫ 1
0γy(yn + ϑ(yn+1 − yn)) ·ϕ(yn+1, zn+1 dϑ,
also zum Beispiel für das implizite Euler-Verfahren
γ(yn+1) = γ(yn) + h[γyϕ
](yn+1, zn+1)︸ ︷︷ ︸
=0
+ h
∫ 1
0
(γy(yn + ϑ(yn+1 − yn))− γy(yn+1)
)︸ ︷︷ ︸=O(h)
ϕ(yn+1, zn+1) dϑ
⇒ ‖γ(yn+1)‖ ≤ ‖γ(yn)‖+ Ch2 ≤ . . . ≤ C (n+ 1)︸ ︷︷ ︸=tn+1−tn
·h
= C(tn+1 − tn) · hmit einer geeigneten Konstanten C > 0.
Ergebnis: (Die Schranke für) das Residuum γ(yn+1) in der algebraischen Gleichung γ(y) = 0wächst linear mit t = tn, die Lösung „driftet“ weg von der Mannigfaltigkeit {η : γ(η) = 0}(„Drift-off-Effekt“).
(c) Beachte: Wegen γ(y(t)) = 0 gilt für jedes konvergente Verfahren und jedes feste t = tn:limh→0
γ(yn(h)) = 0 mit h(h) : =⌈tn−t0h
⌉.
Beispiel 4.5 Index-1-Formulierung und Drift-off-Effekt(a) Ersetzt man in den Bewegungsgleichungen (1.8) eines mechanischen Mehrkörpersystems die
Zwangsbedingungen g(q) = 0 durch die versteckten Zwangsbedingungen (1.9b) auf Beschleu-nigungsebene, so ergibt sich die analytisch äquivalente Index-1-Formulierung der Bewegungsglei-chungen
q = vM(q)v = f(q,v)−G>(q)λ
0 = G(q)v + gqq(q)(v,~)
(4.1)
31
4 Zeitintegration: Systeme höheren Indexes
Hat G Vollrang und ist M symmetrisch positiv semi-definit sowie auf ker G positiv semi-definit,so lässt sich (4.1) auflösen nach v und λ und man erhält das analytisch äquivalente Systemgewöhnlicher Differentialgleichungen
q = vv = a(q,v)
}(4.2)
mit λ = λ(q,v), wobei sich a(q,v) und λ(q,v) als Lösung des linearen Gleichungssystems(M(q) G>(q)G(q) 0
)(a(q,v)λ(q,v)
)=
(f(q,v)
−gqq(q)(v,v)
)ergibt.
(b) Numerischer Test: Sinuslauf eines starren Radsatzes, Index-1-Formulierung, Integratoren: DASSL(BDF), RADAU5
0 2 4 6 8 10 12 14 16 18 20
0
2
4
6·10−4
Zeit t [s]
Abstand
Rad
–Schiene
[m]
Starrer Radsatz, Index-1-Formulierung
RADAU5DASSL
Abbildung 4.2: Drift-off-Effekt für verschiedene Zeitintegrationsverfahren am Beispiel des starrenRadsatzes
(c) Forderung aus Anwendungssicht: ‖g(qn)‖ � TOL mit der Fehlerschranke TOL für den globalenFehler des Verfahrens.
Satz 4.6 Drift-off-EffektZu jedem Einschrittverfahren der Konsistenzordnung p gibt es KonstantenA,B, C so, dass die Residueng(qn) und G(qn)vn bei Anwendung auf die Index-1-Formulierung (4.1) beschränkt sind durch
‖g(qn)‖ ≤(A(tn − t0) +B(tn − t0)2
)hp
‖G(qn)vn‖ ≤ C(tn − t0)hp.
Beweis. Sei q(t; tn,qn,vn), v(t; tn,qn,vn) die Lösung des Anfangswertproblems q(tn; tn,qn,vn) = qn,v(tn; tn,qn,vn) = vn zu (4.2). Dann gilt
‖qn+1 − q(tn+1; tn,qn,vn)‖ ≤ γ0hp+1,
‖vn+1 − v(tn+1; tn,qn,vn)‖ ≤ γ0hp+1
mit einer geeigneten Konstanten γ0 ≥ 0. Nun folgt aus (4.1)
G(q(tn+1; tn,qn,vn))v(tn+1; tn,qn,vn) =
= G(q(tn; tn,qn,vn))v(tn; tn,qn,vn) +
∫ tn+1
tn
ddt
G(q(t; tn,qn,vn))v(t; tn,qn,vn)︸ ︷︷ ︸=0 wegen (4.1)
dt
= G(qn)vn
32
4.3 Indexreduktion und Projektion
⇒ ‖G(qn+1)vn+1‖ ≤ ‖G(qn)vn‖+ Chp+1 ≤ . . . ≤ ‖G(q0)v0‖︸ ︷︷ ︸=0
+C(n+ 1)hp+1
= C(n+ 1)h · hp = C(tn+1 − t0)hp
mit einer geeigneten Konstanten C > 0. Analog folgt
‖g(qn+1)‖ ≤ ‖g(qn)‖+ h‖G(qn)vn‖+Ahp+1
≤ ‖g(qn)‖+ C(tn+1 − t0)hp+1 +Ahp+1
≤ . . . ≤ ‖g(q0)‖︸ ︷︷ ︸=0
+C(n+ 1) (tn − t0)︸ ︷︷ ︸≤(tn+1−t0)
hp+1 +A(n+ 1)hp+1
≤ C(tn+1 − t0)2hp +A(tn+1 − t0)hp
mit einer geeigneten Konstanten A ≥ 0.
4.3 Indexreduktion und Projektion
Bemerkung 4.7 Projektion der numerischen LösungGegeben sei das Anfangswertproblem
x(t) = ϕ(x(t)), (t ∈ [t0, te]), x(t0) = x0
mit der Invarianten h(x), das heißt, entlang jeder Lösung x(t) von x = ϕ(x) ist h(x(t)) konstant.
⇒ 0 =ddt
h(x(t)) =∂h
∂x(x(t))
dx
dt(t) = [hxϕ](x(t)).
Das Einschrittverfahrenxn+1 = xn + hΦ(xn,ϕ, h)
erzeugt eine Folge (xn), die im Allgemeinen die Invariante h(x(t)) = h(x0) nicht erhält.
(a) Für ein Verfahren der Konvergenzordnung p gilt jedoch
h(xn) = h(x(tn))︸ ︷︷ ︸=h(x0)
+O(1) ‖x(tn)− xn‖︸ ︷︷ ︸O(hp)
= h(x0) +O(hp)
(b) Durch Projektion der numerischen Lösung auf die Mannigfaltigkeit {ξ : h(ξ) = h(x0)} lässtsich erzwingen, dass auch die numerische Lösung die Invariante h(x) erhält: Bestimme xn+1 alsLösung von
min {‖x− xn+1‖An : h(x) = h(x0)}
mit xn+1 : = xn + Φ(xn;ϕ, h) und einer symmetrischen, positiv definiten Matrix An und
‖ξ‖An : =
√ξ>Anξ.
{ξ : h(ξ) = h(x0)}
x0
xn
xn+1
xn+1
xn+2
xn+2
33
4 Zeitintegration: Systeme höheren Indexes
Praktisch: Bestimme xn+1 als stationären Punkt von
L n(x,µ) : =1
2‖x− xn+1‖2An
+ µ> (h(x)− h(x0))
∇x : An(xn+1 − xn+1) + H>(xn+1)µn+1 = 0∇µ : h(xn+1) = h(x0)
}(4.3)
mit H(x) : = ∂h∂x (x). Numerische Lösung mit dem vereinfachten Newtonverfahren mit
x(0)n+1 : = xn+1, µ
(0)n+1 : = 0 und(
An H>(xn+1)H(xn+1) 0
)︸ ︷︷ ︸
regulär, falls H(xn+1) Vollrang hat
(x
(k+1)n+1 − x
(k)n+1
µ(k+1)n+1 − µ
(k)n+1
)= −S(x
(k)n+1,µ
(k)n+1)
mit S(x,µ) : =
(An(x− xn+1) + H>(x)µ
h(x)− h(x0)
).
(c) • Projektionsschritt (4.3) ist unabhängig vom konkreten Einschrittverfahren.
• praktisch: Projektion nur, falls ‖h(xn+1)− h(x0)‖ > TOLh, sonst xn+1 : = xn+1.
• Linear-implizite Projektion: xn+1 : = x(1)n+1.
Lemma 4.8 Projektion der numerischen LösungZum Anfangswertproblem
x(t) = ϕ(x(t)), (t ∈ [t0, te]), x(t0) = x0
sei eine zweimal stetig differenzierbare Funktion h : Rnx → Rnh gegeben (nh ≤ nx) mit h(x0) = 0 und[hxϕ](x) ≡ 0, (x ∈ Rnx). Dann gilt
(a) h(x(t)) ≡ 0, (t ∈ [t0, te]).
(b) Hat H(x) : = hx(x) ∈ Rnh×nx vollen Rang, so gibt es Konstanten γ0, h0 > 0 so, dass (4.3) fürein Einschrittverfahren der Konsistenzordnung p ≥ 1 unter den Voraussetzungen ‖h(xn)‖ ≤ γ0,h ≤ h0 eine lokal eindeutig bestimmte Lösung (xn+1,µn+1) hat. Für diese gilt
‖xn+1 − xn+1‖ = O(hp+1) +O(1) · ‖h(xn)‖.
(c) Unter den Voraussetzungen aus (b) bleibt die Konvergenzordnung p des Einschrittverfahrenstrotz der Projektionsschritte erhalten.
Beweis. (a) Hauptsatz der Differential- und Integralrechnung
(b) Nach dem Satz über die Implizite Funktion ist R(µ; x, r) = 0 mit
R(µ; x, r) : = h(x−H>(x)µ)− r
in einer hinreichend kleinen Umgebung von µ = 0, x = xn r = h(xn) lokal eindeutig nachµ = µ(x, r) auflösbar, denn R(0,xn,h(xn)) = 0, Rµ = H(x −H>(x)µ) ·H>(x) ∈ Rnh×nh istin einer Umgebung von µ = 0 regulär, (rank H(x) ·H>(x) = nh). Ist γ0 > 0 hinreichend klein,so sind µ = µ(xn,0) und xn : = xn − H>(xn)µ(xn,0) (lokal) eindeutig bestimmt und es gilth(xn) = 0 sowie ‖xn − xn‖ = O(1)‖h(xn)‖. Sei x(t; tn, xn) Lösung des Anfangswertproblemsx(tn; tn, xn) = xn, dann gilt h(x(t; tn, xn)) ≡ 0, also h(x(tn+1; tn, xn)) = 0 und damit auchh(xn + hΦ(xn;ϕ, h)) = O(hp+1) und
h(xn+1) = h(xn + hΦ(xn;ϕ, h)) = O(hp+1) +O(1)‖xn − xn‖= O(1)‖h(xn)‖+O(hp+1).
34
4.3 Indexreduktion und Projektion
damit ergibt sich in (4.3) für xn+1 = xn+1 und µn+1 = 0 ein Residuum
S(xn+1,0) =
(0
O(γ0) +O(hp+1)
)und die Behauptung folgt aus dem Satz über die Implizite Funktion.
(c) Für die Untersuchung des lokalen Fehlers ist xn = x(tn)
⇒ h(xn) = 0 ⇒ ‖xn+1 − xn+1‖ = O(hp+1)
⇒ ‖xn+1 − xn − hΦ(xn;ϕ, h)‖ = O(hp+1), ‖x(tn+1)− xn+1‖ = O(hp+1)
und Konvergenz mit Ordnung p folgt analog zu Satz 2.11.
Bemerkung 4.9 Index-1-Formulierung und ProjektionDie Index-1-Formulierung (4.1) ist äquivalent zum System gewöhnlicher Differentialgleichungen (4.2)mit den Invarianten g(q) = 0, G(q)v = 0.Zweistufiges Projektionsverfahren (vgl. Übung)
(1) Bestimme qn+1 durch Projektion von qn+1 auf {q : g(q) = 0} mit An : = M(qn+1).
(2) Bestimme vn+1 durch Projektion von vn+1 auf {v : G(qn+1)v = 0} mit An : = M(qn+1).
Vorteil: Projektion vn+1 → vn+1 ist linear.
Bemerkung 4.10 Stabilisierte Index-1-Formulierung(Gear, Gupta, Leimkuhler, [6], (1985))
M(q)(q− v) = −G>(q)ηM(q)v = f(q,v)−G>(q)λ
0 = G(q)v0 = g(q)
(4.4)
0 =ddt
g(q(t)) =∂g
∂q(q(t))
dq
dt(t) = G(q)q
⇒(
M(q) G>(q)G(q) 0
)(q− vη
)=
(00
)⇒ η(t) ≡ 0.
Aber: (4.4) ist ein Index-2-System mit y =
(qv
), z =
(λη
),
y = ϕ(y, z) =
(v − [M−1G>](q) · η
[M−1f ](q,v)− [M−1G>](q) · λ
)
0 = γ(y) =
(G(q)vg(q)
), γy =
(∗ Gq
G(q) 0
), ϕz =
(0 −[M−1G>](q)
−[MG>](q) 0
)und
[γyϕz](y, z) =(−[GM−1G>](q) ∗0 −[GM−1G>](q)
)ist regulär.
35
Literaturverzeichnis
[1] Arnold, M.: Numerical Methods for simulation in applied dynamics. In: Arnold, M. undW. Schiehlen (Herausgeber): Simulation Techniques for Applied Dynamics, Band 507 der ReiheCISM Courses and Lectures, Seiten 191–246. Springer, Wien, New York, 2009.
[2] Arnold, M., K. Strehmel und R. Weiner: Half-explicit Runge-Kutta methods for semi-explicitdifferential-algebraic equations of index 1. Numerische Mathematik, 64(1):409–431, 1993.
[3] Brenan, K.E., S.L. Campbell und L.R. Petzold: Numerical Solution of Initial-Value Pro-blems in Differential-Algebraic Equations. SIAM, Philadelphia, 2. Auflage, 2008.
[4] Deuflhard, P. und F. Bornemann: Numerische Mathematik II: Gewöhnliche Differentialglei-chungen. Walter de Gruyter, Berlin, New York, 3. Auflage, 2008.
[5] Eich-Soellner, E. und C. Führer: Numerical Methods in Multbody Dynamics. Teubner, Stutt-gart, 1998.
[6] Gear, C.W., G.K. Gupta und B.J. Leimkuhler: Automatic integration of the Euler-Lagrangeequations with constraints. J. Comp. Appl. Math., 12:77–90, 1985.
[7] Hairer, E. und G. Wanner: Solving Ordinary Differential Equations. II. Stiff and Differential-Algebraic Problems. Springer, Berlin, Heidelberg, New York, 2. Auflage, 1996.
[8] Hoschek, M., P. Rentropp und Y. Wagner: Network approach and differential-algebraic sys-tems in technical applications. Surveys on Math. in Industry, 9:49–75, 1999.
[9] Kunkel, P. und V. Mehrmann: Differential-Algebraic Equations. Analysis and Numerical So-lution. EMS Textbooks in Mathematics, Zürich, 2006.
[10] Lamour, R., R. März und C. Tischendorf: Differential-algebraic equations: A projector basedanalysis. Springer, Berlin, Heidelberg, 2013.
[11] Pantelides, C.: The Consistent Initialization of Differential-Algebraic Systems. SIAM J. Sci.and Stat. Comput., 9(2):213–231, 1988.
[12] Schwerin, R. von: MultiBody System SIMulation – Numerical Methods, Algorithms and Soft-ware. Springer, Berlin, Heidelberg, 1999.
[13] Strehmel, K., R. Weiner und H. Podhaisky: Numerik Gewöhnlicher Differentialgleichungen.Springer Spektrum, 2. Auflage, 2012.
37