master physique & physique numérique non-linéarités,...

81
Master Physique & Physique Numérique Non-linéarités, Chaos & Contrôle Analyse Spectrale pour les Systèmes Dynamiques Classiques et Quantiques David Viennot

Upload: others

Post on 02-Feb-2021

24 views

Category:

Documents


0 download

TRANSCRIPT

  • Master Physique & Physique Numérique

    Non-linéarités, Chaos & Contrôle

    Analyse Spectrale pour les Systèmes Dynamiques Classiques et

    Quantiques

    David Viennot

  • 2

  • Table des matières

    0 Prérequis d’Algèbre Linéaire 50.1 Algèbre matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.2 Réduction des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    1 Théorie des Systèmes Dynamiques 91.1 Les équations différentielles des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . 9

    1.1.1 Les flots de la dynamique classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.1.2 Les opérateurs d’évolution de la dynamique quantique . . . . . . . . . . . . . . . . . . 111.1.3 Les systèmes dynamiques de la physique statistique . . . . . . . . . . . . . . . . . . . 131.1.4 Les systèmes dynamiques périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    1.2 Intégration numérique des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 161.2.1 Éléments d’analyse numérique des équations différentielles . . . . . . . . . . . . . . . . 161.2.2 Algorithme d’Euler explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.3 Algorithme de Runge-Kutta d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.4 Algorithme de Runge-Kutta d’ordre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.5 Algorithme de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.2.6 Algorithme de l’opérateur fractionné (intégrateurs symplectiques) . . . . . . . . . . . . 181.2.7 Algorithme de transport adiabatique discret . . . . . . . . . . . . . . . . . . . . . . . . 191.2.8 Représentations matricielles des opérateurs différentiels . . . . . . . . . . . . . . . . . 19

    1.3 Description des systèmes dynamiques classiques . . . . . . . . . . . . . . . . . . . . . . . . . . 221.3.1 Les attracteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221.3.2 Instabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.3.3 Exposants de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.3.4 Exemple : le pendule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.3.5 Les résonances paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    1.4 Description des systèmes dynamiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . 311.4.1 Systèmes conservatifs et dissipatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311.4.2 États liés et se propageant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.4.3 Critères spectraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331.4.4 Exemple : la molécule H+2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341.4.5 Résurrections de paquets d’ondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381.4.6 Exemple : alignement d’une molécule diatomique par un champ électrique . . . . . . . 40

    2 Théorie du Chaos 432.1 La géométrie fractale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

    2.1.1 Dimension de Hausdorff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.1.2 L’itération de Cantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442.1.3 Généralités sur les fractales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    2.2 Théorie du chaos classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.2.1 L’attracteur fer à cheval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.2.2 Définition du chaos classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482.2.3 Exemple : la convection de Rayleigh-Bénard . . . . . . . . . . . . . . . . . . . . . . . . 492.2.4 Exemple : le pendule double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522.2.5 Contre-exemple : pseudo-chaos engendré par la méthode d’Euler . . . . . . . . . . . . 532.2.6 Outils d’analyse du chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    3

  • 4 TABLE DES MATIÈRES

    2.2.7 Chaos et entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.3 Théorie du chaos quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    2.3.1 Absence de définition du chaos quantique . . . . . . . . . . . . . . . . . . . . . . . . . 572.3.2 Approche spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582.3.3 Exemple : molécule diatomique frappée . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

    2.4 Résumés sur la stabilité des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 622.4.1 Stabilité des systèmes dynamiques classiques . . . . . . . . . . . . . . . . . . . . . . . 622.4.2 Stabilité des systèmes dynamiques quantiques . . . . . . . . . . . . . . . . . . . . . . . 632.4.3 Comparaison générale classique/quantique . . . . . . . . . . . . . . . . . . . . . . . . . 64

    3 Systèmes Dynamiques Paramétriques : bifurcations et contrôle 653.1 Compléments mathématiques : les matrices paramétriques . . . . . . . . . . . . . . . . . . . . 65

    3.1.1 Éléments de la théorie d’Arnold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.1.2 Calcul différentiel et intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.1.3 Continuité du spectre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    3.2 Bifurcations dans les systèmes dynamiques classiques . . . . . . . . . . . . . . . . . . . . . . . 693.2.1 Les diagrammes de bifurcation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.2.2 Classification des bifurcations de codimension 1 . . . . . . . . . . . . . . . . . . . . . . 703.2.3 Exemple : le flot logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.2.4 Exemple : l’oscillateur de van der Pol . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

    3.3 Contrôle des systèmes dynamiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.3.1 Modélisation du contrôle par champs lasers intenses . . . . . . . . . . . . . . . . . . . 753.3.2 Exemple : contrôle d’un atome à N niveaux . . . . . . . . . . . . . . . . . . . . . . . . 763.3.3 L’approche génétique du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.3.4 L’approche optimale du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.3.5 L’approche géométrique du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783.3.6 Sonder le système et contrôle par feed-back . . . . . . . . . . . . . . . . . . . . . . . . 783.3.7 Exemple : l’effet STIRAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

    Avertissement : ce cours ne constitue absolument pas un cours de mathématiques sur les systèmes dy-namiques. Tout n’y est pas traité de façon rigoureuse (loin de là), certains resultats sont donnés sans lamoindre démonstration et l’usage de la théorie de la mesure a été soigneusement évité (car trop abstrait).Aucun des sujets abordés n’est traité de manière exhaustive. Ce cours est surtout un panorama introductif(et quelque peu superficiel) à la théorie des systèmes dynamiques, qui nécessiterait d’être complété par l’étuded’ouvrages et d’articles de référence pour acquérir une véritable maîtrise des notions abordées ici.Plusieurs systèmes physiques sont étudiés dans ces notes, la modélisation de ceux-ci (leurs descriptions etleurs mises en équations) ne fait pas l’objet de ce cours. Seuls les comportements dynamiques des systèmesnous intéressent ici, on admettra donc leurs équations de la dynamique.

  • Chapitre 0

    Prérequis d’Algèbre Linéaire

    0.1 Algèbre matricielle

    On note Mn×n(C) l’ensemble des matrices carrées d’ordre n à coefficients complexes. Dans Cn on introduitle produit scalaire

    ∀u, v ∈ Cn, 〈u|v〉 =n∑

    i=1

    uivi

    où ui est le complexe conjugué de ui qui est la i-ème composante de u dans la base canonique de Cn :

    u =

    u1u2...un

    ∀A ∈ Mn×n(C) on note At la transposée de la matrice A :

    (At)ij = Aji ⇐⇒

    A11 ... A1n

    .... . .

    ...An1 ... A

    nn

    t

    =

    A11 ... An

    1

    .... . .

    ...A1n ... A

    nn

    ∀A ∈ Mn×n(C) on note A† la transconjuguée de A (la matrice adjointe de A, la transposée conjuguée deA) :

    (A†)ij = Aji ⇐⇒

    A11 ... A1n

    .... . .

    ...An1 ... A

    nn

    =

    A11 ... An1...

    . . ....

    A1n ... Ann

    Par construction∀u, v ∈ Cn, ∀A ∈ Mn×n(C), 〈u|Av〉 = 〈A†u|v〉

    Une matrice telle que At = A est dite symétrique, un matrice telle que A† = A est dite hermitienne ou au-toadjointe. On note GLn(C) l’ensemble des matrices inversibles de Mn×n(C). On note de plus O(n) = {A ∈GLn(R)|At = A−1} l’ensemble des matrices orthogonales, et U(n) = {A ∈ GLn(C)|A† = A−1} l’ensembledes matrices unitaires.

    On appelle noyau et image d’une matrice A ∈ Mn×n(C) les sous-espaces vectoriels de Cn :

    kerA = {u ∈ Cn, Au = 0}

    ImA = {Au, u ∈ Cn}Le théorème du rang nous apprend que

    dimkerA+ dim ImA = n

    5

  • 6 CHAPITRE 0. PRÉREQUIS D’ALGÈBRE LINÉAIRE

    où dim ImA est appelé rang de la matrice A.

    Soit H un C-espace de Hilbert de dimension finie n (un espace vectoriel équipé d’un produit scalaire).Soit B = {χn}n une base de vecteurs orthogonaux.

    ∀ψ ∈ H, ψ =n∑

    i=1

    〈χi|ψ〉χi

    Le vecteur de Cn,

    〈χ1|ψ〉...

    〈χn|ψ〉

    est appelé représentation matricielle de ψ dans la base B. De même f ∈ L(H) une application linéaire de Hdans H (un endormorphisme de H) a pour représentation matricielle dans la base B, la matrice A ∈ Mn×n(C)telle que

    Aij = 〈χi|f(χj)〉Toute propriété de f se traduit en propriété de A et réciproquement.

    0.2 Réduction des endomorphismes

    Soit A ∈ Mn×n(C), λa ∈ C est dite valeur propre de A si

    ∃φa ∈ Cn, Aφa = λaφa

    L’ensemble des valeurs propres de A, Sp(A) = {λa}a=1,...,p, est appelé spectre de A. Les valeurs propres deA sont les racines du polynôme caractéristique :

    P (λ) = det(A− λidn) ∀λa ∈ Sp(A), P (λa) = 0

    Une matrice à coefficients réels peut avoir des valeurs propres complexes. Les matrices réelles symétriqueset complexes autoadjointes ont uniquement des valeurs propres réelles. Par construction, on peut factoriserle polynôme caractéristique sous la forme

    P (λ) =

    p∏

    a=1

    (λ− λa)ma = (λ− λ1)m1(λ − λ2)m2 ...(λ− λp)mp

    L’entier ma est appelé multiplicité algébrique de λa. On appelle multiplicité géométrique ou degré de dé-généréscence de λa, le nombre da de vecteurs propres linéairement indépendants associés à λa, i.e. da =dimker(A−λaidn). L’espace vectoriel engendré par les vecteurs propres de λa, i.e. ker(A−λaidn), est appelésous-espace propre associé à λa. On notera que da ≤ ma.Si ∀a, ma = da (si pour toutes les valeurs propres les multiplicités algébriques et géométriques coïncident),alors A est dite diagonalisable et dans la base des vecteurs propres, elle prend la forme

    Φ−1AΦ =

    λ1. . . 0

    λ1. . .

    λp

    0. . .

    λp

    où la valeur propre λa apparaît ma fois sur la diagonale. Φ est la matrice des vecteurs propres écrits dans labase canonique en colonne. Une matrice réelle symétrique ou complexe autoadjointe est toujours diagonali-sable.

  • 0.2. RÉDUCTION DES ENDOMORPHISMES 7

    Si A n’est pas diagonalisable, on introduit les sous-espaces propres généralisées (ou sous-espaces caractéris-tiques) ker((A − λa)ma) (par construction dimker((A − λa)ma) = ma). Pour les valeurs propres dont lesmultiplicités algébriques et géométriques coïncident, le sous-espace caractéristique est le sous-espace propre.A est dite seulement triangularisable et dans une base de vecteurs propres généralisés prend la forme

    Φ−1AΦ =

    J11. . . 0

    J1d1. . .

    Jn1

    0. . .

    Jndn

    où Φ est la matrice des vecteurs propres généralisées écrits dans la base canonique en colonne et où Jai estun bloc matriciel triangulaire supérieur de la forme :

    Jai =

    λa ∗ ... ∗0

    . . .. . .

    ......

    . . .. . . ∗

    0 ... 0 λa

    où les “∗” représentent des nombres complexes. Dans un choix de base appropriée on a

    Jai =

    λa 1 0 ... 0

    0. . .

    . . .. . .

    ......

    . . .. . .

    . . . 0...

    . . .. . . 1

    0 ... ... 0 λa

    Les blocs Jai sont appelés blocs de Jordan. Le nombre de blocs de Jordan associés à une valeur propreest égale à la multiplicité géométrique de la valeur propre. Une valeur propre peut ne présenter qu’un uniquegrand bloc de Jordan de rang égale à sa multiplicité algébrique (si sa multiplicité géométrique est de 1), ouplusieurs blocs de rangs variables (dont la somme est égale à sa multiplicité algébrique). Une valeur propredont les multiplicités algébriques et géométriques coïncident présente donc ma blocs de Jordan de rang 1.

    Si la matrice A est autoadjointe, ses vecteurs propres sont orthogonaux :

    ∀ψa ∈ ker(A− λaidn), ∀ψb ∈ ker(A− λbidn), a 6= b 〈ψa|ψb〉 = 0

    Si la matrice A n’est pas autoadjointe, ses vecteurs propres ne sont pas orthogonaux, mais biorthogonauxaux vecteurs propres de A†

    ∀ψ∗a ∈ ker(A† − λaidn), ∀ψb ∈ ker(A− λbidn), a 6= b 〈ψ∗a|ψb〉 = 0

  • 8 CHAPITRE 0. PRÉREQUIS D’ALGÈBRE LINÉAIRE

  • Chapitre 1

    Théorie des Systèmes Dynamiques

    1.1 Les équations différentielles des systèmes dynamiques

    1.1.1 Les flots de la dynamique classique

    Rappels élémentaires de mécanique Lagrangienne et Hamiltonienne

    L’état d’une particule classique de massem est entièrement caractérisé par sa position q(t) = (x(t), y(t), z(t))(on note q1 = x, q2 = y et q3 = z), et son impulsion p(t) = (mvx,mvy,mvz) (p1 = mvx, p2 = mvy etp3 = mvz). Ainsi l’ensemble des états possibles de la particule est Γ = R6, appelé espace de phase.De manière générale, les états d’un système présentant ℓ degrés de liberté sont des points d’un espace dephase Γ = R2ℓ. Le moment conjugué pi à un degré de liberté qi est défini par le principe de Lagrange :

    pi =∂L

    ∂qi

    où L(q, q̇) est le Lagrangien du système :∫ t

    0 L(q(t), q̇(t))dt est l’action associée au chemin t 7→ q(t), c’est àdire “l’effort que doit faire la Nature pour suivre le chemin t 7→ q(t)”. Pour les systèmes mécaniques simples,on peut écrire que L = EK − V où EK est l’énergie cinétique et V l’énergie potentielle.L’espace de phase Γ peut être restreint de R2ℓ à Rn (n < 2ℓ) voir à une sous-variété de R2ℓ (hypersphère,hypertore, hypercylindre, etc...) du fait de contraintes physiques. On parle alors d’espace de phase accessible.On se limitera dans ce cours au cas Γ = Rn

    Les observables classiques sont des fonctions continues de Γ à valeurs dans C : C0(Γ,C). Dans la plupartdes cas, les observables classiques sont à valeurs dans R. La dynamique d’un système est gouverné parl’Hamiltonien, c’est à dire l’observable énergie H(q, p) qui pour les systèmes mécaniques simples peut s’écrire

    H(q, p) =∑

    i

    p2i2µi

    + V (q)

    où V est l’énergie potentielle, et µi le paramètre d’inertie associé à qi (µi est une masse si qi est une positionou un moment d’inertie si qi est un angle). Une dynamique t 7→ (q(t), p(t)) est solution des équations deHamilton

    {

    q̇i = ∂H∂piṗi = − ∂H∂qi

    (q(t), p(t)) = (q0, p0)

    L’important est de remarquer que, contrairement à ce que laisse entendre l’équation de Newton, la dynamiqueest in fine gouvernée par une équation différentielle du premier ordre

    Ẋ = F (X(t))

    avec X = (q, p) ∈ Γ = Rn et F : Γ → Γ avec F (X) = (∂H∂p ,−∂H∂q ). Lorsque l’Hamiltonien dépend explicite-ment du temps H(q, p, t) (système forcé), il y a l’équation supplémentaire ∂H∂t = dHdt .Les solutions t 7→ X(t) sont appelées trajectoires de phase du système. L’ensemble des trajectoires dephase du système forment le portrait de phase du système.

    9

  • 10 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    Systèmes dynamiques classiques

    Définition 1 (Système dynamique classique). On appelle système dynamique classique, un triplet (Γ, F, dτ)où Γ = Rn, F est une application continue de Γ dans Γ et dτ est une mesure d’intégration sur Γ (élé-ment infinitésimal d’hypervolume dans Γ). Les trajectoires de phase du système dynamique sont solutions del’équation

    Ẋ = F (t,X(t))

    Si F : Γ → Γ est une application linéaire (un endomorphisme de Rn) on dit que le système dynamique estlinéaire, dans le cas contraire on parle de système dynamique non-linéaire. Si F ne dépend pas explicitementdu temps, Ẋ = F (X(t)), on dit que le système dynamique est autonome, dans le cas contraire on parle desystème dynamique forcé.

    Cette définition a l’intérêt d’être totalement générale, elle peut s’appliquer à des systèmes mécaniquessimples, mais aussi à des milieux continus, des systèmes chimiques, des systèmes biologiques, des systèmeséconomiques ou financiers, etc. Lorsqu’il ne s’agit pas de systèmes Hamiltoniens, l’espace de phase peutêtre de dimension impaire. On peut par exemple citer les systèmes thermodynamiques d’espace de phaseengendré par (P, V, T ) (pression, volume, température). Le rôle de la mesure d’intégration est de permettrela définition de la moyenne d’une observable f : Γ → C sur une région Ω de Γ :

    〈f〉Ω =∫

    Ωf(X)dτ∫

    Ω dτ

    Pour un système linéaire, on note ∂F la matrice représentante de F dans la base canonique de Rn, cequi permet d’écrire

    Ẋ = (∂F )X ⇐⇒ Ẋa =n∑

    b=1

    (∂F )abXb ∀a

    Considérons un système non-linéaire et un point X0 de l’espace de phase. Soit t 7→ X(t) un portrait de phasepassant par un voisinage de X0. On a alors

    X(t) = X0 + δX(t) + O(‖δX‖2)

    d’où

    δẊ = Ẋ + O(‖δX‖2)= F (X0 + δX) + O(‖δX‖2)

    = F (X0) +n∑

    a=1

    ∂F

    ∂Xa

    X=X0

    δXa + O(‖δX‖2)

    Si on suppose de plus que X0 est un point singulier (un point d’équilibre) de F , i.e. F (X0) = 0, alors lesystème dynamique linéaire (V(0), ∂F, dτ) avec V(0) un voisinage de 0 dans Rn et ∂F la matrice

    (∂F )ab =∂F a

    ∂Xb

    X=X0

    est appelé linéarisation de (Γ, F, dτ) au voisinage de X0. L’équation du système dynamique linéarisé est donc

    δẊ = (∂F )δX ⇐⇒ δẊa =n∑

    b=1

    (∂F )abδXb

    Définition 2 (Flot). On appelle flot d’un système dynamique (Γ, F, dτ) l’application continue Φt,s : Γ → Γindexée par deux instants t ≥ s telle que pour toute trajectoire de phase t 7→ X(t) on a

    Φt,s(X(s)) = X(t)

    Le flot est donc l’application qui représente l’évolution induite par le système dynamique. La trajectoirede phase passant par un point X0, t 7→ Φt,0(X0), est également appelée orbite de X0 sous l’action du flot Φ.

  • 1.1. LES ÉQUATIONS DIFFÉRENTIELLES DES SYSTÈMES DYNAMIQUES 11

    Propriété 1. Le flot d’un système dynamique est un semi-groupe continu de transformations, i.e. ∀X ∈ Γ,∀t ≥ s ≥ r

    • Φt,t(X) = X• Φt,s ◦ Φs,r(X) = Φt,s (Φs,r(X)) = Φt,r(X)

    On parle de “semi-groupe”, car l’application Φt,s n’est pas nécessairement réversible, Φ−1t,s 6= Φs,t (ellel’est néanmoins systèmatiquement si le système dynamique est linéaire).

    Pour trouver l’équation du flot, on considère l’équation de la trajectoire de phase telle que X(s) = X0 :

    Ẋ = F (X) ⇐⇒ ∂∂t

    Φt,s(X0) = F (Φt,s(X0))

    ⇐⇒ ∂∂t

    ∂Φt,s(X0)

    ∂Xa0=

    n∑

    b=1

    ∂F (Y )

    ∂Y b

    Y=Φt,s(X0)

    ∂Φbt,s(X0)

    ∂Xa0

    ⇐⇒ ∂J(t, s)∂t

    = ∂F (X(t))J(t, s)

    avec ∂F (X) la matrice

    (∂F (X))ab =∂F a

    ∂Xb

    et J(t, s) est la matrice Jacobienne du flot

    J(t, s)ab =∂Φat,s(X0)

    ∂Xb0J(s, s) = 1

    Dans le cas d’un système dynamique linéaire, la matrice Jacobienne ne dépend pas de X0, et est la matricereprésentante de l’application linéaire Φt,s dans la base canonique de Rn. Si le système est autonome en plusd’être linéaire, le flot est une application linéaire de matrice représentante

    J(t, s) = e(∂F )(t−s) = idn +∞∑

    p=1

    (t− s)pp!

    (∂F )p

    e est l’exponentielle de matrice. Dans le cas d’un système linéaire forcé, on a

    J(t, s) = TeR

    t

    s∂F (t′)dt′ = idn +

    ∞∑

    p=1

    ∫ t

    s

    ∫ t1

    s

    ...

    ∫ tp−1

    s

    (∂F (t1))(∂F (t2))...(∂F (tp))dtp...dt2dt1

    Te est appelée exponentielle ordonnée en temps, la série qui la définit est appelée série de Dyson. Pardéfinition, l’exponentielle ordonnée en temps d’une matrice A(t) est solution de l’équation

    dTeR

    t

    sA(t′)dt′

    dt= A(t)Te

    R

    t

    sA(t′)dt′ Te

    R

    s

    sA(t′)dt′ = 1

    qui est la généralisation matricielle de l’équation différentielle ḟ(t) = a(t)f(t); f(s) = 1 qui a pour solutionf(t) = e

    R

    t

    sa(t′)dt′ .

    1.1.2 Les opérateurs d’évolution de la dynamique quantique

    Définition 3 (Système dynamique quantique). On appelle système dynamique quantique un couple (H, H)où H est un C-espace de Hilbert (le cas dimH = +∞ n’est pas exclu) et où H ∈ L(H) est un opérateur deH (l’Hamiltonien quantique). Les fonctions d’onde du système sont solutions de l’équation de Schrödinger

    ı~ψ̇ = H(t)ψ(t)

    Si H est indépendant du temps, le système dynamique quantique est dit libre, dans le cas contraire il est ditforcé.

  • 12 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    Les observables quantiques sont les opérateurs de H, et la définition de leur moyenne quand le systèmeest dans un état ψ ∈ H est contenue dans la structure d’espace de Hilbert : pour une observable A ∈ L(H)

    〈A〉ψ =〈ψ|A|ψ〉〈ψ|ψ〉 =

    tr(A|ψ〉〈ψ|)tr(|ψ〉〈ψ|)

    Il est clair que d’un point de vue mathématique, systèmes dynamiques classiques linéaires et systèmesdynamiques quantiques sont structurellement semblables. On peut en effet faire la comparaison suivante (endimension finie) :

    Système dynamique classique linéaire Système dynamique quantiqueRn Cn

    ∂F ∈ Mn×n(R) H ∈ Mn×n(C)Ẋ = (∂F )X ı~ψ̇ = Hψ∫

    Ωf(X)dτ tr(A|ψ〉〈ψ|)

    Les systèmes dynamiques quantiques peuvent donc être vus comme l’extension au corps des complexes dessystèmes dynamiques classiques linéaires. Néanmoins cette similitude structurelle mathématique ne doit pasmasquer la forte disparité des interprétations physiques des deux types de systèmes. En effet l’espace desétats quantiques H n’est pas physiquement l’équivalent quantique de l’espace de phase. H représente lapotentialité de toutes les superpositions d’états (les chats de Schrödinger et les délocalisations spatiales) quin’ont pas d’équivalents classiques. Une façon simple de voir la grande différence entre les deux notions, estde considérer un système avec ℓ degrés de liberté continus (ℓ positions ou angles) sans contraintes. L’espacede phase du système classique sera Γ = R2ℓ qui est de dimension finie (2ℓ), alors que l’espace des étatsde l’équivalent quantique sera H = L2(Rℓ, dq) (espace des fonctions de Rℓ de carré sommable) qui est dedimension infinie. Du fait du principe d’incertitude de Heisenberg, il n’existe pas d’équivalent satisfaisant enmécanique quantique à l’espace de phase. Par ailleurs, les moyennes des observables n’ont pas non plus lemême sens physique. En classique, 〈f〉Ω est la moyenne de f lorsque on sait que l’état du système se trouvequelque part dans Ω. Par exemple, Ω peut être une petite région autour d’un point X représentant le fait quel’état du système est connu à une incertitude expérimentale près (X est la valeur centrale, et Ω représentele “rectangle d’erreur”). Ainsi en classique, cette moyenne est en rapport à un manque d’information del’observateur sur le système (manque d’information issue de l’impossibilité de faire des mesures de précisioninfinie). En quantique, 〈A〉ψ est la moyenne de A sur les “fluctuations quantiques” associées à l’état ψ. Ellene modélise pas un manque d’information sur le système (l’état du système est parfaitement connu, c’estψ), mais un phénomène aléatoire intrinsèque aux systèmes quantiques (la dynamique quantique n’est pasdéterministe, ce n’est pas parce que l’on connait avec certitude l’état du système que l’on peut en généralprédire avec certitude le résultat de la mesure d’une observable). Le fait qu’il n’y a pas d’information cachéesous-jacente a été démontré expérimentalement par les expériences d’Aspect. Même si systèmes dynamiquesclassiques et quantiques peuvent être traités en parallèle car ils sont structurellement (mathématiquement)identiques, il ne faudra jamais perdre de vue qu’ils sont physiquement (interprétativement) radicalementdifférents. On remarquera que la dynamique quantique ne présente que des systèmes (mathématiquement)linéaires (cela est inhérent à son formalisme). Les non-linéarités (au sens physique) s’expriment de façon plussubtile en physique quantique, et il faudra souvent se référer à l’équivalent classique d’un système quantiquepour le classer comme non-linéaire.

    Définition 4 (Opérateur d’évolution). On appelle opérateur d’évolution d’un système dynamique quantique(H, H) l’opérateur U(t, s) ∈ B(H) indexé par deux instants t ≥ s tel que pour toute fonction d’onde ψ(t)solution de l’équation de Schrödinger on a

    U(t, s)ψ(s) = ψ(t)

    B(H) = {A ∈ L(H), supψ∈H,ψ 6=0 ‖Aψ‖‖ψ‖ < ∞} est l’ensemble des opérateurs bornés de H (en dimensionfinie, tout opérateur est borné).

    Propriété 2. L’opérateur d’évolution d’un système dynamique quantique est un groupe continu de transfor-mations, i.e. ∀t, s, r

    • U(t, t) = idH• U(t, s)U(s, r) = U(t, r)

  • 1.1. LES ÉQUATIONS DIFFÉRENTIELLES DES SYSTÈMES DYNAMIQUES 13

    L’opérateur d’évolution est réversible,U(s, t) = U(t, s)−1 mais n’est pas nécessairement unitaire U(t, s)−1 6=U(t, s)† (sauf si H est autoadjoint).Si l’hamiltonien H est indépendant du temps, alors

    U(t, s) = e−ı~−1H(t−s) = idH +

    ∞∑

    p=1

    (−ı~−1(t− s))pp!

    Hp

    Dans le cas des systèmes dynamiques forcés, H(t) dépendant du temps, on a

    U(t, s) = Te−ı~−1

    R

    t

    sH(t′)dt′ = idH +

    ∞∑

    p=1

    (−ı~−1)p∫ t

    s

    ∫ t1

    s

    ...

    ∫ tp−1

    s

    H(t1)H(t2)...H(tp)dtp...dt2dt1

    Ainsi l’opérateur d’évolution est solution de

    ı~∂U(t, s)

    ∂t= H(t)U(t, s) U(s, s) = idH

    1.1.3 Les systèmes dynamiques de la physique statistique

    Systèmes dynamiques statistiques classiques

    Soit un système dynamique classique Hamiltonien (Γ,H, dτ) (dim Γ ∈ 2N). Dans de nombreuses situa-tions, on ne peut pas déterminer la position initiale du système (car on ne dispose pas de toute l’informationnécessaire). Ce manque d’information est modélisée par une distribution de probabilités dans Γ (dite distri-bution d’états) de densité ρ0 : Γ → [0, 1]. Ainsi pour toute région Ω ⊂ Γ,

    Ωρ0(q, p)dτ est la probabilité que

    le système se trouve dans Ω à la date t = 0. En d’autres termes, si on duplique N fois le système (avec N trèsgrand) avec des duplications qui ne tiennent compte que de ce qui est connu sur le système,

    Ω ρ0(q, p)dτest la fraction de copies du système se trouvant dans Ω à t = 0 (c’est aussi la probabilité qu’une copie tiréeau hasard soit dans Ω). La moyenne d’une observable f est alors

    Γ f(q, p)ρ0(q, p)dτ . Soit ρ(t) l’évolution aucours du temps de la densité de probabilité de la distribution d’états (ρ(0) = ρ0). Pour un système isolé, ρest solution de l’équation de Liouville :

    ρ̇ = −{ρ,H} = −LHρ

    où {., .} est le crochet de Poisson :{ρ,H} = ∂ρ

    ∂qk∂H∂pk

    − ∂ρ∂pk

    ∂H∂qk

    et où LH = {.,H} (crochet de Poisson partiel) est appelé dérivée de Lie par rapport à H. LH = ∂H∂pk∂∂qk −

    ∂H∂qk

    ∂∂pk

    doit être vu comme un opérateur de L1(Γ, dτ). Pour un système pouvant échanger de l’énergie avecson environnement, ρ est solution de l’équation de Boltzmann :

    ρ̇ = −LHρ+ C(ρ)

    où C est une transformation non-linéaire de ρ (qui peut être relativement compliquée) modélisant les échangesd’énergie et qui ne peut pas être mise sous la forme d’une dérivée de Lie (d’un crochet Poisson).Pour système dynamique statistique non-hamiltonien Ẋ = F (t,X) l’équation de Liouville se généralise en

    ρ̇ = −F a ∂ρ∂Xa

    − tr(∂F )ρ

    Ces équations définissent un flot Φt,0 : L1(Γ, dτ) → L1(Γ, dτ) sur l’espace des fonctions intégrables de l’espacede phase.Le traitement d’un système dynamique statistique est le même que celui d’un système dynamique simplelinéaire, mais où l’espace de phase Γ est remplacé par L1(Γ, dτ) (espace des fonctions intégrables de Γ, commeen mécanique quantique il faudra renormer pour avoir une probabilité). Il s’agit d’un espace fonctionnel,c’est à dire de dimension infinie. Ainsi les systèmes dynamiques statistiques classiques sont des systèmesdynamiques classiques linéaires d’espace de phase de dimension infinie. LH et C apparaîssent alors commedes opérateurs de L1(Γ, dτ). Tout ce qui sera étudié pour les systèmes dynamiques classiques se généraliseaux systèmes statistiques en se rappelant que leur dimension est infinie. On pourra faire une représentation

  • 14 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    matricielle du problème en posant une base (ζi)i de L1(Γ, dτ) (que l’on tronquera pour avoir des matricesde rang fini). On a alors ρ(q, p) =

    i ρiζi(q, p) → (ρ1, ρ2, ...) = X , et la dérivée de Lie représentée parune matrice où les termes ∂H

    ∂qket ∂H∂pk sont donnés par les représentations matricielles des opérateurs de

    multiplication par une fonction, et les termes ∂∂qk

    et ∂∂pk sont donnés par les représentation matricielles desopérateurs différentiels.

    Systèmes dynamiques statistiques quantiques

    Un système dynamique quantique statistique est représenté par une matrice densité ρ (opérateur del’espace de Hilbert H) équivalente de la distribution d’états classique. ∀ψ ∈ H, 〈ψ|ρψ〉 est la probabilitépour que le système soit dans l’état ψ (ou la probabilité qu’une copie du système tirée au hasard soit dansl’état ψ). Pour assurer que ρ représente des probabilités, il faut que ρ† = ρ, ∀ψ 〈ψ|ρψ〉 ≥ 0 et trρ = 1. Lamoyenne d’une observable A est alors tr(Aρ). L’évolution des systèmes isolés est gouvernée par l’équationde Liouville-von Neumann :

    ı~ρ̇ = −[ρ,H ] = −LHρ

    et celle des systèmes ouverts par l’équation de Lindblad :

    ı~ρ̇ = −LHρ+ D(ρ)

    où D (le dissipateur) est une transformation compliquée de ρ qui ne peut pas être mise sous la forme d’unedérivée de Lie (d’un commutateur). L’espace des matrices densités est équipé d’un produit scalaire définipar

    〈〈ρ1|ρ2〉〉 = tr(ρ†1ρ2)

    Ainsi l’étude d’un système dynamique quantique statistique est équivalente à l’étute d’un système dynamiquequantique en substituant à l’espace de Hilbert H l’espace de Liouville 1 T 2(H) = {ρ ∈ L(H)|tr(ρ†ρ) < +∞},avec LH et D des opérateurs sur l’espace de Liouville. Les équations de Liouville-von Neumann et de Lindbladdéfinissent donc un opérateur d’évolution U(t, 0) ∈ U(T 2(H)) sur l’espace de Liouville (une dérivée de Lieest un opérateur linéaire autoadjoint de l’espace de Liouville, le dissipateur est un opérateur linéaire non-autoadjoint de l’espace de Liouville). Si H est de dimension infinie, ce sera également le cas de l’espace deLiouville, mais si dimH = n alors dim T 2(H) = n2. Pour être précis la représentation d’une matrice densitéen vecteur de Liouville est donnée par :

    ρ =

    ρ11 ... ρ1n...

    . . ....

    ρn1 ... ρnn

    −→ |ρ〉〉 =

    ρ11...ρ1nρ21......ρn1...ρnn

    1.1.4 Les systèmes dynamiques périodiques

    Considérons un système dynamique classique (Γ, F, dτ) non-autonome mais T -périodique :

    ∀t, ∀X ∈ Γ, F (t+ T,X) = F (t,X)

    Soit t 7→ X0(t) une trajectoire de phase périodique (un cycle) : X0(t + T ) = X0(t). Au voisinage de{X0(t)}t∈[0,T ] on peut linéariser le système :

    X(t) = X0(t) + δX(t) + O(‖δX‖2)

    1. T 2(H) est également appelé classe des opérateurs de Hilbert-Schmidt

  • 1.1. LES ÉQUATIONS DIFFÉRENTIELLES DES SYSTÈMES DYNAMIQUES 15

    et Ẋ = F (t,X(t)) induit

    δẊ = Ẋ − Ẋ0 + O(‖δX‖2)= F (t,X0 + δX) − F (t,X0) + O(‖δX‖2)

    =n∑

    a=1

    ∂F

    ∂Xa

    X=X0(t)

    δXa + O(‖δX‖2)

    Au voisinage d’une trajectoire de phase périodique, le système se linéarise en une équation différentielle àcoefficients périodiques :

    δẊ = (∂F (t))δX ∂F (t+ T ) = ∂F (t)

    Pour les systèmes dynamiques quantiques qui sont déjà linéaires, il suffit que l’Hamiltonien soit T -périodiquepour que l’équation de Schrödinger soit une équation différentielle à coefficients périodiques.

    Définition 5 (Système dynamique périodique). Un système dynamique classique ou quantique forcé est ditpériodique s’il existe T > 0 tel que ∀t,

    ∂F (t+ T,X(t+ T )) = ∂F (t,X(t)) ou H(t+ T ) = H(t)

    Le fait que le générateur de la dynamique soit périodique n’implique pas que la dynamique (le flot oul’opérateur d’évolution) le soit. Le théorème suivant décrit la dynamique d’un système périodique.

    Théorème 1 (Théorème de Floquet). On considère un système dynamique T -périodique.• Pour un système dynamique classique,

    ∂J(t, 0)

    ∂t= ∂F (t)J(t, 0)

    la matrice Jacobienne du flot peut se décomposer sous la forme

    J(t, 0) = S(t)eΛt

    où S(t) est une matrice T -périodique, S(T ) = S(0) = idRn , et Λ est une matrice indépendante dutemps.

    • Pour un système dynamique quantique,

    ı~∂U(t, 0)

    ∂t= H(t)U(t, 0)

    l’opérateur d’évolution peut se décomposer sous la forme

    U(t, 0) = Z(t)eıQt

    où Z(t) est un opérateur T -périodique, Z(T ) = Z(0) = idH, et Q est un opérateur indépendant dutemps.

    J(T, 0) = eΛT et U(T, 0) = eıQT sont appelés matrice et opérateur de monodromie. La monodromie estla fait que certaines propriétés d’un système cyclique, ne sont pas identiques à elles-mêmes après un cycle.On parle aussi d’anholonomie lorsque ces propriétés dépendent de la forme géométrique du cycle.Le théorème de Floquet permet de ramener l’étude d’un système forcé périodique (∂F (t) ou H(t)) à unsystème autonome ou libre équivalent gouverné par la matrice ou l’opérateur de Floquet (Λ ouQ), à conditionde ne regarder le système qu’à des intervalles de temps de T . La dynamique est en effet essentiellementgouvernée par la matrice ou l’opérateur de monodromie (sur une échelle de temps de T ), même si sur decourtes échelles de temps (∆t < T ) elle s’éloigne un peu de la dynamique autonome ou libre (du fait de S(t)ou de Z(t)). La dynamique regardée uniquement toutes les périodes enΛT ou eınQT est appelée dynamiquestroboscopique du système. Le système dynamique stroboscopique est un système à temps discret. Onpeut introduire d’autres systèmes dynamiques à temps discret en posant une matrice J que l’on identifieraà une matrice de monodromie et en induisant une dynamique stroboscopique de la forme Jn pour le n-ièmepas de la dynamique. On notera que si en plus de l’action de J on ajoute une transformation non-linéaireà chaque pas, on peut obtenir un système dynamique à temps discret qui n’est la version stroboscopiqued’aucun système dynamique à temps continu (une transformation non-linéaire discrète peut n’être interpoléepar aucune transformation non-linéaire continue).On notera enfin qu’un point de la trajectoire périodique pour un système dynamique classique, du fait dela périodicité X(t+ T ) = X(t), joue le rôle d’un point singulier pour la dynamique stroboscopique. L’étudedes cycles des systèmes dynamiques forcés périodiques est donc équivalente à l’étude des points singuliersdes systèmes dynamiques autonomes.

  • 16 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    1.2 Intégration numérique des systèmes dynamiques

    La très grande majorité des systèmes dynamiques ne peuvent être traités analytiquement (même enpartie). Leur étude nécessite donc le passage par des simulations numériques nécessitant l’intégration deséquations de la dynamique. On donne ici quelques algorithmes d’intégration dans une présentation qui estloin d’être exhaustive et nécessiterait de plus amples explications. Avant cela, donnons quelques définitionsimportantes.

    1.2.1 Éléments d’analyse numérique des équations différentielles

    On cherche à intégrer l’équation de la dynamique classique Ẋ = F (t,X(t)) sur un intervalle [0, T ]. Ondiscrétise l’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On connaît lacondition initiale X0 = X(0). On cherche une approximation Xn de X(tn). On appelle algorithme à un pas,un schéma qui se présente sous la forme

    Xn+1 = Xn + F(Xn, tn)∆t

    où F : Γ → Γ dépend de F et de ∆t.

    Définition 6 (Algorithme consistant). On dit qu’un algorithme est consistant d’ordre p ∈ N s’il existe uneconstante C ∈ R+ ne dépendant pas ∆t telle que

    X(tn+1) −X(tn)∆t

    − F(X(tn), tn)∥

    ≤ C∆tp ∀n

    Autrement dit, un algorithme est consistant d’ordre p (on dit souvent simplement d’ordre ∆tp) s’il génèreà chaque pas une erreur bornée d’ordre de grandeur ∆tp.

    Définition 7 (Stabilité d’un algorithme). Un algorithme est dit :• inconditionnellement stable, si ∃R ∈ R+∗ (dépendant de T ) et ∃X∗ ∈ Γ tels que ∀n, ∀∆t, on a‖Xn −X∗‖ ≤ R.

    • (conditionnellement) stable, si ∃R ∈ R+∗ (dépendant de T ), ∃X∗ ∈ Γ, et ∃∆tmax ∈ R+∗ tels que ∀n,∀∆t ≤ ∆tmax, on a ‖Xn −X∗‖ ≤ R.

    • stable par rapport aux erreurs si pour (ǫn)n=0,...,N , ∃K ∈ R+∗ et ∃∆tmax ∈ R+∗ tels que ∀n, ∀∆t ≤∆tmax, on a ‖Xn − Yn‖ ≤ K

    (

    ‖X0 − Y0‖ +∑n−1

    m=0 |ǫn|)

    avec Yn+1 = Yn + F(Yn, tn)∆t+ ǫn.

    La stabilité inconditionnelle est une propriété très forte qui induit que quelque soit le pas temporel ∆t,l’algorithme fournira un résultat sans “explosion” des valeurs numériques, alors qu’un algorithme condition-nellement stable doit être utilisé avec un pas suffisamment fin. En pratique, si on programme un algorithmeinstable ou conditionnellement stable avec un pas trop grand, des éléments de Xn vont devenir (plus oumoins) rapidement très grands, dépassant la capacité de représentation des nombres de l’ordinateur (101000).Cela conduit à une erreur d’exécution de type “floating point overflow”. Dans le cas de la dynamique quan-tique, puisque ‖ψn‖ ≤ 1 pour maintenir une interprétation probabiliste, il faut imposer ψ∗ = 0 et R = 1.Dans le cas des algorithmes conditionnellement stable, le fait de ne pas observer ce genre de problème dansl’exécution, laisse penser que le pas est suffisamment fin pour que le résultat soit satisfaisant. Mais dans lecas d’un algorithme inconditionnellement stable, on ne dispose pas de ce critère pour savoir si le pas a unechance d’être suffisamment fin.La stabilité par rapport aux erreurs, permet d’assurer que les perturbations de l’algorithme (par les erreursmachines) ne vont pas provoquer une divergence des résultats. Ce critère peut être tester numériquement enimposant “manuellement” des erreurs (ǫn)n plus grandes que les erreurs machines.

    Proposition 1. Une condition suffisante pour qu’un algorithme soit stable par rapport aux erreurs est∃∆tmax ∈ R+∗, ∃K ∈ R+∗ tels que ∀∆t ≤ ∆tmax, ∀t ∈ [0, T ], F soit K-Lipschitzienne, c’est à dire que∀X,Y ∈ Γ, on a ‖F(X, t)− F(Y, t)‖ ≤ K‖X − Y ‖.

    Théorème 2 (Convergence). Si un algorithme est stable par rapport aux erreurs et consistant d’ordre p,alors il existe K ∈ R+∗ tel que ∀n, ‖Xn −X(tn)‖ ≤ K∆tp

    La convergence assure que l’approximation Xn reste proche de la valeur réelle X(tn) avec une erreurd’ordre de grandeur ∆tp.

  • 1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 17

    1.2.2 Algorithme d’Euler explicite

    On cherche à intégrer l’équation de la dynamique classique Ẋ = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On noteXn ≃ X(tn).La méthode d’Euler repose sur le principe des différences finies au premier ordre :

    Ẋ = limh→0

    X(t+ h) −X(t)h

    ≃ Xn+1 −Xn∆t

    On a alors le schéma de propagation suivant :

    Xn+1 = Xn + F (tn, Xn)∆t

    L’erreur est d’ordre ∆t, et l’algorithme est conditionnellement stable.

    1.2.3 Algorithme de Runge-Kutta d’ordre 2

    On cherche à intégrer l’équation de la dynamique classique Ẋ = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On noteXn ≃ X(tn).La méthode de Runge-Kutta de second ordre est fondée sur une double application du principe des différencesfinies au point milieu :

    Ẋ = limh→0

    X(t+ h) −X(t+ h2 )h2

    ≃ 2Xn+1 −Xn+ 12

    ∆t⇒ Xn+1 = Xn+ 12 +

    ∆t

    2F (tn +

    ∆t

    2, Xn+ 12 )

    Ẋ = limh→0

    X(t+ h2 ) −X(t)h2

    ≃ 2Xn+ 12 −Xn

    ∆t⇒ Xn+ 12 = Xn +

    ∆t

    2F (tn +

    ∆t

    2, Xn+ 12 )

    d’oùXn+1 = Xn + F (tn +

    ∆t

    2, Xn+ 12 )∆t

    En estimant alors Xn+ 12 par la méthode d’Euler, on obtient le schéma de propagation suivant :

    Xn+1 = Xn + F

    (

    tn +∆t

    2, Xn + F (tn, Xn)

    ∆t

    2

    )

    ∆t

    L’erreur est d’ordre ∆t2 et l’algorithme est conditionnellement stable.

    1.2.4 Algorithme de Runge-Kutta d’ordre 4

    On cherche à intégrer l’équation de la dynamique classique Ẋ = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On noteXn ≃ X(tn).On réitère le principe de Runge-Kutta. On obtient alors le schéma de propagation suivant :

    Xn+1 = Xn + (K1 + 2K2 + 2K3 +K4)∆t

    6

    avec

    K1 = F (Xn, tn)

    K2 = F

    (

    Xn +K1∆t

    2, tn +

    ∆t

    2

    )

    K3 = F

    (

    Xn +K2∆t

    2, tn +

    ∆t

    2

    )

    K4 = F (Xn +K3∆t, tn + ∆t)

    L’erreur est d’ordre ∆t4 et l’algorithme est conditionnellement stable.

  • 18 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    1.2.5 Algorithme de Richardson

    On cherche à intégrer l’équation de Schrödinger ı~ψ̇ = H(t)ψ(t) sur un intervalle [0, T ]. On discrétisel’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On note ψn ≃ ψ(tn).La méthode SOD (“second order differencing”) repose sur le principe des différences finies au second ordre :

    ψ(t+ ∆t) = ψ(t) + ψ̇(t)∆t+ ψ̈(t)∆t2

    2+ O(∆t3)

    ψ(t− ∆t) = ψ(t) − ψ̇(t)∆t+ ψ̈(t)∆t2

    2+ O(∆t3)

    d’oùψ(t+ ∆t) − ψ(t− ∆t) = 2ψ̇(t)∆t+ O(∆t3)

    On obtient donc le schéma de propagation (à deux pas) suivant :

    ψn+1 = ψn−1 − 2ı~−1∆tH(tn)ψn

    L’erreur est d’ordre ∆t2 et l’algorithme est conditionnellement stable pour les Hamiltoniens autoadjoints dela forme − ~22m∆ + V avec V un potentiel (attention, il est instable pour les Hamiltoniens non-autoadjoints).La récurrence à deux pas est initialisée de la façon suivante : on trouve un ψ1/2 (à la date ∆t/2) par unschéma de propagation de premier ordre (méthode d’Euler), puis on trouve ψ1 à partir de ψ0 et ψ1/2 par leschéma de second ordre (Richardson).

    1.2.6 Algorithme de l’opérateur fractionné (intégrateurs symplectiques)

    On cherche à intégrer l’équation de Schrödinger ı~ψ̇ = H(t)ψ(t) sur un intervalle [0, T ]. On discrétisel’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On note ψn ≃ ψ(tn). Onsuppose que H(t) = H0 + V (t) où V est un opérateur diagonal dans la base de travail. On suppose de plusque H0 est diagonalisable, et que sa matrice diagonale D0 et sa matrice de vecteurs propres dans la base detravail Φ0 sont connues.L’algorithme de l’opérateur fractionné repose sur la règle de groupe de l’opérateur d’évolution :

    U(T, 0) = U(tN , tN−1)U(tN−1, tN−2)...U(t1, t0)

    Sur une durée faible ∆t, l’exponentielle ordonnée en temps est quasiment égale à une exponentielle dematrice :

    U(tn+1, tn) ≃ e−ı~−1H(tn)∆t

    ≃ e−ı~−1V (tn)∆t2 e−ı~−1H0∆te−ı~−1V (tn)∆t2≃ e−ı~−1V (tn)∆t2 Φ0e−ı~

    −1D0∆tΦ−10 e−ı~−1V (tn)∆t2

    L’exponentielle d’une matrice diagonale ne présentant pas de difficulté (c’est la matrice diagonale des expo-nentielles des éléments diagonaux), on aboutit au schéma de propagation suivant :

    ψn+1 = e−ı~−1V (tn)∆t2 Φ0e

    −ı~−1D0∆tΦ−10 e−ı~−1V (tn)∆t2 ψn

    L’algorithme est inconditionnellement stable et l’erreur d’ordre ∆t3. De plus il conserve (quelque soit le pas∆t) la norme de la fonction d’onde. En général on utilise cet algorithme avec H0 opérateur cinétique et Vopérateur énergie potentielle. La base de travail est alors une base DVR (Discrete Variable Representation),et la base de diagonalisation de H0 est une base FBR (Finite Basis Representation) transformée de Fourier dela base DVR. Φ est alors une opération de transformée de Fourier numériquement réalisée avec un algorithmeFFT (Fast Fourier Transform).La formule de fractionnement de l’exponentielle repose sur l’usage de la formule de Baker-Campbell-Hausdorfftronquée au second ordre :

    eλAeλBeλA = eλA+λB+λ2

    2 [A,B]+O(λ3)eλA

    = e2λA+λB+λ2

    2 [A,B]+λ2

    2 [B,A]+O(λ3)

    = e2λA+λB+O(λ3)

  • 1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 19

    Des approximations plus précises peuvent être obtenues en tronquant la formule BCH à un ordre supérieur.On peut aussi utiliser une version tronquée de la formule de Trotter à la place de la formule BCH.

    La méthode de l’opérateur fractionné peut aussi être utilisée en mécanique Hamiltonienne classique. Ona alors l’équation Ẋ = {X,H}, avec H l’Hamiltonien classique, X = (q, p) et {., .} le crochet de Poisson. Leflot peut alors être écrit

    Φt,s = eLH(t−s)

    où LH est l’opérateur donné par la dérivée de Lie :

    LH = {.,H} =∂H∂pk

    ∂qk− ∂H∂qk

    ∂pk

    Avec H(q, p) = K(p) + V (p) (K est le terme cinétique), on a

    Xn+1 = eLV

    ∆t2 eLK∆teLV

    ∆t2 Xn

    où LV = {., V } et LK = {.,K} sont les opérateurs différentiels donnés par les dérivées de Lie par rapport àV et à K. On a alors

    eLV∆t2

    (

    qp

    )

    =

    (

    qp− ∂V∂q (q)∆t2

    )

    eLK∆t(

    qp

    )

    =

    (

    q + ∂K∂p (p)∆t

    p

    )

    La méthode de l’opérateur fractionné classique est un cas particulier d’intégrateur symplectique c’est à direun algorithme qui conserve les aires de l’espace de phase (et donc conserve automatiquement l’énergie).En mécanique classique statistique, le calcul des exponentielles est plus délicat du fait que le flot agit surdes fonctions de L1(Γ, dτ). Il faut alors procéder comme en mécanique quantique avec des représentationsmatricielles des opérateurs différientiels (de type DVR/FBR par exemple).

    1.2.7 Algorithme de transport adiabatique discret

    On cherche à intégrer l’équation de Schrödinger ı~ψ̇ = H(t)ψ(t) sur un intervalle [0, T ]. On discrétisel’intervalle [0, T ] → {t0, t1, ..., tN} avec ti = i∆t, et ∆t = TN le pas d’intégration. On note ψn ≃ ψ(tn).L’algorithme repose également sur la règle de groupe de l’opérateur d’évolution :

    U(T, 0) = U(tN , tN−1)U(tN−1, tN−2)...U(t1, t0)

    et sur l’approximationU(tn+1, tn) ≃ e−ı~

    −1H(tn)∆t

    On diagonalise alors H(tn), et on note D(tn) sa matrice diagonale et Φ(tn) la matrice des vecteurs propresdans la base de travail. On a alors le schéma d’intégration suivant :

    ψn+1 = Φ(tn+1)−1Φ(tn)e

    −ı~−1D(tn)∆tψn

    où ψn est exprimée sur la base des vecteurs propres de H(tn) (et non sur la base de travail). L’algorithmeest inconditionnellement stable mais nécessite une diagonalisation à chaque pas (ce qui est très gourmand entemps de calculs). La méthode est en général utilisée lorsqu’une approximation adiabatique permet de savoirque la dynamique est restreinte à un petit groupe d’états propres (et non à la totalité). On procède alorsseulement à une diagonalisation partielle à chaque pas. L’erreur dépend alors de la validité de l’approximationadiabatique.

    1.2.8 Représentations matricielles des opérateurs différentiels

    Méthode des différences finies

    On considère une variable x ∈ R. Soit {x0, ..., xN} une partition de [x0, xN ] ⊂ R avec xi+1 − xi = ∆x.En utilisant un développement limité au premier ordre, on a quelque soit f fonction de R :

    f(xi+1) = f(xi) + f′(xi)∆x+ O(∆x2)

  • 20 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    donc∂f

    ∂x

    xi

    =f(xi+1) − f(xi)

    ∆x+ O(∆x)

    On a alors

    ∂xf(x0)∂xf(x1)

    ...∂xf(xN−1)∂xf(xN )

    ≃ 1∆x

    0 1−1 0 1 0

    . . .. . .

    . . .0 −1 0 1

    −1 0

    f(x0)f(x1)

    ...f(xN−1)f(xN )

    ∂∂x est donc représenté par une matrice tridiagonale. Attention la représentation est mauvaise sur les bordsx0 et xN . Pour l’opérateur ∂

    2

    ∂x2 , on a

    f(xi+1) + f(xi−1) = 2f(xi) + f′′(xi)∆x

    2 + O(∆x3)

    donc

    ∂2xf(x0)∂2xf(x1)

    ...∂2xf(xN−1)∂2xf(xN )

    ≃ 1∆x2

    −2 11 −2 1 0

    . . .. . .

    . . .0 1 −2 1

    1 −2

    f(x0)f(x1)

    ...f(xN−1)f(xN )

    Pour un opérateur de multiplication par une fonction V (x) on a simplement :

    V f =

    V (x0) 0. . .

    0 V (xN )

    f(x0)...

    f(xN )

    =

    V (x0)f(x0)...

    V (xN )f(xN )

    Méthode des séries de Fourier

    Cette méthode ne fonctionne qu’avec une variable périodique. Elle est utile si Γ peut être assimilé à untore. On considère une variable θ ∈ S1 (S1 est un cercle, θ est donc une variable périodique). Soit f unefonction de S1 (une fonction 2π-périodique par rapport à θ). On décompose f en série de Fourier :

    f(θ) =∑

    n∈Zcne

    ınθ

    On a alors

    ∂f

    ∂θ= ı

    n∈Zncne

    ınθ

    ∂2f

    ∂θ2= −

    n∈Zn2cne

    ınθ

    V (θ)f(θ) =∑

    n∈Z

    p∈ZVn−pcpe

    ınθ

    où V (θ) =∑

    n∈Z Vneınθ. En limitant les composantes de Fourier entre −nmax et +nmax, on a des représen-

    tations en matrices d’ordre 2nmax + 1, avec [∂θ]np = ınδnp, [∂2θ ]np = −n2δnp et [V ]np = Vn−p.

    Méthode DVR/FBR

    La méthode DVR/FBR cherche à reproduire les bienfaits des deux méthodes précédentes. Elle utilisedeux bases de fonctions de representation, une base DVR (Discrete Variable Representation) dans laquelleles opérateurs V (x) seront diagonaux, et une base FBR (Finite Basis Representation) dans laquelle ce sontles opérateurs différentiels qui sont diagonaux.Soit {x1, ..., xN} une partition de [0, L] ⊂ R. La base DVR (ui(x))i=1,...,N est composée de fonctions tellesque ui(x) est fortement localisée autour xi et telles que ui(xj) = 0 (∀j 6= i). ui(x) se comporte donc presque

  • 1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 21

    comme une distribution de Dirac (ou pour être plus précis limN→+∞ ui(x) = δ(x − xi) où la limite estdéfinie pour un pas de discrétisation tendant vers 0). La base FBR (φn)i=1,...,N est choisie comme étant latransformée de Fourier de la base DVR, ce qui avec une transformée de Fourier discrète donne :

    uj(x) =1√N

    N∑

    n=1

    e−ıknxjφn(x)

    où {kn}n=1,...,N sont les points du réseau réciproque de {x1, ..., xN}. On a alors pour une fonction f(x) :

    f(x) =

    N∑

    j=1

    f jDV Ruj(x) =

    N∑

    n=1

    fnFBRφn(x)

    avec

    fnFBR =1√N

    N∑

    j=1

    f jDV Re−ıknxj

    f jDV R =1√N

    N∑

    n=1

    fnFBReıknxj

    Ces formules de changement de représentation dépendent de la parité de N :• si N ∈ 2N : xj = LN (j − 1) et kn = 2πL (n− 1 − N2 )

    fnFBR =1√N

    N∑

    j=1

    (−1)j−1f jDV Re−ı2πN

    (n−1)(j−1)

    f jDV R =e−ıπ(j−1)√

    N

    N∑

    n=1

    fnFBReı 2π

    N(n−1)(j−1)

    • si N ∈ 2N + 1 : xj = LN (j − 12 ) et kn = 2πL (n− 12 − N2 )

    fnFBR =e−ı

    πN

    (n− 12−N2 )√N

    N∑

    j=1

    e−ıπN

    (1−N)(j−1)f jDV Re−ı 2π

    N(n−1)(j−1)

    f jDV R =eı

    πN

    (1−N)(j− 12 )√N

    N∑

    n=1

    eıπN

    (n−1)fnFBReı 2π

    N(n−1)(j−1)

    Les transformées de Fourier discrètes sont d’assez mauvaises approximations des transformées de Fourier, onpréfère en pratique utiliser un algorithme de transformée de Fourier rapide (FFT). De tels algorithmes sontrelativement complexes mais sont disponibles dans de nombreuses bibliothèques de subroutines.On a alors les représentations matricielles :

    f(x) ;

    f1DVR...

    fNDVR

    DV R

    FFT−−−→

    f1FBR...

    fNFBR

    FBR

    V (x) ;

    V (x1) 0. . .

    0 V (xN )

    DV R

    ∂x; ı

    k1 0. . .

    0 kN

    FBR

    ∂2

    ∂x2; −

    k21 0. . .

    0 k2N

    FBR

  • 22 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    De plus l’opérateur différentiel d’ordre 2 s’écrit en base DVR :

    [

    ∂2

    ∂x2

    ]DV R

    ij

    =N∑

    n=1

    ∂2φn∂x2

    x=xi

    φn(xj)

    Le choix de la base DVR dépend des circonstances (uj(x) peut être un sinus cardinal, un polynômede Tchebychev, de Laguerre, de Hermitte, de Legendre,...). Un choix relativement universel est le suivant :xj =

    LN (j − 1) et kn = 2πL (n− 1 − N2 )

    uj(x) =1√NL

    N∑

    n=1

    eıkn(x−xj)

    φn(x) =1√Leıknx

    Ce choix est assez naturel car il consiste à choisir une base de Fourier pour base FBR. On notera que dansce cas, on a une expression analytique pour la représentation de l’opérateur différentiel d’ordre 2 en baseDVR :

    [

    ∂2

    ∂x2

    ]DV R

    ij

    = −{

    π2(N2+2)3L2 si i = j(−1)j−i2π2

    L2 sin2((j−i)π/N) si i 6= j

    1.3 Description des systèmes dynamiques classiques

    1.3.1 Les attracteurs

    Définition 8 (Systèmes conservatifs et dissipatifs). Soit (Γ, F, dτ) un système dynamique classique. PourΩ ⊂ Γ une région de l’espace de phase, on définit Φt,0(Ω) = {Φt,0(X), X ∈ Ω} le flot de cette région.

    • Le système dynamique est dit conservatif, s’il conserve les volumes d’espace de phase :

    ∀Ω ⊂ Γ, ∀t > 0,∫

    Φt,0(Ω)

    dτ =

    • Le système dynamique est dit dissipatif, s’il contracte les volumes d’espace de phase :

    ∀Ω ⊂ Γ, ∀t > s > 0,∫

    Φt,0(Ω)

    dτ <

    Φs,0(Ω)

    Pour les systèmes mécaniques simples, ces définitions coïncident avec les définitions usuelles des systèmesconservatifs (systèmes pseudo-isolés ou n’étant soumis qu’à des forces dérivant d’un potentiel ou ne travaillantpas) et des systèmes dissipatifs (systèmes soumis à des forces dissipant l’énergie).

    Définition 9 (Attracteur). Soit (Γ, F, dτ) un système dynamique classique. Un attracteur du système dy-namique est une région de l’espace de phase vers laquelle converge toute trajectoire de phase passant à sonvoisinage. Le voisinage en question est appelé bassin d’attraction de l’attracteur.

    Un système dynamique peut avoir plusieurs attracteurs ou aucun. Deux attracteurs proches peuventprésenter deux petits bassins d’attraction disjoints à l’intérieur dans grand bassin d’attraction commun. SiΩ est le bassin d’attraction d’un attracteur, alors l’attracteur est limt→+∞ Φt,0(Ω). On classe les attracteursen fonction de leur morphologie :

    • Un attracteur réduit à un point est appelé point fixe. Les points fixes sont des points singuliers dusystème dynamique.

    • Un attracteur formant une courbe fermée est appelé cycle limite.• Un attracteur formant la surface d’une tore ou l’hypersurface d’un hypertore est appelé tore limite.• Un attracteur n’entrant pas dans les catégories précédentes est appelé attracteur étrange. La mor-

    phologie de ces attracteurs étranges sera abordée dans le chapitre suivant.Remarque : On parle ici de tore topologique, c’est à dire non nécessairement un tore parfait et régulier maistoute déformation continue d’un tore. Un tore topologique est donc une surface fermée qui forme un “troude donut”, ce que l’on appelle en mathématique un genus. Une tasse à café, du fait de sa hanse, est un toretopologique. La même remarque s’applique pour l’hypertore.

  • 1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 23

    Des tores topologiques.

    Considérons l’exemple simple de l’oscillateur harmonique. L’équation du système (qui est linéaire) est

    {

    ṗ = −kxp = mẋ

    ⇐⇒(

    ẋṗ

    )

    =

    (

    0 1m−k 0

    )(

    xp

    )

    On pourra montrer que la matrice Jacobienne du flot est

    J(t, 0) = exp

    ((

    0 1m−k 0

    )

    t

    )

    =

    (

    cos(ω0t)1

    mω0sin(ω0t)

    −mω0 sin(ω0t) cos(ω0t)

    )

    avec ω0 =√

    km . Les trajectoires de phase sont donc

    (

    xp

    )

    =

    (

    x0 cos(ω0t) +p0mω0

    sin(ω0t)

    −mx0ω0 sin(ω0t) + p0 cos(ω0t)

    )

    Le portrait de phase du système est donc constitué d’un ensemble d’ellipses centrées sur 0. Toutes ces ellipsessont des cycles limites, et 0 est point fixe.On ajoute une force de frottements fluides (en restant en régime sous-critique) :

    {

    ṗ = −kx− αẋp = mẋ

    ⇐⇒(

    ẋṗ

    )

    =

    (

    0 1m−k − αm

    )(

    xp

    )

    La Jacobienne du flot est alors

    J(t, 0) = e−α

    2m t

    (

    cos(ωt) 1mω sin(ωt)−mω sin(ωt) cos(ωt)

    )

    avec ω =√

    km − α

    2

    4m2 . Le portrait de phase est alors constitué d’un ensemble de spirales convergentes vers 0.Le seul attracteur est alors le point fixe 0.Ajoutons maintenant une force d’entretien :

    {

    ṗ = −kx− αẋ+ F0 cos(̟t)p = mẋ

    ⇐⇒(

    ẋṗ

    )

    =

    (

    0 1m−k − αm

    )(

    xp

    )

    +

    (

    0F0 cos(̟t)

    )

    Le système n’est alors plus linéaire et est 2π̟ -périodique. Il doit donc exister une trajectoire2π̟ -périodique :

    (

    xp

    )

    =

    (

    A cos(̟t) +B sin(̟t)−Am̟ sin(̟t) +Bm̟ cos(̟t)

    )

    Il suffit d’injecter cette expression dans l’équation de la dynamique pour trouver les équations auxquellessatisfont A et B (et ainsi trouver ces constantes). La linéarisation du système au voisinage d’un de cespoints revient au cas précédent (non-forcé), on a donc toujours la même matrice Jacobienne et donc le mêmecomportement. On peut en conclure que la trajectoire périodique est un cycle limite et que le portrait dephase consiste en des spirales convergeant vers celui-ci.

  • 24 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    -2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

    -2,4

    -1,6

    -0,8

    0,8

    1,6

    2,4

    -2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

    -2,4

    -1,6

    -0,8

    0,8

    1,6

    2,4

    -2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

    -2,4

    -1,6

    -0,8

    0,8

    1,6

    2,4

    Portraits de phase pour l’oscillateur harmonique(y = pmω0 ), amorti (y =

    pmω ) et entretenu (y =

    pm̟ )

    1.3.2 Instabilités

    Pour un système dynamique (Γ, F, dτ) nous allons étudier ce qu’il se passe autour d’un point singulierX0, i.e. F (X0) = 0. X0 est un point d’équilibre du système dynamique, puisqu’une condition initiale sur X0engendrera la stagnation de la dynamique sur ce point. La question de savoir s’il s’agit d’un équilibre stableou instable dépend du comportement dynamique dans le voisinage de ce point.

    Définition 10 (Stabilité d’un point singulier). Un point singulier X0 est dit• instable si pout tout voisinage de X0 aussi petit que l’on veut, il existe une trajectoire qui finit par

    quitter ce voisinage,• stable si toute trajectoire passant dans le voisinage de X0 restent dans le voisinage de X0,• asymptotiquement stable si X0 est un point fixe (les trajectoires dans le voisinage de X0 convergent

    vers X0),• exponentiellement stable si les trajectoires convergent vers X0 par une loi de décroissance exponentielle

    (‖X(t) −X0‖ < β‖X(0) −X0‖e−αt avec α, β ∈ R+).

    Notons qu’un point singulier peut être stable sans être asymptotiquement stable, par exemple s’il estentouré de cycles limites. Les notions de stabilité s’interprètent physiquement ainsi : si le système est initia-lement en équilibre au point X0 puis est écarté de ce point par une perturbation (on déplace le système versun point X dans le voisinage de X0), alors le système revient versX0 si le point est asymptotiquement stable,“tourne” autour de X0 s’il est simplement stable, s’éloigne de X0 s’il est instable. L’étude de la stabilité dessystèmes dynamiques non-linéaires est simplifiée par le résultat suivant :

    Théorème 3. La caractère stable ou instable d’un point singulier d’un système dynamique non-linéaire estéquivalent au caractère stable ou instable de 0 ∈ Γ pour la linéarisation du système dynamique, sauf dans lecas d’une simple stabilité où la non-linéarité peut éventuellement rendre instable le système.

    Notons que la linéarisation n’indique que la stabilité, le caractère simple, asymptotique ou exponentiellede celle-ci n’est pas nécessairement identique d’un système à sa linéarisation. De plus il s’agit d’une stabilitélocale (au voisinage d’un point fixe), hors de ce voisinage les effets non-linéaires peuvent stabiliser un systèmeinstable ou déstabiliser un système stable.

    1.3.3 Exposants de Lyapunov

    Considérons (Γ, ∂F, dτ) un système dynamique autonome linéaire (ou la linéarisation d’un système dy-namique autonome non-linéaire). On supposera que ∂F est de rang n = dimΓ c’est à dire que ker ∂F = {0}.

  • 1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 25

    Par linéarité, 0 ∈ Γ est point fixe du système. Le système étant autonome, sa dynamique est engendrée parla matrice Jacobienne J(t, 0) = e∂Ft. Soit {λi}i = Sp(∂F ) l’ensemble des valeurs propres de ∂F et (χi(a))i,ala base de vecteurs propres associés (a varie de 1 au degré de degénérescence de λi). On suppose dans unpremier temps que ∂F est diagonalisable.

    ∀X(0) ∈ Γ, X(0) =∑

    i

    a

    αi(a)χi(a)

    X(t) = J(t, 0)X(0) =∑

    i

    a

    αi(a)eℜe(λi)teıℑm(λi)tχi(a)

    Si ∀i, ℜe(λi) < 0 on a clairement‖X(t)‖ = O(emaxi ℜe(λi)t)

    0 est donc un point fixe et est donc exponentiellement stable. Si une seule des valeurs propres de ∂F est departie réelle positive, alors 0 est instable car

    ∀t ∈ V(+∞), X(t) ≃∑

    j|ℜe(λj)>0

    a

    αj(a)eℜe(λj)tχj(a)

    Supposons maintenant que ∀i, ℜe(λi) ≤ 0. Tout d’abord remarquons qu’il ne peut n’y avoir qu’un nombrepair de valeurs propres de partie réelle nulle (on rappelle que l’on a provisoirement exclus les cas où ∂F n’estpas rang n). En effet ∂F ∈ Mn×n(R) donc si λi est valeur propre de ∂F alors λi est aussi valeur propre 2(les valeurs propres sont nécessairement complexes conjuguées). On a donc

    ∀t ∈ V(+∞), X(t) ≃∑

    i|ℜe(λi)=0 et ℑm(λi)>0

    a

    2ℜe(

    αi(a)eıℑm(λi)tχi(a))

    ≃ 2∑

    i|ℜe(λi)=0 et ℑm(λi)>0

    a

    (

    cos(ℑm(λi)t)ℜe(αi(a)χi(a)) − sin(ℑm(λi)t)ℑm(αi(a)χi(a)))

    En rappelant qu’une ellipse dans R2 est d’équation paramétrique :

    A cos(2πt) +B sin(2πt) =

    (

    Ax cos(2πt) +Bx sin(2πt)Ay cos(2πt) +By sin(2πt)

    )

    (avec pour demi-axes−→OA et

    −−→OB) ; on voit que la trajectoire X(t) converge vers un hypertore limite.

    Si dim ker∂F > 0 : ker∂F est en ensemble de points singuliers, par conséquent le système est stable parperturbation interne à ker∂F . Cet espace fait donc partie de l’attracteur. Si dimker ∂F = 1 on a un cyclestable (pour un système linéaire on peut voir une droite comme un cycle de rayon infini, pour les systèmesnon-linéaires, la linéarisation n’est valable que dans un petit voisinage, on ne peut pas savoir par une analyselocale quelle est la forme géométrique réelle du l’objet). Si dimker ∂F = 2 on a un tore stable, etc. L’ana-lyse précédente peut ensuite être reconduite pour ∂F restreine à ker ∂F⊥ (le supplémentaire orthogonal deker ∂F ).

    On peut résumer la discussion ainsi :

    Théorème 4 (Théorème Lyapunov). Soit (Γ, F, dτ) un système dynamique autonome tel que la matrice desa linéarisation ∂F soit diagonalisable. Soit {ℜe(λi)}i l’ensemble des parties réelles des valeurs propres de∂F , on appelle ces nombres exposants de Lyapunov. Soit (n+, n0, n−) ∈ N3 la signature des exposantsde Lyapunov : n+ est le nombre d’exposants de Lyapunov positifs, n0 d’exposants de Lyapunov nuls et n−d’exposants de Lyapunov négatifs (avec les valeurs propres comptées autant de fois qu’elles sont dégénérées).

    • si (n+, n0, n−) = (0, 0, n), alors 0 est un point fixe (exponentiellement stable pour la linéarisation) dusystème dynamique.

    • si (n+, n0, n−) = (0, 1, n− 1), alors 0 est stable et se trouve sur un cycle limite.• si (n+, n0, n−) = (0, 2, n− 2) alors 0 est stable et est entouré de cycles limites ou se trouve sur un tore

    limite.• si (n+, n0, n−) = (0, 3, n− 3) alors 0 est stable et se trouve sur hypertore limite.

    2. ∂Fχi(a) = λiχi(a) ⇒ ∂Fχi(a) = λiχi(a)

  • 26 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    • si (n+, n0, n−) = (0, 4, n− 4) alors 0 est stable et est entouré d’hypertores limites ou se trouve sur unhypertore limite.

    • si (n+, n0, n−) = (0, n0, n− n0) avec n0 > 4 alors 0 est stable et est entouré d’hypertores limites.• si n+ 6= 0 alors 0 est instable.

    Schémas des trajectoires de phase au voisinage d’un point singulier d’un système à deux dimensions enfonction de la position des valeurs propres de ∂F dans le plan complexe.

    Dans le cas où ∂F ne serait pas diagonalisable, on peut utiliser la propriété suivante :

    Propriété 3. ∀A ∈ Mn×n(C), il existe D ∈ Mn×n(C) matrice diagonalisable et N ∈ Mn×n(C) matricenilpotente (i.e. ∃p ∈ N tel que Np = 0) telles que

    A = D +N et eA = eDeN = eDp∑

    i=0

    Np

    p!

    Ainsi si ∂F n’est pas diagonalisable, sa décomposition permet de se ramener à l’étude du cas diagonali-sable. Dans ce cas J(t, 0) est le produit d’une matrice Jacobienne d’un flot diagonalisable avec un polynômede degré p > 0 en t. p est le rang du plus grand bloc de Jordan de ∂F . Si pour la part diagonalisable dusystème 0 est point fixe exponentiellement stable alors 0 est point fixe asymptotiquement stable pour le sys-tème entier (convergence vers 0 en tpe−αt), si pour la part diagonalisable du système 0 est point simplementstable ou est instable, alors 0 est instable pour le système entier.

    Considérons maintenant un système dynamique T -périodique. Du fait du théorème de Floquet, après ppériodes la matrice de monodromie est

    J(pT, 0) = eΛpT

    De fait cette matrice de monodromie n’est pas très différente de celle d’un système linéaire autonome. Si entredeux périodes la dynamique du système n’est pas tout à fait similaire à un système autonome, la dynamiquede longs termes est dominée par l’évolution engendrée par Λ. Lorsqu’on ne considère que la dynamique depériode en période, on parle de la dynamique stroboscopique du système. On notera que par constructionde la théorie de Floquet, les exposants de Lyapunov (ℜe(Sp(Λ))) ne sont pas associés à la stabilité d’unpoint singulier mais d’une trajectoire de phase périodique X(T ) = X(0) (un cycle). En effet dans le systèmestroboscopique, on ne voit jamais que X(0) qui joue le rôle d’un point singulier (mais pour la dynamique

  • 1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 27

    discrète t ∈ ZT ). On notera d’ailleurs que X(0) est quelconque sur le cycle. Ainsi si les exposants de Lyapu-nov sont tous négatifs, le cycle est exponentiellement stable (c’est un cycle limite), s’il existe des exposantsde Lyapunov nuls, le cycle est simplement stable (il est entouré de cycles ou de tores limites,), s’il existe aumoins un exposant de Lyapunov positif, la trajectoire périodique est instable. Donc si on écarte le systèmede sa trajectoire par une perturbation, celui reviendra vers elle si elle exponentiellement stable, restera surune trajectoire très proche si elle simplement stable, s’éloignera de sa trajectoire périodique initiale si elleest instable.

    Remarque importante : pour un système dynamique linéaire autonome instable, les trajectoires de phases’éloignent indéfiniment de 0. Mais dans le cas des systèmes non-linéaires, l’instablité du système linéariséou du système stroboscopique n’implique pas nécessairement que les trajectoires de phase s’éloignent indé-finiment du point singulier ou de la trajectoire périodique. Les effets des non-linéarités seront étudiées dansla suite du cours.

    Considérons l’exemple d’un oscillateur anharmonique soumis à une force de frottements fluides :

    {

    ṗ = −kx− κx2 − αẋp = mẋ

    ⇐⇒(

    ẋṗ

    )

    =

    (

    1mp

    −kx− κx2 − αmp

    )

    Le système présente deux points singuliers :

    X0 =

    (

    00

    )

    X ′0 =

    (

    − kκ0

    )

    On considère la linéarisation du système au voisinage de X0 :

    ∂FX0 =

    (

    0 1m−k − αm

    )

    qui est de polynôme caractéristique λ2 + αmλ+km . Les valeurs propres sont donc

    λ = − α2m

    ±√

    α2

    4m2− km

    Quelles que soient les valeurs de m, α et k les deux exposants de Lyapunov sont négatifs, le système estdonc linéairement stable. X0 est donc un point fixe. On remarquera que si α

    2

    4m2 >km , les valeurs propres sont

    réelles, on a donc des trajectoires de phases qui convergent “directement” sur le point fixe (régime apériodiqued’oscillation, amortissement surcritique) ; alos que si α

    2

    4m2 <km , les valeurs propres sont complexes, on a

    donc des trajectoires de phases qui convergent en spirales sur le point fixe (régime périodique d’oscillation,amortissement souscritique).La linéarisation du système au voisinage de X ′0 est :

    ∂FX′0 =

    (

    0 1m+k − αm

    )

    Les valeurs propres sont donc

    λ = − α2m

    ±√

    α2

    4m2+k

    m

    Pour toutes valeurs de m, α et k, il y a un exposant de Lyapunov positif (et un négatif), X ′0 est donc instable.

    1.3.4 Exemple : le pendule

    On considère un pendule rigide plan constitué d’une tige rigide de longueur ℓ (dont on négligera la masse)au bout de laquelle est accrochée une masse m. Le système est libre de tourner dans le plan de la tige autourdu point d’accroche O.

  • 28 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    Le principe fondamental de la dynamique induit que l’équation du pendule est

    Iθ̈ = −mgℓ sin θ

    où I = mℓ2 est le moment d’inertie du pendule. Ce qui conduit au système dynamique

    {

    L̇ = −mgℓ sin θL = Iθ̇

    ⇐⇒(

    θ̇

    )

    =

    (

    LI

    −mgℓ sin θ

    )

    où L est le moment cinétique du pendule en O. Le système n’est manifestement pas linéaire. X0 = (θ =0, L = 0) et X ′0 = (θ = π, L = 0) sont points singuliers du système dynamique. Considérons la linéarisationdu systèmes au voisinage de X0 :

    ∂FX0 =

    (

    0 1I−mgℓ 0

    )

    On notera que le pendule linéarisé au voisinage de X0 est un oscillateur harmonique. On sait donc qu’auvoisinage de X0 le portrait de phase du système est composé de cycles limites concentriques centrés sur X0qui est point fixe. Ce que l’on peut vérifier en calculant les valeurs propres de ∂FX0 : ±ı

    mgℓI . La signature

    des exposants de Lyapunov du système est donc (0, 2, 0) indiquant que X0 est entouré de cycles limites.Au voisinage de X ′0, la linéarisation du système est

    ∂FX′0 =

    (

    0 1I+mgℓ 0

    )

    Les valeurs propres de ∂FX′0 sont alors ±√

    mgℓI et la signature des exposants de Lyapunov est (1, 0, 1). La

    présence d’un exposant de Lyapunov positif, indique que X ′0 est instable.“Loin” de X0 la non-linéarité déforme les trajectoires de phases qui ne sont plus des cycles limites. Enconstatant que

    dL2

    dt= −2Imgℓθ̇ sin θ

    on a la contrainte suivante sur la trajectoire de phase passant par (θ0, L0) :

    L2 − L20 = 2Imgℓ(cos θ − cos θ0)

    On peut aussi trouver cette dernière équation en appliquant le principe de conservation de l’énergie (il n’y aque des forces conservatives) : E(t) = E(0) ⇐⇒ L(t)

    2

    2I −mgl cos θ(t) =L202I −mgℓ cosθ0 (l’origine de l’énergie

    potentielle de pensanteur étant choisie en O) ou en cherchant l’intégrale première du système dynamique quise trouve être l’Hamiltonien H(θ, L) = L22I −mgℓ cos θ. On peut alors tracer l’ensemble du portrait de phasedu pendule.

  • 1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 29

    -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6

    -2,4

    -1,6

    -0,8

    0,8

    1,6

    2,4

    Portrait de phase du pendule (θ = x mod 2π et y = L√2mgℓ

    )

    1.3.5 Les résonances paramétriques

    Considérons (Γ, F, dτ) un système dynamique forcé quasi-linéaire T -périodique :

    Ẋ = (∂F (t))X(t) +B(t)

    où B ∈ Rn avec B(t+T ) = B(t) et ∂F (t+T ) = ∂F (t). B est souvent appelé forçage du système, et ce typede système est également qualifié de système linéaire inhomogène. On suppose les exposants de Lyapunovtous négatifs ou nuls (donc le système est linéairement stable). Considérons la trajectoire de phase

    X0(t) =

    ∫ t

    0

    J(t, s)B(s)ds

    où J(t, s) est la matrice Jacobienne du flot. Cette trajectoire est une solution particulière de l’équationdifférentielle inhomogène :

    Ẋ0 = J(t, t)B(t) +

    ∫ t

    0

    ∂J(t, s)

    ∂tB(s)ds

    = B(t) +

    ∫ t

    0

    (∂F (t))J(t, s)B(s)ds

    = B(t) + (∂F (t))

    ∫ t

    0

    J(t, s)B(s)ds

    = B(t) + (∂F (t))X0(t)

    Les solutions générales du système dynamique sont donc de la forme X(t) = δX(t)+X0(t) où δX(t) est unetrajectoire de phase du système linéarisé (donc une trajectoire de phase convergeant vers 0 ou qui est cyclelimite du fait des exposants de Lyapunov). {X0(t)}t pourrait donc être un attracteur du système (un cyclelimite). Par le théorème de Floquet on a

    X0(t) = S(t)

    ∫ t

    0

    e(t−s)ΛS(s)−1B(s)ds

    Étudions la dynamique stroboscopique du système :

    X0(nT ) = enTΛ

    ∫ nT

    0

    e−sΛS(s)−1B(s)ds

    = enTΛn−1∑

    j=0

    ∫ (j+1)T

    jT

    e−sΛS(s)−1B(s)ds

    = enTΛn−1∑

    j=0

    ∫ T

    0

    e−(s′+jT )ΛS(s′ + jT )−1B(s′ + jT )ds′

    =

    n−1∑

    j=0

    e(n−j)TΛ∫ T

    0

    e−sΛS(s)−1B(s)ds

    =

    n−1∑

    j=0

    e(n−j)TΛY

  • 30 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

    avec Y =∫ T

    0 e−sΛS(s)−1B(s)ds ∈ Rn qui joue le rôle d’une sorte de condition initiale pour la dynamique

    stroboscopique. Soient λ± = ±ıω0 deux valeurs propres complexes conjuguées de parties réelles nulles de Λ.Si la période du système est telle que

    T =2kπ

    ω0k ∈ N

    et si Y est non nul et se décompose sur les sous-espaces propres de λ±, on a

    X0(nT ) =n−1∑

    j=0

    (eı(n−j)Tω0Y+ + e−ı(n−j)Tω0Y−)

    =

    n−1∑

    j=0

    (eı2k(n−j)πY+ + e−ı2k(n−j)πY−)

    =

    n−1∑

    j=0

    Y

    où Y± sont les projections orthogonales de Y sur les sous-espaces propres associés à λ±. On voit donc que

    ‖X0(nT )‖ = n‖Y ‖ ⇒ limn→+∞

    ‖X0(nT )‖ = +∞

    La trajectoire de phase X0 n’est donc pas bornée, elle s’éloigne donc indéfiniment de tout point de l’espacede phase. Le système est donc linéairement stable, mais se trouve être instable du fait de sa non-linéarité.On appelle ce phénomène une résonance paramètrique (l’adjectif paramètrique vient du fait qu’il faut que leparamètre T soit bien ajusté pour que la résonance ait lieu, on parle de condition d’accrochage de périodes).On dit souvent que le système est métastable, car il peut être considérer comme quasi-stable sur le courtterme et instable à longs termes (l’instabilité ne se manifeste qu’après un grand nombre cycles).Un exemple de résonance paramétrique est donné par l’oscillateur entrenu : ẍ+ω2x = F0m cos(̟t). Les valeurspropres de ∂F sont λ± = ±ıω. On a alors (S(t) = 1) :

    Y =

    ∫ T

    0

    (

    cos(ωs) − 1mω sin(ωs)−mω sin(ωs) cos(ωs)

    )(

    0F0 cos(̟s)

    )

    ds

    où Φ est la matrice de diagonalisation de ∂F . Si ̟ω 6∈ N il ne se passe rien de spécial. Si ̟ = kω avec k ∈ N∗on a des intégrales de la forme

    ∫ T

    0

    cos(ωs) cos(kωs)ds =

    ∫ T

    0

    sin(ωs) cos(kωs)ds = 0

    Y est alors nul sauf si ̟ = ω (∫ T

    0 cos2(ωs)ds = π). On a alors une résonance, le système est instable. Ce qui

    est en accord avec l’autre solution particulière du système :

    X̃0(t) =F0

    ω2 −̟2(

    1m cos(̟t)−̟ sin(̟t)

    )

    qui est divergente pour ω = ̟.Le même problème peut survenir dans la linéarisation des systèmes autonomes au voisinage d’un point fixeX0.

    δẊ = ∂FX0δX(t) +1

    2∂2FX0δX(t)δX(t) + ...

    où le correctif d’ordre 2 est

    (∂2FX0δXδX)a =

    ∂2F a

    ∂Xb∂Xc

    X=X0

    δXbδXc

    On peut montrer que si deux valeurs propres de parties réelles nulles de ∂F sont reliées par la relationλi = 2λj , alors le correctif d’ordre 2 déstabilise le système. De manière générale, si une valeur propre λide partie réelle nulle est liée à d’autres valeurs propres par une relation de la forme λi =

    j 6=imjλj avecmj ∈ N, alors les non-linéarités déstabilisent le système. Ce phénomène est appelé résonance de Poincaré. Ilfaut donc bien comprendre que s’il y a des exposants de Lyapunov nuls, la stabilité linéaire n’assure pas lastabilité non-linéaire (sauf en l’absence de résonance).

  • 1.4. DESCRIPTION DES SYSTÈMES DYNAMIQUES QUANTIQUES 31

    1.4 Description des systèmes dynamiques quantiques

    1.4.1 Systèmes conservatifs et dissipatifs

    Un système dynamique quantique est conservatif si son hamiltonien est un opérateur auto-adjoint :H† = H . Il s’en suit que l’opérateur d’évolution du système est unitaire, en effet 3 :

    (

    ı~∂U(t, 0)

    ∂t

    )†= (H(t)U(t, 0))† ⇒ −ı~∂U(t, 0)

    ∂t= U(t, 0)†H(t)

    ⇒ −ı~U(t, 0)†−1∂U(t, 0)†

    ∂tU(t, 0)†−1 = H(t)U(t, 0)†−1

    ⇒ ı~∂U(t, 0)†−1

    ∂t= H(t)U(t, 0)†−1

    Cette dernière équation étant la définition de U(t, 0), on a U(t, 0)†−1 = U(t, 0) et par conséquent U(t, 0)† =U(t, 0)−1. L’unitarité de l’opérateur d’évolution induit la conservation de la norme de la fonction d’onde aucours de la dynamique :

    ‖ψ(t)‖2 = 〈ψ(t)|ψ(t)〉 = 〈U(t, 0)ψ(0)|U(t, 0)ψ(0)〉 = 〈U(t, 0)−1U(t, 0)ψ(0)|ψ(0)〉 = ‖ψ(0)‖2 = 1

    Un système dynamique quantique est dissipatif si son hamiltonien n’est pas autoadjoint, H† 6= H et si

    ∀φ ∈ H, 12ı〈φ|(H −H†)|φ〉 ≤ 0

    L’opérateur d’évolution du système n’est pas unitaire et on a

    ∀t > s > 0, ‖ψ(t)‖2 ≤ ‖ψ(s)‖2 ≤ 1

    La norme d’un état représentant la probabilité totale (sur tous les événements possibles), les états sonthabituellement normés à 1. La dissipation de cette norme avec le temps, est associée à la “disparition” dusystème, 1 − ‖ψ(t)‖2 est donc la probabilité pour que le système ait “disparu” à la date t.

    Le comportement des systèmes quantiques étant fortement lié aux propriétés spectrales des hamiltoniens,il convient de bien définir celles-ci.

    Définition 11 (Spectre purement ponctuel). Un nombre λ ∈ C est dit valeur propre pure point (ou valeurspectrale ponctuelle) de H s’il existe φ ∈ H tel que

    Hφ = λφ

    L’ensemble des valeurs propres pures points de H forme le spectre purement ponctuel de H : Sppp(H).

    φ tel que Hφ = λφ est appelé vecteur propre associé à λ. L’ensemble des vecteurs propres associésà λ forment un sous-espace vectoriel appelé espace propre de λ : ker(H − λ) = {φ ∈ H, Hφ = λφ}.Restreint à ker(H −λ), H est diagonal avec uniquement λ sur la diagonale. dim ker(H −λ) est appelé degréde dégénérescence ou multiplicité géométrique de λ. Soit mλ ∈ N∗ le plus petit entier tel que ∀p ≥ mλker((H − λ)p) = ker((H − λ)mλ) (pour p < mλ on a ker((H − λ)p) ( ker((H − λ)mλ)). ker((H − λ)mλ)est appelé espace spectral de λ, mλ = dimker((H − λ)mλ) est appelé multiplicité algébrique de λ. Si lamultiplicité algébrique n’est pas égale à la multiplicité géométrique (elle est alors forcément plus grande), Hrestreint à ker((H−λ)mλ est un ensemble de blocs de Jordan. Lorsque H est de rang fini, mλ est le degré dela racine λ du polynôme caractéristique (en rang infini, on ne peut pas écrire de polynôme caracté