55
Master Physique & Physique Numérique Physique Statistique Analyse Spectrale pour les Systèmes Dynamiques Classiques David Viennot

Master Physique & Physique Numérique Physique Statistique

  • Upload
    others

  • View
    44

  • Download
    2

Embed Size (px)

Citation preview

Page 1: Master Physique & Physique Numérique Physique Statistique

Master Physique & Physique Numérique

Physique Statistique

Analyse Spectrale pour les Systèmes Dynamiques Classiques

David Viennot

Page 2: Master Physique & Physique Numérique Physique Statistique

2

Page 3: Master Physique & Physique Numérique Physique Statistique

Table des matières

0 Prérequis d’Algèbre Linéaire 50.1 Algèbre matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.2 Réduction des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1 Théorie des Systèmes Dynamiques 91.1 Les équations différentielles des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . 9

1.1.1 Les flots de la dynamique classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.1.2 Les systèmes dynamiques de la physique statistique . . . . . . . . . . . . . . . . . . . 111.1.3 Les systèmes dynamiques périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2 Intégration numérique des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 131.2.1 Éléments d’analyse numérique des équations différentielles . . . . . . . . . . . . . . . . 131.2.2 Algorithme d’Euler explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.2.3 Algorithme de Runge-Kutta d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.2.4 Algorithme de Runge-Kutta d’ordre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.2.5 Algorithme de l’opérateur fractionné (intégrateurs symplectiques) . . . . . . . . . . . . 151.2.6 Représentations matricielles des opérateurs différentiels . . . . . . . . . . . . . . . . . 16

1.3 Description des systèmes dynamiques classiques . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3.1 Les attracteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3.2 Instabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.3.3 Exposants de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.3.4 Exemple : le pendule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.3.5 Les résonances paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2 Théorie du Chaos 292.1 La géométrie fractale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1.1 Dimension de Hausdorff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.1.2 L’itération de Cantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.1.3 Généralités sur les fractales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2 Théorie du chaos classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.2.1 L’attracteur fer à cheval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.2.2 Définition du chaos classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.2.3 Exemple : la convection de Rayleigh-Bénard . . . . . . . . . . . . . . . . . . . . . . . . 352.2.4 Exemple : le pendule double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382.2.5 Contre-exemple : pseudo-chaos engendré par la méthode d’Euler . . . . . . . . . . . . 392.2.6 Outils d’analyse du chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.2.7 Chaos et entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.3 Résumé sur la stabilité des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 43

3 Systèmes Dynamiques Paramétriques : théorie des bifurcations 453.1 Compléments mathématiques : les matrices paramétriques . . . . . . . . . . . . . . . . . . . . 45

3.1.1 Éléments de la théorie d’Arnold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.1.2 Continuité du spectre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.2 Bifurcations dans les systèmes dynamiques classiques . . . . . . . . . . . . . . . . . . . . . . . 493.2.1 Les diagrammes de bifurcation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493.2.2 Classification des bifurcations de codimension 1 . . . . . . . . . . . . . . . . . . . . . . 49

3

Page 4: Master Physique & Physique Numérique Physique Statistique

4 TABLE DES MATIÈRES

3.2.3 Exemple : le flot logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.2.4 Exemple : l’oscillateur de van der Pol . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Avertissement : ce cours ne constitue absolument pas un cours de mathématiques sur les systèmes dy-namiques. Tout n’y est pas traité de façon rigoureuse (loin de là), certains resultats sont donnés sans lamoindre démonstration et l’usage de la théorie de la mesure a été soigneusement évité (car trop abstrait).Aucun des sujets abordés n’est traité de manière exhaustive. Ce cours est surtout un panorama introductif(et quelque peu superficiel) à la théorie des systèmes dynamiques, qui nécessiterait d’être complété par l’étuded’ouvrages et d’articles de référence pour acquérir une véritable maîtrise des notions abordées ici.Plusieurs systèmes physiques sont étudiés dans ces notes, la modélisation de ceux-ci (leurs descriptions etleurs mises en équations) ne fait pas l’objet de ce cours. Seuls les comportements dynamiques des systèmesnous intéressent ici, on admettra donc leurs équations de la dynamique.

Page 5: Master Physique & Physique Numérique Physique Statistique

Chapitre 0

Prérequis d’Algèbre Linéaire

0.1 Algèbre matricielle

On note Mn×n(C) l’ensemble des matrices carrées d’ordre n à coefficients complexes. Dans Cn on introduitle produit scalaire

∀u, v ∈ Cn, 〈u|v〉 =

n∑

i=1

uivi

où ui est le complexe conjugué de ui qui est la i-ème composante de u dans la base canonique de Cn :

u =

u1

u2

...un

∀A ∈ Mn×n(C) on note At la transposée de la matrice A :

(At)ij = Aj

i ⇐⇒

A11 ... A1

n

.... . .

...An

1 ... Ann

t

=

A11 ... An

1

.... . .

...A1

n ... Ann

∀A ∈ Mn×n(C) on note A† la transconjuguée de A (la matrice adjointe de A, la transposée conjuguée deA) :

(A†)ij = Aj

i ⇐⇒

A11 ... A1

n

.... . .

...An

1 ... Ann

=

A11 ... An

1

.... . .

...A1

n ... Ann

Par construction∀u, v ∈ Cn, ∀A ∈ Mn×n(C), 〈u|Av〉 = 〈A†u|v〉

Une matrice telle que At = A est dite symétrique, un matrice telle que A† = A est dite hermitienne ou au-toadjointe. On note GLn(C) l’ensemble des matrices inversibles de Mn×n(C). On note de plus O(n) = A ∈GLn(R)|At = A−1 l’ensemble des matrices orthogonales, et U(n) = A ∈ GLn(C)|A† = A−1 l’ensembledes matrices unitaires.

On appelle noyau et image d’une matrice A ∈ Mn×n(C) les sous-espaces vectoriels de Cn :

kerA = u ∈ Cn, Au = 0

ImA = Au, u ∈ CnLe théorème du rang nous apprend que

dimkerA+ dim ImA = n

5

Page 6: Master Physique & Physique Numérique Physique Statistique

6 CHAPITRE 0. PRÉREQUIS D’ALGÈBRE LINÉAIRE

où dim ImA est appelé rang de la matrice A.

Soit H un C-espace de Hilbert de dimension finie n (un espace vectoriel équipé d’un produit scalaire).Soit B = χnn une base de vecteurs orthogonaux.

∀ψ ∈ H, ψ =

n∑

i=1

〈χi|ψ〉χi

Le vecteur de Cn,

〈χ1|ψ〉...

〈χn|ψ〉

est appelé représentation matricielle de ψ dans la base B. De même f ∈ L(H) une application linéaire de Hdans H (un endormorphisme de H) a pour représentation matricielle dans la base B, la matrice A ∈ Mn×n(C)telle que

Aij = 〈χi|f(χj)〉

Toute propriété de f se traduit en propriété de A et réciproquement.

0.2 Réduction des endomorphismes

Soit A ∈ Mn×n(C), λa ∈ C est dite valeur propre de A si

∃φa ∈ Cn, Aφa = λaφa

L’ensemble des valeurs propres de A, Sp(A) = λaa=1,...,p, est appelé spectre de A. Les valeurs propres deA sont les racines du polynôme caractéristique :

P (λ) = det(A− λidn) ∀λa ∈ Sp(A), P (λa) = 0

Une matrice à coefficients réels peut avoir des valeurs propres complexes. Les matrices réelles symétriqueset complexes autoadjointes ont uniquement des valeurs propres réelles. Par construction, on peut factoriserle polynôme caractéristique sous la forme

P (λ) =

p∏

a=1

(λ− λa)ma = (λ− λ1)m1(λ − λ2)

m2 ...(λ− λp)mp

L’entier ma est appelé multiplicité algébrique de λa. On appelle multiplicité géométrique ou degré de dé-généréscence de λa, le nombre da de vecteurs propres linéairement indépendants associés à λa, i.e. da =dimker(A−λaidn). L’espace vectoriel engendré par les vecteurs propres de λa, i.e. ker(A−λaidn), est appelésous-espace propre associé à λa. On notera que da ≤ ma.Si ∀a, ma = da (si pour toutes les valeurs propres les multiplicités algébriques et géométriques coïncident),alors A est dite diagonalisable et dans la base des vecteurs propres, elle prend la forme

Φ−1AΦ =

λ1

. . . 0λ1

. . .λp

0. . .

λp

où la valeur propre λa apparaît ma fois sur la diagonale. Φ est la matrice des vecteurs propres écrits dans labase canonique en colonne. Une matrice réelle symétrique ou complexe autoadjointe est toujours diagonali-sable.

Page 7: Master Physique & Physique Numérique Physique Statistique

0.2. RÉDUCTION DES ENDOMORPHISMES 7

Si A n’est pas diagonalisable, on introduit les sous-espaces propres généralisées (ou sous-espaces caractéris-tiques) ker((A − λa)ma) (par construction dimker((A − λa)ma) = ma). Pour les valeurs propres dont lesmultiplicités algébriques et géométriques coïncident, le sous-espace caractéristique est le sous-espace propre.A est dite seulement triangularisable et dans une base de vecteurs propres généralisés prend la forme

Φ−1AΦ =

J11

. . . 0

J1d1

. . .Jn1

0. . .

Jndn

où Φ est la matrice des vecteurs propres généralisées écrits dans la base canonique en colonne et où Jai estun bloc matriciel triangulaire supérieur de la forme :

Jai =

λa ∗ ... ∗0

. . .. . .

......

. . .. . . ∗

0 ... 0 λa

où les “∗” représentent des nombres complexes. Dans un choix de base appropriée on a

Jai =

λa 1 0 ... 0

0. . .

. . .. . .

......

. . .. . .

. . . 0...

. . .. . . 1

0 ... ... 0 λa

Les blocs Jai sont appelés blocs de Jordan. Le nombre de blocs de Jordan associés à une valeur propreest égale à la multiplicité géométrique de la valeur propre. Une valeur propre peut ne présenter qu’un uniquegrand bloc de Jordan de rang égale à sa multiplicité algébrique (si sa multiplicité géométrique est de 1), ouplusieurs blocs de rangs variables (dont la somme est égale à sa multiplicité algébrique). Une valeur propredont les multiplicités algébriques et géométriques coïncident présente donc ma blocs de Jordan de rang 1.

Si la matrice A est autoadjointe, ses vecteurs propres sont orthogonaux :

∀ψa ∈ ker(A− λaidn), ∀ψb ∈ ker(A− λbidn), a 6= b 〈ψa|ψb〉 = 0

Si la matrice A n’est pas autoadjointe, ses vecteurs propres ne sont pas orthogonaux, mais biorthogonauxaux vecteurs propres de A†

∀ψ∗a ∈ ker(A† − λaidn), ∀ψb ∈ ker(A− λbidn), a 6= b 〈ψ∗

a|ψb〉 = 0

Page 8: Master Physique & Physique Numérique Physique Statistique

8 CHAPITRE 0. PRÉREQUIS D’ALGÈBRE LINÉAIRE

Page 9: Master Physique & Physique Numérique Physique Statistique

Chapitre 1

Théorie des Systèmes Dynamiques

1.1 Les équations différentielles des systèmes dynamiques

1.1.1 Les flots de la dynamique classique

Rappels élémentaires de mécanique Lagrangienne et Hamiltonienne

L’état d’une particule classique de massem est entièrement caractérisé par sa position q(t) = (x(t), y(t), z(t))(on note q1 = x, q2 = y et q3 = z), et son impulsion p(t) = (mvx,mvy,mvz) (p1 = mvx, p2 = mvy etp3 = mvz). Ainsi l’ensemble des états possibles de la particule est Γ = R6, appelé espace de phase.De manière générale, les états d’un système présentant ℓ degrés de liberté sont des points d’un espace dephase Γ = R2ℓ. Le moment conjugué pi à un degré de liberté qi est défini par le principe de Lagrange :

pi =∂L

∂qi

où L(q, q) est le Lagrangien du système :∫ t

0 L(q(t), q(t))dt est l’action associée au chemin t 7→ q(t), c’est àdire “l’effort que doit faire la Nature pour suivre le chemin t 7→ q(t)”. Pour les systèmes mécaniques simples,on peut écrire que L = EK − V où EK est l’énergie cinétique et V l’énergie potentielle.L’espace de phase Γ peut être restreint de R2ℓ à Rn (n < 2ℓ) voir à une sous-variété de R2ℓ (hypersphère,hypertore, hypercylindre, etc...) du fait de contraintes physiques. On parle alors d’espace de phase accessible.On se limitera dans ce cours au cas Γ = Rn

Les observables classiques sont des fonctions continues de Γ à valeurs dans C : C0(Γ,C). Dans la plupartdes cas, les observables classiques sont à valeurs dans R. La dynamique d’un système est gouverné parl’Hamiltonien, c’est à dire l’observable énergie H(q, p) qui pour les systèmes mécaniques simples peut s’écrire

H(q, p) =∑

i

p2i

2µi+ V (q)

où V est l’énergie potentielle, et µi le paramètre d’inertie associé à qi (µi est une masse si qi est une positionou un moment d’inertie si qi est un angle). Une dynamique t 7→ (q(t), p(t)) est solution des équations deHamilton

qi = ∂H∂pi

pi = − ∂H∂qi

(q(t), p(t)) = (q0, p0)

L’important est de remarquer que, contrairement à ce que laisse entendre l’équation de Newton, la dynamiqueest in fine gouvernée par une équation différentielle du premier ordre

X = F (X(t))

avec X = (q, p) ∈ Γ = Rn et F : Γ → Γ avec F (X) = (∂H∂p ,−∂H

∂q ). Lorsque l’Hamiltonien dépend explicite-ment du temps H(q, p, t) (système forcé), il y a l’équation supplémentaire ∂H

∂t = dHdt .

Les solutions t 7→ X(t) sont appelées trajectoires de phase du système. L’ensemble des trajectoires dephase du système forment le portrait de phase du système.

9

Page 10: Master Physique & Physique Numérique Physique Statistique

10 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Systèmes dynamiques classiques

Définition 1 (Système dynamique classique). On appelle système dynamique classique, un triplet (Γ, F, dτ)où Γ = Rn, F est une application continue de Γ dans Γ et dτ est une mesure d’intégration sur Γ (élé-ment infinitésimal d’hypervolume dans Γ). Les trajectoires de phase du système dynamique sont solutions del’équation

X = F (t,X(t))

Si F : Γ → Γ est une application linéaire (un endomorphisme de Rn) on dit que le système dynamique estlinéaire, dans le cas contraire on parle de système dynamique non-linéaire. Si F ne dépend pas explicitementdu temps, X = F (X(t)), on dit que le système dynamique est autonome, dans le cas contraire on parle desystème dynamique forcé.

Cette définition a l’intérêt d’être totalement générale, elle peut s’appliquer à des systèmes mécaniquessimples, mais aussi à des milieux continus, des systèmes chimiques, des systèmes biologiques, des systèmeséconomiques ou financiers, etc. Lorsqu’il ne s’agit pas de systèmes Hamiltoniens, l’espace de phase peutêtre de dimension impaire. On peut par exemple citer les systèmes thermodynamiques d’espace de phaseengendré par (P, V, T ) (pression, volume, température). Le rôle de la mesure d’intégration est de permettrela définition de la moyenne d’une observable f : Γ → C sur une région Ω de Γ :

〈f〉Ω =

Ωf(X)dτ∫

Ω dτ

Pour un système linéaire, on note ∂F la matrice représentante de F dans la base canonique de Rn, cequi permet d’écrire

X = (∂F )X ⇐⇒ Xa =

n∑

b=1

(∂F )abX

b ∀a

Considérons un système non-linéaire et un point X0 de l’espace de phase. Soit t 7→ X(t) un portrait de phasepassant par un voisinage de X0. On a alors

X(t) = X0 + δX(t) + O(‖δX‖2)

d’où

δX = X + O(‖δX‖2)

= F (X0 + δX) + O(‖δX‖2)

= F (X0) +n

a=1

∂F

∂Xa

X=X0

δXa + O(‖δX‖2)

Si on suppose de plus que X0 est un point singulier (un point d’équilibre) de F , i.e. F (X0) = 0, alors lesystème dynamique linéaire (V(0), ∂F, dτ) avec V(0) un voisinage de 0 dans Rn et ∂F la matrice

(∂F )ab =

∂F a

∂Xb

X=X0

est appelé linéarisation de (Γ, F, dτ) au voisinage de X0. L’équation du système dynamique linéarisé est donc

δX = (∂F )δX ⇐⇒ δXa =

n∑

b=1

(∂F )abδX

b

Définition 2 (Flot). On appelle flot d’un système dynamique (Γ, F, dτ) l’application continue Φt,s : Γ → Γindexée par deux instants t ≥ s telle que pour toute trajectoire de phase t 7→ X(t) on a

Φt,s(X(s)) = X(t)

Le flot est donc l’application qui représente l’évolution induite par le système dynamique. La trajectoirede phase passant par un point X0, t 7→ Φt,0(X0), est également appelée orbite de X0 sous l’action du flot Φ.

Page 11: Master Physique & Physique Numérique Physique Statistique

1.1. LES ÉQUATIONS DIFFÉRENTIELLES DES SYSTÈMES DYNAMIQUES 11

Propriété 1. Le flot d’un système dynamique est un semi-groupe continu de transformations, i.e. ∀X ∈ Γ,∀t ≥ s ≥ r

• Φt,t(X) = X

• Φt,s Φs,r(X) = Φt,s (Φs,r(X)) = Φt,r(X)

On parle de “semi-groupe”, car l’application Φt,s n’est pas nécessairement réversible, Φ−1t,s 6= Φs,t (elle

l’est néanmoins systèmatiquement si le système dynamique est linéaire).

Pour trouver l’équation du flot, on considère l’équation de la trajectoire de phase telle que X(s) = X0 :

X = F (X) ⇐⇒ ∂

∂tΦt,s(X0) = F (Φt,s(X0))

⇐⇒ ∂

∂t

∂Φt,s(X0)

∂Xa0

=

n∑

b=1

∂F (Y )

∂Y b

Y =Φt,s(X0)

∂Φbt,s(X0)

∂Xa0

⇐⇒ ∂J(t, s)

∂t= ∂F (X(t))J(t, s)

avec ∂F (X) la matrice

(∂F (X))ab =

∂F a

∂Xb

et J(t, s) est la matrice Jacobienne du flot

J(t, s)ab =

∂Φat,s(X0)

∂Xb0

J(s, s) = 1

Dans le cas d’un système dynamique linéaire, la matrice Jacobienne ne dépend pas de X0, et est la matricereprésentante de l’application linéaire Φt,s dans la base canonique de Rn. Si le système est autonome en plusd’être linéaire, le flot est une application linéaire de matrice représentante

J(t, s) = e(∂F )(t−s) = idn +

∞∑

p=1

(t− s)p

p!(∂F )p

e est l’exponentielle de matrice. Dans le cas d’un système linéaire forcé, on a

J(t, s) = TeR

t

s∂F (t′)dt′ = idn +

∞∑

p=1

∫ t

s

∫ t1

s

...

∫ tp−1

s

(∂F (t1))(∂F (t2))...(∂F (tp))dtp...dt2dt1

Te est appelée exponentielle ordonnée en temps, la série qui la définit est appelée série de Dyson. Pardéfinition, l’exponentielle ordonnée en temps d’une matrice A(t) est solution de l’équation

dTeR

t

sA(t′)dt′

dt= A(t)Te

R

t

sA(t′)dt′ Te

R

s

sA(t′)dt′ = 1

qui est la généralisation matricielle de l’équation différentielle f(t) = a(t)f(t); f(s) = 1 qui a pour solutionf(t) = e

R

t

sa(t′)dt′ .

1.1.2 Les systèmes dynamiques de la physique statistique

Soit un système dynamique classique Hamiltonien (Γ,H, dτ) (dim Γ ∈ 2N). Dans de nombreuses situa-tions, on ne peut pas déterminer la position initiale du système (car on ne dispose pas de toute l’informationnécessaire). Ce manque d’information est modélisée par une distribution de probabilités dans Γ (dite distri-bution d’états) de densité ρ0 : Γ → [0, 1]. Ainsi pour toute région Ω ⊂ Γ,

Ωρ0(q, p)dτ est la probabilité que

le système se trouve dans Ω à la date t = 0. En d’autres termes, si on duplique N fois le système (avec N trèsgrand) avec des duplications qui ne tiennent compte que de ce qui est connu sur le système,

Ω ρ0(q, p)dτest la fraction de copies du système se trouvant dans Ω à t = 0 (c’est aussi la probabilité qu’une copie tiréeau hasard soit dans Ω). La moyenne d’une observable f est alors

Γ f(q, p)ρ0(q, p)dτ . Soit ρ(t) l’évolution au

Page 12: Master Physique & Physique Numérique Physique Statistique

12 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

cours du temps de la densité de probabilité de la distribution d’états (ρ(0) = ρ0). Pour un système isolé, ρest solution de l’équation de Liouville :

ρ = −ρ,H = −LHρ

où ., . est le crochet de Poisson :

ρ,H =∂ρ

∂qk

∂H∂pk

− ∂ρ

∂pk

∂H∂qk

et où LH = .,H (crochet de Poisson partiel) est appelé dérivée de Lie par rapport à H. LH = ∂H∂pk

∂∂qk −

∂H∂qk

∂∂pk

doit être vu comme un opérateur de L1(Γ, dτ). Pour un système pouvant échanger de l’énergie avecson environnement, ρ est solution de l’équation de Boltzmann :

ρ = −LHρ+ C(ρ)

où C est une transformation non-linéaire de ρ (qui peut être relativement compliquée) modélisant les échangesd’énergie et qui ne peut pas être mise sous la forme d’une dérivée de Lie (d’un crochet Poisson).Pour système dynamique statistique non-hamiltonien X = F (t,X) l’équation de Liouville se généralise en

ρ = −F a ∂ρ

∂Xa− tr(∂F )ρ

Ces équations définissent un flot Φt,0 : L1(Γ, dτ) → L1(Γ, dτ) sur l’espace des fonctions intégrables de l’es-pace de phase.Le traitement d’un système dynamique statistique est le même que celui d’un système dynamique simple,mais où l’espace de phase Γ est remplacé par L1(Γ, dτ) (espace des fonctions intégrables de Γ, comme enmécanique quantique il faudra renormer pour avoir une probabilité). Il s’agit d’un espace fonctionnel, c’està dire de dimension infinie. Ainsi les systèmes dynamiques statistiques classiques sont des systèmes dyna-miques classiques d’espace de phase de dimension infinie. LH et C apparaîssent alors comme des opérateursde L1(Γ, dτ). Tout ce qui sera étudié pour les systèmes dynamiques classiques se généralise aux systèmesstatistiques en se rappelant que leur dimension est infinie. On pourra faire une représentation matricielle duproblème en posant une base (ζi)i de L1(Γ, dτ) (que l’on tronquera pour avoir des matrices de rang fini).On a alors ρ(q, p) =

i ρiζi(q, p) → (ρ1, ρ2, ...) = X , et la dérivée de Lie représentée par une matrice où lestermes ∂H

∂qk et ∂H∂pk

sont donnés par les représentations matricielles des opérateurs de multiplication par unefonction, et les termes ∂

∂qk et ∂∂pk

sont donnés par les représentation matricielles des opérateurs différentiels.

1.1.3 Les systèmes dynamiques périodiques

Considérons un système dynamique classique (Γ, F, dτ) non-autonome mais T -périodique :

∀t, ∀X ∈ Γ, F (t+ T,X) = F (t,X)

Soit t 7→ X0(t) une trajectoire de phase périodique (un cycle) : X0(t + T ) = X0(t). Au voisinage deX0(t)t∈[0,T ] on peut linéariser le système :

X(t) = X0(t) + δX(t) + O(‖δX‖2)

et X = F (t,X(t)) induit

δX = X − X0 + O(‖δX‖2)

= F (t,X0 + δX) − F (t,X0) + O(‖δX‖2)

=

n∑

a=1

∂F

∂Xa

X=X0(t)

δXa + O(‖δX‖2)

Au voisinage d’une trajectoire de phase périodique, le système se linéarise en une équation différentielle àcoefficients périodiques :

δX = (∂F (t))δX ∂F (t+ T ) = ∂F (t)

Définition 3 (Système dynamique périodique). Un système dynamique classique forcé est dit périodique s’ilexiste T > 0 tel que ∀t,

∂F (t+ T,X(t+ T )) = ∂F (t,X(t))

Page 13: Master Physique & Physique Numérique Physique Statistique

1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 13

Le fait que le générateur de la dynamique soit périodique n’implique pas que la dynamique (le flot) lesoit. Le théorème suivant décrit la dynamique d’un système périodique.

Théorème 1 (Théorème de Floquet). On considère un système dynamique T -périodique.

∂J(t, 0)

∂t= ∂F (t)J(t, 0)

la matrice Jacobienne du flot peut se décomposer sous la forme

J(t, 0) = S(t)eΛt

où S(t) est une matrice T -périodique, S(T ) = S(0) = idRn , et Λ est une matrice indépendante du temps.

J(T, 0) = eΛT est appelée matrice de monodromie. La monodromie est la fait que certaines propriétésd’un système cyclique, ne sont pas identiques à elles-mêmes après un cycle. On parle aussi d’anholonomielorsque ces propriétés dépendent de la forme géométrique du cycle.Le théorème de Floquet permet de ramener l’étude d’un système forcé périodique (∂F (t)) à un systèmeautonome équivalent gouverné par la matrice de Floquet (Λ), à condition de ne regarder le système qu’à desintervalles de temps de T . La dynamique est en effet essentiellement gouvernée par la matrice ou l’opérateurde monodromie (sur une échelle de temps de T ), même si sur de courtes échelles de temps (∆t < T ) elles’éloigne un peu de la dynamique autonome ou libre (du fait de S(t)). La dynamique regardée uniquementtoutes les périodes enΛT est appelée dynamique stroboscopique du système. Le système dynamique stro-boscopique est un système à temps discret. On peut introduire d’autres systèmes dynamiques à temps discreten posant une matrice J que l’on identifiera à une matrice de monodromie et en induisant une dynamiquestroboscopique de la forme Jn pour le n-ième pas de la dynamique. On notera que si en plus de l’action deJ on ajoute une transformation non-linéaire à chaque pas, on peut obtenir un système dynamique à tempsdiscret qui n’est la version stroboscopique d’aucun système dynamique à temps continu (une transformationnon-linéaire discrète peut n’être interpolée par aucune transformation non-linéaire continue).On notera enfin qu’un point de la trajectoire périodique pour un système dynamique classique, du fait dela périodicité X(t+ T ) = X(t), joue le rôle d’un point singulier pour la dynamique stroboscopique. L’étudedes cycles des systèmes dynamiques forcés périodiques est donc équivalente à l’étude des points singuliersdes systèmes dynamiques autonomes.

1.2 Intégration numérique des systèmes dynamiques

La très grande majorité des systèmes dynamiques ne peuvent être traités analytiquement (même enpartie). Leur étude nécessite donc le passage par des simulations numériques nécessitant l’intégration deséquations de la dynamique. On donne ici quelques algorithmes d’intégration dans une présentation qui estloin d’être exhaustive et nécessiterait de plus amples explications. Avant cela, donnons quelques définitionsimportantes.

1.2.1 Éléments d’analyse numérique des équations différentielles

On cherche à intégrer l’équation de la dynamique classique X = F (t,X(t)) sur un intervalle [0, T ]. Ondiscrétise l’intervalle [0, T ] → t0, t1, ..., tN avec ti = i∆t, et ∆t = T

N le pas d’intégration. On connaît lacondition initiale X0 = X(0). On cherche une approximation Xn de X(tn). On appelle algorithme à un pas,un schéma qui se présente sous la forme

Xn+1 = Xn + F(Xn, tn)∆t

où F : Γ → Γ dépend de F et de ∆t.

Définition 4 (Algorithme consistant). On dit qu’un algorithme est consistant d’ordre p ∈ N s’il existe uneconstante C ∈ R+ ne dépendant pas ∆t telle que

X(tn+1) −X(tn)

∆t− F(X(tn), tn)

≤ C∆tp ∀n

Page 14: Master Physique & Physique Numérique Physique Statistique

14 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Autrement dit, un algorithme est consistant d’ordre p (on dit souvent simplement d’ordre ∆tp) s’il génèreà chaque pas une erreur bornée d’ordre de grandeur ∆tp.

Définition 5 (Stabilité d’un algorithme). Un algorithme est dit :• inconditionnellement stable, si ∃R ∈ R+∗ (dépendant de T ) et ∃X∗ ∈ Γ tels que ∀n, ∀∆t, on a‖Xn −X∗‖ ≤ R.

• (conditionnellement) stable, si ∃R ∈ R+∗ (dépendant de T ), ∃X∗ ∈ Γ, et ∃∆tmax ∈ R+∗ tels que ∀n,∀∆t ≤ ∆tmax, on a ‖Xn −X∗‖ ≤ R.

• stable par rapport aux erreurs si pour (ǫn)n=0,...,N , ∃K ∈ R+∗ et ∃∆tmax ∈ R+∗ tels que ∀n, ∀∆t ≤∆tmax, on a ‖Xn − Yn‖ ≤ K

(

‖X0 − Y0‖ +∑n−1

m=0 |ǫn|)

avec Yn+1 = Yn + F(Yn, tn)∆t+ ǫn.

La stabilité inconditionnelle est une propriété très forte qui induit que quelque soit le pas temporel ∆t,l’algorithme fournira un résultat sans “explosion” des valeurs numériques, alors qu’un algorithme condition-nellement stable doit être utilisé avec un pas suffisamment fin. En pratique, si on programme un algorithmeinstable ou conditionnellement stable avec un pas trop grand, des éléments de Xn vont devenir (plus oumoins) rapidement très grands, dépassant la capacité de représentation des nombres de l’ordinateur (101000).Cela conduit à une erreur d’exécution de type “floating point overflow”. Dans le cas de la dynamique quan-tique, puisque ‖ψn‖ ≤ 1 pour maintenir une interprétation probabiliste, il faut imposer ψ∗ = 0 et R = 1.Dans le cas des algorithmes conditionnellement stable, le fait de ne pas observer ce genre de problème dansl’exécution, laisse penser que le pas est suffisamment fin pour que le résultat soit satisfaisant. Mais dans lecas d’un algorithme inconditionnellement stable, on ne dispose pas de ce critère pour savoir si le pas a unechance d’être suffisamment fin.La stabilité par rapport aux erreurs, permet d’assurer que les perturbations de l’algorithme (par les erreursmachines) ne vont pas provoquer une divergence des résultats. Ce critère peut être tester numériquement enimposant “manuellement” des erreurs (ǫn)n plus grandes que les erreurs machines.

Proposition 1. Une condition suffisante pour qu’un algorithme soit stable par rapport aux erreurs est∃∆tmax ∈ R+∗, ∃K ∈ R+∗ tels que ∀∆t ≤ ∆tmax, ∀t ∈ [0, T ], F soit K-Lipschitzienne, c’est à dire que∀X,Y ∈ Γ, on a ‖F(X, t)− F(Y, t)‖ ≤ K‖X − Y ‖.Théorème 2 (Convergence). Si un algorithme est stable par rapport aux erreurs et consistant d’ordre p,alors il existe K ∈ R+∗ tel que ∀n, ‖Xn −X(tn)‖ ≤ K∆tp

La convergence assure que l’approximation Xn reste proche de la valeur réelle X(tn) avec une erreurd’ordre de grandeur ∆tp.

1.2.2 Algorithme d’Euler explicite

On cherche à intégrer l’équation de la dynamique classique X = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → t0, t1, ..., tN avec ti = i∆t, et ∆t = T

N le pas d’intégration. On noteXn ≃ X(tn).La méthode d’Euler repose sur le principe des différences finies au premier ordre :

X = limh→0

X(t+ h) −X(t)

h≃ Xn+1 −Xn

∆t

On a alors le schéma de propagation suivant :

Xn+1 = Xn + F (tn, Xn)∆t

L’erreur est d’ordre ∆t, et l’algorithme est conditionnellement stable.

1.2.3 Algorithme de Runge-Kutta d’ordre 2

On cherche à intégrer l’équation de la dynamique classique X = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → t0, t1, ..., tN avec ti = i∆t, et ∆t = T

N le pas d’intégration. On noteXn ≃ X(tn).La méthode de Runge-Kutta de second ordre est fondée sur une double application du principe des différencesfinies au point milieu :

X = limh→0

X(t+ h) −X(t+ h2 )

h2

≃ 2Xn+1 −Xn+ 1

2

∆t⇒ Xn+1 = Xn+ 1

2+

∆t

2F (tn +

∆t

2, Xn+ 1

2)

Page 15: Master Physique & Physique Numérique Physique Statistique

1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 15

X = limh→0

X(t+ h2 ) −X(t)h2

≃ 2Xn+ 1

2−Xn

∆t⇒ Xn+ 1

2= Xn +

∆t

2F (tn +

∆t

2, Xn+ 1

2)

d’oùXn+1 = Xn + F (tn +

∆t

2, Xn+ 1

2)∆t

En estimant alors Xn+ 12

par la méthode d’Euler, on obtient le schéma de propagation suivant :

Xn+1 = Xn + F

(

tn +∆t

2, Xn + F (tn, Xn)

∆t

2

)

∆t

L’erreur est d’ordre ∆t2 et l’algorithme est conditionnellement stable.

1.2.4 Algorithme de Runge-Kutta d’ordre 4

On cherche à intégrer l’équation de la dynamique classique X = F (t,X(t)) sur un intervalle [0, T ].On discrétise l’intervalle [0, T ] → t0, t1, ..., tN avec ti = i∆t, et ∆t = T

N le pas d’intégration. On noteXn ≃ X(tn).On réitère le principe de Runge-Kutta. On obtient alors le schéma de propagation suivant :

Xn+1 = Xn + (K1 + 2K2 + 2K3 +K4)∆t

6

avec

K1 = F (Xn, tn)

K2 = F

(

Xn +K1∆t

2, tn +

∆t

2

)

K3 = F

(

Xn +K2∆t

2, tn +

∆t

2

)

K4 = F (Xn +K3∆t, tn + ∆t)

L’erreur est d’ordre ∆t4 et l’algorithme est conditionnellement stable.

1.2.5 Algorithme de l’opérateur fractionné (intégrateurs symplectiques)

On considère une formule de fractionnement de l’exponentielle reposant sur l’usage de la formule deBaker-Campbell-Hausdorff tronquée au second ordre :

eλAeλBeλA = eλA+λB+ λ2

2[A,B]+O(λ3)eλA

= e2λA+λB+ λ2

2[A,B]+ λ2

2[B,A]+O(λ3)

= e2λA+λB+O(λ3)

Des approximations plus précises peuvent être obtenues en tronquant la formule BCH à un ordre supérieur.On peut aussi utiliser une version tronquée de la formule de Trotter à la place de la formule BCH.

La méthode de l’opérateur fractionné utilise ce fractionnement en mécanique Hamiltonienne classique.On a l’équation X = X,H, avec H l’Hamiltonien classique, X = (q, p) et ., . le crochet de Poisson. Leflot peut alors être écrit

Φt,s = eLH(t−s)

où LH est l’opérateur donné par la dérivée de Lie :

LH = .,H =∂H∂pk

∂qk− ∂H∂qk

∂pk

Avec H(q, p) = K(p) + V (p) (K est le terme cinétique), on a

Xn+1 = eLV∆t2 eLK∆teLV

∆t2 Xn

Page 16: Master Physique & Physique Numérique Physique Statistique

16 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

où LV = ., V et LK = .,K sont les opérateurs différentiels donnés par les dérivées de Lie par rapport àV et à K. On a alors

eLV∆t2

(

q

p

)

=

(

q

p− ∂V∂q (q)∆t

2

)

eLK∆t

(

q

p

)

=

(

q + ∂K∂p (p)∆t

p

)

La méthode de l’opérateur fractionné classique est un cas particulier d’intégrateur symplectique c’est à direun algorithme qui conserve les aires de l’espace de phase (et donc conserve automatiquement l’énergie).En mécanique classique statistique, le calcul des exponentielles est plus délicat du fait que le flot agit sur desfonctions de L1(Γ, dτ). Il faut alors procéder avec des représentations matricielles des opérateurs différientiels(de type DVR/FBR par exemple).

1.2.6 Représentations matricielles des opérateurs différentiels

Méthode des différences finies

On considère une variable x ∈ R. Soit x0, ..., xN une partition de [x0, xN ] ⊂ R avec xi+1 − xi = ∆x.En utilisant un développement limité au premier ordre, on a quelque soit f fonction de R :

f(xi+1) = f(xi) + f ′(xi)∆x+ O(∆x2)

donc∂f

∂x

xi

=f(xi+1) − f(xi)

∆x+ O(∆x)

On a alors

∂xf(x0)∂xf(x1)

...∂xf(xN−1)∂xf(xN )

≃ 1

∆x

0 1−1 0 1 0

. . .. . .

. . .0 −1 0 1

−1 0

f(x0)f(x1)

...f(xN−1)f(xN )

∂∂x est donc représenté par une matrice tridiagonale. Attention la représentation est mauvaise sur les bordsx0 et xN . Pour l’opérateur ∂2

∂x2 , on a

f(xi+1) + f(xi−1) = 2f(xi) + f ′′(xi)∆x2 + O(∆x3)

donc

∂2xf(x0)∂2

xf(x1)...

∂2xf(xN−1)∂2

xf(xN )

≃ 1

∆x2

−2 11 −2 1 0

. . .. . .

. . .0 1 −2 1

1 −2

f(x0)f(x1)

...f(xN−1)f(xN )

Pour un opérateur de multiplication par une fonction V (x) on a simplement :

V f =

V (x0) 0. . .

0 V (xN )

f(x0)...

f(xN )

=

V (x0)f(x0)...

V (xN )f(xN )

Méthode des séries de Fourier

Cette méthode ne fonctionne qu’avec une variable périodique. Elle est utile si Γ peut être assimilé à untore. On considère une variable θ ∈ S1 (S1 est un cercle, θ est donc une variable périodique). Soit f unefonction de S1 (une fonction 2π-périodique par rapport à θ). On décompose f en série de Fourier :

f(θ) =∑

n∈Z

cneınθ

Page 17: Master Physique & Physique Numérique Physique Statistique

1.2. INTÉGRATION NUMÉRIQUE DES SYSTÈMES DYNAMIQUES 17

On a alors

∂f

∂θ= ı

n∈Z

ncneınθ

∂2f

∂θ2= −

n∈Z

n2cneınθ

V (θ)f(θ) =∑

n∈Z

p∈Z

Vn−pcpeınθ

où V (θ) =∑

n∈ZVne

ınθ. En limitant les composantes de Fourier entre −nmax et +nmax, on a des représen-tations en matrices d’ordre 2nmax + 1, avec [∂θ]np = ınδnp, [∂2

θ ]np = −n2δnp et [V ]np = Vn−p.

Méthode DVR/FBR

La méthode DVR/FBR cherche à reproduire les bienfaits des deux méthodes précédentes. Elle utilisedeux bases de fonctions de representation, une base DVR (Discrete Variable Representation) dans laquelleles opérateurs V (x) seront diagonaux, et une base FBR (Finite Basis Representation) dans laquelle ce sontles opérateurs différentiels qui sont diagonaux.Soit x1, ..., xN une partition de [0, L] ⊂ R. La base DVR (ui(x))i=1,...,N est composée de fonctions tellesque ui(x) est fortement localisée autour xi et telles que ui(xj) = 0 (∀j 6= i). ui(x) se comporte donc presquecomme une distribution de Dirac (ou pour être plus précis limN→+∞ ui(x) = δ(x − xi) où la limite estdéfinie pour un pas de discrétisation tendant vers 0). La base FBR (φn)i=1,...,N est choisie comme étant latransformée de Fourier de la base DVR, ce qui avec une transformée de Fourier discrète donne :

uj(x) =1√N

N∑

n=1

e−ıknxjφn(x)

où knn=1,...,N sont les points du réseau réciproque de x1, ..., xN. On a alors pour une fonction f(x) :

f(x) =N

j=1

fjDV Ruj(x) =

N∑

n=1

fnFBRφn(x)

avec

fnFBR =

1√N

N∑

j=1

fjDV Re

−ıknxj

fjDV R =

1√N

N∑

n=1

fnFBRe

ıknxj

Ces formules de changement de représentation dépendent de la parité de N :• si N ∈ 2N : xj = L

N (j − 1) et kn = 2πL (n− 1 − N

2 )

fnFBR =

1√N

N∑

j=1

(−1)j−1fjDV Re

−ı 2πN

(n−1)(j−1)

fjDV R =

e−ıπ(j−1)

√N

N∑

n=1

fnFBRe

ı 2πN

(n−1)(j−1)

• si N ∈ 2N + 1 : xj = LN (j − 1

2 ) et kn = 2πL (n− 1

2 − N2 )

fnFBR =

e−ı πN

(n− 12−N

2)

√N

N∑

j=1

e−ı πN

(1−N)(j−1)fjDV Re

−ı 2πN

(n−1)(j−1)

fjDV R =

eı πN

(1−N)(j− 12)

√N

N∑

n=1

eı πN

(n−1)fnFBRe

ı 2πN

(n−1)(j−1)

Page 18: Master Physique & Physique Numérique Physique Statistique

18 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Les transformées de Fourier discrètes sont d’assez mauvaises approximations des transformées de Fourier, onpréfère en pratique utiliser un algorithme de transformée de Fourier rapide (FFT). De tels algorithmes sontrelativement complexes mais sont disponibles dans de nombreuses bibliothèques de subroutines.On a alors les représentations matricielles :

f(x) ;

f1DV R...

fNDV R

DV R

FFT−−−→

f1FBR...

fNFBR

FBR

V (x) ;

V (x1) 0. . .

0 V (xN )

DV R

∂x; ı

k1 0. . .

0 kN

FBR

∂2

∂x2; −

k21 0

. . .0 k2

N

FBR

De plus l’opérateur différentiel d’ordre 2 s’écrit en base DVR :

[

∂2

∂x2

]DV R

ij

=N

n=1

∂2φn

∂x2

x=xi

φn(xj)

Le choix de la base DVR dépend des circonstances (uj(x) peut être un sinus cardinal, un polynômede Tchebychev, de Laguerre, de Hermitte, de Legendre,...). Un choix relativement universel est le suivant :xj = L

N (j − 1) et kn = 2πL (n− 1 − N

2 )

uj(x) =1√NL

N∑

n=1

eıkn(x−xj)

φn(x) =1√Leıknx

Ce choix est assez naturel car il consiste à choisir une base de Fourier pour base FBR. On notera que dansce cas, on a une expression analytique pour la représentation de l’opérateur différentiel d’ordre 2 en baseDVR :

[

∂2

∂x2

]DV R

ij

= −

π2(N2+2)3L2 si i = j(−1)j−i2π2

L2 sin2((j−i)π/N) si i 6= j

1.3 Description des systèmes dynamiques classiques

1.3.1 Les attracteurs

Définition 6 (Systèmes conservatifs et dissipatifs). Soit (Γ, F, dτ) un système dynamique classique. PourΩ ⊂ Γ une région de l’espace de phase, on définit Φt,0(Ω) = Φt,0(X), X ∈ Ω le flot de cette région.

• Le système dynamique est dit conservatif, s’il conserve les volumes d’espace de phase :

∀Ω ⊂ Γ, ∀t > 0,

Φt,0(Ω)

dτ =

Ω

• Le système dynamique est dit dissipatif, s’il contracte les volumes d’espace de phase :

∀Ω ⊂ Γ, ∀t > s > 0,

Φt,0(Ω)

dτ <

Φs,0(Ω)

Page 19: Master Physique & Physique Numérique Physique Statistique

1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 19

Pour les systèmes mécaniques simples, ces définitions coïncident avec les définitions usuelles des systèmesconservatifs (systèmes pseudo-isolés ou n’étant soumis qu’à des forces dérivant d’un potentiel ou ne travaillantpas) et des systèmes dissipatifs (systèmes soumis à des forces dissipant l’énergie).

Définition 7 (Attracteur). Soit (Γ, F, dτ) un système dynamique classique. Un attracteur du système dy-namique est une région de l’espace de phase vers laquelle converge toute trajectoire de phase passant à sonvoisinage. Le voisinage en question est appelé bassin d’attraction de l’attracteur.

Un système dynamique peut avoir plusieurs attracteurs ou aucun. Deux attracteurs proches peuventprésenter deux petits bassins d’attraction disjoints à l’intérieur dans grand bassin d’attraction commun. SiΩ est le bassin d’attraction d’un attracteur, alors l’attracteur est limt→+∞ Φt,0(Ω). On classe les attracteursen fonction de leur morphologie :

• Un attracteur réduit à un point est appelé point fixe. Les points fixes sont des points singuliers dusystème dynamique.

• Un attracteur formant une courbe fermée est appelé cycle limite.• Un attracteur formant la surface d’une tore ou l’hypersurface d’un hypertore est appelé tore limite.• Un attracteur n’entrant pas dans les catégories précédentes est appelé attracteur étrange. La mor-

phologie de ces attracteurs étranges sera abordée dans le chapitre suivant.Remarque : On parle ici de tore topologique, c’est à dire non nécessairement un tore parfait et régulier maistoute déformation continue d’un tore. Un tore topologique est donc une surface fermée qui forme un “troude donut”, ce que l’on appelle en mathématique un genus. Une tasse à café, du fait de sa hanse, est un toretopologique. La même remarque s’applique pour l’hypertore.

Des tores topologiques.

Considérons l’exemple simple de l’oscillateur harmonique. L’équation du système (qui est linéaire) est

p = −kxp = mx

⇐⇒(

x

p

)

=

(

0 1m

−k 0

) (

x

p

)

On pourra montrer que la matrice Jacobienne du flot est

J(t, 0) = exp

((

0 1m

−k 0

)

t

)

=

(

cos(ω0t)1

mω0sin(ω0t)

−mω0 sin(ω0t) cos(ω0t)

)

avec ω0 =√

km . Les trajectoires de phase sont donc

(

x

p

)

=

(

x0 cos(ω0t) + p0

mω0sin(ω0t)

−mx0ω0 sin(ω0t) + p0 cos(ω0t)

)

Le portrait de phase du système est donc constitué d’un ensemble d’ellipses centrées sur 0. Toutes ces ellipsessont des cycles limites, et 0 est point fixe.On ajoute une force de frottements fluides (en restant en régime sous-critique) :

p = −kx− αx

p = mx⇐⇒

(

x

p

)

=

(

0 1m

−k − αm

)(

x

p

)

La Jacobienne du flot est alors

J(t, 0) = e−α

2mt

(

cos(ωt) 1mω sin(ωt)

−mω sin(ωt) cos(ωt)

)

avec ω =√

km − α2

4m2 . Le portrait de phase est alors constitué d’un ensemble de spirales convergentes vers 0.Le seul attracteur est alors le point fixe 0.

Page 20: Master Physique & Physique Numérique Physique Statistique

20 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Ajoutons maintenant une force d’entretien :

p = −kx− αx+ F0 cos(t)

p = mx⇐⇒

(

x

p

)

=

(

0 1m

−k − αm

) (

x

p

)

+

(

0F0 cos(t)

)

Le système n’est alors plus linéaire et est 2π -périodique. Il doit donc exister une trajectoire 2π

-périodique :(

x

p

)

=

(

A cos(t) +B sin(t)−Am sin(t) +Bm cos(t)

)

Il suffit d’injecter cette expression dans l’équation de la dynamique pour trouver les équations auxquellessatisfont A et B (et ainsi trouver ces constantes). La linéarisation du système au voisinage d’un de cespoints revient au cas précédent (non-forcé), on a donc toujours la même matrice Jacobienne et donc le mêmecomportement. On peut en conclure que la trajectoire périodique est un cycle limite et que le portrait dephase consiste en des spirales convergeant vers celui-ci.

-2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

-2,4

-1,6

-0,8

0,8

1,6

2,4

-2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

-2,4

-1,6

-0,8

0,8

1,6

2,4

-2,8 -2,4 -2 -1,6 -1,2 -0,8 -0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8

-2,4

-1,6

-0,8

0,8

1,6

2,4

Portraits de phase pour l’oscillateur harmonique(y = p

mω0), amorti (y = p

mω ) et entretenu (y = pm )

1.3.2 Instabilités

Pour un système dynamique (Γ, F, dτ) nous allons étudier ce qu’il se passe autour d’un point singulierX0, i.e. F (X0) = 0. X0 est un point d’équilibre du système dynamique, puisqu’une condition initiale sur X0

engendrera la stagnation de la dynamique sur ce point. La question de savoir s’il s’agit d’un équilibre stableou instable dépend du comportement dynamique dans le voisinage de ce point.

Définition 8 (Stabilité d’un point singulier). Un point singulier X0 est dit• instable si pout tout voisinage de X0 aussi petit que l’on veut, il existe une trajectoire qui finit par

quitter ce voisinage,• stable si toute trajectoire passant dans le voisinage de X0 restent dans le voisinage de X0,• asymptotiquement stable si X0 est un point fixe (les trajectoires dans le voisinage de X0 convergent

vers X0),• exponentiellement stable si les trajectoires convergent vers X0 par une loi de décroissance exponentielle

(‖X(t) −X0‖ < β‖X(0) −X0‖e−αt avec α, β ∈ R+).

Notons qu’un point singulier peut être stable sans être asymptotiquement stable, par exemple s’il estentouré de cycles limites. Les notions de stabilité s’interprètent physiquement ainsi : si le système est initia-lement en équilibre au point X0 puis est écarté de ce point par une perturbation (on déplace le système versun point X dans le voisinage de X0), alors le système revient versX0 si le point est asymptotiquement stable,“tourne” autour de X0 s’il est simplement stable, s’éloigne de X0 s’il est instable. L’étude de la stabilité dessystèmes dynamiques non-linéaires est simplifiée par le résultat suivant :

Page 21: Master Physique & Physique Numérique Physique Statistique

1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 21

Théorème 3. La caractère stable ou instable d’un point singulier d’un système dynamique non-linéaire estéquivalent au caractère stable ou instable de 0 ∈ Γ pour la linéarisation du système dynamique, sauf dans lecas d’une simple stabilité où la non-linéarité peut éventuellement rendre instable le système.

Notons que la linéarisation n’indique que la stabilité, le caractère simple, asymptotique ou exponentiellede celle-ci n’est pas nécessairement identique d’un système à sa linéarisation. De plus il s’agit d’une stabilitélocale (au voisinage d’un point fixe), hors de ce voisinage les effets non-linéaires peuvent stabiliser un systèmeinstable ou déstabiliser un système stable.

1.3.3 Exposants de Lyapunov

Considérons (Γ, ∂F, dτ) un système dynamique autonome linéaire (ou la linéarisation d’un système dy-namique autonome non-linéaire). On supposera que ∂F est de rang n = dimΓ c’est à dire que ker ∂F = 0.Par linéarité, 0 ∈ Γ est point fixe du système. Le système étant autonome, sa dynamique est engendrée parla matrice Jacobienne J(t, 0) = e∂Ft. Soit λii = Sp(∂F ) l’ensemble des valeurs propres de ∂F et (χi(a))i,a

la base de vecteurs propres associés (a varie de 1 au degré de degénérescence de λi). On suppose dans unpremier temps que ∂F est diagonalisable.

∀X(0) ∈ Γ, X(0) =∑

i

a

αi(a)χi(a)

X(t) = J(t, 0)X(0) =∑

i

a

αi(a)eℜe(λi)teıℑm(λi)tχi(a)

Si ∀i, ℜe(λi) < 0 on a clairement‖X(t)‖ = O(emaxi ℜe(λi)t)

0 est donc un point fixe et est donc exponentiellement stable. Si une seule des valeurs propres de ∂F est departie réelle positive, alors 0 est instable car

∀t ∈ V(+∞), X(t) ≃∑

j|ℜe(λj)>0

a

αj(a)eℜe(λj)tχj(a)

Supposons maintenant que ∀i, ℜe(λi) ≤ 0. Tout d’abord remarquons qu’il ne peut n’y avoir qu’un nombrepair de valeurs propres de partie réelle nulle (on rappelle que l’on a provisoirement exclus les cas où ∂F n’estpas rang n). En effet ∂F ∈ Mn×n(R) donc si λi est valeur propre de ∂F alors λi est aussi valeur propre 1

(les valeurs propres sont nécessairement complexes conjuguées). On a donc

∀t ∈ V(+∞), X(t) ≃∑

i|ℜe(λi)=0 et ℑm(λi)>0

a

2ℜe(

αi(a)eıℑm(λi)tχi(a)

)

≃ 2∑

i|ℜe(λi)=0 et ℑm(λi)>0

a

(

cos(ℑm(λi)t)ℜe(αi(a)χi(a)) − sin(ℑm(λi)t)ℑm(αi(a)χi(a)))

En rappelant qu’une ellipse dans R2 est d’équation paramétrique :

A cos(2πt) +B sin(2πt) =

(

Ax cos(2πt) +Bx sin(2πt)Ay cos(2πt) +By sin(2πt)

)

(avec pour demi-axes−→OA et

−−→OB) ; on voit que la trajectoire X(t) converge vers un hypertore limite.

Si dim ker∂F > 0 : ker∂F est en ensemble de points singuliers, par conséquent le système est stable parperturbation interne à ker∂F . Cet espace fait donc partie de l’attracteur. Si dimker ∂F = 1 on a un cyclestable (pour un système linéaire on peut voir une droite comme un cycle de rayon infini, pour les systèmesnon-linéaires, la linéarisation n’est valable que dans un petit voisinage, on ne peut pas savoir par une analyselocale quelle est la forme géométrique réelle du l’objet). Si dimker ∂F = 2 on a un tore stable, etc. L’ana-lyse précédente peut ensuite être reconduite pour ∂F restreine à ker ∂F⊥ (le supplémentaire orthogonal deker ∂F ).

On peut résumer la discussion ainsi :

1. ∂Fχi(a) = λiχi(a) ⇒ ∂Fχi(a) = λiχi(a)

Page 22: Master Physique & Physique Numérique Physique Statistique

22 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Théorème 4 (Théorème Lyapunov). Soit (Γ, F, dτ) un système dynamique autonome tel que la matrice desa linéarisation ∂F soit diagonalisable. Soit ℜe(λi)i l’ensemble des parties réelles des valeurs propres de∂F , on appelle ces nombres exposants de Lyapunov. Soit (n+, n0, n−) ∈ N3 la signature des exposantsde Lyapunov : n+ est le nombre d’exposants de Lyapunov positifs, n0 d’exposants de Lyapunov nuls et n−d’exposants de Lyapunov négatifs (avec les valeurs propres comptées autant de fois qu’elles sont dégénérées).

• si (n+, n0, n−) = (0, 0, n), alors 0 est un point fixe (exponentiellement stable pour la linéarisation) dusystème dynamique.

• si (n+, n0, n−) = (0, 1, n− 1), alors 0 est stable et se trouve sur un cycle limite.• si (n+, n0, n−) = (0, 2, n− 2) alors 0 est stable et est entouré de cycles limites ou se trouve sur un tore

limite.• si (n+, n0, n−) = (0, 3, n− 3) alors 0 est stable et se trouve sur hypertore limite.• si (n+, n0, n−) = (0, 4, n− 4) alors 0 est stable et est entouré d’hypertores limites ou se trouve sur un

hypertore limite.• si (n+, n0, n−) = (0, n0, n− n0) avec n0 > 4 alors 0 est stable et est entouré d’hypertores limites.• si n+ 6= 0 alors 0 est instable.

Schémas des trajectoires de phase au voisinage d’un point singulier d’un système à deux dimensions enfonction de la position des valeurs propres de ∂F dans le plan complexe.

Dans le cas où ∂F ne serait pas diagonalisable, on peut utiliser la propriété suivante :

Propriété 2. ∀A ∈ Mn×n(C), il existe D ∈ Mn×n(C) matrice diagonalisable et N ∈ Mn×n(C) matricenilpotente (i.e. ∃p ∈ N tel que Np = 0) telles que

A = D +N et eA = eDeN = eD

p∑

i=0

Np

p!

Ainsi si ∂F n’est pas diagonalisable, sa décomposition permet de se ramener à l’étude du cas diagonali-sable. Dans ce cas J(t, 0) est le produit d’une matrice Jacobienne d’un flot diagonalisable avec un polynômede degré p > 0 en t. p est le rang du plus grand bloc de Jordan de ∂F . Si pour la part diagonalisable dusystème 0 est point fixe exponentiellement stable alors 0 est point fixe asymptotiquement stable pour le sys-tème entier (convergence vers 0 en tpe−αt), si pour la part diagonalisable du système 0 est point simplementstable ou est instable, alors 0 est instable pour le système entier.

Page 23: Master Physique & Physique Numérique Physique Statistique

1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 23

Considérons maintenant un système dynamique T -périodique. Du fait du théorème de Floquet, après ppériodes la matrice de monodromie est

J(pT, 0) = eΛpT

De fait cette matrice de monodromie n’est pas très différente de celle d’un système linéaire autonome. Si entredeux périodes la dynamique du système n’est pas tout à fait similaire à un système autonome, la dynamiquede longs termes est dominée par l’évolution engendrée par Λ. Lorsqu’on ne considère que la dynamique depériode en période, on parle de la dynamique stroboscopique du système. On notera que par constructionde la théorie de Floquet, les exposants de Lyapunov (ℜe(Sp(Λ))) ne sont pas associés à la stabilité d’unpoint singulier mais d’une trajectoire de phase périodique X(T ) = X(0) (un cycle). En effet dans le systèmestroboscopique, on ne voit jamais que X(0) qui joue le rôle d’un point singulier (mais pour la dynamiquediscrète t ∈ ZT ). On notera d’ailleurs que X(0) est quelconque sur le cycle. Ainsi si les exposants de Lyapu-nov sont tous négatifs, le cycle est exponentiellement stable (c’est un cycle limite), s’il existe des exposantsde Lyapunov nuls, le cycle est simplement stable (il est entouré de cycles ou de tores limites,), s’il existe aumoins un exposant de Lyapunov positif, la trajectoire périodique est instable. Donc si on écarte le systèmede sa trajectoire par une perturbation, celui reviendra vers elle si elle exponentiellement stable, restera surune trajectoire très proche si elle simplement stable, s’éloignera de sa trajectoire périodique initiale si elleest instable.

Remarque importante : pour un système dynamique linéaire autonome instable, les trajectoires de phases’éloignent indéfiniment de 0. Mais dans le cas des systèmes non-linéaires, l’instablité du système linéariséou du système stroboscopique n’implique pas nécessairement que les trajectoires de phase s’éloignent indé-finiment du point singulier ou de la trajectoire périodique. Les effets des non-linéarités seront étudiées dansla suite du cours.

Considérons l’exemple d’un oscillateur anharmonique soumis à une force de frottements fluides :

p = −kx− κx2 − αx

p = mx⇐⇒

(

x

p

)

=

(

1mp

−kx− κx2 − αmp

)

Le système présente deux points singuliers :

X0 =

(

00

)

X ′0 =

(

− kκ

0

)

On considère la linéarisation du système au voisinage de X0 :

∂FX0=

(

0 1m

−k − αm

)

qui est de polynôme caractéristique λ2 + αmλ+ k

m . Les valeurs propres sont donc

λ = − α

2m±

α2

4m2− k

m

Quelles que soient les valeurs de m, α et k les deux exposants de Lyapunov sont négatifs, le système estdonc linéairement stable. X0 est donc un point fixe. On remarquera que si α2

4m2 >km , les valeurs propres sont

réelles, on a donc des trajectoires de phases qui convergent “directement” sur le point fixe (régime apériodiqued’oscillation, amortissement surcritique) ; alos que si α2

4m2 < km , les valeurs propres sont complexes, on a

donc des trajectoires de phases qui convergent en spirales sur le point fixe (régime périodique d’oscillation,amortissement souscritique).La linéarisation du système au voisinage de X ′

0 est :

∂FX′0

=

(

0 1m

+k − αm

)

Les valeurs propres sont donc

λ = − α

2m±

α2

4m2+k

m

Pour toutes valeurs de m, α et k, il y a un exposant de Lyapunov positif (et un négatif), X ′0 est donc instable.

Page 24: Master Physique & Physique Numérique Physique Statistique

24 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

1.3.4 Exemple : le pendule

On considère un pendule rigide plan constitué d’une tige rigide de longueur ℓ (dont on négligera la masse)au bout de laquelle est accrochée une masse m. Le système est libre de tourner dans le plan de la tige autourdu point d’accroche O.

Le principe fondamental de la dynamique induit que l’équation du pendule est

Iθ = −mgℓ sin θ

où I = mℓ2 est le moment d’inertie du pendule. Ce qui conduit au système dynamique

L = −mgℓ sin θ

L = Iθ⇐⇒

(

θ

L

)

=

(

LI

−mgℓ sin θ

)

où L est le moment cinétique du pendule en O. Le système n’est manifestement pas linéaire. X0 = (θ =0, L = 0) et X ′

0 = (θ = π, L = 0) sont points singuliers du système dynamique. Considérons la linéarisationdu systèmes au voisinage de X0 :

∂FX0=

(

0 1I

−mgℓ 0

)

On notera que le pendule linéarisé au voisinage de X0 est un oscillateur harmonique. On sait donc qu’auvoisinage de X0 le portrait de phase du système est composé de cycles limites concentriques centrés sur X0

qui est point fixe. Ce que l’on peut vérifier en calculant les valeurs propres de ∂FX0: ±ı

mgℓI . La signature

des exposants de Lyapunov du système est donc (0, 2, 0) indiquant que X0 est entouré de cycles limites.Au voisinage de X ′

0, la linéarisation du système est

∂FX′0

=

(

0 1I

+mgℓ 0

)

Les valeurs propres de ∂FX′0

sont alors ±√

mgℓI et la signature des exposants de Lyapunov est (1, 0, 1). La

présence d’un exposant de Lyapunov positif, indique que X ′0 est instable.

“Loin” de X0 la non-linéarité déforme les trajectoires de phases qui ne sont plus des cycles limites. Enconstatant que

dL2

dt= −2Imgℓθ sin θ

on a la contrainte suivante sur la trajectoire de phase passant par (θ0, L0) :

L2 − L20 = 2Imgℓ(cos θ − cos θ0)

On peut aussi trouver cette dernière équation en appliquant le principe de conservation de l’énergie (il n’y aque des forces conservatives) : E(t) = E(0) ⇐⇒ L(t)2

2I −mgl cos θ(t) =L2

0

2I −mgℓ cosθ0 (l’origine de l’énergiepotentielle de pensanteur étant choisie en O) ou en cherchant l’intégrale première du système dynamique quise trouve être l’Hamiltonien H(θ, L) = L2

2I −mgℓ cos θ. On peut alors tracer l’ensemble du portrait de phase

Page 25: Master Physique & Physique Numérique Physique Statistique

1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 25

du pendule.

-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6

-2,4

-1,6

-0,8

0,8

1,6

2,4

Portrait de phase du pendule (θ = x mod 2π et y = L√2mgℓ

)

1.3.5 Les résonances paramétriques

Considérons (Γ, F, dτ) un système dynamique forcé quasi-linéaire T -périodique :

X = (∂F (t))X(t) +B(t)

où B ∈ Rn avec B(t+T ) = B(t) et ∂F (t+T ) = ∂F (t). B est souvent appelé forçage du système, et ce typede système est également qualifié de système linéaire inhomogène. On suppose les exposants de Lyapunovtous négatifs ou nuls (donc le système est linéairement stable). Considérons la trajectoire de phase

X0(t) =

∫ t

0

J(t, s)B(s)ds

où J(t, s) est la matrice Jacobienne du flot. Cette trajectoire est une solution particulière de l’équationdifférentielle inhomogène :

X0 = J(t, t)B(t) +

∫ t

0

∂J(t, s)

∂tB(s)ds

= B(t) +

∫ t

0

(∂F (t))J(t, s)B(s)ds

= B(t) + (∂F (t))

∫ t

0

J(t, s)B(s)ds

= B(t) + (∂F (t))X0(t)

Les solutions générales du système dynamique sont donc de la forme X(t) = δX(t)+X0(t) où δX(t) est unetrajectoire de phase du système linéarisé (donc une trajectoire de phase convergeant vers 0 ou qui est cyclelimite du fait des exposants de Lyapunov). X0(t)t pourrait donc être un attracteur du système (un cyclelimite). Par le théorème de Floquet on a

X0(t) = S(t)

∫ t

0

e(t−s)ΛS(s)−1B(s)ds

Page 26: Master Physique & Physique Numérique Physique Statistique

26 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Étudions la dynamique stroboscopique du système :

X0(nT ) = enTΛ

∫ nT

0

e−sΛS(s)−1B(s)ds

= enTΛn−1∑

j=0

∫ (j+1)T

jT

e−sΛS(s)−1B(s)ds

= enTΛn−1∑

j=0

∫ T

0

e−(s′+jT )ΛS(s′ + jT )−1B(s′ + jT )ds′

=

n−1∑

j=0

e(n−j)TΛ

∫ T

0

e−sΛS(s)−1B(s)ds

=n−1∑

j=0

e(n−j)TΛY

avec Y =∫ T

0e−sΛS(s)−1B(s)ds ∈ Rn qui joue le rôle d’une sorte de condition initiale pour la dynamique

stroboscopique. Soient λ± = ±ıω0 deux valeurs propres complexes conjuguées de parties réelles nulles de Λ.Si la période du système est telle que

T =2kπ

ω0k ∈ N

et si Y est non nul et se décompose sur les sous-espaces propres de λ±, on a

X0(nT ) =

n−1∑

j=0

(eı(n−j)Tω0Y+ + e−ı(n−j)Tω0Y−)

=n−1∑

j=0

(eı2k(n−j)πY+ + e−ı2k(n−j)πY−)

=

n−1∑

j=0

Y

où Y± sont les projections orthogonales de Y sur les sous-espaces propres associés à λ±. On voit donc que

‖X0(nT )‖ = n‖Y ‖ ⇒ limn→+∞

‖X0(nT )‖ = +∞

La trajectoire de phase X0 n’est donc pas bornée, elle s’éloigne donc indéfiniment de tout point de l’espacede phase. Le système est donc linéairement stable, mais se trouve être instable du fait de sa non-linéarité.On appelle ce phénomène une résonance paramètrique (l’adjectif paramètrique vient du fait qu’il faut que leparamètre T soit bien ajusté pour que la résonance ait lieu, on parle de condition d’accrochage de périodes).On dit souvent que le système est métastable, car il peut être considérer comme quasi-stable sur le courtterme et instable à longs termes (l’instabilité ne se manifeste qu’après un grand nombre cycles).Un exemple de résonance paramétrique est donné par l’oscillateur entrenu : x+ω2x = F0

m cos(t). Les valeurspropres de ∂F sont λ± = ±ıω. On a alors (S(t) = 1) :

Y =

∫ T

0

(

cos(ωs) − 1mω sin(ωs)

−mω sin(ωs) cos(ωs)

) (

0F0 cos(s)

)

ds

où Φ est la matrice de diagonalisation de ∂F . Si ω 6∈ N il ne se passe rien de spécial. Si = kω avec k ∈ N∗

on a des intégrales de la forme∫ T

0

cos(ωs) cos(kωs)ds =

∫ T

0

sin(ωs) cos(kωs)ds = 0

Y est alors nul sauf si = ω (∫ T

0 cos2(ωs)ds = π). On a alors une résonance, le système est instable. Ce quiest en accord avec l’autre solution particulière du système :

X0(t) =F0

ω2 −2

(

1m cos(t)− sin(t)

)

Page 27: Master Physique & Physique Numérique Physique Statistique

1.3. DESCRIPTION DES SYSTÈMES DYNAMIQUES CLASSIQUES 27

qui est divergente pour ω = .Le même problème peut survenir dans la linéarisation des systèmes autonomes au voisinage d’un point fixeX0.

δX = ∂FX0δX(t) +

1

2∂2FX0

δX(t)δX(t) + ...

où le correctif d’ordre 2 est

(∂2FX0δXδX)a =

∂2F a

∂Xb∂Xc

X=X0

δXbδXc

On peut montrer que si deux valeurs propres de parties réelles nulles de ∂F sont reliées par la relationλi = 2λj , alors le correctif d’ordre 2 déstabilise le système. De manière générale, si une valeur propre λi

de partie réelle nulle est liée à d’autres valeurs propres par une relation de la forme λi =∑

j 6=i mjλj avecmj ∈ N, alors les non-linéarités déstabilisent le système. Ce phénomène est appelé résonance de Poincaré. Ilfaut donc bien comprendre que s’il y a des exposants de Lyapunov nuls, la stabilité linéaire n’assure pas lastabilité non-linéaire (sauf en l’absence de résonance).

Page 28: Master Physique & Physique Numérique Physique Statistique

28 CHAPITRE 1. THÉORIE DES SYSTÈMES DYNAMIQUES

Page 29: Master Physique & Physique Numérique Physique Statistique

Chapitre 2

Théorie du Chaos

2.1 La géométrie fractale

2.1.1 Dimension de Hausdorff

En algèbre linéaire, la notion de dimension est quelque chose de bien définie, c’est le nombre de vecteurslinéairement indépendants engendrant un espace vectoriel. En géométrie, il existe une notion intuitive dedimension :

• un point ou un ensemble de points isolés est de dimension 0,• une droite, une ellipse, une lemniscate, etc, sont de dimension 1,• un plan, une sphère, un tore, etc, sont de dimension 2,• un cube plein, une boule, etc, sont de dimension 3.

Si pour ces objets cette notion ne pose pas de difficulté intuitive, ce n’est pas toujours le cas. Prenons parexemple l’ensemble des nombres rationnels Q. Q n’est “fait que de points” (il est de mesure nulle) et estdénombrable, mais ces points semblent emplirent R (∀x ∈ R, ∃(qn)n, qn ∈ Q tels que limn→+∞ qn = x ;on dit que Q est dense dans R – ce résultat est connu sous le nom de théorème d’Archimède –). Q est-ilde dimension 0 ou 1 ? On peut aussi considérer une courbe continue qui “oscille” de façon très serrée aupoint que l’on ait l’impression qu’elle forme une petite bande de largeur égale à l’amplitude d’oscillation. Lerésultat est-il de dimension 1 ou 2 ? C’est pour traiter ces cas où l’intuition ne permet pas de trancher, qu’ila été nécessaire de formaliser la notion de dimension géométrique.

Définition 9 (Dimension de Minkowski). Dans Γ = Rn, on appelle (hyper)cube de côté ℓ, l’objet engendrépar le produit cartésien de n segments droits de longueur ℓ.Soit Ω ⊂ Γ un objet géométrique dans Γ. On note N(ℓ) le nombre minimal de cubes de côtés ℓ nécessairespour recouvrir Ω.On appelle dimension de Minkowski de l’objet Ω la quantité :

dimM Ω = − limℓ→0

lnN(ℓ)

ln ℓ

Les cubes peuvent être remplacés par des boules de rayon ℓ.

Bien que cette définition paraîsse quelque peu exotique, on pourra se convaincre qu’elle coïncide avec lanotion intuitive en traitant quelques exemples dans R3.

– Pour recouvrir un point isolé X, il suffit d’un seul cube (∀ℓ). Donc dimMX = − limℓ→0ln 1ln ℓ = 0.

– Soit une courbe C, continue, lisse et régulière (indéfiniment dérivable) et de longueur L. Le nombre decubes nécessaires à recouvrir C est de l’ordre de N(ℓ) = L

ℓ − ℘(ℓ) + 1 avec 0 ≤ ℘(ℓ) < 1 le reste de ladivision euclidienne de L par ℓ. Donc dimM C = − limℓ→0

ln(L+ℓ−℘(ℓ)ℓ)−ln ℓln ℓ = 1.

– Soit une surface S, continue, lisse et régulière, d’aire A. N(ℓ) = Aℓ2 − ℘(ℓ2) + 1 avec ℘(ℓ2) le reste de

la division euclidienne de A par ℓ2. Donc dimM S = − limℓ→0ln(A+ℓ2−℘(ℓ2)ℓ2)−2 ln ℓ

ln ℓ = 2.– Soit un solide V , continu, lisse et régulier, de volume V . N(ℓ) = V

ℓ3 − ℘(ℓ3) + 1 avec ℘(ℓ3) le reste de

la division euclidienne de V par ℓ3. Donc dimM V = − limℓ→0ln(V +ℓ3−℘(ℓ3)ℓ3)−3 ln ℓ

ln ℓ = 3.La dimension de Minkowski n’est pas la meilleure définition que l’on pourrait donner de la dimension. Il

existe une concept plus efficient, la dimension de Hausdorff, mais dont la définition est très abstraite. Dans la

29

Page 30: Master Physique & Physique Numérique Physique Statistique

30 CHAPITRE 2. THÉORIE DU CHAOS

plupart des cas, on a dimH Ω = dimM Ω, et on peut confondre les deux notions. Les rares cas où la dimensionde Minkowski échoue, sont ceux pour lesquels limℓ→0

lnN+(ℓ)ln ℓ 6= limℓ→0

ln N−(ℓ)ln ℓ où N+ est le nombre minimal

de cubes recouvrant Ω et N− est le nombre maximal de cubes couvrant presque entièrement Ω (mais laissantune partie de Ω non couverte). Les deux définitions devraient être équivalentes, mais il arrive que les limitesne soient pas égales et on se retrouve avec deux dimensions de Minkowski (qui ne coïncident ni l’une nil’autre avec la dimension Hausdorff qui est plus petite). Autre cas à problème, dimM Q = 1 car Q est dense,mais dimH Q = 0 car Q est dénombrable.

2.1.2 L’itération de Cantor

Considérons maintenant un objet pour lequel la notion intuitive n’est d’aucune aide. Soit I0 un segmentde droite, pour les besoins de l’analyse, on identifiera celui-ci à I0 = [0, 1]. On note I1 l’objet obtenu enretirant le tiers central de I0 : I1 = [0, 1

3 ] ∪ [ 23 , 1]. On note I2 l’objet obtenu en retirant le tiers central dechacun des intervalles constitutifs de I1 : I2 = [0, 1

9 ]∪ [ 29 ,13 ]∪ [ 23 ,

79 ]∪ [89 , 1]. De manière général, on introduit

la règle de récurrence : In+1 est l’objet obtenu en retirant le tiers central de tous les intervalles constitutifsde In.

L’itération de Cantor de I0 à I6.

On considère alors C = limn→+∞ In. Comme les points qui sont aux bords dans In sont stables par l’opéra-tion de récurrence, C n’est pas vide. C est appelé ensemble triadique de Cantor, et constitue l’exemplefondamental d’objet pour lequel la notion intuitive de dimension géométrique n’est d’aucune aide. En ef-fet, chaque objet de la suite (In)n est de dimension 1 (ce sont des unions de segments de droite). Ainsilimn→∞ dimH In = limn→∞ 1 = 1. Ce qui laisserait à penser que C est de dimension 1 (on notera néanmoinsque rien mathématiquement ne garantit que limn→∞ dimH In = dimH limn→∞ In). Mais comme on peutle deviner, comme seuls les points de bords sont stables par la récurrence, il ne devrait rester à la fin duprocessus qu’un ensemble discret de points. Ce qui laisserait à penser que C est de dimension 0 (on noteranéanmoins qu’aucun de ces points n’est isolé des autres : ∀x ∈ C, ∀r > 0, ([x − r, x + r] \ x) ∩ C 6= ∅, i.e.pour tout point x de C, il existe une suite de points de C différents x et qui converge vers x – on dit quetout point C est point d’accumulation de C –). Les ensembles qui satisfont à ce même genre de paradoxes(et qui en général sont construits d’une façon similaire à l’ensemble triadique de Cantor) sont appelés despoussières d’intervalles.Pour répondre à la question de la dimension de C, appliquons la définition de la dimension de Minkowski.

– Pour ℓ = 1 il suffit d’un cube pour couvrir C (car à la résolution ℓ = 1, C peut être remplacé par I0).N(1) = 1.

– Pour ℓ = 13 il faut deux cubes pour couvrir C (car si on ne regarde pas de distances plus courtes que

13 , C peut être approché par I1). N(1

3 ) = 2.– Pour ℓ = 1

3n , C est vu comme In à ce niveau de résolution, et comme In est constitué de 2n intervalles,N( 1

3n ) = 2n.Il vient donc

dimH C = − limℓ→0

lnN(ℓ)

ln ℓ

= − limn→∞

lnN( 13n )

ln 13n

= limn→∞

n ln 2

n ln 3

=ln 2

ln 3≃ 0.63

L’ensemble triadique de Cantor n’est donc ni de dimension 0, ni de dimension 1, mais de dimension non-entière entre les deux ! Cette dimension non-entière traduit le fait que C (ou toute autre poussière d’intervalle)n’est ni tout à fait un ensemble discret de points, ni tout à fait une ligne continue.

Page 31: Master Physique & Physique Numérique Physique Statistique

2.1. LA GÉOMÉTRIE FRACTALE 31

Le principe d’itération de Cantor peut être utilisé pour construire d’autres objets aux propriétés similaires.On introduit la règle de récurence suivante : Fn est un polygône équilatéral (tous les segments sont de mêmelongueur). On construit Fn+1 en retirant le tiers central de chaque côté de Fn, que l’on remplace par deuxségments dont la longueur est le tiers de la longueur des côtés de Fn, de sorte que ces côtés avec le segmentretiré forment un triangle équilatéral. Fn+1 est alors un polygône équilatéral dont les côtés sont tiers de ceuxde Fn. On initialise la récurence avec F0 un triangle équilatéral. Par construction F1 est une Étoile de David.On considère la courbe fermée K = limn→+∞ Fn, appelée flocon de Koch.

Itérations menant au flocon de Koch de F1 à F4.

Les sommets de K s’alignent en formant des ensembles triadiques de Cantor, K est une courbe continue duplan mais qui n’est dérivable en aucun de ses points (K est un polygône qui n’a que des sommets sans aucunearête). Cherchons la dimension du flocon de Koch en considérant une suite de cubes de côté ℓ = 1

3n (enprenant comme unité la longueur des côtés de F0). Il faut autant de cubes de côté 1

3n pour couvrir K que Fn

a de côtés. L’itération transforme un côté de Fn en 4 côtés de Fn+1. F0 ayant 3 côtés, on a N( 13n ) = 3× 4n.

Donc

dimH K = limn→+∞

ln 3 + n ln 4

n ln 3=

ln 4

ln 3≃ 1.26

Le flocon de Koch est donc intermédiaire entre une courbe simple et une surface, de tels objets sont appeléscourbes fractales.

On peut encore utiliser l’itération de Cantor pour construire d’autres types d’objets. Partant d’un carréque l’on divise en 9 carrés de tiers de côté, on retire le carré central. Puis on réitère l’opération en retirantles carrés centraux de chacun des 8 carrés restants, et ainsi de suite. L’objet obtenu est appelé tapis deSierpinski qui est de dimension de Hausdroff 1.89. Ce n’est pas tout à fait une courbe fractale mais plutôtune “poussière de surface”. Si l’on fait la même chose mais en évidant un cube, on obtient une éponge deMenger qui est de dimension de Hausdorff 2.73 (une “poussière de volume”).

Un tapis de Sierpinski et une éponge de Menger.

2.1.3 Généralités sur les fractales

Les objets de type poussières d’intervalle, courbes fractales, poussières de surface, etc, peuvent êtreregroupés sous l’appellation générique de structures fractales.

Proposition 2. Les principales propriétés des structures fractales sont les suivantes :• Autosimilitude : les structures fractales sont construites par une itération leur donnant la propriété

d’autosimilitude, i.e. une petite portion de la structure est à une homotétie près morphologiquementidentique à une grande portion de la structure. Autrement dit, si l’on fait un “zoom” sur un détail dela structure, on observera une image similaire à celle de la structure dans son entier.

• Émergence de structures : des structures fines et détaillées apparaîssent à toute échelle, aussi petitesoit elle.

Page 32: Master Physique & Physique Numérique Physique Statistique

32 CHAPITRE 2. THÉORIE DU CHAOS

• Topologie fractale : les structures fractales sont localement et globalement irrégulières de sorte quela géométrie usuelle (géométrie différentielle, géométrie euclidienne) est inefficiente pour les décrire(exemple : courbes continues et dérivables nulle part).

• Dimension non-entière : un objet de dimension de Hausdorff non-entière est une structure fractale(la réciproque est fausse).

Outre les objets construits à partir de l’itération de Cantor, les structures fractales les plus étudiées sontla courbe du dragon (dimension de Hausdorff 1.52), l’ensemble de Mandelbrot (dimension de Hausdorff 2),et l’ensemble de Julia (dimension de Hausdorff 2).

La courbe du dragon et l’ensemble de Julia.

L’ensemble de Mandelbrot et un zoom sur la vallée des hippocampes.

Les structures fractales se recontrent très souvent dans la nature. Ainsi les processus de croissance dendri-tique, que l’on rencontre dans la croissance de certains cristaux métalliques dans des précipités chimiques(arbre de Diane, arbre de Vénus, arbre de Mars,...) et en biologie (réseaux de neurones), aboutissent à desstructures que l’on peut rapprocher de la courbe de Julia (dimension de Hausdorff 1.2). La morphologie desfougères peut être décrite à partir d’une fractale appelée fougère de Barnsley. Enfin un chou-fleur est unestructure fractale de dimension de Hausdorff 2.33.

Une courbe de Julia, un arbre de Diane et des dendrites biologiques entre neurones.

Page 33: Master Physique & Physique Numérique Physique Statistique

2.2. THÉORIE DU CHAOS CLASSIQUE 33

La fougère de Barnsley (attracteur d’un système dynamique discret – IFS –), une feuille de fougère et unchou-fleur.

2.2 Théorie du chaos classique

Afin d’introduire le plus naturellement possible la notion de chaos, nous considérons un exemple simple.

2.2.1 L’attracteur fer à cheval

On considère un système dynamique non-linéaire discret en temps, d’espace de phase Γ = R2 et de flotΦpT,0 (p ∈ N). Nous allons définir le système directement par l’effet de son flot : pour toute région Ω ⊂ R2,ΦT,0(Ω) est la région obtenue en étirant Ω d’un facteur 2 dans la direction X1, en contractant d’un facteur3 dans la direction X2 et enfin en pliant le résultat de sorte à l’inscrire dans Ω. On voit immédiatement quele système est dissipatif, car les aires de l’espace de phase sont contractées d’un facteur 3

2 à chaque itération.Ainsi si on part d’un rectangle U0 = [0, a] × [0, b], U1 = ΦT,0([0, a] × [0, b]) forme une sorte de fer à cheval“⊃”. U2 = Φ2T,0(U0) = ΦT,0(U1) forme une sorte d’épingle coudée inscrite dans U1. Le système dynamiquediscret ainsi défini est qualifié de IFS (“Iterative Function System”) du fer à cheval.

Itérations menant à l’attracteur fer à cheval de U0 à U3.

On peut écrire que ΦT,0 = P D où D est l’opération de déformation (dilatation suivant X1 et contractionsuivant X2) et P est l’opération de pliage. La matrice Jacobienne du flot est donc

J(T, 0)ab =

c

∂Pa

∂Y c

∂Dc

∂Xb

Il est clair que D est une application linéaire de matrice représentante

∂D =

(

2 00 1

3

)

Par contre P n’est absolument pas linénaire mais

∂Pa

∂Y b

Y =0

= δab

Page 34: Master Physique & Physique Numérique Physique Statistique

34 CHAPITRE 2. THÉORIE DU CHAOS

car les points au voisinage de 0 (point singulier) ne sont pas affectés par le pliage. D’où la matrice Jacobiennedu flot du système linéarisé au voisinage de 0 :

J(T, 0) =

(

2 00 1

3

)

= exp

(

ln 2 00 − ln 3

)

Le système linéarisé a donc pour exposants de Lyapunov ln 2T > 0 et − ln 3

T < 0. L’un des exposants étantpositif, le système dynamique est instable. Néanmoins comme on l’a déjà indiqué, un système non-linéaireinstable n’est pas nécessairement caractérisé par le fait que les trajectoires de phase s’éloignent indéfinimentdu point singulier. Ici l’effet du processus non-linéaire P est de ramener systématiquement la trajectoire àl’intérieur de U0. De plus, il est clair que l’objet U = limp→+∞ ΦpT,0(U0) constitue l’attracteur du systèmedynamique. U est appelé attracteur fer à cheval, et est un attracteur étrange. La caractéristique morpho-logique principale de U est d’être une structure fractale. En effet les sections du fer à cheval en X1 = Cste

sont des ensembles triadiques de Cantor. dimH U = 1 + dim C = 1 + ln 2ln 3 ≃ 1.63.

La conséquence de l’instabilité dynamique est la suivante. Considérons une condition initiale X0 au voisinagede 0 et X(t) la trajectoire de phase issue de celle-ci. Supposons que l’on commette une petite erreur sur ladétermination de X0 (à cause des incertitudes expérimentales) : X0 = X0 + δX0. On cherche à prédire lecomportement du système en intégrant son équation de la dynamique, X(t). Contrairement aux systèmesstables pour lesquels ‖X(t) −X(t)‖ ≤ ‖δX0‖ (l’erreur reste du même ordre avec le temps), on a pour notresystème

(

X1(t)

X2(t)

)

≃(

X1(t)X2(t)

)

+

(

eln 2 tT δX1

e− ln 3 tT δX2

)

On a donc ‖X(t)−X(t)‖ ∼ eln 2 tT δX1, il y a amplification exponentielle de l’erreur avec le temps. Autrement

dit, notre prédiction ne sera valable que sur du court terme t ≪ Tln 2 , au delà on ne saura pas prédire

correctement la dynamique du système. On appelle cette propriété la sensibilité aux conditions initiales(SCI). C’est cette propriété que l’on prendra comme définition du chaos classique. On notera que le systèmefer à cheval présente à la fois la SCI (amplification des erreurs) et le caractère dissipatif (contraction desaires d’espace de phase).

2.2.2 Définition du chaos classique

Définition 10 (Système dynamique chaotique). On dira d’un système dynamique classique qu’il est chao-tique, si

• il présente la propriété de sensibilité aux conditions initiales (SCI), à savoir qu’il présente une ampli-fication temporelle des erreurs sur les conditions initiales,

• il présente la propriété de mélange topologique, à savoir ∀Ω,Ξ deux ouverts d’une région de SCI, ∃t > 0tel que Φt,0(Ω) ∩ Ξ 6= ∅.

La condition du mélange topologique assure simplement de l’existence d’un attracteur étrange, et permetd’éliminer les cas des systèmes dont les trajectoires de phase s’éloignent indéfiniment (qui présente formel-lement la SCI). Cette propriété tire son nom de son application au mélange des liquides.Il est important de faire une distinction entre indéterminisme et chaos. Les systèmes dynamiques chaotiquessont parfaitement déterministes : pour une condition initiale le système suit une et une seule trajectoire dephase, contrairement à la dynamique quantique où un processus aléatoire intrinsèque fait que le système suitune superposition d’une infinité de trajectoires. Le chaos ne se manifeste que par rapport à notre incapacité àdéterminer avec une précision infinie les conditions initiales. Ainsi on notera qu’il est théoriquement possiblede toujours améliorer la précision de la mesure des conditions initiales et donc d’augmenter la durée surlaquelle la prédiction est valable. À l’inverse, en mécanique quantique, il y a sur les conditions initiales uneprécision maximale impossible à dépasser du fait du principe d’incertitude de Heisenberg ∆x∆p ≥ ~

2 .

Les caractéristiques d’un système dynamique chaotique sont :• par définition il présente la SCI,• il possède un attracteur étrange (s’il est dissipatif), i.e. un attracteur de structure fractale,• il présente des orbites ergodiques (s’il est hamiltonien), i.e. des trajectoires qui visitent de façon com-

pliquée tout l’espace de phase accessible,• il présente à la fois des exposants de Lyapunov négatifs et positifs,

Page 35: Master Physique & Physique Numérique Physique Statistique

2.2. THÉORIE DU CHAOS CLASSIQUE 35

• il présente un degré minimum de complexité : il est non-linéaire, au moins de dimension de 3 pour unedynamique continue autonome.

Un système dynamique chaotique n’est prédictible que sur des temps courts t ≪ 1maxi ℜe(λi)

( 1maxi ℜe(λi)

estappelé “horizon de Lyapunov”).

Définition 11 (Dimension locale de Lyapunov). Soit un système dynamique classique d’exposants de Lya-punov ℜe(λ1) > ℜe(λ2) > ... > ℜe(λn) pour sa linéarisation (ou sa dynamique stroboscopique) au voisinagede X0 un point singulier (ou d’un point sur le cycle). Soit

n∗ = minp ∈ 0, ..., n− 1|ℜe(λ1) + ℜe(λ2) + ...+ ℜe(λp+1) ≤ 0

On appelle dimension locale de Lyapunov au voisinage de X0 de l’attracteur Ω du système

dimL Ω = n∗ +ℜe(λ1) + ...+ ℜe(λn∗)

|ℜe(λn∗+1)|

En général, la dimension locale de Lyapunov coïcinde avec la dimension de Hausdorff, néanmoins il existedes cas où elle surestime celle-ci. Il est clair que si tous les exposants de Lyapunov sont négatifs alors n∗ = 0et la dimension locale de Lyapunov est nulle en accord avec l’existence d’un point fixe. S’il y a n0 coefficientsde Lyapunov nuls (et pas de positifs) alors n∗ = n0 et la dimension de Lyapunov sera n0 en accord avecl’existence d’un cycle ou d’un tore limite. Enfin si

∑np=1 |ℜe(λp)| ≥ 0, il n’y a pas de dimension locale de

Lyapunov, en accord avec l’absence d’attracteur (les trajectoires s’éloignent indéfiniment). Pour le systèmefer à cheval, dimL U = dimH U.

Les systèmes dynamiques chaotiques sont par définition linéairement instables, l’existence des attrac-teurs étranges est due aux effets non-linéaires qui viennent restabiliser le système. Cela suppose que l’effetd’attraction soit plus fort que l’effet d’instabilité (au moins un exposant de Lyapunov doit être positif maisla somme de tous les exposants de Lyapunov est négative). C’est ce que l’on retrouve dans l’IFS du fer àcheval, la dilatation dans la direction X1 est moins forte que la contraction dans la direction X2. Il existenéanmoins des cas où la somme des exposants de Lyapunov est nulle alors que le système présente des orbiteschaotiques. On parle alors de chaos conservatif ou chaos Hamiltonien.Attention : le critère sur les exposants de Lyapunov est une condition nécessaire mais pas suffisante au régimechaotique. Il existe trois critères donnant des conditions suffisantes (mais non nécessaires) pour l’existenced’un régime chaotique :

• le critère de Chirikov : il concerne uniquement les systèmes pouvant être modélisés comme un oscillateurperturbé par des forces périodiques. Le critère fait intervenir les recouvrements de résonances.

• le critère de Shilnikov (ou Ši’lnikov) : il concerne uniquement les systèmes à 3 dimensions autonomesà temps continu. Outre un critère supplémentaire sur les exposants de Lyapunov, il fait intervenirl’existence d’une orbite homocline (orbite qui aboutit à un point singulier pour t → ±∞) ou d’uneorbite hétérocline (sur une portion l’orbite aboutit vers un point singulier X1 en t → +∞ et un pointsingulier X2 en t → −∞ ; sur l’autre portion elle aboutit à X1 en t→ −∞ et en X2 en t→ +∞).

• le critère de Li-York : il concerne uniquement les flots logistiques (systèmes à une dimension à tempsdiscret, i.e. des suites numériques). Il fait intervenir l’existence de point cyclique de période 3.

Au delà de ces critères, rien ne peut assurer de la présence d’un régime chaotique.

Nous n’avons pas abordée ici la définition générale des exposants de Lyapunov pour les systèmes non-autonomes et non-périodiques.

2.2.3 Exemple : la convection de Rayleigh-Bénard

La mécanique des fluides offre une grande diversité de phénomènes chaotiques (turbulences aérodyna-miques, instabilités d’écoulements et tourbillons, mélange chaotique de liquides,...). Nous nous intéressonsici à la modélisation de la convection, c’est à dire aux mouvements engendrés dans un fluide par des diffé-rences de température dans celui-ci. Cette question est d’une importance capitale en météorologie puisqueles mouvements des masses d’air atmosphèrique sont essentiellement dus à des phénomènes de convection(et d’échanges thermiques avec les masses océaniques). En toute rigueure, ce problème nécessite de traiterdes équations de Navier-Stokes couplées entre elles et avec des équations de diffusion thermique. Il existenéanmoins un modèle simple qui reproduit le comportement de la convection dite de Rayleigh-Bénard (où le

Page 36: Master Physique & Physique Numérique Physique Statistique

36 CHAPITRE 2. THÉORIE DU CHAOS

fluide est supposé Newtonien 1 et incompressible). Les écoulements se font sous forme de cellules de Bénard,sortes de mouvements circulaires entre zones chaudes basses et froides hautes, le fluide chaud moins denseayant tendance à s’élever et le froids plus dense à s’enfoncer.

Représentation schématique des cellules de Bénard d’un mouvement de convection.

Le modèle simple en question porte le nom de système dynamique de Lorenz, il s’agit d’un systèmedynamique d’espace de phase Γ = R3. Les trois variables de l’espace de phase sont x proportionnelle àl’amplitude du champ des vitesses dans le fluide, y proportionnelle à l’écart de température entre les courantsascendants et descendants ; et z proportionnelle à l’écart entre le profil de température vertical et un profillinéaire. (x, y, z) sont des variables adimensionnées. L’équation du système est alors

x

y

z

=

Pr(y − x)−xz +Rx− y

xy − bz

où– Pr = ν

D est le nombre de Prandtl du fluide : ν étant la viscosité dynamique du fluide et D le coefficientde diffusion thermique du fluide. Pr compare la rapidité des phénomènes thermiques avec celle desphénomènes hydrodynamiques dans le fluide.

– R = gβνD

∆TL3c

R0est le nombre de Rayleigh réduit du fluide : g est l’accélération de la pesanteur, β =

1V

(

∂V∂T

)

Pest le coefficient de dilatation thermique, ∆T est l’écart de températures dans le fluide entre

la surface et un point au centre dans une zone de “quiétude”, Lc est l’épaisseur du fluide, et R0 est unevaleur critique telle que pour R > 1 le transfert thermique se fait essentiellement par convection alorsque pour R < 1 le transfers thermique se fait essentiellement par conduction. R caractérise le mode detransfert de chaleur dans le fluide.

– b = 4π2

π2+q2 où q est le vecteur d’onde convectif.Les points singuliers du système sont solutions de

x = y

z = x2

b

x(R − 1) − x3

b = 0

Ce qui aboutit à trois points singuliers si R > 1

X0 =

000

X± =

±√

b(R− 1)

±√

b(R− 1)R− 1

Pour R ≤ 1, X0 est le seul point singulier. Les linéarisations du système sont

∂FX0=

−Pr Pr 0R −1 00 0 −b

∂FX±=

−Pr Pr 0

1 −1 ∓√

b(R− 1)

±√

b(R− 1) ±√

b(R− 1) −b

On fixe deux des paramètres physiques : Pr = 10 et b = 83 , pour étudier les exposants de Lyapunov en

fonction de R.

1. le tenseur de visquosité est une fonction linéaire du tenseur des déformations

Page 37: Master Physique & Physique Numérique Physique Statistique

2.2. THÉORIE DU CHAOS CLASSIQUE 37

(-sqrt(40*R+81)-11)/2(sqrt(40*R+81)-11)/2-8/3

4 8 12 16 20 24 28

-20

-10

0

10

R

4 8 12 16 20 24 28

-1.2

-1

-0.8

-0.6

-0.4

-0.2

0

R

fun1fun2

4 8 12 16 20 24 28

-12

-10

-8

-6

-4

-2

0

R

Exposants de Lyapunov du système de Lorenz en fonction de R pour Pr = 10 et b = 83 : à gauche les

exposants de Lyapunov pour X0, au milieu un exposant de Lyapunov pour X+ et à droite les deux autresexposants pour X+ (la discontinuité est dues à un changement de feuillet de Riemann dans le calcul des

racines carrées complexes). Les exposants de Lyapunov de X− sont identiques à ceux de X+.

• Pour R ≤ 1 : X0 est stable ce qui correspond au point fixe du régime où il n’y a pas de convectionmais seulement conduction thermique.

• Pour 1 < R < 24.74 : X0 devient instable alors que X± sont stables. Les deux points fixent corres-pondent à une convection en rouleaux (il y a deux points fixes, un par sens de rotation possible desrouleaux convectifs).

• Pour 24.74 < R ≤ 30 : X± deviennent instables, on a un attracteur étrange et la convection estchaotique.

25 26 27 28 29

2.005

2.01

2.015

2.02

R

La dimension locale de Lyapunov de l’attracteur de Lorenz (Pr = 10 et b = 83) se trouve entre 2 et 2.025.

Page 38: Master Physique & Physique Numérique Physique Statistique

38 CHAPITRE 2. THÉORIE DU CHAOS

En haut : deux trajectoires de phase du système de Lorenz pour R = 13 et R = 21 (Pr = 10 et b = 83). En

bas : deux trajectoires de phase du système de Lorenz pour R = 25 et R = 29 (Pr = 10 et b = 83), les

couleurs indiquent la vitesse de parcours. Les trajectoires de phase dans les cas R = 25 et R = 29 suiventl’attracteur étrange de Lorenz. L’angle de vue est le même sur les quatre figures.

Les régimes chaotiques de la convection et la SCI qui en résulte induit l’imprédictabilité à plus ou moinslongs termes des phénomènes météorologiques. La SCI a été décrite par Lorenz par la phrase “un battementd’ailes de papillon peut déclencher un ouragan à l’autre bout du monde”. L’interprétation correcte de laphrase de Lorenz est : La simple approximation consistant à ne pas tenir compte du mouvement d’airproduit par le battement d’ailes d’un papillon, peut induire que la prédiction à longs termes des mouvementsatmosphériques risque d’être fausse au point de manquer des phénomènes aussi vastes qu’un ouragan. Laphrase de Lorenz est donc à comprendre au sens faible de la SCI et non pas au sens fort d’une relationdirecte de cause à effet entre le battement d’ailes et l’ouragan. Dans le grand public (où la phrase de Lorenzest malencontreusement souvent interprétée au sens fort), le chaos est souvent qualifié d’effet papillon. Lechoix du papillon dans l’image est bien entendu une référence à la morphologie de l’attracteur de Lorenz.

2.2.4 Exemple : le pendule double

Un pendule double consiste en une tige rigide massive libre de tourner dans un plan autour d’un pointd’ancrage O, et d’une seconde tige rigide massive dont l’une des extrémités est ancrée au bout de la première.La seconde tige est libre de tourner autour de son point d’ancrage, dans le même plan que la première. Onsupposera ici que les deux tiges sont identiques, de longueur ℓ, de masse m répartie de façon homogène (etdonc de moment d’inertie I = 1

12mℓ2). La mise en équation du problème est assez délicate, mais en utilisant

Page 39: Master Physique & Physique Numérique Physique Statistique

2.2. THÉORIE DU CHAOS CLASSIQUE 39

le Langrangien du système, on est amené au système dynamique suivant :

θ1θ2p1

p2

=

6mℓ2

2p1−3 cos(θ1−θ2)p2

16−9 cos2(θ1−θ2)6

mℓ28p2−3 cos(θ1−θ2)p1

16−9 cos2(θ1−θ2)

−mℓ2

2

(

θ1θ2 sin(θ1 − θ2) + 3 gℓ sin θ1

)

−mℓ2

2

(

−θ1θ2 sin(θ1 − θ2) + gℓ sin θ2

)

On peut montrer que le système est chaotique. Cet exemple est intéressant dans le fait qu’il montre queles propriétés fractales de l’attracteur peuvent se retrouver dans d’autres propriétés. Ainsi si on trace dansl’espace des conditions initiales (θ1, θ2) (sans impulsions initiales) le temps nécessaire à ce que le pendulese trouve pour la première fois inversé (extrémité du second pendule plus haute que le point d’ancrage dupremier), on retrouve une structure fractale. Cette structure est aussi caractéristique de la SCI.

Trajectoire de l’extrémité du pendule double au cours du temps et durée pour laquelle le pendule se retrouve

inversé dans le plan des conditions initiales (θ1, θ2) (vert ∼ 10√

ℓg , rouge ∼ 102

ℓg , pourpre ∼ 103

ℓg ,

bleu ∼ 104√

ℓg ).

L’attracteur du système est assez difficile à calculer, mais il présente la morphologie typique des attracteursétranges de systèmes à non-linéarités trigonométriques. L’exemple ci-dessus représente une trajectoire de

phase le long d’un tel attracteur en dimension 3 (les couleurs représentent la vitesse de parcours).

2.2.5 Contre-exemple : pseudo-chaos engendré par la méthode d’Euler

Une difficulté avec les simulations numériques est que la discrétisation du temps transforme des systèmesà temps continu en systèmes à temps discret. Or avec un pas de temps trop grand et une méthode numérique

Page 40: Master Physique & Physique Numérique Physique Statistique

40 CHAPITRE 2. THÉORIE DU CHAOS

mal adaptée, on peut faire apparaître un régime chaotique qui n’existe en réalité pas. C’est particulièrementle cas si on utilise la méthode d’Euler. Il est bon de connaître la morphologie de l’attracteur étrange quisurgit comme un artefact en utilisant la méthode d’Euler, car il ne faut pas voir du chaos là où il n’y en apas.

Ces attracteurs étranges ont été obtenus pour des systèmes autonomes à temps continus à 3 degrés deliberté. Il sont dans un plan, ce qui est normalement impossible puisqu’il n’y a pas de système autonome à2 dimensions à temps continu qui soit chaotique. Mais la discrétisation de l’algorithme d’Euler en fait unsystème à temps discret. Or il est possible qu’un système autonome à 2 dimensions à temps discret soit

chaotique. Dans l’exemple de gauche, le système est en réalité totalement instable (même si la signature desexposants de Lyapunov est (1, 1, 1)), ce que montre l’intégration par une méthode de Runge-Kutta (ou laréduction du pas temporel de la méthode d’Euler). Pire encore, dans l’exemple de droite, le système est enréalité asymptotiquement stable, il présente trois exposants de Lyapunov négatifs, son véritable attracteur

est un point fixe !

2.2.6 Outils d’analyse du chaos

La seule façon de mettre en évidence le chaos (si les quelques critères connus – Chirikov, Shilnikov etLi-York – ne sont pas applicables) est visuelle. Il faut tracer l’attracteur. Ceci peut présenter de nombreusesdifficultées liées à la vue en perspective ou en projection, sans parler des cas où l’espace de phase est dedimension supérieure à 3. Il est donc nécessaire de faire appel à des outils qui vont faciliter l’analyse :

• Les sections de Poincaré et l’application de premier retour : L’idée est de se donner un planS dans l’espace de phase Γ, et de tracer l’intersection du flot avec S : Φt,0(X0)t≥0 ∩ S. On obtientainsi une suite de points (xk)k∈N dans S qui constituent la section de Poincaré du flot. Cette suite estelle-même un système dynamique : xk+1 = ΦS

k (xk). Le flot ΦSk est appelée application de premier de

retour. L’intérêt de la méthode des sections de Poincaré est qu’elle permet de passer d’un flot à tempscontinu dans un espace de phase à n dimensions, à un flot à temps discret dans un espace de phaseà 2 dimensions. De plus les propriétés topologiques du flot sont conservées (nature Hamiltonienne oudissipative, stable ou chaotique, etc) modulo les pertes d’information dues à la section. On notera quela discrétisation temporelle induite par la section n’a aucune raison d’être à pas constant. L’analyse duflot Φt,0 est alors remplacée par celle de l’application de premier retour ΦS

k , toute la difficultée étant debien choisir le plan de section S, pour que le résultat soit significatif et pour que l’on puisse construiresimplement ΦS

k . De plus, numériquement, il y a la difficulté supplémentaire de ne pas “louper” despassages par S du flot continu. Dans certains cas bien particuliers, on peut même réduire le flot à unproblème 1D (un flot logistique cf. chapitre suivant). C’est le cas par exemple si la section de Poincarécorrespond au passage d’une variable par ses extrema (X i = 0, ce qui suppose que F i(X) = 0 soitl’équation d’un plan). Dans ce cas on peut étudier la suite logistique X i

k+1 = f(X ik) (avec X i

k la i-èmecoordonnée du k-ième point de la section de Poincaré).

• Espace de phase d’une unique observable : Dans de nombreux cas, on ne dispose pas des valeursde X(t) mais seulement des valeurs d’une observable O(X(t)) (O : Γ → R) qui “mélange” toutes lescoordonnées en une unique valeur numérique. C’est en particulier souvent le cas dans les situationsexpérimentales où on ne peut que mesurer O. Dans ce cas, on peut étudier le système dynamique 3Dconstitué par (O, O, O) en faisant comme si c’étaient trois variables indépendantes. La figure que l’onpourrait obtenir n’aura certe rien à voir avec celle dans le véritable espace de phase, mais on peutespérer (si O est bien choisie) qu’elle conserve les propriétés topologiques d’origine.

Page 41: Master Physique & Physique Numérique Physique Statistique

2.2. THÉORIE DU CHAOS CLASSIQUE 41

• Le spectre de puissance et la fonction d’autocorrélation : Le specre de puissance (ou densitéspectrale d’énergie) d’un signal f(t) est la fonction ν 7→ |TF [f ](ν)|2 (TF est pour la transforméede Fourier). |TF [f ](ν)|2 mesure le “poids” de la fréquence ν dans la décomposition du signal f(t) ensuperposition de signaux élémentaires (eı2πνt). Dans le cas d’un système dynamique, le signal f pourraêtre une des variables X i(t) de l’espace de phase, ou une observable O(X(t)). Un signal périodique ouquasipériodique (signe d’un attracteur en cycle ou tore limite) sera caractérisé par des pics isolés dansle spectre de puissance (pics correspondant à la fréquence fondamentale et aux différentes fréquences debattement présentes dans le signal). Un système chaotique présentera des signaux avec des oscillationsirrégulières. Ce qui caractérise les oscillations chaotiques sera la présence de bandes larges “continues”dans le spectre. Le système peut “passer continûment” d’une fréquence à l’autre dans la bande. Ellescaractérisent donc une certaine perte d’information sur l’état initial due à le sensibilité aux conditionsinitiales. Il faudra néanmoins différencier cela d’un fond continu (bande continue qui s’étend sur toutou presque tout le spectre) qui caractérise plutôt un bruit blanc, c’est à dire des fluctuations totalementaléatoires caractérisant une perte totale d’information à très court terme.De manière équivalente, on pourrait étudier la TF inverse du spectre de puissance, TF−1[|TF [f ]|2](t) =∫ +∞−∞ f(t− τ)f(τ)dτ = Rf (t) qui est la fonction d’autocorrélation de f . On rappelle que la fonction

d’autocorrélation Rf (t) en t, mesure la ressemblance du signal f avec lui-même décalé dans le tempsd’une valeur de t. Pour un signal quasipériodique (signe d’un attracteur en tore limite), on s’attend doncà une fonction d’autocorrélation présentant des oscillations régulières avec de larges ventres centrés surles différentes périodes présentes dans le signal et leurs harmoniques. Pour un signal chaotique, ons’attend à une fonction d’autocorrélation présentant de fins petits pics (en sinus cardinal) formant unefigure d’oscillations irrégulières. Cette autocorrélation est caractéristique de la propriété de mélangetopologique (on a des petits pics d’autocorrélation car sur l’attracteur étrange qui ergodique si lesystème passe par un point, il repassera dans le voisinage de celui-ci, mais de manière irrégulière etnon-périodique). Pour un bruit blanc, on s’attend à un unique pic extrêmement fin en 0 (le signaldécalé ne se ressemble jamais).

-20 -10 10 20

15

20

25

30

35

40

45

0 2000 4000 6000 8000 10 0000

200

400

600

800

1000

-10 -5 5 10

-0.1

0.1

0.2

0.3

0.4

0.5

L’attracteur de Lorenz (en haut à gauche) ; sa section de Poincaré dans le plan d’équation x = y quicorrespond au passage de x(t) par ses extrema (en haut à droite) ; le spectre de puissance de t 7→ x(t)

calculé par transformée de Fourier discrète (en bas à gauche) ; et la fonction d’autocorrélation de t 7→ x(t)(en bas à droite).

2.2.7 Chaos et entropie

La sensibilité aux conditions initiales peut être interprétée comme une perte d’information sur l’étatinitial, puisqu’une mesure du système à un instant t, ne permettra pas de retrouver qu’elle était son état àun instant t0 < t si t− t0 est supérieur à l’horizon de Lyapunov. On peut donc vouloir mesurer cette perted’information. Dans le même temps, si on considère un ensemble de copies d’un même système dynamique

Page 42: Master Physique & Physique Numérique Physique Statistique

42 CHAPITRE 2. THÉORIE DU CHAOS

initialement dans un état très proche, la sensibilité aux conditions initiales va “disperser” les copies dansl’espace de phase, et ainsi faire augmenter le désordre de l’ensemble. Le chaos peut donc être lié à la physiquestatistique de l’ensemble.On considère χ une partition de l’espace de phase Γ (χ est un ensemble de cellules qui recouvrent Γ etdont les intersections sont soit vides, soit sont des bords dans Γ – un bord est une hypersurface, dimensiondimΓ− 1 –). Les cellules de χ sont appelées micro-états classiques. Soient N copies du système dynamiques(avec N grand) et X i

0i=1,...,N les N conditions initiales. On appelle dispersion initiale, la quantité

d0 = maxi,j

‖X i0 −X

j0‖

La mesure du désordre dans les copies du système, ou ce qui est équivalent, la mesure du manque d’infor-mation sur un système que l’on choisierait au hasard parmi les copies, est donnée par l’entropie de Shanon :

S(t) = −∑

σ∈χ

pσ(t) ln pσ(t)

où pσ(t) est la proportion de copies du système qui se trouvent dans le micro-état σ à la date t :

pσ(t) =card i tels que Φt,0(X

i0) ∈ σ

N

Supposons pour simplifier que la “taille” d2 des micro-états classiques est la même d’un micro-état à l’autre(d2 = supX,Y ∈σ ‖X−Y ‖). Si d0 < d2, toutes les copies peuvent être dans le même micro-état σ0. On a alorspσ0

(0) = 1 et pσ 6=σ0(0) = 0, et S(0) = 0 (il ne manque pas d’information puisque on connaît le micro-état

occupé par une copie prise au hasard). La dispersion au cours du temps, va être donnée dans l’approximationlinéaire par :

dt = maxi,j

‖Φt,0(Xi0) − Φt,0(X

j0)‖

≤ eℜeλ+td0

où λ+ est l’exposant de Lyapunov de plus grande partie réelle. Si ℜeλ+ ≤ 0, la dispersion ne devient jamaisplus grande que les micro-états et toutes les copies peuvent toujours être incluses dans un seul micro-état,S(t) reste donc nulle (en toute rigueure, la distribution des copies dans Γ peut transitoirement être à chevalsur deux micro-états, induisant des fluctuations minimes de S(t)). Mais si ℜeλ+ > 0 (système chaotique), ilexiste un temps t∗ tel que

∀t ≥ t∗, dt ≥ d2 ⇐⇒ t∗ =ln d2 − ln d0

ℜeλ+

Au délà de t∗ la distribution des copies sur Γ implique nécessairement plusieurs micro-états. S(t) est donccroissante à partir de t∗ qui constitue l’horizon de prédictabilité du système. Si on part d’une distributionplus large que la taille d’un micro-état, on aura une entropie non-nulle au départ, mais qui ne commenceraà croître que pour t ≥ t∗.Il reste à mesurer à quelle vitesse croît l’entropie. Pour se faire, on doit considérer un système dynamiquediscret (s’il est à temps continu, on doit donc soit considérer une partition du temps, soit une section dePoincaré du système). On supposera aussi que l’espace de phase accessible Γacc est d’hypervolume fini (ce serale cas avec un attracteur étrange). Supposons qu’à un pas donné, on sache que le système se trouve dans lemicro-état σ ∈ χ. Au pas précédent, le système se trouve dans Φ−1(σ). Mais Φ−1(σ) n’est pas nécessairementun élément de χ, il peut être à cheval sur plusieurs. Ainsi on a une incertitude sur le micro-état occupé aupas précédent. On peut lever celle-ci, en remplaçant la partition par Φ−1(χ), mais cette fois c’est σ qui seraà cheval sur plusieurs cellules. On voit donc que pour décrire sans ambiguité les deux pas, on doit raffiner lapartition par χ1 = Φ−1(χ)∨χ = Φ−1(σ)∩ τ ;σ, τ ∈ χ, en considérant les cellules obtenues par intersectiondes cellules de χ et de Φ−1(χ). La variation d’entropie induite par un pas du système dynamique est donc

∆S1 = −∑

σ∈χ1

µ(σ) lnµ(σ) +∑

σ∈χ

µ(σ) lnµ(σ)

où µ(σ) = Vol(σ)Vol(Γacc)

. Si on remonte à deux pas, on doit encore raffiner la partition par χ2 = Φ−1(χ1) ∨ χ1

avec un gain moyen d’entropie par pas de :

∆S2 =−∑

σ∈χ2µ(σ) lnµ(σ) +

σ∈χ µ(σ) lnµ(σ)

2

Page 43: Master Physique & Physique Numérique Physique Statistique

2.3. RÉSUMÉ SUR LA STABILITÉ DES SYSTÈMES DYNAMIQUES 43

De manière générale, sur n pas on a

∆Sn =−∑

σ∈χnµ(σ) lnµ(σ) +

σ∈χ µ(σ) lnµ(σ)

n

avec χn = Φ−1(χn−1) ∨ χn−1. L’entropie moyenne gagnée par pas sera donc

limn→+∞

∆Sn = − limn→+∞

1

n

σ∈χn

µ(σ) lnµ(σ)

Cette valeur ne dépend pas que de Φ mais aussi du choix de la partition initiale χ. Si elle est mal choisie,on peut sous-estimer l’entropie gagnée (on peut par exemple imaginer une partition définie par un réseauxde points formant des cellules carrés, si une cellule est choisie avec des sommets qui sont tous des pointscycliques – points qui reviennent sur eux-même après un nombre fini d’itérations – celle-ci reviendra surelle-même ralentissant accidentellement la croissance de l’entropie). Le gain moyen d’entropie par pas doitdonc être défini comme

hΦ = supχ

limn→+∞

−1

n

σ∈χn

µ(σ) lnµ(σ)

hΦ est appelée entropie de Kolmogorov-Sinaï ou entropie métrique du flot Φ. Dans le cas d’un systèmeconservatif, on a le résultat suivant :

Théorème 5 (Théorème de Pesin). Si µ est la mesure microcanonique (i.e. µ(σ) = Vol(σ)Vol(Γacc)

) et si Φ est unflot conservatif alors

hΦ =∑

i

mi max(ℜeλi, 0)

où (ℜeλi)i sont les exposants de Lyapunov de Φ et mi est la multiplicité algébrique de λi.

En physique statistique, µ doit être remplacée par la mesure de probabilité sur Γacc : µ(σ) =∫

σρdτ (où

ρ ∈ L1(Γacc, dτ) est la densité de probabilité de la distribution d’états). Mais dans ce cas général, il peutêtre relativement difficile d’évaluer hΦ (la somme des exposants de Lyapunov positifs n’est alors plus qu’uneborne supérieure de la valeur de l’entropie de Kolmogorov-Sinaï si Φ préserve la mesure – µ(Φ(Ω)) = µ(Ω)∀Ω ⊂ Γacc –).

2.3 Résumé sur la stabilité des systèmes dynamiques

Pour un système dynamique classique discret ou continu autonome, les situations possibles au voisinaged’un point singulier (point d’équilibre) sont les suivantes :

• Si tous les exposants de Lyapunov sont strictement négatifs :=⇒ alors le système est asymptotiquement stable ; les trajectoires convergent vers le point d’équilibre.

• Si les exposants de Lyapunov sont négatifs ou nuls : Si les effets non-linéaires ne sont pas significatifs :

=⇒ alors le système est simplement stable ; les trajectoires tournent autour du point d’équilibre enformant un cycle ou un tore.

Si les effets non-linéaires sont significatifs (phénomène de résonance) :=⇒ alors le système est métastable (linéairement stable mais déstabilisé par les non-linéarités) ; lestrajectoires restent à court terme dans le voisinage du point d’équilibre, mais partent vers l’infini àlong terme.

• S’il y a un exposant de Lyapunov positif mais que la somme des exposants est négative ou nulle : Si les effets non-linéaires ne sont pas significatifs :

=⇒ alors le système est instable ; les trajectoires partent vers l’infini. Si les effets non-linéaires sont significatifs :

=⇒ alors le système est chaotique (linéairement instable mais stabilisé par les non-linéarités) ; lestrajectoires restent dans le voisinage du point d’équilibre en formant une structure fractale (unattracteur étrange) ou visitent de façon compliquée tout l’espace de phase accessible (trajectoiresergodiques – cas hamiltonien, i.e. somme des exposants nulle) ; le système présente une sensibilitéaux conditions initiales (il est imprédictible à long terme, i.e. au delà de l’horizon de Lyapunov).

Page 44: Master Physique & Physique Numérique Physique Statistique

44 CHAPITRE 2. THÉORIE DU CHAOS

• Si la somme des exposants de Lyapunov est strictement positive :=⇒ le système est instable ; les trajectoires partent vers l’infini.

Pour un système dynamique classique continu périodique, le comportement est exactement le même queprécédemment mais en remplaçant le point d’équilibre par un cycle limite.

Page 45: Master Physique & Physique Numérique Physique Statistique

Chapitre 3

Systèmes Dynamiques Paramétriques :

théorie des bifurcations

Les systèmes dynamiques paramétriques sont des systèmes qui dépendent de paramètres externes R,appelés paramètres de contrôle, appartenant à un espace M indépendant de l’espace de phase ou de l’espacede Hilbert, et sur lesquels un expérimentateur est censé pouvoir agir.

X = FR(t,X(t))

En modifiant continûment les paramètres de contrôle, on déforme le système dynamique. Avec les systèmesparamètriques deux types d’études peuvent être menées :

• L’étude des bifurcations : il s’agit d’étudier les changements de comportement du système dyna-mique lorsqu’on change ses paramètres (par exemple les transitions d’un système stable vers un systèmechaotique).

• L’étude du contrôle adiabatique : il s’agit de faire varier très lentement dans le temps les paramètresde contrôle.

X = FR(t)(t,X(t))

Du fait de la variation lente des paramètres de contrôle, on peut penser que le système passe parune succession de régimes dynamiques à R fixé. Il s’agit alors de trouver quelle variation R(t) doit onimposer au système pour qu’il évolue vers un état donné prédéterminé.

Dans ce cours, on abordera la notion de bifurcation pour les systèmes dynamiques classiques. Par définition,les matrices sur lesquelles vont reposer l’analyse spectrale, seront dépendantes des paramètresR. Nous devonsdonc au préalable introduire quelque compléments mathématiques sur les matrices paramètriques.

3.1 Compléments mathématiques : les matrices paramétriques

3.1.1 Éléments de la théorie d’Arnold

Une matrice paramétrique est une application (que l’on supposera continue dans le cadre de ce cours)M → Mn×n(C) où M est un espace de paramètres continus et infiniment dérivables (une variété différentielledans le language mathématique) qui inclue 0 où elle est supposée holomorphe. Il s’agit donc d’une matricedont les éléments sont des fonctions continues de R holomorphes en 0 (elles peuvent s’écrirent comme desséries infinies de puissances de R convergeantes au voisinage de 0). On peut voir les matrices paramétriquesA(R) comme des déformations de la matrice A0 = A(R = 0).

Définition 12 (Déformation isospectrale). On dit que A(R) est une déformation isospectrale de A0 si ilexiste g(R) ∈ GLn(C) (matrice inversible d’ordre n) telle que

A(R) = g(R)−1A0g(R) g(0) = 1

Il est clair que pour une déformation isospectrale Sp(A(R)) = Sp(A0) et il ne se passe donc pas grandchose.

45

Page 46: Master Physique & Physique Numérique Physique Statistique

46 CHAPITRE 3. SYSTÈMES DYNAMIQUES PARAMÉTRIQUES : THÉORIE DES BIFURCATIONS

Définition 13 (Déformations équivalentes). On dit que A(R) et A′(R) sont deux déformations équivalentesde A0 = A(R = 0) = A′(R = 0) si il existe g(R) ∈ GLn(C) telle que

A′(R) = g(R)−1A(R)g(R) g(0) = 1

La transformation A(R) → g(R)−1A(R)g(R) est appelée changement de jauge.

Considérons ϕ : M → M une transformation continue interne à M laissant invariant 0 et holomorpheen 0 (on appellera ϕ reparamétrisation). On note

(ϕ∗A)(R) = A(ϕ(R))

la déformation induite par A(R) via la reparamétrisation ϕ.

Définition 14 (Déformation verselle). Une déformation A(R) de A0 est dite verselle si quelque soit A′(R)une autre déformation de A0, il existe ϕ : M → M et g(R) ∈ GLn(C) telles que

A′(R) = g−1(R)A(ϕ(R))g(R) ϕ(0) = 0, g(0) = 1

Toute déformation de A0 est donc à un changement de jauge près induite par une déformation verselle.Les propriétés d’une déformation verselle induiront donc les propriétés de toute autre déformation.

Définition 15 (Déformation universelle). Un déformation verselle A(R) de A0 est dite universelle si lareparamétrisation ϕ est déterminée de façon unique par A′(R).

La déformation universelle est unique.

Exemples (avec R = (z1, z2, ...), zi ∈ C) :(

z1 z2z3 z4

)

est une déformation verselle mais non universelle.(

z1 z2 + 10 z3

)

n’est pas une déformation verselle.(

z1 + 1 00 z2

)

est la déformation universelle.

L’étude de l’ensemble des déformations de A0 sur M pourra être aisément remplacée par l’étude d’une (oude la) déformation (uni)verselle et des reparamétrisations ϕ.

On notera que la définition de la versalité peut être reformulée de manière différentielle :

∂A′

∂Rµ

R=0

=∂A

∂Rν

ϕ(R)

∂ϕν

∂Rµ

R=0

+

[

∂C

∂Rµ

R=0

, A0

]

Théorème 6 (Théorème d’Arnold). Toute matrice A0 a au moins une application verselle dont le nombrede paramètres complexes est égale à

d =

p∑

a=1

ba∑

i=1

(2i− 1)nai

où p est le nombre de valeurs propres distinctes de A0, ba est le nombre de blocs de Jordan de la a-ièmevaleur propre et na

i est le rang du i-ème bloc de Jordan de la a-ième valeur propre, les blocs de Jordan étantnumérotés de sorte que na

1 ≥ na2 ≥ ... ≥ na

ba. Aucune application verselle de moins de paramètres n’existe.

On appellera d le nombre d’Arnold de A0.

Pour des matrices paramétrées par des paramètres de contrôle réels, les applications verselles ont aumoins 2d paramètres réels.

Définition 16 (Déformation miniverselle). Une déformation verselle A(R) de A0 est dite miniverselle si sonnombre de paramètres est égale au nombre d’Arnold de A0. Autrement dit si c’est une déformation verselleà nombre minimal de paramètres parmi toutes les applications verselles.

On dira d’une déformation A(R) de A0 qu’elle est sous-paramétrée si 1 dimR M < 2d (d nombre d’Arnoldde A0). Concrètement il “manquera des propriétés” à A(R) et il sera souhaitable de prolonger la déformationen une déformation ayant plus de paramètres. On dira d’une déformation A(R) de A0 qu’elle est sur-paramétrée si dimR M > 2d. Concrètement on pourra restreindre la déformation à une certaine sous-variétéde M de dimension 2d, sans “perdre de propriétés”.

1. dimR est la dimension réelle, dimR R = 1 et dimR C = 2. Un paramètre complexe compte pour deux en comptage réel.

Page 47: Master Physique & Physique Numérique Physique Statistique

3.1. COMPLÉMENTS MATHÉMATIQUES : LES MATRICES PARAMÉTRIQUES 47

Proposition 3 (Déformation autoadjointe). Si A0 est autoadjointe et que l’on souhaite ne considérer quedes déformations A(R) autoadjointes, on pourra restreindre les changements de jauge à des matrices unitairesg(R) ∈ U(n) et la définition de la versalité entre matrices autoadjointes (A′(R) = g(R)−1A(ϕ(R))g(R) avecg(R) ∈ U(n), A(R)† = A(R) et A′(R)† = A′(R)). A0 étant diagonalisable son nombre d’Arnold est

d =

p∑

a=1

ga∑

i=1

(2i− 1)

où ga est le degré de dégénérescence de la a-ième valeur propre. d est le nombre de paramètres réels minimumque présente une déformation verselle autoadjointe.

Dans le cas des déformations autoadjointes, on parlera donc de sous-paramétrisation si le nombre para-mètres réels est inférieur au nombre d’Arnold et de sur-paramétrisation s’il est supérieur.

3.1.2 Continuité du spectre

On considère une matrice paramétrique A(R). On appelle valeur propre et vecteur propre instantanés aupoint R, un nombre λ(R) ∈ C et une vecteur φ(R) ∈ Cn tels que

A(R)φ(R) = λ(R)φ(R)

A(R) étant continue sur M, la question est de savoir si λ(R) peut être continue. La réponse à cette questionest négative. En effet les croisements de valeurs propres, i.e. les points de M où deux valeurs propres distinctesprennent la même valeur, génèrent des problèmes de continuité.

Définition 17 (Croisements diaboliques et exceptionnels). Soit A(R) une matrice paramétrique et λi(R)i=1,...,p

les valeurs propres instantanées de A(R) dont les labels sont choisis tels que ℜeλ1(R) ≤ ℜeλ2(R) ≤ ... ≤ℜeλp(R). On appelle croisement des valeurs propres non-dégénérées presque partout λi et λi+1 un pointR∗ ∈ M tel que

λi(R∗) = λi+1(R∗) et ℜeλi(R) < ℜeλi+1(R), ∀R ∈ Ω ∩ V(R∗) \ R∗

où Ω est un domaine de M et V(R∗) est un voisinage de R∗.

• Un croisement en R∗ est dit diabolique si A(R) est diagonalisable en R∗ pour λi(R∗) = λi+1(R∗) (A(R)présente deux blocs de Jordan de rang 1).

• Un croisement en R∗ est dit exceptionnel si A(R) n’est pas diagonalisable en R∗ pour λi(R∗) =λi+1(R∗) (A(R) présente un bloc de Jordan de rang 2).

Dans le cadre de ce cours, on ne considérera pas les croisements de valeurs propres dégénérées ou lescroisements multiples (trois valeurs propres qui se croisent en un même point).

Propriété 3. Au voisinage d’un croisement diabolique entre λi et λi+1, les valeurs propres sont des fonctionscontinues.

Par contre au voisinage d’un croisement exceptionnel, ce n’est pas le cas. Un simple contre-exemplemontre cela.

H(R) =~

2

(

0 ΩΩ 2∆ − ıΓ2

)

avec R = (Ω,∆), Γ est une constante. On consière λ±(R) les valeurs propres de la matrice avec ℜeλ−(R) ≤ℜeλ+(R).

Page 48: Master Physique & Physique Numérique Physique Statistique

48 CHAPITRE 3. SYSTÈMES DYNAMIQUES PARAMÉTRIQUES : THÉORIE DES BIFURCATIONS

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-0.2

-0.1

0

ImE+

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-0.2

-0.1

0

ImE-

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-1

-0.5

0

0.5

1

ReE+

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-1

-0.5

0

0.5

1

ReE-

-1-0.5

00.5

W

-1-0.5

00.5

Parties réelles (en haut) et imaginaires (en bas) de λ±(R) en fonction de R = (Ω,∆).

Il y a deux croisements exceptionnels, R∗± = (Ω = ±Γ4 ,∆ = 0). Comme on peut le voir sur les surfaces

des valeurs propres, ℑmλ±(R) ne sont pas continues sur le segment (Ω ∈ [−Γ4 ,

Γ4 ],∆ = 0) (qui est aussi le

segment de croisement des parties réelles). On pourrait aussi ordonner les valeurs propres en fonction de leurpartie imaginaire : λi(R)i=1,2 avec ℑmλ1 ≤ ℑmλ2. Dans ce cas ce sont les parties réelles qui ne sont pascontinues.

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-0.2

-0.1

0

ImE1

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-0.2

-0.1

0

ImE2

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-1

-0.5

0

0.5

1

ReE1

-1-0.5

00.5

W

-1-0.5

00.5

-1-0.5

00.5

1W

-1-0.5

00.5

1D

-1

-0.5

0

0.5

1

ReE2

-1-0.5

00.5

W

-1-0.5

00.5

Parties réelles (en haut) et imaginaires (en bas) de λ1 ou 2(R) en fonction de R = (Ω,∆).

En physique, on introduit très souvent la notion d’anticroisement (ou croisement évité). Il s’agit de deuxvaleurs propres qui se rapprochent fortement sans se croiser. Ce genre de chose est la signature du fait quela matrice paramétrique n’est pas verselle. En prolongeant la matrice dans un espace de paramètres plusgrand, on trouvera un croisement véritable au voisinage du croisement évité de l’espace de contrôle initial.Les croisements ne sont pas nécessairement des points isolés. Ils forment des régions dans M. La tableausuivant donne la codimension réelle d’un croisement dans l’espace des paramètres (i.e. si le croisement est decodimension d, sa dimension est dimR M− d) pour une déformation verselle en fonction de ses éventuellessymétries :

Codimension réelle des Codimension réelle desMatrices croisements diaboliques croisements exceptionnels

réelle symétrique A = A, At = A 2complexe hermitienne A 6= A, A† = A 3réelle non-symétrique A = A, At 6= A 3 1complexe symétrique A 6= A, At = A 4 2

complexe non-symétrique A 6= A, A† 6= A 6 2

Page 49: Master Physique & Physique Numérique Physique Statistique

3.2. BIFURCATIONS DANS LES SYSTÈMES DYNAMIQUES CLASSIQUES 49

Si la codimension est plus grande que le double du nombre d’Arnold, le type de croisement concerné n’existepas. Si la matrice est sous-paramétrée, le croisement sera l’intersection du croisement dans un espace deparamètre étendu et de l’image de M dans cet espace

3.2 Bifurcations dans les systèmes dynamiques classiques

3.2.1 Les diagrammes de bifurcation

On considère un système dynamique classique paramétrique autonome X = FR(X) (on pourra aussiconsidérer un système dynamique paramétrique périodique, la théorie de Floquet permettant d’étudier unpoint d’une trajectoire périodique comme un point singulier pour l’opérateur de monodromie). On appelle bi-furcation un changement du régime dynamique du système au voisinage d’un point singulier. Ce changementpeut être :

• une modification de la stabilité du point singulier, ce qui est caractérisé par la migration de valeurspropres de ∂FR à travers l’axe des imaginaires purs.

• une modification de la vitesse de convergence des trajectoires de phase vers l’attracteur, ce qui estcaractérisé par un changement de la structure en blocs de Jordan de la matrice ∂FR.

L’ensemble des points de l’espace des paramètres M où se produisent les bifurcations forment ce que l’onappelle un diagramme de bifurcation. Pour une déformation verselle, on peut montrer que

• les bifurcations par transition stable-instable se produisent en des points isolés de l’espace des para-mètres de contrôle M, en ces points de bifurcation la matrice présente un bloc de Jordan de rang 2(alors qu’en tout autre point, elle ne présente que des valeurs propres simples). Ce type de bifurcationest obtenu par la variation d’un seul paramètre de contrôle (en suivant une courbe dans M). On parlede bifurcation de codimension 1 2.

• les bifurcations par changement de régime de stabilité obtenues par la variation de deux paramètresde contrôle (bifurcation de codimension 2) forment des courbes continues dans M. En dehors dudiagramme de bifurcation la matrice ne présente que des valeurs propres simples. Sur la courbe dudiagramme de bifurcation, elle présente un bloc de Jordan de rang 2, sauf aux points de rebroussement(points de non dérivabilité par “pincement”) où elle présente un bloc de Jordan de rang 3, et aux pointsd’autointersection où elle présente deux blocs de Jordan de rang 2.

• pour les bifurcations de codimension 3 et supérieure, les diagrammes de bifurcation sont des sous-variétés de M relativement compliquées.

Exemple d’un diagramme de bifurcation de codimension 2. Dans le plan des paramètres de contrôle hors de

la courbe de bifurcation la matrice diagonalisée est de la forme0

B

B

@

• 0 0 0

0 • 0 0

0 0 • 0

0 0 0 •

1

C

C

A

. Sur la courbe du diagramme

de bifurcation excepté en A et B, la forme de Jordan de la matrice est0

B

B

@

• 0 0 0

0 • 0 0

0 0 • •

0 0 0 •

1

C

C

A

. Sur le point

d’autointersection A, la forme de Jordan de la matrice est0

B

B

@

• • 0 0

0 • 0 0

0 0 • •

0 0 0 •

1

C

C

A

. Sur le point de rebroussement

B, la forme de Jordan de la matrice est0

B

B

@

• 0 0 0

0 • • •

0 0 • •

0 0 0 •

1

C

C

A

.

3.2.2 Classification des bifurcations de codimension 1

Définition 18 (Bifurcations trans, sur et souscritiques). Une bifurcation de codimension 1 est dite surcritiquesi le suivi du paramètre de contrôle engendre l’apparition d’un attacteur (gain de stabilité) ; elle est dite

2. il s’agit là de la codimension de la sous variété de M sur laquelle on ne rencontre aucune bifurcation

Page 50: Master Physique & Physique Numérique Physique Statistique

50 CHAPITRE 3. SYSTÈMES DYNAMIQUES PARAMÉTRIQUES : THÉORIE DES BIFURCATIONS

souscritique si le suivi du paramètre de contrôle engendre la disparition d’un attracteur (perte de stabilité).Elle est dite transcritique si elle est associée à un échange de stabilité entre deux points singuliers.

Dans cette terminologie on fait croître le paramètre, il est bien évident que la direction dans laquelleon emprunte la courbe (le paramètre est une abscisse curviligne sur la courbe de M) est dépendante duproblème de contrôle (de la façon dont on modifie adiabatiquement le système dynamique).

Définition 19 (Bifurcations stationnaires et de Hopf). Une bifurcation de codimension 1 induite par lepassage d’une valeur propre réelle par 0 est dite bifurcation stationnaire. Une bifurcation de codimension 1induite par le passage d’une paire de valeurs propres complexes conjuguées par l’axe des imaginaires purs estdite bifurcation de Hopf.

Cette classification est associée au comportement du système avec les paramètres de contrôle. La perte(ou le gain) de stabilité s’accompagne de la disparition (ou de l’apparition) d’un point fixe pour les bifur-cations stationnaires, alors qu’elle s’accompagne de la transformation d’un point fixe en un cycle limite (ouinversement) dans le cas des bifurcations de Hopf (dans ce dernier cas ce sont les effets non-linéaires quiviennent “restabiliser” en un cycle limite le système “linéairement déstabilisé” par la bifurcation).

Soit r le paramètre associé à une bifurcation de codimension 1 (r → R(r) ∈ M constitue une courbeparamétrée dans M). On peut toujours faire en sorte que le point de bifurcation considéré soit en r = 0(quitte à redéfinir l’abscisse curviligne sur la courbe paramétrée). On note X0 le point singulier pour Fr=0.L’étude locale des bifurcations de codimension 1 se fait alors à travers la notion de forme normale : Onnote χii les vecteurs propres de ∂Fr=0,X=X0

. On peut alors écrire

δX(t) =∑

i

xi(t)χi

Au voisinage de r = 0 et du point singulier, on a

δX =∂Fr

∂Xa

r=0,X=X0

δXa+∂Fr

∂r

r=0,X=X0

r+1

2

∂2Fr

∂Xa∂Xb

r=0,X=X0

δXaδXb+1

2

∂2Fr

∂Xa∂r

r=0,X=X0

δXar+...

Soit χj le vecteur propre associé à la valeur propre réelle transitant par 0 (bifurcation stationnaire), du faitque ∂Fr=0χ

j = 0, dans le cas générique l’équation précédente peut s’écrire en ne gardant que les premierstermes non-nuls sous la forme x = ±r ± x2 (où x ∈ R est proportionnelle à xj et où on a éventuellementmodifié l’échelle de temps). Cette équation est appelée forme normale de Poincaré. Dans ce cas générique,il y a donc deux branches de points fixes qui émergent de 0, x = ±√±r, l’une stable, l’autre instable. Onparle de bifurcation nœud-col.Dans le cas non-générique où ∂Fr

∂r χi = 0, la forme normale de Poincaré est x = ±xr ± x2. On a alors une

bifurcation transcritique, avec échange de stabilité entre la branche x = 0 et x = ±r.Dans le cas non-générique où toutes les derivées en X d’ordre pair sont nulles, la forme normale de Poincaréest x = ±xr ± x3. On a alors une branche de points fixes x = 0 qui se divise en trois branches x = 0 et±√±r. On parle de bifurcation en fourche.

Dans le cas d’une bifurcation de Hopf, les coefficients xj des vecteurs propres associés aux deux valeurspropres complexes conjuguées sont complexes. La forme normale de Poincaré est alors z = ±(r+ ıγ)z± z|z|2où z ∈ C et γ est une constante réelle. En écrivant z sous forme d’Euler, z = xeıθ on a alors x = ±rx ± x3

(qui correspond à une bifurcation en fourche) et θ = ±γ (symétrie de révolution autour de l’axe réel). Labifurcation de Hopf se traduit non pas par une perte “définitive” de stabilité, mais du fait des effets non-linéaires par la transition entre un point fixe et un cycle limite.

L’utilisation des formes normales permet de classifier les bifurcations de codimension 1 :Type de bifurcation forme normale surcritique forme normale souscritique

Nœud-col x = r − x2 x = r + x2

Transcritique x = rx− x2 x = rx + x2

Fourche x = rx− x3 x = rx + x3

Hopf z = (r + ıγ)z − z|z|2 z = (r + ıγ)z + z|z|2

Page 51: Master Physique & Physique Numérique Physique Statistique

3.2. BIFURCATIONS DANS LES SYSTÈMES DYNAMIQUES CLASSIQUES 51

Bifurcation nœud-col souscritique x = r + x2

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

Bifurcation nœud-col surcritique x = r − x2

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

Bifurcation fourche souscritique x = rx + x3

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

Bifurcation fourche surcritique x = rx − x3

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

Bifurcation transcritique x = rx + x2

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

Bifurcation de Hopf z = (r + ıγ)z + z|z|2

Schémas des bifurcations de codimension 1. Par convention les branches stables sontreprésentées en trait plein et les branches instables en trait pointillé. L’abscisse est r etl’ordonné est x (pour la bifurcation de Hopf, le plan dans l’angle de vue est z et l’axe

normal à ce plan est r).

-5 -4 -3 -2 -1 0 1 2 3 4 5

-2,4

-1,6

-0,8

0,8

1,6

2,4

L’analyse des bifurcations est faite localement, des effets non-linéaires d’ordre supérieur peuvent changer lecomportement loin de (0, 0). Ainsi pour les bifurcations fourches souscritiques, si on tient compte des

termes non-linéaires d’ordres supérieurs, le schéma de bifurcation présente une hystérésis.

Page 52: Master Physique & Physique Numérique Physique Statistique

52 CHAPITRE 3. SYSTÈMES DYNAMIQUES PARAMÉTRIQUES : THÉORIE DES BIFURCATIONS

3.2.3 Exemple : le flot logistique

Le flot logistique est un système dynamique disctret à une dimension définie par la suite récurrentexn+1 = rxn(1 − xn). Ce système est chaotique suite des cascades de bifurcations en fonction du paramètrer.

Schéma des bifurcations pour le système dynamique discret à une dimension défini par ΦT,0(x) = rx(1 − x)(flot logistique). La cascade des bifurcations fourches induit un schéma fractal dans le plan (x, r) pour r

suffisamment grand. Le flot logistique devient chaotique pour r suffisamment grand du fait de la cascade debifurcations.

discrete12.8*(1-x)*xx

0 0.25 0.5 0.750

0.25

0.5

0.75

x

10 20 30 40 50

0.3

0.4

0.5

0.6

y

x

discrete13.9*(1-x)*xx

0 0.25 0.5 0.750

0.25

0.5

0.75

x

10 20 30 40 50

0.25

0.5

0.75

y

x

À gauche le flot logistique dans l’espace (xn, xn+1) et à droite la suite xn avec xn+1 = rxn(1− xn). En hautpour un régime stable et en bas pour un régime chaotique.

3.2.4 Exemple : l’oscillateur de van der Pol

On considère un oscillateur harmonique soumis à une force d’amortissement non-linéaire :

p = −kx+ (2ǫ− αx2)x

p = mx⇐⇒

(

x

p

)

=

( pm

−kx+ (2 ǫm − α

mx2)p

)

ǫ est le paramètre de contrôle du système. X0 = (0, 0) est point singulier du système qui a pour linéarisation

∂FX0=

(

0 1m

−k 2ǫm

)

Page 53: Master Physique & Physique Numérique Physique Statistique

3.2. BIFURCATIONS DANS LES SYSTÈMES DYNAMIQUES CLASSIQUES 53

qui a pour valeur propre λ± = ǫ±ı√

km−ǫ2

m (pour ǫ <√km). En faisant varier ǫ les valeurs propres traversent

l’axe des imaginaires purs donnant lieu à une bifurcation de Hopf. Les vecteurs propres associés sont de la

forme(

1λ±

)

. On introduit la variable z telle que

(

x

p

)

= z

(

1λ+

)

+ z

(

1

λ+

)

Alors l’équation du système dynamique est

z = λ+z + (2ℜez)2λ+z + λ+z

−2ıℑmλ+

qui par un développement au voisinage de ǫ = 0 et z = 0 en ne conservant que les premiers termes non-nuls,donne la forme normale de la bifurcation de Hopf. L’apparition du cycle limite pour ǫ > 0 s’interpréte parle fait que pour x petit, (2ǫ− αx2) > 0 conduit à une instabilité faisant croître l’amplitude d’oscillation. Ce

faisant x croît et on atteint un cycle limite pour x =√

2ǫα .

Portrait de phase de l’oscillateur de van der Pol à l’extérieur du cycle limite.

Page 54: Master Physique & Physique Numérique Physique Statistique

54 CHAPITRE 3. SYSTÈMES DYNAMIQUES PARAMÉTRIQUES : THÉORIE DES BIFURCATIONS

Page 55: Master Physique & Physique Numérique Physique Statistique

Bibliographie

[1] V.I. Arnold, On matrices depending on parameters, Russ. Math. Surv. 26, 29 (1971).

[2] V.I. Arnold, Chapitres supplémentaires de la théorie des équations différentielles ordinaires (Mir, 1978).

[3] P. Bergé, Y. Pomeau & C. Vidal, L’ordre dans le chaos (Hermann, 1988).

[4] J.D. Crawford, Introduction to bifurcation theory, Rev. Mod. Phys. 63, 991 (1991).

55