Équations différentielles

publicité
Équations différentielles
Nicolas Raymond
20 février 2011
Table des matières
1 Cas scalaire d’ordre 1
1.1 Définitions . . . . . . . . . . .
1.2 Résolution théorique . . . . .
1.2.1 Propriétés élémentaires
1.2.2 Résolution . . . . . . .
1.3 Résolution pratique . . . . . .
1.4 Cas des coefficients constants
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
4
4
5
5
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Cas vectoriel d’ordre 1
2.1 Généralités sur les équations différentielles . . . . . . . . .
2.1.1 Définition et réduction au premier ordre . . . . . .
2.1.2 Le problème de Cauchy et sa formulation intégrale
2.1.3 Solutions maximales . . . . . . . . . . . . . . . . .
2.2 Équations différentielles vectorielles linéaires d’ordre 1 . . .
2.2.1 Préliminaires sur les suites et séries de fonctions . .
2.2.2 Théorème de Cauchy-Lipschitz (cas linéaire) . . . .
2.2.3 Structure des solutions . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
6
. 6
. 7
. 7
. 8
. 8
. 8
. 10
. 11
3 Cas scalaire d’ordre 2
13
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Cas des coefficients constants . . . . . . . . . . . . . . . . . . 14
3.2.1 Propriétés générales . . . . . . . . . . . . . . . . . . . . 14
3.2.2 Solutions de (H) . . . . . . . . . . . . . . . . . . . . . 14
3.2.3 Solutions de (E) . . . . . . . . . . . . . . . . . . . . . 15
3.3 Quelques problèmes classiques . . . . . . . . . . . . . . . . . . 15
3.3.1 Problème des raccords : exemple . . . . . . . . . . . . . 15
3.3.2 Développement en série entière des solutions : exemple 15
3.3.3 Changement de variable ou de fonction inconnue : exemple 15
1
4 Cas des coefficients constants
4.1 Étude théorique . . . . . . . . . . . . . . . . . . . .
4.2 Résolution de (E) quand A est diagonalisable . . .
4.2.1 Résolution de (H) . . . . . . . . . . . . . .
4.2.2 Résolution de (E) . . . . . . . . . . . . . . .
4.2.3 Résolution de (E) quand A est trigonalisable
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Cas non linéaire
5.1 Autour du théorème de Cauchy-Lipschitz . . . . . . . . . . .
5.2 Notions sur les entonnoirs, échappement des solutions . . . .
5.2.1 Solutions globales . . . . . . . . . . . . . . . . . . . .
5.2.2 Entonnoirs . . . . . . . . . . . . . . . . . . . . . . . .
5.2.3 Un exemple d’étude qualitative . . . . . . . . . . . .
5.3 Quelques exemples d’équations non linéaires . . . . . . . . .
5.3.1 Équations de Bernoulli et Riccati . . . . . . . . . . .
5.3.2 Équations à variables séparées . . . . . . . . . . . . .
5.4 Un exemple pour traiter des équations différentielles : la méthode du tir . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5 Un exemple d’étude qualitative de système non linéaire . . .
5.6 Notions des méthodes numériques pour les équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6.1 Rappel sur la formule de Taylor avec reste intégral .
5.6.2 Méthodes de quadrature pour les intégrales . . . . . .
5.6.3 Méthodes de résolution numérique pour les équations
différentielles . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
16
16
16
16
17
17
.
.
.
.
.
.
.
.
17
18
18
18
19
20
21
21
22
. 22
. 25
. 26
. 26
. 27
. 29
6 Rappels d’algèbre linéaire
31
6.1 Matrices, changements de bases . . . . . . . . . . . . . . . . . 31
6.2 Endomorphismes, valeurs propres . . . . . . . . . . . . . . . . 32
7 Notions de la théorie des séries entières
33
7.1 Éléments de la théorie . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Un exemple fondamental : l’exponentielle . . . . . . . . . . . . 35
2
Introduction
Dans de nombreux domaines (mathématiques, physique, chimie, biologie, etc.), on est amené à chercher des fonctions dont les dérivées vérifient
certaines relations. Ainsi est-ce le cas pour le principe fondamental de la
dynamique (équation différentielle) :
→
−
d2 M
= F,
2
dt
pour l’équation des ondes (équation aux dérivées partielles) :
1 ∂ 2ψ
∂ 2ψ ∂ 2ψ ∂ 2ψ
− 2 − 2 − 2 − 2 2 = 0.
∂x
∂y
∂z
c ∂t
ou encore pour la célèbre équation de Schrödinger (équation aux dérivées
partielles) :
(−∆ + V (x))ψ = i∂t ψ.
Dans ce cours, nous étudierons les équations différentielles (sujet déjà bien
vaste !). Le problème général consistera, étant données des conditions initiales
(position et vitesse par exemple) et une relation satisfaite par les dérivées
d’une fonction (principe de la dynamique par exemple) à déterminer cette
fonction inconnue et/ou ses propriétés.
En particulier, nous ferons l’inventaire des méthodes classiques de résolutions,
ainsi que des problèmes divers qui apparaissent dans la théorie des équations
différentielles.
1
1.1
Équations différentielles scalaires linéaires du
premier ordre
Définitions
Définition 1.1 (Forme générale de l’équation) On appelle équation différentielle scalaire linéaire d’ordre 1 toute équation différentielle de la forme :
A(x)y 0 + B(x)y = C(x),
(1.1)
où A, B, C sont trois fonctions continues de J ⊂ R à valeurs dans K, J étant
un intervalle de R non réduit à un point.
L’équation homogène associée à (1.1) est :
A(x)y 0 + B(x)y = 0.
3
(1.2)
Définition 1.2 Si A ne s’annule pas en un point x0 ∈ J, alors il existe un
intervalle I ⊂ J tel que A(x) 6= 0 pour x ∈ I et alors (1.1) se met sous la
forme dite "résolue" sur I :
y0 = −
B(x)
C(x)
y+
= b(x)y + c(x).
A(x)
A(x)
Définition 1.3 Soit J1 ⊂ J un intervalle de R non réduit à un point. On
dit que f est une J1 -solution de (1.1) si, pour tout x ∈ J1 , on a :
A(x)f 0 (x) + B(x)f (x) = C(x).
Nous nous intéresserons donc aux couples (J1 , f ) qui résolvent l’équation
(1.1). Si (J1 , f ) est une solution de (1.1) et si J2 ⊂ J1 , alors (J2 , f ) est une
J2 solution de (1.1).
Définition 1.4 (Solution maximale) On dit que (J1 , f ) est une solution
maximale de (1.1) si et seulement si elle n’est la restriction à J1 d’aucune
autre solution qu’elle-même.
Dans la suite, nous allons porter essentiellement notre attention les solutions de l’équation mise sous forme résolue.
1.2
Résolution théorique
Le cas scalaire linéaire a le bon goût d’être particulièrement simple à
résoudre. Nous considérons donc l’équation :
y 0 = b(x)y + c(x),
x ∈ I,
(1.3)
où b et c sont des fonctions continues sur I. Nous rappelons l’équation homogène :
y 0 = b(x)y, x ∈ I.
(1.4)
1.2.1
Propriétés élémentaires
Nous disposons des théorèmes élémentaires suivants :
Théorème 1.5 L’ensemble des I1 -solutions de (1.4) est un K espace vectoriel.
Théorème 1.6 L’ensemble des I1 -solutions de (1.3) est un K espace affine
de direction l’ensemble des I1 -solutions de (1.4).
4
1.2.2
Résolution
Théorème 1.7 (Équation homogène) Soit I1 un intervalle de R non réduit à un point. Les I1 -solutions de l’équation homogène (H) forment un K
e. v. de dimension 1. De plus, les solutions maximales sont définies sur I et
si une solution de (H) s’annule en un point, elle est identiquement nulle.
Théorème 1.8 Soit I1 un intervalle de R non réduit à un point. Les I1 solutions de (E) forment une droite affine de dimension 1. De plus, les solutions maximales sont définies sur I.
Remarque 1.9.
Si l’équation n’est pas mise sous forme résolue, on résout d’abord sur les
intervalles où A ne s’annule pas, puis on se pose la question du recollement
des solutions.
1.3
Résolution pratique
La théorie du paragraphe précédent fournit les solutions de façon explicite.
Cependant, il vaut mieux retenir le principe (très général) de la démonstration :
– on résout l’équation homogène (H),
– on cherche une solution particulière de (E) : soit on en trouve une
explicite, soit on utilise la méthode de variation de la constante (qui
marche à coup sûr !).
Proposition 1.10 (Superposition des solutions) Considérons l’équation :
0
A(x)y + B(x)y =
n
X
Ci (x),
i
avec A, B, Ci continues sur I et avec A ne s’annulant pas sur I. Si yi est une
solution de
A(x)y 0 + B(x)y = Ci (x),
alors,
n
X
yi est solution de (E).
i
Exemple : xy 0 − y = ln(x) + 1.
5
Théorème 1.11 (Problème de Cauchy) On considère (E) avec A, B, C
continues sur I et A ne s’annulant pas sur I. Alors, pour tout (x0 , y0 ) ∈ I ×K,
il existe une unique solution Y de (E) définie sur I qui vérifie Y (x0 ) = y0 .
De plus, toute solution de (E) qui vérifie y(x0 ) = y0 est la restriction de Y
à un intervalle contenant x0 .
Remarque 1.12.
Lorsque A s’annule sur I, tous les résultats précédents (structure des solutions, existence, unicité) tombent en défaut : c’est le problème du raccord
des solutions définies sur les intervalles où A ne s’annule pas.
Exemple : ty 0 − αy = 1. Pour quelles valeurs de α existe-t-il des solutions
sur R ? Que dire du problème de Cauchy : existe-t-il des solutions telles que
y(0) = y0 ∈ R ?
1.4
Cas des coefficients constants
Définition 1.13 On appelle équation différentielle linéaire du premier ordre
à coefficients constants toute équation de la forme :
y 0 + by = C(x),
où C : I → K continue.
Nous avons vu que les solutions de l’équation homogène sont de la forme :
y(x) = λe−bx et que les solutions de (E) sont définies sur I. Il y a des cas où
on peut déterminer une solution particulière sans recourir à la méthode de
variation de la constante.
C(x) = P (x) où P est un polynôme On cherche une solution particulière
sous la forme Q(x).
C(x) = P (x)eαx où P est un polynôme On cherche une solution sous la
forme eαx g(x).
1
Exemple : y 0 − y = (x + 1)ex + sin(2x) + x cos(x) + 1+x
2.
2
Équations différentielles vectorielles linéaires
d’ordre 1
2.1
Généralités sur les équations différentielles
Soit E = Kp .
6
2.1.1
Définition et réduction au premier ordre
Définition 2.1 On appelle système différentiel d’ordre n sous forme normale toute équation différentielle de la forme :
(E) : y (n) = G(t, y, y 0 , · · · , y (n−1) ),
où G est une application d’un ouvert U de R × E n à valeurs dans E et y une
fonction C n à valeurs dans E.
(E) peut être ramenée à un système d’ordre 1 à l’aide du procédé suivant.
On pose :
y 0 = z1 , y 00 = z2 , · · · , y (n−1) = zn ,
ce qui s’écrit de façon équivalente :
y 0 = z1 ,
z10 = z2 ,
0
zn−1
= zn .
··· ,
y est solution de (E) si et seulement si (y, z1 , · · · , zn−1 , zn ) est solution de :
y 0 = z1 ,
z10 = z2 ,
zk0 = zk+1 ,
zn0 = G(t, y, z1 , · · · , zn−1 ).
Ainsi, nous nous restreignons à l’étude des systèmes différentiels d’ordre 1.
2.1.2
Le problème de Cauchy et sa formulation intégrale
Soit l’équation :
(E) : y 0 = G(t, y),
avec G : U → E. Le problème de Cauchy consiste à savoir s’il existe une
solution de (E) qui vérifie y(t0 ) = a0 où (t0 , a0 ) ∈ U .
Théorème 2.2 Soient U un ouvert de R × E, G : U → E une application
continue, I un intervalle de R et φ : I → E continue. Alors, on a équivalence :
1. (I, φ) est solution de y 0 = G(t, y) et y(t0 ) = y0 .
2.
Z
∀t ∈ I,
t
φ(t) = y0 +
G(s, φ(s))ds.
t0
7
2.1.3
Solutions maximales
Définition 2.3 Si (I, φ) et (J, ψ) sont eux solutions de y 0 = G(t, y), on dit
que (J, ψ) est un prolongement de (I, φ) si I ⊂ J et si φ est la restriction de
ψ à I.
Définition 2.4 On appelle solution maximale de l’équation y 0 = G(t, y)
toute solution (I, φ) qui n’est la restriction à I d’aucune solution (J, ψ) avec
I sous-intervalle strict de J.
2.2
Équations différentielles vectorielles linéaires d’ordre
1
Définition 2.5 On appelle équation différentielle vectorielle linéaire d’ordre
1 toute équation différentielle de la forme :
(E) : y 0 = a(t)y + b(t),
où a : I → L(E) et b : I → E sont continues.
En considérant une base de E, on peut réécrire cette équation sous la forme
d’un système :
Y 0 = A(t)Y + B.
De même que dans le cas scalaire on définit l’équation homogène associée à
(E) :
(H) : y 0 = a(t)y.
Une solution de (E) est un couple (J, φ) où J est un intervalle inclus dans I
et φ une fonction de classe C 1 sur J telle que :
∀t ∈ J,
2.2.1
φ0 = a(t)φ + b(t).
Préliminaires sur les suites et séries de fonctions
On suppose que K = R ou C et on pose E = Kd . (X, d) désignera un
espace métrique ; on pourra prendre pour X un intervalle de R et pour d la
valeur absolue.
Définition 2.6 On dit qu’une suite de fonctions (fn ) (à valeurs dans E)
définies sur X et bornées converge uniformément vers une fonction f (bornée)
sur X si et seulement si :
kfn − f k∞ = sup kfn (x) − f (x)k → 0,
x∈X
8
quand n → +∞.
Proposition 2.7 Soit (fn ) une suite de fonctions continues et bornées sur
X et qui converge uniformément vers f sur X, alors f est continue sur X.
Preuve.
Soit x0 ∈ X. On veut estimer kf (x) − f (x0 )k quand x → x0 . Soit > 0 et
N ∈ N tels que pour tout n ≥ N :
kfn − f k∞ ≤ .
3
On a :
kf (x) − f (x0 )k ≤ kf (x) − fN (x)k + kfN (x) − fN (x0 )k + kfN (x0 ) − f (x0 )k.
On trouve donc :
2
+ kfN (x) − fN (x0 )k.
3
Pour ce N , on utilise l’hypothèse de continuité des fN en x0 : il existe α > 0
tel que pour tout x ∈ X tel que d(x, x0 ) ≤ α, on a :
kfN (x) − fN (x0 )k ≤ .
3
kf (x) − f (x0 )k ≤
Corollaire 2.8 Soit (fn ) une suite de fonctions continues sur [a, b] et convergeant uniformément vers f sur [a, b], alors :
Z b
Z b
lim
fn (t)dt =
f (t)dt.
n→+∞
a
a
Définition 2.9 On dit qu’une suite de fonctions fn définies et bornées sur
X vérifie le critère de Cauchy uniforme si, pour tout > 0, il existe N ∈ N
tel que pour tout n, m ≥ N , on a :
kfn − fm k∞ ≤ .
Proposition 2.10 (Admis) Si une suite (fn ) de fonctions bornées vérifie
le critère de Cauchy uniforme, alors elle converge uniformément vers une
certaine fonction bornée f .
Corollaire 2.11 Soit (fn ) une suite de fonctions continues et bornées sur
X. On pose
N
X
FN =
fn .
n=0
Alors, si la série de terme général kfn k∞ converge, alors (FN ) vérifie le critère
de Cauchy uniforme et elle converge vers une fonction continue F .
9
2.2.2
Théorème de Cauchy-Lipschitz (cas linéaire)
Nous allons à présent nous intéresser à un théorème fondamental donnant
l’existence et l’unicité d’une solution au problème de Cauchy (dans le cas
linéaire ; le cas général sera présenté plus tard).
Théorème 2.12 Soit a : I → L(E) et b : I → E deux applications continues
sur I. Alors, pour tout (t0 , y0 ) ∈ I × E, l’équation :
(E) : y 0 = a(t)y + b
admet une unique solution satisfaisant y(t0 ) = y0 .
Preuve.
Nous cherchons une fonction continue y : I → E telle que :
Z t
∀t ∈ I, y(t) = y0 +
(a(s)y(s) + b(s))ds.
t0
Supposons déjà que I est un segment. Nous allons construire une telle fonction par une méthode d’approximation. On définit par récurrence la suite de
fonctions suivante :
Y0 (t) = y0 ,
Z t
Yn+1 (t) = y0 +
(a(s)Yn (s) + b(s))ds.
t0
On se pose donc la question de la convergence uniforme de Yn vers une
certaine fonction y sur I. Pour cela nous allons évaluer la norme de Yn+1 −Yn .
Il est clair que :
Z t
Yn+1 (t) − Yn (t) =
a(s)(Yn (s) − Yn−1 (s))ds.
t0
Ainsi, par continuité de a, nous pouvons majorer :
Z t
kYn+1 − Yn k ≤ α
kYn (s) − Yn−1 (s)kds
t0
Par ailleurs, nous avons :
kY1 − Y0 k ≤ (αky0 k + β)|t − t0 |.
Par récurrence, nous déduisons que :
kYn+1 (t) − Yn (t)k ≤ (αky0 k + β)
10
αn |t − t0 |n
,
(n + 1)!
∀t ∈ I
Si h désigne la longueur de I, nous trouvons :
αn hn
, ∀t ∈ I
kYn+1 (t) − Yn (t)k ≤ (αky0 k + β)
(n + 1)!
P αn hn
Or, la série
est convergente, ainsi, par comparaison, nous avons mon(n+1)!
P
tré que (Yn+1 (t) − Yn (t)) est une série normalement convergente sur I. La
convergence est par conséquent uniforme sur I Cette série est téléscopique :
N
−1
X
(Yn+1 (t) − Yn (t)) = YN (t) − y0 .
n=0
Cela prouve que Yn converge uniformément vers une certaine fonction I. Les
Yn étant continues sur I, nous déduisons que y est continue sur I. Il ne reste
plus qu’à passer à la limite pour trouver :
Z t
∀t ∈ I, y(t) = y0 +
(a(s)y(s) + b(s))ds.
t0
Cela achève la preuve de l’existence. Passons à l’unicité. Soient y1 et y2 deux
solutions du problème de Cauchy. Leur différence δ = y2 − y1 satisfait :
Z t
δ(t) =
a(s)δ(s)ds.
t0
Par continuité sur un compact, il existe M > 0 tel que pour tout t ∈ I :
kδ(t)k ≤ M.
Par récurrence, nous avons donc :
kδ(t)k ≤ M αn
|t − t0 |n
.
n!
Il ne reste qu’à passer à la limite et nous déduisons que δ = 0. Cela achève
la preuve de l’unicité.
Le cas où I n’est pas compact s’obtient alors sans mal à partir du cas compact.
2.2.3
Structure des solutions
Nous savons donc que les solutions de (E) existent et sont définies sur I.
Examinons donc leurs propriétés.
11
Proposition 2.13 L’ensemble des solutions de (H) est un K-e. v. de dimension p. L’ensemble des solutions de (E) est un espace affine de direction
l’ensemble des solutions de (H).
Choisissons désormais une base de E et considérons plutôt les systèmes :
Y 0 = A(t)Y.
Nous allons introduire une quantité commode pour savoir si p solutions de
l’équation homogène (H) forment une famille libre (et donc une base SH ).
Wronskien de p applications à valeurs dans Kp
Définition 2.14 On appelle wronskien de p applications Y1 , · · · Yp de I à
valeurs dans Kp la quantité :
w(t) = det(Y1 (t), · · · , Yp (t)).
Proposition 2.15 Si (Y1 , · · · , Yp ) est lié, on a :
∀t ∈ I,
w(t) = 0.
Proposition 2.16 S’il existe t0 ∈ I tel que w(t0 ) 6= 0, alors (Y1 , · · · , Yp ) est
libre.
Wronskien des solutions de (H)
Théorème 2.17 Soient Y1 , · · · , Yp p solutions du système homogène (H) :
Y 0 = A(t)Y avec A continue sur I. Alors, on a :
∀t ∈ I,
w0 (t) = Tr(A(t))w(t).
En particulier, Y1 , · · · , Yp est lié si et seulement si w est identiquement nulle
si et seulement si w s’annule en au moins un point.
Variation des constantes Supposons qu’on ait trouvé p solutions indépendantes de (H). Nous pouvons alors déterminer les solutions de (E).
Théorème 2.18 Soient Y1 , · · · , Yp p solutions indépendantes de (H) sur I.
On pose :
p
X
Y (t) =
λi Yi (t), ∀t ∈ I.
i=1
Alors, on a :
1. Y est dérivable si et seulement si les λi sont dérivables.
P
2. Y est solution de (E) si et seulement si pi=1 λ0i (t)Yi = B(t).
Exemple : Résoudre : (t2 + 1)x0 = tx − y + 2t et (t2 + 1)y 0 = x + ty − 1.
12
3
Équations différentielles linéaires scalaires du
second ordre
3.1
Généralités
Définition 3.1 On appelle équation différentielle linéaire d’ordre 2 toute
équation différentielle de la forme :
A(x)y 00 + B(x)y + C(x)y = D(x),
où A, B, C et D sont des applications de I dans K continues.
Dans la suite, nous nous intéressons aux solutions maximales de l’équation
sous forme résolue. Écrivons le système linéaire d’ordre 1 associé à :
(E) : y 00 = b(x)y 0 + c(x)y + d(x)
avec a, b, c et d continues sur I. (E) est équivalent à (S) :
0
y =u
u0 = b(x)u + c(x)y + d(x)
ou encore :
y0
u0
=
0
1
c(x) b(x)
y
u
+
0
d(x)
.
Nous pouvons appliquer les résultats précédents pour obtenir en particulier :
Proposition 3.2
1. Les solutions de (S) sont définies sur I.
2. Les solutions de (H) forment un K e.v. de dimension 2.
3. Pour tout (t0 , a0 , a1 ) ∈ I × K2 , il existe une unique solution de (E)
définie sur I telle que y(t0 ) = a0 et y 0 (t0 ) = a1 .
Résolution de (E) Dans le cas général, on ne sait résoudre ni (H) ni (E).
1. Si on connaît deux solutions indépendantes y1 et y2 de (H) et une
solution particulière de (E) y0 , alors la solution générale de (E) est :
y = λ1 y1 + λ2 y2 + y0 .
2. Si on connaît une solution Y de (H) ne s’annulant pas sur J ⊂ I, alors
on va pouvoir résoudre (E) sur J. On pose en effet y = zY et on est
ramené à une équation du premier ordre.
Résoudre : (t2 + 1)x00 − 2x = 4t(t2 + 1) en remarquant que (H) possède
une solution polynômiale.
13
3. Si on connaît deux solutions indépendantes y1 et y2 de (H), alors on
peut utiliser la méthode de variation des constantes. On commence par
écrire le système associé :
0 0
1
y
0
y
=
+
.
u0
c(x) b(x)
u
d(x)
y1
y2
et
sont deux solutions indépendantes de (H). On cherche
y10
y20
alors la solution générale sous la forme : Y = c1 (x)Y1 + c2 (x)Y2 et on
trouve :
0
0
0
c1 Y 1 + c2 Y 2 =
.
d(x)
Il n’y a plus qu’à trouver c1 et c2 en inversant le système.
Résoudre : x2 y 00 + xy 0 − y = 2x en remarquant qu’il existe des solutions de
la forme xm avec m ∈ Z.
3.2
3.2.1
Cas des coefficients constants
Propriétés générales
Définition 3.3 On appelle équation différentielle linéaire du second ordre à
coefficients constants toute équation du type :
ay 00 + by 0 + cy = D(x),
avec (a, b, c) ∈ K∗ × K2 et D : I → K continue.
Les solutions de (H) sont définies sur R et forment un K e. v. de dimension
2. Les solutions de (E) sont définies sur I et forment un plan affine.
3.2.2
Solutions de (H)
On sait toujours calculer deux solutions indépendantes de (H). On remarque déjà que x 7→ erx est solution de (H) si et seulement si ar2 +br+c = 0.
Deux cas se présentent.
K = C Si ∆ = b2 − 4ac 6= 0, alors il y a deux racines distinctes r1 et r2 et
la solution générale de (H) est de la forme :
y = λ1 er1 x + λ2 er2 x .
Si ∆ = 0, il y a une racine double r0 . On pose y = zer0 x et en remplaçant on
trouve : z = λx + µ.
14
K = R Si ∆ ≥ 0, cf. le premier cas. Si ∆ < 0, il y a deux racines complexes
conjuguées :
r1 = α + iβ et r2 = α − iβ.
Ces racines donnent lieu à deux solutions conjuguées :
y1 = eαx (cos(βx) + i sin(βx))
et
y2 = eαx (cos(βx) − i sin(βx)).
On en déduit que Y1 = eαx cos(βx) et Y2 = eαx sin(βx) sont solutions de (H)
et elles sont indépendantes.
Résoudre : y 00 + 4y 0 + 4y = 0 ; y 00 − 5y 0 − 6y = 0 et y 00 + y 0 + y = 0.
3.2.3
Solutions de (E)
On connaît toujours une solution de (H) de la forme erx , on peut donc
chercher les solutions sous la forme : y = erx z.
Résoudre : y 00 − 6y 0 + 9y = 3x2 e−3x et y 00 + y = tan2 (x).
3.3
3.3.1
Quelques problèmes classiques
Problème des raccords : exemple
Examiner le raccord des solutions de : (t + 1)y 00 − 2y 0 − (t − 1)y = te−t en
remarquant que et est solution de l’équation homogène. Résoudre le problème
de Cauchy pour ces solutions...
3.3.2
Développement en série entière des solutions : exemple
Résoudre x(x − 1)y 00 + 3xy 0 + y = 0 en cherchant des solutions DSE en 0.
Étudier les raccords.
3.3.3
Changement de variable ou de fonction inconnue : exemple
Résoudre : x2 y 00 + 4xy 0 + 2y = 0
15
4
Systèmes différentiels linéaires à coefficients
constants
4.1
Étude théorique
Définition 4.1 On appelle système différentiel linéaire du premier ordre à
coefficients constants tout système différentiel de la forme :
X 0 (t) = AX(t) + B(t),
où A ∈ Mn (K) et B : I → Kn est continue.
P Ak
Proposition 4.2 Pour tout A ∈ Mn (K),
est une série convergente et
k!
A
tA
sa somme est notée e . De plus, φt 7→ e est dérivable et φ0 (t) = Aφ(t) =
φ(t)A.
En particulier, cette proposition prouve que les solutions de (H) sont définies
sur R et qu’elles sont toutes de la forme : X(t) = etA x0 où x0 ∈ Kn .
Proposition 4.3 Soit P ∈ GLn (K). Si on pose X = P Z, alors (E) est
équivalente à
Z 0 (t) = P −1 AP Z(t) + P −1 B(t).
4.2
4.2.1
Résolution de (E) quand A est diagonalisable
Résolution de (H)
Si A est diagonalisable, alors il existe P ∈ GLn (K) telle que
P −1 AP = diag(λ1 , · · · , λn ).
En posant X = P Z, il vient :
Z 0 (t) = diag(λ1 , · · · , λn )Z(t)
et donc, pour tout i ∈ {1, · · · , n} :
zi0 (t) = λi zi (t).
On en déduit que zi (t) = µi eλi t . On rappelle que P = (V1 , · · · , Vn ) où les Vi
forment une base de vecteurs propres. Ainsi, on a :
n
X
X(t) =
µi eλi t Vi .
i=1
Résoudre :
 0
 y1 = 5y1 + y2 − y3
y 0 = 2y1 + 4y2 − 2y3
 20
y3 = y1 − y2 + 3y3
16
4.2.2
Résolution de (E)
De la même façon que précédemment, on est ramené à résoudre :
zi0 = λi zi + ci (t)
où C(t) = P −1 B(t).
Une autre façon serait d’utiliser la méthode de variation des constantes.
Résoudre :
 0
5y1 + y2 − y3
 y1 =
0
y = 2y1 + 4y2 − 2y3 + t
 20
y1 − y2 + 3y3
y3 =
Remarque 4.4.
Si les coefficients sont réels et si les valeurs propres de A ne sont pas réelles,
on peut tout de même remarquer que les parties réelles et imaginaires d’une
solution sont solutions de (H).
4.2.3
Résolution de (E) quand A est trigonalisable
Dans ce cas, il existe P ∈ GLn (K) telle que
P −1 AP = T,
avec T triangulaire supérieure.
tème en cascade.
Résoudre :
 0
 x
y0
 0
z
5
On est alors ramené à la résolution d’un sys=
2y + 2z
= −x + 2y + 2z
= −x + y + 3z
Équations différentielles non linéaires : exemples
Dans la suite, E = Kn et nous nous intéressons à des équations différentielles de la forme :
X 0 = f (t, X),
où f est donnée et à valeurs dans E.
17
5.1
Autour du théorème de Cauchy-Lipschitz
Avant de donner un résultat d’existence et d’unicité pour cette équation,
nous avons besoin d’une définition préliminaire.
Définition 5.1 Soit U un ouvert de I × E. Une application f : U → E est
dite localement lispchitzienne par rapport à la deuxième variable si, pour tout
(t0 , x0 ) ∈ U , il existe un voisinage V de ce point dans U et un réel positif k
tel que pour tout x, y ∈ E et t ∈ I, si (t, x) ∈ V et (t, y) ∈ V , alors :
kf (t, x) − f (t, y)k ≤ kkx − yk.
Donnons tout de suite un critère pratique.
Proposition 5.2 Soit U un ouvert de I × E et f : U → E. Pour que f soit
localement lispchitzienne par rapport à la deuxième variable , il suffit que f
soit différentiable par rapport à cette variable et que ∂x f soit continue sur U .
Nous pouvons énoncer le théorème fondamental de cette section.
Théorème 5.3 Soit U un ouvert de R × E et f : U → E une application continue et localement lispchitzienne par rapport à la deuxième variable.
Alors, pour tout (t0 , x0 ) ∈ U , il existe un intervalle J de centre t0 et de
longueur non nulle tel que l’équation différentielle :
X 0 = f (t, X)
admette sur J une unique solution telle que X(t0 ) = x0 .
Examiner les exemples y 0 = y 1/3 et y 0 = y 2 .
5.2
5.2.1
Notions sur les entonnoirs, échappement des solutions
Solutions globales
Nous allons voir que les solutions maximales non globales du problème
de Cauchy ne sont pas bornées.
Proposition 5.4 (Échappement faible) Soit f une fonction continue sur
(a, b) × E à valeurs dans E et localement lipschitzienne par rapport à la
seconde variable. Soit φ une solution maximale de y 0 = f (t, y) et définie sur
(α, β). Si β < b, alors φ est non bornée au voisinage de β.
18
Preuve.
On raisonne par l’absurde. Soit t0 ∈ (α, β) et M > 0 tel que kφ(t)k ≤ M
pour tout t ∈ [t0 , β). Comme f est continue sur [t0 , β] × Bf (0, M ), elle y
est bornée : il existe K > 0 telle que, pour tout (t, x) ∈ [t0 , β] × Bf (0, M ) :
kf (t, x)k ≤ K. Ainsi, on a :
kφ0 (t)k ≤ K,
∀t ∈ [t0 , β].
Nous pouvons alors prolonger φ par continuité en β. Notons φ(β) = x0 . En
reprenant l’équation, on voit que φ0 admet f (β, φ(β)) comme limite en β.
Ainsi prolongée φ est solution de l’équation différentielle sur (α, β]. Soit alors
ψ la solution maximale de l’équation y 0 = f (t, y) telle que ψ(β) = x0 . ψ
permet alors de prolonger φ et c’est une contradiction.
Nous donnons maintenant quelques critères pour obtenir la globalité des solutions.
Proposition 5.5 Soit f : I × E → E continue et localement lipschitzienne
par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I, il
existe MK > 0 : kf (t, x)k ≤ MK pour tout (t, x) ∈ K × E. Alors les solutions
maximales sont globales.
Proposition 5.6 Soit f : I × E → E continue et localement lipschitzienne
par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I,
il existe C1 (K), C2 (K) telles que :
kf (t, x)k ≤ C1 (K)kxk + C2 (K),
∀(t, x) ∈ K × E.
Alors, les solutions maximales sont globales.
5.2.2
Entonnoirs
Définition 5.7 On dit que u : I → R est une sur-solution de x0 = f (t, x)
si, pour tout t ∈ I :
u0 (t) ≥ f (t, u(t)).
On définit de même les sur-solutions strictes (et les sous-solutions).
Proposition 5.8 Soit u : I → R une sur-solution stricte de x0 = f (t, x) et
x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0 ) ≤ u(t0 ), alors pour
tout t ∈ J avec t > t0 , on a :
u(t) > x(t).
19
Proposition 5.9 Soit u : I → R une sous-solution stricte de x0 = f (t, x) et
x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0 ) ≥ u(t0 ), alors pour
tout t ∈ J avec t > t0 , on a :
u(t) < x(t).
Exemple : x0 = 1 − x2 ; u(t) = t + c.
Les deux propositions précédentes restent valables sans l’hypothèse "stricte".
Définition 5.10 Soient u une sur-solution et v une sous-solution de x0 = f (t, x)
sur I × R. On suppose que u > v. L’ensemble
{(t, x) ∈ I × R : ∀t ∈ I : v(t) ≤ x ≤ u(t)}
est appelé un entonnoir.
Proposition 5.11 Soit I = (a, b). Soit x : J → R une solution maximale de
x0 = f (t, x) sur I × R. Soit t0 ∈ J. Si v(t0 ) ≤ x(t0 ) ≤ u(t0 ), alors [t0 , b) ⊂ J
et pour tout t ∈ [t0 , b) :
v(t) ≤ x(t) ≤ u(t).
5.2.3
Un exemple d’étude qualitative
On se propose d’étudier l’équation : y 0 = y 2 − x. Pour tout (x0 , y0 ), il
existe une unique solution maximale y telle que y(x0 ) = y0 .
Minoration du temps d’existence Montrons que l’intervalle d’existence
maximal est minoré. Supposons que cet intervalle ne soit pas minoré. Alors,
y est définie sur ] − ∞, b[. Ainsi, la solution est strictement croissante sur
] − ∞, 0] et elle s’annule donc au plus une fois sur cet intervalle (par exemple
en x1 ). Alors, y ne s’annule pas avant x1 et pour x ≤ x1 − 1, on a : y 0 (x) ≥ 1
et donc y tend vers −∞ en −∞. Mais on a aussi : y 0 (x) ≥ y(x)2 , pour x ≤ x1
et donc :
1
1
≥
− (x − x1 ).
y(x)
y(x1 )
On fait tendre x vers −∞ pour trouver une contradiction. Au voisinage de
a, la solution ne peut pas rester dans la parabole y 2 ≤ x (elle doit s’échapper
des compacts) ; ainsi, quand x tend vers a, la solution devient croissante. Le
théorème d’échappement impose donc que y tend vers −∞.
20
Piégeage des solutions bornées Dans la suite, on s’intéresse aux solutions bornées et nous montrons qu’elles entrent dans un entonnoir.
Supposons que y est bornée. Supposons qu’elle est croissante sur ]a, b[. Alors,
on a y(x)2 ≥ x et donc b 6= +∞ ce qui entraîne l’explosion de y en temps
fini. C’est contradictoire. y ne peut donc pas rester croissante sur ]a, b[. Soit
2
c le plus petit réel de ]a, b[ tel que : y 0 (c) = 0. En particulier, on a y(c)
√ = c.
2
Vérifions que la parabole y = x définit un entonnoir. u(x) = x vérifie u0 (x) >√0 = f (x, u(x)) ; ainsi, u est une sur-solution stricte. De même,
v(x) = − x est une sous-solution stricte. La proposition de piégeage des
solutions dans un entonnoir montre que pour tout t ∈ [c, b[, la solution reste
dans l’entonnoir et donc que b = +∞.
5.3
5.3.1
Quelques exemples d’équations non linéaires
Équations de Bernoulli et Riccati
Équation de Bernoulli On appelle équation de Bernoulli toute équation
différentielle numérique de la forme :
(E) : y 0 = A(x)y α + B(x)y,
où A et B sont des fonctions continues sur I. α est supposé différent de 0 et
1. En essayant le changement de fonction
z = y 1−α ,
on est ramené à
(1 − α)−1 z 0 = A(x) + B(x)z.
Notons que ce changement de fonction n’est licite que si y > 0. Il faut donc
faire attention.
Remarque 5.12.
Si α > 1, toute solution de (E) qui s’annule est identiquement nulle.
Exemple 1 : traiter le cas α = 2.
Exemple 2 : traiter : x2 y 0 + y + y 2 = 0, x > 0.
Équation de Riccati On appelle équation de Riccati toute équation différentielle numérique de la forme :
(E) : y 0 = A(x)y 2 + B(x)y + C(x),
21
où A, B et C sont des fonctions continues sur I. Nous sommes dans le cadre
d’application du théorème de Cauchy-Lipschitz, mais on ne sait pas résoudre
explicitement cette équation. Cependant, si on connaît une solution particulière y0 et si on pose : y = y0 + u, alors u vérifie une équation de Bernoulli
(α = 2).
5.3.2
Équations à variables séparées
y 0 = f (x) : f est supposée continue sur I à valeurs dans E. y est une
solution si et seulement si y = F (x) + C.
y 0 = g(y) : Il s’agit d’une équation autonome (car la variable de dérivation
ne figure pas explicitement). Si on suppose que g est C 1 sur I, alors on a
l’existence et l’unicité d’une solution locale. Supposons que g ne s’annule
qu’en un nombre fini de points y1 < · · · < yn . Alors, on remarque déjà que
si yj est un zéro de g, alors y = yj est solution. Par unicité, on peut donc
supposer que y vérifie yj < y < yj+1 . En considérant une primitive G de g −1 ,
on obtient que les solutions sont données par G(y) = x + c. Comme G est
strictement monotone,√ on peut l’inverser et retrouver y.
(y−2)2 y
Exemple : y 0 = (y−2)2 +√y sur [0, +∞[.
y 0 = f (x)g(y) : On suppose que f est continue sur I et que g est C 1 sur
I de sorte que les hypothèses du théorème de C. L. soient satisfaites. Avec
les notations du paragraphe précédent, sur ]yj , yj+1 [, on a : G(y) = F (x) + C
avec F une primitive de f sur I.
Exemple : y 0 = ex+y .
5.4
Un exemple pour traiter des équations différentielles :
la méthode du tir
Nous allons essentiellement donner des exemples de cette technique. Elle
concerne les équations différentielles avec des conditions aux limites qui ne
sont pas celles de Cauchy-Lipschitz.
Exemple 1 : Pour c 6= 0, résoudre x0 = cx avec x0 (1) = 1.
Le principe est d’introduire un paramètre de tir τ et de résoudre, en fonction
de τ le problème :
x0 = cx, x(0) = τ.
Dans ce cas, on trouve :
xτ (t) = τ ect .
22
Il s’agit alors de sélectionner dans cette famille xτ les éléments qui vérifient
la condition aux limites. On calcule donc x0τ (1) = cτ et cela impose : τ = c−1
et nous avons résolu le problème.
Exemple 2 : Résoudre x00 + x = 0 avec x(0) = x(1) = 0.
On introduit le paramètre de tir τ en résolvant le problème de Cauchy suivant :
x00 + x = 0, x(0) = 0, x0 (0) = τ.
Cela se résout sans difficulté :
xτ (t) = τ sin t.
xτ (1) = 0 implique alors τ = 0 et seule la solution nulle fonctionne.
Exemple 3 : un peu de théorie spectrale Déterminer les nombres λ
pour lesquels il existe une solution non nulle du problème suivant :
x00 + λx = 0,
x(0) = 0, x(1) = 0.
Remarquons déjà que si λ = 0, seule la solution nulle convient.
On résout donc :
x00 + λx = 0,
x(0) = 0, x0 (0) = τ.
Si λ < 0, on trouve :
√
τ
sinh(t −λ).
xτ (t) = √
−λ
La condition aux limites impose que τ = 0.
Si λ > 0, on trouve sans mal :
√
τ
xτ (t) = √ sin(t λ).
λ
√
La condition aux limites donne sin( λ) = 0 et donc λ = n2 π 2 . Ainsi, l’ensemble des solutions est donné par :
xτ (t) =
τ
sin(nπt).
nπ
23
Exemple 4 : un peu de théorie des cristaux liquides Existe-t-il des solutions non nulles de : φ00 + sin φ cos φ = 0, x(0) = 0, x0 (L) = 0 et qui s’annulent sans changer de signe ?
On considère plutôt :
φ00 + sin φ cos φ = 0,
x(0) = 0, x0 (0) = τ.
On trouve que :
φ0 (z)2 + sin(φ(z))2 = τ 2 = sin2 (φ(L)).
Examinons les cas limites : τ = 0 et τ = 1. Pour τ = 0, on trouve la solution
nulle. Pour τ = 1, on trouve :
φ0 (z)2 = cos2 (φ(z)).
On trouve comme solution
φ1 (z) =
π
− 2 arctan(e−z ),
2
mais elle ne satisfait pas la deuxième condition aux limites.
On se restreint donc à τ ∈ (0, 1). On déduit déjà que
|φ(z)| ≤ arcsin τ.
Soit z0 le plus petit nombre strictement positif tel que φ0 (z0 ) = 0. φ est
strictement croissante sur [0, z0 ] et φ(z0 ) = arcsin τ . Soit alors z1 le plus petit
nombre plus grand que z0 tel que φ(z1 ) = 0. φ est décroissante sur [z0 , z1 ] et
φ0 (z1 ) = −τ . Cela entraîne que φ est 2z1 -périodique. En particulier, on doit
avoir :
L = z0 + nz1 .
Si n ≥ 1, on aurait z1 ∈ (0, L), ce qui contredirait l’hypothèse du changement
de signe. Ainsi, on a n = 0.
On vient donc de montrer qu’il y avait une solution unique φτ,L strictement
positive et croissante sur (0, L). Nous pouvons exprimer son inverse :
Z ψ
dφ
−1
p
φτ,L (ψ) =
.
τ 2 − sin2 φ
0
Par changement de variables, il vient :
φ−1
τ,L (ψ)
Z
=
0
sin ψ
τ
1
dt
√
√
,
2
2
1−t τ
1 − t2
24
∀ψ ∈ [0, arcsin τ ].
Pour ψ = arcsin τ , on a :
φ−1
τ,L (arcsin τ )
1
Z
=
0
dt
√
√
= F (τ ).
2
1 − t τ 2 1 − t2
La condition aux limites donne :
F (τ ) = L.
On remarque que F est continue et strictement croissante de
détermine une unique valeur de τ .
5.5
π
2
à +∞. Cela
Un exemple d’étude qualitative de système non linéaire
Le but de cette section est l’étude du système proie-prédateur de Volterra :
x0 = ax − bxy, y 0 = −cy + dxy,
où a, b, c, d > 0 et avec données initiales x(t0 ) = x0 > 0 et y(t0 ) = y0 > 0.
Le théorème de Cauchy-Lipschitz fournit l’existence d’une solution sur [t0 , T [.
Positivité des solutions Montrons que x > 0 et y > 0 sur cet intervalle.
Dans le cas contraire, il existerait s tel que x(s) = 0. Or, nous remarquons
que x̃(t) = 0 et ỹ(t) = y(s)e−c(t−s) sont solutions du système avec données
initiales x̃(s) = 0 et ỹ(s) = y(s). L’unicité du théorème de Cauchy-Lipschitz
impose donc x = 0, ce qui contredit la condition initiale x(t0 ) > 0. De la
même façon, y ne peut s’annuler. Cela prouve la stricte positivité.
Une intégrale première On pose :
H(x, y) = by + dx − a ln y − c ln x.
Un calcul élémentaire fournit :
H(x(t), y(t)) = H(x0 , y0 ),
t ∈ [0, T [.
Globalité des solutions La positivité des solutions donne :
x0 ≤ ax et y 0 ≤ dxy.
On en déduit que
x(t) ≤ x0 ea(t−t0 ) ,
25
puis :
d
y(t) ≤ y0 e
Rt
t0
x(u)du
.
On en déduit que x et y sont bornées au voisinage de T si T < +∞ ; par le
théorème de prolongement des solutions d’une équation différentielle, on en
déduit que T = +∞.
Périodicité des solutions On peut découper R∗+ × R∗+ en quatre cadrans
autour de ( dc , ab ) (qui est une solution particulière du système : c’est un point
d’équilibre). Pour simplifier l’exposé, supposons que (x0 , y0 ) appartienne au
cadran supérieur droit. Dans ce cadran x0 ≤ 0 et y 0 ≥ 0. Si la solution reste
dans ce cadran, alors, x est décroissante et y est croissante sur [t0 , +∞[. x
tend donc vers x1 ≥ dc et y vers y1 . Si y1 = +∞, alors x0 tendrait vers −∞
ce qui est contradictoire. De même, on en déduit que x0 et y 0 tendent vers
0 (sinon, x et y auraient des limites infinies). On en tire que x et y tendent
respectivement vers dc et ab . Mais, cela est est absurde, puisque y0 > ab . On
en déduit qu’il existe un temps t1 maximal d’existence de la solution dans le
cadran supérieur droit. Pour ce temps, on a : x(t1 ) = dc , y(t1 ) > ab et donc
y 0 (t1 ) = 0, x0 (t1 ) < 0. On entre ainsi dans le cadran supérieur gauche et on
reproduit le raisonnement. Au bout d’un temps t4 , nous sommes revenus dans
le cadran de départ et y(t4 ) = y(t0 ) = ab . Nous n’avons pour autant par encore
prouvé la périodicité. Il suffirait de montrer que (x(t0 ), y(t0 )) = (x(t4 ), y(t4 ))
et on conclurait par le théorème de Cauchy-Lipschitz. Or, la conservation de
l’énergie H donne :
H(x(t0 ), y(t0 )) = H(x(t4 ), y(t4 )).
C’est alors un calcul élémentaire qui prouve que y 7→ H(x, ab ) est strictement
croissante sur [ dc , +∞[. Nous avons alors montré que les solutions sont T périodiques, avec T = t4 − t0 .
Moyennes des solutions Enfin, un petit calcul montre que :
Z
Z
c
a
1 T
1 T
x(u)du = et
y(u)du = .
T 0
d
T 0
b
5.6
5.6.1
Notions des méthodes numériques pour les équations différentielles
Rappel sur la formule de Taylor avec reste intégral
On rappelle dans ce paragraphe un ingrédient essentiel pour les approximations que nous allons effectuer. La formule de Taylor avec reste intégral
26
consiste en la proposition suivante :
Proposition 5.13 Soit f ∈ C n+1 ([a, b]). Alors, on a, pour tout k ∈ {0, · · · , n} :
Z
f (k) (a)
1 b (k+1)
0
k
f (b) = f (a) + f (a)(b − a) + · · · +
(b − a) +
f
(t)(b − t)k dt.
k!
k! a
Preuve.
Elle se fait par récurrence sur k. Pour k = 0, cette formule est claire car :
Z b
f 0 (t)dt.
f (b) − f (a) =
a
Supposons que la formule est satisfaite au rang 0 ≤ k < n. On peut donc
écrire :
Z
f (k) (a)
1 b (k+1)
0
k
f (b) = f (a) + f (a)(b − a) + · · · +
(b − a) +
f
(t)(b − t)k dt.
k!
k! a
Comme k + 1 < n + 1, on f (k+1) est de classe C 1 et on peut ainsi faire une
intégration par parties :
b
Z b
Z b
1
(b − t)k+1 (k+1)
(k+1)
k
f
(t) +
f (k+2) (t)(b−t)k+1 .
f
(t)(b−t) dt = −
k+1
a
a k+1 a
Cela implique :
Z b
f (k+1) (t)(b − t)k dt =
a
1
1
f (k+1) (a) +
k+1
k+1
Z
b
f (k+2) (t)(b − t)k+1 .
a
Il suffit alors de remplacer dans la formule supposée vraie par récurrence.
5.6.2
Méthodes de quadrature pour les intégrales
Soit f une fonction suffisamment régulière sur [α, β]. On va donner quelques
Rβ
méthodes d’approximation de α f (x)dx. Le cas écheant on donnera une estimation de l’erreur.
De façon générale, on se donne une subdivision de [α, β] :
α = α0 < α1 < · · · < αk = β.
On note, pour i = 0, · · · , k − 1.
hi = αi+1 − αi .
On notera hmax = max(hi ).
27
Méthode des rectangles à gauche Le principe est d’approcher l’intégrale par :
k−1
X
hi f (αi ).
i=0
Estimons l’erreur.
Z β
k−1
k−1 Z
X
X
f (x)dx −
hi f (αi ) =
α
i=0
i=0
αi+1
(f (x) − f (αi ))dx.
αi
Si f ∈ C 1 ([α, β]), nous pouvons utiliser l’inégalité des accroissements finis :
|f (x) − f (αi | ≤ M |αi − x|.
Il vient :
Z
k−1
k−1 Z αi+1
β
X
X
(x − αi )dx.
f (x)dx −
hi f (αi ) ≤ M
α
αi
i=0
i=0
Ainsi, nous avons :
Z
k−1
k−1
β
MX
X
M
(β − α)hmax .
(αi+1 − αi )2 =
f (x)dx −
hi f (αi ) ≤
α
2 i=0
2
i=0
On remarquera que cette méthode est exacte pour les fonctions constantes.
Méthode des rectangles à droite Le principe est d’approcher l’intégrale
par :
k−1
X
hi f (αi+1 ).
i=0
Exercice : calculer l’erreur de la méthode.
Méthode du point milieu Le principe est d’approcher l’intégrale par :
k−1
X
i=0
hi f
αi + αi+1
2
Estimons l’erreur.
Z β
k−1
k−1 Z
X
X
f (x)dx −
hi f (ci ) =
α
i=0
i=0
28
.
αi+1
αi
(f (x) − f (ci ))dx.
Nous utilisons la formule de Taylor à l’ordre 1, au point ci (f est supposée
C 2) :
|f (x) − f (ci ) − f 0 (ci )(x − ci )| ≤ M |x − ci |2 .
Ainsi, nous écrivons :
k−1 Z αi+1
k−1 Z αi+1
X
X
M
0
(β−α)h2 .
(f (x) − f (ci ) − f (ci )(x − ci ))dx ≤ M
|x−ci |2 dx ≤
4
i=0 αi
i=0 αi
Nous remarquons :
Z
αi+1
(x − ci )dx = 0.
αi
Nous en déduisons :
Z
k−1
β
M
X
f (x)dx −
hi f (ci ) ≤
(β − α)h2 .
α
4
i=0
On remarquera que cette méthode est exacte pour les fonctions affines.
Méthode de Simpson Le principe est déja d’approcher f par des arcs de
paraboles (voir les exercices). On approche alors l’intégrale par :
k−1
X
4
1
1
hi
f (αi ) + f (ci ) + f (αi+1 ) .
6
6
6
i=0
Exercice : estimer l’erreur.
5.6.3
Méthodes de résolution numérique pour les équations différentielles
On considère :
(E) : y 0 = f (t, y),
y(t0 ) = y0 .
y est aussi solution de l’équation intégrale :
Z t
y(t) = y0 +
f (s, y(s))ds.
t0
On réalise une subdivision
t0 < t1 < · · · < tN = t0 + T.
On remarquera que :
Z
tn+1
y(tn+1 ) = y(tn ) +
f (s, y(s))ds.
tn
On pose hn = tn+1 − tn pour 0 ≤ n ≤ N − 1 et hmax = max(hn ).
29
Méthode d’Euler La méthode d’Euler consiste en l’algorithme suivant :
yn+1 = yn + hn f (tn , yn )
qui consiste à utiliser la méthode des rectangles à gauche.
Méthode du point milieu La méthode du point milieu pour les équations
différentielles consiste à approcher l’intégrale précédente par la méthode du
point milieu :
y(tn+1 ) = y(tn ) + hn f (tn+ 1 , y(tn+ 1 )).
2
2
Il nous faut donc connaître y(tn+ 1 ). On utilise donc la méthode d’Euler. Cela
2
mène à l’algorithme :
hn
yn+1 = yn + hn f tn + , yn+ 1 ,
2
2
où :
yn+ 1 = yn +
2
hn
f (tn , yn ).
2
Méthode de Runge-Kutta "classique" L’étudiant averti s’attend maintenant à rencontrer la méthode de Simpson ! Nous donnons l’algorithme sans
plus de justification.
pn,1 = f (tn , yn ),
tn,2 = tn +
hn
,
2
hn
pn,1 ,
2
= f (tn,2 , yn,2 ),
yn,2 = yn +
pn,2
hn
pn,2 ,
2
= f (tn,2 , yn,3 ),
yn,3 = yn +
pn,3
tn+1 = tn + hn ,
yn,4 = yn + hn pn,3 ,
yn+1
pn,4 = f (tn+1 , yn,4 ),
1
2
2
1
= yn + hn
pn,1 + pn,2 + pn,3 + pn,4 .
6
6
6
6
30
6
6.1
Rappels d’algèbre linéaire
Matrices, changements de bases
Soient E et F deux K-e.v. de dimensions respectives n et p. Soit u ∈
L(E, F ). Soient (e1 , · · · , en ) et (f1 , · · · , fp ) des bases de E et F . On écrit :
u(ej ) =
p
X
aij fi .
i=1
On appelle matrice de u dans les bases E et F le tableau suivant :
Matfe u = (ai,j ).
Composition des applications linéaires
Définition 6.1 On définit le produit des matrices de la façon suivante. Soient
A = (ai,j ) i = 1, · · · , m et B = (bij ) i = 1, · · · , p . Le produit AB est la matrice C
j = 1, · · · , p
j = 1, · · · , n
de terme général :
cij =
p
X
aik bkj
i = 1 · · · m, j = n.
k=1
Soit G un K-e.v. de dimension m et g une base de G. Soit v ∈ L(F, G). On
a alors :
Matge (vu) = Matgf v Matfe u.
Soit x ∈ E. On écrit
x=
n
X
xi ei .
i=1
Matfe u X
est le vecteur des coordonnées de u(x) dans la base f.
Matrice inverse Quand E et F ont même dimension, il se peut que u soit
inversible ; dans ce cas, on définit :
(Matfe u)−1 = Matef u−1 .
On vérifie facilement que :
(Matfe u)−1 Matfe u = Matfe u (Matfe u)−1 = In .
31
Matrice de passage Soient e’ une autre base de E. On note
P = Matee’ IdE .
Cette matrice est appelée matrice de passage de la base e vers la base e’.
Soit X les coordonnées de x dans la base e et X 0 les coordonnées de x dans
la base e’. On a donc : X = P X 0 .
Changements de bases Soient P = Matee’ IdE et Q = Matff ’ IdF . On a :
Q−1 Matfe u P = Matfe’’ u.
Endomorphismes Supposons que E = F . Soit e une base de E. La matrice de u dans la base e est la matrice carrée :
A = Matee u.
On pose :
Tr(A) =
n
X
aii .
i=1
On vérifie que si
B = Mate’
e’ u,
alors
Tr(A) = Tr(B).
Cette quantité, invariante par changement de base, est appelée trace de u.
Elle peut être définie indépendamment d’une base via le déterminant.
6.2
Endomorphismes, valeurs propres
On suppose que E = F et u ∈ L(E).
Définition 6.2 On dit que λ ∈ K est une valeur propre de u si et seulement
si u − λId n’est pas inversible. Un élément non nul x qui vérifie u(x) = λx
est appelé vecteur propre de x associé à λ.
Proposition 6.3 λ est une valeur propre de u si et seulement si elle est
racine du polynôme : det(A − XIn ) où A est la matrice de u dans une base
quelconque. En particulier, il y en a un nombre fini.
32
Définition 6.4 On dit que u est diagonalisable si et seulement s’il existe
une base dans laquelle la matrice A de u est diagonale. En d’autres termes,
il existe une matrice inversible P telle que P −1 AP est diagonale. Dans ce
cas, les éléments diagonaux de u sont ses valeurs propres.
Définition 6.5 On dit que u est trigonalisable si et seulement s’il existe une
base dans laquelle la matrice A de u est triangulaire supérieure. En d’autres
termes, il existe une matrice inversible P telle que P −1 AP est triangulaire
supérieure. Dans ce cas, les éléments diagonaux de u sont ses valeurs propres.
Proposition 6.6 Si K = C, tout endomorphisme est trigonalisable.
7
Notions de la théorie des séries entières
Soit (X, d) un espace métrique. On a vu que si (fn )n∈N est une suite
de fonctions continues et bornées (à valeurs dans E = Kp ) qui converge
uniformément sur X vers f , alors f est continue sur X.
7.1
Éléments de la théorie
On suppose connues les notions
séries numériques,
P de convergence des P
notamment que la convergence de |un | entraîne celle de un (via le critère
de Cauchy).
P
Il s’agit ici d’étudier les séries de fonctions de la forme
an z n , avec z ∈ C.
On commence par un lemme fondamental.
n
Lemme 7.1 S’il existe
P z0n tel que (an z0 ) est bornée, alors, pour tout z tel que
|z| < |z0 |, la série
an z est absolument convergente et il y a convergence
normale (et donc uniforme) sur le disque fermé D(0, r) avec 0 ≤ r < |z0 |.
Preuve.
Si z0 6= 0, on a :
n
n
z
z
|an z n | ≤ |an z0n | ≤ M .
z0
z0
La comparaison avec la suite géométrique assure la conclusion.
Définition 7.2 On appelle rayon de convergence de
rieure de l’ensemble des r tel que an rn soit bornée.
33
P
an z n la borne supé-
P
Théorème 7.3 Soit R > 0 le rayon de convergence de la série
an z n . Si
R = 0, il n’y a convergence qu’en z = 0. Si R = +∞, la convergence normale
a lieu sur toute partie bornée de C. Si R est fini et non nul, il y a convergence
absolue pour |z| < R et convergence normale sur D(0, r) avec r < R et il y
a divergence pour |z| > R.
Définition 7.4 Soit U un ouvert de C. On dit que f : U → C est dérivable
en z0 ∈ U si le rapport
f (z) − f (z0 )
z − z0
possède une limite quand z tend vers z0 . Cette limite est alors notée f 0 (z0 ).
Lorsque cette propriété est vérifiée en tout point de U , on dit que f est holomorphe sur U .
Les règles usuelles de dérivation (somme, produit, composée) sont valables
pour les C-dérivées.
Lemme 7.5 Pour tout n ∈ N∗ , z 7→ z n est holomorphe sur C et de dérivée
z 7→ nz n−1 .
P
P
Lemme 7.6 Les séries
an z n et
nan z n−1 ont même rayon de convergence.
Preuve.
P
P
Soit R le rayon de convergence de
an z n et R0 celui de
nan z n−1 . On
remarque déjà que :
|an z n | ≤ n|an ||z|n−1 |z|.
On en déduit que R ≥ R0 . Il faut montrer l’inverse. Soit r1 < r2 < R et
|z| ≤ r1 . On écrit :
n−1
n−1
r1
−1
n
n−1
n−1 |z|
.
|nan z | ≤ n|an |r2
n−1 ≤ r2 |an |r2 n
r2
r2
Ainsi, on a : R0 ≥ R.
P
Théorème 7.7 P
Soit an z n une série entière de rayon de convergence R > 0.
+∞
n
Alors, f (z) =
est une fonction holomorphe sur le disque de
n=0 an z
convergence et on peut dériver terme à terme :
f 0 (z) =
∞
X
n=1
34
nan z n−1 .
Preuve.
On considère :
∞
f (z) − f (z0 ) X
=
un (z),
z − z0
n=0
où
n−1
X
z n − z0n
= an
un (z) = an
z0k z n−k−1 .
z − z0
k=0
On trouve que
lim un (z) = nan z0n−1 .
z→z0
On peut toujours supposer que |z0 | ≤ r et |z| ≤ r avec 0 < r < R et alors :
|un (z)| ≤ n|an |rn .
On a donc convergence normale sur D(0, r) et donc convergence uniforme ;
la somme de la série possède donc une limite quand z → z0 .
Remarque 7.8.
Les séries entières sont indéfiniment dérivables sur leur disque ouvert de
convergence.
7.2
Un exemple fondamental : l’exponentielle
P zn
est une série entière de rayon de convergence infini. Elle
La série
n!
définit donc une fonction holomorphe sur C notée exp(z) ; il est aisé de vérifier
les propriétés suivantes :
– exp0 (z) = exp(z), pour tout z ∈ C,
– exp(0) = 1,
– exp(z) = exp(z), pour tout z ∈ C,
– exp(z + z 0 ) = exp(z) exp(z 0 ), pour tout z, z 0 ∈ C,
– exp(z) 6= 0 pour tout z,
– exp(z)−1 = exp(−z) pour tout z ∈ C,
– | exp(ix)| = 1, pour tout x ∈ R,
– Si φ : I → C est dérivable, alors t 7→ exp(φ(t)) est dérivable sur I et
de dérivée t 7→ φ0 (t) exp(φ(t)).
Cela demande un peu plus de travail de montrer que :
Proposition 7.9 exp : C → C∗ est surjective.
35
Preuve.
Pour z ∈ C qui n’est pas un réel négatif, on pose :
Z 1
z−1
Z=
dt.
0 1 + t(z − 1)
On vérifie facilement que cette intégale est bien définie. On montre que
exp(Z) = z.
Pour cela, on introduit :
Z
f (u) =
0
u
z−1
dt.
1 + t(z − 1)
z−1
u 7→ exp(f (u)) est dérivable sur R de dérivée f 0 (u) exp(f (u)) = exp(f (u)) 1+u(z−1)
.
Ainsi, on peut écrire :
exp(f (u))0 (1 + u(z − 1)) = exp(f (u))(z − 1)
ou encore :
exp(f (u))
1 + u(z − 1)
0
= 0.
En prenant la valeur en 0, on trouve :
exp(f (u)) = 1 + u(z − 1).
Alors, on a : exp(Z) = z. Tous les nombres complexes non négatifs sont donc
atteints par l’exponentielle. Si a ∈ R∗− , on écrit : a = i2 b avec b = −a > 0.
On peut écrire b = exp(Z). Mais, on peut aussi écrire i = exp(Z 0 ) et donc
i2 = exp(2Z 0 ). Par conséquent, on a : a = exp(Z + 2Z 0 ).
Il est facile de voir que :
Proposition 7.10 {x ∈ R : eix = 1} est un sous-groupe discret de (R, +).
Son générateur est par définition 2π.
On définit alors les fonctions cos et sin et on peut alors redémontrer toutes
leurs propriétés bien connues...
36
Téléchargement