4 – Syst`emes d`équations différentielles - IRMA

publicité
Université de Strasbourg
MPC Mathématiques L3 (S5)
P. Guillot, bureau 314, [email protected]
§4 – Systèmes d’équations différentielles
Le polynôme caractéristique de A est X 2 − 12X + 35 =
(X − 7)(X − 5), les valeurs propres sont 5 et 7, donc A est
diagonalisable. On cherche les vecteurs propres, et on trouve
qu’en posant
2 11
P =
1 5
Définitions
On étudie les équations différentielles de la forme
Y 0 (t) = AY (t) + B(t)
(E)
où A est une matrice n × n, et Y : I → Cn (avec I intervalle
de R). On a donc
 0



y1 (t)
y1 (t)
 y20 (t) 
 y2 (t) 




Y (t) =  .  et Y 0 (t) =  .  .
 .. 
 .. 
yn (t)
alors
P
AP =
7
0
0
5
= D.
Si on pose donc Q = P −1 , et
−5y1 + 11y2
z1 (t)
Z(t) = QY (t) =
=
,
y1 − 2y2
z2 (t)
yn0 (t)
alors Z satisfait l’équation Z 0 (t) = DZ(t). On est donc ramené
à
0
z1 (t) = 7z1 (t)
z20 (t) = 5z2 (t)
L’équation homogène associée est
Y 0 (t) = AY (t)
−1
(H)
Comme d’habitude, les solutions de (H) forment un espace vectoriel ; si Y0 est une solution particulière de (E), alors toutes les
solutions de (E) sont de la forme Y0 + Y avec Y solution de
(H). On va surtout regarder des équations homogènes dans le
cours.
On sait bien faire ça : on a z1 (t) = λ1 e7t et z2 (t) = λ2 e5t .
Pour finir, Y (t) = P Z(t), donc
y1 (t) = 2 λ1 e7 t + 11 λ2 e5 t
y2 (t) = λ1 e7 t + 5 λ2 e5 t
Exemple. (2) Parfois la matrice A n’est pas diagonalisable. Par
exemple
y1 (t) = y1 (t) + y2 (t)
y2 (t) = −y1 (t) + 3y2 (t)
Résolution en pratique
L’idée générale pour résoudre Y 0 (t) = AY (t) est très simple,
et on l’a d’ailleurs déjà vue dans le cours précédent sur un
exemple :
– On cherche une matrice Q telle que D = QAQ−1 soit
simple, par exemple diagonale ;
– On remarque que
Dans ce cas le polynôme caractéristique est (X − 2)2 , et on voit
facilement que A n’est pas diagonalisable. Par contre, admettons que l’on ait remarqué (en général ce sera une indication
du texte de l’exercice...) qu’en posant
1 3
P =
1 4
Y 0 (t) = AY (t) ⇐⇒ (QY )0 (t) = D(QY )(t) .
On pose Z(t) = QY (t), on cherche donc à résoudre
Z 0 (t) = DZ(t).
– Si D est suffisamment simple, alors on est ramené
à résoudre plusieurs équations différentielles linéaires
d’ordre 1 (avec des fonctions I → C, c’est-à-dire qu’on
s’est ramené à n = 1). On sait complètement résoudre
ces équations.
– Ayant trouvé une solution Z(t), on récupère Y (t) puisque
Y (t) = Q−1 Z(t).
alors
P −1 AP =
2
0
1
2
= D.
On fait le même “changement de fonction inconnue”, à savoir
Z(t) = QY (t) (avec Q = P −1 ), et on doit résoudre
0
z1 (t) = 2z1 (t) + z2 (t)
z20 (t) = 2z20 (t)
Voilà qui fait encore partie des équations que l’on sait résoudre.
La deuxième donne z2 (t) = λ2 e2t , et en injectant dans la
première équation on voit que z1 satisfait
Exemple. (1) Résoudre
0
y1 (t) = −15y1 (t) + 44y2 (t)
y20 (t) = −10y1 (t) + 27y2 (t)
z10 (t) = 2z1 (t) + λ2 e2t .
On résout ça par la méthode habituelle (y compris la variation
de la constante puisqu’il y a maintenant un second membre !).
On trouve facilement
C’est Y 0 (t) = AY (t) avec
−15 44
y1 (t)
A=
et Y (t) =
.
−10 27
y2 (t)
z1 (t) = (λ1 + λ2 t)e2t .
1
Proposition 1.
Finalement Y (t) = P Z(t) et donc
y1 (t) = (λ1 + 3λ2 + λ2 t)e2t
y2 (t) = (λ1 + 4λ2 + λ2 t)e2t
1. exp(0) = Id (la matrice identité)
2. Si AB = BA (attention !), alors eA+B = eA eB .
3. Si A = P −1 BP alors eA = P −1 eB P .
4. Soit F (t) = etA , pour t ∈ R. Alors F 0 (t) = AF (t).
Etude qualitative
La propriété (4) est bien sûr celle qui nous intéresse, du
point de vue des équations différentielles. Pour “voir” pourquoi
ça fonctionne, autorisons nous à traiter la somme infinie comme
une somme normale. On obtient :
P∞ d tn An
d
tA
dt (e ) = Pn=0 dt n! n
∞
n−1 A
=
n=1 nt
n! n−1
P
∞
A
= A n=1 tn−1 (n−1)!
tA
= Ae .
On va maintenant donner une formule “générale” pour les
solutions de Y 0 (t) = AY (t) (et même de Y 0 (t) = AY (t) + B
avec B un vecteur constant). En pratique, connaı̂tre cette formule n’est pas plus efficace que connaı̂tre la méthode ci-dessus.
Par contre c’est utile pour faire une étude “qualitative” : par
exemple on va calculer la dimension de l’espace des solutions.
Pour n = 1 on sait tout résoudre grâce à l’exponentielle, et
l’outil dont nous avons besoin maintenant est l’exponentielle de
matrice.
Le théorème principal
Rappels sur l’exponentielle
Théorème 2. Les solutions de l’équation différentielle Y 0 (t) =
AY (t) sont les fonctions de la forme
Admettons que l’on ait défini l’exponentielle comme la
réciproque du logarithme (et le logarithme comme une primitive
de x1 ).
Depuis la formule de Taylor, on sait que, pour x ∈ R, on a
Y (t) = etA C0 ,
où C0 est un vecteur colonne n × 1 constant. Les solutions de
Y 0 (t) = AY (t) + B lorsque A est inversible sont les fonctions
de la forme
Y (t) = etA C0 − A−1 B .
+∞ n
N
X
X
x
xn
x
e =
= lim
.
N →+∞
n!
n!
n=0
n=0
Pour un nombre complexe z, la seule définition de son exponentielle que l’on ait est
Démonstration. C’est la même que pour n = 1 ! En effet, si Y
satisfait Y 0 (t) = AY (t), alors on regarde F (t) = e−tA Y (t).
On dérive, on voit que F 0 (t) = 0, donc F est constante :
F (t) = C0 , et c’est bon.
Pour la deuxième partie, il s’agit juste d’observer que la
fonction constante t 7→ −A−1 B est solution particulière.
+∞ n
X
z
e =
.
n!
n=0
z
Il faut bien alors démontrer que la limite existe pour s’assurer
que ez a un sens : vous l’avez normalement fait en 1ère année.
Exemple. Reprenons l’exemple (1). Puisque tA
=
P −1 diag(7t, 5t)P , on a
7t
7t
e
0
2e
11e5t
tA
−1
e =P
P =
P −1 .
0 e5t
e7t
5e5t
Au passage, c’est comme ça que l’on donne une vraie définition du
cosinus et du sinus : on pose cos(θ) = Re(eiθ ) et sin(θ) = Im(eiθ ).
Exponentielle de matrice
Soit A une matrice m × m. On pose
exp(A) = eA =
(Comme précédemment, on n’a pas besoin de calculer P −1 .)
On a donc Y (t) = etA C0 = M (t)P −1 C0, en notant
M (t) la
λ
1
matrice ci-dessus. En écrivant P −1 C0 =
, on retrouve
λ2
bien le même résultat.
+∞
X
An
.
n!
n=0
Il faut démontrer que la limite existe pour que ceci ait un sens.
Donnons l’idée dans le cas où A est diagonalisable : comme on
a montré que toute matrice pouvait être approchée par des matrices diagonalisables, ça rend le résultat crédible (sans constituer une preuve complète).
Si donc A = P −1 DP avec D = diag(λ1 , . . . , λm ), on a
n
A = P −1 diag(λn1 , . . . , λnm )P , et
P
PN An
N
Dn
−1
=
P
P
n=0 n!
n=0 n!
n
P
PN λn
λ
N
= P −1 diag( n=0 n!1 , . . . , n=0 n!m )P
On observe au passage que, C0 étant un vecteur quelconque, le vecteur P −1 C0 peut lui aussi être n’importe quel élément de R2 , et on peut
aussi bien travailler avec lui (donc avec λ1 et λ2 ) plutôt que de calculer P −1 et de donner un nom aux coordonnées de C0 .)
On constate avec amertume que cette nouvelle approche ne
simplifie pas du tout les calculs. Par contre, l’expression compacte du théorème permet de faire des remarques qualitatives.
Faisons la plus simple de toutes :
Corollaire 3. L’espace vectoriel des solutions de Y 0 (t) = AY (t)
est de dimension n (où A est de taille n × n).
Puisque l’exponentielle réelle (“normale”) converge, on voit que
cette dernière expression converge vers
P
−1
λ1
diag(e , . . . , e
λm
Démonstration. Soit S cet espace des solutions. L’application
linéaire Cn → S qui envoie C0 sur la solution etA C0 est un
isomorphisme. (Son inverse envoie une solution Y sur Y (0).)
Donc dim S = dim Cn = n.
A
)P = e .
Voyons les propriétés de base :
2
Exercices
Dans le cours précédent on a vu comment résoudre (Eφ ) lorsque
les racines de φ sont distinctes. Dans ce problème on traite le
cas général.
(1) (a) Soit y une fonction, et soit z(t) = ty(t). Montrer
que z (n) (t) = ty (n) (t) + ny (n−1) .
(b) Soit φ0 la dérivée du polynôme φ. Montrer que si y est
solution à la fois de (Eφ ) et de (Eφ0 ), alors z est solution de
(Eφ ).
(c) Supposons que φ ait la factorisation suivante :
Correction de l’exercice 2, semaine 2 : Les valeurs propres sont 1, 0, −1, des vecteurs propres possibles sont
par exemple (6, −12, 11), (1, −2, 2), (0, 1, −1) respectivement.
Ainsi en posant




6
1
0
0 −1 −1
1  on a P −1 =  1
6
6 ,
P =  −12 −2
11
2 −1
2
1
0
et

1
P −1 AP =  0
0
0
0
0

0
0 .
−1
φ(x) = (x − λ1 )m1 · · · (x − λk )mk .
Soit yij (t) = ti eλj t pour 0 ≤ i < mj . Montrer que yij est
solution de (Eφ ).
Indication : λj est racine de φ, de φ0 , de φ00 , . . . et de
(mj −1)
...
φ
(2) En reprenant le cours de la semaine 3, montrer que
résoudre l’équation (Eφ ) revient à résoudre une équation de la
forme Y 0 (t) = AY (t) où A est une matrice carrée de taille n+1
(si φ est de degré n + 1).
En déduire que l’espace vectoriel des solutions de (Eφ ) est
de dimension n + 1.
(3) Il reste à montrer que les fonctions yij sont linéairement
indépendantes.
(a) Montrer que c’est le cas lorsque k = 1 (c’est-à-dire
lorsque φ(x) = (x − λ1 )n+1 ).
(b) Soient P1 , P2 , . . . , Ps et Q des polynômes, et soient
µ1 , . . . , µS des constantes. On suppose que pour tout t ∈ R
on a
L’expression donnée pour An dans le texte de l’exercice est correcte, sauf pour n = 0 enquel cas A0 = Id.
Exercice 1. Résoudre
 0
 x (t) = −6y(t) − 6z(t)
y 0 (t) = −2x(t) + 11y(t) + 12z(t)
 0
z (t) = 2x(t) − 10y(t) − 11z(t)
C’est la matrice A ci-dessus...
Exercice 2. Résoudre
0
x t) = −2x(t) − 3y(t)
y 0 (t) = x(t) + y(t)
Quelles sont les solutions à valeurs dans R ?
Exercice 3. Résoudre
 0
 
y1 (t)
5
 y20 (t)  =  0
y30 (t)
0
1
5
0
 

0
y1 (t)
1  ·  y2 (t) 
5
y3 (t)
P1 (t)eµ1 t + P2 (t)eµ2 t · · · + Ps (t)eµs t = Q(t) .
Ne pas chercher à simplifier la matrice : ça ne marchera pas...
Montrer que tous les polynômes sont nuls.
Indication : on voit que Q doit être solution d’une certaine
équation différentielle (Eψ ) où ψ ressemble beaucoup à φ, les
µi remplaçant les λi ; comme Q est un polynôme, ceci entraı̂ne
Q = 0 pour des raisons très simples de degré. Ensuite en divisant par eµs t on est ramené à s − 1 au lieu de s, et on peut
faire une récurrence. Dans le (a) on a traité le cas s = 1.
(c) Conclure.
Problème.
Pour chaque polynôme
φ(x) = αn+1 xn+1 + αn xn + . . . α0
on considère l’équation différentielle
(Eφ ) : αn+1 y (n+1) (t) + αn y (n) (t) + . . . α0 = 0 .
http://www-irma.u-strasbg.fr/~guillot/teaching.html
3
Téléchargement