Chapitre 6: Equations différentielles linéaires

publicité
Université de Bourgogne
Licence de Mathématiques
Département de Mathématiques
Compléments d’analyse
Chapitre 6: Equations différentielles linéaires
1. Introduction
Soit E = Kn un espace de dimension finie sur C, muni d’une norme k k. On se donne un
intervalle I de R et deux applications continues:
A : I −→ End(E) = Mn (K),
B : I −→ E.
On appelle équtaion différentielle linéaire une équation de la forme:
X 0 (t) = A(t)X(t) + B(t).
La fonction B est le second membre, l’équation sans second membre est l’équation X 0 = A(t)X.
Une solution de l’équation est une fonction ϕ : I −→ E, de classe C 1 et telle que pour tout t
de I, on ait:
ϕ0 (t) = A(t)ϕ(t) + B(t).
Soit t0 un point de I et X0 ∈ E. La solution est dite de condition initiale (t0 , X0 ) si ϕ(t0 ) = X0 .
Nous ne cherchons ici que des solutions sur tout l’intervalle I. En fait on va voir que pour tout
t0 et X0 , il y a une solution et une seule qui s’étend à tout I. On dit que l’équation linéaire est
déterministe.
2. Résolution de l’équation sans second membre
Soit J un segment inclus dans I et contenant t0 . On note C l’espace de Banach
C = (C(J, E), k k∞ ) ,
kf k∞ = sup k(t)k.
t∈J
Dans un premier temps, on va résoudre l’équation sans second membre sur J. Pour ceci on
prend s ∈ J on définit l’intégrale d’une fonction vectorielle f définie et continue sur J en intégrant
composante par composante et on regarde l’application:
Z t
F : C −→ C, (F (ϕ)) (t) = X0 +
A(s)ϕ(s) ds.
t0
Il est calir que (F (ϕ)) (t0 ) = X0 . Si ϕ est un point fixe de F , c’est à dire si l’on a:
F (ϕ) = ϕ,
1
alors ϕ est dérivable et sa dérivée en t ∈ J est
0
ϕ0 (t) = (F (ϕ)) (t) = A(t)ϕ(t).
Donc les points fixes de F sont des solutions de l’équation sans second membre X 0 (t) = A(t)X(t),
de condition initiale (t0 , X0 ).
Réciproquement, si ϕ est une solution de l’équation sans second membre, de condition initiale
(t0 , X0 ), alors:
Z t
Z t
A(s)ϕ(s) ds =
ϕ0 (s) ds = ϕ(t) − ϕ(t0 ) = ϕ(t) − X0
t0
t0
et F (ϕ) = ϕ. Les solutions de l’équation sans second membre, de condition initiale (t0 , X0 ) sont
donc exactement les points fixes de F .
On va chercher ces points fixes par une mèthode d’approximations successives: on pose ϕ0 (t) =
X0 pour tout t de J puis pour tout k ≥ 1,
ϕk = F (ϕk−1 ).
Comme la fonction t 7→ k|A(t)k| est continue, elle est majorée sur J. Il existe M > 0 tel que
k|A(t)k| ≤ M pour tout t de J. De même J est borné et il existe T > 0 tel que |t − t0 | ≤ T pour
tout t de J.
Lemme (Une estimation)
Pour tout t de J et tout k ≥ 1, on a:
kϕk (t) − ϕk−1 (t)k ≤ kX0 k
M k |t − t0 |k
.
k!
En particulier, on a
kϕk − ϕk−1 k∞ ≤ kX0 k
M kT k
.
k!
Preuve
D’abord en k = 1, on a:
Z t
kϕ1 (t) − ϕ0 (t)k = kϕ1 (t) − X0 k = A(s)X0 ds
t0
Z t
k|A(s)k| kX0 k ds ≤ M |t − t0 |kX0 k.
≤ t0
(Regarder séparément les cas t > t0 et t < t0 ). la propriété est vraie pour k = 1. Supposons qu’elle
soit vraie en k et passons au rang k + 1.
Le même calcul donne si t > t0
Z t
Z t
kϕk+1 (t) − ϕk (t)k = A(s)ϕk (s) ds −
A(s)ϕk−1 (s) ds
Z
t0
t
≤
t0
Z
t0
M
t0
k+1
≤
t
k|A(s)k| kϕk (s) − ϕk−1 (s)k ds ≤
M
k!
k+1 t
(s − t0 )
k+1
=
s=t0
2
M
k+1
M k (s − t0 )k
kX0 k ds
k!
(t − t0 )k+1
.
(k + 1)!
Le calcul dans le cas t < t0 est similaire et laissé en exercice. Ceci prouve le lemme.
Coroallaire (La suite (ϕk ) est de Cauchy)
La suite de fonctions (ϕk ) est une suite de Cauchy dans l’espace de Banach C.
Cette suite converge donc uniformément vers une fonction ϕ de C. On a F (ϕ) = ϕ.
Preuve
On a vu que pour tout k ≥ 1,
kϕk − ϕk−1 k∞ ≤ kX0 k
M kT k
.
k!
Donc, pour tout ` ≥ 0:
kϕk+` − ϕk−1 k∞ ≤ kϕk+` − ϕk+`−1 k∞ + . . . + kϕk − ϕk−1 k∞
k k
M k+`−1 T k+e ll−1
M k+` T k+`
M T
+ ... +
+
≤ kX0 k
k!
(k + ` − 1)!
(k + `)!
X M rT r
≤ kX0 k
= kX0 kRk .
r!
r≥k
P
r r
Où Rk est le reste à l’ordre k de la série entière r M r!T = eM T . Donc Rk tend vers 0 si k tend
vers l’infini et
(
∀k k ≥ K
∀ε > 0, ∃K tel que
,
=⇒ kϕk+` − ϕk k∞ ≤ kX0 kRk ≤ ε.
∀`
`≥0
La suite (ϕk ) est de Cauchy dans C complet, elle converge vers ϕ appartenant à C.
La suite (ϕk+1 ) tend aussi vers ϕ. Mais cette suite est aussi la suite (F (ϕk )).
Montrons que l’application F : C −→ C est continue. En fait, F est une application affine, de
la forme F (ϕ) = X0 + G(ϕ) avec
Z
t
(G(ϕ)) (t) =
A(s)ϕ(s) ds
t0
et G est évidemment linéaire. Pour montrer que F est continue pour la norme k k∞ , il suffit de
montrer que G est bornée. Mais on a si t > t0 :
Z
t
k (G(ϕ)) (t)k ≤
kA(s)ϕ(s)k ds ≤ M |t − t0 |kϕk∞
t0
et la même inégalité est vraie si t < t0 . Donc G est linéaire et continue et k|Gk| ≤ M T .
Donc F est continue et (F (ϕk )) tend vers F (ϕ). On a à la limite:
F (ϕ) = ϕ,
ϕ est une solution de notre équation sans second membre sur le segment J et de condition initiale
(t0 , X0 ).
Proposition (Unicité de la solution)
3
L’application F a un seul point fixe, ϕ.
L’équation sans second membre a une et une seule solution de condition initiale (t0 , X0 ), définie
sur J.
Preuve
Si ϕ et ψ sont deux points fixes, on a pour tout k:
F k (ϕ) − F k (ψ) = F k−1 (ϕ) − F k−1 (ψ) = . . . = ϕ − ψ.
Mais le même calcul que ci-dessus nous donne, pour tout t > t0 de J:
kϕ(t) − ψ(t)k = k F k (ϕ) (t) − F k (ψ) (t)k
Z t
≤
k|A(s)k|k F k−1 (ϕ) (s) − F k−1 (ψ) (s)k ds
t0
t
Z
≤
M k F k−1 (ϕ) (s) − F k−1 (ψ) (s)k ds.
t0
Donc, par récurrence sur k, que:
M k (t − t0 )k
.
kϕ(t) − ψ(t)k = k F k (ϕ) (t) − F k (ψ) (t)k ≤ kϕ − ψk∞
k!
En faisant tendre k vers l’infini, on en déduit que ϕ(t) = ψ(t).
Les mêmes inégalités sont vraies pour t < t0 . Donc ϕ = ψ et la solution sur J est unique.
Corollaire (Existence et unicité sur I)
L’équation sans second membre a une solution et une seule, définie sur tout I, de condition
initiale (t0 , X0 ). Cette solution prolonge toutes les solutions de condition initiale (t0 , X0 ), définies
sur un segment J ⊂ I contenant t0 .
Preuve
Comme on a une unique solution ϕJ de condition initiale (t0 , X0 ) sur tout segment J ⊂ I, on
peut poser pour chaque t de I,
ϕ(t) = ϕJ (t)
pour tout segment J contenant t0 et t. En efeet, par unicité de la solution sur le segment J ∪ J 0 ,
ce vecteur ne dépend pas du choix de J:
Pour tout s ∈ J, ϕJ (s) = ϕJ∪J 0 (s) et pour tout s de J 0 , ϕJ 0 (s) = ϕJ∪J 0 (s). Donc en t,
ϕJ (t) = ϕJ 0 (t).
La fonction ϕ est ainsi définie sur tout I, vérifie ϕ0 (t) = A(t)ϕ(t) pour tout t de I et ϕ(t0 ) = X0 .
C’est une solution sur I de condition initiale (t0 , X0 ).
Si ψ est une autre solution, sur tout segment J ⊂ I contneant t0 , on a ψ|J = ϕJ donc finalement
ϕ(t) = ψ(t). La solution est unique.
3. La résolvante
Pour chaque t0 ∈ I et chaque t ∈ I, on regarde ici l’application Rtt0 qui au vecteur X0 associe
la valeur ϕ(t), à l’instant t de la solution de condition initiale (t0 , X0 ). Cette application de E vers
E s’appelle la résolvante de l’équation sans second membre.
Proposition (Rtt0 est linéaire et inversible)
4
L’application Rtt0 : E −→ E est une application linéaire et inversible.
On a Rtu ◦ Rst = Rsu pour tout s, t, u de I.
Preuve
La linéarité vient directement des définitions. Si X1 et X2 sont deux vecteurs de E, la solution
ψ de l’équation sans second membre de condition initiale (t0 , λX1 + µX2 ) est l’unique fonction
dérivable sur I telle que
(
ψ 0 (t) = A(t)ψ(t) ∀t ∈ I,
ψ(t0 ) = λX1 + µX2 .
Mais si ϕ1 et ϕ2 sont les solutions de conditions initiales respectives (t0 , X1 ) et (t0 , X2 ) et si on
regarde la fonction t 7→ λϕ1 (t) + µϕ2 (t), on voit que:

0

 (λϕ1 + µϕ2 ) (t) = λA(t)ϕ1 (t) + µA(t)ϕ2 (t) ∀t ∈ I,
= A(t) (λϕ1 (t) + µϕ2 (t))


(λϕ1 + µϕ2 ) (t0 ) = λX1 + µX2 .
Par unicité de la solution, on a donc pour tout t λϕ1 (t) + µϕ2 (t) = ψ(t) donc
Rtt0 (λX1 + µX2 ) = ψ(t) = λϕ1 (t) + µϕ2 (t) = λRtt0 X1 + µRtt0 X2 .
Rtt0 est linéaire.
Si s, t et u sont trois points de I, par définition de la résolvante, Rtu (Rst X) est la valeur à
l’instant u de la solution ϕ telle que ϕ(t) = Rst X est la valeur à l’instant t de la solution ψ telle
que ψ(s) = X. On a ϕ(t) = ψ(t) donc par unicité, ϕ = ψ donc à l’instant u
Rtu (Rst X) = ϕ(u) = ψ(u) = Rsu X,
Rtu ◦ Rst .
−1
Par définition de la résolvante, on a Rss = idE . Donc Rst est inversible et (Rst )
= Rts .
Remarque
Il est facile de voir que, si on fixe t0 , l’application t 7→ Rtt0 est aussi solution d’une équation
différentielle sans second membre: l’équation de condition initiale (t0 , idE ):
(
R0 (t) = A(t) ◦ R(t)
R(t0 ) = idE .
En effet considérons l’application A(t) de L(E) dans L(E) qui à l’endomorphisme (ou la matrice
si on préfère) M ∈ L(E) associe l’endomorphisme A(t) ◦ M . Cette application A(t) est linéaire et
continue de L(E) dans L(E). D’autre part, par définition on a:
Rst V
0
0
= Ss,V
(t) = A(t)Ss,V (t) = A(t) ◦ Rst V.
Donc pour tout t:
Rst
0
= A(t) ◦ Rst = A(t) Rst .
Rst est la solution sur I de cette équation différentielle linéaire (sans second membre), de condition
initiale Rss = idE .
5
Prenons une base (e1 , . . . , en ) de E. On peut écrire la matrice de Rst dans cette base: pour
chaque ej , on note ϕj la solution de condition initiale (s, ei ). Par définition, les colonnes de la
matrice de Rst sont formées des vecteurs ϕj (t), écrits dans labase (e1 , . . . , en ).
On dit que les solutions (ϕ1 , . . . , ϕn ) forment un système fondamental de solution. On dit aussi
que le déterminant de la matrice résolvante w(t) = det(Rst ) est le wronskien de l’équation sans
second membre. Ce déterminant ne s’annule jamais.
Théorème de Liouville (Expression de det(Rst ))
On a:
Rt
tr(A(u))
det(Rst ) = e s
du
.
En particulier la résolvante est de déterminant 1 pour tout t si et seulement si la trace de A(t) est
constamment nulle.
Preuve
On va montrer que la fonction t 7→ det(Rst ) est, elle aussi solution d’une équation différentielle
linéaire (avec E = C cette fois). Pour cela il faut d’abord différentier l’application det : L(E) −→ C
qui à l’endomorphisme M (la matrice M ) associe det(M ).
D’abord cette application est une fonction polynomiale des coefficients mij de la matrice:
X
det(M ) =
εσ m1σ(1) m2σ(2) . . . mnσ(n) .
σ∈Sn
Elle est donc différentiable. On note d(det)M sa différentielle au point M . C’est une application
linéaire de L(E) dans C (une forme linéaire sur L(E)).
Soit M un endomorphsime bijectif (une matrice inversible), on a:
d(det)M (H) = det(M )tr(H ◦ M −1 ).
Commençons par le cas M = idE , c’est à dire calculons:
X
det(idE + H) − det(idE ) =
εσ a1σ(1) . . . anσ(n) − 1,
σ∈Sn
où aij = hij si i 6= j et aii = 1 + hii si i = j. Cette quantité est un polynôme en les hij . le terme
constant est 1 − 1 = 0. Cherchons les termes linéaires en hij . Dans le produit a1σ(1) . . . anσ(n)
contient au moins deux termes aiσ(i) et ai0 σ(i0 ) tels que σ(i) 6= i et σ(i0 ) 6= i0 , il apparaît hiσ(i) hi0 σ(i0 ) ,
donc le produit est un polynôme sans terme constant et sans terme linéaire;
Les termes linéaires n’apparaissent que s’il y a au plus un seul indice i tel que σ(i) 6= i. Mais
alors on a:
σ(1) = 1, . . . , σ(i − 1) = i − 1, σ(i + 1) = i + 1, . . . , σ(n) = n
et σ étant injectif, σ(i) doit être différent de ces nombres. La seule possibilité est donc σ(i) = i ou
σ = id. Les termes linéaires (en hij ) de det(idE + H) − det(idE ) sont les termes linéaires de:
X
(1 + h11 )(1 + h22 ) . . . (1 + hnn ) = 1 + (h11 + h22 + . . . + hnn ) +
termes homogènes de degré ≥ 2.
On a donc
det(idE + H) − det(idE ) − tr(H) =
X
termes homogènes de degré ≥ 2 = |||H|||ε(H)
6
et d(det)idE (H) = tr(H).
On peut aussi prouver ce résultat ainsi. Appelons Eij la matrice formée de 0 sauf à la ligne i et
à la colonne j où son coefficient
P est 1. Il est clair que la famille
P des Eij forme la base canonique de
Mn (C). On écrit donc M = i,j mij Eij et det(M ) = det( mij Eij ) est une fonction des variables
mij . Avec cette notations, on a:
d
∂ det
(I) =
det(I + tEij )|t=0
∂mij
dt
Donc

d

 (1 + t)|t=0 = 1 si i = j
= dt

 d 1|
t=0 = 0 si i 6= j.
dt
X
X ∂ det
X
X
d(det)idE (
hij Eij ) =
(I)hij =
hii = tr(
hij Eij ).
∂mij
ij
ij
i
ij
Maintenant prenons une matrice inversible M . On calcule directement
det(M + H) = det (idE + H ◦ M −1 ) ◦ M
= det(idE + H ◦ M −1 ) det(M )
h
i
X
= det(M ) 1 + tr(HM −1 ) +
termes homogènes de degré ≥ 2 .
Puisque tous les coefficients de la matrice HM −1 sont linéaires en les hij . On a donc:
det(M + H) = det(M ) + tr(H ◦ M −1 ) det(M ) + |||H|||ε(|||H|||)
et d(det)M (H) = det(M )tr(H ◦ M −1 ).
Maintenant on connaı̂t la dérivée de t 7→ Rst , on a donc:
0
det(Rst ) = det(Rst )tr((Rst )0 ◦ (Rst )−1 ) = det(Rst )tr((A(t)Rst ) ◦ (Rst )−1 ) = tr(A(t)) det(Rst ).
Comme det(Rss ) = det(idE ) = 1, t 7→ det(Rst ) est la solution de l’équation différentielle linéaire:
x0 (t) = tr(A(t))x(t)
de condition initiale x(s) = 1.
D’autre part, si on pose:
Rt
tr(A(u)) du
f (t) = e s
,
Rt
tr(A(u)) du
on obtient f (s) = 1 et f 0 (t) = tr(A(t))e s
, f est donc, elle aussi la solution de x0 (t) =
tr(A(t)x(t) de condition initiale 1, donc, pour tout t de I
Rt
tr(A(u))
det(Rst ) = f (t) = e s
du
.
4. Résolution de l’équation avec second membre
On résout l’équation avec second membre par la mèthode de variation des constantes. La
‘constante’ dans l’équation sans second membre, c’est le vecteur V = X0 . On le fait donc varier,
7
c’est à dire que l’on cherche la solution ϕ de l’équation avec second mambre Y 0 = AY + B sous la
forme:
−1
(S(t)).
ϕ(t) = Rst W (t) ou W (t) = Rst
Théorème (Solution de l’équation avec second membre)
Pour tout s de I et tout V de E, l’équation avec second membre:
X 0 (t) = A(t)X(t) + B(t)
a une solution et une seule Ss,V telle que Ss,V (s) = V . Cette solution est:
Ss,V (t) =
Rst V
t
Z
Rut B(u) du.
+
s
Preuve
Avec nos notations, S est solution de l’équation X 0 = AX + B si et seulement si:
0
0
Rst W (t) = Rst (W (t)) + Rst W 0 (t) = A(t)Rst W (t) + Rst W 0 (t)
= A(t) Rst W (t) + B(t).
Donc si et seulement si:
Rst W 0 (t) = B(t) ⇐⇒ W 0 (t) = Rts B(t).
Comme la condition initiale est C = Rss W (s) = W (s), S est solution si et seulement si
t
Z
Rus B(u) du
W (t) = V +
s
ou si et seulement si:
S(t) = Rst W (t) = Rst V + Rst
Z
t
Rus B(u) du .
s
Puisque Rst est linéaire de E dans E, on a
Rst
!
b
Z
f (u) du
Z
b
=
a
Rst (f (u)) du.
a
(Ecrivez ceci dans une base avec une matrice Rst ). Donc
S(t) =
Rst V
Z
+
t
Rst Rus B(u)
du =
Rst V
Z
+
s
s
4. Cas particulier des équations à coefficients constants
8
t
Rut B(u) du.
Si A(t) = A pour tout t de I, on dit que l’on a une équation sans second membre à coefficients
constants:
X 0 (t) = AX(t).
Cette équation est définie en fait sur tout R.
La solution de cette équation est très simple. On définit en effet l’exponentielle d’un endomorphisme ou d’une matrice A en posant:
eA =
∞
X
1 k
A .
k!
k=0
Cette série est normalement convergente dans toute boule fermée B(0, R) de (L(E), ||| |||) et puisque
cet espace est complet elle converge vers un endomorphisme de L(E). On a en particulier:
d tA
e = AetA = etA A.
dt
Et bien sûr e0A = idE .
On en déduit que t 7→ etA est la solution de l’équation différentielle X 0 (t) = AX(t) (X(t) ∈
L(E)) de condition initiale X(0) = idE . Comme R0t est aussi la solution de cette équation, de
même condition initiale, on a R0t = etA pour tout t.
Avec le même raisonnement, on voit que e(t−s)A est la solution de la même équation
différentielle, mais de condition initiale S(s) = idE , on a donc aussi, pour tout t de R,
Rst = e(t−s)A .
Mais on aussi vu que R0t = Rst R0s , on trouve donc que etA = e(t−s)A esA ou, en posant t − s = u,
e(u+s)A = euA esA .
L’application t 7→ etA du groupe (R, +) dans le groupe GL(E) des endomorphismes inversibles
est un homomorphisme de groupes (on dit aussi que cette application est un ‘sous-groupe à un
paramètre’ de GL(E)).
On retrouve ainsi les résultats de la seconde année.
S’il y a un second membre B(t), la solution de l’équation X 0 (t) = AX(t) + B(t) est comme
ci-dessus:
Z t
(t−s)A
Ss,V (t) = e
V +
e(t−u)A B(u) du.
s
Ceci s’applique par exemple au cas des équations différentielles linéaires du second ordre à
coefficients constants, de la forme
y 00 + py 0 + qy = b(t).
y(t)
On pose Y (t) =
, on se ramène à une équation du premier ordre, linéaire à coefficients
y 0 (t)
constants:
0 y (t)
0
1
y(t)
0
0
Y (t) = 00
=
+
= AY (t) + B(t).
y (t)
−q −p
y 0 (t)
b(t)
On réduit lamatrice A: son polynôme caractéristique s’écrit:
−r
1 CA (r) = det(A − rI) = = r2 + pr + q.
−q −p − r 9
Il y a alors trois cas:
Cas 1 ∆ = p2 − 4q > 0. Il y a alors deux racines réelles distinctes r1 et r2 . On voit que les vecteurs
propres correspondants sont:
rt 
1
ϕ1 (t)
e1
tA


=⇒ Y1 (t) = e V1 =
=
0
 V 1 = r1
ϕ1 (t)
r1 er1 t
rt 
ϕ2 (t)
e2

 V2 = 1
=⇒ Y2 (t) = etA V2 =
=
.
0
r2
ϕ2 (t)
r2 er2 t
La matrice résolvante s’écrit donc
ϕ(t)
ϕ1 (t) ϕ2 (t)
λ1
t
= R0 (λ1 V1 + λ2 V2 ) =
.
ϕ0 (t)
ϕ01 (t) ϕ02 (t)
λ2
Le wronskien est w(t) = det(R0t ) = e(r1 +r2 )t (r2 − r1 ). La solution ϕ(t) telle que ϕ(0) = λ1 + λ2 et
ϕ0 (0) = r1 λ1 + r2 λ2 est ϕ(t) = λ1 er1 t + λ2 er2 t . Elle est réelle si V , c’est à dire les λj le sont.
Cas 2 ∆ = p2 − 4q < 0. Il y a alors deux racines complexes conjuguées a + ib et a − ib. Les
vecteurs propres correspondants sont complexes, on préfère prendre comme base de l’espace C2 les
parties réelle et imaginaire du premier:
1
1
0
Z=
= X + iY =
+i
.
a + ib
a
b
L’autre vecteur propre est Z = X − iY . Tout vecteur V de C2 s’écrit λ1 X + λ2 Y . Si V est réel,
les λj le sont. On a


 Y1 (t) = etA X = Re etA Z = Re et(a+ib) (X + iY ) = eta (cos(bt)X − sin(bt)Y )
 Y (t) = etA Y = Im etA Z = Im et(a+ib) (X + iY ) = eta (sin(bt)X + cos(bt)Y ).

2
La matrice résolvante s’écrit donc
ϕ(t)
ϕ1 (t) ϕ2 (t)
λ1
t
=
R
(λ
X
+
λ
Y
)
=
2
0 1
λ2
ϕ0 (t)
ϕ01 (t) ϕ02 (t)
1
0
1
0
ta
ta
= λ1 e
cos(bt)
− sin(bt)
+ λ2 e
sin(bt)
+ cos(bt)
.
a
b
a
b
Le wronskien est w(t) = be2at . La solution ϕ(t) telle que ϕ(0) = λ1 et ϕ0 (0) = aλ1 + bλ2 est
ϕ(t) = eat (λ1 cos(bt) + λ2 sin(bt)). Elle est réelle si les λj le sont.
Cas 3 ∆ = p2 − 4q = 0. Il y a alors une racine double réelle r = − p2 , A n’étant pas scalaire n’est
1
pas diagonalisable et se met sous forme de Dunford ou de Jordan: le vecteur propre est V =
,
r
0
le vecteur W =
vérifie AW = V , on a
1
rt 
ϕ1 (t)
e
tA


 Y1 (t) = e V = ϕ0 (t) = rert
1
rt

ϕ
(t)
te
2

tA
rt
 Y2 (t) = e W =
= e (W + tV ) = rt
.
ϕ02 (t)
e (r + 1)
10
La matrice résolvante s’écrit donc
ϕ(t)
ϕ1 (t) ϕ2 (t)
λ1
t
= R0 (λ1 V + λ2 W ) =
.
ϕ0 (t)
ϕ01 (t) ϕ02 (t)
λ2
Le wronskien est w(t) = e2rt . La solution ϕ(t) telle que ϕ(0) = λ1 et ϕ0 (0) = rλ1 + λ2 est
ϕ(t) = λ1 ert + λ2 tert . Elle est réelle si les λj le sont.
Pour l’équation avec second membre, la méthode de la variation des constantes s’écrit ici:
(
Y (t) = λ1 (t)Y1 (t) + λ2 (t)Y2 (t)
ou
ϕ(t) = λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t)
ϕ0 (t) = λ1 (t)ϕ01 (t) + λ2 (t)ϕ02 (t)
est solution si et seulement si λ01 (t)Y1 (t) + λ02 (t)Y2 (t) = B(t) ou si et seulement si les λ0j sont
solutions du système:

0
ϕ2 (t) 


0


 λ0 (t) = b(t) ϕ2 (t) = − b(t)ϕ2 (t)
(

0
0

1
λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t) = 0
w(t)
w(t)
⇔
0
0
0
0
ϕ1 (t)

λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t) = b(t)
0 
0



ϕ1 (t) b(t) b(t)ϕ1 (t)


=
 λ02 (t) =
w(t)
w(t)
On obtient λ1 (t) et λ2 (t) en intégrant ces fonctions entre 0 et t.
Rappelons qu’on peut aussi résoudre l’équation si on connaı̂t une solution particulière de
l’équation avec second membre. C’est souvent plus rapide si le second membre est une somme
de fonctions de la forme eαt ou P (t)eαt avec P un polynôme.
11
Téléchargement