Université de Bourgogne Licence de Mathématiques Département de Mathématiques Compléments d’analyse Chapitre 6: Equations différentielles linéaires 1. Introduction Soit E = Kn un espace de dimension finie sur C, muni d’une norme k k. On se donne un intervalle I de R et deux applications continues: A : I −→ End(E) = Mn (K), B : I −→ E. On appelle équtaion différentielle linéaire une équation de la forme: X 0 (t) = A(t)X(t) + B(t). La fonction B est le second membre, l’équation sans second membre est l’équation X 0 = A(t)X. Une solution de l’équation est une fonction ϕ : I −→ E, de classe C 1 et telle que pour tout t de I, on ait: ϕ0 (t) = A(t)ϕ(t) + B(t). Soit t0 un point de I et X0 ∈ E. La solution est dite de condition initiale (t0 , X0 ) si ϕ(t0 ) = X0 . Nous ne cherchons ici que des solutions sur tout l’intervalle I. En fait on va voir que pour tout t0 et X0 , il y a une solution et une seule qui s’étend à tout I. On dit que l’équation linéaire est déterministe. 2. Résolution de l’équation sans second membre Soit J un segment inclus dans I et contenant t0 . On note C l’espace de Banach C = (C(J, E), k k∞ ) , kf k∞ = sup k(t)k. t∈J Dans un premier temps, on va résoudre l’équation sans second membre sur J. Pour ceci on prend s ∈ J on définit l’intégrale d’une fonction vectorielle f définie et continue sur J en intégrant composante par composante et on regarde l’application: Z t F : C −→ C, (F (ϕ)) (t) = X0 + A(s)ϕ(s) ds. t0 Il est calir que (F (ϕ)) (t0 ) = X0 . Si ϕ est un point fixe de F , c’est à dire si l’on a: F (ϕ) = ϕ, 1 alors ϕ est dérivable et sa dérivée en t ∈ J est 0 ϕ0 (t) = (F (ϕ)) (t) = A(t)ϕ(t). Donc les points fixes de F sont des solutions de l’équation sans second membre X 0 (t) = A(t)X(t), de condition initiale (t0 , X0 ). Réciproquement, si ϕ est une solution de l’équation sans second membre, de condition initiale (t0 , X0 ), alors: Z t Z t A(s)ϕ(s) ds = ϕ0 (s) ds = ϕ(t) − ϕ(t0 ) = ϕ(t) − X0 t0 t0 et F (ϕ) = ϕ. Les solutions de l’équation sans second membre, de condition initiale (t0 , X0 ) sont donc exactement les points fixes de F . On va chercher ces points fixes par une mèthode d’approximations successives: on pose ϕ0 (t) = X0 pour tout t de J puis pour tout k ≥ 1, ϕk = F (ϕk−1 ). Comme la fonction t 7→ k|A(t)k| est continue, elle est majorée sur J. Il existe M > 0 tel que k|A(t)k| ≤ M pour tout t de J. De même J est borné et il existe T > 0 tel que |t − t0 | ≤ T pour tout t de J. Lemme (Une estimation) Pour tout t de J et tout k ≥ 1, on a: kϕk (t) − ϕk−1 (t)k ≤ kX0 k M k |t − t0 |k . k! En particulier, on a kϕk − ϕk−1 k∞ ≤ kX0 k M kT k . k! Preuve D’abord en k = 1, on a: Z t kϕ1 (t) − ϕ0 (t)k = kϕ1 (t) − X0 k = A(s)X0 ds t0 Z t k|A(s)k| kX0 k ds ≤ M |t − t0 |kX0 k. ≤ t0 (Regarder séparément les cas t > t0 et t < t0 ). la propriété est vraie pour k = 1. Supposons qu’elle soit vraie en k et passons au rang k + 1. Le même calcul donne si t > t0 Z t Z t kϕk+1 (t) − ϕk (t)k = A(s)ϕk (s) ds − A(s)ϕk−1 (s) ds Z t0 t ≤ t0 Z t0 M t0 k+1 ≤ t k|A(s)k| kϕk (s) − ϕk−1 (s)k ds ≤ M k! k+1 t (s − t0 ) k+1 = s=t0 2 M k+1 M k (s − t0 )k kX0 k ds k! (t − t0 )k+1 . (k + 1)! Le calcul dans le cas t < t0 est similaire et laissé en exercice. Ceci prouve le lemme. Coroallaire (La suite (ϕk ) est de Cauchy) La suite de fonctions (ϕk ) est une suite de Cauchy dans l’espace de Banach C. Cette suite converge donc uniformément vers une fonction ϕ de C. On a F (ϕ) = ϕ. Preuve On a vu que pour tout k ≥ 1, kϕk − ϕk−1 k∞ ≤ kX0 k M kT k . k! Donc, pour tout ` ≥ 0: kϕk+` − ϕk−1 k∞ ≤ kϕk+` − ϕk+`−1 k∞ + . . . + kϕk − ϕk−1 k∞ k k M k+`−1 T k+e ll−1 M k+` T k+` M T + ... + + ≤ kX0 k k! (k + ` − 1)! (k + `)! X M rT r ≤ kX0 k = kX0 kRk . r! r≥k P r r Où Rk est le reste à l’ordre k de la série entière r M r!T = eM T . Donc Rk tend vers 0 si k tend vers l’infini et ( ∀k k ≥ K ∀ε > 0, ∃K tel que , =⇒ kϕk+` − ϕk k∞ ≤ kX0 kRk ≤ ε. ∀` `≥0 La suite (ϕk ) est de Cauchy dans C complet, elle converge vers ϕ appartenant à C. La suite (ϕk+1 ) tend aussi vers ϕ. Mais cette suite est aussi la suite (F (ϕk )). Montrons que l’application F : C −→ C est continue. En fait, F est une application affine, de la forme F (ϕ) = X0 + G(ϕ) avec Z t (G(ϕ)) (t) = A(s)ϕ(s) ds t0 et G est évidemment linéaire. Pour montrer que F est continue pour la norme k k∞ , il suffit de montrer que G est bornée. Mais on a si t > t0 : Z t k (G(ϕ)) (t)k ≤ kA(s)ϕ(s)k ds ≤ M |t − t0 |kϕk∞ t0 et la même inégalité est vraie si t < t0 . Donc G est linéaire et continue et k|Gk| ≤ M T . Donc F est continue et (F (ϕk )) tend vers F (ϕ). On a à la limite: F (ϕ) = ϕ, ϕ est une solution de notre équation sans second membre sur le segment J et de condition initiale (t0 , X0 ). Proposition (Unicité de la solution) 3 L’application F a un seul point fixe, ϕ. L’équation sans second membre a une et une seule solution de condition initiale (t0 , X0 ), définie sur J. Preuve Si ϕ et ψ sont deux points fixes, on a pour tout k: F k (ϕ) − F k (ψ) = F k−1 (ϕ) − F k−1 (ψ) = . . . = ϕ − ψ. Mais le même calcul que ci-dessus nous donne, pour tout t > t0 de J: kϕ(t) − ψ(t)k = k F k (ϕ) (t) − F k (ψ) (t)k Z t ≤ k|A(s)k|k F k−1 (ϕ) (s) − F k−1 (ψ) (s)k ds t0 t Z ≤ M k F k−1 (ϕ) (s) − F k−1 (ψ) (s)k ds. t0 Donc, par récurrence sur k, que: M k (t − t0 )k . kϕ(t) − ψ(t)k = k F k (ϕ) (t) − F k (ψ) (t)k ≤ kϕ − ψk∞ k! En faisant tendre k vers l’infini, on en déduit que ϕ(t) = ψ(t). Les mêmes inégalités sont vraies pour t < t0 . Donc ϕ = ψ et la solution sur J est unique. Corollaire (Existence et unicité sur I) L’équation sans second membre a une solution et une seule, définie sur tout I, de condition initiale (t0 , X0 ). Cette solution prolonge toutes les solutions de condition initiale (t0 , X0 ), définies sur un segment J ⊂ I contenant t0 . Preuve Comme on a une unique solution ϕJ de condition initiale (t0 , X0 ) sur tout segment J ⊂ I, on peut poser pour chaque t de I, ϕ(t) = ϕJ (t) pour tout segment J contenant t0 et t. En efeet, par unicité de la solution sur le segment J ∪ J 0 , ce vecteur ne dépend pas du choix de J: Pour tout s ∈ J, ϕJ (s) = ϕJ∪J 0 (s) et pour tout s de J 0 , ϕJ 0 (s) = ϕJ∪J 0 (s). Donc en t, ϕJ (t) = ϕJ 0 (t). La fonction ϕ est ainsi définie sur tout I, vérifie ϕ0 (t) = A(t)ϕ(t) pour tout t de I et ϕ(t0 ) = X0 . C’est une solution sur I de condition initiale (t0 , X0 ). Si ψ est une autre solution, sur tout segment J ⊂ I contneant t0 , on a ψ|J = ϕJ donc finalement ϕ(t) = ψ(t). La solution est unique. 3. La résolvante Pour chaque t0 ∈ I et chaque t ∈ I, on regarde ici l’application Rtt0 qui au vecteur X0 associe la valeur ϕ(t), à l’instant t de la solution de condition initiale (t0 , X0 ). Cette application de E vers E s’appelle la résolvante de l’équation sans second membre. Proposition (Rtt0 est linéaire et inversible) 4 L’application Rtt0 : E −→ E est une application linéaire et inversible. On a Rtu ◦ Rst = Rsu pour tout s, t, u de I. Preuve La linéarité vient directement des définitions. Si X1 et X2 sont deux vecteurs de E, la solution ψ de l’équation sans second membre de condition initiale (t0 , λX1 + µX2 ) est l’unique fonction dérivable sur I telle que ( ψ 0 (t) = A(t)ψ(t) ∀t ∈ I, ψ(t0 ) = λX1 + µX2 . Mais si ϕ1 et ϕ2 sont les solutions de conditions initiales respectives (t0 , X1 ) et (t0 , X2 ) et si on regarde la fonction t 7→ λϕ1 (t) + µϕ2 (t), on voit que: 0 (λϕ1 + µϕ2 ) (t) = λA(t)ϕ1 (t) + µA(t)ϕ2 (t) ∀t ∈ I, = A(t) (λϕ1 (t) + µϕ2 (t)) (λϕ1 + µϕ2 ) (t0 ) = λX1 + µX2 . Par unicité de la solution, on a donc pour tout t λϕ1 (t) + µϕ2 (t) = ψ(t) donc Rtt0 (λX1 + µX2 ) = ψ(t) = λϕ1 (t) + µϕ2 (t) = λRtt0 X1 + µRtt0 X2 . Rtt0 est linéaire. Si s, t et u sont trois points de I, par définition de la résolvante, Rtu (Rst X) est la valeur à l’instant u de la solution ϕ telle que ϕ(t) = Rst X est la valeur à l’instant t de la solution ψ telle que ψ(s) = X. On a ϕ(t) = ψ(t) donc par unicité, ϕ = ψ donc à l’instant u Rtu (Rst X) = ϕ(u) = ψ(u) = Rsu X, Rtu ◦ Rst . −1 Par définition de la résolvante, on a Rss = idE . Donc Rst est inversible et (Rst ) = Rts . Remarque Il est facile de voir que, si on fixe t0 , l’application t 7→ Rtt0 est aussi solution d’une équation différentielle sans second membre: l’équation de condition initiale (t0 , idE ): ( R0 (t) = A(t) ◦ R(t) R(t0 ) = idE . En effet considérons l’application A(t) de L(E) dans L(E) qui à l’endomorphisme (ou la matrice si on préfère) M ∈ L(E) associe l’endomorphisme A(t) ◦ M . Cette application A(t) est linéaire et continue de L(E) dans L(E). D’autre part, par définition on a: Rst V 0 0 = Ss,V (t) = A(t)Ss,V (t) = A(t) ◦ Rst V. Donc pour tout t: Rst 0 = A(t) ◦ Rst = A(t) Rst . Rst est la solution sur I de cette équation différentielle linéaire (sans second membre), de condition initiale Rss = idE . 5 Prenons une base (e1 , . . . , en ) de E. On peut écrire la matrice de Rst dans cette base: pour chaque ej , on note ϕj la solution de condition initiale (s, ei ). Par définition, les colonnes de la matrice de Rst sont formées des vecteurs ϕj (t), écrits dans labase (e1 , . . . , en ). On dit que les solutions (ϕ1 , . . . , ϕn ) forment un système fondamental de solution. On dit aussi que le déterminant de la matrice résolvante w(t) = det(Rst ) est le wronskien de l’équation sans second membre. Ce déterminant ne s’annule jamais. Théorème de Liouville (Expression de det(Rst )) On a: Rt tr(A(u)) det(Rst ) = e s du . En particulier la résolvante est de déterminant 1 pour tout t si et seulement si la trace de A(t) est constamment nulle. Preuve On va montrer que la fonction t 7→ det(Rst ) est, elle aussi solution d’une équation différentielle linéaire (avec E = C cette fois). Pour cela il faut d’abord différentier l’application det : L(E) −→ C qui à l’endomorphisme M (la matrice M ) associe det(M ). D’abord cette application est une fonction polynomiale des coefficients mij de la matrice: X det(M ) = εσ m1σ(1) m2σ(2) . . . mnσ(n) . σ∈Sn Elle est donc différentiable. On note d(det)M sa différentielle au point M . C’est une application linéaire de L(E) dans C (une forme linéaire sur L(E)). Soit M un endomorphsime bijectif (une matrice inversible), on a: d(det)M (H) = det(M )tr(H ◦ M −1 ). Commençons par le cas M = idE , c’est à dire calculons: X det(idE + H) − det(idE ) = εσ a1σ(1) . . . anσ(n) − 1, σ∈Sn où aij = hij si i 6= j et aii = 1 + hii si i = j. Cette quantité est un polynôme en les hij . le terme constant est 1 − 1 = 0. Cherchons les termes linéaires en hij . Dans le produit a1σ(1) . . . anσ(n) contient au moins deux termes aiσ(i) et ai0 σ(i0 ) tels que σ(i) 6= i et σ(i0 ) 6= i0 , il apparaît hiσ(i) hi0 σ(i0 ) , donc le produit est un polynôme sans terme constant et sans terme linéaire; Les termes linéaires n’apparaissent que s’il y a au plus un seul indice i tel que σ(i) 6= i. Mais alors on a: σ(1) = 1, . . . , σ(i − 1) = i − 1, σ(i + 1) = i + 1, . . . , σ(n) = n et σ étant injectif, σ(i) doit être différent de ces nombres. La seule possibilité est donc σ(i) = i ou σ = id. Les termes linéaires (en hij ) de det(idE + H) − det(idE ) sont les termes linéaires de: X (1 + h11 )(1 + h22 ) . . . (1 + hnn ) = 1 + (h11 + h22 + . . . + hnn ) + termes homogènes de degré ≥ 2. On a donc det(idE + H) − det(idE ) − tr(H) = X termes homogènes de degré ≥ 2 = |||H|||ε(H) 6 et d(det)idE (H) = tr(H). On peut aussi prouver ce résultat ainsi. Appelons Eij la matrice formée de 0 sauf à la ligne i et à la colonne j où son coefficient P est 1. Il est clair que la famille P des Eij forme la base canonique de Mn (C). On écrit donc M = i,j mij Eij et det(M ) = det( mij Eij ) est une fonction des variables mij . Avec cette notations, on a: d ∂ det (I) = det(I + tEij )|t=0 ∂mij dt Donc d (1 + t)|t=0 = 1 si i = j = dt d 1| t=0 = 0 si i 6= j. dt X X ∂ det X X d(det)idE ( hij Eij ) = (I)hij = hii = tr( hij Eij ). ∂mij ij ij i ij Maintenant prenons une matrice inversible M . On calcule directement det(M + H) = det (idE + H ◦ M −1 ) ◦ M = det(idE + H ◦ M −1 ) det(M ) h i X = det(M ) 1 + tr(HM −1 ) + termes homogènes de degré ≥ 2 . Puisque tous les coefficients de la matrice HM −1 sont linéaires en les hij . On a donc: det(M + H) = det(M ) + tr(H ◦ M −1 ) det(M ) + |||H|||ε(|||H|||) et d(det)M (H) = det(M )tr(H ◦ M −1 ). Maintenant on connaı̂t la dérivée de t 7→ Rst , on a donc: 0 det(Rst ) = det(Rst )tr((Rst )0 ◦ (Rst )−1 ) = det(Rst )tr((A(t)Rst ) ◦ (Rst )−1 ) = tr(A(t)) det(Rst ). Comme det(Rss ) = det(idE ) = 1, t 7→ det(Rst ) est la solution de l’équation différentielle linéaire: x0 (t) = tr(A(t))x(t) de condition initiale x(s) = 1. D’autre part, si on pose: Rt tr(A(u)) du f (t) = e s , Rt tr(A(u)) du on obtient f (s) = 1 et f 0 (t) = tr(A(t))e s , f est donc, elle aussi la solution de x0 (t) = tr(A(t)x(t) de condition initiale 1, donc, pour tout t de I Rt tr(A(u)) det(Rst ) = f (t) = e s du . 4. Résolution de l’équation avec second membre On résout l’équation avec second membre par la mèthode de variation des constantes. La ‘constante’ dans l’équation sans second membre, c’est le vecteur V = X0 . On le fait donc varier, 7 c’est à dire que l’on cherche la solution ϕ de l’équation avec second mambre Y 0 = AY + B sous la forme: −1 (S(t)). ϕ(t) = Rst W (t) ou W (t) = Rst Théorème (Solution de l’équation avec second membre) Pour tout s de I et tout V de E, l’équation avec second membre: X 0 (t) = A(t)X(t) + B(t) a une solution et une seule Ss,V telle que Ss,V (s) = V . Cette solution est: Ss,V (t) = Rst V t Z Rut B(u) du. + s Preuve Avec nos notations, S est solution de l’équation X 0 = AX + B si et seulement si: 0 0 Rst W (t) = Rst (W (t)) + Rst W 0 (t) = A(t)Rst W (t) + Rst W 0 (t) = A(t) Rst W (t) + B(t). Donc si et seulement si: Rst W 0 (t) = B(t) ⇐⇒ W 0 (t) = Rts B(t). Comme la condition initiale est C = Rss W (s) = W (s), S est solution si et seulement si t Z Rus B(u) du W (t) = V + s ou si et seulement si: S(t) = Rst W (t) = Rst V + Rst Z t Rus B(u) du . s Puisque Rst est linéaire de E dans E, on a Rst ! b Z f (u) du Z b = a Rst (f (u)) du. a (Ecrivez ceci dans une base avec une matrice Rst ). Donc S(t) = Rst V Z + t Rst Rus B(u) du = Rst V Z + s s 4. Cas particulier des équations à coefficients constants 8 t Rut B(u) du. Si A(t) = A pour tout t de I, on dit que l’on a une équation sans second membre à coefficients constants: X 0 (t) = AX(t). Cette équation est définie en fait sur tout R. La solution de cette équation est très simple. On définit en effet l’exponentielle d’un endomorphisme ou d’une matrice A en posant: eA = ∞ X 1 k A . k! k=0 Cette série est normalement convergente dans toute boule fermée B(0, R) de (L(E), ||| |||) et puisque cet espace est complet elle converge vers un endomorphisme de L(E). On a en particulier: d tA e = AetA = etA A. dt Et bien sûr e0A = idE . On en déduit que t 7→ etA est la solution de l’équation différentielle X 0 (t) = AX(t) (X(t) ∈ L(E)) de condition initiale X(0) = idE . Comme R0t est aussi la solution de cette équation, de même condition initiale, on a R0t = etA pour tout t. Avec le même raisonnement, on voit que e(t−s)A est la solution de la même équation différentielle, mais de condition initiale S(s) = idE , on a donc aussi, pour tout t de R, Rst = e(t−s)A . Mais on aussi vu que R0t = Rst R0s , on trouve donc que etA = e(t−s)A esA ou, en posant t − s = u, e(u+s)A = euA esA . L’application t 7→ etA du groupe (R, +) dans le groupe GL(E) des endomorphismes inversibles est un homomorphisme de groupes (on dit aussi que cette application est un ‘sous-groupe à un paramètre’ de GL(E)). On retrouve ainsi les résultats de la seconde année. S’il y a un second membre B(t), la solution de l’équation X 0 (t) = AX(t) + B(t) est comme ci-dessus: Z t (t−s)A Ss,V (t) = e V + e(t−u)A B(u) du. s Ceci s’applique par exemple au cas des équations différentielles linéaires du second ordre à coefficients constants, de la forme y 00 + py 0 + qy = b(t). y(t) On pose Y (t) = , on se ramène à une équation du premier ordre, linéaire à coefficients y 0 (t) constants: 0 y (t) 0 1 y(t) 0 0 Y (t) = 00 = + = AY (t) + B(t). y (t) −q −p y 0 (t) b(t) On réduit lamatrice A: son polynôme caractéristique s’écrit: −r 1 CA (r) = det(A − rI) = = r2 + pr + q. −q −p − r 9 Il y a alors trois cas: Cas 1 ∆ = p2 − 4q > 0. Il y a alors deux racines réelles distinctes r1 et r2 . On voit que les vecteurs propres correspondants sont: rt 1 ϕ1 (t) e1 tA =⇒ Y1 (t) = e V1 = = 0 V 1 = r1 ϕ1 (t) r1 er1 t rt ϕ2 (t) e2 V2 = 1 =⇒ Y2 (t) = etA V2 = = . 0 r2 ϕ2 (t) r2 er2 t La matrice résolvante s’écrit donc ϕ(t) ϕ1 (t) ϕ2 (t) λ1 t = R0 (λ1 V1 + λ2 V2 ) = . ϕ0 (t) ϕ01 (t) ϕ02 (t) λ2 Le wronskien est w(t) = det(R0t ) = e(r1 +r2 )t (r2 − r1 ). La solution ϕ(t) telle que ϕ(0) = λ1 + λ2 et ϕ0 (0) = r1 λ1 + r2 λ2 est ϕ(t) = λ1 er1 t + λ2 er2 t . Elle est réelle si V , c’est à dire les λj le sont. Cas 2 ∆ = p2 − 4q < 0. Il y a alors deux racines complexes conjuguées a + ib et a − ib. Les vecteurs propres correspondants sont complexes, on préfère prendre comme base de l’espace C2 les parties réelle et imaginaire du premier: 1 1 0 Z= = X + iY = +i . a + ib a b L’autre vecteur propre est Z = X − iY . Tout vecteur V de C2 s’écrit λ1 X + λ2 Y . Si V est réel, les λj le sont. On a Y1 (t) = etA X = Re etA Z = Re et(a+ib) (X + iY ) = eta (cos(bt)X − sin(bt)Y ) Y (t) = etA Y = Im etA Z = Im et(a+ib) (X + iY ) = eta (sin(bt)X + cos(bt)Y ). 2 La matrice résolvante s’écrit donc ϕ(t) ϕ1 (t) ϕ2 (t) λ1 t = R (λ X + λ Y ) = 2 0 1 λ2 ϕ0 (t) ϕ01 (t) ϕ02 (t) 1 0 1 0 ta ta = λ1 e cos(bt) − sin(bt) + λ2 e sin(bt) + cos(bt) . a b a b Le wronskien est w(t) = be2at . La solution ϕ(t) telle que ϕ(0) = λ1 et ϕ0 (0) = aλ1 + bλ2 est ϕ(t) = eat (λ1 cos(bt) + λ2 sin(bt)). Elle est réelle si les λj le sont. Cas 3 ∆ = p2 − 4q = 0. Il y a alors une racine double réelle r = − p2 , A n’étant pas scalaire n’est 1 pas diagonalisable et se met sous forme de Dunford ou de Jordan: le vecteur propre est V = , r 0 le vecteur W = vérifie AW = V , on a 1 rt ϕ1 (t) e tA Y1 (t) = e V = ϕ0 (t) = rert 1 rt ϕ (t) te 2 tA rt Y2 (t) = e W = = e (W + tV ) = rt . ϕ02 (t) e (r + 1) 10 La matrice résolvante s’écrit donc ϕ(t) ϕ1 (t) ϕ2 (t) λ1 t = R0 (λ1 V + λ2 W ) = . ϕ0 (t) ϕ01 (t) ϕ02 (t) λ2 Le wronskien est w(t) = e2rt . La solution ϕ(t) telle que ϕ(0) = λ1 et ϕ0 (0) = rλ1 + λ2 est ϕ(t) = λ1 ert + λ2 tert . Elle est réelle si les λj le sont. Pour l’équation avec second membre, la méthode de la variation des constantes s’écrit ici: ( Y (t) = λ1 (t)Y1 (t) + λ2 (t)Y2 (t) ou ϕ(t) = λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t) ϕ0 (t) = λ1 (t)ϕ01 (t) + λ2 (t)ϕ02 (t) est solution si et seulement si λ01 (t)Y1 (t) + λ02 (t)Y2 (t) = B(t) ou si et seulement si les λ0j sont solutions du système: 0 ϕ2 (t) 0 λ0 (t) = b(t) ϕ2 (t) = − b(t)ϕ2 (t) ( 0 0 1 λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t) = 0 w(t) w(t) ⇔ 0 0 0 0 ϕ1 (t) λ1 (t)ϕ1 (t) + λ2 (t)ϕ2 (t) = b(t) 0 0 ϕ1 (t) b(t) b(t)ϕ1 (t) = λ02 (t) = w(t) w(t) On obtient λ1 (t) et λ2 (t) en intégrant ces fonctions entre 0 et t. Rappelons qu’on peut aussi résoudre l’équation si on connaı̂t une solution particulière de l’équation avec second membre. C’est souvent plus rapide si le second membre est une somme de fonctions de la forme eαt ou P (t)eαt avec P un polynôme. 11