DR AF T 1 Introduction 1 2 Équations différentielles scalaires du 1er ordre 2.1 Équations du type « intégration » 2.2 Équations différentielles aux variables séparables T remarque sur la notation différentielle. 2.3 Équtions différentielles linéaires du 1er ordre AF Définition 1. On appelle équation différentielle linéaire du 1er ordre une équation du type x0 = p(t)x + q(t) où p et q sont des fonctions continues sur un intervalle I. Les solutions cherchées sont des fonctions dérivables x:I→R t 7→ x(t). DR L’intervalle I sera souvent R tout entier. Définition 2. Si la fonction q est identiquement égale à 0, on dit que l’équaton différentielle est homogène. Remarque 1. Soit x1 et x2 sont deux fonctions sur I solutions de l’équation différentielle x0 = p(t)x + q(t) (E) sur l’intervalle I, alors pour tout t ∈ I, (x1 − x2 )0 (t) = x01 (t) − x02 (t) = p(t)(x1 (t) − x2 (t)). La fonction x1 − x2 est donc solution de (E0 ) : x0 = p(t)x (E0 ), dite équation différentielle homogène associée à (E) 2 Théorème 1. Supposons que l’on connaisse une solution particulière xi de (E) sur un intervalle I. Alors toute solution de (E) sur I est de la forme xi + xh où xh est une solution quelconque de (E0 ) sur I. De manière ensembliste, si on note S l’ensemble des solutions de (E) et S0 celui des solutions de (E0 ), on a S = xi + S0 . La résolution de l’équation (E) se décompose en deux étapes : 1. la détermination de S0 , c’est-à-dire la résolution de l’équation homogène, 2. la détermination d’une solution particulière. 2.3.1 Résolution de l’équation homogène T Ces deux étapes sont traitées respectivement dans les sections 2.3.1 et 2.3.2. Théorème 2. Soit I un intervalle ouvert et t0 ∈ I. Alors pour tout x0 ∈ R„ il existe une unique solution x de l’équation différentielle (E0 ) telle que x(t0 ) = x0 . Son expression est donnée par Z t x(t) = x0 exp p(u)du . AF ∀ t ∈ I, t0 Démonstration. La démonstration se fait en deux étapes : en vérifiant que la formule proposée répond bien au problème, puis en montrant que c’est en fait la seule solution. Existence. Considérons x la fonction définie sur I par l’expression proposée, et appelons P la primitive de p s’annulant en t0 : Z t ∀ t ∈ I, P (t) = p(u)du t0 DR Par le lemme fondamental du calcul différentiel, et les théorème sur la composée de fonctions dérivables, on obtient que x est effectivement dérivable sur I (même de classe 0 mathcalC 1 ) et pour tout t ∈ I, x0 (t) = x0 P 0 (t) exp(P (t)) = p(t)x(t). Donc cette fonction x est bien solution de (E0 ) avec la condition initiale x(t0 ) = x0 . Unicité. Soit y une solution de (E0 ) avec la condition initiale y(t0 ) = x0 sur l’intervalle I. On définit alors la fonction z = ye−P sur I. Par les théorèmes usuels de dérivation, z est dérivable en tout point de I et : z 0 (t) = (y 0 (t) − p(t)y(t))e−P (t) = 0 car y est solution de (E0 ) Comme I est un intervalle, z est donc constante. Or z(t0 ) = y(t0 )e−P (t0 ) = y(t0 ) = x0 . Donc z est constante, et égale à x0 pour tout t. On peut maintenant réexprimer y à partir de z ∀t ∈ I, y(t) = z(t)eP (t) = x0 exp(P (t)) = x(t), où x est la fonction proposée. 3 Remarque 2. On a utilisé encore une fois le fait que I était un intervalle, donc connexe, pour en déduire que si une fonction a une dérivée nulle, alors elle est constante. On vérifie sans peine que l’espace S0 des solutions de (E0 ) est un sous-espace vectoriel des fonctions dérivables sur I : si x et y sont solutions, alors pour tout λ ∈ R, x + λy est aussi solution. Le théorème ci-dessous peut alors se réinterpréter de la façon suivante : Corollaire 1. L’ensemble S0 des solutions de (E0 ) sur I est un espace vectoriel de dimension 1, engendré par la fonction Z t t ∈ R 7→ exp p(u)du , t0 et l’application Ψt0 : x ∈ S0 7→ x(t0 ) ∈ R est un isomorphisme d’espaces vectoriels. t0 t1 AF t0 T Remarque 3. Changer la valeur de t0 revient à multiplier par un scalaire, d’après la relation de Chasles sur les intégrales : Z t Z t1 Z t exp p(u)du = exp p(u)du × exp p(u)du . 2.3.2 Détermination d’une solution particulière Nous présentons d’abord quelques astuces pour essayer de deviner la forme d’une solution particulière de l’équation (E) avec une fonction q. La forme obtenue dépendra de paramètres qui seront déterminés par des équations algébriques (linéaires). Ces formes utilise le fait que la dérivation préserve certaines familles de fonctions : la dérivée d’une exponentielle est une exponentielle, la dérivée d’un polynôme est un polynôme, etc. Méthode par identification DR — Si p est constant, et q est une fonction polynôme de degré d, on cherche x sous la forme d’un polynôme de même degré. — Si p est constant et que q = ceλt . Si λ 6= p, on cherche x sous la forme aeλt . Si λ = p, on cherche x sous la forme (a + bt)eλt . — Si p est constant et que q = c cos(ω) ou c sin(ωt), on cherche x sous la forme a cos(ωt) + b sin(ωt). — Principe de superposition : si xi est solution sur I de l’équation différentielle x0 = p(t)x + qi (t) pour i = 1, 2, alors x1 + x2 est solution sur I de l’équation différentielle x0 = p(t)x + q1 (t) + q2 (t). La proposition de solution particulière lorsque q est un cosinus ou un sinus peut être vue comme une combinaison du principe de superposition et de la proposition lorsque q est une exponentielle (si on autorise les exponentielles complexes dans ce cas). 4 Cela donne dans des cas simples une solution particulière très rapidement. Cependant, cela est loin de couvrir tous les cas qui peuvent se présenter. Nous présentons maintenant une méthode systématique pour trouver une solution particulière : la méthode de la variation de la constante. Il en existe une variante, appelée méthode du facteur intégrant, qui revient à faire les mêmes calculs mais présentés de manière légèrement différente. Méthode de la variation de la constante Voici une méthode générale et systématique pour trouver une solution particulière. On se souvient que d’après la section précédente, la solution générale de (E0 ) sécrit Z t x(t) = x0 exp p(u)du . T t0 AF Nous allons chercher notre solution particulière sous la même forme, sauf que l’on remplacera x0 , qui était pour l’instant une constante, par une fonction de t que l’on veut déterminer, et qui donc varie avec t. D’où le nom de la méthode. On suppose donc qu’il existe une fonction dérivable v définie sur I telle la fonction y : I → R définie par Z t ∀ t ∈ I, y(t) = v(t) exp p(u)du t0 satisfait l’équation differentielle x0 = p(t)x + q(t) (E) DR L’exponentielle n’étant jamais nulle, on peut toujours définir v à partir de y, qui est automatiquement dérivable par produit, car y l’est par hypothèse (solution de (E)) et l’exponentielle aussi, par les théorèmes standard. De plus, pour tout t ∈ I, Z t v (t) = y (t) − p(t)y(t) exp − p(u)du . 0 0 t0 Donc y est solution de (E) si et seulement si ∀t ∈ I, Z t v (t) = q(t) exp − p(u)du 0 t0 La fonction v doit donc être solution d’une équation différentielle de type « intégration ». On a besoin d’une solution particulière, c’est à dire d’une primitive particulière de q(t) exp(−P (t)). Prenons par exemple celle qui s’annule en t0 . XXX 5 Résumé Toutes les solutions x : I → R sur I de l’équation x0 = p(t)x + q(t) (E) s’écrivent Z t Rt p(s)ds + q(s)e s p(u)du ds t0 {z } | t0 {z } Z ∀ t ∈ I, x(t) = C exp | t sol. homogène générale sol. particulière R Z t Rs t − t p(u)du p(u)du = x0 + e 0 e t0 t0 DR AF T avec des constantes C, ou x0 arbitraire. Sous la deuxième forme, c’est l’unique solution qui vaut x0 à t = t0 . 6 3 Système d’équation différentielles linéaire 3.1 Prélude : réduction des équations différentielles à des EDO du 1erordre autonome 0 x(n−1) = x(n) 0 x(n−2) = x(n−1) .. . On peut ainsi réécrire X 0 = F (X, t) avec x x0 X = .. . AF x0 = x0 T — de l’ordre n à l’ordre 1 Si x(n) = f (x(n−1) , x(n−2) , x0 , x.t), alors on complète en ajoutant les équations triviales suivantes l’équation différentielle sous la forme différentielle suivante x(n−1) et y1 y2 F . = .. yn y2 .. . yn f (y1 , . . . , yn , t) . DR — passage à une équation autonome : on rajoute une dimension au vecteur X qui est le temps. Avec la variable X Z= , t le système ( X 0 = F (X, t) t0 =1 X F (X, t) 0 se réécrit Z = G(Z) avec G = . t 1 On peut donc toujours se ramener, au moins théoriquement à une équation différentielle ordinaire X 0 = F (X) du 1erordre autonome, avec une fonction inconnue X : I → Rn . On va s’intéresser dans la suite de ce chapitre au cas particulier où F est linéaire ou affine : X 0 = AX + B(t), où A est une matrice n × n à coefficients réels (qui vont sauf mention du contraire, ne pas dépendre de t). On utilise le même langage que pour les équations scalaires : 7 — si B = 0, on parle d’équation homogène, — si B 6= 0, on parle d’équation non homogène. Si on veut appliquer la même méthode que dans le cas scalaire, il nous faut l’exponentielle d’une primitive des coefficients devant X : il nous faut donc définir l’exponentielle de matrices. 3.2 Exponentielles de matrices kABk ≤ kAkkBk AF ∀ (A, B) ∈ Mn (C), T Nous introduisons dans cette section l’exponentielle de matrices à coefficients complexes (la définition aurait un sens pour toute algèbre unitaire normée complète). Elle sera utilisée dans la suite pour des matrices à coefficients réels, en lien avec les systèmes d’équations différentielles dont les coefficients seront réels. Mn (C) est un espace vectoriel de dimension finie (n2 si le corps de base est C). Toutes les normes sur cet espace sont équivalentes, au sens où elles définissent toutes la même topologie et donc la même notion de convergence de suite. On en choisira une qui nous rendra la vie un peu plus facile : notre norme k · k sera sous-multiplicative : Remarque 4. La multiplication étant bilinéaire, il s’agit d’une application continue (en dimension finie). Donc quelque soit la norme choisie sur les matrices, il existe une constante C > 0 telle que kABk ≤ CkAkkBk. En multipliant la norme par une constante appropriée (C −1 ), on obtient une norme sous-multiplicative. La sous-multiplicativité de la norme n’est en rien essentielle, mais facilite l’écriture car évite de promener ces constantes C dès qu’on veut borner la norme d’un produit. DR Exemple 1. Des exemples explicites de normes sous-multiplicatives — la norme infinie renormalisée kAk = n1 maxi,j |ai,j | — la norme opérateur associée à une norme N sur Cn . kAkop = sup x6=0 N (Ax) N (x) 3.2.1 Définition et propriétés algébriques Théorème 3. La série X 1 Ak k! k≥0 est une série converge. Sa limite ∞ X 1 k A k! k=0 est appelée exponentielle de A, et est notée eA ou exp(A). 8 Démonstration. En tant qu’espace vectoriel de dimension finie, Mn (C) est complet. Pour montrer que la série converge, il suffit de montrer qu’elle est normalement convergente, c’est à dire que la norme du terme général de cette série est le terme général (réel positif) d’une série convergente 1 . Grâce à la sous-multiplicativité, on peut écrire k 1 k 1 1 A k = kAk k ≤ kAkk k! k! k! qui est le terme général de la série exponentielle (réelle) de kAk. La série exponentielle est donc convergente, et T k exp(A)k ≤ exp kAk. Proposition 1. L’exponentielle des matrices vérifie les propriétés suivantes : 1. exp(0n ) = In AF 2. Pour toute matrice A, A exp(A) = exp(A)A. Mieux : pour tout polynôme P , P (A) exp(A) = exp(A)P (A). 3. Pour toute matrice A et tous scalaires complexes λ, µ exp(λA) exp(µA) = exp((λ + µ)A) = exp(µA) exp(λA) En particulier, pour λ = −µ = 1, on obtient que exp(A) est inversible et exp(A)−1 = exp(−A). DR 4. Pour toute matrice A, exp(t A) = t (exp A) P 1 K Démonstration. On notera En (A) = n−1 la somme partielle à n termes de la k=0 k! A série exponentielle de A. 1. Toutes les puissances de la matrice nulle sont nulles sauf la puissance 0, qui vaut l’identité. 2. A commute avec tous les polynômes en A en particulier les sommes partielles de la série exponentielle de A. On obtient la commutation avec l’exponentielle en passant à la limite. 3. TODO 4. La transposition est linéaire sur un espace de dimension finie, donc continue, et t (Ak ) = t A k . Ainsi, pour tout n, E (t A) = t E (A). Par continuité, en passant à n n la limite lorsque n tend vers l’infini, on obtient le résultat voulu. 1. En effet, on aura alors que la suite des sommes partielles est de Cauchy, donc converge, par complétude de l’espace. 9 Remarque 5. En général, lorsque A et B ne commutent pas, nous n’avons pas l’identité eA eB = eA+B à laquelle nous sommes habitués pour l’exponentielle réelle ou complexe. Il existe une formule, dite formule de Baker-Campbell-Hausdorff, qui exprime le produit eA eB comme l’exponentielle d’une somme infinie de termes, faisant intervenir le commutateur de A et B, [A, B] = AB − BA, et ses commutateurs avec A et B, etc. 1 1 exp(A) exp(B) = exp(A + B + [A, B] + ([A, [A, B]] + [B, [B, A]]) + · · · ) 2 12 T pour laquelle une expression combinatoire exacte a été démontrée par Dynkin en 1947. Tous les termes après les pointillés font intervenir [A, B]. En revanche, si A et B commutent, alors tous les termes après A + B dans l’exponentielle de droite sont nuls, et on a bien eA eB = eA+B , ce qui peut se vérifier directement en regartand le coefficient de Ak B l dans les deux expressions, comme dans la démonstration du point 3 de la proposition précédente. AF 3.2.2 Exemple de calculs effectifs Il n’y a pas de formule simple pour les coefficients de eA en fonction de ceux de A en toute généralité. Cependant, dans certains cas, l’exponentielle de A s’exprime simplement. On essaiera de s’y ramener par des techniques de réduction. A diagonale Si la matrice A est de la forme 0 0 A= .. . 0 a2 DR a1 Alors, Ak est diagonale et ses coefficients elle aussi diagonale et a e 1 0 eA = .. . 0 ··· .. ··· . 0 0 .. . 0 an diagonaux sont les aki , de sorte que exp(A) est 0 ··· ea2 .. ··· . 0 0 .. . . 0 ean Plus généralement, si A est diagonale par blocs, alors son exponentielle est aussi diagonale par bloc, et ses blocs diagonaux sont les exponentielles des blocs diagonaux de A. 10 A nilpotente Supposons que A est nilpotente, c’est à dire qu’il existe un k0 ≥ 0 tel que Ak0 = 0. Alors toutes les puissances de A de degré supérieur à k0 sont nulles, et exp(A) = kX 0 −1 k=0 1 k A k! Un cas particulier important pour la suite est le cas où A est triangulaire supérieure stricte avec que des 1 juste au dessus de la diagonale. Alors t 1 ··· .. .. . . .. . 1 tn−1 (n−1)! t 1 (3.1) AF 0 0 ··· t2 2! T etA 1 0 = . .. Comportement vis-à-vis de la similitude DR On dit que A et B sont semblables s’il existe une matrice inversible P telle que A = P BP −1 . Si Alors, pour tout k, on a Ak = P B k P −1 . Par combinaison linéaire, on a la similitude entre les sommes partielles En (A) et En (B), avec la même matrice P . Puis par passage à la limite, eA = P eB P −1 . En particulier, si A est diagonalisable, on peut prendre pour B une matrice diagonale dont les coefficients diagonaux sont les valeurs propres, et pour P une matrice de vecteurs propres associés. Par le point précédent, on peut donc calculer Malheureusement (ou heureusement), toutes les matrices ne sont pas diagonalisables. Mais il existe une forme réduite pour toute matrice, appelée forme de Jordan. Définition 3. Un bloc de Jordan de taille k associé à un scalaire λ est une matrice carrée Jk (λ) de la forme suivante : λ 1 0 Jk (λ) = 0 .. . λ 0 0 ··· 0 ··· .. .. . . .. . .. . λ 0 0 .. . = λIk + Jk (0). 0 1 λ On sait calculer l’exponentielle d’un multiple du bloc de Jordan tJk (0) : c’est l’exemple (3.1). Comme l’identité commute avec toutes les matrices, on sait calculer celle de tJk (λ) : il suffit de multiplier 11 Théorème 4 (Réduction de Jordan). Pour toute matrice A, il existe une matrice inversible P telle que P −1 AP a la forme suivante Jk1 (λ1 ) 0 ··· 0 .. 0 Jk2 (λ2 ) . .. . . . . 0 ··· 0 Jkp (λp ) Avec λ1 , . . . , λp les valeurs propres de A, et k1 + · · · + kp = n. T Deux λj peuvent être égaux. Le nombre de blocs correspondant à un même λ est la dimension de l’espace propre Ker(λI −A) associé. La somme des tailles des blocs associés au même λ est la dimension de l’espace caractéristique associé, c’est-à-dire la multiplicité de λ dans le polynôme caractéristique de A. Si tous les blocs sont de taille 1, alors la matrice est diagonalisable. 3.2.3 Propriétés analytiques AF Proposition 2. Soit A ∈ Mn (R). Soit eA la fonction définie sur R à valeurs dans Mn (R) définie par ∀ t ∈ R, eA (t) = exp(tA). Alors eA est dérivable en tout point de R et sa dérivée est e0A = AeA = eA A. Démonstration. Remarque 6. L’identité e0A = A · eA permet de montrer par réccurrence que eA est n fois dérivable pour tout n ≥ 1, c’est à dire de classe C ∞ . DR Remarque 7. Au lieu de le faire à la main comme dans la démonstration que l’on a donnée, on peut utiliser le théorème de dérivation pour les séries de fonctions (ou pour les séries entières) que l’on doit juste adapter légèrement car les coefficients ne sont plus complexes, mais à valeurs dans Mn (R). 3.3 Résolution de l’équation vectorielle différentielle à coefficients constants Commençons par énoncer les résultats pour les équations homogènes (E0 ) X 0 = AX Soit S0 l’ensemble des solutions sur R de cette équation. Théorème 5. Soit X0 Rn . Soit fX0 : t 7→ eA (t)X0 , définie sur R à valeurs dans Rn . Alors fX0 est solution de E0 sur R. De plus c’est l’unique solution qui vaut X0 en t = 0. L’application ψ : X0 7→ fX0 est un isomorphisme d’espace vectoriel entre Rn et S0 . En particulier, S0 est de dimension n. 12 Démonstration. On vérifie que fX0 est bien dérivable (comme produit de eA dérivable par une constante X0 ), et sa dérivée, d’après la proposition 2 est : 0 fX = e0A X0 = AeA X0 = AfX0 0 T Pour l’unicité de la solution valant X0 en t = 0, on suit la même démonstration que dans le cas scalaire. Soit Y une telle solution. On introduit Z = eA (−t)Y = e(−A) (t)Y . Alors Z est dérivable et sa dérivée est nulle. Comme on est sur un intervalle, Z est donc constante égale à Z(0) = e0A Y (0) = X0 . En inversant la relation entre Y et Z, on obtient que Y (t) = etA Z(t) = etA X0 = fX0 (t). On vérifie que S0 est un espace vectoriel (sous-espace vectoriel des fonctions dérivables), et que l’application ψ est linéaire. L’énoncé précédent montre que c’est une bijection, donc un isomorphisme. DR AF Pour résoudre l’équation avec second membre X 0 = AX + B, on utilise la même technique que dans le cas scalaire : toute solution de cette equation s’écrit comme la somme d’une solution particulière et d’une solution générale arbitraire de l’équation homogène associée. Pour trouver une solution particulière, on utilise : — la méthode d’identification, avec des coefficients indéterminés qui devront satisfaire des équations algébriques (en général linéaires) une fois injectée dans l’équation, — la méthode de variation de la constante qui s’adapte directement (attention à l’ordre des produits, car on a affaire à des matrices et des vecteurs). On cherche une solution sous la forme X(t) = exp(tA)V (t). Alors X est solution sur I si et seulement si V 0 (t) = exp(−tA)B(t) pour tout t ∈ I. C’est donc une équation de type « intégration »(à valeurs vectorielles). Il suffit donc de déterminer n primitives (une par composante). 3.4 Cas particulier de l’équation différentielle scalaire linéaire d’ordre n à coefficients constants On considère maintenant une équation différentielle de la forme suivante (E) x(n) = an−1 x(n−1) + · · · a1 x0 + · · · a0 x + b(t) Nous voulons la résoudre en appliquant le programme présenté ci-dessus, à savoir : — conversion en une equation différentielle linéaire du 1erordre vectorielle à coefficients constants — résolution de l’équation vectorielle homogène associée — détermination d’une solution particulière de l’équation inhomogène vectorielle — retour aux solutions de l’équation scalaire En utilisant la technique présentée dans la section ??, on transforme cette équation différentielle en équation différentielle vectorielle du premier ordre. 13 En posant x x0 .. . X= , (n−1) x 0 l’équation (E complétée par les équations x(j) = x(j+1) pour j = 0, . . . , n − 1 peut se réécrire (E) X 0 = AX + B(t) 0 1 0 0 0 1 . A=. . 0 a0 a1 · · · ··· .. . 0 .. . 0 1 an−2 an−1 0 .. et B(t) = . 0 b(t) T avec AF La fonction x est solution de (E) si et seulement si X est solution de (E). Une première étape dans la résolution de (E), et donc de (E) est la résolution de l’équation homogène associée qui passe par le calcul de exp(tA), ce qui pourra se faire aisément si on connaît la forme réduite de A. Commençons par déterminer le polynôme caractéristique de A, χA (r) = det(rIn − A). Lemme 1. Le polynôme caractéristique de A est χA (r) = rn − an−1 rn−1 − · · · − a1 r − a0 . DR Démonstration. On calcule le déterminant en développant le long de la dernière ligne. Définition 4. L’équation χA (r) = 0 pour déterminer les valeurs propres de A est appelée équation caractéristique de l’équation différentielle (E). Remarque 8. Soit à = t A. Alors le vecteur e1 et ses images itérées Ãe1 = e2 , Ã2 e1 = e3 , . . . , Ãn−1 e1 = en sont linéairement indépendants. Cela signifie que le seul polynôme annulateur de à (donc de A) de degré inférieur ou égal à n − 1 est le polynôme nul. S’il y en avait, en appliquant ce polynôme de matrices au vecteur e1 , on aurait une combinaison linéaire nulle non triviale des vecteurs e1 ,. . . ,t Ae1 ,. . . , t An−1 e1 , ce qui est impossible. Par le théorème de Cayley-Hamilton, le polynôme minimal µA de A divise son polynôme caractéristique χA . Pour des considérations de degrés, µA et χA sont égaux. Cela signifie que dans la réduction de Jordan, chaque valeur propre sera associée à un seul bloc de Jordan, dont la taille sera exactement sa multiplicité dans χA . Si on a été amené à calculer la matrice de passage P de A à sa forme réduite, alors comme on connaît l’exponentielle d’un bloc de Jordan, on peut calculer par produit matriciel exp(tA). 14 D’après le théorème 5, on sait que l’ensemble des solutions de (E0 ), et donc de l’équation différentielle scalaire d’ordre n (E0 ) associée à (E) (celle où b ≡ 0) est un espace vectoriel de dimension n. On peut déterminer cette ensemble par deux approches : 1. DR AF T 2. 15 DR AF T 4 Le pendule simple 16 DR AF T 5 Un modèle proie/prédateur 17 6 Un peu de théorie qualitative DR AF T Théorème de Cauchy–Lipschitz explosion en temps fini 18