Équations différentielles Nicolas Raymond 20 février 2011 Table des matières 1 Cas scalaire d’ordre 1 1.1 Définitions . . . . . . . . . . . 1.2 Résolution théorique . . . . . 1.2.1 Propriétés élémentaires 1.2.2 Résolution . . . . . . . 1.3 Résolution pratique . . . . . . 1.4 Cas des coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 4 5 5 6 . . . . . . . . . . . . . . . . . . 2 Cas vectoriel d’ordre 1 2.1 Généralités sur les équations différentielles . . . . . . . . . 2.1.1 Définition et réduction au premier ordre . . . . . . 2.1.2 Le problème de Cauchy et sa formulation intégrale 2.1.3 Solutions maximales . . . . . . . . . . . . . . . . . 2.2 Équations différentielles vectorielles linéaires d’ordre 1 . . . 2.2.1 Préliminaires sur les suites et séries de fonctions . . 2.2.2 Théorème de Cauchy-Lipschitz (cas linéaire) . . . . 2.2.3 Structure des solutions . . . . . . . . . . . . . . . . . . . . . . . . 6 . 6 . 7 . 7 . 8 . 8 . 8 . 10 . 11 3 Cas scalaire d’ordre 2 13 3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.2 Cas des coefficients constants . . . . . . . . . . . . . . . . . . 14 3.2.1 Propriétés générales . . . . . . . . . . . . . . . . . . . . 14 3.2.2 Solutions de (H) . . . . . . . . . . . . . . . . . . . . . 14 3.2.3 Solutions de (E) . . . . . . . . . . . . . . . . . . . . . 15 3.3 Quelques problèmes classiques . . . . . . . . . . . . . . . . . . 15 3.3.1 Problème des raccords : exemple . . . . . . . . . . . . . 15 3.3.2 Développement en série entière des solutions : exemple 15 3.3.3 Changement de variable ou de fonction inconnue : exemple 15 1 4 Cas des coefficients constants 4.1 Étude théorique . . . . . . . . . . . . . . . . . . . . 4.2 Résolution de (E) quand A est diagonalisable . . . 4.2.1 Résolution de (H) . . . . . . . . . . . . . . 4.2.2 Résolution de (E) . . . . . . . . . . . . . . . 4.2.3 Résolution de (E) quand A est trigonalisable . . . . . . . . . . . . . . . . . . . . . . . . . 5 Cas non linéaire 5.1 Autour du théorème de Cauchy-Lipschitz . . . . . . . . . . . 5.2 Notions sur les entonnoirs, échappement des solutions . . . . 5.2.1 Solutions globales . . . . . . . . . . . . . . . . . . . . 5.2.2 Entonnoirs . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Un exemple d’étude qualitative . . . . . . . . . . . . 5.3 Quelques exemples d’équations non linéaires . . . . . . . . . 5.3.1 Équations de Bernoulli et Riccati . . . . . . . . . . . 5.3.2 Équations à variables séparées . . . . . . . . . . . . . 5.4 Un exemple pour traiter des équations différentielles : la méthode du tir . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Un exemple d’étude qualitative de système non linéaire . . . 5.6 Notions des méthodes numériques pour les équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.1 Rappel sur la formule de Taylor avec reste intégral . 5.6.2 Méthodes de quadrature pour les intégrales . . . . . . 5.6.3 Méthodes de résolution numérique pour les équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 16 17 17 . . . . . . . . 17 18 18 18 19 20 21 21 22 . 22 . 25 . 26 . 26 . 27 . 29 6 Rappels d’algèbre linéaire 31 6.1 Matrices, changements de bases . . . . . . . . . . . . . . . . . 31 6.2 Endomorphismes, valeurs propres . . . . . . . . . . . . . . . . 32 7 Notions de la théorie des séries entières 33 7.1 Éléments de la théorie . . . . . . . . . . . . . . . . . . . . . . 33 7.2 Un exemple fondamental : l’exponentielle . . . . . . . . . . . . 35 2 Introduction Dans de nombreux domaines (mathématiques, physique, chimie, biologie, etc.), on est amené à chercher des fonctions dont les dérivées vérifient certaines relations. Ainsi est-ce le cas pour le principe fondamental de la dynamique (équation différentielle) : → − d2 M = F, 2 dt pour l’équation des ondes (équation aux dérivées partielles) : 1 ∂ 2ψ ∂ 2ψ ∂ 2ψ ∂ 2ψ − 2 − 2 − 2 − 2 2 = 0. ∂x ∂y ∂z c ∂t ou encore pour la célèbre équation de Schrödinger (équation aux dérivées partielles) : (−∆ + V (x))ψ = i∂t ψ. Dans ce cours, nous étudierons les équations différentielles (sujet déjà bien vaste !). Le problème général consistera, étant données des conditions initiales (position et vitesse par exemple) et une relation satisfaite par les dérivées d’une fonction (principe de la dynamique par exemple) à déterminer cette fonction inconnue et/ou ses propriétés. En particulier, nous ferons l’inventaire des méthodes classiques de résolutions, ainsi que des problèmes divers qui apparaissent dans la théorie des équations différentielles. 1 1.1 Équations différentielles scalaires linéaires du premier ordre Définitions Définition 1.1 (Forme générale de l’équation) On appelle équation différentielle scalaire linéaire d’ordre 1 toute équation différentielle de la forme : A(x)y 0 + B(x)y = C(x), (1.1) où A, B, C sont trois fonctions continues de J ⊂ R à valeurs dans K, J étant un intervalle de R non réduit à un point. L’équation homogène associée à (1.1) est : A(x)y 0 + B(x)y = 0. 3 (1.2) Définition 1.2 Si A ne s’annule pas en un point x0 ∈ J, alors il existe un intervalle I ⊂ J tel que A(x) 6= 0 pour x ∈ I et alors (1.1) se met sous la forme dite "résolue" sur I : y0 = − B(x) C(x) y+ = b(x)y + c(x). A(x) A(x) Définition 1.3 Soit J1 ⊂ J un intervalle de R non réduit à un point. On dit que f est une J1 -solution de (1.1) si, pour tout x ∈ J1 , on a : A(x)f 0 (x) + B(x)f (x) = C(x). Nous nous intéresserons donc aux couples (J1 , f ) qui résolvent l’équation (1.1). Si (J1 , f ) est une solution de (1.1) et si J2 ⊂ J1 , alors (J2 , f ) est une J2 solution de (1.1). Définition 1.4 (Solution maximale) On dit que (J1 , f ) est une solution maximale de (1.1) si et seulement si elle n’est la restriction à J1 d’aucune autre solution qu’elle-même. Dans la suite, nous allons porter essentiellement notre attention les solutions de l’équation mise sous forme résolue. 1.2 Résolution théorique Le cas scalaire linéaire a le bon goût d’être particulièrement simple à résoudre. Nous considérons donc l’équation : y 0 = b(x)y + c(x), x ∈ I, (1.3) où b et c sont des fonctions continues sur I. Nous rappelons l’équation homogène : y 0 = b(x)y, x ∈ I. (1.4) 1.2.1 Propriétés élémentaires Nous disposons des théorèmes élémentaires suivants : Théorème 1.5 L’ensemble des I1 -solutions de (1.4) est un K espace vectoriel. Théorème 1.6 L’ensemble des I1 -solutions de (1.3) est un K espace affine de direction l’ensemble des I1 -solutions de (1.4). 4 1.2.2 Résolution Théorème 1.7 (Équation homogène) Soit I1 un intervalle de R non réduit à un point. Les I1 -solutions de l’équation homogène (H) forment un K e. v. de dimension 1. De plus, les solutions maximales sont définies sur I et si une solution de (H) s’annule en un point, elle est identiquement nulle. Théorème 1.8 Soit I1 un intervalle de R non réduit à un point. Les I1 solutions de (E) forment une droite affine de dimension 1. De plus, les solutions maximales sont définies sur I. Remarque 1.9. Si l’équation n’est pas mise sous forme résolue, on résout d’abord sur les intervalles où A ne s’annule pas, puis on se pose la question du recollement des solutions. 1.3 Résolution pratique La théorie du paragraphe précédent fournit les solutions de façon explicite. Cependant, il vaut mieux retenir le principe (très général) de la démonstration : – on résout l’équation homogène (H), – on cherche une solution particulière de (E) : soit on en trouve une explicite, soit on utilise la méthode de variation de la constante (qui marche à coup sûr !). Proposition 1.10 (Superposition des solutions) Considérons l’équation : 0 A(x)y + B(x)y = n X Ci (x), i avec A, B, Ci continues sur I et avec A ne s’annulant pas sur I. Si yi est une solution de A(x)y 0 + B(x)y = Ci (x), alors, n X yi est solution de (E). i Exemple : xy 0 − y = ln(x) + 1. 5 Théorème 1.11 (Problème de Cauchy) On considère (E) avec A, B, C continues sur I et A ne s’annulant pas sur I. Alors, pour tout (x0 , y0 ) ∈ I ×K, il existe une unique solution Y de (E) définie sur I qui vérifie Y (x0 ) = y0 . De plus, toute solution de (E) qui vérifie y(x0 ) = y0 est la restriction de Y à un intervalle contenant x0 . Remarque 1.12. Lorsque A s’annule sur I, tous les résultats précédents (structure des solutions, existence, unicité) tombent en défaut : c’est le problème du raccord des solutions définies sur les intervalles où A ne s’annule pas. Exemple : ty 0 − αy = 1. Pour quelles valeurs de α existe-t-il des solutions sur R ? Que dire du problème de Cauchy : existe-t-il des solutions telles que y(0) = y0 ∈ R ? 1.4 Cas des coefficients constants Définition 1.13 On appelle équation différentielle linéaire du premier ordre à coefficients constants toute équation de la forme : y 0 + by = C(x), où C : I → K continue. Nous avons vu que les solutions de l’équation homogène sont de la forme : y(x) = λe−bx et que les solutions de (E) sont définies sur I. Il y a des cas où on peut déterminer une solution particulière sans recourir à la méthode de variation de la constante. C(x) = P (x) où P est un polynôme On cherche une solution particulière sous la forme Q(x). C(x) = P (x)eαx où P est un polynôme On cherche une solution sous la forme eαx g(x). 1 Exemple : y 0 − y = (x + 1)ex + sin(2x) + x cos(x) + 1+x 2. 2 Équations différentielles vectorielles linéaires d’ordre 1 2.1 Généralités sur les équations différentielles Soit E = Kp . 6 2.1.1 Définition et réduction au premier ordre Définition 2.1 On appelle système différentiel d’ordre n sous forme normale toute équation différentielle de la forme : (E) : y (n) = G(t, y, y 0 , · · · , y (n−1) ), où G est une application d’un ouvert U de R × E n à valeurs dans E et y une fonction C n à valeurs dans E. (E) peut être ramenée à un système d’ordre 1 à l’aide du procédé suivant. On pose : y 0 = z1 , y 00 = z2 , · · · , y (n−1) = zn , ce qui s’écrit de façon équivalente : y 0 = z1 , z10 = z2 , 0 zn−1 = zn . ··· , y est solution de (E) si et seulement si (y, z1 , · · · , zn−1 , zn ) est solution de : y 0 = z1 , z10 = z2 , zk0 = zk+1 , zn0 = G(t, y, z1 , · · · , zn−1 ). Ainsi, nous nous restreignons à l’étude des systèmes différentiels d’ordre 1. 2.1.2 Le problème de Cauchy et sa formulation intégrale Soit l’équation : (E) : y 0 = G(t, y), avec G : U → E. Le problème de Cauchy consiste à savoir s’il existe une solution de (E) qui vérifie y(t0 ) = a0 où (t0 , a0 ) ∈ U . Théorème 2.2 Soient U un ouvert de R × E, G : U → E une application continue, I un intervalle de R et φ : I → E continue. Alors, on a équivalence : 1. (I, φ) est solution de y 0 = G(t, y) et y(t0 ) = y0 . 2. Z ∀t ∈ I, t φ(t) = y0 + G(s, φ(s))ds. t0 7 2.1.3 Solutions maximales Définition 2.3 Si (I, φ) et (J, ψ) sont eux solutions de y 0 = G(t, y), on dit que (J, ψ) est un prolongement de (I, φ) si I ⊂ J et si φ est la restriction de ψ à I. Définition 2.4 On appelle solution maximale de l’équation y 0 = G(t, y) toute solution (I, φ) qui n’est la restriction à I d’aucune solution (J, ψ) avec I sous-intervalle strict de J. 2.2 Équations différentielles vectorielles linéaires d’ordre 1 Définition 2.5 On appelle équation différentielle vectorielle linéaire d’ordre 1 toute équation différentielle de la forme : (E) : y 0 = a(t)y + b(t), où a : I → L(E) et b : I → E sont continues. En considérant une base de E, on peut réécrire cette équation sous la forme d’un système : Y 0 = A(t)Y + B. De même que dans le cas scalaire on définit l’équation homogène associée à (E) : (H) : y 0 = a(t)y. Une solution de (E) est un couple (J, φ) où J est un intervalle inclus dans I et φ une fonction de classe C 1 sur J telle que : ∀t ∈ J, 2.2.1 φ0 = a(t)φ + b(t). Préliminaires sur les suites et séries de fonctions On suppose que K = R ou C et on pose E = Kd . (X, d) désignera un espace métrique ; on pourra prendre pour X un intervalle de R et pour d la valeur absolue. Définition 2.6 On dit qu’une suite de fonctions (fn ) (à valeurs dans E) définies sur X et bornées converge uniformément vers une fonction f (bornée) sur X si et seulement si : kfn − f k∞ = sup kfn (x) − f (x)k → 0, x∈X 8 quand n → +∞. Proposition 2.7 Soit (fn ) une suite de fonctions continues et bornées sur X et qui converge uniformément vers f sur X, alors f est continue sur X. Preuve. Soit x0 ∈ X. On veut estimer kf (x) − f (x0 )k quand x → x0 . Soit > 0 et N ∈ N tels que pour tout n ≥ N : kfn − f k∞ ≤ . 3 On a : kf (x) − f (x0 )k ≤ kf (x) − fN (x)k + kfN (x) − fN (x0 )k + kfN (x0 ) − f (x0 )k. On trouve donc : 2 + kfN (x) − fN (x0 )k. 3 Pour ce N , on utilise l’hypothèse de continuité des fN en x0 : il existe α > 0 tel que pour tout x ∈ X tel que d(x, x0 ) ≤ α, on a : kfN (x) − fN (x0 )k ≤ . 3 kf (x) − f (x0 )k ≤ Corollaire 2.8 Soit (fn ) une suite de fonctions continues sur [a, b] et convergeant uniformément vers f sur [a, b], alors : Z b Z b lim fn (t)dt = f (t)dt. n→+∞ a a Définition 2.9 On dit qu’une suite de fonctions fn définies et bornées sur X vérifie le critère de Cauchy uniforme si, pour tout > 0, il existe N ∈ N tel que pour tout n, m ≥ N , on a : kfn − fm k∞ ≤ . Proposition 2.10 (Admis) Si une suite (fn ) de fonctions bornées vérifie le critère de Cauchy uniforme, alors elle converge uniformément vers une certaine fonction bornée f . Corollaire 2.11 Soit (fn ) une suite de fonctions continues et bornées sur X. On pose N X FN = fn . n=0 Alors, si la série de terme général kfn k∞ converge, alors (FN ) vérifie le critère de Cauchy uniforme et elle converge vers une fonction continue F . 9 2.2.2 Théorème de Cauchy-Lipschitz (cas linéaire) Nous allons à présent nous intéresser à un théorème fondamental donnant l’existence et l’unicité d’une solution au problème de Cauchy (dans le cas linéaire ; le cas général sera présenté plus tard). Théorème 2.12 Soit a : I → L(E) et b : I → E deux applications continues sur I. Alors, pour tout (t0 , y0 ) ∈ I × E, l’équation : (E) : y 0 = a(t)y + b admet une unique solution satisfaisant y(t0 ) = y0 . Preuve. Nous cherchons une fonction continue y : I → E telle que : Z t ∀t ∈ I, y(t) = y0 + (a(s)y(s) + b(s))ds. t0 Supposons déjà que I est un segment. Nous allons construire une telle fonction par une méthode d’approximation. On définit par récurrence la suite de fonctions suivante : Y0 (t) = y0 , Z t Yn+1 (t) = y0 + (a(s)Yn (s) + b(s))ds. t0 On se pose donc la question de la convergence uniforme de Yn vers une certaine fonction y sur I. Pour cela nous allons évaluer la norme de Yn+1 −Yn . Il est clair que : Z t Yn+1 (t) − Yn (t) = a(s)(Yn (s) − Yn−1 (s))ds. t0 Ainsi, par continuité de a, nous pouvons majorer : Z t kYn+1 − Yn k ≤ α kYn (s) − Yn−1 (s)kds t0 Par ailleurs, nous avons : kY1 − Y0 k ≤ (αky0 k + β)|t − t0 |. Par récurrence, nous déduisons que : kYn+1 (t) − Yn (t)k ≤ (αky0 k + β) 10 αn |t − t0 |n , (n + 1)! ∀t ∈ I Si h désigne la longueur de I, nous trouvons : αn hn , ∀t ∈ I kYn+1 (t) − Yn (t)k ≤ (αky0 k + β) (n + 1)! P αn hn Or, la série est convergente, ainsi, par comparaison, nous avons mon(n+1)! P tré que (Yn+1 (t) − Yn (t)) est une série normalement convergente sur I. La convergence est par conséquent uniforme sur I Cette série est téléscopique : N −1 X (Yn+1 (t) − Yn (t)) = YN (t) − y0 . n=0 Cela prouve que Yn converge uniformément vers une certaine fonction I. Les Yn étant continues sur I, nous déduisons que y est continue sur I. Il ne reste plus qu’à passer à la limite pour trouver : Z t ∀t ∈ I, y(t) = y0 + (a(s)y(s) + b(s))ds. t0 Cela achève la preuve de l’existence. Passons à l’unicité. Soient y1 et y2 deux solutions du problème de Cauchy. Leur différence δ = y2 − y1 satisfait : Z t δ(t) = a(s)δ(s)ds. t0 Par continuité sur un compact, il existe M > 0 tel que pour tout t ∈ I : kδ(t)k ≤ M. Par récurrence, nous avons donc : kδ(t)k ≤ M αn |t − t0 |n . n! Il ne reste qu’à passer à la limite et nous déduisons que δ = 0. Cela achève la preuve de l’unicité. Le cas où I n’est pas compact s’obtient alors sans mal à partir du cas compact. 2.2.3 Structure des solutions Nous savons donc que les solutions de (E) existent et sont définies sur I. Examinons donc leurs propriétés. 11 Proposition 2.13 L’ensemble des solutions de (H) est un K-e. v. de dimension p. L’ensemble des solutions de (E) est un espace affine de direction l’ensemble des solutions de (H). Choisissons désormais une base de E et considérons plutôt les systèmes : Y 0 = A(t)Y. Nous allons introduire une quantité commode pour savoir si p solutions de l’équation homogène (H) forment une famille libre (et donc une base SH ). Wronskien de p applications à valeurs dans Kp Définition 2.14 On appelle wronskien de p applications Y1 , · · · Yp de I à valeurs dans Kp la quantité : w(t) = det(Y1 (t), · · · , Yp (t)). Proposition 2.15 Si (Y1 , · · · , Yp ) est lié, on a : ∀t ∈ I, w(t) = 0. Proposition 2.16 S’il existe t0 ∈ I tel que w(t0 ) 6= 0, alors (Y1 , · · · , Yp ) est libre. Wronskien des solutions de (H) Théorème 2.17 Soient Y1 , · · · , Yp p solutions du système homogène (H) : Y 0 = A(t)Y avec A continue sur I. Alors, on a : ∀t ∈ I, w0 (t) = Tr(A(t))w(t). En particulier, Y1 , · · · , Yp est lié si et seulement si w est identiquement nulle si et seulement si w s’annule en au moins un point. Variation des constantes Supposons qu’on ait trouvé p solutions indépendantes de (H). Nous pouvons alors déterminer les solutions de (E). Théorème 2.18 Soient Y1 , · · · , Yp p solutions indépendantes de (H) sur I. On pose : p X Y (t) = λi Yi (t), ∀t ∈ I. i=1 Alors, on a : 1. Y est dérivable si et seulement si les λi sont dérivables. P 2. Y est solution de (E) si et seulement si pi=1 λ0i (t)Yi = B(t). Exemple : Résoudre : (t2 + 1)x0 = tx − y + 2t et (t2 + 1)y 0 = x + ty − 1. 12 3 Équations différentielles linéaires scalaires du second ordre 3.1 Généralités Définition 3.1 On appelle équation différentielle linéaire d’ordre 2 toute équation différentielle de la forme : A(x)y 00 + B(x)y + C(x)y = D(x), où A, B, C et D sont des applications de I dans K continues. Dans la suite, nous nous intéressons aux solutions maximales de l’équation sous forme résolue. Écrivons le système linéaire d’ordre 1 associé à : (E) : y 00 = b(x)y 0 + c(x)y + d(x) avec a, b, c et d continues sur I. (E) est équivalent à (S) : 0 y =u u0 = b(x)u + c(x)y + d(x) ou encore : y0 u0 = 0 1 c(x) b(x) y u + 0 d(x) . Nous pouvons appliquer les résultats précédents pour obtenir en particulier : Proposition 3.2 1. Les solutions de (S) sont définies sur I. 2. Les solutions de (H) forment un K e.v. de dimension 2. 3. Pour tout (t0 , a0 , a1 ) ∈ I × K2 , il existe une unique solution de (E) définie sur I telle que y(t0 ) = a0 et y 0 (t0 ) = a1 . Résolution de (E) Dans le cas général, on ne sait résoudre ni (H) ni (E). 1. Si on connaît deux solutions indépendantes y1 et y2 de (H) et une solution particulière de (E) y0 , alors la solution générale de (E) est : y = λ1 y1 + λ2 y2 + y0 . 2. Si on connaît une solution Y de (H) ne s’annulant pas sur J ⊂ I, alors on va pouvoir résoudre (E) sur J. On pose en effet y = zY et on est ramené à une équation du premier ordre. Résoudre : (t2 + 1)x00 − 2x = 4t(t2 + 1) en remarquant que (H) possède une solution polynômiale. 13 3. Si on connaît deux solutions indépendantes y1 et y2 de (H), alors on peut utiliser la méthode de variation des constantes. On commence par écrire le système associé : 0 0 1 y 0 y = + . u0 c(x) b(x) u d(x) y1 y2 et sont deux solutions indépendantes de (H). On cherche y10 y20 alors la solution générale sous la forme : Y = c1 (x)Y1 + c2 (x)Y2 et on trouve : 0 0 0 c1 Y 1 + c2 Y 2 = . d(x) Il n’y a plus qu’à trouver c1 et c2 en inversant le système. Résoudre : x2 y 00 + xy 0 − y = 2x en remarquant qu’il existe des solutions de la forme xm avec m ∈ Z. 3.2 3.2.1 Cas des coefficients constants Propriétés générales Définition 3.3 On appelle équation différentielle linéaire du second ordre à coefficients constants toute équation du type : ay 00 + by 0 + cy = D(x), avec (a, b, c) ∈ K∗ × K2 et D : I → K continue. Les solutions de (H) sont définies sur R et forment un K e. v. de dimension 2. Les solutions de (E) sont définies sur I et forment un plan affine. 3.2.2 Solutions de (H) On sait toujours calculer deux solutions indépendantes de (H). On remarque déjà que x 7→ erx est solution de (H) si et seulement si ar2 +br+c = 0. Deux cas se présentent. K = C Si ∆ = b2 − 4ac 6= 0, alors il y a deux racines distinctes r1 et r2 et la solution générale de (H) est de la forme : y = λ1 er1 x + λ2 er2 x . Si ∆ = 0, il y a une racine double r0 . On pose y = zer0 x et en remplaçant on trouve : z = λx + µ. 14 K = R Si ∆ ≥ 0, cf. le premier cas. Si ∆ < 0, il y a deux racines complexes conjuguées : r1 = α + iβ et r2 = α − iβ. Ces racines donnent lieu à deux solutions conjuguées : y1 = eαx (cos(βx) + i sin(βx)) et y2 = eαx (cos(βx) − i sin(βx)). On en déduit que Y1 = eαx cos(βx) et Y2 = eαx sin(βx) sont solutions de (H) et elles sont indépendantes. Résoudre : y 00 + 4y 0 + 4y = 0 ; y 00 − 5y 0 − 6y = 0 et y 00 + y 0 + y = 0. 3.2.3 Solutions de (E) On connaît toujours une solution de (H) de la forme erx , on peut donc chercher les solutions sous la forme : y = erx z. Résoudre : y 00 − 6y 0 + 9y = 3x2 e−3x et y 00 + y = tan2 (x). 3.3 3.3.1 Quelques problèmes classiques Problème des raccords : exemple Examiner le raccord des solutions de : (t + 1)y 00 − 2y 0 − (t − 1)y = te−t en remarquant que et est solution de l’équation homogène. Résoudre le problème de Cauchy pour ces solutions... 3.3.2 Développement en série entière des solutions : exemple Résoudre x(x − 1)y 00 + 3xy 0 + y = 0 en cherchant des solutions DSE en 0. Étudier les raccords. 3.3.3 Changement de variable ou de fonction inconnue : exemple Résoudre : x2 y 00 + 4xy 0 + 2y = 0 15 4 Systèmes différentiels linéaires à coefficients constants 4.1 Étude théorique Définition 4.1 On appelle système différentiel linéaire du premier ordre à coefficients constants tout système différentiel de la forme : X 0 (t) = AX(t) + B(t), où A ∈ Mn (K) et B : I → Kn est continue. P Ak Proposition 4.2 Pour tout A ∈ Mn (K), est une série convergente et k! A tA sa somme est notée e . De plus, φt 7→ e est dérivable et φ0 (t) = Aφ(t) = φ(t)A. En particulier, cette proposition prouve que les solutions de (H) sont définies sur R et qu’elles sont toutes de la forme : X(t) = etA x0 où x0 ∈ Kn . Proposition 4.3 Soit P ∈ GLn (K). Si on pose X = P Z, alors (E) est équivalente à Z 0 (t) = P −1 AP Z(t) + P −1 B(t). 4.2 4.2.1 Résolution de (E) quand A est diagonalisable Résolution de (H) Si A est diagonalisable, alors il existe P ∈ GLn (K) telle que P −1 AP = diag(λ1 , · · · , λn ). En posant X = P Z, il vient : Z 0 (t) = diag(λ1 , · · · , λn )Z(t) et donc, pour tout i ∈ {1, · · · , n} : zi0 (t) = λi zi (t). On en déduit que zi (t) = µi eλi t . On rappelle que P = (V1 , · · · , Vn ) où les Vi forment une base de vecteurs propres. Ainsi, on a : n X X(t) = µi eλi t Vi . i=1 Résoudre : 0 y1 = 5y1 + y2 − y3 y 0 = 2y1 + 4y2 − 2y3 20 y3 = y1 − y2 + 3y3 16 4.2.2 Résolution de (E) De la même façon que précédemment, on est ramené à résoudre : zi0 = λi zi + ci (t) où C(t) = P −1 B(t). Une autre façon serait d’utiliser la méthode de variation des constantes. Résoudre : 0 5y1 + y2 − y3 y1 = 0 y = 2y1 + 4y2 − 2y3 + t 20 y1 − y2 + 3y3 y3 = Remarque 4.4. Si les coefficients sont réels et si les valeurs propres de A ne sont pas réelles, on peut tout de même remarquer que les parties réelles et imaginaires d’une solution sont solutions de (H). 4.2.3 Résolution de (E) quand A est trigonalisable Dans ce cas, il existe P ∈ GLn (K) telle que P −1 AP = T, avec T triangulaire supérieure. tème en cascade. Résoudre : 0 x y0 0 z 5 On est alors ramené à la résolution d’un sys= 2y + 2z = −x + 2y + 2z = −x + y + 3z Équations différentielles non linéaires : exemples Dans la suite, E = Kn et nous nous intéressons à des équations différentielles de la forme : X 0 = f (t, X), où f est donnée et à valeurs dans E. 17 5.1 Autour du théorème de Cauchy-Lipschitz Avant de donner un résultat d’existence et d’unicité pour cette équation, nous avons besoin d’une définition préliminaire. Définition 5.1 Soit U un ouvert de I × E. Une application f : U → E est dite localement lispchitzienne par rapport à la deuxième variable si, pour tout (t0 , x0 ) ∈ U , il existe un voisinage V de ce point dans U et un réel positif k tel que pour tout x, y ∈ E et t ∈ I, si (t, x) ∈ V et (t, y) ∈ V , alors : kf (t, x) − f (t, y)k ≤ kkx − yk. Donnons tout de suite un critère pratique. Proposition 5.2 Soit U un ouvert de I × E et f : U → E. Pour que f soit localement lispchitzienne par rapport à la deuxième variable , il suffit que f soit différentiable par rapport à cette variable et que ∂x f soit continue sur U . Nous pouvons énoncer le théorème fondamental de cette section. Théorème 5.3 Soit U un ouvert de R × E et f : U → E une application continue et localement lispchitzienne par rapport à la deuxième variable. Alors, pour tout (t0 , x0 ) ∈ U , il existe un intervalle J de centre t0 et de longueur non nulle tel que l’équation différentielle : X 0 = f (t, X) admette sur J une unique solution telle que X(t0 ) = x0 . Examiner les exemples y 0 = y 1/3 et y 0 = y 2 . 5.2 5.2.1 Notions sur les entonnoirs, échappement des solutions Solutions globales Nous allons voir que les solutions maximales non globales du problème de Cauchy ne sont pas bornées. Proposition 5.4 (Échappement faible) Soit f une fonction continue sur (a, b) × E à valeurs dans E et localement lipschitzienne par rapport à la seconde variable. Soit φ une solution maximale de y 0 = f (t, y) et définie sur (α, β). Si β < b, alors φ est non bornée au voisinage de β. 18 Preuve. On raisonne par l’absurde. Soit t0 ∈ (α, β) et M > 0 tel que kφ(t)k ≤ M pour tout t ∈ [t0 , β). Comme f est continue sur [t0 , β] × Bf (0, M ), elle y est bornée : il existe K > 0 telle que, pour tout (t, x) ∈ [t0 , β] × Bf (0, M ) : kf (t, x)k ≤ K. Ainsi, on a : kφ0 (t)k ≤ K, ∀t ∈ [t0 , β]. Nous pouvons alors prolonger φ par continuité en β. Notons φ(β) = x0 . En reprenant l’équation, on voit que φ0 admet f (β, φ(β)) comme limite en β. Ainsi prolongée φ est solution de l’équation différentielle sur (α, β]. Soit alors ψ la solution maximale de l’équation y 0 = f (t, y) telle que ψ(β) = x0 . ψ permet alors de prolonger φ et c’est une contradiction. Nous donnons maintenant quelques critères pour obtenir la globalité des solutions. Proposition 5.5 Soit f : I × E → E continue et localement lipschitzienne par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I, il existe MK > 0 : kf (t, x)k ≤ MK pour tout (t, x) ∈ K × E. Alors les solutions maximales sont globales. Proposition 5.6 Soit f : I × E → E continue et localement lipschitzienne par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I, il existe C1 (K), C2 (K) telles que : kf (t, x)k ≤ C1 (K)kxk + C2 (K), ∀(t, x) ∈ K × E. Alors, les solutions maximales sont globales. 5.2.2 Entonnoirs Définition 5.7 On dit que u : I → R est une sur-solution de x0 = f (t, x) si, pour tout t ∈ I : u0 (t) ≥ f (t, u(t)). On définit de même les sur-solutions strictes (et les sous-solutions). Proposition 5.8 Soit u : I → R une sur-solution stricte de x0 = f (t, x) et x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0 ) ≤ u(t0 ), alors pour tout t ∈ J avec t > t0 , on a : u(t) > x(t). 19 Proposition 5.9 Soit u : I → R une sous-solution stricte de x0 = f (t, x) et x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0 ) ≥ u(t0 ), alors pour tout t ∈ J avec t > t0 , on a : u(t) < x(t). Exemple : x0 = 1 − x2 ; u(t) = t + c. Les deux propositions précédentes restent valables sans l’hypothèse "stricte". Définition 5.10 Soient u une sur-solution et v une sous-solution de x0 = f (t, x) sur I × R. On suppose que u > v. L’ensemble {(t, x) ∈ I × R : ∀t ∈ I : v(t) ≤ x ≤ u(t)} est appelé un entonnoir. Proposition 5.11 Soit I = (a, b). Soit x : J → R une solution maximale de x0 = f (t, x) sur I × R. Soit t0 ∈ J. Si v(t0 ) ≤ x(t0 ) ≤ u(t0 ), alors [t0 , b) ⊂ J et pour tout t ∈ [t0 , b) : v(t) ≤ x(t) ≤ u(t). 5.2.3 Un exemple d’étude qualitative On se propose d’étudier l’équation : y 0 = y 2 − x. Pour tout (x0 , y0 ), il existe une unique solution maximale y telle que y(x0 ) = y0 . Minoration du temps d’existence Montrons que l’intervalle d’existence maximal est minoré. Supposons que cet intervalle ne soit pas minoré. Alors, y est définie sur ] − ∞, b[. Ainsi, la solution est strictement croissante sur ] − ∞, 0] et elle s’annule donc au plus une fois sur cet intervalle (par exemple en x1 ). Alors, y ne s’annule pas avant x1 et pour x ≤ x1 − 1, on a : y 0 (x) ≥ 1 et donc y tend vers −∞ en −∞. Mais on a aussi : y 0 (x) ≥ y(x)2 , pour x ≤ x1 et donc : 1 1 ≥ − (x − x1 ). y(x) y(x1 ) On fait tendre x vers −∞ pour trouver une contradiction. Au voisinage de a, la solution ne peut pas rester dans la parabole y 2 ≤ x (elle doit s’échapper des compacts) ; ainsi, quand x tend vers a, la solution devient croissante. Le théorème d’échappement impose donc que y tend vers −∞. 20 Piégeage des solutions bornées Dans la suite, on s’intéresse aux solutions bornées et nous montrons qu’elles entrent dans un entonnoir. Supposons que y est bornée. Supposons qu’elle est croissante sur ]a, b[. Alors, on a y(x)2 ≥ x et donc b 6= +∞ ce qui entraîne l’explosion de y en temps fini. C’est contradictoire. y ne peut donc pas rester croissante sur ]a, b[. Soit 2 c le plus petit réel de ]a, b[ tel que : y 0 (c) = 0. En particulier, on a y(c) √ = c. 2 Vérifions que la parabole y = x définit un entonnoir. u(x) = x vérifie u0 (x) >√0 = f (x, u(x)) ; ainsi, u est une sur-solution stricte. De même, v(x) = − x est une sous-solution stricte. La proposition de piégeage des solutions dans un entonnoir montre que pour tout t ∈ [c, b[, la solution reste dans l’entonnoir et donc que b = +∞. 5.3 5.3.1 Quelques exemples d’équations non linéaires Équations de Bernoulli et Riccati Équation de Bernoulli On appelle équation de Bernoulli toute équation différentielle numérique de la forme : (E) : y 0 = A(x)y α + B(x)y, où A et B sont des fonctions continues sur I. α est supposé différent de 0 et 1. En essayant le changement de fonction z = y 1−α , on est ramené à (1 − α)−1 z 0 = A(x) + B(x)z. Notons que ce changement de fonction n’est licite que si y > 0. Il faut donc faire attention. Remarque 5.12. Si α > 1, toute solution de (E) qui s’annule est identiquement nulle. Exemple 1 : traiter le cas α = 2. Exemple 2 : traiter : x2 y 0 + y + y 2 = 0, x > 0. Équation de Riccati On appelle équation de Riccati toute équation différentielle numérique de la forme : (E) : y 0 = A(x)y 2 + B(x)y + C(x), 21 où A, B et C sont des fonctions continues sur I. Nous sommes dans le cadre d’application du théorème de Cauchy-Lipschitz, mais on ne sait pas résoudre explicitement cette équation. Cependant, si on connaît une solution particulière y0 et si on pose : y = y0 + u, alors u vérifie une équation de Bernoulli (α = 2). 5.3.2 Équations à variables séparées y 0 = f (x) : f est supposée continue sur I à valeurs dans E. y est une solution si et seulement si y = F (x) + C. y 0 = g(y) : Il s’agit d’une équation autonome (car la variable de dérivation ne figure pas explicitement). Si on suppose que g est C 1 sur I, alors on a l’existence et l’unicité d’une solution locale. Supposons que g ne s’annule qu’en un nombre fini de points y1 < · · · < yn . Alors, on remarque déjà que si yj est un zéro de g, alors y = yj est solution. Par unicité, on peut donc supposer que y vérifie yj < y < yj+1 . En considérant une primitive G de g −1 , on obtient que les solutions sont données par G(y) = x + c. Comme G est strictement monotone,√ on peut l’inverser et retrouver y. (y−2)2 y Exemple : y 0 = (y−2)2 +√y sur [0, +∞[. y 0 = f (x)g(y) : On suppose que f est continue sur I et que g est C 1 sur I de sorte que les hypothèses du théorème de C. L. soient satisfaites. Avec les notations du paragraphe précédent, sur ]yj , yj+1 [, on a : G(y) = F (x) + C avec F une primitive de f sur I. Exemple : y 0 = ex+y . 5.4 Un exemple pour traiter des équations différentielles : la méthode du tir Nous allons essentiellement donner des exemples de cette technique. Elle concerne les équations différentielles avec des conditions aux limites qui ne sont pas celles de Cauchy-Lipschitz. Exemple 1 : Pour c 6= 0, résoudre x0 = cx avec x0 (1) = 1. Le principe est d’introduire un paramètre de tir τ et de résoudre, en fonction de τ le problème : x0 = cx, x(0) = τ. Dans ce cas, on trouve : xτ (t) = τ ect . 22 Il s’agit alors de sélectionner dans cette famille xτ les éléments qui vérifient la condition aux limites. On calcule donc x0τ (1) = cτ et cela impose : τ = c−1 et nous avons résolu le problème. Exemple 2 : Résoudre x00 + x = 0 avec x(0) = x(1) = 0. On introduit le paramètre de tir τ en résolvant le problème de Cauchy suivant : x00 + x = 0, x(0) = 0, x0 (0) = τ. Cela se résout sans difficulté : xτ (t) = τ sin t. xτ (1) = 0 implique alors τ = 0 et seule la solution nulle fonctionne. Exemple 3 : un peu de théorie spectrale Déterminer les nombres λ pour lesquels il existe une solution non nulle du problème suivant : x00 + λx = 0, x(0) = 0, x(1) = 0. Remarquons déjà que si λ = 0, seule la solution nulle convient. On résout donc : x00 + λx = 0, x(0) = 0, x0 (0) = τ. Si λ < 0, on trouve : √ τ sinh(t −λ). xτ (t) = √ −λ La condition aux limites impose que τ = 0. Si λ > 0, on trouve sans mal : √ τ xτ (t) = √ sin(t λ). λ √ La condition aux limites donne sin( λ) = 0 et donc λ = n2 π 2 . Ainsi, l’ensemble des solutions est donné par : xτ (t) = τ sin(nπt). nπ 23 Exemple 4 : un peu de théorie des cristaux liquides Existe-t-il des solutions non nulles de : φ00 + sin φ cos φ = 0, x(0) = 0, x0 (L) = 0 et qui s’annulent sans changer de signe ? On considère plutôt : φ00 + sin φ cos φ = 0, x(0) = 0, x0 (0) = τ. On trouve que : φ0 (z)2 + sin(φ(z))2 = τ 2 = sin2 (φ(L)). Examinons les cas limites : τ = 0 et τ = 1. Pour τ = 0, on trouve la solution nulle. Pour τ = 1, on trouve : φ0 (z)2 = cos2 (φ(z)). On trouve comme solution φ1 (z) = π − 2 arctan(e−z ), 2 mais elle ne satisfait pas la deuxième condition aux limites. On se restreint donc à τ ∈ (0, 1). On déduit déjà que |φ(z)| ≤ arcsin τ. Soit z0 le plus petit nombre strictement positif tel que φ0 (z0 ) = 0. φ est strictement croissante sur [0, z0 ] et φ(z0 ) = arcsin τ . Soit alors z1 le plus petit nombre plus grand que z0 tel que φ(z1 ) = 0. φ est décroissante sur [z0 , z1 ] et φ0 (z1 ) = −τ . Cela entraîne que φ est 2z1 -périodique. En particulier, on doit avoir : L = z0 + nz1 . Si n ≥ 1, on aurait z1 ∈ (0, L), ce qui contredirait l’hypothèse du changement de signe. Ainsi, on a n = 0. On vient donc de montrer qu’il y avait une solution unique φτ,L strictement positive et croissante sur (0, L). Nous pouvons exprimer son inverse : Z ψ dφ −1 p φτ,L (ψ) = . τ 2 − sin2 φ 0 Par changement de variables, il vient : φ−1 τ,L (ψ) Z = 0 sin ψ τ 1 dt √ √ , 2 2 1−t τ 1 − t2 24 ∀ψ ∈ [0, arcsin τ ]. Pour ψ = arcsin τ , on a : φ−1 τ,L (arcsin τ ) 1 Z = 0 dt √ √ = F (τ ). 2 1 − t τ 2 1 − t2 La condition aux limites donne : F (τ ) = L. On remarque que F est continue et strictement croissante de détermine une unique valeur de τ . 5.5 π 2 à +∞. Cela Un exemple d’étude qualitative de système non linéaire Le but de cette section est l’étude du système proie-prédateur de Volterra : x0 = ax − bxy, y 0 = −cy + dxy, où a, b, c, d > 0 et avec données initiales x(t0 ) = x0 > 0 et y(t0 ) = y0 > 0. Le théorème de Cauchy-Lipschitz fournit l’existence d’une solution sur [t0 , T [. Positivité des solutions Montrons que x > 0 et y > 0 sur cet intervalle. Dans le cas contraire, il existerait s tel que x(s) = 0. Or, nous remarquons que x̃(t) = 0 et ỹ(t) = y(s)e−c(t−s) sont solutions du système avec données initiales x̃(s) = 0 et ỹ(s) = y(s). L’unicité du théorème de Cauchy-Lipschitz impose donc x = 0, ce qui contredit la condition initiale x(t0 ) > 0. De la même façon, y ne peut s’annuler. Cela prouve la stricte positivité. Une intégrale première On pose : H(x, y) = by + dx − a ln y − c ln x. Un calcul élémentaire fournit : H(x(t), y(t)) = H(x0 , y0 ), t ∈ [0, T [. Globalité des solutions La positivité des solutions donne : x0 ≤ ax et y 0 ≤ dxy. On en déduit que x(t) ≤ x0 ea(t−t0 ) , 25 puis : d y(t) ≤ y0 e Rt t0 x(u)du . On en déduit que x et y sont bornées au voisinage de T si T < +∞ ; par le théorème de prolongement des solutions d’une équation différentielle, on en déduit que T = +∞. Périodicité des solutions On peut découper R∗+ × R∗+ en quatre cadrans autour de ( dc , ab ) (qui est une solution particulière du système : c’est un point d’équilibre). Pour simplifier l’exposé, supposons que (x0 , y0 ) appartienne au cadran supérieur droit. Dans ce cadran x0 ≤ 0 et y 0 ≥ 0. Si la solution reste dans ce cadran, alors, x est décroissante et y est croissante sur [t0 , +∞[. x tend donc vers x1 ≥ dc et y vers y1 . Si y1 = +∞, alors x0 tendrait vers −∞ ce qui est contradictoire. De même, on en déduit que x0 et y 0 tendent vers 0 (sinon, x et y auraient des limites infinies). On en tire que x et y tendent respectivement vers dc et ab . Mais, cela est est absurde, puisque y0 > ab . On en déduit qu’il existe un temps t1 maximal d’existence de la solution dans le cadran supérieur droit. Pour ce temps, on a : x(t1 ) = dc , y(t1 ) > ab et donc y 0 (t1 ) = 0, x0 (t1 ) < 0. On entre ainsi dans le cadran supérieur gauche et on reproduit le raisonnement. Au bout d’un temps t4 , nous sommes revenus dans le cadran de départ et y(t4 ) = y(t0 ) = ab . Nous n’avons pour autant par encore prouvé la périodicité. Il suffirait de montrer que (x(t0 ), y(t0 )) = (x(t4 ), y(t4 )) et on conclurait par le théorème de Cauchy-Lipschitz. Or, la conservation de l’énergie H donne : H(x(t0 ), y(t0 )) = H(x(t4 ), y(t4 )). C’est alors un calcul élémentaire qui prouve que y 7→ H(x, ab ) est strictement croissante sur [ dc , +∞[. Nous avons alors montré que les solutions sont T périodiques, avec T = t4 − t0 . Moyennes des solutions Enfin, un petit calcul montre que : Z Z c a 1 T 1 T x(u)du = et y(u)du = . T 0 d T 0 b 5.6 5.6.1 Notions des méthodes numériques pour les équations différentielles Rappel sur la formule de Taylor avec reste intégral On rappelle dans ce paragraphe un ingrédient essentiel pour les approximations que nous allons effectuer. La formule de Taylor avec reste intégral 26 consiste en la proposition suivante : Proposition 5.13 Soit f ∈ C n+1 ([a, b]). Alors, on a, pour tout k ∈ {0, · · · , n} : Z f (k) (a) 1 b (k+1) 0 k f (b) = f (a) + f (a)(b − a) + · · · + (b − a) + f (t)(b − t)k dt. k! k! a Preuve. Elle se fait par récurrence sur k. Pour k = 0, cette formule est claire car : Z b f 0 (t)dt. f (b) − f (a) = a Supposons que la formule est satisfaite au rang 0 ≤ k < n. On peut donc écrire : Z f (k) (a) 1 b (k+1) 0 k f (b) = f (a) + f (a)(b − a) + · · · + (b − a) + f (t)(b − t)k dt. k! k! a Comme k + 1 < n + 1, on f (k+1) est de classe C 1 et on peut ainsi faire une intégration par parties : b Z b Z b 1 (b − t)k+1 (k+1) (k+1) k f (t) + f (k+2) (t)(b−t)k+1 . f (t)(b−t) dt = − k+1 a a k+1 a Cela implique : Z b f (k+1) (t)(b − t)k dt = a 1 1 f (k+1) (a) + k+1 k+1 Z b f (k+2) (t)(b − t)k+1 . a Il suffit alors de remplacer dans la formule supposée vraie par récurrence. 5.6.2 Méthodes de quadrature pour les intégrales Soit f une fonction suffisamment régulière sur [α, β]. On va donner quelques Rβ méthodes d’approximation de α f (x)dx. Le cas écheant on donnera une estimation de l’erreur. De façon générale, on se donne une subdivision de [α, β] : α = α0 < α1 < · · · < αk = β. On note, pour i = 0, · · · , k − 1. hi = αi+1 − αi . On notera hmax = max(hi ). 27 Méthode des rectangles à gauche Le principe est d’approcher l’intégrale par : k−1 X hi f (αi ). i=0 Estimons l’erreur. Z β k−1 k−1 Z X X f (x)dx − hi f (αi ) = α i=0 i=0 αi+1 (f (x) − f (αi ))dx. αi Si f ∈ C 1 ([α, β]), nous pouvons utiliser l’inégalité des accroissements finis : |f (x) − f (αi | ≤ M |αi − x|. Il vient : Z k−1 k−1 Z αi+1 β X X (x − αi )dx. f (x)dx − hi f (αi ) ≤ M α αi i=0 i=0 Ainsi, nous avons : Z k−1 k−1 β MX X M (β − α)hmax . (αi+1 − αi )2 = f (x)dx − hi f (αi ) ≤ α 2 i=0 2 i=0 On remarquera que cette méthode est exacte pour les fonctions constantes. Méthode des rectangles à droite Le principe est d’approcher l’intégrale par : k−1 X hi f (αi+1 ). i=0 Exercice : calculer l’erreur de la méthode. Méthode du point milieu Le principe est d’approcher l’intégrale par : k−1 X i=0 hi f αi + αi+1 2 Estimons l’erreur. Z β k−1 k−1 Z X X f (x)dx − hi f (ci ) = α i=0 i=0 28 . αi+1 αi (f (x) − f (ci ))dx. Nous utilisons la formule de Taylor à l’ordre 1, au point ci (f est supposée C 2) : |f (x) − f (ci ) − f 0 (ci )(x − ci )| ≤ M |x − ci |2 . Ainsi, nous écrivons : k−1 Z αi+1 k−1 Z αi+1 X X M 0 (β−α)h2 . (f (x) − f (ci ) − f (ci )(x − ci ))dx ≤ M |x−ci |2 dx ≤ 4 i=0 αi i=0 αi Nous remarquons : Z αi+1 (x − ci )dx = 0. αi Nous en déduisons : Z k−1 β M X f (x)dx − hi f (ci ) ≤ (β − α)h2 . α 4 i=0 On remarquera que cette méthode est exacte pour les fonctions affines. Méthode de Simpson Le principe est déja d’approcher f par des arcs de paraboles (voir les exercices). On approche alors l’intégrale par : k−1 X 4 1 1 hi f (αi ) + f (ci ) + f (αi+1 ) . 6 6 6 i=0 Exercice : estimer l’erreur. 5.6.3 Méthodes de résolution numérique pour les équations différentielles On considère : (E) : y 0 = f (t, y), y(t0 ) = y0 . y est aussi solution de l’équation intégrale : Z t y(t) = y0 + f (s, y(s))ds. t0 On réalise une subdivision t0 < t1 < · · · < tN = t0 + T. On remarquera que : Z tn+1 y(tn+1 ) = y(tn ) + f (s, y(s))ds. tn On pose hn = tn+1 − tn pour 0 ≤ n ≤ N − 1 et hmax = max(hn ). 29 Méthode d’Euler La méthode d’Euler consiste en l’algorithme suivant : yn+1 = yn + hn f (tn , yn ) qui consiste à utiliser la méthode des rectangles à gauche. Méthode du point milieu La méthode du point milieu pour les équations différentielles consiste à approcher l’intégrale précédente par la méthode du point milieu : y(tn+1 ) = y(tn ) + hn f (tn+ 1 , y(tn+ 1 )). 2 2 Il nous faut donc connaître y(tn+ 1 ). On utilise donc la méthode d’Euler. Cela 2 mène à l’algorithme : hn yn+1 = yn + hn f tn + , yn+ 1 , 2 2 où : yn+ 1 = yn + 2 hn f (tn , yn ). 2 Méthode de Runge-Kutta "classique" L’étudiant averti s’attend maintenant à rencontrer la méthode de Simpson ! Nous donnons l’algorithme sans plus de justification. pn,1 = f (tn , yn ), tn,2 = tn + hn , 2 hn pn,1 , 2 = f (tn,2 , yn,2 ), yn,2 = yn + pn,2 hn pn,2 , 2 = f (tn,2 , yn,3 ), yn,3 = yn + pn,3 tn+1 = tn + hn , yn,4 = yn + hn pn,3 , yn+1 pn,4 = f (tn+1 , yn,4 ), 1 2 2 1 = yn + hn pn,1 + pn,2 + pn,3 + pn,4 . 6 6 6 6 30 6 6.1 Rappels d’algèbre linéaire Matrices, changements de bases Soient E et F deux K-e.v. de dimensions respectives n et p. Soit u ∈ L(E, F ). Soient (e1 , · · · , en ) et (f1 , · · · , fp ) des bases de E et F . On écrit : u(ej ) = p X aij fi . i=1 On appelle matrice de u dans les bases E et F le tableau suivant : Matfe u = (ai,j ). Composition des applications linéaires Définition 6.1 On définit le produit des matrices de la façon suivante. Soient A = (ai,j ) i = 1, · · · , m et B = (bij ) i = 1, · · · , p . Le produit AB est la matrice C j = 1, · · · , p j = 1, · · · , n de terme général : cij = p X aik bkj i = 1 · · · m, j = n. k=1 Soit G un K-e.v. de dimension m et g une base de G. Soit v ∈ L(F, G). On a alors : Matge (vu) = Matgf v Matfe u. Soit x ∈ E. On écrit x= n X xi ei . i=1 Matfe u X est le vecteur des coordonnées de u(x) dans la base f. Matrice inverse Quand E et F ont même dimension, il se peut que u soit inversible ; dans ce cas, on définit : (Matfe u)−1 = Matef u−1 . On vérifie facilement que : (Matfe u)−1 Matfe u = Matfe u (Matfe u)−1 = In . 31 Matrice de passage Soient e’ une autre base de E. On note P = Matee’ IdE . Cette matrice est appelée matrice de passage de la base e vers la base e’. Soit X les coordonnées de x dans la base e et X 0 les coordonnées de x dans la base e’. On a donc : X = P X 0 . Changements de bases Soient P = Matee’ IdE et Q = Matff ’ IdF . On a : Q−1 Matfe u P = Matfe’’ u. Endomorphismes Supposons que E = F . Soit e une base de E. La matrice de u dans la base e est la matrice carrée : A = Matee u. On pose : Tr(A) = n X aii . i=1 On vérifie que si B = Mate’ e’ u, alors Tr(A) = Tr(B). Cette quantité, invariante par changement de base, est appelée trace de u. Elle peut être définie indépendamment d’une base via le déterminant. 6.2 Endomorphismes, valeurs propres On suppose que E = F et u ∈ L(E). Définition 6.2 On dit que λ ∈ K est une valeur propre de u si et seulement si u − λId n’est pas inversible. Un élément non nul x qui vérifie u(x) = λx est appelé vecteur propre de x associé à λ. Proposition 6.3 λ est une valeur propre de u si et seulement si elle est racine du polynôme : det(A − XIn ) où A est la matrice de u dans une base quelconque. En particulier, il y en a un nombre fini. 32 Définition 6.4 On dit que u est diagonalisable si et seulement s’il existe une base dans laquelle la matrice A de u est diagonale. En d’autres termes, il existe une matrice inversible P telle que P −1 AP est diagonale. Dans ce cas, les éléments diagonaux de u sont ses valeurs propres. Définition 6.5 On dit que u est trigonalisable si et seulement s’il existe une base dans laquelle la matrice A de u est triangulaire supérieure. En d’autres termes, il existe une matrice inversible P telle que P −1 AP est triangulaire supérieure. Dans ce cas, les éléments diagonaux de u sont ses valeurs propres. Proposition 6.6 Si K = C, tout endomorphisme est trigonalisable. 7 Notions de la théorie des séries entières Soit (X, d) un espace métrique. On a vu que si (fn )n∈N est une suite de fonctions continues et bornées (à valeurs dans E = Kp ) qui converge uniformément sur X vers f , alors f est continue sur X. 7.1 Éléments de la théorie On suppose connues les notions séries numériques, P de convergence des P notamment que la convergence de |un | entraîne celle de un (via le critère de Cauchy). P Il s’agit ici d’étudier les séries de fonctions de la forme an z n , avec z ∈ C. On commence par un lemme fondamental. n Lemme 7.1 S’il existe P z0n tel que (an z0 ) est bornée, alors, pour tout z tel que |z| < |z0 |, la série an z est absolument convergente et il y a convergence normale (et donc uniforme) sur le disque fermé D(0, r) avec 0 ≤ r < |z0 |. Preuve. Si z0 6= 0, on a : n n z z |an z n | ≤ |an z0n | ≤ M . z0 z0 La comparaison avec la suite géométrique assure la conclusion. Définition 7.2 On appelle rayon de convergence de rieure de l’ensemble des r tel que an rn soit bornée. 33 P an z n la borne supé- P Théorème 7.3 Soit R > 0 le rayon de convergence de la série an z n . Si R = 0, il n’y a convergence qu’en z = 0. Si R = +∞, la convergence normale a lieu sur toute partie bornée de C. Si R est fini et non nul, il y a convergence absolue pour |z| < R et convergence normale sur D(0, r) avec r < R et il y a divergence pour |z| > R. Définition 7.4 Soit U un ouvert de C. On dit que f : U → C est dérivable en z0 ∈ U si le rapport f (z) − f (z0 ) z − z0 possède une limite quand z tend vers z0 . Cette limite est alors notée f 0 (z0 ). Lorsque cette propriété est vérifiée en tout point de U , on dit que f est holomorphe sur U . Les règles usuelles de dérivation (somme, produit, composée) sont valables pour les C-dérivées. Lemme 7.5 Pour tout n ∈ N∗ , z 7→ z n est holomorphe sur C et de dérivée z 7→ nz n−1 . P P Lemme 7.6 Les séries an z n et nan z n−1 ont même rayon de convergence. Preuve. P P Soit R le rayon de convergence de an z n et R0 celui de nan z n−1 . On remarque déjà que : |an z n | ≤ n|an ||z|n−1 |z|. On en déduit que R ≥ R0 . Il faut montrer l’inverse. Soit r1 < r2 < R et |z| ≤ r1 . On écrit : n−1 n−1 r1 −1 n n−1 n−1 |z| . |nan z | ≤ n|an |r2 n−1 ≤ r2 |an |r2 n r2 r2 Ainsi, on a : R0 ≥ R. P Théorème 7.7 P Soit an z n une série entière de rayon de convergence R > 0. +∞ n Alors, f (z) = est une fonction holomorphe sur le disque de n=0 an z convergence et on peut dériver terme à terme : f 0 (z) = ∞ X n=1 34 nan z n−1 . Preuve. On considère : ∞ f (z) − f (z0 ) X = un (z), z − z0 n=0 où n−1 X z n − z0n = an un (z) = an z0k z n−k−1 . z − z0 k=0 On trouve que lim un (z) = nan z0n−1 . z→z0 On peut toujours supposer que |z0 | ≤ r et |z| ≤ r avec 0 < r < R et alors : |un (z)| ≤ n|an |rn . On a donc convergence normale sur D(0, r) et donc convergence uniforme ; la somme de la série possède donc une limite quand z → z0 . Remarque 7.8. Les séries entières sont indéfiniment dérivables sur leur disque ouvert de convergence. 7.2 Un exemple fondamental : l’exponentielle P zn est une série entière de rayon de convergence infini. Elle La série n! définit donc une fonction holomorphe sur C notée exp(z) ; il est aisé de vérifier les propriétés suivantes : – exp0 (z) = exp(z), pour tout z ∈ C, – exp(0) = 1, – exp(z) = exp(z), pour tout z ∈ C, – exp(z + z 0 ) = exp(z) exp(z 0 ), pour tout z, z 0 ∈ C, – exp(z) 6= 0 pour tout z, – exp(z)−1 = exp(−z) pour tout z ∈ C, – | exp(ix)| = 1, pour tout x ∈ R, – Si φ : I → C est dérivable, alors t 7→ exp(φ(t)) est dérivable sur I et de dérivée t 7→ φ0 (t) exp(φ(t)). Cela demande un peu plus de travail de montrer que : Proposition 7.9 exp : C → C∗ est surjective. 35 Preuve. Pour z ∈ C qui n’est pas un réel négatif, on pose : Z 1 z−1 Z= dt. 0 1 + t(z − 1) On vérifie facilement que cette intégale est bien définie. On montre que exp(Z) = z. Pour cela, on introduit : Z f (u) = 0 u z−1 dt. 1 + t(z − 1) z−1 u 7→ exp(f (u)) est dérivable sur R de dérivée f 0 (u) exp(f (u)) = exp(f (u)) 1+u(z−1) . Ainsi, on peut écrire : exp(f (u))0 (1 + u(z − 1)) = exp(f (u))(z − 1) ou encore : exp(f (u)) 1 + u(z − 1) 0 = 0. En prenant la valeur en 0, on trouve : exp(f (u)) = 1 + u(z − 1). Alors, on a : exp(Z) = z. Tous les nombres complexes non négatifs sont donc atteints par l’exponentielle. Si a ∈ R∗− , on écrit : a = i2 b avec b = −a > 0. On peut écrire b = exp(Z). Mais, on peut aussi écrire i = exp(Z 0 ) et donc i2 = exp(2Z 0 ). Par conséquent, on a : a = exp(Z + 2Z 0 ). Il est facile de voir que : Proposition 7.10 {x ∈ R : eix = 1} est un sous-groupe discret de (R, +). Son générateur est par définition 2π. On définit alors les fonctions cos et sin et on peut alors redémontrer toutes leurs propriétés bien connues... 36