1 Introduction

publicité
DR
AF
T
1 Introduction
1
2 Équations différentielles scalaires du 1er
ordre
2.1 Équations du type « intégration »
2.2 Équations différentielles aux variables séparables
T
remarque sur la notation différentielle.
2.3 Équtions différentielles linéaires du 1er ordre
AF
Définition 1. On appelle équation différentielle linéaire du 1er ordre une équation du
type
x0 = p(t)x + q(t)
où p et q sont des fonctions continues sur un intervalle I. Les solutions cherchées sont
des fonctions dérivables
x:I→R
t 7→ x(t).
DR
L’intervalle I sera souvent R tout entier.
Définition 2. Si la fonction q est identiquement égale à 0, on dit que l’équaton différentielle est homogène.
Remarque 1. Soit x1 et x2 sont deux fonctions sur I solutions de l’équation différentielle
x0 = p(t)x + q(t)
(E)
sur l’intervalle I, alors pour tout t ∈ I,
(x1 − x2 )0 (t) = x01 (t) − x02 (t) = p(t)(x1 (t) − x2 (t)).
La fonction x1 − x2 est donc solution de (E0 ) :
x0 = p(t)x
(E0 ),
dite équation différentielle homogène associée à (E)
2
Théorème 1. Supposons que l’on connaisse une solution particulière xi de (E) sur un
intervalle I. Alors toute solution de (E) sur I est de la forme xi + xh où xh est une
solution quelconque de (E0 ) sur I.
De manière ensembliste, si on note S l’ensemble des solutions de (E) et S0 celui des
solutions de (E0 ), on a
S = xi + S0 .
La résolution de l’équation (E) se décompose en deux étapes :
1. la détermination de S0 , c’est-à-dire la résolution de l’équation homogène,
2. la détermination d’une solution particulière.
2.3.1 Résolution de l’équation homogène
T
Ces deux étapes sont traitées respectivement dans les sections 2.3.1 et 2.3.2.
Théorème 2. Soit I un intervalle ouvert et t0 ∈ I. Alors pour tout x0 ∈ R„ il existe une
unique solution x de l’équation différentielle (E0 ) telle que x(t0 ) = x0 . Son expression
est donnée par
Z
t
x(t) = x0 exp
p(u)du .
AF
∀ t ∈ I,
t0
Démonstration. La démonstration se fait en deux étapes : en vérifiant que la formule
proposée répond bien au problème, puis en montrant que c’est en fait la seule solution.
Existence. Considérons x la fonction définie sur I par l’expression proposée, et appelons P la primitive de p s’annulant en t0 :
Z t
∀ t ∈ I, P (t) =
p(u)du
t0
DR
Par le lemme fondamental du calcul différentiel, et les théorème sur la composée de
fonctions dérivables, on obtient que x est effectivement dérivable sur I (même de classe
0 mathcalC 1 ) et pour tout t ∈ I,
x0 (t) = x0 P 0 (t) exp(P (t)) = p(t)x(t).
Donc cette fonction x est bien solution de (E0 ) avec la condition initiale x(t0 ) = x0 .
Unicité. Soit y une solution de (E0 ) avec la condition initiale y(t0 ) = x0 sur l’intervalle
I. On définit alors la fonction z = ye−P sur I. Par les théorèmes usuels de dérivation, z
est dérivable en tout point de I et :
z 0 (t) = (y 0 (t) − p(t)y(t))e−P (t) = 0
car y est solution de (E0 )
Comme I est un intervalle, z est donc constante. Or z(t0 ) = y(t0 )e−P (t0 ) = y(t0 ) = x0 .
Donc z est constante, et égale à x0 pour tout t. On peut maintenant réexprimer y à
partir de z
∀t ∈ I, y(t) = z(t)eP (t) = x0 exp(P (t)) = x(t),
où x est la fonction proposée.
3
Remarque 2. On a utilisé encore une fois le fait que I était un intervalle, donc connexe,
pour en déduire que si une fonction a une dérivée nulle, alors elle est constante.
On vérifie sans peine que l’espace S0 des solutions de (E0 ) est un sous-espace vectoriel
des fonctions dérivables sur I : si x et y sont solutions, alors pour tout λ ∈ R, x + λy est
aussi solution. Le théorème ci-dessous peut alors se réinterpréter de la façon suivante :
Corollaire 1. L’ensemble S0 des solutions de (E0 ) sur I est un espace vectoriel de
dimension 1, engendré par la fonction
Z t
t ∈ R 7→ exp
p(u)du ,
t0
et l’application Ψt0 : x ∈ S0 7→ x(t0 ) ∈ R est un isomorphisme d’espaces vectoriels.
t0
t1
AF
t0
T
Remarque 3. Changer la valeur de t0 revient à multiplier par un scalaire, d’après la
relation de Chasles sur les intégrales :
Z t
Z t1
Z t
exp
p(u)du = exp
p(u)du × exp
p(u)du .
2.3.2 Détermination d’une solution particulière
Nous présentons d’abord quelques astuces pour essayer de deviner la forme d’une
solution particulière de l’équation (E) avec une fonction q. La forme obtenue dépendra
de paramètres qui seront déterminés par des équations algébriques (linéaires). Ces formes
utilise le fait que la dérivation préserve certaines familles de fonctions : la dérivée d’une
exponentielle est une exponentielle, la dérivée d’un polynôme est un polynôme, etc.
Méthode par identification
DR
— Si p est constant, et q est une fonction polynôme de degré d, on cherche x sous la
forme d’un polynôme de même degré.
— Si p est constant et que q = ceλt . Si λ 6= p, on cherche x sous la forme aeλt . Si
λ = p, on cherche x sous la forme (a + bt)eλt .
— Si p est constant et que q = c cos(ω) ou c sin(ωt), on cherche x sous la forme
a cos(ωt) + b sin(ωt).
— Principe de superposition : si xi est solution sur I de l’équation différentielle
x0 = p(t)x + qi (t)
pour i = 1, 2, alors x1 + x2 est solution sur I de l’équation différentielle
x0 = p(t)x + q1 (t) + q2 (t).
La proposition de solution particulière lorsque q est un cosinus ou un sinus peut être vue
comme une combinaison du principe de superposition et de la proposition lorsque q est
une exponentielle (si on autorise les exponentielles complexes dans ce cas).
4
Cela donne dans des cas simples une solution particulière très rapidement. Cependant,
cela est loin de couvrir tous les cas qui peuvent se présenter. Nous présentons maintenant
une méthode systématique pour trouver une solution particulière : la méthode de la
variation de la constante. Il en existe une variante, appelée méthode du facteur intégrant,
qui revient à faire les mêmes calculs mais présentés de manière légèrement différente.
Méthode de la variation de la constante
Voici une méthode générale et systématique pour trouver une solution particulière.
On se souvient que d’après la section précédente, la solution générale de (E0 ) sécrit
Z
t
x(t) = x0 exp
p(u)du .
T
t0
AF
Nous allons chercher notre solution particulière sous la même forme, sauf que l’on remplacera x0 , qui était pour l’instant une constante, par une fonction de t que l’on veut
déterminer, et qui donc varie avec t. D’où le nom de la méthode.
On suppose donc qu’il existe une fonction dérivable v définie sur I telle la fonction
y : I → R définie par
Z t
∀ t ∈ I, y(t) = v(t) exp
p(u)du
t0
satisfait l’équation differentielle
x0 = p(t)x + q(t)
(E)
DR
L’exponentielle n’étant jamais nulle, on peut toujours définir v à partir de y, qui est
automatiquement dérivable par produit, car y l’est par hypothèse (solution de (E)) et
l’exponentielle aussi, par les théorèmes standard. De plus, pour tout t ∈ I,
Z t
v (t) = y (t) − p(t)y(t) exp −
p(u)du .
0
0
t0
Donc y est solution de (E) si et seulement si
∀t ∈ I,
Z t
v (t) = q(t) exp −
p(u)du
0
t0
La fonction v doit donc être solution d’une équation différentielle de type « intégration ».
On a besoin d’une solution particulière, c’est à dire d’une primitive particulière de
q(t) exp(−P (t)). Prenons par exemple celle qui s’annule en t0 .
XXX
5
Résumé Toutes les solutions x : I → R sur I de l’équation
x0 = p(t)x + q(t)
(E)
s’écrivent
Z t
Rt
p(s)ds +
q(s)e s p(u)du ds
t0
{z
} | t0
{z
}
Z
∀ t ∈ I,
x(t) = C exp
|
t
sol. homogène générale
sol. particulière
R
Z t Rs
t
− t p(u)du
p(u)du
= x0 +
e 0
e t0
t0
DR
AF
T
avec des constantes C, ou x0 arbitraire. Sous la deuxième forme, c’est l’unique solution
qui vaut x0 à t = t0 .
6
3 Système d’équation différentielles linéaire
3.1 Prélude : réduction des équations différentielles à des EDO
du 1erordre autonome
0
x(n−1) = x(n)
0
x(n−2) = x(n−1)
..
.
On peut ainsi réécrire
X 0 = F (X, t) avec

x
 x0

X =  ..
 .
AF
x0 = x0
T
— de l’ordre n à l’ordre 1
Si x(n) = f (x(n−1) , x(n−2) , x0 , x.t), alors on complète en ajoutant les équations
triviales suivantes
l’équation différentielle sous la forme différentielle suivante
x(n−1)






et
 
y1
  y2   
  
F  .  = 
 ..  
yn
y2
..
.
yn
f (y1 , . . . , yn , t)



.

DR
— passage à une équation autonome : on rajoute une dimension au vecteur X qui est
le temps. Avec la variable
X
Z=
,
t
le système
(
X 0 = F (X, t)
t0
=1
X
F (X, t)
0
se réécrit Z = G(Z) avec G
=
.
t
1
On peut donc toujours se ramener, au moins théoriquement à une équation différentielle
ordinaire X 0 = F (X) du 1erordre autonome, avec une fonction inconnue X : I → Rn .
On va s’intéresser dans la suite de ce chapitre au cas particulier où F est linéaire ou
affine : X 0 = AX + B(t), où A est une matrice n × n à coefficients réels (qui vont sauf
mention du contraire, ne pas dépendre de t).
On utilise le même langage que pour les équations scalaires :
7
— si B = 0, on parle d’équation homogène,
— si B 6= 0, on parle d’équation non homogène.
Si on veut appliquer la même méthode que dans le cas scalaire, il nous faut l’exponentielle d’une primitive des coefficients devant X : il nous faut donc définir l’exponentielle
de matrices.
3.2 Exponentielles de matrices
kABk ≤ kAkkBk
AF
∀ (A, B) ∈ Mn (C),
T
Nous introduisons dans cette section l’exponentielle de matrices à coefficients complexes (la définition aurait un sens pour toute algèbre unitaire normée complète). Elle
sera utilisée dans la suite pour des matrices à coefficients réels, en lien avec les systèmes
d’équations différentielles dont les coefficients seront réels.
Mn (C) est un espace vectoriel de dimension finie (n2 si le corps de base est C). Toutes
les normes sur cet espace sont équivalentes, au sens où elles définissent toutes la même
topologie et donc la même notion de convergence de suite. On en choisira une qui nous
rendra la vie un peu plus facile : notre norme k · k sera sous-multiplicative :
Remarque 4. La multiplication étant bilinéaire, il s’agit d’une application continue (en dimension finie). Donc quelque soit la norme choisie sur les matrices, il existe une constante
C > 0 telle que kABk ≤ CkAkkBk. En multipliant la norme par une constante appropriée (C −1 ), on obtient une norme sous-multiplicative.
La sous-multiplicativité de la norme n’est en rien essentielle, mais facilite l’écriture
car évite de promener ces constantes C dès qu’on veut borner la norme d’un produit.
DR
Exemple 1. Des exemples explicites de normes sous-multiplicatives
— la norme infinie renormalisée kAk = n1 maxi,j |ai,j |
— la norme opérateur associée à une norme N sur Cn .
kAkop = sup
x6=0
N (Ax)
N (x)
3.2.1 Définition et propriétés algébriques
Théorème 3. La série
X 1
Ak
k!
k≥0
est une série converge. Sa limite
∞
X
1 k
A
k!
k=0
est appelée exponentielle de A, et est notée eA ou exp(A).
8
Démonstration. En tant qu’espace vectoriel de dimension finie, Mn (C) est complet. Pour
montrer que la série converge, il suffit de montrer qu’elle est normalement convergente,
c’est à dire que la norme du terme général de cette série est le terme général (réel positif)
d’une série convergente 1 .
Grâce à la sous-multiplicativité, on peut écrire
k
1 k
1
1
A k = kAk k ≤ kAkk
k!
k!
k!
qui est le terme général de la série exponentielle (réelle) de kAk.
La série exponentielle est donc convergente, et
T
k exp(A)k ≤ exp kAk.
Proposition 1. L’exponentielle des matrices vérifie les propriétés suivantes :
1. exp(0n ) = In
AF
2. Pour toute matrice A, A exp(A) = exp(A)A. Mieux : pour tout polynôme P ,
P (A) exp(A) = exp(A)P (A).
3. Pour toute matrice A et tous scalaires complexes λ, µ
exp(λA) exp(µA) = exp((λ + µ)A) = exp(µA) exp(λA)
En particulier, pour λ = −µ = 1, on obtient que exp(A) est inversible et
exp(A)−1 = exp(−A).
DR
4. Pour toute matrice A, exp(t A) = t (exp A)
P
1 K
Démonstration. On notera En (A) = n−1
la somme partielle à n termes de la
k=0 k! A
série exponentielle de A.
1. Toutes les puissances de la matrice nulle sont nulles sauf la puissance 0, qui vaut
l’identité.
2. A commute avec tous les polynômes en A en particulier les sommes partielles de la
série exponentielle de A. On obtient la commutation avec l’exponentielle en passant
à la limite.
3. TODO
4. La transposition est linéaire sur un espace de dimension finie, donc continue, et
t (Ak ) = t A k . Ainsi, pour tout n, E (t A) = t E (A). Par continuité, en passant à
n
n
la limite lorsque n tend vers l’infini, on obtient le résultat voulu.
1. En effet, on aura alors que la suite des sommes partielles est de Cauchy, donc converge, par
complétude de l’espace.
9
Remarque 5. En général, lorsque A et B ne commutent pas, nous n’avons pas l’identité
eA eB = eA+B à laquelle nous sommes habitués pour l’exponentielle réelle ou complexe.
Il existe une formule, dite formule de Baker-Campbell-Hausdorff, qui exprime le produit eA eB comme l’exponentielle d’une somme infinie de termes, faisant intervenir le
commutateur de A et B, [A, B] = AB − BA, et ses commutateurs avec A et B, etc.
1
1
exp(A) exp(B) = exp(A + B + [A, B] + ([A, [A, B]] + [B, [B, A]]) + · · · )
2
12
T
pour laquelle une expression combinatoire exacte a été démontrée par Dynkin en 1947.
Tous les termes après les pointillés font intervenir [A, B].
En revanche, si A et B commutent, alors tous les termes après A + B dans l’exponentielle de droite sont nuls, et on a bien eA eB = eA+B , ce qui peut se vérifier directement en
regartand le coefficient de Ak B l dans les deux expressions, comme dans la démonstration
du point 3 de la proposition précédente.
AF
3.2.2 Exemple de calculs effectifs
Il n’y a pas de formule simple pour les coefficients de eA en fonction de ceux de
A en toute généralité. Cependant, dans certains cas, l’exponentielle de A s’exprime
simplement. On essaiera de s’y ramener par des techniques de réduction.
A diagonale
Si la matrice A est de la forme

0

0
A=
 ..
.
0
a2
DR
a1
Alors, Ak est diagonale et ses coefficients
elle aussi diagonale et
 a
e 1

 0
eA = 
 ..
 .
0
···
..
···
.
0

0
.. 
.


0
an
diagonaux sont les aki , de sorte que exp(A) est
0
···
ea2
..
···
.
0

0
.. 
. 
.

0 
ean
Plus généralement, si A est diagonale par blocs, alors son exponentielle est aussi diagonale
par bloc, et ses blocs diagonaux sont les exponentielles des blocs diagonaux de A.
10
A nilpotente
Supposons que A est nilpotente, c’est à dire qu’il existe un k0 ≥ 0 tel que Ak0 = 0.
Alors toutes les puissances de A de degré supérieur à k0 sont nulles, et
exp(A) =
kX
0 −1
k=0
1 k
A
k!
Un cas particulier important pour la suite est le cas où A est triangulaire supérieure
stricte avec que des 1 juste au dessus de la diagonale. Alors
t
1
···
.. ..
.
.
..
.
1
tn−1
(n−1)!








t
1
(3.1)
AF
0
0 ···
t2
2!
T
etA

1

0

=

.
 ..
Comportement vis-à-vis de la similitude
DR
On dit que A et B sont semblables s’il existe une matrice inversible P telle que
A = P BP −1 . Si Alors, pour tout k, on a Ak = P B k P −1 . Par combinaison linéaire, on a
la similitude entre les sommes partielles En (A) et En (B), avec la même matrice P . Puis
par passage à la limite, eA = P eB P −1 .
En particulier, si A est diagonalisable, on peut prendre pour B une matrice diagonale
dont les coefficients diagonaux sont les valeurs propres, et pour P une matrice de vecteurs
propres associés. Par le point précédent, on peut donc calculer
Malheureusement (ou heureusement), toutes les matrices ne sont pas diagonalisables.
Mais il existe une forme réduite pour toute matrice, appelée forme de Jordan.
Définition 3. Un bloc de Jordan de taille k associé à un scalaire λ est une matrice
carrée Jk (λ) de la forme suivante :

λ
1

0


Jk (λ) =  0

 ..
.
λ
0
0 ···
0 ···
.. ..
.
.
..
.
..
. λ
0

0
.. 
.


= λIk + Jk (0).
0


1
λ
On sait calculer l’exponentielle d’un multiple du bloc de Jordan tJk (0) : c’est l’exemple (3.1).
Comme l’identité commute avec toutes les matrices, on sait calculer celle de tJk (λ) : il
suffit de multiplier
11
Théorème 4 (Réduction de Jordan). Pour toute matrice A, il existe une matrice inversible P telle que P −1 AP a la forme suivante


Jk1 (λ1 )
0
···
0

.. 
 0
Jk2 (λ2 )
. 


 ..

.
.
 .

.
0
···
0 Jkp (λp )
Avec λ1 , . . . , λp les valeurs propres de A, et k1 + · · · + kp = n.
T
Deux λj peuvent être égaux. Le nombre de blocs correspondant à un même λ est la
dimension de l’espace propre Ker(λI −A) associé. La somme des tailles des blocs associés
au même λ est la dimension de l’espace caractéristique associé, c’est-à-dire la multiplicité
de λ dans le polynôme caractéristique de A.
Si tous les blocs sont de taille 1, alors la matrice est diagonalisable.
3.2.3 Propriétés analytiques
AF
Proposition 2. Soit A ∈ Mn (R). Soit eA la fonction définie sur R à valeurs dans
Mn (R) définie par
∀ t ∈ R, eA (t) = exp(tA).
Alors eA est dérivable en tout point de R et sa dérivée est e0A = AeA = eA A.
Démonstration.
Remarque 6. L’identité e0A = A · eA permet de montrer par réccurrence que eA est n fois
dérivable pour tout n ≥ 1, c’est à dire de classe C ∞ .
DR
Remarque 7. Au lieu de le faire à la main comme dans la démonstration que l’on a
donnée, on peut utiliser le théorème de dérivation pour les séries de fonctions (ou pour
les séries entières) que l’on doit juste adapter légèrement car les coefficients ne sont plus
complexes, mais à valeurs dans Mn (R).
3.3 Résolution de l’équation vectorielle différentielle à
coefficients constants
Commençons par énoncer les résultats pour les équations homogènes
(E0 )
X 0 = AX
Soit S0 l’ensemble des solutions sur R de cette équation.
Théorème 5. Soit X0 Rn . Soit fX0 : t 7→ eA (t)X0 , définie sur R à valeurs dans Rn .
Alors fX0 est solution de E0 sur R. De plus c’est l’unique solution qui vaut X0 en t = 0.
L’application ψ : X0 7→ fX0 est un isomorphisme d’espace vectoriel entre Rn et S0 .
En particulier, S0 est de dimension n.
12
Démonstration. On vérifie que fX0 est bien dérivable (comme produit de eA dérivable
par une constante X0 ), et sa dérivée, d’après la proposition 2 est :
0
fX
= e0A X0 = AeA X0 = AfX0
0
T
Pour l’unicité de la solution valant X0 en t = 0, on suit la même démonstration que
dans le cas scalaire. Soit Y une telle solution. On introduit Z = eA (−t)Y = e(−A) (t)Y .
Alors Z est dérivable et sa dérivée est nulle. Comme on est sur un intervalle, Z est
donc constante égale à Z(0) = e0A Y (0) = X0 . En inversant la relation entre Y et Z, on
obtient que Y (t) = etA Z(t) = etA X0 = fX0 (t).
On vérifie que S0 est un espace vectoriel (sous-espace vectoriel des fonctions dérivables), et que l’application ψ est linéaire. L’énoncé précédent montre que c’est une
bijection, donc un isomorphisme.
DR
AF
Pour résoudre l’équation avec second membre X 0 = AX + B, on utilise la même
technique que dans le cas scalaire : toute solution de cette equation s’écrit comme la
somme d’une solution particulière et d’une solution générale arbitraire de l’équation
homogène associée. Pour trouver une solution particulière, on utilise :
— la méthode d’identification, avec des coefficients indéterminés qui devront satisfaire
des équations algébriques (en général linéaires) une fois injectée dans l’équation,
— la méthode de variation de la constante qui s’adapte directement (attention à
l’ordre des produits, car on a affaire à des matrices et des vecteurs). On cherche
une solution sous la forme X(t) = exp(tA)V (t). Alors X est solution sur I si et
seulement si V 0 (t) = exp(−tA)B(t) pour tout t ∈ I. C’est donc une équation de
type « intégration »(à valeurs vectorielles). Il suffit donc de déterminer n primitives
(une par composante).
3.4 Cas particulier de l’équation différentielle scalaire linéaire
d’ordre n à coefficients constants
On considère maintenant une équation différentielle de la forme suivante
(E)
x(n) = an−1 x(n−1) + · · · a1 x0 + · · · a0 x + b(t)
Nous voulons la résoudre en appliquant le programme présenté ci-dessus, à savoir :
— conversion en une equation différentielle linéaire du 1erordre vectorielle à coefficients constants
— résolution de l’équation vectorielle homogène associée
— détermination d’une solution particulière de l’équation inhomogène vectorielle
— retour aux solutions de l’équation scalaire
En utilisant la technique présentée dans la section ??, on transforme cette équation
différentielle en équation différentielle vectorielle du premier ordre.
13
En posant

x
x0
..
.





X=
,


(n−1)
x
0
l’équation (E complétée par les équations x(j) = x(j+1) pour j = 0, . . . , n − 1 peut se
réécrire
(E)
X 0 = AX + B(t)

0
1
0

0 0
1


.
A=.
.
0
a0 a1 · · ·
···
..
.

0
.. 
. 


0 

1 
an−2 an−1


0
 .. 


et B(t) =  . 
 0 
b(t)
T
avec
AF
La fonction x est solution de (E) si et seulement si X est solution de (E).
Une première étape dans la résolution de (E), et donc de (E) est la résolution de
l’équation homogène associée qui passe par le calcul de exp(tA), ce qui pourra se faire
aisément si on connaît la forme réduite de A.
Commençons par déterminer le polynôme caractéristique de A, χA (r) = det(rIn − A).
Lemme 1. Le polynôme caractéristique de A est
χA (r) = rn − an−1 rn−1 − · · · − a1 r − a0 .
DR
Démonstration. On calcule le déterminant en développant le long de la dernière ligne.
Définition 4. L’équation χA (r) = 0 pour déterminer les valeurs propres de A est appelée
équation caractéristique de l’équation différentielle (E).
Remarque 8. Soit à = t A. Alors le vecteur e1 et ses images itérées Ãe1 = e2 , Ã2 e1 =
e3 , . . . , Ãn−1 e1 = en sont linéairement indépendants. Cela signifie que le seul polynôme
annulateur de à (donc de A) de degré inférieur ou égal à n − 1 est le polynôme nul. S’il y
en avait, en appliquant ce polynôme de matrices au vecteur e1 , on aurait une combinaison
linéaire nulle non triviale des vecteurs e1 ,. . . ,t Ae1 ,. . . , t An−1 e1 , ce qui est impossible.
Par le théorème de Cayley-Hamilton, le polynôme minimal µA de A divise son polynôme
caractéristique χA . Pour des considérations de degrés, µA et χA sont égaux.
Cela signifie que dans la réduction de Jordan, chaque valeur propre sera associée à un
seul bloc de Jordan, dont la taille sera exactement sa multiplicité dans χA .
Si on a été amené à calculer la matrice de passage P de A à sa forme réduite, alors
comme on connaît l’exponentielle d’un bloc de Jordan, on peut calculer par produit
matriciel exp(tA).
14
D’après le théorème 5, on sait que l’ensemble des solutions de (E0 ), et donc de l’équation différentielle scalaire d’ordre n (E0 ) associée à (E) (celle où b ≡ 0) est un espace
vectoriel de dimension n. On peut déterminer cette ensemble par deux approches :
1.
DR
AF
T
2.
15
DR
AF
T
4 Le pendule simple
16
DR
AF
T
5 Un modèle proie/prédateur
17
6 Un peu de théorie qualitative
DR
AF
T
Théorème de Cauchy–Lipschitz
explosion en temps fini
18
Téléchargement