MAT 1111 - 2`eme quadrimestre Cherpion, Debi`eve, Habets, Van

publicité
UNIVERSITE CATHOLIQUE DE LOUVAIN
DEPARTEMENT DE MATHEMATIQUE
FACULTE DES SCIENCES
FACULTE DES SCIENCES APPLIQUEES
FACULTE D’INGENIERIE BIOLOGIQUE, AGRONOMIQUE ET
ENVOIRONNEMENTALE
MAT 1111 - 2ème quadrimestre
Cherpion, Debiève, Habets, Van Schaftingen, Vitale
Systèmes linéaires
Nombres complexes
Equations différentielles
A. A. 2007-2008
2
Contents
1 Systèmes linéaires
1.1 Objectif . . . . . . . . . . . . . . . . . . . . .
1.2 Exemples . . . . . . . . . . . . . . . . . . . .
1.3 Combinaisons linéaires . . . . . . . . . . . . .
1.4 Solutions d’un système homogène . . . . . . .
1.5 Bases et dimension d’un sous-espace vectoriel
1.6 Rang et méthode de Gauss . . . . . . . . . .
1.7 Le cas d’un système quelconque . . . . . . . .
1.8 Le déterminant d’une matrice carrée . . . . .
1.9 Opérations sur les matrices . . . . . . . . . .
1.10 Solutions approchées . . . . . . . . . . . . . .
1.11 Diagonalisation . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
9
11
14
16
18
21
26
31
2 Nombres complexes
2.1 Origine des nombres complexes . . . . . . . . .
2.2 Définition de (C, +, ·) . . . . . . . . . . . . . .
2.3 Propriétés de l’addition et de la multiplication
2.4 Conjugués et modules . . . . . . . . . . . . . .
2.5 Interprétation géométrique . . . . . . . . . . .
2.6 Puissances et racines . . . . . . . . . . . . . . .
2.7 Division euclidienne des polynômes . . . . . . .
2.8 Théorème fondamental de l’algèbre . . . . . . .
2.9 Exponentielle complexe . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
37
38
40
41
42
43
45
47
3 Equations différentielles
3.1 Position du problème . . . . . . . . . .
3.2 Equations à variables séparables . . .
3.3 Equations linéaires du premier ordre .
3.4 Equations linéaires du deuxième ordre
3.5 Equations linéaires d’ordre n . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
50
54
56
60
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Exercices
63
4.1 Séance 1 - Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . 64
4.2 Séance 2 - Bases et dimension . . . . . . . . . . . . . . . . . . . . 66
3
4
CONTENTS
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
Séance 3 - Systèmes d’équations linéaires . . .
Séance 4 - Déterminant d’une matrice carrée
Séance 5 - Opérations sur les matrices . . . .
Séance 6 - Solutions approchées . . . . . . . .
Séance 7 - Diagonalisation . . . . . . . . . . .
Séance 8 - Nombres complexes . . . . . . . .
Séance 9 - Equations différentielles, I . . . . .
Séance 10 - Equations différentielles, II . . . .
Séance 11 - Equations différentielles, III . . .
Exercices de révision . . . . . . . . . . . . . .
Exercices d’examen . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
73
76
79
81
83
86
88
90
93
98
Chapter 1
Systèmes linéaires
1.1
Objectif
Il y a des problèmes, tant en mathématiques que dans les sciences expérimentales,
qui demandent la solution de plusieurs équations linéaires à la fois, c.-à-d. d’un
système d’équations linéaires. En voici quelques exemples :
1. Un système de trois équations qui contiennent les trois variables x1 , x2 et
x3

3x1 + x2 − x3 = 0,

4x2 + 7x3 = 1,

−x1 − x2 + x3 = −2;
2. Un système de deux équations à quatre variables
6x1 + x2 − x3 − 5x4 = 2,
x1 + x2 + x3 − x4 = 0;
3. Un système donné par une seule équation à deux variables
2x1 + 10x2 = 5.
En général, on aura affaire avec des systèmes de m équations linéaires à n
variables

a11 x1 + a12 x2 + . . . + a1n xn = b1 ,



a21 x1 + a22 x2 + . . . + a2n xn = b2 ,
S:
...



am1 x1 + am2 x2 + . . . + amn xn = bm .
où les x1 , x2 , . . . , xn sont les variables, les nombres réels a11 , a12 , . . . , amn sont
dits coefficients du système et les nombres b1 , b2 , . . . , bm sont dits termes indépendants. Un n-uple de nombres réels est solution d’un système si elle est solution
de chaque équation du système. Par exemple, (0, 0, 0, 0) n’est pas solution du
5
6
CHAPTER 1. SYSTÈMES LINÉAIRES
deuxième exemple, car elle est solution de la deuxième équation, mais pas de
la première. Par contre, (0, 1, −1, 0) est solution du système car elle est solution tant de la première que de la deuxième équation. Notre premier objectif
est d’apprendre à déterminer si un système donné admet des solutions et, dans
le cas affirmatif, si la solution est unique ou si il y a plusieurs solutions. Si,
comme il arrive souvent, le système admet plusieurs solutions, on cherchera à
en déterminer la solution générale, c.-à-d. le plus petit nombre possible de solutions suffisant à reconstruire toute autre solution. On s’occupera d’abord des
systèmes homogènes, c.-à-d. ceux dont les termes indépendants b1 , b2 , . . . , bm
sont tous nuls, et ensuite du cas général où les b1 , b2 , . . . , bm sont quelconques.
1.2
Exemples
Exemples géométriques. On sait que l’ensemble des points P du plan dont
les coordonnées (x1 , x2 ) sont solutions d’une équation linéaire en deux variables
a1 x1 + a2 x2 = b est une droite. Dès lors, résoudre un système d’équations à
deux variables revient à chercher les points d’intersection entre les droites qui
correspondent aux différentes équations. Il est alors facile de construire des
exemples qui illustrent toutes les situations possibles :
1. Deux droites parallèles correspondent à un système qui n’admet pas de
solutions. Considérons par exemple le système
x1 − x2 = 1,
x1 − x2 = −1,
qui n’a pas de solution.
2. Deux droites sécantes correspondent à un système qui admet une solution
unique. C’est, par exemple, le cas du système
x1 − x2 = 0,
x1 + 2x2 = 6,
qui a pour unique solution x1 = 2, x2 = 2 et l’unique point d’intersection
des deux droites correspondantes a pour coordonnées (2, 2).
3. Si les deux équations représentent la même droite, le système correspondant admet une infinité solutions. C’est le cas, par exemple, du système
x1 − x2 = 3,
−5x1 + 5x2 = −15.
Evolution d’une population. Les systèmes d’équations linéaires sont utilisés
pour modéliser l’évolution d’une population animale en fonction des taux de
reproduction et des taux de survie des différentes tranches d’âges. Supposons
que la durée de vie maximale soit de n années et qu’au début de l’observation
1.3. COMBINAISONS LINÉAIRES
7
le nombre d’individus des différents âges soit donné par (p01 , p02 , . . . , p0n ). Si ri
désigne le taux de reproduction de la i-ème tranche d’âge et si son taux de
survie, on aura un an plus tard une répartition (p11 , p12 , . . . , p1n ), liée à celle de
départ par les relations
 1
p1 = p01 r1 + p02 r2 + . . . + p0n rn ,



 p12 = p01 s1 ,
..

.


 1
pn = p0n−1 sn−1 .
Nous pouvons nous poser les questions suivantes :
- est-il possible de déterminer la répartition de la population que l’on aura
après plusieurs années ?
- est-il possible de déterminer si la population restera stable ou si elle
évoluera vers l’extinction ou encore vers une surpopulation ?
On reviendra sur ces questions plus loin, quand on disposera des outils du calcul
matriciel.
1.3
Combinaisons linéaires
Une solution d’un système qui contient n variables est un n-uple
(x1 , x2 , . . . , xn )
de nombres réels. Dans la suite, on dénote par Rn l’ensemble de ces n-uples
Rn = {(x1 , x2 , . . . , xn ) | x1 , x2 , . . . , xn ∈ R},
on appelle vecteur de Rn un tel n-uple et on écrit ~x pour (x1 , x2 , . . . , xn ). Le
nombre x1 est la première composante du vecteur ~x, x2 en est la deuxième
composante, etc. Si on prend par exemple n = 2, un vecteur de R2 est un
couple de nombres réels : ~x = (x1 , x2 ). Si on prend n = 1, les vecteurs de R1
sont simplement les nombres réels. Attention : l’égalité entre deux vecteurs ~x
et ~y signifie d’abord qu’ils ont le même nombre de composantes, et puis que la
première composante de ~x est égale à la première composante de ~y , la deuxième
composante de ~x est égale à la deuxième composante de ~y , et ainsi de suite
jusqu’à la dernière composante. On parle d’égalité composante par composante.
Par exemple, ~x = (1, 1, 1) et ~y = (1, 1, 1, 1) ne sont pas égaux car ~x est un vecteur
de R3 et ~y est un vecteur de R4 . Les vecteurs ~x = (1, 2, 3) et ~y = (3, 2, 1) ne
sont pas égaux non plus, bien qu’ils aient les mêmes composantes, car elles ne
sont pas dans le même ordre. On a l’habitude de faire des calculs en utilisant
les nombres réels, mais dans la suite il sera plus utile, voire nécessaire, d’utiliser
des vecteurs. Pour cela, voyons comment on effectue la somme de deux vecteurs
et quelles sont les proprités de cette somme.
8
CHAPTER 1. SYSTÈMES LINÉAIRES
Définition 1 La somme de deux vecteurs
~x = (x1 , x2 , . . . , xn ) et ~y = (y1 , y2 , . . . , yn )
est le vecteur obtenu en faisant la somme composante par composante
~x + ~y = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
Propriété 2
1. La somme de vecteurs est commutative et associative
~x + ~y = ~y + ~x;
~x + (~y + ~z) = (~x + ~y ) + ~z.
2. Soit ~0 = (0, 0, . . . , 0) le vecteur identiquement nul. Alors pour tout vecteur
~x on a ~x + ~0 = ~x.
3. Soit ~x = (x1 , x2 , . . . , xn ) un vecteur et écrivons −~x pour le vecteur
(−x1 , −x2 , . . . , −xn ).
Alors ~x + (−~x) = ~0.
La deuxième opération qui nous intéresse est le produit d’un nombre réel
par un vecteur.
Définition 3 Soit λ un réel et ~x = (x1 , x2 , . . . , xn ) un vecteur de Rn . On
définit alors λ · ~x = (λx1 , λx2 , . . . , λxn ).
Propriété 4 Pour tout λ, µ ∈ R et pour tout ~x, ~y ∈ Rn on a
1. (λµ) · ~x = λ · (µ · ~x);
2. (λ + µ) · ~x = λ · ~x + µ · ~x;
3. λ · (~x + ~y ) = λ · ~x + λ · ~y ;
4. 1 · ~x = ~x, 0 · ~x = ~0, (−1) · ~x = −~x.
Démonstration : Pour nous familiariser avec les nouvelles notations, écrivons
en détail la troisième égalité. Soient ~x = (x1 , x2 , . . . , xn ) et ~y = (y1 , y2 , . . . , yn )
deux vecteurs de Rn . En utilisant d’abord la Définition 1 puis la Définition 3,
on a
λ · (~x + ~y ) = λ · ((x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ))
= λ · (x1 + y1 , x2 + y2 , . . . , xn + yn )
= (λ(x1 + y1 ), λ(x2 + y2 ), . . . , λ(xn + yn )).
D’autre part, en utilisant d’abord la Définition 3 et puis la Définition 1, il vient
λ · ~x + λ · ~y
= λ · (x1 , x2 , . . . , xn ) + λ · (y1 , y2 , . . . , yn )
= (λx1 , λx2 , . . . , λxn ) + (λy1 , λy2 , . . . , λyn )
= (λx1 + λy1 , λx2 + λy2 , . . . , λxn + λyn ).
Les deux vecteurs ainsi obtenus sont égaux puisqu’on a l’égalité composante par
composante
λ(x1 + y1 ) = λx1 + λy1 , λ(x2 + y2 ) = λx2 + λy2 , . . . , λ(xn + yn ) = λxn + λyn .
1.4. SOLUTIONS D’UN SYSTÈME HOMOGÈNE
9
Remarque 5 L’associativité permet d’omettre les parenthèses dans une somme
de plusieurs vecteurs. Par exemple, nous écrivons ~x +~y +~z plutôt que ~x +(~y +~z)
ou (~x + ~y ) + ~z. De plus, comme d’habitude, on crit ~x − ~y pour ~x + (−~y ).
Remarque 6 On peut résumer les Propriétés 2 et 4 en disant que l’ensemble
Rn est un espace vectoriel par rapport aux opérations ~x + ~y et λ · ~x introduites
dans les Définitions 1 et 3.
Définition 7 Si ~x1 , . . . , ~xk ∈ Rn et λ1 , . . . , λk ∈ R, on appelle le vecteur
λ1 · ~x1 + . . . + λk · ~xk
une combinaison linéaire des vecteurs ~x1 , . . . , ~xk , les nombres λ1 , . . . , λk étant
les coefficients de la combinaison linéaire.
1.4
Solutions d’un système homogène
Dans cette section, on considère un système homogène

a11 x1 + a12 x2 + . . . + a1n xn = 0,



a21 x1 + a22 x2 + . . . + a2n xn = 0,
S0 :
...



am1 x1 + am2 x2 + . . . + amn xn = 0,
et on note Sol(S0 ) l’ensemble des vecteurs ~x = (x1 , x2 , . . . , xn ) de Rn qui sont
solutions de S0 . Il y a trois choses faciles mais importantes à noter.
Propriété 8
1. S0 admet au moins une solution, car le vecteur nul ~0 = (0, 0, . . . , 0) est
toujours solution de S0 , c.-à-d. ~0 ∈ Sol(S0 ).
2. Si ~x ∈ Sol(S0 ) et λ ∈ R, alors λ · ~x ∈ Sol(S0 ).
3. Si ~x, ~y ∈ Sol(S0 ), alors ~x + ~y ∈ Sol(S0 ).
Démonstration : A titre d’exercice, démontrons que si ~x et ~y sont des solutions de S0 , alors ~x + ~y est aussi une solution de S0 . Regardons la première
équation. Puisque ~x = (x1 , x2 , . . . , xn ) et ~y = (y1 , y2 , . . . , yn ) sont solutions de
S0 , on a a11 x1 + a12 x2 + . . . + a1n xn = 0 et a11 y1 + a12 y2 + . . . + a1n yn =
0. Donc si on fait la somme et qu’on met en évidence les a1j , on obtient
a11 (x1 + y1 ) + a12 (x2 + y2 ) + . . . + a1n (xn + yn ) = 0. Cela signifie que ~x + ~y est
solution de la première équation de S0 . De la même façon on montre que ~x + ~y
est solution des autres équations de S0 .
Cette proprité est la raison pour laquelle, dans la section précédente, on s’est
intéressé à la somme de deux vecteurs et au produit d’un nombre réel par un
vecteur. Cette propriété justifie aussi la définition suivante.
10
CHAPTER 1. SYSTÈMES LINÉAIRES
Définition 9 Soit V un sous-ensemble de Rn . On dit que V est un sous-espace
vectoriel de Rn si les trois conditions suivantes sont vérifiées :
1. ~0 ∈ V ;
2. Si ~x ∈ V et λ ∈ R, alors λ · ~x ∈ V ;
3. Si ~x, ~y ∈ V, alors ~x + ~y ∈ V.
Remarque 10 On déduit des points 1 et 2 de la Définition 9 que un sous-espace
vectoriel V de Rn est fermé par combinaisons linéaires : si ~x1 , . . . , ~xk ∈ V et
λ1 , . . . , λk ∈ R, alors λ1 · ~x1 + . . . + λk · ~xk ∈ V .
Remarque 11
1. La Propriété 8 signifie précisement que, si S0 est un système homogène à
n variables, alors Sol(S0 ) est un sous-espace vectoriel de Rn .
2. La remarque précédente n’est plus valable si le système de départ n’est
pas homogène. Il suffit pour s’en convaincre d’examiner un exemple facile
comme
x1 − x2 = 0,
S:
x1 + x2 = 1.
dont l’ensemble des solutions n’est pas un sous-espace vectoriel de R2 .
Remarque 12
1. { ~0 } est un sous-espace vectoriel de Rn , il est le plus petit sous-espace
vectoriel de Rn .
2. Rn est un sous-espace vectoriel de Rn , il est le plus grand sous-espace
vectoriel de Rn .
3. Si V et W sont deux sous-espaces vectoriels de Rn , leur intersection V ∩W
est un sous-espace vectoriel de Rn .
4. Si V et W sont deux sous-espaces vectoriels de Rn , leur somme
V + W = {~v + w
~ | ~v ∈ V, w
~ ∈ W}
est un sous-espace vectoriel de Rn .
5. Soient ~x1 , . . . , ~xr des vecteurs de Rn . L’ensemble h~x1 , . . . , ~xr i de toutes
les combinaisons linéaires de ~x1 , . . . , ~xr est le plus petit sous-espace vectoriel de Rn qui contient ~x1 , . . . , ~xr ; on l’appelle le sous-espace vectoriel
engendré par ~x1 , . . . , ~xr .
Exemple 13
1. Les sous-espaces vectoriels de R2 sont { ~0 }, R2 et les droites par l’origine.
2. Les sous-espaces vectoriels de R3 sont { ~0 }, R3 , les droites par l’origine et
les plans par l’origine.
1.5. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL
1.5
11
Bases et dimension d’un sous-espace vectoriel
Il nous faut maintenant quelques définitions pour donner un sens plus précis à
l’objectif énoncé dans la première section : “le plus petit nombre possible de
solutions suffisant à reconstruire toute autre solution d’un système homogène”.
Définition 14 Soit V 6= {~0} un sous-espace vectoriel de Rn et ~x1 , . . . , ~xk ∈ V.
1. On dit que les vecteurs ~x1 , . . . , ~xk forment une famille génératrice pour V
si tout vecteur de V est combinaison linéaire des ~x1 , . . . , ~xk .
2. On dit que les vecteurs ~x1 , . . . , ~xk forment une base de V s’ils sont une
famille génératrice minimale, c.-à-d. que chaque fois qu’on enlève l’un
des vecteurs ~x1 , . . . , ~xk , les k − 1 vecteurs qui restent ne forment plus une
famille génératrice.
Exemple 15 Les vecteurs ~v1 = (1, 0), ~v2 = (0, 1), ~v3 = (1, 1) sont une famille
génératrice de R2 , mais ils ne sont pas une base. Par contre, ~v1 = (1, 0) et
~v2 = (0, 1) sont une base de R2 .
Avant d’illustrer la Définition 14 par un exemple moins facile, il convient de
formuler la notion de base d’une façon différente.
Définition 16 On dit que les vecteurs ~x1 , . . . , ~xk sont linéairement dépendants
si au moins l’un d’entre eux est combinaison linéaire des autres. Dans le cas
contraire, on dit que les vecteurs ~x1 , . . . , ~xk sont linéairement indépendants ou
libres.
Propriété 17 Soient ~x1 , . . . , ~xk des vecteurs de Rn . Les conditions suivantes
sont équivalentes :
1. les vecteurs ~x1 , . . . , ~xk sont linéairement indépendants,
2. λ1 · ~x1 + . . . + λk · ~xk = µ1 · ~x1 + . . . + µk · ~xk implique λ1 = µ1 , . . . , λk = µk ,
3. λ1 · ~x1 + . . . + λk · ~xk = ~0 implique λ1 = 0, . . . , λk = 0.
Exemple 18
1. Deux vecteurs de R2 sont linéairement dépendants ssi ils sont colinéaires.
2. Trois vecteurs de R3 sont linéairement dépendants ssi ils sont coplanaires.
Remarque 19
1. Si on ajoute un vecteur à une famille génératrice de V, la nouvelle famille
est encore une famille génératrice de V.
2. Si on enlève un vecteur à une famille libre, la nouvelle famille est encore
libre.
12
CHAPTER 1. SYSTÈMES LINÉAIRES
Propriété 20 Soit V un sous-espace vectoriel de Rn et soient ~x1 , . . . , ~xk des
vecteurs de V, avec k ≥ 1. Les conditions suivantes sont équivalentes :
1. les vecteurs ~x1 , . . . , ~xk forment une base de V,
2. les vecteurs ~x1 , . . . , ~xk forment une famille génératrice pour V et sont
libres.
Exemple 21 Les vecteurs (1, 0) et (0, 1) sont une base de R2 (appelée base
canonique). Mais les vecteurs (1, 1) et (1, −1) sont eux aussi une base de R2 .
Exemple 22 On considère le système homogène

 x1 − x2 − x3 + x4 = 0
x1 − x3 = 0
S0 :

x2 − x4 = 0
et on va montrer que ~x1 = (1, 0, 1, 0) et ~x2 = (0, 1, 0, 1) forment une base de
Sol(S0 ). Il est évident que ~x1 et ~x2 sont solutions de S0 . En outre, le système
S0 est équivalent au système
x1 − x3 = 0
0
S0 :
x2 − x4 = 0,
c.-à-d. admet exactement les mêmes solutions. En effet, la première équation
est la différence de la deuxième et de la troisième. Donc ~x = (x1 , x2 , x3 , x4 )
est solution de S0 si et seulement si x1 = x3 et x2 = x4 . Mais alors, pour
un tel vecteur, on a ~x = (x1 , x2 , x1 , x2 ) = (x1 , 0, x1 , 0) + (0, x2 , 0, x2 ) = x1 ·
(1, 0, 1, 0) + x2 · (0, 1, 0, 1) = x1 · ~x1 + x2 · ~x2 . On a prouvé ainsi que toute
solution de S0 est combinaison linéaire de ~x1 et ~x2 , c.-à-d. que ~x1 , ~x2 est une
famille génératrice pour Sol(S0 ). Il reste à vérifier que les vecteurs ~x1 et ~x2 sont
linéairement indépendants. Pour cela supposons λ1 ·~x1 +λ2 ·~x2 = ~0. Cela revient
λ1 · (1, 0, 1, 0) + λ2 · (0, 1, 0, 1) = (0, 0, 0, 0), c.-à-d. (λ1 , λ2 , λ1 , λ2 ) = (0, 0, 0, 0),
d’où λ1 = 0 et λ2 = 0.
Attention : on aurait aussi bien pu démontrer que les vecteurs ~y1 = (1, 1, 1, 1) et
~y2 = (1, −1, 1, −1) sont une base de Sol(S0 ) (faites-le comme exercice !). Donc
la base de Sol(S0 ) n’est pas unique. Mais le fait que les deux bases trouvées ont
le même nombre de vecteurs n’est pas un hasard. En effet, on a la propriété
suivante.
Propriété 23 Soit V un sous-espace vectoriel de Rn . Si ~x1 , . . . , ~xk et ~y1 , . . . , ~yl
sont deux bases de V , alors k = l.
Démonstration : Montrons d’abord que si ~x1 est un vecteur non nul de V
et ~y1 , . . . , ~yl est une base de V, il y a moyen de remplacer un vecteur de cette
base par ~x1 et obtenir encore une base de V. Pour cela, écrivons ~x1 comme combinaison linéaire de ~y1 , . . . , ~yl , c’est–dire ~x1 = λ1 · ~y1 + . . . + λl · ~yl . Au moins un
coefficient λi doit être non nul (car on a supposé ~x1 6= ~0) et, quitte à changer
1.5. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL
13
l’ordre, on peut supposer λ1 6= 0. Dans ce cas, on peut montrer que ~x1 , ~y2 , . . . , ~yl
est encore une base. En effet :
- chaque vecteur de V est combinaison linéaire de ~y1 , . . . , ~yl , mais ~y1 est combinaison linéaire de ~x1 , ~y2 , . . . , ~yl (ceci se déduit de l’égalité ~y1 = λ11 · (~x1 −
λ2 · ~y2 − . . . − λl · ~yl ) et donc chaque vecteur de V est combinaison linéaire de
~x1 , ~y2 , . . . , ~yl ;
- si α1 · ~x1 + α2 · ~y2 + . . . + αl · ~yl = ~0, on a deux possibilités : si α1 = 0 alors
α2 ·~y2 +. . .+αl ·~yl = ~0, mais les vecteurs ~y2 , . . . , ~yl sont linéairement indépendants
α2
· ~y2 − . . . − αα1l · ~yl ,
et donc α1 = . . . = αl = 0 ; si α1 6= 0 alors on a ~x1 = − α
1
qui, avec ~x1 = λ1 · ~y1 + . . . + λl · ~yl , nous donne λ1 = 0, en contradiction avec
l’hypothèse. Soient maintenant ~x1 , . . . , ~xk et ~y1 , . . . , ~yl deux bases de V avec
k < l. En itérant k-fois l’argument précédent, on peut remplacer k vecteurs
de la deuxième base par les vecteurs de la première base et obtenir encore une
base. Donc, quitte à changer l’ordre, on a que ~x1 , . . . , ~xk et ~x1 , . . . , ~xk , ~yk+1 ,
. . . , ~yl sont deux bases de V. En particulier, on peut enlever les derniers l − k
vecteurs à la base ~x1 , . . . , ~xk , ~yk+1 , . . . , ~yl et ce qui reste est encore une famille
génératrice. Mais cela est en contradiction avec la définition de base.
Grâce à la propriété précédente, nous pouvons donner la définition de dimension d’un sous-espace vectoriel.
Définition 24 Soit V 6= {~0} un sous-espace vectoriel de Rn et soit ~x1 , . . . , ~xk
une base de V. On appelle le nombre k la dimension de l’espace V et on note
k = dim(V ).
Si V = {~0}, V n’a pas de base et on pose dim(V ) = 0.
Exemple 25
1. La dimension de Rn est n. Les vecteurs
~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, 0, . . . , 0), . . . , ~en = (0, . . . , 0, 1)
sont une base de Rn qu’on appelle base canonique.
2. Les droites par l’origine ont dimension 1 ; les plans par l’origine ont dimension 2.
3. Si V et W sont deux sous-espaces vectoriels de Rn et V est inclus dans
W, alors dim(V ) ≤ dim(W ).
La prochaine propriété montre que si on connais la dimension d’un sousespace vectoriel V, la recherche d’une base de V devient plus facile.
Propriété 26 Soit V un sous-espace vectoriel de Rn de dimension k.
1. Si ~v1 , . . . , ~vk sont une famille génératrice de V, alors ils en sont une base.
2. Si ~v1 , . . . , ~vk sont une famille libre de vecteurs de V, alors ils en sont une
base.
14
CHAPTER 1. SYSTÈMES LINÉAIRES
Conclusion. On peut exprimer de façon précise le problème de déterminer
le plus petit nombre possible de solutions suffisant à reconstruire toute autre
solution d’un système homogène S0 . Ce problème revient à déterminer une
base de Sol(S0 ). En effet, si ~x1 , . . . , ~xk est une base de Sol(S0 ), alors un vecteur
~x ∈ Rn est solution de S0 si et seulement si il peut s’écrire sous la forme
~x = λ1 · ~x1 + . . . + λk · ~xk .
Autrement dit, la solution générale de S0 est λ1 ·~x1 + . . . + λk ·~xk et elle contient
les k constantes arbitraires λ1 , . . . , λk .
Exemple 27 Si on revient à l’exemple

 x1 − x2 − x3 + x4 = 0,
x1 − x3 = 0,
S0 :

x2 − x4 = 0,
on a que dim(Sol(S0 )) = 2 et une base de Sol(S0 ) est donne par
~x1 = (1, 0, 1, 0),
~x2 = (0, 1, 0, 1).
Donc la solution générale de S0 contient deux constantes λ1 et λ2 qui restent
indéterminés et elle peut s’écrire sous la forme
~x = λ1 · ~x1 + λ2 · ~x2 = λ1 · (1, 0, 1, 0) + λ2 · (0, 1, 0, 1) = (λ1 , λ2 , λ1 , λ2 ).
1.6
Rang et méthode de Gauss
On s’intéresse à un système homogène

a11 x1 + a12 x2 + . . . + a1n xn = 0,



a21 x1 + a22 x2 + . . . + a2n xn = 0,
S0 :
...



am1 x1 + am2 x2 + . . . + amn xn = 0,
et on voudrait connaı̂tre la dimension et une base de son ensemble de solutions
Sol(S0 ), car cela nous permet d’écrire la solution générale de ce système et de
connaı̂tre le nombre de constantes arbitraires qu’elle contient : si ~x1 , . . . , ~xn
est une base de Sol(S0 ), alors Sol(S0 ) = {λ1 ~x1 + . . . + λn ~xn | λ1 , . . . , λn ∈
R arbitrairs }. On va donc apprendre une méthode pratique, dite méthode de
Gauss, pour calculer la dimension de Sol(S0 ), et pour en déterminer une base.
Considérons le système homogène S0 . Des opérations élémentaires sur S0
consistent à changer l’ordre des équations, à multiplier une équation par une
constante non nulle ou à rajouter à une équation de S0 un multiple d’une autre
équation de S0 . On peut vérifier que le nouveau système S00 obtenu à partir de
S0 après une ou plusieurs opérations élémentaires est équivalent à S0 , c.-à-d.
que S0 et S00 admettent exactement les mêmes solutions
Sol(S0 ) = Sol(S00 ).
1.6. RANG ET MÉTHODE DE GAUSS
15
On dit qu’un système est échelonné si le nombre de coefficients nuls au début
de chaque équation est strictement croissant quand on passe d’une équation à
l’équation suivante. Par exemple, le système

 a11 x1 + a12 x2 + a13 x3 + a14 x4 = 0,
0 x1 + a22 x2 + a23 x3 + a24 x4 = 0,

0 x1 + 0 x2 + 0 x3 + a34 x4 = 0,
avec a11 6= 0 6= a22 est échelonné. Par contre,

 a11 x1 + a12 x2 + a13 x3 = 0,
0 x1 + a22 x2 + a23 x3 = 0,

0 x1 + a32 x2 + a33 x3 = 0,
avec a32 6= 0 n’est pas échelonné.
Etant donné un système homogène S0 , la méthode de Gauss consiste à se
ramener, par une suite d’opérations élémentaires, à un système S00 échelonné.
Une fois que l’on a obtenu un tel système, on peut facilement calculer la dimension de Sol(S0 ) car on a la propriété suivante.
Propriété 28 Soit S00 un système échelonné correspondant au système S0 . On
a alors
dim (Sol(S0 )) = n − r(S0 ),
où n est le nombre de variables et r(S0 ) le nombre d’équations non identiquement
nulles dans S00 .
Définition 29 On appelle le nombre r(S0 ) d’équations non identiquement nulles
dans S00 , le rang du système S0 .
Par exemple, les deux systèmes suivants ont un rang égal à 3 et à 2 si respectivement a11 a22 a33 6= 0 et a11 a23 6= 0 :


 a11 x1 + a12 x2 + a13 x3 = 0,
 a11 x1 + a12 x2 + a13 x3 = 0,
0 x1 + a22 x2 + a23 x3 = 0,
0 x1 + 0 x2 + a23 x3 = 0,


0 x1 + 0 x2 + a33 x3 = 0,
0 x1 + 0 x2 + 0 x3 = 0.
Quand on a récrit le système sous la forme d’un système échelonné, on peut
facilement déterminer une base de l’espace Sol(S0 ). Voyons cela sur un exemple.
Considérons un système homogène S0 de 3 équations à 5 inconnues

 x1 + x2 + x3 + x4 + x5 = 0,
x1 + 3x2 + 3x3 − x4 + x5 = 0,

x2 + x3 − x4 = 0.
après échelonnage (II-I, II-2III, II ↔ III), le système S00 est

 x1 + x2 + x3 + x4 + x5 = 0,
0 x1 + x2 + x3 − x4 + 0 x5 = 0,

0 x1 + 0 x2 + 0 x3 + 0 x4 + 0 x5 = 0.
16
CHAPTER 1. SYSTÈMES LINÉAIRES
Le rang du système est 2 et la dimension de Sol(S0 ) vaut 5-2=3. Pour déterminer
une base de Sol(S0 ) il nous faut trois vecteurs linéairement indépendants de cet
espace. On peut remarquer que les variables x3 , x4 , x5 n’apparaissent pas en
tête des équations (c.-à-d. avec un premier coefficient non nul). On procède
alors de la façon suivante :
- on fixe (x3 , x4 , x5 ) = (1, 0, 0), on les remplace dans le système et on obtient
x1 = 0, x2 = −1 ; donc (0, −1, 1, 0, 0) est solution de S0 ;
- on fixe (x3 , x4 , x5 ) = (0, 1, 0), on les remplace dans le système et on obtient
x1 = −2, x2 = 1 ; donc (−2, 1, 0, 1, 0) est solution de S0 ;
- on fixe (x3 , x4 , x5 ) = (0, 0, 1), on les remplace dans le système et on obtient
x1 = −1, x2 = 0 ; donc (−1, 0, 0, 0, 1) est solution de S0 .
Les trois vecteurs (0, −1, 1, 0, 0), (−2, 1, 0, 1, 0) et (−1, 0, 0, 0, 1) sont trois solutions linéairement indépendantes et forment donc une base de Sol(S0 ).
1.7
Le cas d’un système quelconque
Dans les Sections 4, 5 et 6 nous nous sommes bornés au cas d’un système
homogène. Nous pouvons maintenant aborder l’étude d’un système quelconque

a11 x1 + a12 x2 + . . . + a1n xn = b1 ,



a21 x1 + a22 x2 + . . . + a2n xn = b2 ,
S:
...



am1 x1 + am2 x2 + . . . + amn xn = bm .
Voyons d’abord deux critères qui permettent d’établir si le système S admet des
solutions. Pour cela, nous introduisons les vecteurs
~a∗1
~a∗2
...
~a∗n
~b
=
=
(a11 , a21 , . . . , am1 )
(a12 , a22 , . . . , am2 )
=
=
vecteur des coefficients de x1
vecteur des coefficients de x2
=
=
(a1n , a2n , . . . , amn )
(b1 , b2 , . . . , bm )
=
=
vecteur des coefficients de xn
vecteur des termes indépendants
et nous considérons aussi le système homogène

a11 x1 + a12 x2 + . . . + a1n xn = 0,



a21 x1 + a22 x2 + . . . + a2n xn = 0,
S0 :
...



am1 x1 + am2 x2 + . . . + amn xn = 0,
associé au système S donné.
Remarque 30
1. Nous savons déjà que Sol(S0 ) est un sous-espace vectoriel de Rn , voir la
Propriété 8, et que par contre Sol(S) ne l’est pas, voir la Remarque 11.
2. On à toujours r(S0 ) ≤ r(S), où le rang r(S) est le nombre d’équations
non identiquement nulles dans un système échelonné équivalent à S.
1.7. LE CAS D’UN SYSTÈME QUELCONQUE
17
3. L’inégalité du point 2 vient du fait que le rang peut se calculer aussi par
les formules r(S) = dimh~a∗1 , . . . , ~a∗n , ~bi et r(S0 ) = dimh~a∗1 , . . . , ~a∗n i.
Propriété 31 Les conditions suivantes sont équivalentes :
1. le système S admet au moins une solution ;
2. le vecteur ~b est combinaison linéaire des vecteurs ~a∗1 , ~a∗2 , . . . , ~a∗n ;
3. r(S) = r(S0 ).
Démonstration :
Voyons l’équivalence entre les conditions 1 et 2 : dire
que ~b est combinaison linéaire de ~a∗1 , ~a∗2 , . . . , ~a∗n revient à dire qu’il existe
x1 , x2 , . . . , xn ∈ R tel que x1 ·~a∗1 +x2 ·~a∗2 +. . .+xn ·~a∗n = ~b. Si on traduit cette
égalité entre vecteurs de Rm par les m égalités entre composantes, elle revient
exactement à dire que x1 , x2 , . . . , xn est une solution du système S.
L’équivalence entre 2 et 3 se déduit facilement de la Remarque 30.3.
Si le système S admet au moins une solution, il nous reste à décrir Sol(S),
c’est-à-dire à déterminer la solution générale de S. Pour faire cela, on utilise à
nouveau le système homogène S0 associé S.
Théorème 32 Soit ~x0 une solution de S et soit ~x1 , . . . , ~xk une base de Sol(S0 ).
Les solutions de S sont les vecteurs de Rn qui peuvent s’écrire sous la forme
~x0 + λ1 · ~x1 + . . . + λk · ~xk ,
pour λ1 , . . . , λk ∈ R.
En particulier, le système S admet une solution unique ssi r(S) = r(S0 ) = n
ssi les vecteurs ~a∗1 , ~a∗2 , . . . , ~a∗n sont linéairement indépendants.
Démonstration : Une démonstration de la première partie de l’énoncé sera
donne plus loin, quand on disposera de la notion de produit matriciel. La
deuxième partie se déduit facilement de la première, car r(S0 ) = n − k, et de la
Remarque 30.3.
Exemple 33 Considérons le système (déjà échelonné)
x1 + x2 + x3 + x4 + x5 = 1,
S:
x2 + x3 − x4 = 1.
Son rang est 2 et une solution particulière est donne par
~x0 = (0, 1, 0, 0, 0).
Le système homogène associé est
x1 + x2 + x3 + x4 + x5 = 0,
S0 :
x2 + x3 − x4 = 0,
18
CHAPTER 1. SYSTÈMES LINÉAIRES
et une base de Sol(S0 ) est donne par les trois vecteurs
~x1 = (0, −1, 1, 0, 0), ~x2 = (−2, 1, 0, 1, 0), x~3 = (−1, 0, 0, 0, 1).
Donc la solution générale de S est donne par
~x0 + λ1 · ~x1 + λ2 · ~x2 + λ3 · x~3 = (−2λ2 − λ3 , 1 − λ1 + λ2 , λ1 , λ2 , λ3 )
et contient les trois constantes indétermiés λ1 , λ2 et λ3 .
1.8
Le déterminant d’une matrice carrée
Etant donné un système

a11 x1 + a12 x2 + . . . + a1n xn = b1 ,



a21 x1 + a22 x2 + . . . + a2n xn = b2 ,
S:
...



am1 x1 + am2 x2 + . . . + amn xn = bm ,
on peut en extraire la matrice des coefficients

a11
a12
...
 a21
a
...
22

A= .
.
..
..
 ..
.
am1 am2 . . .
a1n
a2n
..
.



.

amn
Remarquons que les colonnes de A sont exactement les vecteurs ~a∗1 , . . . , ~a∗n
qui interviennent dans la section précédente. Dans cette section, nous nous
occupons de systèmes qui contiennent autant d’équations que de variables. Par
consquént, on considèrera des matrices carrées (m = n). L’objectif est de
trouver une méthode rapide pour déterminer si les colonnes d’une telle matrice
sont linéairement dépendantes ou indépendantes, et donc pour déterminer si le
système S admet une solution unique (voir Théorème 32).
Commençons par le cas d’un système de deux équations à deux inconnues
a11 x1 + a12 x2 = b1 ,
a21 x1 + a22 x2 = b2 .
Dire que le système admet une et une seule solution revient à dire que les deux
droites d’équations respectives a11 x1 + a12 x2 = b1 et a21 x1 + a22 x2 = b2 ont un
et un seul point d’intersection. Vu que la condition de parallélisme s’exprime
par l’égalité entre les coefficients angulaires, la condition d’avoir un et un seul
point d’intersection s’exprime par
a11 a22 − a12 a21 6= 0.
Donc les colonnes de la matrice
A=
a11
a21
a12
a22
1.8. LE DÉTERMINANT D’UNE MATRICE CARRÉE
19
sont linéairement indépendantes si et seulement si a11 a22 − a12 a21 6= 0. Dans la
suite on va généraliser ce résultat. Etant donné une matrice carrée A, on cherche
un nombre réel det(A), dit le déterminant de A, de façon que les colonnes de A
sont linéairement indépendantes si et seulement si det(A) 6= 0.
Définition 34 Définition inductive de det(A) :
Etape 1 : Soit A = (a11 ) une matrice carrée d’ordre 1, on pose det(A) = a11 .
Etape 2 : Soit
a11 a12
A=
a21 a22
une matrice carrée d’ordre 2, on pose det(A) = a11 a22 − a12 a21 .
Etape n : Soit


a11 a12 . . . a1n
 a21 a22 . . . a2n 

A=
 ...
... 
an1 an2 . . . ann
une matrice carrée d’ordre n, on pose
det(A) =
n
X
(−1)i−1 · det(Ai ) · ai1 ,
i=1
où Ai est la matrice carrée d’ordre n − 1 obtenue à partir de A en supprimant
la première colonne et la i-ème ligne.
On a défini ainsi une application det : Rn×n → R, où Rn×n est l’ensemble
des matrices carrées d’ordre n.
Exemple 35 Voyons explicitement ce que donne la définition inductive pour
une matrice carrée d’ordre 3 :


a11 a12 a13
det  a21 a22 a23  =
a31 a32
a33
a22 a23
a12 a13
a12 a13
= a11 det
− a21 det
+ a31 det
a32 a33
a32 a33
a22 a23
= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ).
Dans la suite, on notera In la matrice carrée d’ordre n dont tous les éléments
sont zéros sauf sur la diagonale descendante, où ils sont tous égaux à 1. Par
exemple on écrit explicitement


1 0 0
I3 =  0 1 0  .
0 0 1
On dit que In est la matrice unité d’ordre n. Si A est une matrice, on définit la
matrice transposée AT comme la matrice dont les colonnes sont les lignes de A.
20
CHAPTER 1. SYSTÈMES LINÉAIRES
Par exemple on a
a11
a21
a12
a22
T
=
a11
a12
a21
a22
.
Voici quelques propriétés du déterminant qui sont très souvent utiles pour simplifier les calculs.
Propriété 36
1. La matrice unité d’ordre n, In , est telle que det(In ) = 1.
2. Si dans une matrice on permute deux colonnes, le déterminant change de
signe.
3. Si dans une matrice de Rn×n on fixe toutes les colonnes sauf la i-ème, on
obtient une application deti : Rn → R qui est linéaire, c.-à-d.
deti (λ · ~a + µ · ~b) = λ deti (~a) + µ deti (~b)
pour tout λ, µ ∈ R et pour tout ~a, ~b ∈ Rn .
4. Si une matrice a une colonne identiquement nulle, alors son déterminant
est nul. Si une matrice a deux colonnes égales, son déterminant est nul.
5. Si dans une matrice on ajoute à une colonne une combinaison linéaire des
autres colonnes, le déterminant ne change pas.
6. Le déterminant d’une matrice est égal au déterminant de sa matrice transpose ; par conséquent, les propriétés 2, 3, 4 et 5 sont valables aussi par
rapport aux lignes.
Exemple 37 A titre d’exercice, on peut vérifier les propriétés précédentes pour
une matrice carrée d’ordre 2 ou 3. Voyons par exemple la propriété 3, pour une
matrice d’ordre 2, par rapport à la première colonne :
λa11 + µb11 a12
det
= (λa11 + µb11 )a22 − a12 (λa21 + µb21 )
λa21 + µb21 a22
= λ(a11 a22 − a12 a21) + µ(b11 a22 − a12 b21 )
a11 a12
b11 a12
= λ det
+ µ det
.
a21 a22
b21 a22
Exemple 38 Il est aussi intéressant de déduire les propriétés 4 et 5 à partir
des propriétés 2 et 3, sans utiliser la définition de déterminant. Faisons-le pour
la propriété 5. On déduit de la propriété 3




a11 + λa12 + µa13 a12 a13
a11 a12 a13
det  a21 + λa22 + µa23 a22 a23  = det  a21 a22 a23 
a31 + λa32 + µa33 a32 a33
a31 a32 a33




a12 a12 a13
a13 a12 a13
+λ det  a22 a22 a23  + µ det  a23 a22 a23 
a32 a32 a33
a33 a32 a33
1.9. OPÉRATIONS SUR LES MATRICES
21
mais grâce à la propriété 4, le deuxième et le troisième déterminant sont nuls.
Nous sommes maintenant en mesure d’énoncer le critère déjà annoncé pour
que les colonnes d’une matrice carrée soient linéairement indépendantes.
Propriété 39 Les colonnes d’une matrice carrée A sont linéairement indépendantes
si et seulement si det(A) 6= 0.
A nouveau, une démonstration de cette propriété sera donnée quand on disposera de la notion de produit matriciel.
1.9
Opérations sur les matrices
Nous allons à présent introduire quelques opérations sur les matrices qui nous
permettrons d’utiliser la notation matricielle pour représenter un système d’équations
linéaires. Nous écrivons Rm×n pour l’ensemble des matrices à m lignes et n
colonnes; donc une matrice A de Rm×n est une matrice du type


a11
a12 . . . a1n
 a21
a22 . . . a2n 


A= .
..
.. 
..
 ..
.
.
. 
am1 am2 . . . amn
que nous écrivons aussi
A = (aij )
i=1,...,m
j=1,...,n
,
où aij est l’élément qui se trouve au croisement de la i-ème ligne et de la j-ème
colonne. En particulier, nous identifions les matrices à une ligne et n colonnes
et les matrices à n lignes et une colonne avec les vecteurs à n composantes
R1×n = Rn = Rn×1 .
La somme A + B de deux matrices A, B ∈ Rm×n et le produit λ · A de λ ∈ R
par A ∈ Rm×n donnent deux nouvelles matrices de Rm×n définies “composantes
par composantes” comme suit :

 

a11
a12
. . . a1n
b11
b12
. . . b1n
 a21

a22
. . . a2n 
b22
. . . b2n 

  b21

+
 ..


=
..
.
.
.
.
..
..
..
 .
  ..

. ..
. ..
.
am1
am2



=

...
amn
bm1
bm2
...
bmn
a11 + b11
a21 + b21
..
.
a12 + b12
a22 + b22
..
.
...
...
..
.
a1n + b1n
a2n + b2n
..
.
am1 + bm1
am2 + bm2
...
amn + bmn





22
CHAPTER 1. SYSTÈMES LINÉAIRES



λ·

a11
a21
..
.
a12
a22
..
.
...
...
..
.
a1n
a2n
..
.
am1
am2
...
amn


 
 
=
 
λa11
λa21
..
.
λa12
λa22
..
.
...
...
..
.
λa1n
λa2n
..
.
λam1
λam2
...
λamn



.

Ces deux opérations satisfont aux mêmes propriétés, décrites dans la Section 3,
que la somme de deux vecteurs et le produit d’un nombre réel par un vecteur.
Définition 40 Soit
A = (aij )
i=1,...,m
j=1,...,n
∈ Rm×n
B = (bjk )
j=1,...,n
k=1,...,p
∈ Rn×p
(Attention : il s’agit de deux matrices telles que le nombre de colonnes de la
première est égal au nombre de lignes de la deuxième; dans ce cas on dit que
les matrices sont composables). On définit alors le produit A · B des matrices
composables A et B comme la matrice de Rm×p
A · B = (cik )
où cik =
Pn
j=1
i=1,...,m
k=1,...,p
,
aij bjk .
Exemple 41 Illustrons cette définition par trois exemples :




a11 a12 a13
b11 b12
1. A =  a21 a22 a23  ∈ R3×3 , B =  b21 b22  ∈ R3×2 ,
a31 a32 a33
b31 b32

a11 b11 + a12 b21 + a13 b31 a11 b12 + a12 b22 + a13 b32
A · B =  a21 b11 + a22 b21 + a23 b31 a21 b12 + a22 b22 + a23 b32  ∈ R3×2 .
a31 b11 + a32 b21 + a33 b31 a31 b12 + a32 b22 + a33 b32
2. Produit d’une matrice par un vecteur :




a11
a12
. . . a1n
x1
 a21


a22
. . . a2n 
 ∈ Rm×n , ~x =  x2  ∈ Rn ,
A=
 ...
 ... 
... 
am1 am2 . . . amn
xn


a11 x1 + a12 x2 + . . . + a1n xn
 a21 x1 + a22 x2 + . . . + a2n xn 
 ∈ Rm .
A · ~x = 


...
am1 x1 + am2 x2 + . . . + amn xn
3. Produit scalaire de deux vecteurs :

~a = (a1 , a2 , . . . , an ) ∈ Rn ,

b1


~b =  b2  ∈ Rn ,
 ... 
bn
~a · ~b = a1 b1 + a2 b2 + . . . + an bn ∈ R.
1.9. OPÉRATIONS SUR LES MATRICES
23
Voici quelques propriétés vérifiées par le produit matriciel.
Propriété 42
1. Soit A ∈ Rm×n , alors Im · A = A = A · In .
2. Si A, B et C sont trois matrices composables, alors
A · (B · C) = (A · B) · C.
3. Soient A ∈ Rm×n , B et C ∈ Rn×p , D ∈ Rp×q , λ et µ ∈ R. On a alors
A·(λ·B +µ·C) = λ·A·B +µ·A·C et (λ·B +µ·C)·D = λ·B ·D +µ·C ·D.
Il convient de noter explicitement que le produit matriciel n’est pas commutatif : en général A · B 6= B · A. Pour s’en convaincre, il suffit de calculer
1 0
0 1
0 1
1 0
·
et
·
.
0 0
0 0
0 0
0 0
Une propriété fondamentale est la liaison entre le calcul du déterminant et
le produit matriciel.
Propriété 43 Soient A, B ∈ Rn×n . On a alors
det(A · B) = det(A) · det(B).
A nouveau, il convient de noter explicitement qu’on n’a pas une propriété
semblable pour la somme de deux matrices. Il existe des cas où det(A + B) 6=
det(A) + det(B). Prenez par exemple
1 0
0 0
A=
et B =
.
0 0
0 1
Revenons à un système d’équations linéaires

a11 x1 + a12 x2 + . . . + a1n xn = b1



a21 x1 + a22 x2 + . . . + a2n xn = b2
S:
...



am1 x1 + am2 x2 + . . . + amn xn = bm
et soient



A=

a11
a21
..
.
am1



~x = 

x1
x2
..
.
xn

a12
a22
..
.
...
...
..
.
a1n
a2n
..
.
am2
...
amn




 ∈ Rn ,


~b = 




 ∈ Rm×n ,

b1
b2
..
.
bm



 ∈ Rm ,

24
CHAPTER 1. SYSTÈMES LINÉAIRES
respectivement la matrice des coefficients de S, le vecteur des inconnues et le
vecteur des termes indépendants. En regardant le deuxième exemple de produit matriciel, on voit que l’égalité composante par composante entre les deux
vecteurs A · ~x et ~b revient exactement au système S. Donc
A · ~x = ~b
est l’expression matricielle du système S.
Définition 44 Une matrice A ∈ Rn×n est inversible s’il existe une matrice
B ∈ Rn×n telle que A · B = In = B · A.
Remarque 45
1. Une fois la matrice carrée A fixée, s’il existe B telle que A·B = In = B ·A,
cette matrice est unique. En effet s’il existe une autre matrice B 0 telle que
A · B 0 = In = B 0 · A, alors on a aussi B = B · In = B · A · B 0 = In · B 0 = B 0 .
On appelle la matrice B la matrice inverse de la matrice A et on note
B = A−1 .
2. On peut montrer que chacune des équations A · A−1 = In et A−1 · A = In
implique l’autre.
Nous pouvons maintenant compléter l’énoncé de la Propriété 39.
Propriété 46 Soit A ∈ Rn×n . Les conditions suivantes sont équivalentes.
1. Pour tout vecteur ~b de Rn , le système A ·~x = ~b admet une solution unique.
2. Les colonnes de A sont linéairement indépendantes,
3. det(A) 6= 0,
4. A est inversible.
Démonstration :
4. ⇒ 3. Si A · A−1 = In alors 1 = det(In ) = det(A ·
−1
A ) = det(A) · det(A−1 ) et donc det(A) 6= 0.
3. ⇒ 2. Par l’absurde : si les colonnes de A sont linéairment dépendantes, alors
par la Propriété 39 le déterminant de A est nul.
2. ⇒ 1. Si les colonnes de A sont linéairement indépendantes, le système A · ~x =
~b admet une solution unique. Montrons d’abord l’existence de la solution :
l’espace engendré par les colonnes de A a dimension n, il s’agit donc de Rn
lui-même et, par conséquent, ~b ∈ h~a∗1 , . . . , ~a∗n i ; on peut alors appliquer la
Propriété 31 qui donne l’existence d’une solution. Par le Théorème 32, cette
solution est unique.
1. ⇒ 4. On peut construire la matrice A−1 de la façon suivante : la première
colonne de A−1 est l’unique solution du système


1
 0 


A · ~x =  .  ,
 .. 
0
1.9. OPÉRATIONS SUR LES MATRICES
25
la deuxième colonne de A−1 est l’unique solution du système


0
 1 


A · ~x =  . 
 .. 
0
et ainsi de suite. On vérifie alors A · A−1 = In car on voit facilement que la
j-ème colonne de A · A−1 est le produit de A par la j-ème colonne de A−1 . Exemple 47 A titre d’exercice, montrons directement que si la matrice A est
inversible, alors, pour tout ~b ∈ Rn , le système A · ~x = ~b admet une solution
unique.
Unicité de la solution : si A · ~x = ~b = A · ~y , alors ~x = I · ~x = A−1 · A · ~x =
A−1 · A · ~y = I · ~y = ~y .
Existence de la solution : la solution cherchée est ~x = A−1 · ~b. En effet : A · ~x =
A · A−1 · ~b = I · ~b = ~b.
Remarque 48 D’après la Propriété 46, si le déterminant d’une matrice A est
non nul, la matrice est inversible. Une façon de construire la matrice A−1 est
expliquée dans la preuve de la propriété. Voici une autre construction de la
matrice inverse : on pose
A = ((−1)i+j αij )
i=1,...,n
j=1,...,n
,
où αij est le déterminant de la matrice obtenue à partir de A en supprimant la
1
· A satisfait
i-ème colonne et la j-ème ligne. On peut vérifier que A−1 =
det(A)
−1
−1
la condition A · A = In = A · A.
Les matrices inversibles permettent aussi de transformer un système en un
système équivalent :
Propriété 49 Considérons un système
S : A · ~x = ~b
avec A ∈ Rm×n , et soit C ∈ Rm×m une matrice inversible. Le système
S 0 : C · A · ~x = C · ~b
est équivalent au système S.
Démonstration : Soit C −1 la matrice inverse de C. Si le vecteur ~x vérifie
A · ~x = ~b, il vérifie aussi C · A · ~x = C · ~b. De même, si ~x vérifie C · A · ~x = C · ~b,
on en déduit C −1 · C · A · ~x = C −1 · C · ~b et donc A · ~x = ~b.
26
CHAPTER 1. SYSTÈMES LINÉAIRES
Par exemple, transformer un système A · ~x = ~b par une opération élémentaire
(voir Section 6) reviens à multiplier la matrice A par une matrice inversible
convenable.
Exemple 50 Nous pouvons terminer cette section en démontrant, comme exercice, la première partie du Théorème 32. Ecrivons le système S en forme
matricielle
A · ~x = ~b,
où A est la matrice des coefficients du système et ~b le vecteur des termes
indépendants :
Si on pose ~x = ~x0 + λ1 · ~x1 + . . . + λk · ~xk , on a
A · ~x = A · (~x0 + λ1 · ~x1 + . . . + λk · ~xk )
= A · ~x0 + λ1 · A · ~x1 + . . . + λk · A · ~xk
= ~b + ~0 + . . . + ~0 = ~b
et donc ~x = ~x0 + λ1 · ~x1 + . . . + λk · ~xk est solution de S.
Réciproquement, si ~x est solution de S, alors A·(~x −~x0 ) = A·~x −A·~x0 = ~b−~b = ~0
et donc ~x − ~x0 est solution de S0 . Mais alors ~x − ~x0 est combinaison linéaire de
~x1 , . . . , ~xk , disons ~x−~x0 = λ1 ·~x1 +. . .+λk ·~xk , et donc ~x = ~x0 +λ1 ·~x1 +. . .+λk ·~xk .
1.10
Solutions approchées
Si un système contient trop d’équations par rapport au nombre de variables,
il sera souvent impossible d’en trouver une solution. Dans ce cas, il faut se
contenter de chercher les solutions dites approchées. Voyons ce que cela signifie.
Soit
S : A · ~x = ~b
un système, avec A ∈ Rn×m , ~x ∈ Rn , ~b ∈ Rm ; si S n’a pas de solutions, c’est
que le vecteur ~b n’appartient pas à l’espace
Col(A) = h~a∗1 , . . . , ~a∗n i ⊆ Rm
engendré par les colonnes de A (voir la Propriété 31). On peut alors remplacer
le vecteur ~b par un nouveau vecteur ~b0 qui appartient à l’espace Col(A) et qui,
parmi les vecteurs de Col(A), est le plus “proche” de ~b. Le nouveau système
S 0 : A · ~x = ~b0
admet au moins une solution (car on a choisi ~b0 dans Col(A)) et ses solutions
sont les solutions approchées du système S de départ.
Pour que cela soit possible, il faut donner un sens précis à l’expression “le
plus proche”. Autrement dit, il faut expliquer ce qu’on entende pour distance
entre vecteurs. Dans la suite, on va introduire les notions de distance, norme et
1.10. SOLUTIONS APPROCHÉES
27
orthogonalité pour des vecteurs de Rn . Pour que ces notions gardent leur sens
géométrique, on peut les visualiser dans le cas particulier de R2 . Dans ce cas, un
vecteur ~x = (x1 , x2 ) peut s’interpreter tant comme le point P de coordonnées
~ joignant l’origine O = (0, 0) au
(x1 , x2 ) que comme le vecteur géométrique OP
point P = (x1 , x2 ).
Définition 51 Soient ~x = (x1 , . . . , xn ) et ~y = (y1 , . . . , yn ) deux vecteurs de Rn .
1. Le produit scalaire de ~x et ~y et le nombre réel défini par
~x · ~y = x1 y1 + . . . + xn yn
(voir Exemple 41) ;
2. La norme de ~x est le nombre réel positif ou nul défini par
q
√
k ~x k= ~x · ~x = x21 + . . . + x2n .
Le vecteur ~x est normé si k ~x k= 1.
3. La distance entre ~x et ~y est le nombre réel positif ou nul défini par
p
dist(~x, ~y ) =k ~x − ~y k= (x1 − y1 )2 + . . . + (xn − yn )2 .
4. On dit que ~x et ~y sont orthogonaux si ~x · ~y = 0. Dans ce cas, on écrit ~x⊥~y .
Remarque 52 Si ~x = (x1 , x2 ) et ~y = (y1 , y2 ) sont dans R2 , la distance entre ~x
et ~y reviens à la distance entre le point de coordonnées (x1 , x2 ) et le point de
coordonnées (y1 , y2 ) calculée en utilisant le théorème de Pythagore. La norme
de ~x est la distance entre le point de coordonnées (x1 , x2 ) et l’origine. Les deux
vecteurs ~x et ~y sont orthogonaux au sens de la définition précédente exactement
s’ils sont orthogonaux au sens géométrique usuel.
Propriété 53 Pour tout ~x, ~y , ~z ∈ Rn et pour tout α, β ∈ R on a :
1. ~x · ~y = ~y · ~x ;
2. (~x + ~y ) · ~z = ~x · ~z + ~y · ~z ;
3. α(~x · ~y ) = (α~x) · ~y ;
4. k α~x k=| α | k ~x k ;
5. k ~x + ~y k≤k ~x k + k ~y k ;
6. si ~x = ~0, alors k ~x k= 0, si ~x 6= 0, alors k ~x k> 0 ;
7. dist(~x, ~z) ≤ dist(~x, ~y ) + dist(~y , ~z) ;
8. si ~x = ~y , alors dist(~x, ~y ) = 0, si ~x 6= ~y , alors dist(~x, ~y ) > 0.
28
CHAPTER 1. SYSTÈMES LINÉAIRES
Maintenant que nous avons défini la distance entre deux vecteurs, nous pouvons essayer de déterminer, pour un vecteur ~x de Rn donné et pour un sousespace vectoriel V de Rn donné, le vecteur de V le plus proche de ~x.
Définition 54 Soit ~x ∈ Rn et soit V un sous-espace vectoriel de Rn .
1. L’espace orthogonal V ⊥ est l’ensemble des vecteurs ~y ∈ Rn tels que ~y ⊥~v
pour tout ~v ∈ Rn .
2. La projection orthogonale de ~x sur V est l’unique vecteur P (~x) de V tel
que ~x − P (~x) est dans V ⊥ .
Remarque 55
1. Il est facile de voir que V ⊥ est lui aussi un sous-espace vectoriel de Rn et
que V ∩ V ⊥ = {~0 }.
2. L’existence du vecteur P (~x), projection orthogonale de ~x sur V, sera
montrée plus loin. Voyons ici son unicité : soit ~y , ~z ∈ V tels que ~x −
~y , ~x − ~z ∈ V ⊥ . On a alors ~y − ~z = ~y − ~x + ~x − ~z ∈ V ∩ V ⊥ . Par le point 1,
~y − ~z = ~0, et donc ~y = ~z.
La prochaine propriété montre bien que, parmi tous les vecteurs de V, P (~x)
est le plus proche de ~x.
Propriété 56 Soit V un sous-espace vectoriel de Rn , ~x un vecteur de Rn , et
P (~x) sa projection orthogonale sur V. Pour tout ~v ∈ V, ~v =
6 P (~x), on a
dist(~x, P (~x)) < dist(~x, ~v ) .
Démonstration :
Rappelons-nous que
p
dist(~x, ~v ) = k ~x − ~v k = (~x − ~v ) · (~x − ~v ).
On a :
k ~x − ~v k2 = (~x − ~v ) · (~x − ~v ) =
= (~x − P (~x) + P (~x) − ~v ) · (~x − P (~x) + P (~x) − ~v ) =
= (~x − P (~x)) · (~x − P (~x)) + 2(~x − P (~x)) · (P (~x) − ~v ) + (P (~x) − ~v ) · (P (~x) − ~v ) =
= (~x − P (~x)) · (~x − P (~x)) + (P (~x) − ~v ) · (P (~x) − ~v ) > (~x − P (~x)) · (~x − P (~x)) =
= k ~x − P (~x) k2
où on a utilisé que (~x −P (~x))·(P (~x)−~v ) = 0 (car ~x −P (~x) ∈ V ⊥ et P (~x)−~v ∈ V )
et que (P (~x) − ~) · (P (~x) − ~v ) > 0 (car P (~x) 6= ~v ).
Il reste à montrer que le vecteur P (~x) existe.
Définition 57 Soit V un sous-espace vectoriel de Rn . Une base ~e1 , . . . , ~ek de
V est dite orthonormée si
1. les vecteurs ~e1 , . . . , ~ek sont deux à deux orthogonaux, et si
1.10. SOLUTIONS APPROCHÉES
29
2. chacun des vecteurs ~e1 , . . . , ~ek est normé.
Exemple 58 La base canonique de Rn est orthonormée.
Remarque 59 Il est utile de savoir qu’une famille de vecteurs non nuls et deux
à deux orthogonaux est toujours une famille libre.
Remarque 60 Dans la pratique, si on veut montrer que certains vecteurs forment une base orthonormée, il est utile de savoir qu’une famille de vecteurs non
nuls et deux à deux orthogonaux est toujours une famille libre.
Propriété 61 Soit V un sous-espace vectoriel de Rn et soit ~e1 , . . . , ~ek une base
orthonormée de V ; soit ~x un vecteur de Rn . La projection orthogonale P (~x) de
~x sur V est donnée par
P (~x) = (~x · ~e1 )~e1 + . . . + (~x · ~ek )~ek .
Démonstration : Il est clair que P (~x) ∈ V car il est combinaison linéaire de
~e1 , . . . , ~ek . Il faut montrer que ~x − P (~x) ∈ V ⊥ et, pour cela, il suffit de montrer
que ~x −P (~x) est orthogonale à chaque vecteur de la base. Montrons par exemple
que (~x − P (~x)) · ~e1 = 0 :
(~x − P (~x)) · ~e1 = (~x − (~x · ~e1 )~e1 + (~x · ~e2 )~e2 + . . . + (~x · ~ek )~ek ) · ~e1 =
= ~x ·~e1 − (~x ·~e1 )(~e1 ·~e1 ) + (~x ·~e2 )(~e2 ·~e1 ) + . . . + (~x ·~ek )(~ek ·~e1 ) = ~x ·~e1 − ~x ·~e1 = 0
car ~e1 · ~e1 = 1 et ~ej · ~e1 = 0 pour tout j 6= 1.
Pour pouvoir calculer effectivement la projection orthogonale P (~x) de ~x
sur V, il reste à voir comment on peut construire une base orthonormée de
V. Voici une méthode pour obtenir une base orhtonormée ~e1 , . . . , ~ek à partir
d’une base quelconque ~v1 , . . . , ~vk . On appelle cette construction la méthode
d’orthogonalisation de Gram-Schmidt.
On pose :
~v1
~e1 =
k ~v1 k
~e2 =
~v2 − (~v2 · ~e1 )~e1
k ~v2 − (~v2 · ~e1 )~e1 k
~v3 − (~v3 · ~e2 )~e2 − (~v3 · ~e1 )~e1
k ~v3 − (~v3 · ~e2 )~e2 − (~v3 · ~e1 )~e1 k
......
Pk−1
~vk − 1 (~vk · ~ei )~ei
~ek =
Pk−1
k ~vk − 1 (~vk · ~ei )~ei k
~e3 =
C’est-à-dire :
- on norme ~v1 ;
- on retire de ~v2 sa projection orthogonale sur l’espace h~e1 i, et on norme ;
- on retire de ~v3 sa projection orthogonale sur l’espace h~e1 , ~e2 i, et on norme ;
- et ainsi de suite jusqu’à ~ek .
30
CHAPTER 1. SYSTÈMES LINÉAIRES
Exemple 62 On considère le système S : A · ~x = ~b, avec


 
1 1
1
A =  1 2  , ~b =  2 
1 3
1
Pour déterminer les solutions approchées du système S, on peut procéder de la
façon suivante :
1. Le système S n’a pas de solutions
exemple calculer le déterminant de

1
 1
1
exactes. Pour voir cela, on peut par
la matrice

1 1
2 2 
3 1
Puisque ce déterminant est différent de 0, les trois colonnes sont linéairement
indépendantes, et donc ~b ∈
/ C(A).
2. Comme les colonnes de A sont linéairement indépendantes, une base de
C(A) est donne par ~v1 = (1, 1, 1), ~v2 = (1, 2, 3).
3. Pour trouver une base orthonormée de C(A), on applique la méthode de
Gram-Schmidt et on a :
~e1 =
~e2 =
1
1
1
~v1
= (√ , √ , √ )
k ~v1 k
3
3
3
1
1
~v2 − (~v2 · ~e1 )~e1
= (− √ , 0, √ )
k ~v2 − (~v2 · ~e1 )~e1 k
2
2
4. La projection orthogonale de ~b sur l’espace colonne C(A) est le vecteur
~b0 = (~b · ~e1 )~e1 + (~b · ~e2 )~e2 = ( 4 , 4 , 4 ).
3 3 3
5. Le nouveau système S 0 : A·~x = ~b0 admet comme unique solution le vecteur
( 43 , 0), qui est donc l’unique solution approchée du système S.
Remarque 63 Pour déterminer les solutions approchées d’un système
S : A · ~x = ~b
on peut éviter de calculer explicitement le vecteur ~b0 , projection orthogonale de
~b sur C(A), et on peut même éviter de calculer une base orthonormée de C(A)
(ce qui est parfois assez long à faire). En effet, un vecteur ~x = (x1 , . . . , xn ) est
solution approchée du système S si A · ~x = ~b0 , c’est-à-dire si
- A · ~x ∈ C(A)
- ~b − A · ~x ∈ C(A)⊥
1.11. DIAGONALISATION
31
La première condition est toujours vérifiée car A·~x = x1~a∗1 +. . .+xn~a∗n est une
combinaison linéaire de ~a∗1 , . . . , ~a∗n . En ce qui concerne la deuxième condition,
elle revient à
(~b − A · ~x)⊥~a∗1 , . . . , (~b − A · ~x)⊥~a∗n
et donc à

 x1~a∗1 · ~a∗1 + . . . + xn~a∗n · ~a∗1 = ~b · ~a∗1
...

x1~a∗1 · ~a∗n + . . . + xn~a∗n · ~a∗n = ~b · ~a∗n
Les solutions approchées du système de depart sont donc exactement les solutions de ce nouveau système.
Exemple 64 Reprenons l’exemple précédent en utilisant la deuxième méthode.
Les solutions approchées du système S : A · ~x = ~b sont les solutions de
(~b − A · ~x) · ~a∗1 = 0, (~b − A · ~x) · ~a∗2 = 0
ce qui revient à
(
x1~a∗1 · ~a∗1 + x2~a∗2 · ~a∗1 = ~b · ~a∗1
x1~a∗1 · ~a∗2 + xn~a∗2 · ~a∗2 = ~b · ~a∗2
et donc à
3x1 + 6x2 = 4
6x1 + 14x2 = 8
Ce nouveau système admet comme unique solution le vecteur ( 43 , 0), qui est
donc l’unique solution approchée du système S.
1.11
Diagonalisation
Considérons à nouveau le système, rencontré dans la première section, qui donne
l’évolution d’une population animale, et soit A ·~x = ~b son expression matricielle.
Si ~x = (p11 , p12 , . . . , p1n ) est la population initiale divisée par tranche d’age, le
vecteur ~b1 = A·~x donne la population après un an. Après deux ans, la population
est donnée par ~b2 = A · ~b1 = A · A · ~x = A2 · ~x. En général, la population après
p années est donnée par ~bp = Ap · ~x. Ce type de problèmes conduit au calcul
de la puissance d’une matrice carrée, calcul qui est en général assez ennuyeux.
Il y a néanmoins deux cas où le calcul de la puissance d’une matrice est facile.
Le premier cas est le cas d’une matrice diagonale, c.-à-d. dont les éléments en
dehors de la diagonale descendante sont nuls. En effet, soit


a11
0
...
0
 0
a22 . . .
0 


D= .
..
.. 
..
 ..
.
.
. 
0
0
...
ann
32
CHAPTER 1. SYSTÈMES LINÉAIRES
une telle matrice. On vérifie aussitôt que
 p
a11
0
p
 0
a
22

p
D = .
..
.
 .
.
0
0
...
...
..
.
0
0
..
.
...
apnn



.

Le deuxième cas est le cas d’une matrice diagonalisable.
Définition 65 Une matrice A ∈ Rn×n est diagonalisable s’il existe une matrice
diagonale D et une matrice inversible B telles que
A = B · D · B −1 .
On calcule facilement les puissances d’une matrice A diagonalisable. En
effet, on a
Ap
= B · D · B −1 · B · D · B −1 · . . . · B · D · B −1
= B · D · D · . . . · D · B −1 = B · Dp · B −1 .
Le problème que nous abordons dans cette section est celui de déterminer si
une matrice carrée A est diagonalisable et, dans l’affirmative, de construire les
matrices D et B. Pour faire cela, nous introduisons les notions de valeur propre
et vecteur propre d’une matrice carrée.
Définition 66 Soit A ∈ Rn×n . On dit que λ ∈ R est une valeur propre de A
s’il existe un vecteur ~x ∈ Rn , ~x 6= ~0 tel que A · ~x = λ · ~x. Un tel vecteur ~x
s’appelle un vecteur propre relatif la valeur propre λ.
La propriété suivante nous donne une méthode pratique pour déterminer les
valeurs propres d’une matrice.
Propriété 67 Soit A ∈ Rn×n . Le réel λ est une valeur propre de A si et
seulement si λ est racine du polynôme
Pn (λ) = det(A − λ · In ).
Démonstration : Le réel λ est valeur propre si et seulement si le système
(A − λ · In ) · ~x = ~0 admet au moins une solution ~x 6= ~0. C’est le cas si et
seulement si la matrice A − λ · In n’est pas inversible et donc si et seulement si
son déterminant est nul.
Définition 68 Le polynôme de degré n, Pn (λ) = det(A − λ · In ), est appelé le
polynôme caractéristique de la matrice A.
Si λ est valeur propre pour A, nous notons θ(λ) l’ordre de λ en tant que racine
du polynôme caractéristique de A. Soit en outre Eλ l’ensemble des solutions du
système homogène (A − λ · In ) · ~x = ~0. On appelle Eλ l’espace propre relatif
à la valeur propre λ. La propriété suivante nous permet de déterminer si une
matrice est diagonalisable.
1.11. DIAGONALISATION
33
Propriété 69 Soit une matrice A ∈ Rn×n .
1. Pour tout valeur propre λ, on a que dim(Eλ ) = n − r(A − λI) et que
1 ≤ dim(Eλ ) ≤ θ(λ).
2. A est diagonalisable si et seulement si
P
(a)
λ∈R θ(λ) = n, où la somme porte sur tous les λ qui varient dans
l’ensemble R des valeurs propres réelles de A, et
(b) pour tout λ on a dim(Eλ ) = θ(λ).
Quand A est diagonalisable, la matrice diagonale D (voir Définition 65)
a comme éléments de la diagonale descendante les valeurs propres de A. La
matrice inversible B a comme colonnes les vecteurs d’une base des différents
espaces propres Eλ .
P
Remarquons que si l’une des valeurs propres n’est pas réelle, on a λ∈R θ(λ) <
n et donc la matrice ne peut pas être diagonalisable. On peut alors rinterpréter
le théorème précédent :
Corollaire 70 Une matrice A ∈ Rn est diagonalisable si et seulement si
1. toutes les valeurs propres de A sont réelles, et
2. il existe n vecteurs propres de A linéairement indépendants.
Remarque 71 Il est utile de savoir que si λ1 , . . . , λk sont des valeurs propres deux à deux différents et si ~x1 , . . . , ~xk sont des vecteurs propres relatifs
à λ1 , . . . , λk , alors la famille ~x1 , . . . , ~xk est libre. Par conséquent, si A est diagonalisable, pour construire une base de Rn de vecteurs propres il suffit de
constuire une base de chaque espace propre Eλi .
Illustrons ces propriétés par quelques exemples.
Exemple 72 Considérons la matrice

1
A= 0
0
0
1
1

0
−2  .
−1
Son polynôme caractéristique est (1 − λ)(λ2 + 1). Cette matrice n’a qu’une seule
valeur propre réelle et n’est donc pas diagonalisable.
Exemple 73 Soit

0
A= 0
1
1
0
−3

0
1 
3
le polynôme caractéristique est (λ−1)3 , donc on a une seule valeur propre λ = 1
avec θ(1) = 3. Soit
S1 : (A − I) · ~x = ~0
34
CHAPTER 1. SYSTÈMES LINÉAIRES
le système homogène qui nous donne l’espace propre E1 = Sol(S1 ) relatif à
la valeur propre λ = 1. Par échelonnage, on trouve que le rang de S1 est 2
et donc dim(E1 ) = 3 − r(S1 ) = 3 − 2 = 1 < θ(1) = 3. Donc la matrice A
n’est pas diagonalisable car la valeur propre λ = 1 ne remplit pas la condition
dim(Eλ ) = θ(λ).
Exemple 74 Soit

2
A= 1
1
2
3
2

1
1 .
2
Le polynôme caractéristique s’écrit (λ − 1)2 (5 − λ) et donc on a deux valeurs
propres réelles, λ = 1 avec θ(1) = 2 et λ = 5 avec θ(5) = 1. Soit S1 le
système homogène qui nous donne l’espace propre E1 = Sol(S1 ) relatif à la
valeur propre λ = 1. Par échelonnage, on trouve que le rang de S1 est 1 et
donc dim(E1 ) = 3 − r(S1 ) = 3 − 1 = 2 = θ(1). La dimension de l’espace propre
E5 est forcément égal à 1 qui est l’ordre de 5 en tant que racine du polynôme
caractéristique. Donc la matrice A est diagonalisable. Une matrice diagonale
D possible est donne par


5 0 0
D= 0 1 0 
0 0 1
et un choix possible pour la matrice inversible B est


1
1
2
0
−1 
B= 1
1 −1
0
car le vecteur (1, 1, 1) est une base de E5 et les vecteurs (1, 0, −1), (2, −1, 0)
forment une base de E1 .
Exemple 75 Pour terminer, revenons au problème de l’évolution d’une population animale. Considérons à nouveau le système qui donne l’évolution de la
population animale et soit A · ~x = ~b son expression matricielle. Le vecteur ~b1
est donc la population après un an et après p années la population est donnée
par ~bp = Ap · ~x. Si A est diagonalisable et si les valeurs propres sont toutes
inférieures à 1 en valeur absolue, les éléments de Dp , donc aussi de Ap , tendent
vers zéro, et la population est appelée à s’éteindre. Si 1 est valeur propre et
si la répartition initiale est donnée par un vecteur propre ~x0 relatif à la valeur
propre 1, la population sera stable, car Ap · ~x0 = ~x0 Concrètement, supposons
que, pour une population de scarabées vivant au maximum trois ans, on ait


0 1 3
A =  21 0 0  .
0 13 0
1.11. DIAGONALISATION
35
Le polynôme caractéristique s’écrit −λ3 + λ2 + 12 . On vérifie que 1 est une valeur
propre et (6, 3, 1) est un vecteur propre relatif à 1. Donc une population de
scarabées comprenant 60 % d’individus d’un an, 30% d’individus de deux ans
et 10% d’individus de trois ans sera stable.
36
CHAPTER 1. SYSTÈMES LINÉAIRES
Chapter 2
Nombres complexes
2.1
Origine des nombres complexes
L’utilité de pouvoir manipuler des racines carrées de nombres négatifs est apparue au 16ème siècle dans des calculs intermédiaires lors de l’application de
formules permettant de trouver une solution réelle d’une équation du 3me degré
à coefficients réels.
Les mathématiciens se sont alors attachés à définir l’ensemble C des nombres
complexes de sorte que
1. C contienne l’ensemble R des nombres réels,
2. C comporte un élément i tel que i2 = −1,
3. on puisse définir sur C une addition et une multiplication qui prolongent
l’addition et la multiplication des réels et qui possèdent de bonnes propriétés (voir 3).
2.2
Définition de (C, +, ·)
On définit C comme étant R2 , l’ensemble des couples de nombres réels, et pour
tout (a, b), (c, d) ∈ R2 , on définit
(a, b) + (c, d) = (a + c, b + d),
(a, b) · (c, d) = (ac − bd, ad + bc).
On dit que a est la partie réelle de (a, b) et que b est la partie imaginaire de
(a, b).
R est une partie de C : Formellement, on ne peut pas dire que R est une partie
de C car R n’est pas inclus dans C. Cependant, si l’on convient d’identifier tout
réel a avec (a, 0) ∈ C (ce que l’on notera a ≡ (a, 0)) alors on peut considèrer
37
38
CHAPTER 2. NOMBRES COMPLEXES
que R est inclus dans C. De plus, en appliquant simplement la définition de
l’addition dans C, on voit que, pour tout a, c ∈ R,
a + c ≡ (a, 0) + (c, 0) = (a + c, 0) ≡ a + c.
Autrement dit, lorsque l’on calcule la somme a + c dans C, en considérant les
nombres a et c comme tant des nombres complexes, on obtient le même résultat
qu’en calculant la somme a + c dans R. On dit que l’addition des complexes
prolonge l’addition des réels.
De la même manière, la multiplication des complexes prolonge la multiplication des réels : pour tout a, c ∈ R,
a · c ≡ (a, 0) · (c, 0) = (ac − 0 · 0, a · 0 + 0 · c) = (ac, 0) ≡ a · c.
C contient un nombre i tel que i2 = −1 : Posons i = (0, 1). Alors, en
appliquant la définition de la multiplication, on voit que
i2 = (0, 1) · (0, 1) = (−1, 0) ≡ −1.
Soient a, b ∈ R, alors, en appliquant les définitions de l’addition et de la multiplication, on voit que
a + bi ≡ (a, 0) + (b, 0) · (0, 1) = (a, 0) + (0, b) = (a, b).
Notations. Dorénavant, nous utiliserons la notation a + bi pour désigner le
nombre complexe (a, b). Par exemple, on écrira 5 au lieu de 5 + 0i ou 4i au
lieu de 0 + 4i. On écrira aussi (a + bi) + (c + di) au lieu de (a, b) + (c, d) et
(a + bi) · (c + di) au lieu de (a, b) · (c, d). Souvent on écrira (a + bi)(c + di) au
lieu de (a + bi) · (c + di).
2.3
Propriétés de l’addition et de la multiplication
L’addition et la multiplication munissent C d’une structure de corps commutatif.
Cela signifie que les propriétés suivantes sont satisfaites.
• Associativité. Pour tout z1 , z2 , z3 ∈ C
z1 + (z2 + z3 ) = (z1 + z2 ) + z3 ,
z1 · (z2 · z3 ) = (z1 · z2 ) · z3 .
Lorsque l’on écrit par exemple z1 + z2 + z3 , la notation est a priori ambigu car
on ne sait pas si elle signifie z1 + (z2 + z3 ) ou (z1 + z2 ) + z3 . Mais l’addition
tant associative, cette ambiguté n’a pas d’importance car, dans les deux cas, le
résultat est le même.
2.3. PROPRIÉTÉS DE L’ADDITION ET DE LA MULTIPLICATION
39
• Commutativité. Pour tout z1 , z2 ∈ C
z1 + z2 = z2 + z1 ,
z1 · z2 = z2 · z1 .
• Distributivité. Pour tout z1 , z2 , z3 ∈ C
z1 · (z2 + z3 ) = (z1 · z2 ) + (z1 · z3 ),
(z1 + z2 ) · z3 = (z1 · z3 ) + (z2 · z3 ).
En appliquant les propriétés d’associativité, de commutativité et de distributivité, on voit que l’on peut facilement retrouver a posteriori la définition de la
multiplication :
(a + bi)(c + di)
= a(c + di) + bi(c + di) = ac + adi + bci + bdi2
= ac + adi + bci − bd = (ac − bd) + (ad + bc)i.
• Existence d’un neutre pour l’addition et d’un neutre pour la multiplication.
Pour tout z ∈ C,
z + 0 = 0 + z = z,
z · 1 = 1 · z = z.
• Existence d’opposés pour l’addition et d’inverses pour la multiplication.
Pour tout a + bi ∈ C,
(a + bi) + ((−a) + (−b)i) = 0.
Chaque nombre complexe a+bi a donc un opposé −(a+bi) pour l’addition:
−(a + bi) = (−a) + (−b)i. On le note aussi −a − bi. De même, on vérifie
que pour tout a + bi ∈ C non nul,
(a + bi) ·
b
a
−
i
= 1.
a2 + b2
a2 + b2
Tout nombre complexe a + bi, non nul, a donc un inverse pour la multiplication
1
a
b
= 2
− 2
i.
a + bi
a + b2
a + b2
En remarquant que (a + bi)(a − bi) = a2 − (bi)2 = a2 − b2 i2 = a2 + b2 , on peut
facilement mémoriser la formule donnant l’inverse d’un nombre complexe :
1
1 a − bi
a − bi
a
b
=
= 2
= 2
− 2
i.
a + bi
a + bi a − bi
a + b2
a + b2
a + b2
En particulier, on peut remarquer que 1/i = −i.
40
2.4
CHAPTER 2. NOMBRES COMPLEXES
Conjugués et modules
On définit le conjugué d’un nombre complexe a + bi comme étant le nombre
a − bi, ce que l’on note a + bi = a − bi. Par exemple, 5 + 4i = 5 − 4i, 5 = 5,
4i = −4i.
Propriété 76 Pour tout z1 , z2 ∈ C,
z1 + z2 = z 1 + z 2 ,
z1 · z2 = z 1 · z 2 .
Démonstration : Soit z1 , z2 ∈ C. Posons z1 = a1 + b1 i et z2 = a2 + b2 i et
montrons que z1 · z2 = z 1 · z 2 . On calcule
z1 · z2 = (a1 + b1 i) · (a2 + b2 i) = (a1 a2 − b1 b2 ) + (a1 b2 + b1 a2 )i =
= (a1 a2 − b1 b2 ) − (a1 b2 + b1 a2 )i = (a1 − b1 i) · (a2 − b2 i) = (a1 + b1 i) · (a2 + b2 i) .
On montre de la même manière que z1 + z2 = z 1 + z 2 .
Remarque 77 Pour tout z ∈ C, z + z ∈ R. En effet, si z = a + bi, alors
z + z = (a + bi) + (a − bi) = 2a ∈ R.
le nombre
√ On définit le module d’un nombre√complexe a + bi comme étant
a2 + b2 , ce que l’on note |a + bi| = a2 + b2 . Remarquons que a2 + b2 est un
nombre réel positif ; il y a donc bien un sens à en prendre la racine carrée. Par
exemple, on a
√
√
|5 + 4i| = 52 + 42 = 41,
p
| − 5| = | − 5 + 0i| = (−5)2 + 02 = 5,
√
|i| = |0 + 1i| = 02 + 12 = 1,
√
|1| = |1 + 0i| = 12 + 02 = 1.
Il est immédiat de remarquer que pour tout z ∈ C, |z| =
√
z · z.
Propriété 78 Pour tout z1 , z2 ∈ C, on a |z1 z2 | = |z1 | |z2 |.
Démonstration :
On peut écrire z1 z2 · z1 z2 = z1 z1 z2 z2 et on en déduit
|z1 z2 | =
√
z 1 z2 · z1 z2 =
√
z1 z1 z2 z2 = |z1 | |z2 |.
2.5. INTERPRÉTATION GÉOMÉTRIQUE
2.5
41
Interprétation géométrique
Formellement, on a défini C comme étant R2 . Il est donc naturel de représenter
C dans le plan muni d’un système de coordonnées : le nombre complexe a + bi
sera représenté par le point de coordonnées (a, b). En particulier, le nombre
1 = 1 + 0i sera représenté par le point (1, 0), le nombre i par le point (0, 1), le
nombre −1 par le point (−1, 0) et le nombre −i par le point (0, −1). De plus,
on remarque aussi que le point qui représente le conjugué z d’un nombre z est le
symétrique du point qui représente le nombre z par rapport l’axe des abscisses.
Représentation de la somme : Considérons deux nombres complexes a + bi
et c + di. Ils se représentent respectivement par les points de coordonnées (a, b)
et (c, d). Comme (a + bi) + (c + di) = (a + c) + (b + d)i, la somme des deux
nombres se représentera donc par le point de coordonnées (a + c, b + d). Ce
dernier point peut se construire géométriquement à partir des points (a, b) et
(c, d) par la règle du parallélogramme.
Représentation du produit : L’angle arg z entre le demi-axe positif des
abscisses et le segment joignant l’origine et le point z est appelé l’argument de
z. Nous conviendrons que 0 ≤ arg z < 2π√et que si z = 0, alors arg z = 0.
Par le théorème de Pythagore, |z| = a2 + b2 est la distance de l’origine au
point qui représente z. Donc, a = |z| cos(arg z) et b = |z| sin(arg z). En d’autres
mots, si z 6= 0,
a
b
cos(arg z) =
et sin(arg z) =
.
|z|
|z|
Et comme z = a + bi, on a aussi
z = |z|(cos(arg z) + i sin(arg z)).
Par exemple, arg (1) = 0, arg (i) = π/2, arg (−1) = π, arg (−i) = 3π/2.
Nous pouvons maintenant plus facilement trouver une interprétation géométrique
du produit de deux nombres complexes. En effet, considérons z1 , z2 ∈ C. Nous
pouvons noter z1 et z2 sous la forme :
z1 = |z1 |(cos θ1 + i sin θ1 )
et
z2 = |z2 |(cos θ2 + i sin θ2 ),
où θ1 = arg z1 et θ2 = arg z2 . Ainsi, on a par application de formules de
trigonométrie
z1 · z2 = (|z1 |(cos θ1 + i sin θ1 )) · (|z2 |(cos θ2 + i sin θ2 )) =
= |z1 | |z2 |((cos θ1 cos θ2 − sin θ1 sin θ2 ) + i(cos θ1 sin θ2 + sin θ1 cos θ2 )) =
= |z1 | |z2 |(cos(θ1 + θ2 ) + i sin(θ1 + θ2 )).
Par conséquent, l’argument de z1 · z2 est θ1 + θ2 et son module est |z1 · z2 | =
|z1 | |z2 | (ce que nous savions déjà par ailleurs).
42
CHAPTER 2. NOMBRES COMPLEXES
2.6
Puissances et racines
Calcul de puissances : Si z = |z|(cos θ + i sin θ), on déduit des calculs du
paragraphe précédent que
z 2 = z · z = |z| |z| (cos(θ + θ) + i sin(θ + θ)) = |z|2 (cos(2θ) + i sin(2θ)).
Ceci se généralise de proche en proche en:
z n = |z|n (cos(nθ) + i sin(nθ)).
En particulier, si |z| = 1, on obtient la formule de De Moivre :
(cos θ + i sin θ)n = cos(nθ) + i sin(nθ).
Résolution de l’équation z 3 = 1 : On veut trouver tous les nombres z tels
que z 3 = 1.
• Dans R, la seule solution est z = 1.
• Dans C, deux solutions suppélémentaires vont apparaı̂tre.
En effet, z peut s’écrire z = |z|(cos θ + i sin θ), où θ = arg (z). Si l’on veut que
z 3 = 1, il faut que |z 3 | = |1|, c’est-à-dire que |z|3 = 1. Comme |z| ∈ R, il s’ensuit
que |z| = 1. D’autre part, z 3 = |z|3 (cos 3θ + i sin 3θ) et 1 = 1(cos 0 + i sin 0).
Donc, si l’on veut que z 3 = 1, on en tire que cos 3θ = cos 0 et sin 3θ = sin 0. On
peut bien entendu en conclure qu’une solution possible est 3θ = 0, c’est-à-dire
que θ = 0. Mais ce n’est pas la seule possibilité car
cos 0 = cos 2π = cos 4π = . . . et sin 0 = sin 2π = sin 4π = . . .
Bref, on a les solutions
3θ = 0 ou 3θ = 2π ou 3θ = 4π ou . . .
c’est–dire que
θ = 0 ou θ = 2π/3 ou 3θ = 4π/3 ou . . .
Le cas où θ = 2π correspond au même nombre complexe que le cas où θ = 0.
On retombe donc sur une solution que l’on avait déjà, et il en va de même des
autres θ que l’on pourrait trouver en continuant au delà des “ . . . ”. Il y a
donc finalement trois nombres complexes z0 , z1 , z2 qui sont solutions de z 3 = 1 :
z0 = 1(cos 0 + i sin 0) = 1,
z2 = 1(cos 32 2π + i sin 23 2π) = − 21 −
√
3
2 ,
√
i 23 .
z1 = 1(cos 31 2π + i sin 13 2π) = − 12 + i
2.7. DIVISION EUCLIDIENNE DES POLYNÔMES
43
Dans le plan, ces trois solutions se représentent sur un triangle quilatéral, et
l’on peut remarquer que z2 = z 1 .
En général, on montre en suivant la même démarche que si r est un nombre
complexe non nul et si n 6= 0, l’équation z n = r admet n solutions : les nombres
z0 , . . . , zn−1 , où
zk =
arg r
arg r
p
k k n
+ 2π + i sin
+ 2π ,
|r| cos
n
n
n
n
pour chaque k ∈ {0, ..., n − 1}.
Equations du second degré : Dans C, une équation de la forme
az 2 + bz + c = 0,
où a, b, c ∈ C a toujours une ou deux solutions donnes par la formule suivante :
z=
−b ± r
,
2a
où r est une racine carrée de b2 − 4ac (il y aura une solution unique si r = 0 et
deux solutions si r 6= 0).
Prenons par exemple l’équation z 2 + z + 1 = 0, que l’on peut considèrer
comme une équation à coefficients
complexes. On a : a = b = c = 1. Donc
√
b2 −
√ 4ac = −3. Comme i 3 est une racine carre de −3 (on aurait pu prendre
−i 3), les deux solutions de l’équation sont
√
√
−1 + i 3
−1 − i 3
et
.
2
2
Dans R, l’équation z 2 + z + 1 = 0 n’a pas de solution.
2.7
Division euclidienne des polynômes
Définissons R[X] (resp. C[X]) comme étant l’ensemble des polynômes à coefficients dans R (resp. dans C).
Quotient et reste : Si P1 et P2 sont des polynômes, on peut diviser P1 par
P2 . Mais, en général, la division “ne tombe pas juste”, c’est-à-dire qu’il y a un
reste, comme pour la division d’un nombre naturel par un autre (par exemple,
23 = 3 · 7 + 2, donc 23 divisé par 3 égale 7 avec un reste égal à 2).
Pour les polynômes, le résultat précis est le suivant.
Propriété 79 Si K = R ou K = C et P1 , P2 ∈ K[X] avec P2 6= 0, alors il
existe un unique Q ∈ K[X] et un unique R ∈ K[X] tels que
P1 = P2 · Q + R
et
deg R < deg P2 .
44
CHAPTER 2. NOMBRES COMPLEXES
Le polynôme Q est appel le quotient et R le reste. Lorsque le reste R est nul,
on dit que P2 divise P1 .
Disposition pratique des calculs : Voyons sur un exemple comment effectuer
les calculs. Supposons pour cela que
P1 = 3X 4 + 5X 3 + 2X 2 + X + 9
et
P2 = X 2 + 1.
Nous cherchons Q et R tels que P1 = P2 · Q + R, où deg R < deg P2 = 2. Nous
voulons que P1 − P2 · Q soit de degré < 2. Il faut donc que P2 · Q soit de la
forme 3X 4 + . . . de sorte que, P1 − P2 · Q ne comporte plus de terme de degré 4.
Comme P2 = X 2 + 1, il faut que Q soit de la forme 3X 2 + . . ., pour que P2 · Q
soit de la forme 3X 4 + . . ., c’est-à-dire X 2 · 3X 2 + . . . On a alors
P2 · 3X 2
P1 − P2 · 3X 2
= (X 2 + 1) · 3X 2 = 3X 4 + 3X 2 ,
= (3X 4 + 5X 3 + 2X 2 + X + 9) − (X 2 + 1)3X 2
= 5X 3 − X 2 + X + 9.
Nous écrivons ceci de la manière suivante, comme lorsque l’on divise des nombres
naturels :
3X 4 +5X 3 +2X 2 +X +9 X 2 + 1
−3X 4
−3X 2
3X 2
3
2
+5X
−X
+X +9
Le degré de 5X 3 − X 2 + X + 9 est encore supérieur au degré de P2 . Nous devons
donc continuer à diviser par P2 . Plus précisement, nous voulons maintenant
éliminer le terme de degré 3, qui est 5X 3 . Pour cela, on multiplie X 2 +1 par 5X,
ce qui donne : (X 2 + 1)5X = 5X 3 + 5X. Et (5X 3 − X 2 + X + 9) − (X 2 + 1)5X =
−X 2 − 4X + 9. Nous arrivons donc ainsi
3X 4
−3X 4
+5X 3
+5X 3
−5X 3
+2X 2
−3X 2
−X 2
−X 2
+X
+9
+X
−5X
−4X
+9
X2 + 1
3X 2 + 5X
+9
Le degré de −X 2 − 4X + 9 n’étant pas encore strictement inférieur à celui de
P2 , on continue à diviser, pour arriver à
3X 4
−3X 4
+5X 3
+5X 3
−5X 3
+2X 2
−3X 2
−X 2
−X 2
+X 2
+X
+9
X2 + 1
3X + 5X − 1
2
+X
−5X
−4X
−4X
+9
+9
+1
+10
On a maintenant deg (−4X + 10) = 1 < deg P2 . Donc, le quotient de P1 par P2
vaut 3X 2 + 5X − 1, avec un reste égal à −4X + 10.
2.8. THÉORÈME FONDAMENTAL DE L’ALGÈBRE
45
Divisibilité par X − a : Le résultat suivant est très important.
Propriété 80 Si K = R ou K = C, P ∈ K[X] et a ∈ K, alors P (a) = 0 si et
seulement si X − a divise P .
Démonstration :
que
On sait que l’on peut trouver deux polynômes Q et R tels
P = (X − a)Q + R,
où deg R < deg (X − a). Comme deg (X − a) = 1, on aura que deg R = 0. Le
polynôme R est donc constant. En d’autres mots, P (X) = (X − a)Q(X) + c,
où c ∈ K et X − a divise P , c.-à-d. P = (X − a)Q, si et seulement si c = 0.
D’autre part, P (a) = (a − a)Q(a) + c = 0 + c = c et P (a) = 0 si et seulement si
c = 0.
2.8
Théorème fondamental de l’algèbre
Le théorème fondamental de l’algèbre s’énonce de la manière suivante.
Théorème 81 Si P ∈ C[X] et deg P ≥ 1, alors il existe un point a ∈ C tel que
P (a) = 0.
Ce théorème est propre à C. Il est faux dans R ! En effet, prenons par
exemple le polynôme X 2 + 1. Ce polynôme est dans R[X] et son degré est
deg (X 2 + 1) = 2 > 1. Mais il n’existe pas de point a ∈ R tel que a2 + 1 = 0
(c.-à-d. tel que a2 = −1). Par contre, il existe bien un a ∈ C tel que a2 + 1 = 0.
Il suffit de prendre a = i ou a = −i.
Considérons un polynôme P ∈ C[X], de degré supérieur ou égal à 1. Nous
venons de voir que P a au moins une racine a1 ∈ C. Donc X − a1 divise P : il
existe un polynôme Q1 ∈ C[X] tel que
P = (X − a1 )Q1
et
deg Q1 = deg P − deg (X − a1 ) = deg P − 1.
Si deg P = 1, alors deg Q1 = 0, et Q1 est une constante. Par contre si deg P > 1,
alors deg Q1 > 1 et il existe a2 ∈ C tel que Q1 (a2 ) = 0. Mais alors, X − a2
divise Q1 et il existe un polynôme Q2 tel que Q1 = (X − a2 )Q2 , c’est-à-dire tel
que P = (X − a1 )(X − a2 )Q2 .
De proche en proche, on en arrive à prouver que si deg P = n > 1, alors il
existe c, a1 , . . . , an ∈ C tels que c 6= 0 et
P = (X − a1 ) . . . (X − an )c.
On a donc démontré la proposition suivante.
Propriété 82 Dans C[X], tout polynôme de degré n > 1 se décompose en
facteurs du premier degré.
46
CHAPTER 2. NOMBRES COMPLEXES
Exemple 83
1. On vérifie facilement que X 3 + (1 − 2i)X 2 − (1 + 2i)X − 1 = (X − i)(X −
i)(X + 1). On a donc ici a1 = a2 = i et a3 = −1. Il n’est donc pas interdit
que plusieurs ai soient égaux entre eux. Le nombre i apparaı̂t dans deux
facteurs X − i ; on dit que c’est une racine de multiplicité égale à 2. Par
contre, -1 est une racine de multiplicité égale à 1.
2. X 3 −1 = (X −r0 )(X −r1 )(X −r2 ), où r0 , r1 et r2 sont les trois solutions
de
√
l’équation z 3 = 1. Autrement dit, X 3 − 1 = (X − 1)(X − (− 21 + i 23 ))(X −
√
(− 12 − i 23 )) et les trois racines sont toutes de multiplicité égale à 1.
3. X 2 + 1 = (X − i)(X + i). Remarquons ici que X 2 + 1 ∈ R[X] et que
i est le conjugué de −i. Cette situation se généralise : si z ∈ C, alors
(X −z)(X −z) = X 2 −(z+z)X +zz. Mais si z = a+bi, alors z+z = 2a ∈ R
et zz = a2 + b2 ∈ R. Donc (X − z)(X − z) ∈ R[X].
Lorsque l’on s’intéresse aux racines complexes des polynômes à coefficients
réels, la propriété suivante est très utile.
Propriété 84 Si P = a0 +a1 X +. . .+an X n ∈ R[X] et si z ∈ C, alors P (z) = 0
implique P (z) = 0.
Démonstration :
Il suffit de calculer
P (z) = a0 + a1 z + . . . + an z n = a0 + a1 z + . . . + an z n =
= a0 + a1 z + . . . + an z n = P (z) = 0.
Ce résultat se vérifie
sur les exemples rencontrés plus haut. Ainsi, nous avons
√
vu que r1 = − 21 + i 23 est une racine de X 3 − 1 ∈ R[X] et que son conjugué
√
r2 = − 12 − i 23 en est une autre.
Nous savons que X 3 − 1 = (X − 1)(X − r1 )(X − r1 ). Nous avons aussi
remarqué en toute généralité que (X − r1 )(X − r1 ) ∈ R[X]. Plus précisment,
on vérifie ici que (X − r1 )(X − r1 ) = X 2 + X + 1. Dans R[X], X 3 − 1 ne se
décompose pas en facteurs du premier degré, mais bien en facteurs de degré
1 ou 2 : X 3 − 1 = (X − 1)(X 2 + X + 1). En généralisant les constatations
qui viennent d’être faites à propos de X 3 − 1, on peut arriver à démontrer la
proposition suivante.
Propriété 85 Dans R[X], tout polynôme de degré supérieur ou égal à 1 se
décompose en facteurs (de R[X]) de degré inférieur ou égal à 2.
Remarquons que les éventuels facteurs de degré 2 proviennent de produits
de la forme (X − z)(X − z) qui apparaissent si l’on effectue la décomposition en
facteurs du premier degré dans C[X].
2.9. EXPONENTIELLE COMPLEXE
2.9
47
Exponentielle complexe
Si b ∈ R, notons exp(bi) = cos b + i sin b. Nous avons vu que
(cos b + i sin b)(cos d + i sin d) = cos(b + d) + i sin(b + d).
Ceci peut donc aussi s’éecrire
exp(bi) exp(di) = exp((b + d)i).
Plus généralement, on définit, pour tout a + bi ∈ C,
exp(a + bi) = ea (cos b + i sin b) = ea exp(bi).
On vérifie alors, en utilisant la définition de l’exponentielle complexe, que
exp(a + bi) exp(c + di)
= ea exp(bi)ec exp(di)
= ea ec exp(bi) exp(di)
= ea+c exp((b + d)i)
= exp((a + c) + (b + d)i)
= exp((a + bi) + (c + di)).
Autrement dit, si z1 , z2 ∈ C, on peut écrire exp(z1 ) exp(z2 ) = exp(zl + z2 ).
Donc, la fonction exp(z) se comporte dans C comme la fonction ex dans R. De
plus, si a ∈ R, alors exp(a) = exp(a + 0i) = ea . Il est donc naturel d’appeler la
fonction exp(z), l’exponentielle complexe. A partir de maintenant, nous prendrons également l’habitude, d’écrire ez au lieu de exp(z).
Remarque 86
1. Des relations eiθ = cos θ+i sin θ et e−iθ = cos θ−i sin θ on tire facilement
que
1
1
cos θ = (eiθ + e−iθ ) et sin θ = (eiθ − e−iθ ).
2
2i
2. Ceci n’est pas sans rappeler les formules définissant les cosinus et sinus
hyperboliques :
cosh θ =
1 θ
1
(e + e−θ ) et sinh θ = (eθ − e−θ ).
2
2
48
CHAPTER 2. NOMBRES COMPLEXES
Chapter 3
Equations différentielles
3.1
Position du problème
Pour comprendre ce qu’est une équation différentielle, commençons par un exemple facile.
Exemple 87 Cherchons une fonction f : R → R dérivable qui remplit les deux
conditions suivantes :
1. pour tout x dans R, f 0 (x) = f (x);
2. le graphe de f passe par le point (2, 1), c.-à-d. f (2) = 1.
Premier essai de solution. Essayons une fonction au hasard :
f (x) = x2 − x − 1.
Elle est dérivable et remplit la deuxième condition f (2) = 1. La première par
contre n’est pas vérifie, car
f 0 (x) = 2x − 1 6= x2 − x − 1 = f (x).
En fait, elle n’est vérifie que pour x = 0 et x = 3 et pas pour toute valeur de x.
Deuxième essai de solution. Essayons maintenant
f (x) = ex .
Cette fonction est dérivable et remplit la première condition, car
f 0 (x) = ex = f (x)
pour tout x. Mais f (x) = ex ne remplit pas la deuxième condition, car f (2) =
e2 6= 1.
49
50
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
Troisième essai de solution. Le deuxième essai nous suggère que pour vérifier
la première condition, la fonction f (x) devrait être du type exponentiel
f (x) = kex ,
où k est un paramètre réel. Cette fonction est dérivable et la première condition
est vérifie, car
f 0 (x) = kex = f (x).
Pour avoir f (2) = 1 il suffit de choisir k = e−2 . Donc la fonction f (x) = e−2 ex =
ex−2 est bien solution du problème de départ.
Nous venons de résoudre notre premier problème de Cauchy : la première
condition,
f 0 (x) = f (x),
est un exemple (très facile !) d’équation différentielle, car il s’agit d’une équation
qui lie ce qu’il faut déterminer, une fonction (et non un nombre, comme dans les
équations ordinaires), et sa dérivée. En plus, il s’agit d’une équation différentielle
dite du premier ordre, car elle implique la dérivée première f 0 et non pas des
drives d’ordre supérieur.
Dans la suite, plutôt que f 0 (x) = f (x), on écrira souvent f 0 = f , en sousentendant que cette équation doit être satisfaite pour tout x dans un intervalle
ouvert donné de R. La deuxième condition, f (2) = 1 s’appelle une condition
initiale.
On verra plus loin des théorèmes qui garantissent, sous certaines hypothèses,
l’existence et l’unicité de la solution d’un problème de Cauchy. On étudiera aussi
des techniques pour déterminer une telle solution. De toute façon, l’exemple que
l’on vient d’étudier nous montre déjà que, en général, une équation différentielle
peut admettre plusieurs solutions. Ici, toutes les fonctions f (x) = kex sont
solutions de l’équation différentielle f 0 = f .
Comme pour les équations ordinaires, la plupart des équations différentielles
sont trop difficiles pour être résolues explicitement. C’est pourquoi dans la suite,
on se limitera à certains types d’équations différentielles dont on est effectivement capable de déterminer les solutions. On verra au cours des exemples qui
montrent différentes applications des équations différentielles à la physique.
3.2
Equations à variables séparables
Commençons à nouveau par un exemple facile.
Exemple 88 Cherchons une fonction y = y(t) solution du problème de Cauchy
suivant
0
y = et−y ,
y(0) = 1,
c.-à-d. que y : R → R doit être dérivable et doit vérifier les deux conditions
3.2. EQUATIONS À VARIABLES SÉPARABLES
51
1. pour tout t ∈ R, y 0 (t) = exp(t − y(t));
2. y(0) = 1.
Solution. On déduit de la condition 1 que
ey(t) y 0 (t) = et .
Intégrons les deux membres de cette égalité entre 0 (car la condition initiale est
donne en t = 0) et t,
Z t
Z t
et dt.
ey(t) y 0 (t) dt =
0
0
Pour résoudre l’intégrale de gauche, on effectue le changement de variable u =
y(t) et on utilise la condition 2. On obtient ainsi
y(t)
Z
eu du =
1
Z
t
et dt
0
ou encore en effectuant les intégrales
ey(t) − e = et − 1.
Cette dernière égalité nous permet d’exprimer y en fonction de t
y(t) = ln(et + e − 1)
Cette fonction est bien une solution du problème donné. En effet, la condition
1 est vérifiée
y 0 (t) =
et
et
et
=
=
= et−y(t)
t
et + e − 1
eln(e +e−1)
ey(t)
tout comme la condition 2
y(0) = ln(e0 + e − 1) = ln e = 1.
On verra que c’est en fait l’unique solution du problème posé.
Voyons maintenant un exemple plus intéressant, car, sous certaines hypothèses simplificatrices, il permet de décrire l’évolution d’une population.
Exemple 89 On s’intéresse à la croissance d’une colonie de bactéries dans une
cuve. Dans ce but, on décrit cette population au moyen d’une fonction y(t) qui
représente, par exemple, la masse totale de bactéries à l’instant t. Le biologiste
peut nous donner deux types d’information.
1. D’une part, il peut mesurer la masse y(t) un instant donné, par exemple
en t = 0. Soit y0 = y(0) cette masse initiale.
52
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
2. Ensuite, il peut étudier le taux de variation de la population. Ce taux
0
(t)
est donné par le quotient Q(t) = yy(t)
. Il constate expérimentalement que
ce taux dépend de la masse de la population, c.-à-d. Q(t) = f (y(t)). En
particulier, il observe que ce taux est grand au début, car la population est
limitée et a beaucoup de ressources, mais il diminue quand la population
augmente, car les ressources deviennent insuffisantes. Plus précisement, on
remarque que pour de petites populations, y(t) ≤ ym , le taux de variation
décroı̂t de façon rectiligne en fonction de la population et qu’il est nul
pour y(t) ≥ ym . Ceci définit la fonction f comme
f (y)
m
= k yy−y
0 −ym
si 0 ≤ y < ym ,
=0
si ym ≤ y.
Ici k représente le taux de variation si la masse de bactéries est y0 .
3. Le problème est de décrire l’évolution de la population, c.-à-d. de déterminer
la fonction y(t).
En résumé, le biologiste donne la fonction f qui décrit la variation du taux
et la masse initiale y0 . Il demande alors une fonction y(t) telle que
y 0 (t)
= f (y(t))
y(t)
et
y 0 (t)
y(t)
y(0) = y0 .
Tout cela suffit à déterminer la fonction y(t) !
Solution En effet, si y(t) varie entre y0 et ym , cette fonction vérifie les égalités
y 0 (t)
y(t) − ym
= f (y(t)) = k
y(t)
y0 − y m
que l’on peut aussi écrire
k
y 0 (t)
=
.
y(t)(y(t) − ym )
y 0 − ym
Si on intègre les deux membres de cette équation de 0 à t, on obtient
Z t
kt
y 0 (t)
dt =
.
y 0 − ym
0 y(t)(ym − y(t))
On fait ensuite le changement de variable u = y(t), ce qui donne
Z
y(t)
y0
kt
1
du =
.
u(ym − u)
y0 − y m
En calculant l’intégrale, on obtient
1
y(t)(ym − y0 )
kt
ln
=
ym y0 (ym − y(t))
y0 − y m
3.2. EQUATIONS À VARIABLES SÉPARABLES
53
d’où la fonction solution du problème
ym
y(t) =
y0 ym ekt ym −y0
ym
ym − y0 + y0 ekt ym −y0
.
Le graphe de cette fonction s’appelle la courbe logistique.
Cas général – Une équation différentielle du premier ordre à variables séparables
est une équation du type
y 0 = f (t)g(y).
1. Dans le premier exemple, on avait
y 0 = et e−y ,
ce qui correspond à f (t) = et et g(y) = e−y .
2. Le deuxième exemple étudie l’équation
y 0 = ky
ym − y
.
ym − y0
−y
.
Ici, on a f (t) = k et g(y) = y yymm−y
0
On associe à de telles équations le problème de Cauchy
0
y = f (t)g(y),
Ps :
y(t0 ) = y0 ,
que l’on peut décrire explicitement comme suit :
- On donne des intervalles ouverts I et J, des fonctions f : I → R et
g : J → R et des réels t0 ∈ I et y0 ∈ J.
- On cherche une fonction y : I → J, drivable, qui vérifie les conditions
suivantes :
(a) pour tout t ∈ I, y 0 (t) = f (t)g(y(t));
(b) y(t0 ) = y0 .
- On dit alors que y(t) est solution du problème de Cauchy Ps .
L’existence et l’unicité des solutions de ce problème peuvent se déduire du
théorème ci-dessous que nous ne démontrerons pas.
Théorème 90 Soit I et J des intervalles ouverts, f : I → R une fonction
continue, g : J → R une fonction de classe C 1 , t0 ∈ I et y0 ∈ J. Alors, si I est
assez petit, il existe une et une seule solution du problème de Cauchy Ps .
Construction de la solution y(t) du problème de Cauchy Ps . Pour construire cette solution, il faut examiner deux cas :
54
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
1. Si g(y0 ) = 0, alors la solution est donnée par la fonction constante
y : I → R, t 7→ y0 .
2. Si g(y0 ) 6= 0 (et donc g(y) 6= 0 sur un voisinage de y0 , car g est continue),
la fonction y(t) doit vérifier l’égalité
y 0 (t)
= f (t).
g(y(t))
On en déduit en intégrant les deux membres de t0 t
Z t 0
Z t
y
dt =
f (t) dt.
t0 g(y)
t0
Ensuite, on fait le changement de variable u = y(t), ce qui donne
Z
y(t)
y0
1
du =
g(u)
Z
t
f (t) dt.
t0
Finalement, on résoud (comme dans les deux exemples précédents) cette
équation sous la forme
y(t) = Φ(t; t0 , y0 ).
3.3
Equations linéaires du premier ordre
On s’intéresse maintenant à une autre classe d’équations différentielles que l’on
sait résoudre, les équations différentielles linéaires du premier ordre à coefficients constants
y 0 + by = f (t),
où b est un nombre réel fixé. On y associe le problème de Cauchy
0
y + by = f (t),
P1
y(t0 ) = y0 .
que l’on peut décrire comme suit :
- On donne b ∈ R, un intervalle ouvert I, une fonction f : I → R et des
réels t0 ∈ I et y0 ∈ R.
- On cherche une fonction y : I → R, dérivable, qui vérifie les conditions
suivantes :
(a) pour tout t ∈ I, y 0 (t) + by(t) = f (t);
(b) y(t0 ) = y0 .
Le théorème suivant que nous ne démontrerons pas établit l’existence et
l’unicité des solutions du problème de Cauchy P1 .
3.3. EQUATIONS LINÉAIRES DU PREMIER ORDRE
55
Théorème 91 Soit b ∈ R, I un intervalle ouvert, f : I → R une fonction
continue, t0 ∈ I et y0 ∈ R. Alors il existe une et une seule fonction
y:I→R
drivable sur I et solution du problème de Cauchy P1 .
Méthode de calcul de la solution de P1 . Pour comprendre la méthode de
calcul des solutions de P1 , considérons d’abord le cas homogène où f = 0. On
cherche donc les solutions de l’équation différentielle
y 0 + by = 0
que l’on peut écrire comme
y 0 = −by.
Il s’agit d’une équation à variables séparables et on obtient
y(t) = Ce−bt ,
où C est une constante arbitraire.
Revenons au cas général
y 0 + by = f (t).
La méthode que nous utiliserons consiste à faire un changement de variable
y = q(t)z.
Si y(t) est la solution du problème de Cauchy P1 , on étudie z(t) = y(t)/q(t) en
choisissant q(t) 6= 0 pour que z(t) soit facile à déterminer. On calcule la dérive
première
y 0 (t) = z 0 (t)q(t) + z(t)q 0 (t).
Si on remplace dans l’équation du problème P1 , y et y 0 par leurs expressions en
fonction de z et z 0 , on obtient
z 0 (t) =
1
1
(y 0 (t) − q 0 (t)z(t)) =
[f (t) − (bq(t) + q 0 (t))z(t)].
q(t)
q(t)
Cette équation est particulièrement simple si q(t) est choisi tel que bq(t)+q 0 (t) =
0, c.-à-d. q(t) = exp(−bt). On obtient en effet
z 0 (t) =
D’autre part, z(t0 ) =
f (t)
.
q(t)
y(t0 )
q(t0 )
= y0 exp(bt0 ) et donc
Z t
z(t) = y0 exp(bt0 ) +
exp(bs)f (s) ds.
t0
Finalement, on calcule ainsi
Z
t
y(t) = exp(−bt)z(t) = y0 exp(−b(t − t0 )) +
exp(b(s − t))f (s) ds.
t0
56
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
Exemple 92 Déterminer la solution du problème de Cauchy
0
y + y = sin t,
y(0) = 1.
Puisque f (t) = sin t et b = 1, on pose z 0 (t) = et sin t. On obtient z(t) =
1 t
1
−t
2 e (sin t − cos t) + k, et donc y(t) = 2 (sin t − cos t) + ke . La condition y(0) = 1
donne k = 23 . Finalement, l’unique solution du problème donné est la fonction
y(t) = 21 (sin t − cos t) + 23 e−t .
3.4
Equations linéaires du deuxième ordre
On s’intéresse maintenant à une classe particulièrement importante d’équations
différentielles : les équations linéaires du deuxième ordre à coefficients constants
y 00 (t) + by 0 (t) + cy(t) = f (t),
où b et c sont deux nombres réels fixés. Ces équations sont dites du deuxième
ordre parce que l’inconnue y y intervient avec ses dérives première et seconde.
On associe à de telles équations le problème de Cauchy
y 00 + by 0 + cy = f (t),
P2 :
y(t0 ) = y0 , y 0 (t0 ) = y1 ,
que l’on peut décrire comme suit :
- On donne des réels b et c, un intervalle ouvert I, une fonction f : I → R
et des réels t0 ∈ I, y0 ∈ R et y1 ∈ R.
- On cherche une fonction y : I → R, deux fois drivable, qui vérifie les
conditions suivantes :
(a) pour tout t ∈ I, y 00 (t) + by 0 (t) + cy(t) = f (t);
(b) y(t0 ) = y0 , y 0 (t0 ) = y1 .
Ici nous avons deux conditions initiales y(t0 ) = y0 , y 0 (t0 ) = y1 . Ceci provient
du fait que l’on veut étudier des problèmes bien posés, c.-à-d. qui ont une et
une seule solution. Le théorème qui suit donne des conditions sur les données
pour que le problème posé avec ce type de conditions initiales soit bien posé.
Cette propriété était d’ailleurs le but des Théorèmes 75 et 76 qui établissent
cette propriété pour les problèmes Ps et P1 .
Remarquons aussi qu’on souhaite souvent que la solution du problème que
l’on étudie dépende de façon “continue” des données. En réalité, pour les
problèmes que nous avons étudiés et dans le cadre d’hypothèses que nous avons
considéré, on peut montrer cette dépendance continue.
3.4. EQUATIONS LINÉAIRES DU DEUXIÈME ORDRE
57
Théorème 93 Soit b et c ∈ R, I un intervalle ouvert, f : I → R une fonction
continue, t0 ∈ I, y0 et y1 ∈ R. Alors il existe une et une seule fonction
y:I→R
solution du problème de Cauchy P2 .
Méthode de calcul de la solution de P2 . Pour déterminer la solution y(t)
du problème de Cauchy P2 on procède en deux tapes :
1. On cherche d’abord toutes les solutions de l’équation
y 00 + by 0 + cy = f (t).
(3.1)
Ces solutions dépendent de deux coefficients arbitraires.
2. On détermine ensuite les deux coefficients en utilisant les conditions initiales y(t0 ) = y0 et y 0 (t0 ) = y1 .
Méthode de calcul des solutions de (3.1). Ces solutions s’obtiennent en
trois étapes :
1. On cherche les solutions de l’équation homogène associée
y 00 + by 0 + cy = 0.
(3.2)
Ces solutions sont toutes de la forme
yh (t) = Ay1 (t) + By2 (t),
où y1 et y2 sont des fonctions fixées et A, B des nombres réels arbitraires ;
ce sont les coefficients arbitraires qu’il faut déterminer pour calculer la
solution du problème de Cauchy. Nous verrons qu’il est très facile de
calculer les fonctions y1 et y2 . On appelle yh la solution générale de (3.2).
2. Ensuite, on cherche une solution particulière yp de l’équation non-homogène
(3.1). Cette deuxième étape est plus compliquée et on se limitera au cas
où la fonction f (t) est particulièrement simple.
3. Une fois les fonctions yh et yp détermines, les solutions de l’équation (3.1)
sont toutes données par
y(t) = yh (t) + yp (t) = Ay1 (t) + By2 (t) + yp (t),
où A et B sont deux coefficients arbitraires. On appelle cette fonction la
solution générale de (3.1)
Solution générale de l’équation homogène (3.2). On définit le polynôme
caractéristique
P (λ) = λ2 + bλ + c
(3.3)
et on calcule ses racines λ1 , λ2 . Trois situations sont possibles :
58
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
1. Si λ1 et λ2 sont deux nombres réels différents, alors la solution générale
de l’équation homogène est donne par
yh (t) = Aeλ1 t + Beλ2 t .
2. Si λ1 = λ2 , la solution générale s’écrit
yh (t) = Aeλ1 t + Bteλ2 t .
3. Si λ1 = α + iβ et λ2 = α − iβ sont deux nombres complexes conjugués, la
solution générale est
yh (t) = Aeαt cos(βt) + Beαt sin(βt).
Dans toutes ces formules, les coefficients A et B sont des réels arbitraires.
Pour justifier partiellement l’introduction du polynôme caractéristique, on
peut vérifier facilement qu’une fonction exponentielle y(t) = eλt est solution de
l’équation homogène (3.2) si et seulement si λ2 + bλ + c = 0.
Solution particulière de l’équation non homogène (3.1). Dans des cas
particuliers très importants, il est facile d’obtenir une solution particulière de
(3.1). C’est l’objet des propositions ci-dessous.
Propriété 94 Soit P est un polynôme de degré n et α un réel qui ne soit pas
solution du polynôme caractéristique (3.3). Posons f (t) = P (t)eαt . Alors, il
existe un polynôme Q de degré n tel que
yp (t) = Q(t)eαt
soit solution de l’équation non homogène (3.1).
Pour calculer cette solution, c.-à-d. le polynôme Q, on remplace dans
l’équation (3.1) la fonction yp et ses dérivées par les expressions correspondantes
en fonction des coefficients du polynôme Q, puis on détermine ces coefficients
pour que yp vérifie (3.1). Attention : en général les polynômes P (t) et Q(t) sont
différents.
Propriété 95 Soit H, K ∈ R et ω ∈ R tels que iω ne soit pas racine du
polynôme caractéristique (3.3). Posons f (t) = H sin(ωt) + K cos(ωt). Alors il
existe des constantes h et k ∈ R telles que
yp (t) = h sin(ωt) + k cos(ωt)
soit solution de l’équation non homogène (3.1).
Pour calculer cette solution, on remplace dans l’équation (3.1) la fonction
yp et ses dérivées en fonction de h et k, puis on détermine ces coefficients pour
que yp soit solution de (3.1). Attention : en général h 6= H et k 6= K.
3.4. EQUATIONS LINÉAIRES DU DEUXIÈME ORDRE
59
Exemple 96 Déterminons la solution du problème de Cauchy
00
y + 3y 0 + 2y = t + 1
y(0) = 1, y 0 (0) = 1.
1. Solution générale de l’équation homogène
y 00 + 3y 0 + 2y = 0.
Le polynôme caractéristique est λ2 +3λ+2 = 0 et ses racines sont λ1 = −1
et λ2 = −2, donc la solution générale est
yh (t) = Ae−t + Be−2t .
2. Solution particulière de l’équation non-homogène
y 00 + 3y 0 + 2y = t + 1.
On a f (t) = t + 1 qui est un polynôme de premier degré. On pose P (t) =
t + 1, α = 0 et on sait par la Proposition 79 qu’il existe une solution de la
forme
yp (t) = Q(t) = q1 t + q0 .
On calcule yp0 (t) = q1 , yp00 (t) = 0 et on remplace ces expressions dans
l’équation. On trouve ainsi
3q1 + 2q1 t + 2q0 = t + 1,
d’où q1 = 21 et q0 = − 41 . Donc une solution particulière de l’équation
non-homogène est
1
1
yp (t) = t − .
2
4
On peut remarquer que cette fonction est solution de l’équation nonhomogène, mais elle n’est pas solution du problème de Cauchy car elle
ne respecte pas les conditions initiales.
3. La solution générale de l’équation non-homogène est alors
1
1
y(t) = yh (t) + yp (t) = Ae−t + Be−2t + t − .
2
4
Si on impose les conditions initiales y(0) = 1 et y 0 (0) = 1, on a
A+B−
1
=1
4
et
− A − 2B +
1
= 1,
2
d’où A = 3 et B = − 74 . En conclusion, l’unique solution du problème de
Cauchy est la fonction
7
1
1
y(t) = 3e−t − e−2t + t − .
4
2
4
60
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
La prochaine propriété, dont la démonstration est un exercice facile, permet
d’élargir le champ d’application des Propriétés 79 et 80.
Propriété 97 (Principe de superposition) Soit b et c ∈ R, I un intervalle ouvert, f1 et f2 : I → R. Si la fonction y1 est solution de l’équation différentielle
y 00 + by 0 + cy = f1 (t)
et la fonction y2 (t) est solution de l’équation
y 00 + by 0 + cy = f2 (t),
alors la fonction y1 (t) + y2 (t) est solution de l’équation
y 00 + by 0 + cy = f1 (t) + f2 (t).
3.5
Equations linéaires d’ordre n
Pour terminer ce chapitre, voyons comment on peut généraliser les résultats
précédents aux équations différentielles linéaires à coefficients constants d’ordre
quelconque.
Considérons une telle équation
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = f (t)
avec a0 , . . . , an ∈ C et f : R → C donnés. Fixons aussi une condition initiale
t0 ∈ R, α1 , . . . , αn ∈ Cn .
Théorème 98 Si la fonction f : R → C est continue, il existe une solution
unique au problème de Cauchy
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = f (t)
Pn :
y(t0 ) = α1 , y 0 (t0 ) = α2 , . . . , y (n−1) (t0 ) = αn
La demarche pour déterminer la solution du problème Pn est semblable à
celle pour déterminer la solution du problème P2 :
1. On détermine la solution générale u de l’équation homogène associée
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = 0
2. On détermine une solution particulière v de l’équation non homogène
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = f (t)
3. La solution générale de l’équatioin non homogène est donnée par
y(t) = v(t) + u(t)
3.5. EQUATIONS LINÉAIRES D’ORDRE N
61
4. On détermine l’unique solution de Pn en imposant à la fonction y(t) la
condition initiale.
Solution générale de l’équation homogène :
Théorème 99 Soit P (x) = an xn + an−1 xn−1 + . . . + a2 x2 + a1 x le polynôme
caractéristique associé à l’équation non homogène, et soit r1 , . . . , rq ∈ C les
racines distinctes de P, avec multiplicité respective m1 , . . . , mq ∈ N. La solution
générale de l’équation non homogène est
yh (t) = P1 (t)er1 t + . . . + Pq (t)erq t
avec Pj ∈ C[x]mj −1 .
Exemple 100 Considérons l’équation y 000 − (2 + i)y 00 + (1 + 2i)y 0 − iy = 0. Le
polynôme caractéristique est P (x) = x3 − (2 + i)x2 + (1 + 2i)x − i, et ses racines
sont r1 = i avec m1 = 1, et r2 = 1 avec m2 = 2. La solution générale est donc
u(t) = Aeit + (Bt + C)et , avec A, B, C ∈ C arbitraires. (En effet ,d’après le
théorème, la solution générale est u(t) = P1 (t)eit +P2 (t)et , avec P1 un polynôme
arbitraire de degré 0 et P2 un polynôme arbitraire de degré 1.)
Solution particulière de l’équation non homogène :
Propriété 101 Soit f (t) = Qp (t) · ert , avec r ∈ C et Qp ∈ C[x]p . L’équation
non homogène
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = Qp (t) · ert )
admet toujours une solution de la forme
v(t) = tm · Rp (t) · ert
où m est la multiplicité de r en tant que racine du polynôme caractéristique, et
Rp ∈ C[x]p est un polynôme à déterminer. (N.B.: en général, Rp 6= Qp ).
Exemple 102 Cherchons l’unique solution du problème de Cauchy
y 000 − 7y 00 + 11y 0 − 5y = tet
P:
19
y(0) = 1 , y 0 (0) = 1 , y 00 (0) = 20
Première étape : le polynôme caractéristique admet comme racines x = 5 (racine
simple) et x = 1 (racine double). La solution générale de l’équation homogène
associée est alors u(t) = Ae5t + (Bt + C)et , avec A, B, C ∈ C arbitraires.
Deuxième étape : comme r = 1 est racine double du polynôme caractéristique,
l’équation non homogène admet une solution particulière de la forme v(t) =
t2 R(t)et , avec R ∈ C[x]1 . On peut donc écrire v(t) = t2 (at + b)et , et il faut
déterminer les coefficients a et b. Pour cela, on calcule v 0 (t), v 00 (t), v 000 (t), on les
62
CHAPTER 3. EQUATIONS DIFFÉRENTIELLES
remplace dans l’équation non homogène et on obtient (−24at+6a−10b)et = tet .
Comme cette équation doit être vérifiée pour tout valeur de t, on en déduit les
1
1
1
1
valeurs a = − 24
, b = − 40
. Finalement, v(t) = t2 (− 24
t − 40
)et .
Troisième étape : la solution générale de l’équation non homogène est y(t) =
1
1
Ae5t + (Bt + C)et + t2 (− 24
t − 40
)et , et il faut déterminer A, B, C pour que
la condition initiale soit satisfaite. Pour cela, on calcule y 0 (t), y 00 (t), on impose
y(0) = 1, y 0 (0) = 1, y 00 (0) = 19
20 et on obtient A = 0, B = 0, C = 1. L’unique
1 2
1 3
t − 40
t + 1)et .
solution du problème P est donc la fonction y(t) = (− 24
De la propriété précédente et du principe de superposition on tire le résultat
annoncé au début du paragraphe :
Corollaire 103 Tout problème de Cauchy

 y(t0 ) = α1 , y 0 (t0 ) = α2 , . . . , y (n−1) (t0 ) = αn
P:
Pn

(j)
∀t ∈ R
(t) = f (t)
j=0 aj y
où f est une combinaison linéaire de (polynôme) · (exponentielle), admet une
solution unique.
Remarque 104 Cette demarche nous permet de déterminer la solution complexe du problème de Cauchy Pn . Si dans l’équation
an y (n) (t) + an−1 y (n−1) (t) + . . . + a1 y 0 (t) + a0 y(t) = f (t)
les coefficients aj sont réels et la fonction f est à valeurs réels, on peut déterminer
les solutions réelles à partir des solutions complexes en utilisant la définition de
l’exponentielle complexe
e(a+bi) = ea (cos b + i sin b).
Chapter 4
Exercices
La réponse à certains exercices est entièrement développée. Pour d’autres exercices, nous ne présentons que des éléments de réponse.
63
64
CHAPTER 4. EXERCICES
4.1
Séance 1 - Sous-espaces vectoriels
1. Vérifiez si les sous-ensembles suivants sont des sous-espaces vectoriels de
R2 ou de R3 :
(a) {(x, y, z) ∈ R3 | x + y + z = 0} ;
(b) {(x, y, z) ∈ R3 | a1 x + b1 y + c1 z = 0 et a2 x + b2 y + c2 z = 0}, avec
ai , bi , ci ∈ R fixés ;
(c) {(α + 2β, −α − 3β, α + β) | α, β ∈ R} ;
(d) {(x, y, z) ∈ R3 | x2 + y 2 + z 2 ≤ 1} ;
(e) {(x, y, z) ∈ R3 | z ≥ 0} ;
(f) {(α, 2α) | α ∈ R} ;
(g) {(α, α2 ) | α ∈ R} ;
(h) {(α, 2α + 2) | α ∈ R} .
2. Soient V1 et V2 deux sous-espaces vectoriels de Rn .
(a) Vérifiez si les sous-ensembles V1 ∪ V2 et V1 ∩ V2 sont des sous-espaces
vectoriels de Rn ;
(b) Vérifiez que le sous-ensemble V1 + V2 = {~x1 + ~x2 | ~x1 ∈ V1 , ~x2 ∈ V2 }
est le plus petit sous-espace vectoriel de Rn contenant à la fois V1 et
V2 ;
(c) Comparez V1 ∪ V2 et V1 + V2 lorsque n = 2, V1 = {(x, 0) | x ∈
R}, V2 = {(0, y) | y ∈ R} .
3. (Septembre 2004) Soient V1 , V2 et V3 des sous-espaces vectoriels de R3 :
(a) Montrez l’inclusion (V1 ∩ V2 ) + V3 ⊆ (V1 + V3 ) ∩ (V2 + V3 ) ;
(b) Montrez (en donnant un contre-exemple) que l’on a pas en général
l’inclusion opposée.
4.1. SÉANCE 1 - SOUS-ESPACES VECTORIELS
65
Eléments de Solution
1. Les exemples (a), (b), (c) et (f) sont des s.e.v. Voyons le (f) : V =
{(α, 2α) | α ∈ R} :
- ~0 = (0, 0) ∈ V en prénant α = 0 ;
- si ~v1 = (α1 , 2α1 ), ~v2 = (α2 , 2α2 ) ∈ V, alors
~v1 + ~v2 = (α1 , 2α1 ) + (α2 , 2α2 ) = (α1 + α2 , 2(α1 + α2 )) ∈ V ;
- si ~v = (α, 2α) ∈ V et λ ∈ R, alors λ~v = (λα, 2λα) ∈ V .
Les exemples (d), (e), (g) et (h) ne sont pas des s.e.v. Voyons le (d) :
V = {(x, y, z) ∈ R2 | x2 + y 2 + z 2 ≤ 1} : on a que ~v1 = (1, 0, 0), ~v2 =
(0, 0, 1) ∈ V, mais ~v1 + ~v2 = (1, 0, 1) ∈
/V.
2. (a) En général V1 ∪ V2 n’est pas un s.e.v. Prénons par exemple V1 =
{(x, 0) | x ∈ R}, V2 = {(0, y) | y ∈ R}, qui sont deux s.e.v. de
R2 . On a V1 ∪ V2 = {(x, y) ∈ R2 | x · y = 0} qui n’est pas un
s.e.v. car, par exemple, ~v1 = (1, 0), ~v2 = (0, 1) ∈ V1 ∪ V2 , mais
~v1 + ~v2 = (1, 1) ∈
/ V1 ∪ V 2 .
V1 ∩ V2 est un s.e.v. Voyons par exemple que V1 ∩ V2 est fermé par
rapport à la somme: si ~x, ~y ∈ V1 ∩ V2 , alors ~x, ~y ∈ V1 et ~x, ~y ∈ V2 .
Puisque V1 et V2 sont des s.e.v., ~x + ~y ∈ V1 et ~x + ~y ∈ V2 . Par
conséquent, ~x + ~y ∈ V1 ∩ V2 .
(b) Vérifions d’abord que V1 + V2 est un s.e.v. Voyons par exemple que
V1 + V2 est fermé par rapport à la somme: soit ~a, ~b ∈ V1 + V2 . On
peut écrir ~a = ~x1 + ~x2 , ~b = ~y1 + ~y2 , avec ~x1 , ~y1 ∈ V1 et ~x2 , ~y2 ∈ V2 .
Donc ~a + ~b = (~x1 + ~x2 ) + (~y1 + ~y2 ) = (~x1 + ~y1 ) + (~x2 + ~y2 ) qui est
dans V1 + V2 , car ~x1 + ~y1 ∈ V1 (car V1 est un s.e.v.) et ~x2 + ~y2 ∈ V2
(car V2 est un s.e.v.).
V1 ⊆ V1 + V2 . En effet, si ~x1 ∈ V1 , alors ~x1 = ~x1 + ~0 ∈ V1 + V2 (car
~0 ∈ V2 ). De même, V2 ⊆ V1 + V2 .
Finalement, si V1 , V2 ⊆ F et F est un s.e.v. de Rn , alors V1 + V2 ⊆ F.
En effet, si ~a = ~x1 + ~x2 ∈ V1 + V2 , alors ~x1 ∈ V1 ⊆ F et ~x2 ∈ V2 ⊆ F.
Donc ~x1 , ~x2 ∈ F et donc ~x1 + ~x2 ∈ F car F est un s.e.v.
(c) V1 ∪ V2 = {(x, y) ∈ R2 | x · y = 0} ⊂ V1 + V2 = R2 .
3. (a) Il faut montrer les deux inclusions (V1 ∩ V2 ) + V3 ⊆ V1 + V3 et (V1 ∩
V2 ) + V3 ⊆ V2 + V3 . Montrons la première inclusion (la euxième est
semblable). Soit ~x ∈ (V1 ∩ V2 ) + V3 . On peut écrir ~x = ~y + ~z, avec
~y ∈ V1 ∩ V2 et ~z ∈ V3 . Donc ~y ∈ V1 et donc ~x = ~y + ~z ∈ V1 + V3 .
(b) On peut choisir V1 = h (1, 0, 0) i, V2 = h (0, 1, 0) i, V3 = h (1, 1, 0) i. On
a alors (V1 + V3 ) ∩ (V2 + V3 ) = h (1, 0, 0), (0, 1, 0) i qui n’est pas inclus
dans (V1 ∩ V2 ) + V3 = V3 .
66
CHAPTER 4. EXERCICES
4.2
Séance 2 - Bases et dimension
1. Soit V un s.e.v. de Rn , ~v1 , . . . , ~vk ∈ V et
h~v1 , . . . , ~vk i = { combinaisons linéaires de ~v1 , . . . , ~vk } .
(a) Montrez que h~v1 , . . . , ~vk i est le plus petit s.e.v. de Rn contenant
~v1 , . . . , ~vk ;
(b) Montrez que ~v1 , . . . , ~vk est une famille génératrice de V si et seulement si V = h~v1 , . . . , ~vk i ;
(c) Montrez que les conditions suivantes sont équivalentes :
i. ~v1 , . . . , ~vk sont linéairement indépendants ;
ii. si λ1 · ~v1 + . . . + λk · ~vk = µ1 · ~v1 + . . . + µk · ~vk , alors λi = µi pour
tout i ;
iii. si λ1 · ~v1 + . . . + λk · ~vk = ~0, alors λi = 0 pour tout i .
(d) Montrez que les conditions suivantes sont équivalentes :
i. ~v1 , . . . , ~vk est une base de V ;
ii. ~v1 , . . . , ~vk sont linéairement indépendants et forment une famille
génératrice pour V.
2. Dans R3 , on considère la suite de vecteurs ~v1 = (1, 0, 0), ~v2 = (1, 1, 0), ~v3 =
(1, 1, 1), ~v4 = (1, 0, 1).
(a) Montrez que la suite ~v1 , ~v2 , ~v3 est une base de R3 ;
(b) Que peut-on dire de la suite ~v1 , ~v2 et de la suite ~v1 , ~v2 , ~v3 , ~v4 ?
3. (Septembre 2002) Soient V1 et V2 deux sous-espaces vectoriels de R3 . Si
V1 et V2 sont de dimension 2, quelles valeurs peut prendre dim(V1 ∩ V2 ) ?
Pour chacune de ces valeurs donnez un exemple.
4. (Janvier 2005) Soit ~x1 , ~x2 , ~x3 trois vecteurs linéairement indépendants de
Rn . Montrez que les vecteurs
~x2 + ~x3 , ~x1 + ~x3 , ~x1 + ~x2
sont linéairement indépendants.
4.2. SÉANCE 2 - BASES ET DIMENSION
67
Eléments de Solution
1. (a) Semblable au point (b) de l’exercice 2 de la séance 1. En effet, on
peut remarquer que h~v1 , . . . , ~vk i = h~v1 i + . . . + h~vk i.
(b) ~v1 , . . . , ~vk est une famille génératrice de h~v1 , . . . , ~vk i et donc de V si
V = h~v1 , . . . , ~vk i.
Réciproquement, si ~v1 , . . . , ~vk est une famille génératrice de V, alors
V ⊆ h~v1 , . . . , ~vk i car tout élément de V est combinaison linéaire de
~v1 , . . . , ~vk . L’inclusion h~v1 , . . . , ~vk i ⊆ V étant une conséquence du
point (a), on a V = h~v1 , . . . , ~vk i.
(c) i ⇒ iii : si λ1 · ~v1 + . . . + λk · ~vk = ~0 et un des coefficients est non nul,
par exemple λ1 6= 0, alors
~v1 = −
λk
λ2
· ~v2 − . . . −
· ~vk .
λ1
λ1
Donc ~v1 est combinaison linéaire de ~v2 , . . . , ~vk , en contradiction avec
l’hypothèse.
iii ⇒ i : si une des vecteurs ~v1 , . . . , ~vk est combinaison linéaire des
autres, par exemple si ~v1 est combinaison linéaire de ~v2 , . . . , ~vk , alors
~v1 = λ2 · ~v2 + . . . + λk · ~vk . Donc ~v1 − λ2 · ~v2 − . . . − λk · ~vk = ~0 et le
premier coefficient est non nul, en contradiction avec l’hypothèse.
iii ⇒ ii : si λ1 · ~v1 + . . . + λk · ~vk = µ1 · ~v1 + . . . + µk · ~vk , alors
(λ1 − µ1 ) · ~v1 + . . . + (λk − µk ) · ~vk = ~0. L’hypothèse nous donne
λi − µi = 0 pour tout i, et donc λi = µi pour tout i.
ii ⇒ iii : si λ1 · ~v1 + . . . + λk · ~vk = ~0 = 0 · ~v1 + . . . + 0 · ~vk , alors par
l’hypothèse on a λi = 0 pour tout i.
(d) ii ⇒ i : supposons d’enlever un des vecteurs de la suite et que les
(k − 1)-vecteurs qui restent soient une famille génératrice de V. Cela
implique que le vecteur qu’on a enlevé est combinaison linéaire des
autres, et donc la suite ~v1 , . . . , ~vk n’est pas libre.
i ⇒ ii : si un des vecteurs ~v1 , . . . , ~vk , par exemple ~v1 , est combinaison
linéaire des autres, toute combinaison linéaire de ~v1 , . . . , ~vk est aussi
combinaison linéaire de ~v2 , . . . , ~vk . Cela signifie que ~v1 , . . . , ~vk n’est
pas minimale comme famille génératrice de V.
2. (a) Puisque dim R3 = 3, il suffit de montrer que ~v1 , ~v2 , ~v3 est une suite
libre, ou que ~v1 , ~v2 , ~v3 est une famille génératrice de R3 .
Montrons qu’elle est libre : l’équation a~v1 + b~v2 + c~v3 = ~0 nous donne
(a+b+c, b+c, c) = (0, 0, 0) c’est-à-dire a+b+c = 0 , b+c = 0 , c = 0
et donc a = b = c = 0.
(b) La suite ~v1 , ~v2 est libre car la suite ~v1 , ~v2 , ~v3 est libre.
La suite ~v1 , ~v2 , ~v3 , ~v4 est une famille génératrice de R3 car la suite
~v1 , ~v2 , ~v3 est une famille génératrice de R3 .
68
CHAPTER 4. EXERCICES
3. On a V1 ∩ V2 ⊆ V1 et dim V1 = 2. Par conséquent, dim(V1 ∩ V2 ) ≤ 2. En
effet, le cas dim(V1 ∩ V2 ) = 0 est impossible, car V1 et V2 sont deux plans
de R2 (qui passent par l’origine). Leur intersection est donc (au moins)
une droite.
[Sans utiliser l’interprétation géométrique, ont peut justifier cela de la
façon suivante : soit ~x1 , ~x2 une base de V1 et ~y1 , ~y2 une base de V2 . Puisque
dim R3 = 3, les quatre vecteurs ~x1 , ~x2 , ~y1 , ~y2 sont linéairement dépendants.
On a alors par exemple ~x1 = α~x2 + β~y1 + γ~y2 (avec β~y1 + γ~y2 6= ~0 car ~x1 et
~x2 sont linéairement indépendants). De la on tire que ~x1 −α~x2 = β~y1 +γ~y2
est une vecteur non nul qui se trouve dans V1 ∩ V2 . Cela implique que
dim(V1 ∩ V2 ) ≥ 1.
Une autre façon de justifier que dim(V1 ∩ V2 ) ≥ 1 est de utiliser la
Propriété : si V1 et V2 sont deux s.e.v. de Rn , alors dim(V1 + V2 ) =
dim V1 + dim V2 − dim(V1 ∩ V2 ).
Dans notre cas, puisque V1 + V2 ⊆ R3 , on a que dim(V1 + V2 ) ≤ 3. Cela,
avec dim V1 = 2 = dim V2 , donne dim(V1 ∩ V2 ) ≥ 1.]
Deux cas peuvent donc se présenter :
- dim(V1 ∩ V2 ) = 1. Exemple : V1 = h (1, 0, 0), (0, 1, 0) i et V2 =
h (1, 0, 0), (0, 0, 1) i .
- dim(V1 ∩ V2 ) = 2. Exemple : V1 = h (1, 0, 0), (0, 1, 0) i = V2 .
4. Supposons que
α1 (~x2 + ~x3 ) + α2 (~x1 + ~x3 ) + α3 (~x1 + ~x2 ) = ~0.
Il faut montrer que tous les coefficients sont nuls. La condition précédente
donne
(α2 + α3 )~x1 + (α1 + α3 )~x2 + (α1 + α2 )~x3 = ~0.
Puisque ~x1 , ~x2 , ~x3 sont linéairement indépendants, on a
α2 + α3 = 0, α1 + α3 = 0, α1 + α2 = 0.
Ces trois conditions impliquent que
α1 = 0, α2 = 0, α3 = 0.
4.3. SÉANCE 3 - SYSTÈMES D’ÉQUATIONS LINÉAIRES
4.3
69
Séance 3 - Systèmes d’équations linéaires
1. Déterminez la dimension et 
donnez une base de l’espace des solutions
 x1 + x2 + x3 + x4 + x5 = 0
x3 + 2x4 + 3x5
= 0
des systèmes suivants: (a)

x
+
2x
= 0
4
5

 −x1 − 3x2 − 2x3 = 0
2x1 − x2 − x3
= 0
(b)

x1 − 4x2 − 3x3
= 0
2. Etudiez les solutions des

 x − y + 2z =
2x + y − z =
(a)

x − 2y + z =
systèmes linéaires suivants :

0
=
 x−y
1
2x + y
=
(b)

0
3x + 2y =
2
1
5
3. Que pouvez-vous dire des solutions du système suivant ? Discuter d’après
la valeur du paramètre réel k.

= 2
 x + y + kz
3x + 4y + 2z = k
S:

2x + 3y − z
= 1
4. (Juin 2001) On considère le système

 x + 5y − 2z
3x + 15y − 6z
S:

−2x + 10y + 4z
=
=
=
4
12
12
et on denote par S0 le système homogène associé.
(a) Déterminez la dimension et une base de l’ensemble des solutions du
système S0 ;
(b) Déterminez la solution générale du système S et la dimension de
l’ensemble des solutions de ce système.
5. (Septembre 2002) Soit le système

 x + y + kz
3x + 4y + 2z

2x + 3y + (k − 2)(k − 4)z
=
=
=
2
k
1
Discutez les solutions du système suivant les valeurs de k ∈ R.
6. (Juin 2004) Soit
R[x]≤3 = {P (x) = a0 + a1 x + a2 x2 + a3 x3 | a0 , a1 , a2 , a3 ∈ R}
l’ensemble des polynômes de degré plus petit ou égal à 3. Soit
V = {P (x) ∈ R[x]≤3 | P (1) = 0 = P (−1)}.
70
CHAPTER 4. EXERCICES
(a) Exprimez les conditions P (1) = 0 = P (−1) par un système d’équations
linéaires.
(b) A l’aide de ce système, déterminez la dimension et une base de V.
4.3. SÉANCE 3 - SYSTÈMES D’ÉQUATIONS LINÉAIRES
71
Eléments de Solution
1. (a) Le système est homogène et il est déjà échelonné. La dimension de
l’espace des solutions est donnée par la formule
dim = nombre de variables − rang = 5 − 3 = 2.
Les variables x2 et x5 ne sont pas en tête des équations. On fixe
x2 = 1, x5 = 0 et on obtient x4 = 0, x3 = 0, x1 = −1. On fixe ensuite
x2 = 0, x5 = 1 et on obtient x4 = −2, x3 = 1, x1 = 0. Une base de
l’espace des solutions est donc (−1, 1, 0, 0, 0), (0, 0, 1, −2, 1).
(b) Le système est homogène. Pour l’échelonner, on peut effectuer les
opérations élémentaires L3 7→ L3 − L1 , L3 7→ L3 − L2 , L2 7→ L2 +
2L1 . On obtient

 −x1 − 3x2 − 2x3 = 0
−7x2 − 5x3
= 0

0
= 0
La dimension de l’espace des solutions est 1. On fixe x3 = 1 et on a
comme base de l’espace des solutions le vecteur ( 71 , − 57 , 1).
2. (a) Soit S le système donné et S0 le système
échelonnage, on trouve

 x − y + 2z =
y+z
=
S:

−8z
=
homogène associé. Par
0
0
1
On a donc rang(S) = rang(S0 ) = 3. Le système S admet par conséquent
une solution unique, donnée par ( 83 , 18 , − 18 ).
(b) Par échelonnage, on trouve

 x−y = 2
y
= −1

0
= 4
Le système est impossible.
3. Par échelonnage, on trouve

 x + y + 3z
y − 7z

(k − 3)z
=
=
=
k−1
3 − 2k
3−k
Si k 6= 3, rang(S) = rang(S0 ) = 3 et l’unique solution de S est (3k +
6, −4 − 2k, −1).
Si k = 3, rang(S) = rang(S0 ) = 2. Une base de l’espace des solutions de
S0 est (−10, 7, 1) ; une solution particulière de S est (5, −3, 0). La solution générale du sistème S est donc (5, −3, 0) + λ(−10, 7, 1), avec λ ∈ R
arbitraire.
72
CHAPTER 4. EXERCICES
4. Par échelonnage, on trouve

 x + y − 2z
y

0
=
=
=
0
1
0
(a) On a rang(S) = rang(S0 ) = 2. La dimension de l’espace des solutions
de S0 est donc 1 et une base est (2, 0, 1).
(b) Une solution particulière de S est (−1, 1, 0) et la solution générale
est (−1, 1, 0) + λ(2, 0, 1), avec λ ∈ R arbitraire. On ne peut pas
calculer la dimension de l’ensemble des solutions du système S, car
cet ensemble n’est pas un sous-espace vectoriel de R3 (le système S
n’est pas homogène).
5. Par échelonnage, on trouve

 x + y + kz
y + (k 2 − 8k + 8)z

−(k − 3)(k − 2)z
=
=
=
2
−3
k−3
Si k 6= 3 et k 6= 2, le système admet une solution unique.
Si k = 2, le système est impossible.
Si k = 3, le système est

 x + y + 3z = 2
y − 7z
= −3

0
= 0
On a alors rang(S) = rang(S0 ) = 2. La dimension de l’espace des solutions
de S0 est 1 et une base est (−10, 7, 1). Une solution particulière de S est
(5, −3, 0). La solution générale de S est donc (−10, 7, 1) + λ(5, −3, 0), avec
λ ∈ R arbitraire.
6. (a) Les conditions P (1) = 0 = P (−1) donnent le système homogène S0
suivant
{a0 + a1 + a2 + a3 = 0 , a0 − a1 + a2 − a3 = 0
(b) On a que la dimension de l’espace des solutions de S0 est 2 et une
base est (1, 0, −1, 0), (0, 1, 0, −1). Par consequent, la dimension de V
est 2 et une base de V est P1 (x) = 1 − x2 , P2 (x) = x − x3 .
4.4. SÉANCE 4 - DÉTERMINANT D’UNE MATRICE CARRÉE
4.4
73
Séance 4 - Déterminant d’une matrice carrée
1. (a) En utilisant les propriétés du déterminant, montrer que





2 1 3
1 4 7
1 a
det 3 2 5 = 0 ; det 2 5 8 = 0 ; det 1 b
4 3 7
3 6 9
1 c
(b) Calculez le déterminant de la matrice

0 0 0
0 0 0

A=
0 0 3
0 4 3
5 4 3
:

b+c
c + a = 0 .
a+b
suivante

0 1
2 1

2 1
.
2 1
2 1
Comment peut on calculer en général le déterminant d’une matrice
“triangulaire” ?
2. (Juin 2001) On considère un système S qui admet la matrice A ∈ R4×4
ci-dessous comme matrice des coefficients et le vecteur ~b ∈ R4 ci-dessous
comme vecteur des termes indépendants

 

b
1 2 0 4
 2 
 0 5 0 0 
 ~b =   .
A=
 3 
 a 0 8 9 
4
1 0 0 10
Déterminer pour quelles valeurs des paramètres réels a et b le système S
- n’admet pas de solutions ;
- admet une solution unique ;
- admet plusieurs solutions.
3. (Juin 2002) Pour quelles valeurs des paramètres réels a et b le système
linéaire S admet une solution unique ?

 ax + by + z = 1
x + by + z = b
S:

x + by + az = 1
4. (Septembre 2004) Dans R3 , considérons les vecteurs
~v1 = (1, 2, 1), ~v2 = (1, 0, 1), ~v3 = (−1, −1, −1).
(a) Trouvez une base du sous-espace de R3 engendré par ~v1 , ~v2 et ~v3 .
74
CHAPTER 4. EXERCICES
(b) Calculez le déterminant de la matrice


1
2
1
0
1
A= 1
−1 −1 −1
(c) Discutez, en fonction du paramètre k, le

 x + 2y + z
x+z
S:

−x + ky − z
système S
= 2
= 4
= 3
4.4. SÉANCE 4 - DÉTERMINANT D’UNE MATRICE CARRÉE
75
Eléments de Solution
1. (a) Dans la première matrice, la troisième colonne est somme de la
première et de la deuxième. Dans la deuxième matrice, Col3 =
2Col2 − Col1 . Pour la troisième matrice :




1 a b+c
1 a a+b+c
det 1 b c + a = det 1 b b + c + a =
1 c a+b
1 c c+a+b


1 a 1
= (a + b + c) · det 1 b 1 = 0.
1 c 1
(b) Si A ∈ Rn×n est une matrice triangulaire descendante, alors
detA = (produit des éléments sur la diagonale descendante).
Si A ∈ Rn×n est une matrice triangulaire ascendante et n est pair,
alors
n
detA = (−1) 2 · (produit des éléments sur la diagonale ascendante).
Si A ∈ Rn×n est une matrice triangulaire ascendante et n est impair,
alors
detA = (−1)
n−1
2
·(produit des éléments sur la diagonale ascendante).
Dans l’exemple, A est triangulaire ascendante et n = 5. Par conséquent,
detA = (−1)2 · 5 · 4 · 3 · 2 · 1 = 120.
2. Le déterminant de A est non nul. Par conséquent, quelle que soit la valeur
de a et de b, le système A · ~x = ~b admet une solution unique.
3. Le système S admet une solution unique ssi le déterminant de la matrice
des coefficients est différent de zero. Puisque ce déterminant vaut b(a−1)2 ,
le système S admet une solution unique ssi a 6= 1 et b 6= 0.
4. (a) Une base est donnée par ~v1 et ~v2 : en effet ~v1 et ~v2 sont linéairement
indépendants et ~v3 = − 21 (~v1 + ~v2 ).
(b) DetA = 0 car la première colonne est égale à la troisième colonne.
(c) Soit B ∈ R3×3 la matrice des coefficients du système S, et soit ~b ∈ R3
le vecteur des termes indépendantes. Le rang de B est 2, le rang de
B complétée par ~b est 3 si k 6= −7 et 2 si k = −7. Si k 6= −7, le
système n’admet pas de solutions. Si k = −7, la solution générale
du système est (4, −1, 0) + λ(1, 0, −1) car (4, −1, 0) est une solution
particulière et (1, 0, −1) est une base de l’espace des solutions du
système homogène associé.
76
CHAPTER 4. EXERCICES
4.5
Séance 5 - Opérations sur les matrices
1. (Janvier 2000)
(a) Enoncer la définition de matrice inversible.
(b) Enoncer des conditions nécessaires et suffisantes pour que une matrice
soit inversible.
(c) Vérifier si la matrice suivante est inversible


a a+b b
M = c c+d d 
e e+f f
2. (Juin 2004) Soient A et B deux matrices carrées à n lignes et n colonnes
et I la matrice identité d’ordre n. Pour chaque affirmation, répondez vrai
ou faux et justifiez votre réponse.
(a)
(b)
(c)
(d)
(e)
Det(A + B) = Det(B + A).
Det(A · B) = Det(B · A).
Si A · B = I, alors DetA 6= 0.
rang(A · B) = rang(B · A).
Si A est inversible, alors Det(A · B · A−1 ) = DetB.
3. (Juin 2004) Soit A une matrice orthogonale (c’est-à-dire une matrice carrée
telle que At = A−1 ). Quelles sont les valeurs possibles pour le déterminant
de A ?
4. (Janvier 2005) On considère la matrice

−5
0
1
A= 0
0
λ

0
1−λ 
0
Calculez le déterminant de A ; déterminez les valeurs de λ telles que la
matrice soit inversible.
5. (Janvier 2006) Déterminez la dimension et une base de l’espace des solutions du système S0 : A · ~x = ~0, où


1
2
4
3
7 .
A= 2
3
4
10
6. (Septembre 2006) Soit A ∈ Rn×n une matrice telle que A2 = A.
(a) Quelles valeurs peut prendre le déterminant de A ?
(b) Déterminer toutes les matrice A ∈ Rn×n telles que A2 = A et qui
sont inversibles.
7. (Janvier 2006) Soient A ∈ Rn×n et V = {~x ∈ Rn | A · ~x = ~x }. Montrez
que V est un sous-espace vectoriel de Rn .
4.5. SÉANCE 5 - OPÉRATIONS SUR LES MATRICES
77
Eléments de Solution
1. (a) Une matrice A ∈ Rn×n est inversible s’il existe une matrice B ∈ Rn×n
telle que A · B = I = B · A. (En effet, une seule parmi les deux
conditions A·B = I et B ·A = I suffit, car chaque condition implique
l’autre).
(b) Une matrice A ∈ Rn×n est inversible ssi ses colonnes sont linéairement
indépendantes ssi ses lignes sont linéairement indépendantes ssi le
rang de A est n ssi le déterminant de A est non nul ssi le système
homogène A · ~x = ~0 admet ~0 comme unique solution ssi pour tout
~b ∈ Rn , le système A · ~x = ~b admet une solution unique.
(c) La matrice M n’est pas inversible car la deuxième colonne est une
combinaison linéaire des autres colonnes.
2. (a) Vrai, car A + B = B + A.
(b) Vrai, car Det(A · B) = DetA · DetB = DetB · DetA = Det(B · A).
(c) Vrai, car si DetA = 0, alors 0 = 0 · DetB = DetA · DetB = Det(A ·
B) = DetI = 1.
(d) Faux, on peut considerer par exemple
A=
A·B =
1
0
0
0
0
0
1
0
B=
B·A=
0
0
1
0
0
0
0
0
On a donc rang(A · B) = 1 et rang(B · A) = 0.
(e) Vrai, car Det(A · B · A−1 ) = DetA · DetB · Det(A−1 ) = DetA · DetB ·
(DetA)−1 = DetB.
3. Si At = A−1 , on a A · At = A · A−1 = I. Par conséquent, Det(A · At ) =
DetI = 1. Mais on a aussi Det(A · At ) = DetA · DetAt = DetA · DetA.
La condition DetA · DetA = 1 nous donne DetA = ±1.
4. DetA = 5λ(1 − λ). La matrice A est inversible ssi DetA 6= 0 ssi λ 6= 0 et
λ 6= 1.
5. La troisième colonne de A est la somme de la deuxième plus deux fois la
première ; la première et la deuxième colonnes sont linéairement indépendantes. Le rang de A est donc 2 et la dimension de l’ensemble des solutions
de S0 est 1. Une base est donnée par le vecteur (2, 1, −1).
6. (a) On a det(A) = det(A2 ) = det(A)·det(A). Par conséquent, det(A) = 0
ou det(A) = 1.
78
CHAPTER 4. EXERCICES
(b) Si A est inversible, il existe une matrice A−1 telle que A · A−1 =
I = A−1 · A. Si on multiplie les deux termes de A2 = A par A−1 ,
on obtient respectivement A−1 · A2 = A−1 · A · A = I · A = A et
A−1 · A = I. La matrice identité est donc la seule matrice inversible
qui satisfaità la condition A2 = A.
7. Il suffit de vérifier que pour x, y ∈ V et α ∈ R, on a
(a) x + y ∈ V , c.-à-d. A(x + y) = Ax + Ay = x + y et
(b) αx ∈ V , c.-à-d. Aαx = αAx = αx.
4.6. SÉANCE 6 - SOLUTIONS APPROCHÉES
4.6
79
Séance 6 - Solutions approchées
1. Vérifiez que les vecteurs ~a = (1, 1, −1), ~b = (2, −2, 0) et ~c = (2, 2, 4) constituent une base orthogonale de R3 . Prenez des multiples de ces vecteurs
pour obtenir une base orthonormée.
2. (Juin 2002) Soit V un sous-espace vectoriel de R3 , notons
V ⊥ = {~x ∈ R3 | pour tout ~v ∈ V : ~x ⊥ ~v }.
(a) Prouvez que V ⊥ est un sous-espace vectoriel de R3 .
(b) Déterminez V ⊥ pour V = {(x, y, z) ∈ R3 | x = y = 0}.
3. (Juin 2003) On considère trois points P, Q et R de coordonnées P =
(−1, 3, −5), Q = (2, k, −1) et R = (m, 0, −8), avec k, m ∈ R. Déterminez
les valeurs des paramètres k et m telles que le triangle de sommets P, Q
et R soit rectangle en P, et les côtés P Q et P R soient de même longueur.
4. Déterminer les solutions approchées du système suivant :
x−y = 1
S:
x − y = −1
5. On considère le système S : A · ~x = ~b, avec




1 1
1
x1
 1 1 −1 
4×3

~x =  x2  ∈ R3
A=
 1 −1 1  ∈ R
x3
1 −1 −1
Déterminez une solution approchée de S.

0
 
~b =  0  ∈ R4 .
 0 
1

80
CHAPTER 4. EXERCICES
Eléments de Solution
1. Il suffit de vérifier que ~a · ~b = ~a · ~c = ~b · ~c = 0. Une base orthonormée est
donnée par
~e =
~b
~a
1
1
= √ (1, 1, −1), f~ =
= √ (2, −2, 0),
~
k ~a k
3
8
kbk
~g =
~c
1
= √ (2, 2, 4) .
k ~c k
24
2. (a) V ⊥ est un sous-espace vectoriel parce que le produit scalaire est
linéaire par rapport à la première variable. Vérifions explicitement
une des conditions de la définition de sous-espace vectoriel : si ~x, ~y ∈
V ⊥ , alors pour tout ~v ∈ V on a ~x · ~v = 0 = ~y · ~v . Cela implique
(~x + ~y ) · ~v = ~x · ~v + ~y · ~v = 0 + 0 = 0. Cela signifie que ~x + ~y ∈ V ⊥ .
(b) V ⊥ = {(x, y, z) ∈ R3 | z = 0} .
−−→
−→
3. On a P Q = (3, k − 3, 4) et P R = (m + 1, −3, −3). La première condition
−−→ −→
se traduit par P Q · P R = 0, et cela donne k = m. La deuxième condition
donne 9 + (k − 3)2 + 16 = (k + 1)2 + 9 + 9, d’où k = 15
8 .
4. Les colonnes de la matrice des coefficients sont ~u1 = (1, 1)t , ~u2 = (−1, −1)t .
Une base orthonormée de l’espace colonne est donc ~e = ( √12 , √12 )t . La projection orthogonale du vecteur des termes indépendants ~b = (1, −1)t sur
l’espace des colonnes est donnée par ~b0 = (~b · ~e) ~e = ~0. Le nouveau système
est
x−y = 0
S0 :
x−y = 0
qui admet comme solutions tous les points du type (x, x), où x varie dans
R. Ces points sont les solutions approchées du système S.
5. Soient ~c1 , ~c2 et ~c3 les colonnes de la matrice A. Il s’agit de trois vecteurs
deux à deux orthogonaux. Pour avoir une base orthonormée de l’espace
des colonnes, il suffit alors de normer ces trois vecteurs. Donc
~q1 =
1
1
1
~c1 , ~q2 = ~c2 , ~q3 = ~c3
2
2
2
est une base orthonormée. Pour calculer la projection orthogonale ~b0 , on
peut utiliser la formule
~b0 = (~b · ~q1 ) ~q1 + (~b · ~q2 ) ~q2 + (~b · ~q3 ) ~q3 = 1 ~c1 − 1 ~c2 − 1 ~c3 = 1 (−1, 1, 1, 3)t
4
4
4
4
La solution aprochée de S est la solution exacte de S 0 : A · ~x = ~b0 , c’est-àdire ( 41 , − 14 , − 14 )t .
4.7. SÉANCE 7 - DIAGONALISATION
4.7
81
Séance 7 - Diagonalisation
1. Trouver les valeurs propres réelles des matrices suivantes




3 0 2
3 0 −1
1 1
A=
, B =  0 3 0  , C =  0 −1 2  .
0 2
0 0 3
0 −2 1
Pour chaque valeur propre, rechercher l’ensemble des vecteurs propres.
2. Pour les matrice A, B et C de l’exercice 1, trouver, si possible, une matrice
P telle que A = P · D · P −1 , où D est une matrice diagonale.
3. Déterminer les valeurs de a ∈ R telles que la matrice


1 a 0
A =  0 1 0 ,
0 0 0
est diagonalisable.
4. (Juin 2006) On considère la matrice


2 0 −1
A= 0 3 0  .
−1 0 2
(a) Déterminer toutes les valeurs du paramètre réel λ telles que le système
A · ~x = λ~x admet une infinité de solutions.
(b) Pour une des valeurs de λ trouvées au point précédent, déterminer la
dimension et une base de l’espace des solutions du système A·~x = λ~x
correspondant.
5. Soit la matrice

3 2 2 −4
 2 3 2 −1 

A=
 1 1 2 −1 
2 2 2 −1
Diagonaliser A en sachant que elle diagonalisable, que son déterminant
vaut 6, qu’une valeur propre vaut 1 et que (0, 3, 1, 2) est vecteur propre.
[Suggestion : utilisez le fait que, si la matrice A est diagonalisable, alors :

- le produit des valeurs propres de A est égal au déterminant de A,
- la somme des valeurs propres de A est égal à la trace de A, c.-à-d. à
la somme des éléments de la diagonale principale de A.]
6. Une matrice carrée A d’ordre n est dite idempotente si A · A = A. On
considère une telle matrice A.
(a) Quelles sont les valeurs propres possibles pour A ?
(b) Montrer que l’espace engendré par les colonnes de A est exactement
l’ensemble des vecteurs ~x de Rn tels que A · ~x = ~x.
82
CHAPTER 4. EXERCICES
Eléments de Solution
1. A : λ1 = 1, λ2 = 2 ; (1, 0) est une base de E1 , (1, 1) est une base de E2 .
B : λ1 = λ2 = λ3 = 3 ; (1, 0, 0), (0, 1, 0) est une base de E3 .
C : λ1 = 3 ; (1, 0, 0) est une base de E3 . Les autres valeurs propres sont
complexes.
1 1
2. A : P =
; la matrices B n’est pas diagonalisable ; la matrice C
0 1
n’est pas diagonalisable sur R.
3. La matrice A admet −λ3 + 2λ2 − λ comme polynôme caractéristique ; elle
est diagonalisable si et seulement si a = 0.
4. Le système donné se ramène au système homogène B · ~x = 0, où


2−λ
0
−1
3−λ
0  .
B= 0
−1
0
2−λ
(a) Pour que le système B · ~x = 0 admette une infinité de solutions, il
faut et il suffit que le déterminant de la matrice B soit égale à zéro.
Cela donne λ = 1 ou λ = 3.
(b) Pour λ = 1, l’espace des solutions est de dimension 1 et une base
est donnée par le vecteur (1, 0, 1). Pour λ = 3, l’espace des solutions
est de dimension 2 et une base est donnée par les vecteurs (0, 1, 0) et
(1, 0, −1).
5. Les valeurs propres sont λ1 = 1 (donnée), λ2 = 3 (car (0, 3, 1, 2) est vecteur
propre relatif à 3), λ3 = 2 et λ4 = 1 (car le déterminant de A est le produit
des valeurs propres et la trace de A est la somme des valeurs propres). Une
base de E1 est (1, −1, 0, 0), (1, 0, −1, 0). Une base de E2 est (−2, 4, 1, 2).
Une base de E3 est (0, 3, 1, 2).
6. (a) Si A~x = λ~x alors λ~x = A~x = AA~x = Aλ~x = λ2 ~x; mais ~x 6= ~0 et donc
λ2 = λ. Cela implique que λ = 0 ou λ = 1.
4.8. SÉANCE 8 - NOMBRES COMPLEXES
4.8
83
Séance 8 - Nombres complexes
1. Ecrivez les nombres complexes suivants sous la forme algébrique a + bi :
1
1+i
(a) (2 + i)2 (1 − i)2
(b) i+1
(c) i5 + i16
(d) 1−2i
2. Résoudre dans C les équations suivantes :
(a) x2 + x + 1 = 0
(b) (x2 + 1)2 = 3x2
(c) x2 − 2ix − 4 = 0
3. Donner le module et l’argument des nombres complexes suivants
√ :
2√
√
(c)
(d)
−1
(e)
−3
−
i
3
(a) 2i
(b) 1+i
2
1+i 3
4. Dessiner les parties du plan déterminées par les conditions suivantes :
(c) | z − 3i |= 5
(d) | z − 1 |=| z + 1 |
(a) | z |≤ 2
(b) arg(z) = 4π
3
(e) z − z̄ = i
5. Soit z un nombre complexe de module r 6= 0 et d’argument θ ∈ [0, π2 [.
Calculer, en fonction de r et θ, la partie réelle, la partie imaginaire, le
module et l’argument des nombres suivants :
(a) z̄
(b) z + z̄
(c) z − z̄
(d) z · z̄
(e) z 2
(f) z/z̄
6. On pose, pour tout complexe z, P (z) = z 5 − z 4 − 6z 3 + 14z 2 − 7z + 15.
(a) Déterminer une racine entière z0 de ce polynôme ;
(b) En déduire une factorisation de la forme P (z) = (z − z0 ) · Q(z) ;
(c) Vérifier que Q(i) = 0 et en déduire les autres racines de P.
7. Déterminer le module et l’argument de :
8. Evaluez les expressions suivantes :
(a) (1 + i)5
(a) e2iπ/3 ·eiπ/2
√
(b) (1 + i 3)5
(b) e−iπ/3 ·eiπ/2
9. Trouvez toutes
C des équations suivantes :
√ les solutionsz dans
(a) ez = 1 − i 3
(b) e + e−z = 0
(c) | ez |= 1
84
CHAPTER 4. EXERCICES
Eléments de Solution
1. (a) 8 − 6i
2. (a) x =
(b)
√
−1±i 3
2
1
2
− 12 i
(b) x =
(c) 1 + i
√
± 3±i
2
3. (a) mod z = 2, arg z = π2
mod z = 1, arg z = 35 π
(d)
√
2 3, arg z = 76 π
(d) − 15 + 53 i
√
(c) x = ± 3 + i
(b) mod z = 1, arg z = π4
(c)
mod z = 1, arg z = π
(e) mod z =
4. (a) Disque centré en (0, 0) et de rayon 2.
√
(b) La demi-droite y = 3x et x ≤ 0.
(c) Cercle de centre (0, 3) et de rayon 5.
(d) La droite x = 0.
(e) La droite y = 21 .
5. (a) partie réelle : r cos θ , partie imaginaire : −r sin θ , module : r ,
argument : 2π − θ
(b) partie réelle : 2r cos θ , partie imaginaire : 0 , module : 2r cos θ ,
argument : 0
(c) partie réelle : 0 , partie imaginaire : 2r sin θ , module : 2r sin θ ,
argument : π2
(d) partie réelle : r2 , partie imaginaire : 0 , module : r2 , argument : 0
(e) partie réelle : r2 cos 2θ , partie imaginaire : r2 sin 2θ , module : r2 ,
argument : 2θ
(f) partie réelle : cos 2θ , partie imaginaire : sin 2θ , module : 1 , argument : 2θ
6. (a) La racine entière est à chercher parmi les diviseurs de 15. On obtient
z0 = −3
(b) En utilisant le principe d’identité des polynômes ou l’algorithme de la
division euclidienne, on obtient P (z) = (z +3)(z 4 −4z 3 +6z 2 −4z +5)
(c) Puisque Q est un polynôme à coefficients réels et i est une racine
complexe, son conjugué −i est aussi racine de Q. Comme dans le
point précédent, on décompose
P (z) = (z + 3)(z − i)(z + i)R(z),
avec R de degré 2. On trouve directement les deux racines complexe de R. Finalement, on a les cinq racines complexes de P :
{−3, i, −i, 2 + i, 2 − i}
√
7. (a) module : 4 2 , argument : 54 π
(b) module : 32 , argument : 53 π
√
√
8. (a) − 23 − 12 i
(b) 21 (1 − 3)i
4.8. SÉANCE 8 - NOMBRES COMPLEXES
9. (a) {ln 2 + ( 53 π + 2kπ)i | k ∈ Z}
(b) {( π2 + kπ)i | k ∈ Z}
(c) {iy | y ∈ R}
85
86
CHAPTER 4. EXERCICES
4.9
Séance 9 - Equations différentielles, I
1. Déterminer la solution générale des équations différentielles suivantes :
1−y
(a) y 0 = − 1−x
(b) y 0 =
y+1
x
(c) y 0 = xy
(d) y 0 =
(e) y 0 =
(f) y 0 =
−2xy
1+x2
2x−1
x2 y
2y
x+1
(g) 2yy 0 = 1 + 4y 2
2. Déterminer la solution des problèmes de Cauchy :
(a) xy 0 − 2y = 0 , y(1) = 1
(b) x(x − 1)y 0 + y = 0 , y( 21 ) = 1
(c) y 0 = xy 3 , y(0) = 1
(d) 2yy 0 + 3x = 0 , y(0) = 1
(e) 2yy 0 = 1 + 4y 2 , y(1) =
1
2
√
e4 − 1
3. Déterminer la solution générale des équations différentielles suivantes :
(a) y 0 + y = sin x
(b) y 0 + y = e−2x
(c) y 0 + x + y = 0
4. Déterminer la solution des problèmes de Cauchy :
(a) y 0 − 3y = 0 , y(1) = 2
(b) y 0 − y = ex , y(2) = 3
5. (Juin 2000)
(a) Calculez la solution de y 0 =
2
xex
y
sous la condition y(0) =
√
3.
(b) Calculez une solution particulière de y 0 + 3y = 13 cos 2x.
6. (Septembre 2002) Déterminer la solution du problème de Cauchy
y0 =
1
1
(y cost + cost) , y(0) = 1
2
y
4.9. SÉANCE 9 - EQUATIONS DIFFÉRENTIELLES, I
Eléments de Solution
1. (a) y(x) =
x−c
x−1
, c∈R
(b) y(x) = cx − 1 , c ∈ R
1
2
(c) y(x) = ce 2 x , c ∈ R
(d) y(x) =
c
1+x2
2
, c∈R
1
x
(e) y(x) = cx e , c ∈ R
(f) y(x) = c(x + 1)2 , c ∈ R
q
(g) y(x) = ± − 14 + ce4x , c ∈ R
2. (a) y(x) = x2
(b) y(x) =
(c) y(x) =
x
1−x
√ 1
1−x2
q
1 − 32 x2
√
(e) y(x) = 12 e4x − 1
(d) y(x) =
3. (a) y(x) = 12 (sin x − cos x) + ce−x , c ∈ R
(b) y(x) = −e−2x + ce−x , c ∈ R
(c) y(x) = 1 − x + ce−x , c ∈ R
4. (a) y(x) = 2e3x−3
(b) y(x) = − 12 e−x + ex (3e−2 + 12 e−4 )
√
5. (a) y(x) = ex2 + 2
(b) y(x) = 3 cos 2x + 2 sin 2x
√
6. y(t) = 2esin t − 1
87
88
CHAPTER 4. EXERCICES
4.10
Séance 10 - Equations différentielles, II
1. Trouvez la solution générale des équations suivantes :
(a) y 00 + 5y 0 + 6y = 0 ;
(b) y 00 + 9y = 0.
2. Trouvez la solution des problèmes suivants :
(a) y 00 − 8y 0 + 15y = 0, y(0) = 0, y 0 (0) = 2 ;
(b) y 00 + 9y = 0, y( π3 ) = 0, y 0 ( π3 ) = −1.
3. Trouvez la solution générale des équations suivantes :
(a) y 00 − 6y 0 + 9y = 7e2x + sin x ;
(b) y 00 + y 0 = ex ;
(c) y 00 + y = sin 2x ;
(d) y 00 − 4y 0 + 13y = 25e−2x ;
(e) y 00 − 2y 0 + y = 1 + x2 + 2 cos 2x ;
(f) y 00 − 3y 0 + 2y = e3x (x2 + x).
4. Trouvez la solution des problèmes de Cauchy suivants :
(a) y 00 + y = e−x , y(0) = 1, y 0 (0) = −1 ;
(b) y 00 + 4y 0 + 5y = sin x, y(0) = 1, y 0 (0) = 0 ;
(c) y 00 − 4y = 1 + x, y(0) = − 41 , y 0 (0) = − 13
4 .
4.10. SÉANCE 10 - EQUATIONS DIFFÉRENTIELLES, II
Eléments de Solution
1. (a) y(x) = Ae−3x + Be−2x
(b) y(x) = A cos 3x + B sin 3x
2. (a) y(x) = e5x − e3x
(b) y(x) =
1
3
sin 3x
3. (a) y(x) = Ae3x + Bxe3x + 7e2x +
−x
(b) y(x) = A + Be
+
(d) y(x) = Ae
cos x +
2x
cos 3x + Be
1
3
2x
(f) y(x) = Ae + Be
4. (a) y(x) =
(b) y(x) =
(c) y(x) =
sin x
sin 2x
sin 3x + e−2x
(e) y(x) = Aex + Bxex + x2 + 4x + 7 +
x
4
50
1 x
2e
(c) y(x) = A cos x + B sin x −
2x
3
50
+
( 21 x2
2
25 (−3 cos 2x
3x
− x + 1)e
1
1 −x
1
2 cos x − 2 sin x + 2 e
1
1 −2x
(9 cos x
8 (sin x − cos x) + 8 e
3 −2x
3 2x
1
− 4 e − 4 (x + 1)
4e
+ 17 sin x)
− 4 sin 2x)
89
90
CHAPTER 4. EXERCICES
4.11
Séance 11 - Equations différentielles, III
1. D’après la loi de Newton, la vitesse de refroidissement d’un corps quelconque dans l’air est proportionnelle à la différence de température entre
le corps et le milieu. La température de l’air étant de 20o , un objet
donné se refroidit de 100o à 60o en 20 minutes. En combien de temps sa
température tombera-t-elle à 30o ?
2. Un réservoir de 100 litres est plein d’eau. Deux conduites y déversent
respectivement un litre d’eau pure et un litre d’eau contenant 100 gr de sel
par minute. Le mélange s’échappe dans le fond à la vitesse de deux litres
par minute. Combien de sel le réservoir contiendra-t-il après t minutes ?
3. On constate que dans une certaine colonie de bactéries, les taux de naissances et de morts sont proportionnels au nombre de bactéries présentes.
Ainsi, l’équation différentielle régissant la croissance de la colonie est
y 0 = (k1 − k2 ) · y.
Déterminez k1 et k2 , sachant que la colonie double en 24 heures et qu’elle
diminuerait de moitié en 8 heures s’il n’y avait pas de naissances.
4. On sait que, dans un certain pays, le taux de croissance de la population
est proportionnel au nombre d’habitants. On constate que la population
actuelle de ce pays est de 190 millions d’habitants et qu’elle augmente de
3 % par an.
(a) En combien d’années la population sera-t-elle de 250 millions d’habitants ?
(b) Combien d’habitants y aura-t-il dans 5 ans ? Dans 50 ans ?
5. On admet que, par évaporation, une goutte de pluie sphérique décroı̂t en
volume à un taux proportionnel à sa surface. En combien de temps une
goutte de rayon r0 s’évapore-t-elle complètement ?
4.11. SÉANCE 11 - EQUATIONS DIFFÉRENTIELLES, III
91
Eléments de Solution
1. La loi de Newton s’exprime par l’équation
T 0 (t) = k · (T (t) − Tm )
où T (t) est le température de l’objet au temps t, Tm est la température
de l’aire, supposée constante, et k est une constante négative propre à
l’objet. Il s’agit donc d’une équation différentielle linéaire du premier
ordre qui admet comme solution la fonction
T (t) = A · ekt + Tm
avec A ∈ R une constante arbitraire. Puisque Tm = 20 et T (0) = 100,
on obtient A = 80. Puisque T (20) = 60, on obtient k = − ln202 . On a
finalement
ln 2
T (t) = 20 + 80 · e− 20 t
ln 2
La condition T (t) = 30 nous donne e− 20 t = 18 , d’où t = 60.
2. Soit As (t) la quantité d’eau salée dans le reservoir au temps t. Une façon
simple d’exprimer la variation A0s (t) est l’équation
A0s (t) = 1 −
As (t)
50
qu’on peut justifier de la façon suivante :
- au temps t = 0 toute l’eau du reservoir est pure ; par conséquent As (t) =
1 litre × min = t, et donc A0s (t) = 1 ;
- dès que dans le reservoir il y a un mélange, une partie de l’eau salée
s’échappe et donc As (t) augmente de plus en plus lentement jusqu’au
moment où dans le reservoir il y a 50 litres d’eau pure et 50 litre d’eau
salée ;
- à ce moment la la quantité As (t) reste constante, et donc A0s (t) = 0.
L’équation
As (t)
50
est une équation différentielle linéaire du premier ordre, et sa solution
générale est la fonction
A0s (t) = 1 −
1
As (t) = A · e− 50 t + 50
avec A ∈ R une constante arbitraire. La condition initiale As (0) = 0
donne A = −50 et donc
1
As (t) = 50 − 50 · e− 50 t
Finalement, la quantité de sel dans le reservoir est
S(t) = 100 gramme par litre =
1
· As (t).
10
92
CHAPTER 4. EXERCICES
3. Si k1 = 0, l’équation devient y 0 = −k2 · y, qui admet comme solution la
fonction
y(t) = y0 · e−k2 t
où y0 est la population initiale. La condition y(8) = 12 y0 nous donne alors
k2 = ln82 . L’équation de depart devient y 0 (t) = (k1 − ln82 ) · y(t), dont la
solution est la fonction
y(t) = y0 · e(k1 −
ln 2
8 )t
La condition y(24) = 2y0 nous permet de calculer k1 . On a k1 =
ln 2
6 .
4. La condition que le taux de croissance de la population est proportionnel
au nombre d’habitants se traduit par l’équation différentielle
P 0 (t) = k · P (t)
où P (t) est la fonction qui donne la population au temps t et k est une
constante positive. La solution de cette équation est P (t) = P (0) · ekt , où
P (0) = 190 · 106 est la population initiale. Puyisque l’augmentation est
de 3 % par an, on a que P (1) = 1, 03 · P (0), ce qui nous permet d’obtenir
k = ln 1, 03. On a donc
P (t) = 190 · 106 · et·ln 1,03 = 190 · 106 · 1, 03t
(a) La condition P (t) = 250 · 106 donne t =
250
ln 190
ln 1,03
' 9 ans et 3 mois.
(b) On a aussi P (5) = 190 · 106 · 1, 035 ' 220 · 106 et P (50) = 190 · 106 ·
1, 0350 ' 833 · 106 .
5. Si V (t) est le volume et S(t) est la surface de la goutte au temps t, on
a V 0 (t) = k · S(t), où k est une constante négative. Si r(t) est le rayon
de la goutte au temps t, on a S(t) = 4πr2 (t) et V (t) = 34 πr3 (t), d’où
V 0 (t) = 4πr2 (t)r0 (t). L’équation V 0 (t) = kS(t) devient alors r0 (t) = k,
et donc r(t) = r0 + kt. Pour que l’évaporation soit complète il faut avoir
r(t) = 0, ce qui donne t = − rk0 .
4.12. EXERCICES DE RÉVISION
4.12
93
Exercices de révision
1. (Juin 2001) On considère un système d’équations linéaires écrit sous forme
matricielle
S : A · ~x = ~b .
Soit ~xp une solution de S et soit ~x1 , . . . , ~xr une base de l’ensemble des
solutions du système homogène associé à S.
Montrer que les solutions de S sont les vecteurs du type ~xp + λ1 ~x1 + . . . +
λr ~xr , avec λ1 , . . . , λr des nombres réels arbitraires.
2. (Juin 2003)
(a) On considère le système d’équations linéaires (en notation matricielle)
S : A · ~x = ~b .
Donnez une condition nécessaire et suffisante pour que le système S
admette au moins une solution.
(b) On considère à nouveau le système S : A·~x = ~b et l’on fixe maintenant


 
1 2 3
1
A =  2 1 3  ~b =  1  .
3 3 6
2
i. Déterminez la dimension et une base de l’espace des solutions du
système homogène S0 associé à S.
ii. Déterminez la solution générale du système S.
3. (Janvier 2006) Soit
a
2×2
S= M ∈R
|M =
b
A=
1
0
0
0
,
B=
0
1
b
c
1
0
, où a, b, c ∈ R
,
C=
0
0
0
1
.
(a) Montrez que toute combinaison linéaire de matrices de S est encore
une matrice de S.
2
3
(b) Ecrivez la matrice
comme combinaison linéaire de
3
−7
A, B et C.
(c) Montrez que A, B et C forment une famille génératrice de S.
(d) Montrez que A, B et C forment une base de S.
4. (Septembre 2006) Soit A ∈ Rn×n une matrice telle que, si ~c est une colonne
de A, alors A · ~c = ~c.
94
CHAPTER 4. EXERCICES
(a) Montrer que si ~v est une combinaison linéaire de colonnes de A, alors
A · ~v = ~v .
(b) On considère le système homogène S : A·~x = ~0, et soit u~1 , . . . , u~k une
base de Sol(S), l’espace des solutions de S. Soit aussi vk+1
~ , . . . , v~n
une base de Col(A), l’espace engendré par les colonnes de A. En
utilisant le point 1, montrer que u~1 , . . . , u~k , vk+1
~ , . . . , v~n est une base
de Rn .
5. (Juin 2001) Soit A une matrice 4 × 4 dont le déterminant vaut 4 et soient
 
 
0
4
 0 
 0 


~v = 
~u = 
 0 
 0 
4
0
deux vecteurs de R4 . Peut-on dire que les vecteurs A · ~u et A · ~v sont
linéairement indépendants? Justifiez votre réponse.
6. Déterminer une solution approchée du

 x+y
2y
S:

x+y
système suivant :
=
=
=
1
1
0
7. Soit A ∈ R3×3 une matrice vérifiant A2 = 0.
(a) Quelles peuvent être les valeurs propres de A ?
(b) La matrice I − A est-il inversible ?
8. En utilisant la formule de De Moivre pour n = 3, montrer que :
(a) cos 3θ = 4 cos3 θ − 3 cos θ
(b) sin 3θ = −4 sin3 θ + 3 sin θ
9. (Septembre 2003) Déterminer la solution du problème de Cauchy
y 0 = (1 − y)et , y(0) = 0
10. (Septembre 2004) Déterminez l’unique solution du problème de Cauchy
y0 =
sin x
, y(0) = 1
y
et son domaine de définition.
11. (Janvier 2003) Déterminer la solution du problème de Cauchy
y 00 − 5y 0 + 6y = sin t + 2 cos t , y(0) = 0 , y 0 (0) =
1
.
2
4.12. EXERCICES DE RÉVISION
95
Eléments de Solution
1. Montrons d’abord que si ~x est solution du système S, alors ~x peut s’écrir
sous la forme ~x = ~xp + λ1 ~x1 + . . . + λr ~xr . En effet, si A · ~x = ~b, alors
A · ~x = A · ~xp , et donc A · (~x − ~xp ) = ~0. Cela signifie que ~x − ~xp est solution
du système homogène S0 associé à S. Par conséquent, on peut trouver
λ1 , . . . , λr ∈ R tels que ~x − ~xp = λ1 ~x1 + . . . + λr ~xr (car par hypothèse
~x1 , . . . , ~xr est une base de l’espace des solutions de S0 ). Cela implique
que ~x = ~xp + λ1 ~x1 + . . . + λr ~xr . Réciproquement, supposons d’avoir un
vecteur de la forme ~x = ~xp + λ1 ~x1 + . . . + λr ~xr et montrons que ~x est
solution du système S. On a A · ~x = A · (~xp + λ1 ~x1 + . . . + λr ~xr ) =
A · ~xp + λ1 A · ~x1 + . . . + λr A · ~xr = ~b + ~0 + . . . + ~0 = ~b.
2. (a) Le système S admet au moins une solution si et seulement si le vecteur
~b est combinaison linéaire des vecteurs colonnes de la matrice A.
(b) i. La troisième colonne de A est la somme de la première et de la
deuxième colonne, qui sont linéairement indépendantes. Le rang
de A est donc 2 et la dimension de l’espace des solutions de S0
est 1. Une base est donnée par le vecteur (1, 1, −1).
ii. Une solution particulière de S est (0, 0, 31 ). La solution générale
de S est donc (0, 0, 13 ) + λ(1, 1, −1), avec λ ∈ R arbitraire.
3. (a) Soit X = αA + βB + γC, o α, β et γ ∈ R. Il suffit de vérifier que les
éléments non diagonaux x12 et x21 sont égaux, c.-à-d. x12 = β = x21
(b) Il suffit d’écrire
2
3
=
3
−7
1
0
0
1
0
0
=2
+3
−7
.
0
0
1
0
0
1
(c) Il suffit d’écrire
=a
1
0
0
0
+b
a
b
0
1
b
=
c
1
0
+c
0
0
0
1
= aA+bB+cC.
(d) On a vérifié en (c) que l’ensemble A, B et C est générateur. Il reste
donc à voir qu’il est libre, ce qui est évident puisque
a
b
0
0
aA + bB + cC =
=
b
c
0
0
implique bien a = b = c = 0.
4. (a) Si c~1 , . . . , c~n sont les colonnes de A et si ~v = x1 c~1 + . . . + xn c~n , par
la condition sur la matrice A on a
A·~v = A·(x1 c~1 +. . .+xn c~n ) = x1 A·c~1 +. . .+xn A·c~n = x1 c~1 +. . .+xn c~n = ~v .
96
CHAPTER 4. EXERCICES
(b) Il suffit de montrer que u~1 , . . . , u~k , vk+1
~ , . . . , v~n sont linéairement indépendants. Supposons que
(∗)
a1 u~1 + . . . + ak u~k + ak+1 vk+1
~ + . . . + an v~n = ~0.
On a alors
~0 = A · ~0 = A · (a1 u~1 + . . . + ak u~k + ak+1 vk+1
~ + . . . + an v~n ) =
= a1 A · u~1 + . . . + ak A · u~k + ak+1 A · vk+1
~ + . . . + an A · v~n =
= a1~0 + . . . + ak~0 + ak+1 vk+1
~ + . . . + an v~n = ak+1 vk+1
~ + . . . + an v~n ,
où on a utilisé que A · ui = ~0 car u~i ∈ Sol(S) et que A · v~j = v~j car
v~j ∈ Col(A). Puisque vk+1
~ , . . . , v~n sont linéairement indépendants,
cela implique que ak+1 = . . . = an = 0.
La condition (∗) donne maintenant
a1 u~1 + . . . + ak u~k = ~0
et, puisque u~1 , . . . , u~k sont linéairement indépendants, on obtient
a1 = . . . = ak = 0.
5. Si DetA = 4, la matrice A est inversible. Montrons maintenant que A · ~u
et A · ~v sont linéairement indépendants. Si αA · ~u + βA · ~v = ~0, alors
~0 = A−1 · ~0 = A−1 · (αA · ~u + βA · ~v ) = αA−1 · A · ~u + βA−1 · A · ~v =
αI ·~u +βI ·~v = α~u +β~v . Mais la condition ~0 = α~u +β~v implique α = β = 0,
car ~u et ~v sont évidemment linéairement indépendants.
6. Soit A la matrice des coefficients du système S et soit ~b = (1, 1, 0)t le
vecteur des termes indépendents. Le système S est impossible, car ~b
n’appartient pas à l’espace C(A) engendré par les colonnes de A. On
cherche donc la projection orthogonale ~b0 de ~b sur C(A). Pour cela, on
peut observer (voir ci-dessous) que une base orthonormée de C(A) est
~e1 = ( √12 , 0, √12 )t , ~e2 = (0, 1, 0)t , et donc ~b0 = (~b · ~e1 ) · ~e1 + (~b · ~e2 ) · ~e2 =
( 21 , 1, 12 )t . Le nouveau système est donc

 x + y = 21
0
2y
= 1
S :

x + y = 12
qui admet (x = 0, y = 21 ) comme solution.
(Voici la procédure pour trouver une base orthonormée de C(A). Les
colonnes ~c1 = (1, 0, 1)t et ~c2 = (1, 2, 1)t sont linéairement indépendantes.
Elles sont donc une base de C(A), mais il ne s’agit pas d’une base orthonoirmée. On commence par normer la première colonne. On obtient
~e1 = ( √12 , 0, √12 )t . Ensuite on calcule la projection orthogonale d~2 de ~c2
sur l’espace engendré par ~e1 . On a d~2 = (~c2 · ~e1 ) ~e1 = (1, 0, 1)t . Si on
4.12. EXERCICES DE RÉVISION
97
retire d~2 de ~c2 , on obtient un vecteur qui est dans C(A) est qui est orthogonale à ~e1 . On a ~c2 − d~2 = (0, 2, 0)t . Si on norme le vecteur ainsi
trouvé on a ~e2 = (0, 1, 0)t . Finalement, les vecteurs ~e1 , ~e2 forment une
base orthonormée de C(A).)
7. (a) L’unique valeur propre possible est λ = 0. En effet, si A · ~x = λ~x,
alors 0 = A2 · ~x = A(·A~x) = A · (λ~x) = λ(A · ~x) = λ2 ~x et donc λ = 0
(car ~x 6= ~0).
(b) Oui. Si I − A n’est pas inversible, on peut trouver un vecteur ~x 6= ~0
tel que (I − A)(~x) = ~0, c’est-à-dire A · ~x = ~x. Donc λ = 1 est valeur
propre, en contradiction avec le point (a).
8. Par calcul directe on a : (cos θ + i sin θ)3 = cos3 θ + 3i cos2 θ sin θ −
3 cos θ sin2 θ − i sin3 θ.
La formule de De Moivre donne : (cos θ + i sin θ)3 = cos 3θ + i sin 3θ.
En égalant les membres de droite et en comparant la partie réelle et la
partie imaginaire, on obtient la thèse.
9. Il s’agit d’une équation différentielle à variables séparables :
y 0 (t) = f (t)·g(y(t)) , f (t) = et , g(y) = 1−y , t0 = 0 , y0 = 0 , g(y0 ) = 1 6= 0 .
Rt
R t y0
Rt
= et et donc 0 1−y
dt = 0 et dt. Mais 0 et dt = et − 1 et
Ry 1
1−et
. Pour que la
1−y dt = 0 1−y dy = − ln | 1 − y | . D’où y(t) = 1 ± e
On a
R t y0
0
y0
1−y
t
condition y(0) = 0 soit vérifiée, il faut choisir y(t) = 1 − e1−e .
10. Il s’agit d’une équation différentielle à variables séparables. On a y 0 · y =
sin x, d’où
Z x
Z x
y 0 · ydt =
sin tdt,
0
ou encore
Z
0
y(x)
Z
ydy =
1
sin tdt.
0
On en déduit
x
y2
2
y(x)
x
= [− cos x]0
1
et donc y(x)2 = −2 cos x+3. Pour que la condition y(0) = 1 soit respectée,
il
√ faut choisir la racine positive. On a alors l’unique solution y(x) =
−2 cos x + 3 qui est définie sur R.
11. y(t) = − 32 e2t + 56 e3t +
3
10
cos t −
1
10
sin t
98
CHAPTER 4. EXERCICES
4.13
Exercices d’examen
MAT 1111 2Q EXAMEN 3 Mars 2007
Question I
On considère le système homogène

 x1 + x2 + x3
x1 + x2 + 2x3 + x4 + x5
S0 :

x3 + x4 + x5
=
=
=
0
0
0
Déterminez :
1. la dimension, et
2. une base de l’espace des solutions de S0 .
Question II
Soit ~a, ~b, ~c trois vecteurs linéairement indépendants de Rn (n ≥ 3) et soit k ∈
R un paramètre. Les trois vecteurs ~a, ~a + ~b, ~a + ~b + k~c sont-ils linéairement
indépendants ? Discutez en fonction de k.
Solution I
Le système S0 est équivalent au système échelonné

 x1 + x2 + x3 = 0
x3 + x4 + x5 = 0
S00 :

0
= 0
1. Le rang vaut 2 car S00 contient deux équations non identiquement nulles ;
par consq́uent :
dimSol(S0 ) = nombre de variables − rang = 5 − 2 = 3 .
2. Si on fixe x1 = 1, x4 = 0, x5 = 0 on a ~x1 = (−1, 1, 0, 0, 0) ∈ Sol(S0 ).
Si on fixe x1 = 0, x4 = 1, x5 = 0 on a ~x1 = (1, 0, −1, 1, 0) ∈ Sol(S0 ).
Si on fixe x1 = 0, x4 = 0, x5 = 1 on a ~x1 = (1, 0, −1, 0, 1) ∈ Sol(S0 ).
Les trois vecteurs ~x1 , ~x2 , ~x3 sont une base de Sol(S0 ).
Solution II
Soit α, β, γ ∈ R tels que α~a + β(~a + ~b) + γ(~a + ~b + k~c) = ~0.
On en tire (α + β + γ)~a + (β + γ)~b + γk~c = ~0 et donc α + β + γ = β + γ = γk = 0
(car ~a, ~b et ~c sont linéairement indépendants).
- Si k 6= 0, alors γ = β = α = 0 et les trois vecteurs ~a, ~a + ~b, ~a + ~b + k~c sont
linéairement indépendants.
- Si k = 0, alors les trois vecteurs deviennent ~a, ~a + ~b, ~a + ~b qui sont
évidemment linéairement dépendants.
4.13. EXERCICES D’EXAMEN
99
MAT 1111 2Q EXAMEN 8 Juin 2007
Question I
On considère le système S : A · ~x = ~b, avec




 
0 −1 −2
x1
1
3  ∈ R3×3 , ~x =  x2  ∈ R3 , ~b =  0  ∈ R3 .
A =  −1 1
1
1
1
x3
0
On note C(A) le sous-espace vectoriel de R3 engendré par les colonnes de A.
1. Choisir parmi les colonnes de A une base de C(A).
2. Montrer que ~b ∈
/ C(A).
3. Calculer les solutions approchées du système S.
Question II
1. La matrice

1
A= 0
0
0
3
1

1
0 
3
est-elle diagonalisable dans R ?
2. Quelles sont les matrices carrées d’ordre 3, diagonalisables, qui n’ont
qu’une seule valeur propre ?
Question III
Soit z un nombre complexe différent de 1 et n un entier positif non-nul. La
formule suivante est très connue des mathématiciens:
(∗)
1 + z + · · · + zn =
z n+1 − 1
.
z−1
1. Pour montrer que vous avez compris la formule (∗), simplifiez la somme
1 + 2 + · · · + 22007 .
2. Pour quels entiers positifs non-nuls n a-ton l’égalité suivante:
1 + i + · · · + in = 0.
3. En utilisant la formule (∗), donnez l’écriture algébrique (a+ib) du nombre
complexe suivant :
1 + cis θ + (cis θ)2 + · · · + (cis θ)n ,
où θ ∈ ]0, 2π[ et cis θ = cos θ + i sin θ.
[Suggestion : pensez à utiliser la formule de Moivre : pour tout k ∈
Z, (cis θ)k = cis(kθ) ; en particulier, (cis θ)−1 = cos θ − i sin θ.]
100
CHAPTER 4. EXERCICES
Question IV
Déterminer la solution du problème de Cauchy
y 00 − 2y 0 + y = t2 , y(0) = 6 , y 0 (0) = 5 .
Solution I
1. Notons ~c1 , ~c2 , ~c3 les colonnes de A. Par définition, les vecteurs ~c1 , ~c2 , ~c3 sont
une famille génératrice de C(A). Il reste à éliminer les vecteurs qui sont combinaison linéaire des autres. Pour cela, on remarque que ~c1 et ~c2 sont linéairement
indépendants et que ~c3 = −~c1 + 2~c2 . On peut donc choisir les vecteurs ~c1 , ~c2
comme base de C(A).
2. Comme ~c1 , ~c2 sont une base de C(A), si ~b appartenait à C(A), il existerait
deux réels α, β tels que ~b = α~c1 + β~c2 , c’est-à-dire que
1 = −β , 0 = −α + β , 0 = α + β
ce qui est impossible. Par conséquent, ~b ∈
/ C(A).
3. On commence par calculer la projection orthogonale ~b0 de ~b sur C(A). Puisque
~c1 et ~c2 sont déjà orthogonaux, pour avoir une base orthonormée de C(A) il
suffit de les normer. On obtient ~e1 = √12 ~c1 et ~e2 = √13 ~c2 . Par conséquent,
~b0 = (~b · ~e1 )~e1 + (~b · ~e2 )~e2 = ( 1 , − 1 , − 1 )t . Les solutions approchées du système
3
3
3
S sont les solutions exactes du nouveau système S 0 : A · ~x = ~b0 .
Puisque le rang de A est 2, la dimension de l’espace des solutions du système
homogène associé est 1. Puisque ~c1 − 2~c2 + ~c3 = ~0, le vecteur (1, −2, 1)t est
une base de l’espace des solutions du système homogène associé. Une solution
particulière du système S 0 est par exemple (0, − 13 , 0)t . La solution générale du
système S 0 est donc (0, − 13 , 0)t + λ(1, −2, 1)t , avec λ ∈ R arbitraire.
Solution II
1. Le polynôme caractéristique de cette matrice est donné par (λ − 1)(λ − 3)2 .
Les valeurs propres de cette matrice sont donc 1 et 3. Pour savoir si la matrice A
est diagonalisable, il suffit de déterminer la dimension de l’espace propre associé
la valeur propre 3. Celui-ci est l’espace des solutions du système homogène
associé à la matrice


−2 0 1
 0 0 0 .
0 1 0
Comme le rang de cette matrice est égal à deux, la dimension de l’espace propre
associé à la valeur propre 3 vaut 1. Par conséquent, la matrice A n’est pas
diagonalisable.
2. Première possibilité : Soit A une telle matrice, admettant la valeur propre
λ ∈ R. Comme cette matrice est diagonalisable, il existe une matrice inversible
4.13. EXERCICES D’EXAMEN
101
B telle que A = BDB −1 , avec

λ
D= 0
0
0
λ
0

0
0 .
λ
Il s’ensuit que A = λBIB −1 = D. Les matrices répondant aux conditions
demandées sont donc les multiples de l’identité. (Car il est clair qu’à leur tour,
ces matrices satisfont ces conditions.)
Deuxième possibilité : Si A est diagonalisable et elle admet une seule valeur
propre λ, il faut que la dimension de l’espace propre Eλ soit 3, c’est-à-dire il
faut que le rang de A − λI soit 0. Cela implique que A − λI est la matrice nulle,
et donc A = λI.
Solution III
1.
1 + 2 + · · · + 22007 =
22008 − 1
= 22008 − 1.
2−1
2. Comme on a l’égalité suivante:
1 + i + · · · + in =
in+1 − 1
,
i−1
la somme 1 + i + · · · + in sera nulle si in+1 = 1 ce qui sera le cas si n + 1 est un
multiple de 4 c’est-à-dire si n est un multiple de 4 diminué de 1.
3. Par la formule (∗) on a
1+cis θ+(cis θ)2 +. . .+(cis θ)n =
(cis θ)n+1 − 1 cos θ − i sin θ − 1
(cis θ)n+1 − 1
=
·
=
cis θ − 1
cos θ + i sin θ − 1 cos θ − i sin θ − 1
(cis θ)n − (cis θ)n+1 − (cis θ)−1 + 1
((cis θ)n+1 − 1) · ((cis θ)−1 − 1)
=
=
2 − 2 cos θ
2 − 2 cos θ
cis(nθ) − cis((n + 1)θ) − cis(−θ) + 1
=
=
2 − 2 cos θ
cos(nθ) − cos((n + 1)θ) − cos θ + 1
sin(nθ) − sin((n + 1)θ) + sin θ
=
+i·
.
2 − 2 cos θ
2 − 2 cos θ
=
Solution IV
1. Solution générale de l’équation homogène associée y 00 − 2y 0 + y = 0 : le
polynôme caractéristique est λ2 − 2λ + 1 et ses racines sont λ1 = 1 = λ2 . La
solution générale est donc
yh (t) = (A + Bt)et , A, B ∈ R .
2. Solution particulière de l’équation non homogène y 00 −2y 0 +y = t2 : puisque 0
n’est pas solution du polynôme caractéristique, il existe une solution de la forme
yp (t) = a + bt + ct2 . On calcule yp0 (t) = b + 2ct et yp00 (t) = 2c et on remplace
102
CHAPTER 4. EXERCICES
ces expressions dans l’équation. On trouve ainsi a = 6, b = 4 et c = 1. Par
conséquent,
yp (t) = 6 + 4t + t2 .
3. La solution générale de l’équation non homogène est alors
y(t) = yh (t) + yp (t) = (A + Bt)et + 6 + 4t + t2 , A, B ∈ R .
4. Si on calcule y 0 (t) et y 00 (t) et on impose la condition initiale y(0) = 6, y 0 (0) =
5, on obtient A = 0 et B = 1. L’unique solution du problème de Cauchy est
donc
y(t) = tet + 6 + 4t + t2 .
4.13. EXERCICES D’EXAMEN
103
MAT 1111 2Q EXAMEN 3 Septembre 2007
Question I
Soit A ∈ Rm×n une matrice à m lignes et n colonnes, et soit fA : Rn → Rm
l’application définie par f (~x) = A · ~x pour ~x ∈ Rn .
1. Montrer que si fA est injective, alors le système homogène S0 : A · ~x = ~0
admet une unique solution.
2. Montrer que si le système homogène S0 admet une unique solution, alors
fA est injective.
3. Montrer que si n > m alors fA n’est pas injective. [Aide : Utiliser le fait
que n = r(S0 ) + dim Sol(S0 ) où Sol(S0 ) est l’ensemble des solutions du
système S0 et r(S0 ) est le rang de S0 .]
Question II
La matrice
M=
cos θ
− sin θ
sin θ
cos θ
est-elle diagonalisable sur R ? Discuter en fonction du paramètre réel θ.
Question III
Une particule de masse unitaire subit une force dépendant de sa position y(t),
de sa vitesse y 0 (t) et du temps t selon la formule : F (y 0 , y, t) = −2y 0 − y + 4et .
Par la loi de Newton (F = ma avec a = y 00 (t)), son mouvement est donc régi
par l’équation différentielle
y 00 (t) = −2y 0 (t) − y(t) + 4et
Sachant qu’au temps t = 0, la particule a une vitesse égale à 1 et une position
égale à 3 (c’est-à-dire y 0 (0) = 1 et y(0) = 3), déterminer sa position y(t) en
fonction du temps t.
Solution I
1. Supposons que fA soit injective et soit ~x ∈ Rn une solution du système
homogène S0 . Alors fA (~x) = A · ~x = ~0 = A · ~0 = fA (~0 ). Par l’injectivité
de fA , on a ~x = 0, qui est donc l’unique solution possible de S0 .
2. Le système homogène S0 admet toujours la solution ~x = ~0 (car A · ~0 = ~0)
et l’hypothèse nous dit que ~0 est en effet la seule solution de S0 . Soient
~x, ~y ∈ Rn tels que fA (~x) = fA (~y ). Alors ~0 = fA (~x)−fA (~y ) = A·~x −A·~y =
A·(~x −~y ), c’est-à-dire que ~x −~y est solution du système S0 . Par conséquent,
~x − ~y = ~0 et donc ~x = ~y , ce qui prouve que fA est injective.
3. On a que
104
CHAPTER 4. EXERCICES
(a) n = r(S0 ) + dim Sol(S0 ) (voir cours)
(b) r(S0 ) ≤ m (car le système S0 contient m équations)
(c) n > m (par hypothèse).
On en tire que dim Sol(S0 ) ≥ 1, et donc S0 admet une infinité de solutions.
Par le point 2 de l’exercice, fA ne peut pas être injective.
Solution II
Cherchons d’abord les racines du polynôme caractéristique de M :
det(M − λI) = λ2 − 2λ cos θ + 1 .
√
Les racines sont données par λ = cos θ ± cos2 θ − 1. Il faut examiner trois cas
:
1. Si θ 6= kπ (k ∈ Z), alors le polynôme caractéristique n’a pas de racines
réelles et donc la matrice M n’est pas diagonalisable.
1 0
2. Si θ = 2kπ (k ∈ Z), la matrice M devient
. Elle est diagonale
0 1
et donc diagonalisable.
−1 0
3. Si θ = (2k + 1)π (k ∈ Z), la matrice M devient
. Elle est
0 −1
diagonale et donc diagonalisable.
(Interprétation géométrique : la matrice M décrit la rotation d’angle θ du plan
autour de l’origine. Si θ 6= kπ (k ∈ Z), il n’y a pas de vecteurs propres (car
par rotation aucun vecteur n’est envoyé sur un vecteur parallel à lui-même) et
donc M n’est pas diagonalisable. Si θ = kπ (k ∈ Z), alors la rotation est ou
bien l’identité (pour k paire) ou bien la symétrie centrale de centre l’origine
(pour k impaire). Tout vecteur est vecteur propre de valeur propre 1 (dans le
cas de l’identité) ou −1 (dans le cas de la symétrie) et la matrice M est bien
diagonalisable.)
Solution III
Il s’agit de résoudre le problème de Cauchy
00
y + 2y 0 + y = 4et
y 0 (0) = 1, y(0) = 3
1. L’équation homogène associée est
y 00 + 2y 0 + y = 0,
dont le polynôme caractéristique est λ2 + 2λ + 1, de racine double λ = −1. La
solution générale de l’équation homogène est donc yh (t) = (C1 t + C2 ) e−t .
2. Le second membre étant 4et , il existe une solution particulière de la forme
4.13. EXERCICES D’EXAMEN
105
yp (t) = Aet , avec A à déterminer. En injectant ceci dans l’équation différentielle
on obtient A = 1. La solution particulière est donc yp (t) = et .
3. La solution générale de l’équation homogène est y(t) = yh (t) + yp (t) =
(C1 t + C2 ) e−t + et . Les conditions initiales nous donnent les valeurs C1 = C2 =
2. La solution finale est donc y(t) = (2t + 2) e−t + et .
Téléchargement