1Cours Alg2

publicité
Université de Nice
2012-13
SL2SF
Algèbre 2
Vecteurs propres et valeurs propres.
On travaille sur le corps R des réels.
On pourrait également utiliser le corps des complexes C. La plupart des résultats sont en fait
valables sur un corps quelconque.
Un résultat essentiel du cours de première année est le suivant : on considère un système linéaire
homogène (i.e. sans second membre) de p équations à n inconnues
a1,1 x1 + . . . + a1,n xn = 0
..
.
ap,1 x1 + . . . + ap,n xn = 0.
La matrice p × n de coefficients ai,j pour i de 1 à p et j de 1 à n est la matrice du système. On la
désigne par A.
On échelonne les lignes de la matrice A. Le rang des lignes de A est le nombre de pivots obtenu dans
la procédure d’échelonnage. Il ne dépend pas du procédé choisi. C’est le nombre de variables
liées du système. On l’appelle le rang du système (ou rang des lignes de A). L’espace des solutions
du système a pour dimension le nombre de variables libres et, bien sûr, le nombre de variables
est égal à la somme du nombre de variables liées et du nombre de variables libres. C’est la première
forme du théorème du rang.
1. Applications linéaires
Dans tout ce paragraphe, on considère deux espaces vectoriels E et F sur R et une application
f : E −→ F .
Pour les définitions aller au paragraphe 10.
1.1. Matrice d’une application linéaire. On suppose ici que E et F sont de dimension finie.
On note n la dimension de E et p la dimension de F . On se donne des bases B = (~e1 , . . . , ~en ) de
E et C = (~1 , . . . ,~p ) de F .
On considère une application linéaire f : E −→ F . La matrice de f dans les bases (B, C) est
un tableau à p lignes et n colonnes. Sur la j-ème colonne on dispose les coordonnées dans la base
C de l’image par f du j-ème vecteur de B, de sorte que le coefficient ai,j de la matrice, situé sur
la ligne de numéro i et la colonne de numéro j est la i-ème coordonnée du vecteur f (~ej ). On note
Mp,n (R) l’ensemble des matrices à p lignes et n colonnes.
Aux opérations sur les applications linéaires, correspondent les opérations sur les matrices : produit
par un scalaire, somme, produit de matrices.
Noter que le produit AB de deux matrices n’a de sens que si le nombre de lignes de B est égal
au nombre de colonnes de A. La matrice AB a alors le nombre de lignes de A et le nombre de
colonnes de B. En particulier, si A est dans Mp,n (R) et X une matrice colonne de Mn,1 (R), alors
le produit AX est une matrice colonne de Mp,1 (R).
2
Comment disposer le produit de deux matrices : ci-dessous le calcul du coefficient ci,j du produit
AB. Il ne fait intervenir que la i-ème ligne de A et la j-ème colonne de B.


b1,j


b2,j


.


..
bn,j
..
.

 ai,1 ai,2 . . . ai,n   . . . c

 
i,j

 




 
ci,j = ai,1 b1,j + ai,2 b2,j + . . . + ai,n bn,j
n
X
=
ai,` b`,j .
`=1
1.1.1. Exercice. . On considère un entier n, n ≥ 2, deux entiers i et j, 1 ≤ i 6= j ≤ n, une
matrice carrée Li,j (λ) de taille n × n dont les coefficients diagonaux sont tous égaux à 1, dont le
coefficient `i,j vaut λ et dont tous les autres coefficients sont nuls.
On considère également une matrice A à n lignes et p colonnes. On désigne par Li la ligne de
numéro i, pour i de 1 à n. Montrer que le produit Li,j (λ)A est une matrice A0 qui a les mêmes
lignes que A sauf la ligne de numéro i qui vaut Li + λLj . /
1.1.2. Exercice. . Montrer que Mp,n (R) est un espace vectoriel sur R. En donner une base.
Quelle est sa dimension ? Montrer que Mn,n (R), que l’on notera désormais Mn (R), est stable par
la multiplication des matrices. Montrer que ce produit n’est pas commutatif si n > 1. /
Comment calculer avec la matrice de f ? Notons A la matrice de f dans les bases (B, C).
Un vecteur ~x de E est un élément de ker f si f (~x) = ~0. Ses coordonnées (x1 , . . . , xn ) dans B sont
solutions du système linéaire homogène de matrice A. Ce système a p équations à n inconnues. Il a
pour rang le rang de A (nombre de variables liées) et l’ensemble de ses solutions est de dimension
d − rg(A) (nombre de variables libres). On a donc dim ker f = dim E − rg(A). Comme le sousespace ker f est indépendant de la base choisie, le rang de la matrice de f dans une base B ne
dépend pas du choix de cette base.
Un vecteur ~y de F est un élément de Im(f ) s’il existe un vecteur ~x de E tel que f (~x) = ~y . Le
sous-espace vectoriel Imf est engendré par les images des vecteurs de B. Sa dimension est le rang
des colonnes de A. On démontre que le rang des colonnes de A est égal au rang des lignes de A.
1.2. Théorème (du rang). On considère une application linéaire f : E −→ F entre deux espaces
vectoriels de dimension finie sur R. Le rang de f est égal à la dimension de Im(f ) et on a la
formule
dim ker f = dim E − dim Im(f ).
2. Vecteurs propres et valeurs propres d’une application linéaire
Dans tout ce paragraphe, on considère un entier d, un espace vectoriel E de dimension d sur R et
une application linéaire f : E −→ E.
2.1. Définition. On dit qu’un vecteur ~v de E est un vecteur propre de f si
– ~v n’est pas nul
– f (~v ) est un vecteur proportionnel à ~v .
Lorsque ~v est un vecteur propre de f , le coefficient de proportionnalité de f (~v ) sur ~v est la valeur
propre associée à ~v .
3
Si ~v est un vecteur propre de f , il existe un scalaire λ tel que
f (~v ) = λ~v .
On dit que ~v est un vecteur propre de f de valeur propre λ.
2.1.1. Exemple. On considère l’application g : R2 −→ R2 dont la matrice dans la base canonique
de R2 est la suivante
1 6
A :=
5 2
et les deux vecteurs
~u :=
3
−2
et ~v :=
6
−5
On vérifie que
g(~u) =
−9
11
et g(~v ) :=
−24
20
.
On en déduit que ~u n’est pas un vecteur propre de g, tandis que ~v est un vecteur propre de valeur
propre −4.
2.1.2. Exemple. [plus général : on ne suppose pas que E est de dimension finie] On considère
l’espace vectoriel des polynômes d’une variable à coefficients réels noté R[X] et l’application
dérivation
D : R[X] −→ R[X]
P 7−→ P 0 .
Un vecteur propre de P est un polynôme non nul P dont la dérivée P 0 lui est proportionnelle.
Si le degré de P est au moins 1, alors la dérivée P 0 est de degré strictement inférieur et ne peut
donc pas être proportionnelle à P . Si P est de degré 0, c’est une constante non nulle et sa dérivée
est nulle. On voit donc que les seuls vecteurs propres de D sont les constantes non nulles, tous
associés à la seule valeur propre 0.
Noter qu’une base de R[X] est la famille des monômes (1, X, X 2 , . . .) qui est infinie dénombrable.
L’espace vectoriel R[X] n’est donc pas de dimension finie.
2.2. Définition. On considère une valeur propre λ de l’application f . Le sous-espace propre
de f associé à λ est l’ensemble des vecteurs de E solutions du système linéaire f (~v ) = λ~v . C’est
un sous-espace vectoriel de E. On le note Eλ (f ).
Comme λ est une valeur propre de f , le sous-espace Eλ (f ) contient au moins un vecteur non nul. Il
est donc de dimension strictement positive. L’ensemble des vecteurs propres de f de valeur propre
λ est l’ensemble des vecteurs non nuls de Eλ (f ).
On remarque que le système linéaire f (~v ) = λ~v s’écrit
(f − λId)(~v ) = ~0.
2.2.1. Exemple. On considère l’application g : R3 −→ R3 dont la matrice dans la base canonique
de R3 est la suivante


4 −1 6
1 6 .
A :=  2
2 −1 8
4
Le scalaire 2 est une valeur propre de g. En effet, l’application g − 2Id a pour matrice


2 −1 6
A − 2I3 =  2 −1 6 
2 −1 6
qui est de rang 1. Le système linéaire g(~v ) − 2~v = ~0 se réduit à la seule équation 2v1 − v2 + 6v3 = 0.
Ses solutions forment un sous-espace vectoriel E2 (g) de dimension 2 dans R3 dont une base est
  

1
−3
 2  ,  0  .
0
1
2.3. Théorème. On considère un scalaire λ. Les assertions suivantes sont équivalentes
(1) λ est une valeur propre de f .
(2) Il existe un vecteur propre de f de valeur propre λ.
(3) Le système linéaire (f − λId)(~v ) = ~0 a au moins une solution non nulle (on dit aussi non
triviale, puisque le vecteur nul est toujours solution).
(4) Le noyau de f − λId n’est pas réduit au seul vecteur nul.
(5) Le rang de f − λId n’est pas maximum (autrement dit strictement inférieur à la dimension
d de E.
La seule chose qui ne découle pas des définitions est l’équivalence de (3) et (4). C’est le théorème
du rang, appliqué à f − λId qui fournit la réponse, puisque
dim ker(f − λId) + rg(f − λId) = d.
2.3.1. Exemple. Cherchons à déterminer toutes les valeurs propres de l’application g étudiée
dans l’exemple 2.1.1. On considère la matrice de g − λId
1−λ
6
.
A − λI2 :=
5
2−λ
Elle n’est pas de rang maximum si et seulement si les deux lignes sont proportionnelles, autrement
dit si (1 − λ)(2 − λ) = 30. Les valeurs convenables de λ sont les solutions de l’équation du second
degré
λ2 − 3λ − 28 = 0.
Ces solutions sont −4 et 7.
Calculons le sous-espace propre E−4 (g). C’est l’ensemble des solutions du système de matrice
A − (−4)I2 . Cette matrice est de rang 1, donc E−4 (g) est une droite vectorielle engendrée par un
de ses vecteurs non nul, par exemple ~v trouvé en 2.1.1.
Pour le calcul de E7 (g), on résout le système de matrice A − 7I2 qui est également de rang 1. Le
sous-espace propre E7 (g) est une droite vectorielle engendrée par un de ses vecteurs non nul, par
exemple w
~ de coordonnées (1, 1).
On constate que la famille (~v , w)
~ est une base de R2 formée de vecteurs propres de g.
Dans le cas général le calcul du déterminant fournit un critère pour décider qu’une matrice carrée
est de rang maximum ou pas.
5
2.4. Systèmes dynamiques linéaires discrets.
2.4.1. Exemple. (Voir D. Lay, Algèbre linéaire et applications). On fait des statistiques sur une
population de chouettes : l’année n, les populations des femelles poussins, jeunes et adultes, sont
désignées respectivement par xn , yn et zn . On établit expérimentalement les relations suivantes :
xn+1 = 0, 33zn (taux de fertilité des adultes), yn+1 = 0, 18xn (capacité à nicher) et zn+1 = 0, 71yn +
0, 99zn (les adultes de l’année n + 1 sont ceux de l’année n qui ont survécu et les jeunes de l’année
n qui sont devenus adultes). On souhaite prévoir l’évolution de la population de chouettes adultes
à long terme si les paramètres de fécondité, survie, etc. restent les mêmes.
Si on traite (xn , yn , zn ) comme un vecteur de R3 on voit que

 


xn+1
0
0
0, 33
xn
 yn+1  =  0, 18 0
  yn  .
0
zn+1
0
0, 71 0, 99
zn
Le problème revient à calculer les puissances de

0
A :=  0, 18
0
la matrice

0
0, 33
.
0
0
0, 71 0, 99
2.4.2. Exemple. L’exemple le plus célèbre est sans doute celui de Fibonacci (voir Wikipedia :
comparer les articles en anglais et en français).
On étudie les suites données par leurs deux premiers termes u0 , u1 et pour n ≥ 0 par la formule
de récurrence
un+2 = un+1 + un .
On fait une réduction classique mais importante. On considère le vecteur
un
Un =
un+1
qui est donc défini par
U0 =
u0
u1
et, pour n ≥ 0,
Un+1 =
Il s’agit alors d’étudier les puissances de la matrice
0 1
F :=
.
1 1
On reviendra sur ces exemples plus tard.
0 1
1 1
Un .
Université de Nice
2012-13
SL2SF
Algèbre 2
Déterminants.
Une parenthèse dans le monde des permutations d’un ensemble fini. On fixe un entier naturel n et
on considère l’ensemble {1, 2, . . . , n} des n premiers entiers. On peut les considérer en eux-mêmes
ou comme les numéros d’un ensemble fini à n éléments.
3. Permutations
3.1. Une permutation est une bijection de l’ensemble {1, 2, . . . , n} sur lui-même. Une telle
permutation est donc une application σ : {1, 2, . . . , n} −→ {1, 2, . . . , n} qui a une application
réciproque notée σ −1 . L’ensemble de ces bijections forme un groupe pour la composition des
applications, appelé groupe symétrique et noté Sn . Le groupe Sn a n! éléments (le démontrer
par récurrence).
La notation traditionnelle est la suivante : une permutation σ de Sn est notée
1
2
...
n
.
σ(1) σ(2) . . . σ(n)
Par exemple la notation
(3.1.1)
τ :=
1 2 3 4 5
5 1 4 3 2
désigne la permutation de S5 telle que τ (1) = 5, τ (2) = 1, τ (3) = 4, τ (4) = 3 et τ (5) = 2. Pour
cette permutation particulière, les transformés successifs de 1 sont 5 = τ (1), 2 = τ (5), 1 = τ (5),
5 = τ (1)...
3.2. Cycles. On appelle cycle de longueur p une permutation de Sp telle que l’ensemble des
transformés successifs de 1 (et donc de tout élément) est l’ensemble {1, 2, . . . , p} tout entier. Un
tel cycle est caractérisé par la liste des transformés successifs de 1. Par exemple la permutation
1 2 3 4 5
σ :=
5 3 4 1 2
est un cycle de longueur 5. La liste des transformés successifs de 1 est (1, 5, 2, 3, 4). La liste des
transformés successifs de 2 est (2, 3, 4, 1, 5). Elle caractérise la même permutation (on voit que
c’est la liste circulaire qui caractérise la permutation).
Plus généralement, on appelle cycle de longueur p de Sn (p ≤ n) une permutation qui induit un
cycle sur un sous-ensemble à p éléments de {1, 2, . . . , n} et qui laisse les autres éléments fixes. Par
exemple, la permutation
1 2 3 4 5
5 1 3 4 2
est un cycle de longueur 3 que nous noterons à l’aide de la liste des transformés successifs de 1, à
savoir (1, 5, 2). De même la la permutation
1 2 3 4 5
1 2 4 3 5
7
est un cycle de longueur 2 que nous noterons (3, 4). On remarque encore que (4, 3) désigne le
même cycle. On constate que les deux cycles (1, 5, 2) et (3, 4) commutent et que leur produit est
égal à la permutation τ décrite en (3.1.1).
On considère une permutation σ dans Sn . Partant d’un élément de {1, 2, . . . , n}, par exemple 1, on
considère ses transformés successifs par σ : 1, σ(1), σ(σ(1))... Cette suite d’entiers entre 1 et n est
forcément périodique. Supposons que σ i (1) = σ j (1) avec i < j. Puisque σ est bijective c’est donc
que σ j−i (1) = 1. On voit donc que la période de la suite des images successives de 1 est le plus
petit des entiers ` pour lesquels σ ` (1) = 1. Notons le c. La donnée de la liste (1, σ(1), . . . , σ c−1 (1))
permet de connaı̂tre les images par σ de tous les termes de la liste :
1 7−→ σ(1) 7−→ . . . 7−→ σ c−1 (1) 7−→ 1.
Si on prend un élément de l’ensemble {1, 2, . . . , n} qui n’est pas dans la liste, on est sûr que
ses images successives ne sont pas non plus dans la liste. On peut donc recommencer le même
processus jusqu’à épuisement de l’ensemble {1, 2, . . . , n}. On a alors obtenu un nombre fini de
listes à supports disjoints (c’est-à-dire qu’un élément de {1, 2, . . . , n} figure dans une liste et une
seule). La réunion des supports est {1, 2, . . . , n}. On a démontré :
3.3. Théorème. Toute permutation σ de Sn se décompose en un produit de cycles à supports
disjoints.
Noter que deux cycles à supports disjoints commutent toujours. La décomposition de la permutation τ de la formule (3.1.1) en cycles à supports disjoints est (1, 5, 2)(3, 4). La décomposition est
unique (même si la façon de l’écrire ne l’est pas).
3.4. Signature. On considère une permutation σ de Sn . Une inversion est une paire {i, j} telle
que σ(i) et σ(j) ne sont pas dans le même ordre que i et j. Le nombre d’inversions de σ est le
nombre de telles paires. Un cycle de longueur p a p − 1 inversions.
3.5. Définition. On appelle signature de la permutation σ le nombre (−1)I(σ) où I(σ) est le
nombre d’inversions de σ. On la note (σ).
La signature vaut donc 1 ou −1 suivant que I(σ) est pair ou impair. Un cycle de longueur p est
de signature (−1)p−1 . L’intérêt de la notion de signature est dans le résultat suivant :
3.6. Théorème. La signature d’un produit de permutations est le produit des signatures.
Démonstration. Considérons deux permutations σ et σ 0 de Sn . Une paire {i, j} est une inversion
pour la composée σ 0 ◦ σ si et seulement si une et une seule des assertions suivantes est vraie
– {i, j} est une inversion pour σ et {σ(i), σ(j)} n’est pas une inversion pour σ 0 .
– {i, j} n’est pas une inversion pour σ et {σ(i), σ(j)} est une inversion pour σ 0 .
On considère les deux ensembles suivants :
– L’ensemble J des inversions de σ.
– L’ensemble J 0 des paires {i, j} pour lesquelles {σ(i), σ(j)} est une inversion pour σ 0 .
Le nombre d’éléments du premier est I(σ) et le nombre d’éléments du second est I(σ 0 ). Une
inversion de σ 0 ◦ σ est un élément de J ∪ J 0 qui n’est pas dans l’intersection J ∩ J 0 , c’est-à-dire
un élément de la différence symétrique J M J 0 . La parité du nombre d’éléments de J M J 0 est
la somme des parités du nombre d’éléments de J et du nombre d’éléments de J 0 (cf. fonction
booléenne ou exclusif ).
La signature de la permutation τ décrite en (3.1.1) est −1 puisque elle est le produit des cycles
(1, 5, 2) et (3, 4) de longueur 3 et 2.
8
4. Déterminant d’une matrice carrée
On considère une matrice carrée A de Mn (R). Le coefficient de A situé sur la i-ème ligne et la
j-ème colonne est noté ai,j pour i et j de 1 à n.
On donne une définition récursive du déterminant : c’est le scalaire donné par la formule suivante
n
X
det A :=
(−1)1+j a1,j ∆1,j
j=1
où ∆1,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la première ligne
et la j-ème colonne de A. Reste à préciser ce qu’est le déterminant d’une matrice 1 × 1 : c’est la
valeur de son unique coefficient. Pour l’anecdote : on convient que le déterminant d’une matrice
0 × 0 vaut 1.
Conséquence : Le déterminant d’une matrice triangulaire est égal au produit des coefficients
diagonaux de la matrice.
On appelle cette manière de calculer le déterminant : développement par rapport à la première
ligne. On constate (par récurrence !) que det A est une somme de termes qui sont les produits
d’une liste de n coefficients de A affectés d’un signe + ou −. Les listes sont obtenues en choisissant
un terme dans chaque ligne et un dans chaque colonne. Reste à calculer le signe :
4.1. Théorème. Le déterminant de A est donné par la formule (non récursive) suivante :
det A =
X
(σ)a1,σ(1) a2,σ(2) . . . an,σ(n) .
σ∈Sn
En conséquence, le déterminant de A peut se calculer en développant par rapport à la i-ème ligne :
n
X
det A =
(−1)i+j ai,j ∆i,j ,
j=1
ou par rapport à la j-ème colonne :
n
X
det A =
(−1)i+j ai,j ∆i,j
i=1
où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la i-ème ligne et la
j-ème colonne de A.
Prendre garde à la fausse similitude entre les formules. Dans l’une l’indice de ligne est fixé, alors
que dans l’autre c’est l’indice de colonne.
4.2. Corollaire. Une matrice de Mn (R) et sa transposée ont même déterminant.
Les exemples de petite taille : pour une matrice de M2 (R), on trouve
a b a b
= ad − bc.
det
= c d
c d 9
Pour les matrices de M3 (R), en developpant par rapport à la première ligne

 a b c a b c
det  d e f  = d e f g h i g h i
e f d f d e − b
= a g i + c g h = aei − af h − bdi + bf g + cdh − ceg.
h i On retrouve bien qu’il y a 3! = 6 termes dans le développement, 3 avec le signe + et 3 avec le
signe −.
Attention aux analogies trop faciles ! Dans le développement du déterminant d’une matrice 4 × 4
A dans M4 (R) il y a 4! = 24 termes. Par exemple, il y a un terme en a1,1 a2,3 a3,4 a4,2 affecté du
signe +, car la permutation
1 2 3 4
1 3 4 2
est le cycle (2, 3, 4) et a pour signature +1.
4.3. Multilinéarité. On se donne deux matrices A0 et A00 dans Mn (R). On suppose que les lignes
de A0 et de A00 sont les mêmes, sauf la i-ème. On appelle A la matrice qui a les mêmes lignes que
A0 sauf la i-ème qui est la somme de la i-ème ligne de A0 et de la i-ème ligne de A00 . Alors :
det(A) = det(A0 ) + det(A00 ).
On se donne maintenant une matrice A dans Mn (R) et un scalaire λ. On appelle A0 la matrice
qui a les mêmes lignes que A sauf la i-ème qui est le produit de la i-ème ligne de A par le scalaire
λ. Alors :
det(A0 ) = λ det(A).
Démonstration. On développe tous les déterminants par rapport à la ligne de numéro i.
4.4. Transformations permises. On rappelle les opérations permises sur les lignes d’une matrice
(1) Ajouter à une ligne un multiple d’une autre ligne.
(2) Multiplier une ligne par un scalaire non nul.
(3) Echanger deux lignes.
4.5. Lemme. Le déterminant d’une matrice A de Mn (R) qui a deux lignes proportionnelles est
nul.
Démonstration. Par récurrence sur n. Si n = 2 c’est facile. Si n > 2, et que les lignes de numéro
i et j sont proportionnelles, on développe par rapport à une ligne de numéro k (k 6= i, k 6= j)
et les matrices obtenues en oubliant la ligne de numéro k et une colonne ont encore deux lignes
proportionnelles.
4.6. Lemme. On considère une matrice A de Mn (R) et une matrice A0 obtenue à partir de A
par une transformation de type (1). On a alors det A0 = det A.
Démonstration. On considère un scalaire λ et la matrice A0 obtenue en ajoutant à la i-ème ligne
de A le produit de la j-ème par λ. Désignons par A00 la matrice obtenue en remplaçant la i-ème
ligne de A par la j-ème. Par multilinéarité on a det A0 = det A + λ det A00 et par le lemme 4.5 on
a det A00 = 0.
10
On résume les résultats obtenus dans le théorème suivant :
4.7. Théorème. On considère une matrice A de Mn (R).
(1) Une matrice A0 obtenue à partir de A par une transformation permise de type (1) a même
déterminant que A.
(2) Une matrice A0 obtenue à partir de A en multipliant une ligne par un scalaire λ a pour
déterminant det A0 = λ det A.
(3) Une matrice A0 obtenue à partir de A en permutant deux lignes a pour déterminant det A0 =
− det A.
Remarque : Les formules analogues obtenues en transposant sont vraies : dans les énoncés cidessus on peut remplacer ligne par colonne. Le théorème ci-dessus est un outil essentiel pour le
calcul pratique des déterminants.
Démonstration. On a déjà démontré les points (1) et (2) du théorème. Pour le point (3), on peut
revenir à la formule non récursive du théorème 4.1 ou procéder par récurrence de manière similaire
à la preuve du lemme 4.5.
Attention ! Si A est une matrice de Mn (R) et λ un scalaire, alors det λA = (λ)n det A.
4.8. Corollaire. On considère une matrice A de Mn (R). Alors det A 6= 0 si et seulement si A
est de rang maximum autrement dit si et seulement si A est inversible dans Mn (R).
Démonstration. On sait (voir cours L1) que l’on peut trouver une matrice A0 équivalente à A
(donc de même rang) et à lignes échelonnées en effectuant des transformations permises de type
(1) et (2). La matrice A0 est de rang n si et seulement si elle est triangulaire supérieure avec des
coefficients diagonaux tous égaux à 1.
4.9. Déterminant d’un produit de matrices.
4.10. Théorème. On considère deux matrices A et B dans Mn (R). On a
det AB = det A det B.
Démonstration. À l’exercice 7 de la feuille 2, on montre que si A0 est une matrice équivalente
obtenue à partir de A par une transformation de type (1), alors on peut construire une matrice
triangulaire T telle que A0 = T A. On voit que det T = 1 et que det A0 = det A, donc on a bien
dans ce cas det T A = det T det A.
De manière analogue, lorsque A0 est une matrice équivalente obtenue à partir de A par une
transformation de type (2), alors on peut construire une matrice diagonale D (avec tous les
coefficients diagonaux égaux à 1 sauf l’un d’entre eux égal à λ) telle que A0 = DA. On voit que
det D = λ et que det A0 = λ det A, donc on a bien dans ce cas det DA = det D det A.
Le théorème ?? montre que toute matrice A de Mn (R) est un produit de matrices associées à des
transformation de type (1) ou (2). Multiplier à gauche par A, c’est donc multiplier successivement
par de telles matrices. Si A = L1 . . . Lk , on a
det(AB) = det(L1 ) . . . det(Lk ) det B
Pour B = In on trouve det A = det(L1 ) . . . det(Lk ) det In ce qui donne la formule attendue.
4.11. Corollaire. Soit A une matrice inversible dans Mn (R). Alors
det(A−1 ) = (det A)−1 .
Démonstration. On a AA−1 = In et det In = 1 d’où det A det(A−1 ) = 1 ce qui montre le résultat.
11
4.12. Calcul de l’inverse. On considère une matrice A de Mn (R). Le coefficient de A situé sur
la i-ème ligne et la j-ème colonne est noté ai,j pour i et j de 1 à n. On appelle cofacteur Ci,j
la quantité (−1)i+j ∆i,j où où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en
oubliant la première ligne et la j-ème colonne de A. Avec ces notations, le développement de det A
par rapport à la ligne de numéro i s’écrit
n
X
det A =
ai,j Ci,j .
j=1
On appelle matrice des cofacteurs de A (ou comatrice de A) la matrice dont le coefficient situé
sur la i-ème ligne et la j-ème colonne est Ci,j . On la note c(A).
4.13. Théorème. On considère une matrice A de Mn (R) et la matrice de ses cofacteurs c(A).
Alors
(det A)In = A tc(A) = tc(A) A.
En particulier, si det A est inversible, A est aussi inversible et on a
A−1 = (det A)−1 tc(A).
Démonstration. On calcule le coefficient du produit des matrices A tc(A) situé à la ligne numéro i
et à la colonne numéro j. Il vaut :
n
X
Ai,k Cj,k .
k=1
Lorsque i = j on trouve det A. Lorsque i 6= j, on trouve le développement du déterminant de la
matrice obtenue en remplaçant la ligne numéro j de A par la ligne numéro i. Mais, puisque i 6= j
la matrice ainsi obtenue a deux lignes qui sont égales. Son déterminant est donc nul.
Remarque : Le calcul du déterminant d’une matrice de Mn (R) ne fait intervenir que les opérations
d’addition et de multiplication dans R sans jamais faire intervenir de calcul d’inverse. De même
le calcul du produit de deux matrices ne fait intervenir que ces mêmes opérations. On peut donc
considérer des matrices à coefficients complexes, entiers, polynômes ou plus généralement à coefficients dans un anneau commutatif unitaire. Leur déterminant est bien défini et c’est un complexe,
un entier, un polynôme ou un élément de l’anneau commutatif unitaire considéré. Le produit de
deux telles matrices sera encore du même type et le théorème 4.10 valide.
Le théorème 4.13 s’étend donc, avec la même preuve, de la manière suivante : Soit A une matrice
à coefficients entiers (resp. polynômes) qui a un inverse à coefficients entiers (resp. polynômes).
Alors son déterminant est inversible dans les entiers (resp. polynômes). Il vaut donc 1 ou −1
(resp. il est un polynôme constant non nul) Réciproquement si det A est inversible dans les entiers
(resp. les polynômes) alors A a un inverse a coefficients entiers (resp. polynômes).
Par exemple, la matrice a coefficients entiers
3 −1
2 1
a un déterminant égal à 5. Elle est inversible dans M2 (R), mais on peut affirmer que son inverse
n’est pas à coefficients entiers.
4.13.1. Exercice. . On considère un système linéaire homogène de n−1 équations à n inconnues.
On suppose qu’il est de rang maximum n − 1.
Montrer que l’espace des solutions est une droite vectorielle.
12
On désigne par A la matrice du système. Montrer qu’une base de cette droite est donnée par le
vecteur de coordonnées ∆1 , . . . , ∆n où ∆i est le déterminant de la matrice n − 1 × n − 1 obtenue
en oubliant la i-ème colonne de A.
Application : On donne deux plans de R3 d’équations respectives
3x − 5y + −z = 0 et x − 2y + 9z = 0.
Déterminer une base de leur intersection. /
4.14. Polynôme caractéristique d’une matrice carrée. Le théorème qui suit est simplement
une traduction de la définition. On utilise la propriété fondamentale du déterminant.
4.15. Théorème. On considère une matrice A dans Mn (R) et un scalaire λ dans R. Les propriétés
suivantes sont équivalentes :
(1) λ est valeur propre de A
(2) La matrice A − λIn n’est pas de rang maximum.
(3) Le déterminant det(A − λIn ) est nul.
Étant donnée une matrice A dans Mn (R), on considère la matrice A − T In à coefficients polynômes en T . Comme le calcul du déterminant ne fait intervenir que des multiplications et
des additions, il est possible de calculer le déterminant d’une matrice de Mn (R[T ]). C’est un
polynôme de R[T ].
4.16. Définition. On considère une matrice A dans Mn (R) et la matrice A−T In dans Mn (R[T ]).
Le déterminant det(A − T In ) est un polynôme à coefficients dans R qu’on appelle le polynôme
caractéristique de A. Ses racines dans R sont les valeurs propres de A dans R.
Considérons une matrice A triangulaire dans Mn (R) et désignons par λ1 , . . . , λn ses coefficients
diagonaux. Alors, A − T In est aussi triangulaire et son déterminant est le produit de ses éléments
diagonaux λ1 − T, . . . , λn − T . On en déduit que les valeurs propres de la matrice triangulaire A,
comptées avec multiplicité, sont ses éléments diagonaux.
Université de Nice
2012-13
SL2SF
Algèbre 2
Changements de variables.
5. Changement de base
5.1. On considère un corps K et un espace vectoriel E de dimension finie sur K muni d’une base
B := (e1 , . . . , en ). Un vecteur x de E a pour coordonnées (x1 , x2 , . . . , xn ) dans la base B. Cela veut
dire qu’il se décompose en
x = x1 e1 + . . . xn en .
Pour ne pas confondre scalaires et vecteurs on peut mettre des flèches sur ces derniers : l’écriture
devient
~x = x1~e1 + . . . xn~en .
On se donne une autre base B 0 := (~1 , . . . ,~n ) de E. On va l’appeler la nouvelle base et on va appeler
B l’ancienne base. Comment se donner les vecteurs de la famille B 0 ? Par leurs coordonnées dans
la base B. Pour j de 1 à n, chacun des ~ej a une décomposition unique sur la base B
(5.1.1)
~j = P1,j ~e1 + . . . Pn,j ~en .
Ainsi, Pi,j est la i-ème coordonnée du vecteur ~j dans la base B. On inscrit ces coordonnées dans
une matrice de Mn (K). Ainsi la j-ème colonne de cette matrice est la liste (P1,j , . . . , Pn,j ) des
coordonnées de ~j dans la base B. On appelle la matrice P matrice de passage de la base B à
la base B 0 .
Si ~x est un vecteur de E, on note X la matrice colonne de ses coordonnées dans la base B et X 0
la matrice colonne des coordonnées de ~x dans la base B 0 . En partant de ~x = x01~1 + . . . x0n~n et en
substituant dans cette formule l’expression (5.1.1) des vecteurs de B 0 dans la base B, on trouve
!
!
n
n
n
n
n
X
X
X
X
X
~x = x01~1 + . . . x0n~n =
x0i~i =
x0i
Pk,i~ek =
Pk,i x0i ~ek .
i=1
i=1
k=1
k=1
i=1
On en déduit la décomposition
de ~x dans la base B. Comme cette décomposition est unique, on en
P
déduit que xk = ni=1 Pk,i x0i pour k de 1 à n. Autrement dit, la matrice colonne X est le produit
de la matrice P par la matrice X 0 :
X = P X 0.
On obtient le slogan suivant : la matrice de passage de l’ancienne base B à la nouvelle base B 0
a pour coefficients les coordonnées des vecteurs de la nouvelle base dans l’ancienne et elle permet
de calculer les anciennes coordonnées d’un vecteur au moyen des nouvelles.
5.2. Théorème. On considère un corps K et un espace vectoriel E de dimension finie sur K muni
d’une base B := (~e1 , . . . , ~en ).
(1) Étant donnée une base B 0 de E, la matrice de passage P de B à B 0 est une matrice
inversible : son rang est n et son déterminant est non nul. La matrice de passage de B 0 à
B est P −1 .
(2) Réciproquement, on considère une matrice inversible P dans Mn (K). Il existe une unique
base B 0 de E telle que P est la matrice de passage de B à B 0 .
14
Démonstration. (1) Désignons par P 0 la matrice de passage de B 0 à B. Si ~x est un vecteur de E,
on note X la matrice colonne de ses coordonnées dans la base B et X 0 la matrice colonne des
coordonnées de ~x dans la base B 0 . On a donc X = P X 0 et X 0 = P 0 X d’où X = P P 0 X. En prenant
successivement pour ~x les vecteurs de la base B, on en déduit les égalités suivantes :
n
X
0
Pi,j Pj,k
= 0 si i 6= k
j=1
=1
si i = k
qui prouvent que le produit de matrices P P 0 est égal à In .
(2) Pour j de 1 à n, on considère le vecteur ~j dont les coordonnées dans la base B sont les
coefficients de la j-ème colonne
Pn de P . Montrons que la famille (~1 , . . . ,~n ) est libre. Considérons
une combinaison linéaire j=1 λj~j . La matrice colonne de ses coordonnées dans la base B est la
P
combinaison linéaire nj=1 λj Pj des colonnes de P . Comme P est de rang n, une telle combinaison
linéaire est nulle si et seulement si tous les λj sont nuls.
5.3. Déterminant d’une famille de vecteurs. On considère un corps K et un espace vectoriel
E de dimension finie sur K muni d’une base B. On considère d’autre part une famille de n vecteurs
(~v1 , . . . , ~vn ) de E et la matrice M de leurs coordonnées dans la base B. Le coefficient Mi,j de M
situé à la ligne numéro i et à la colonne numéro j est donc égal à la i-ème coordonnée du vecteur
vj dans la base B.
On appelle déterminant de la famille (~v1 , . . . , ~vn ) dans la base B le déterminant de la matrice M .
On le note detB (~v1 , . . . , ~vn ).
Ce déterminant dépend de la famille (~v1 , . . . , ~vn ) et de la base B. On se donne une base B 0 de E
et la matrice de passage P de B à B 0 . On désigne par M 0 la matrice des coordonnées des vecteurs
de la famille (~v1 , . . . , ~vn ) dans la base B 0 . Pour j de 1 à n, on note Vj (resp. Vj0 ) la matrice colonne
des coordonnées de ~vj dans la base B (resp. B 0 ). On a Vj = P Vj0 pour j de 1 à n. La règle de calcul
du produit de matrices donne M = P M 0 et en passant aux déterminants
det(~v1 , . . . , ~vn ) = det P det
(~v1 , . . . , ~vn ).
0
B
B
On voit donc que le déterminant de la famille de vecteurs (~v1 , . . . , ~vn ) dans la base B dépend de
la base B dans lequel on le calcule. En revanche, il est nul dans une base si et seulement s’il est
nul dans toutes les bases.
5.4. Aires. On travaille dans R2 , muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée. Si ~u et ~v sont deux vecteurs et B une base orthonormée, on note U et V les
matrices colonnes des coordonnées de ~u et ~v dans la base B. Alors, le produit scalaire h~u | ~v i se
calcule par la formule suivante
h~u | ~v i = u1 v1 + u2 v2 .
Pour une matrice P de M2 (R) les propriétés suivantes sont équivalentes :
(1) P est la matrice de passage d’une base orthonormée à une autre base orthonormée.
(2) La transposée tP est l’inverse de P .
Démonstration. Dire que le produit tP P vaut I2 , c’est dire que les relations suivantes sont vérifiées :
2
2
2
2
= P1,2
+ P2,2
= 1,
P1,1
+ P2,1
P1,1 P1,2 + P2,1 P2,2 = 0.
15
Lorsqu’une matrice P de M2 (R) vérifie l’une des propriétés ci-dessus, on dit qu’elle est orthogonale. Les matrices orthogonales de M2 (R) forment un groupe pour la multiplication des matrices,
noté O(2, R). C’est un sous-groupe du groupe des matrices inversibles GL2 (R).
5.5. Théorème. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et deux vecteurs ~u et ~v dans R2 . On choisit comme aire unité celle du carré
construit sur les vecteurs de B0 .
L’aire du parallélogramme déterminé par ~u et ~v est égale à la valeur absolue du déterminant
detB0 (~u, ~v ).
Si B est une autre base orthonormée, la valeur absolue du déterminant detB (~u, ~v ) est égale à
l’aire du parallélogramme construit sur ~u et ~v .
Démonstration. On remarque d’abord que detB (~u, ~v ) = det P detB0 (~u, ~v ) où P est la matrice de
passage de B0 à B. Comme cette matrice est orthogonale, son déterminant vaut 1 ou -1 et les deux
déterminants detB (~u, ~v ) et detB0 (~u, ~v ) ont même valeur absolue. Pour calculer cette valeur absolue
il suffit donc de choisir une base orthonormée.
On note que si ~u et ~v sont colinéaires, alors detB0 (~u, ~v ) = 0. Supposons qu’ils ne sont pas colinéaires.
On choisit une base orthormée (~e1 , ~e2 ) avec ~e1 colinéaire à ~u (par exemple ~u/k~uk). On décompose v
sur la base (~e1 , ~e2 ) en ~v = v1~e1 +v2~e2 . Comme e1 est colinéaire à u on a (propriétés du déterminant,
voir paragraphes 10.8 et 4.4)
det(~u, ~v ) = det(~u, v1~e1 + v2~e2 ) = det(~u, v1~e1 ) + det(~u, v2~e2 ) = det(~u, v2~e2 ).
B
B
B
B
B
Comme ~u est colinéaire à ~e1 , la matrice des coordonnées dans la base B des vecteurs ~u et v2~e2 est
u1 0
0 v2
où u1 est la coordonnée de ~u sur ~e1 . Le déterminant de cette matrice a pour valeur absolue
|u1 | |v2 |. Mais |u1 | est la longueur du vecteur u (la base du parallélogramme) et |v2 | est la longueur
de la projection de ~v sur la direction perpendiculaire à ~u (la hauteur). C’est donc bien l’aire d’un
rectangle qui a même base et même hauteur que le parallélogramme construit sur ~u et ~v lorsqu’on
prend comme unité l’aire du carré construit sur les deux vecteurs d’une base orthonormée.
5.6. Corollaire. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et deux vecteurs ~u et ~v dans R2 . On appelle α l’angle (~u, ~v ). On a alors, pour
toute base orthonormée B,
| det(~u, ~v )| = kukkvk| sin α|
B
5.7. Volumes. De manière similaire à ce qui précède, on démontre :
5.8. Théorème. On considère R3 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et trois vecteurs ~u, ~v et w
~ dans R3 . On choisit comme volume unité celui du
cube construit sur les vecteurs de B0 .
Le volume du parallélépipède déterminé par ~u, ~v et w
~ est égal, pour toute base orthonormée B, à
la valeur absolue du déterminant detB (~u, ~v , w).
~
Démonstration. La preuve est similaire. On remarque d’abord que si ~u, ~v , w
~ sont coplanaires alors
le volume et le déterminant sont tous les deux nuls. On les suppose alors non coplanaires et
on choisit une base orthonormée B = (~e1 , ~e2 , ~e3 ) obtenue en complétant une base orthonormée
16
C := (~e1 , ~e2 ) du plan engendré par ~u et ~v . En décomposant w
~ en w
~0 + w
~ 00 où w
~ 00 est colinéaire à ~e3
00
on obtient que w
~ = w3~e3 et
~ 0 + w~00 ) = det(~u, ~v , w~00 ).
det(~u, ~v , w)
~ = det(~u, ~v , w
B
B
B
En développant ce dernier déterminant par rapport à la dernière colonne on trouve
det(~u, ~v , w~00 ) = w3 det(~u, ~v ),
B
C
ce qui est bien le produit de l’aire de la base par la hauteur du parallélépipède.
5.9. Applications linéaires et changements de base. On considère un corps K et deux
espaces vectoriels E et F de dimensions finies p et n sur K. On se donne des bases B de E et C
de F . Une application linéaire u : E −→ F est donnée par sa matrice dans les bases B et C (voir
section ??). On note cette matrice A. C’est une matrice à n lignes et p colonnes dans Mn,p (K).
On fixe une nouvelle base B 0 de E et une nouvelle base C 0 de F et on veut calculer la matrice de
u dans les bases B 0 et C 0 . On note P la matrice de passage de B à B 0 et Q la matrice de passage
de C à C 0 .
Pour cela on considère un vecteur ~x de E et on note X (resp. X 0 ) la matrice colonne de ses
coordonnées dans la base B (resp. B 0 ). On appelle ~y l’image u(~x) et on note Y (resp. Y 0 ) la matrice
colonne de ses coordonnées dans la base B (resp. B 0 ). On a les égalités matricielles suivantes :
Y = AX,
X = P X 0,
Y = QY 0 .
On en déduit que pour tout ~x de E, on a Y 0 = Q−1 AP X 0 , ce qui montre que la matrice A0 de u
dans les bases B 0 et C 0 est
A0 = Q−1 AP.
5.10. Endomorphismes. On considère un corps K et un espace vectoriel E de dimension finie n
sur K muni d’une base B. On appelle endomorphisme de E une application linéaire u : E −→ E.
Une telle application est donnée par sa matrice dans la base B. On note cette matrice A. C’est
une matrice carrée dans Mn (K).
On fixe une nouvelle base B 0 de E et on note P la matrice de passage de B à B 0 . On note A0 la
matrice de u dans la base B 0 . On a alors :
A0 = P −1 AP.
5.11. Théorème. On considère un corps K, un espace vectoriel E de dimension finie n sur K et
un endomorphisme u de E. On fixe une base B de E et on considère la matrice A de u dans B.
Le déterminant det A ne dépend que de u et pas de la base utilisée pour le calculer. On l’appelle
déterminant de u.
De même, le polynôme caractéristique det(A−T In ) ne dépend que de u et ne dépend pas de la base
utilisée pour le calculer. On l’appelle polynôme caractéristique de u. Ses racines sont les valeurs
propres de u.
Pour calculer le polynôme caractéristique d’un endomorphisme u, il suffit de calculer le polynôme
caractéristique de la matrice de u dans une base B de E (n’importe quelle base convient).
5.12. Corollaire. Sous les hypothèses du théorème, on considère une valeur propre λ de u et
l’espace propre associé, noté Eλ . La dimension de Eλ est majorée par la multiplicité de λ comme
racine du polynôme caractéristique.
17
Démonstration. On considère une base (e1 , . . . , ed ) de Eλ que l’on complète en une base B =
(e1 , . . . , ed , . . . , en ) de E. Dans la base B la matrice A de u est triangulaire par blocs :
λId B
A=
0 C
où Id est la matrice unité de Mk (K) et C une matrice de Mn−d (K). La matrice A − T In s’écrit
donc
(λ − T )Id
B
A − T In =
.
0
C − T In−d
En développant son déterminant par rapport aux premières colonnes, on trouve
det(A − T In ) = (λ − T )d det(C − T In−d ).
On en déduit que (λ − T )d divise le polynôme caractéristique, donc que d est plus petit que la
multiplicité de λ comme racine du polynôme caractéristique de u (définition de la multiplicité en
10.8).
5.13. Théorème. On considère un corps K, un espace vectoriel E de dimension finie n sur K et
un endomorphisme u de E. On choisit des valeurs propres λ1 , . . . , λr de u distinctes deux à deux.
On considère les espaces propres E1 , . . . , Er associés respectivement à λ1 , . . . , λr . Pour j de 1 à r,
on se donne une base de Ei qu’on appelle Bi . La famille F obtenue en concaténant les Bi (i de 1
à r) est une famille libre.
Démonstration. Supposons la conclusion du théorème fausse et considérons le premier indice s,
s < r, tel que
– la famille obtenue en concaténant B1 , B2 , . . . , Bs est une famille libre
– la famille obtenue en concaténant B1 , B2 , . . . , Bs , Bs+1 est liée.
Il existe alors au moins un vecteur ~x non nul de Es+1 qui est une somme ~x1 + ~x2 + . . . + ~xs avec ~xi
dans Ei . Appliquons u à tous ces vecteurs : on a u(~x) = λs+1~x et u(~xi ) = λi~xi . On en déduit que
~x = ~x1 + . . . + ~xs
λs+1~x = λ1~x1 + . . . + λs~xs .
Par combinaison linéaire de ces deux égalités on obtient
0 = (λs+1 − λ1 )~x1 + . . . (λs+1 − λs )~xs .
Or une telle combinaison linéaire a nécessairement tous ses termes nuls puisque la concaténation
des B1 , B2 , . . . , Bs est une famille libre. Ceci entraı̂ne, puisque les λi sont deux à deux distincts,
que les ~xi sont tous nuls. On obtient que ~x est nul aussi, ce qui contredit l’hypothèse.
5.14. Définition. Une matrice A de Mn (K) est diagonalisable s’il existe une base de Kn formée
de vecteurs propres de A.
Un endomorphisme u de E est diagonalisable s’il existe une base de E formée de vecteurs propres
de u. L’endomorphisme u est diagonalisable si et seulement si sa matrice dans une base B de E
est diagonalisable.
Si A est diagonalisable, on a une base B 0 := (~1 , . . . ,~n ) de vecteurs propres de A. Notons
(λ1 , . . . , λn ) les valeurs propres associées. Désignons par P la matrice de passage de la base canonique B0 à la base B 0 . La j-ème colonne de P a pour coefficients les coordonnées de ~j . On a
donc AP = P D où D est la matrice diagonale diag(λ1 , . . . , λn ). On en déduit que D = P −1 AP .
On dira que D est une matrice diagonale semblable à A.
18
Supposons u diagonalisable. On se donne une base B de E et la matrice A de u dans cette base.
Désignons par B 0 une base formée de vecteurs propres et P la matrice de passage de B à B 0 . La
matrice D de u dans la base B 0 est diagonale. Pour i de 1 à n, le i-ème coefficient sur la diagonale
de D est la valeur propre associée au vecteur propre ~i . La formule de changement de base pour
les endomorphismes (5.10) donne
D = P −1 AP.
5.15. Théorème. Une matrice A de Mn (K) ayant n valeurs propres distinctes deux à deux est
diagonalisable. C’est le cas lorsque le polynôme caractéristique a n racines simples.
Démonstration. Désignons par λ1 , . . . , λn les valeurs propres de A. Pour i de 1 à n, on désigne par
~vi un vecteur propre associé à la valeur propre λi .
Le théorème 5.13 montre que la famille (~v1 , . . . , ~vn ) est libre. Comme elle a n éléments, c’est une
base de Kn .
6. Applications
6.1. Systèmes dynamiques linéaires discrets. Ce paragraphe fait suite aux exemples de 2.4.
Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp (K), un vecteur
U0 dans Kp et on considère la suite de vecteurs de premier terme U0 définie, pour n ≥ 0, par :
Un+1 = AUn .
Le problème est le suivant : quel est le comportement asymptotique de la suite de vecteurs
(Un )n∈N quand n tend vers l’infini ? Comment ce comportement dépend-il du terme initial U0 ?
Par comportement asymtotique on entend : la limite éventuelle, un équivalent, ou même un
développement limité quand n tend vers l’infini.
On dira que la suite (Un )n∈N de vecteurs de Kp a une limite L dans Kp si et seulement si, pour j
de 1 à p, la suite de terme général Un,j (la j-ème coordonnée de Un ) a pour limite Lj dans K.
Pour n entier, on a Un = An U0 . Etudier la suite de vecteurs (Un )n∈N revient à étudier la suite des
images d’un vecteur U0 par les puissances de la matrice A.
6.1.1. Exemple. Considérons la matrice suivante :
0, 8 0, 2
A :=
.
0, 1 0, 9
Son polynôme caractéristique est T 2 − (1, 7)T + 0, 7 dont les racines sont 1 et 0, 7. Le vecteur
W := (1, 1) est un vecteur propre associé à la valeur propre 1, tandis que le vecteur W := (−2, 1)
est un vecteur propre associé à la valeur propre 0, 7.
L’action de la matrice A sur ces deux vecteurs est simple. AV = V donc An V = V . D’autre part
AW = (0, 7)W donc An W = (0, 7)n W .
Pour n fixé, l’application V 7−→ An V est linéaire comme composée d’applications linéaires. Tout
vecteur U0 de R2 se décompose sur la base (V, W ). Pour un vecteur U0 se décomposant en U0 =
αV + βW , on obtient
An U0 = αAn V + βAn W = αV + β(0, 7)n W.
Quand n tend vers l’infini, (0, 7)n tend vers 0 et on en déduit que Un = An U0 tend vers αV . Cette
limite ne dépend que de la décomposition de U0 dans la base (V, W ).
Par exemple, si U0 = (1, 0), on a
1
1
U0 = − V − W.
4
4
La limite de la suite de premier terme (1, 0) est donc − 14 V = (− 14 , − 41 ).
19
6.1.2. Exemple. Considérons maintenant la matrice :
0, 8 0, 1
A :=
.
0, 1 0, 8
Son polynôme caractéristique est T 2 − (1, 6)T + 0, 63 dont les racines sont 0, 9 et 0, 7. Le vecteur
V := (1, 1) est un vecteur propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1)
est un vecteur propre associé à la valeur propre 0, 7.
L’action de la matrice A sur ces deux vecteurs est la suivante : AV = (0, 9)V donc An V = (0, 9)n V .
D’autre part AW = (0, 7)n W donc An W = (0, 7)n W .
Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient
An U0 = αAn V + βAn W = α(0, 9)n V + β(0, 7)n W.
Quand n tend vers l’infini, (0, 7)n et (0, 9)n tendent vers 0 et on en déduit que Un = An U0 tend
vers le vecteur nul. On peut être un peu plus précis et calculer par exemple la limite de la pente
du vecteur Un dans la base (V, W ). Cette pente est infinie si β = 0 et sinon vaut
n
β(0, 7)n
β 0, 7
=
α(0, 9)n
α 0, 9
qui tend vers 0 quand n tend vers l’infini.
Comment interpréter ce résultat ?
(1) Quand α = 0, c’est-à-dire quand U0 est colinéaire à W , le vecteur Un reste colinéaire à W .
(2) Quand α 6= 0 (même s’il est très petit), la pente du vecteur Un dans la base (V, W ) tend
vers 0. Le vecteur Un tend vers le vecteur nul et sa direction tend vers la direction de V .
20
6.1.3. Exemple. Considérer maintenant la matrice :
0, 9 0, 1
A :=
.
0, 11 0, 91
et expliquer le dessin obtenu ci-dessous.
21
6.2. Systèmes différentiels.
À savoir avant de commencer. On considère un réel a, un réel y0 et l’équation différentielle
y 0 = ay.
Il existe une unique fonction t 7−→ y(t) dérivable sur R, telle que y 0 (t) = ay(t) pour tout t réel et
y(0) = y0 . C’est la fonction définie sur R par t 7−→ y0 eat .
De manière analogue, si a et y0 sont des complexes, il existe une unique fonction y de R dans C,
dérivable, telle que
y 0 (t) = ay(t) et y(0) = y0 .
C’est la fonction t 7−→ y0 eat . Si σ et ω sont les parties réelles et imaginaires de a, alors on a :
eat = e(σ+iω)t = eσt eiωt = eσt (cos ωt + i sin ωt).
6.2.1. Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp (K), un
vecteur U0 dans Kp et on considère le système différentiel
dU
(6.2.1)
= AU.
dt
Une solution du système différentiel 6.2.1 est une fonction U : R 7−→ Kp , c’est-à-dire un p-uplet
de fonctions U := (u1 , . . . , up ) à valeurs dans K, telles que :
Pp
 0
u1 (t) = A1,1 u1 (t) + . . . + A1,p up (t) =

j=1 A1,j uj (t)


.
.

..
..


Pp
0
ui (t) = Ai,1 u1 (t) + . . . + Ai,p up (t) =
j=1 Ai,j uj (t)


..
..


.
. P

 0
p
un (t) = An,1 u1 (t) + . . . + An,p up (t) =
j=1 An,j uj (t).
Une solution du système différentiel 6.2.1 de condition initiale U0 est une solution qui vérifie
de plus U (0) = U0 .
6.3. Théorème. On désigne par K l’un des corps R ou C et par p un entier. On se donne une
matrice A dans Mp (K), un vecteur U0 dans Kp et on considère le système différentiel
dU
= AU.
dt
Il existe une unique solution du système de condition initiale U0 .
6.3.1. Exemple. Considérons la matrice A de l’exemple 6.1.2. Le vecteur V := (1, 1) est un vecteur
propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1) est un vecteur propre
associé à la valeur propre 0, 7.
Considérons la fonction
U : R −→ R2
t 7−→ e(0,9)t V.
C’est une solution du système de condition initiale V . En effet, la valeur de U en 0 est V et la
dérivée de U est la fonction t 7−→ (0, 9)e(0,9)t V . Or V est un vecteur propre de valeur propre (0, 9).
On a donc (0, 9)V = AV et (0, 9)e(0,9)t V = A e(0,9)t V .
De même, la fonction t 7−→ e(0,7)t W est une solution du système de condition initiale W .
Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient une solution de condition
initiale U0 en prenant U (t) = αe(0,9)t V + βe(0,7)t W .
22
Le théorème 6.3 affirme que c’est la seule. Vérifions-le ici. Soit Ũ une autre solution de condition
initiale U0 . La fonction U − Ũ est une solution de condition initiale 0. Montrer l’unicité de la
solution de condition initiale U0 revient donc à montrer que la fonction nulle est l’unique solution
de condition initiale 0.
Désignons par P la matrice de passage de la base canonique de R2 à la base (V, W ) formée de
vecteurs propres de A et par D la matrice diagonale
0, 9 0
D :=
.
0 0, 7
On a alors A = P DP −1 . Considérons une solution U de condition initiale 0 et posons S = P −1 U .
On a alors :
dS
d(P −1 U )
dU
=
= P −1
= P −1 AU = DP −1 U = DS.
dt
dt
dt
On en déduit que les fonctions coordonnées de S vérifient donc
S10 (t) = (0, 9)S1 (t),
S20 (t) = (0, 7)S2 (t),
S1 (0) = 0
S2 (0) = 0.
On est alors ramené à des équations différentielles linéaires d’ordre 1 à coefficients constants. La
seule solution est la fonction nulle.
Sur ce dessin, on a representé, pour diverses conditions initiales, l’ensemble des extrémités des
vecteurs U (t) lorsque t varie de −10 à −5.
Sur ce dessin, on a representé, pour les mêmes conditions initiales, l’ensemble des extrémités
des vecteurs U (t) lorsque t varie de −10 à 10.
23
Quelle différence entre les deux dessins ? Considérer l’échelle. Pouvez-vous expliquer cette différence
en étudiant la limite de la pente du vecteur U (t) quand t tend vers −∞ ou +∞ ? Voici un troisième
dessin, qui représente, toujours pour les mêmes conditions initiales, l’ensemble des extrémités
des vecteurs U (t) lorsque t varie de −10 à 5.
24
Note : Pour tout point
du
plan de coordonnées (x, y) on a representé par un vecteur d’origine
x
(x, y) la valeur de A
. On peut vérifier que les courbes représentées sont tangentes en (x, y)
y
x
au vecteur A
. En effet, le vecteur de coordonnées (x0 (t), y 0 (t)) est le vecteur vitesse au point
y
de coordonnées (x(t), y(t)) le long de la courbe paramétrée t 7−→ (x(t), y(t)) tracée dans R2 . Si
cette courbe paramétrée est une solution de l’équation différentielle, on a
0
x (t)
x(t)
=A
.
y 0 (t)
y(t)
25
10. Définitions, commentaires
10.1. Espace vectoriel. On se donne un corps K et un ensemble E muni d’une addition notée
+. On dit que E a une structure d’espace vectoriel sur K si
(1) E est un groupe abélien pour la loi +. On note 0 l’élément neutre de cette loi.
(2) Il existe une action de K sur E (appelée multiplication par un scalaire). Pour tout élément
λ de K, et tout vecteur x de E, λx est un élément de E. Cette multiplication a les propriétés
suivantes
– pour x dans E on a 1x = x.
– pour α et β dans K, et x dans E on a (α + β)x = αx + βx.
– pour α et β dans K, et x dans E on a α(βx) = (αβ)x.
(3) pour α dans K, x et y dans E, on a α(x + y) = αx + αy.
10.2. Sous-espace vectoriel. On considère un espace vectoriel E sur un corps K et un sousensemble F de E. On dit que F est un sous-espace vectoriel de E si F contient 0 et stable par
combinaison linéaire.
10.3. Sous-espace vectoriel engendré. On considère un espace vectoriel E sur un corps K et
une famille (v1 , . . . , vp ) de p vecteurs de E. Le sous-espace vectoriel engendré par la famille
(v1 , . . . , vp ) est l’ensemble de toutes les combinaisons linéaires :
λ1 v1 + . . . + λp vp
pour λ1 , . . . , λp scalaires de K. Vérifier que c’est bien un sous-espace vectoriel de E. On le note
Vect(v1 , . . . , vj ).
On convient que la famille vide engendre le sous-espace réduit à 0.
10.4. Bases, dimension. On se donne un espace vectoriel E sur un corps K. Une famille B :=
(ei )i∈I de vecteurs de E est une base de E si tout vecteur x de E se décompose de manière unique
comme combinaison linéaire finie d’éléments de B.
Lorsque E, espace vectoriel sur K, peut être engendré par un ensemble fini, alors il possède une
base finie et toutes ses bases ont le même nombre d’éléments. Ce nombre est appelé dimension
de E. Lorsque E n’a aucune base finie, on dit que E est de dimension infinie. L’espace vectoriel
K[X] des polynômes à coefficients dans K est dans ce dernier cas.
On considère E espace vectoriel de dimension finie n sur K, avec une base B := (e1 , . . . , en ). Tout
vecteur x de E a une décomposition unique
n
X
x = α1 e1 + α2 e2 + . . . + αn en =
αi e i .
i=1
Par exemple, la seule façon d’écrire le vecteur nul est de prendre tous les coefficients égaux à 0.
10.5. Théorème de la base incomplète : On se donne un espace vectoriel E sur un corps K
et une famille libre de vecteurs de E. On peut compléter cette famille en une base de E.
10.6. Application linéaire. On travaille sur un corps K. On se donne deux espaces vectoriels
E et F sur K et une application f : E −→ F . On dit que f est K-linéaire (linéaire s’il n’y a pas
d’ambiguı̈té) si
(1) f est compatible avec l’addition : pour x et y vecteurs de E
f (x + y) = f (x) + f (y).
26
(2) f est compatible avec la multiplication par un scalaire : pour x vecteur de E et λ scalaire
f (λx) = λf (x).
On appelle noyau de f , l’ensemble des solutions dans E de l’équation f (x) = 0. On le note
ker f :
ker f := {x ∈ E | f (x) = 0}.
C’est un sous-espace vectoriel de E.
On appelle image de f et on note f (E), le sous-ensemble des vecteurs de F qui ont au moins un
antécédent :
f (E) := {y ∈ F | ∃x ∈ E, y = f (x)}.
C’est un sous-espace vectoriel de E.
10.7. Image inverse. On se donne une application f : E −→ E. L’image inverse d’une partie G
de F est l’ensemble des antécédents des éléments de G, c’est-à-dire
f −1 (G) := {x ∈ E | f (x) ∈ G}.
On voit que f −1 (G) est une partie de E et non un élément.
On considère alors E et F , espaces vectoriels sur K et f une application linéaire de E dans
F . Lorsque G est réduit à l’élément 0 de F , l’image inverse f −1 (0) qui est alors le noyau de f ,
contient en général plus d’un élément de E. On voit donc que écrire f −1 (0) ne suppose pas que f
est bijective, ou que l’application inverse de f existe.
10.8. Polynômes, racines. On considère un corps K et un polynôme P à coefficients dans K
de degré d. Un tel polynôme a une écriture unique
P (T ) = ad T d + ad−1 T d−1 + . . . + a0 avec ad 6= 0.
On dit qu’un scalaire λ de K est une racine de P si P (λ) = 0 dans K, autrement dit si
P (λ) = ad λd + ad−1 λd−1 + . . . + a0 = 0.
Un théorème classique est le suivant : λ est racine de P si et seulement si T − λ divise P (T ) dans
K[T ].
On désigne par r un entier. On dit que λ est racine de multiplicité r de P si et seulement si
(T − λ)r divise P (T ) dans K[T ] et (T − λ)r+1 ne divise pas P (T ) dans K[T ].
On dit qu’un polynôme de K[T ] est scindé dans K[T ] s’il est produit dans K[T ] de facteurs de
degré 1.
Le théorème de d’Alembert-Gauss affirme que : un polynôme de degré d de C[T ] est scindé
dans C[T ]. C’est-à-dire : il existe des entiers m1 , . . . , mk tels que m1 +. . .+mk = d et des complexes
distincts deux à deux λ1 , . . . , λk , racines de P de multiplicités respectives m1 , . . . , mk . On a donc
k
Y
P (T ) = ad (T − λi )mi .
i=1
En particulier, un polynôme de degré non nul a au moins une racine complexe.
27
10.9. Produit scalaire euclidien. On considère un espace vectoriel E sur le corps des réels R.
et une application
E × E −→ R
(x, y) 7−→ hx | yi
qui, pour mériter le nom de produit scalaire euclidien, doit vérifier les propriétés suivantes : pour
tous x et y de E, pour tout λ scalaire réel, on a
(1) Elle est bilinéaire
hx0 + x00 | yi
hx | y 0 + y 00 i
hλx | yi
hx | λyi
=
=
=
=
hx0 | yi + hx00 | yi
hx | y 0 i + hx | y 00 i
λhx | yi
λhx | yi
(2) Elle est symétrique.
hx | yi = hy | xi
(3) Elle est définie positive.
hx | xi ≥ 0 et
hx | xi = 0 =⇒ x = 0.
10.10. Norme. On considère un espace vectoriel E sur R. Une application
E −→ R+
x 7−→ kxk
est une norme si elle vérifie les axiomes suivants :
(1) Homogénéité : pour λ scalaire et x vecteur,
kλxk = |λ|kxk
(2) Positivité stricte : pour x dans E, kxk ≥ 0 et kxk = 0 =⇒ x = 0.
(3) Inégalité triangulaire : pour tous x et y vecteurs de E,
kx + yk ≤ kxk + kyk.
Un produit scalaire euclidien (voir 10.9) définit une norme, dite euclidienne. Pour x vecteur de E,
on pose
p
kxk := hx | xi.
Il existe cependant des normes qui ne proviennent pas d’un produit scalaire : par exemple sur
l’espace vectoriel R2 on considère l’application
R2 −→ R+
(x1 , x2 ) 7−→ sup |x1 |, |x2 |
est une norme (le vérifier).
Téléchargement