Espaces vectoriels, Applications linéaires. Vocabulaire et résultats

publicité
Université de Nice
2007-08
L2MI
Algèbre linéaire
Espaces vectoriels, Applications linéaires.
Vocabulaire et résultats de base.
On travaille avec un corps, noté K. Pour les exemples et les exercices K sera le corps des réels R
ou celui des complexes C. Les éléments du corps de base sont appelés scalaires.
1. Les espaces vectoriels exemplaires
Pour une définition de la structure d’espace vectoriel, voir 11.1.
1.1. K, K2 , K3 , et, plus généralement, Kn pour n entier naturel. Un élément (x1 , x2 ) de
K2 s’écrit de manière unique
(x1 , x2 ) = x1 (1, 0) + x2 (0, 1).
La famille (e1 , e2 ) := ((1, 0), (0, 1)) est donc une base (définition en 11.2) de K2 qu’on appelle base
canonique.
De manière analogue, pour i fixé entre 1 et n, on note ei la liste de réels de longueur fixée n dont
le i-ème terme est 1 et tous les autres 0. La famille (ici une liste de listes) (e1 , e2 , . . . , en ) est une
base de Kn qu’on appelle base canonique de Kn .
Pour l’anecdote : K0 est l’espace vectoriel à un seul élément 0 et sa base est vide.
1.2. L’espace vectoriel K[X] des polynômes à coefficients dans K. Dire que tout polynôme
P (X) de K[X] a une écriture unique (sa forme développée) P (X) = a0 + a1 X + . . . + ad X d
avec a0 , . . . , ad scalaires, c’est dire que la liste infinie (1, X, . . . , X n , . . .) est une base de K[X].
On l’appelle base canonique ou base des monômes de K[X]. On voit donc que K[X] est de
dimension infinie sur K (voir 11.2). Le polynôme P est représenté par la liste de ses coefficients
(a0 , a1 , . . . , ad ). Elle est de longueur finie d, mais cette longueur dépend du polynôme choisi.
1.3. L’espace vectoriel F(A, K) des applications de A dans K pour A ensemble quelconque. Par exemple F([0, 1], R) est un espace vectoriel, même si l’intervalle [0, 1] n’en est pas
un. On sait qu’il existe au moins une base de F([0, 1], R), mais on ne sait en expliciter aucune.
2. Applications linéaires
Il y a plusieurs manières de les donner.
2.1. Une application f : E −→ F étant donnée, on vérifie qu’elle est K-linéaire, c’est-à-dire
compatible avec les opérations de E et F (voir la définition en 11.4).
2.2. On part de deux espaces vectoriels E et F . On dispose d’une base B de E et d’une base C
de F .
Théorème 1. Une application linéaire de E dans F est déterminée par la donnée des images des
vecteurs de la base B (ces images sont donc des vecteurs de F ).
Une application linéaire de f : E −→ F est déterminée par la donnée des coordonnées dans la
base C des images des vecteurs de la base B. Le tableau de ces coordonnées est la matrice de f
dans les bases (B, C).
2
2.3. Opérations sur les applications linéaires.
(1) Étant données deux applications linéaires f : E −→ F et g : E −→ F , l’application f + g
est linéaire et, pour λ scalaire, l’application λf est linéaire.
(2) La composée de deux applications linéaires est linéaire (attention, pour composer f avec g
pour former f ◦ g il faut que le but de g soit égal à la source de f ). Lorsqu’une application
linéaire est bijective, sa réciproque est linéaire.
(3) On dispose d’applications linéaires de référence, par exemple, pour i de 1 à n, la i-ème
fonction coordonnée sur Kn , qu’on appelle aussi i-ème projection :
pri : Kn −→ K
(x1 , . . . , xn ) 7−→ xi
On se donne une application f : E −→ Kn . En composant f avec la i-ème fonction
coordonnée sur Kn on obtient une fonction fi : E −→ K. Pour x élément de E on a donc
f (x) = (f1 (x), . . . , fn (x)). L’énoncé suivant est vrai (le démontrer) : f est linéaire si et
seulement si f1 , f2 ,..., fn sont toutes linéaires.
Exercice 1. . Le corps est R. Pourquoi l’application
f : R4 −→ R
(x, y, z, t) 7−→ 3x − 4y + t
est-elle R-linéaire ? Quelles sont les images par f des vecteurs de la base canonique de R4 ? Quelle
est la matrice de f dans les bases canoniques respectives de R4 et R ?
On considère maintenant l’application
g : R4 −→ R2
(x, y, z, t) 7−→ (3x − 4y + t, 6y − 7t).
Reprendre les questions précédentes à propos de g. /
3. Sous-espaces vectoriels d’un espace vectoriel E
3.1. Ils sont très souvent donnés comme
(1) Noyau d’une application linéaire (voir 11.4),
(2) Image d’une application linéaire (voir 11.4),
(3) Sous-espace engendré par une partie A de E : c’est l’ensemble de toutes les combinaisons linéaires finies d’éléments de A. On le note Vect(A).
On peut aussi prouver qu’un sous-ensemble F d’un espace vectoriel E est un sous-espace vectoriel
en vérifiant qu’il est non vide (par exemple parce qu’il contient 0) et stable par addition et
par multiplication par un scalaire.
Exemple 3.1.1. Cette stabilité est parfois la conséquence d’un théorème important. Ainsi, dire
que l’ensemble C([0, 1], R) des fonctions continues sur l’intervalle [0, 1] est un sous-espace vectoriel
de F([0, 1], R), c’est affirmer que la fonction constante 0 est continue, que la somme de deux
fonctions continues est continue et que le produit par un scalaire d’une fonction continue est
continue.
3
On considère alors l’espace vectoriel C([0, 1], R) des fonctions continues sur l’intervalle [0, 1] à
valeurs dans R. Un résultat fondamental de la théorie de l’intégration est que l’intégrale
C([0, 1], R) −→ R
Z 1
f (t)dt
f 7−→
0
est une application linéaire.
Exemple 3.1.2. Il résulte des théorèmes de base sur l’existence et les propriétés de la dérivation
que l’ensemble C 1 ([0, 1], R) des fonctions dérivables sur l’intervalle [0, 1] à dérivée continue est un
sous-espace vectoriel de F([0, 1], R) et que l’application :
C 1 ([0, 1], R) −→ C([0, 1], R)
f 7−→ f 0
est une application linéaire.
On considère un espace vectoriel E sur K. Un sous-espace vectoriel de E est en particulier un
espace vectoriel sur K. Si E est de dimension finie (voir 11.2), alors tous ses sous-espaces vectoriels
sont de dimension finie et on a le résultat important suivant :
Théorème 2. On considère deux sous-espaces vectoriels F et G d’un espace vectoriel E sur K.
Si F ⊂ G, alors dim F ≤ dim G avec égalité si et seulement si F = G.
Autrement dit, lorsque F est inclus dans G, et F différent de G, la dimension de F est strictement
plus petite que la dimension de G.
Exemple 3.1.3. On peut déterminer ainsi, par exemple, tous les sous-espaces vectoriels de R2 .
Leur dimension est au plus 2, donc 2, 1 ou 0.
– dimension 2 : il n’y a que R2 .
– dimension 1 : Si F ⊂ R2 est un sous-espace de dimension 1, il a une base à un élément. Les
sous-espaces de dimension 1 de R2 sont les droites vectorielles, chacune engendrée par un vecteur
non nul.
– dimension 0 : le sous-espace réduit à (0, 0).
On considère un espace vectoriel E sur un corps K et un sous-espace vectoriel F de E. On dira
que F 0 est un supplémentaire de F dans E si on peut trouver une base B de F , une base B 0 de
F 0 telles que B ∪ B 0 est une base de E.
Le théorème de la base incomplète (voir 11.3) montre que tout sous-espace F admet au moins un
supplémentaire dans E.
Théorème 3. Les propriétés suivantes sont équivalentes :
(1) F et F 0 sont deux sous-espaces vectoriels supplémentaires dans E.
(2) La réunion d’une base de F et d’une base de F 0 est une base de E.
(3) Tout vecteur de E s’écrit de manière unique comme somme d’un vecteur de F et d’un
vecteur de F 0 .
(4) Tout vecteur de E s’écrit comme somme d’un vecteur de F et d’un vecteur de F 0 et
l’intersection F ∩ F 0 est réduite à {0}.
Lorsque l’une de ces propriétés est vraie, on écrit E = F ⊕ F 0 et on dit que E est la somme directe
de F et F 0 . À cause de (2), si E est de dimension finie et E = F ⊕F 0 , on a dim E = dim F +dim F 0 .
4
3.2. Applications linéaires et sous-espaces vectoriels. On part d’une application linéaire f :
E −→ F entre deux espaces vectoriels sur K. Le résultat fondamental concernant les applications
linéaires est le suivant :
Théorème 4 (du rang). On considère deux espaces vectoriels E et F sur le corps K et une
application linéaire f : E −→ F . Le noyau de f est un sous-espace vectoriel de E et l’image f (E)
un sous-espace vectoriel de F .
Si de plus E est de dimension finie (c’est-à-dire possède une base finie) alors ker f et f (E)
sont de dimension finie et l’égalité suivante est vraie :
dim E = dim ker f + rgf.
où rgf , appelé rang de f , est la dimension de f (E).
On a déjà dit que le noyau ker f est un sous-espace vectoriel de E. Plus généralement, si G est
un sous-espace vectoriel de F alors l’image inverse f −1 (G) est un sous-espace vectoriel de E.
D’autre part, si H est un sous-espace vectoriel de E, alors f (H) est un sous-espace vectoriel de F
(voir la définition de l’image inverse en 11.5).
Université de Nice
2006-07
L2MI
Algèbre
Matrices et applications linéaires.
4. Matrices
4.1. Un tableau à n lignes et p colonnes d’éléments de K est appelé matrice n × p. L’ensemble
de ces matrices est un espace vectoriel sur K. On le note Mn,p (K) (et Mn (K) lorsque n = p).
Pour i entier de 1 à n et j entier de 1 à p on considère la matrice Ei,j dont tous les coefficients
sont nuls sauf celui situé à la ligne i et à la colonne j qui est égal à 1. La famille (Ei,j ), indexée
par les couples (i, j), i de 1 à n et j de 1 à p, est une base de Mn,p (K). La dimension de Mn,p (K)
est donc np.
Pour une matrice M de Mn,p (K), on a :
X
M=
Mi,j Ei,j
1≤i≤n,1≤j≤p
où Mi,j est le coefficient de M situé à la ligne i et à la colonne j.
Exercice 2. . Montrer que les matrices triangulaires supérieures forment un sous-espace vectoriel
de Mn (K) de dimension n(n + 1)/2. /
On se donne deux matrices A et B à coefficients dans K. Si le nombre de colonnes de A est égal
au nombre de lignes de B, alors le produit AB est défini.
On se donne par exemple les deux matrices


1 −3 0 6
0 5 −1
A :=
et B :=  4 12 1 2 
3 6 −4
5 −1 5 0
Le produit BA n’est pas défini. En revanche le produit AB existe. Pour le calculer, il est commode
de disposer ainsi les matrices :


1 −3 0 6
 4 12 1 2 
5 −1 −5 0 0 5 −1
∗ ∗
∗
∗
3 6 4
∗ ∗ −14 ∗
On a fait apparaı̂tre sur ce schéma que le calcul du coefficient situé à la ligne 2 et à la colonne
3 de AB ne dépend que de la ligne 2 de A et de la colonne 3 de B, qui ont toutes les deux 3
coefficients. On obtient −14 en faisant 3 × 0 + 6 × 1 + 4 × (−5).
La formule générale est la suivante : pour A matrice de Mn,p (K) et B matrice de Mp,q (K), le
produit AB existe. C’est une matrice de Mn,q (K) et
(AB)i,k =
p
X
ai,j bj,k
j=1
pour i de 1 à n et k de 1 à q.
On en déduit les formules suivantes, pour A et A0 dans Mn,p (K), B et B 0 dans Mp,q (K) :
(A + A0 )B = AB + A0 B et A(B + B 0 ) = AB + AB 0 .
6
4.2. Matrices carrées. On peut toujours faire le produit de deux matrices carrées dans Mn (K).
Ce produit n’est pas commutatif. Il a un élément neutre qui est la matrice unité In .
Calculer par exemple dans M2 (R) les deux produits AB et BA pour
0 1
0 0
A :=
et B :=
.
0 0
1 0
On dit qu’une matrice A de Mn (K) est inversible dans Mn (K) s’il existe une matrice de Mn (K)
dont le produit avec A donne la matrice unité In . Lorsque cette matrice existe, elle est unique et
on la note A−1 .
4.3. Transformations permises sur les lignes d’une matrice. Elles sont de trois types
(1) Ajouter à une ligne un multiple d’une autre ligne.
(2) Multiplier une ligne par un scalaire non nul.
(3) Echanger deux lignes.
Soit r un entier naturel. On dira qu’une matrice est à lignes échelonnées de rang r si l’on a
l’une des deux propriétés :
– Une matrice vide (0 ligne) est à lignes échelonnées de rang 0.
– La première ligne commence par un zéro, la première colonne est nulle et la matrice obtenue en
oubliant la première colonne est à lignes échelonnées de rang r.
– La première ligne commence par un 1, tous les autres termes de la première colonne sont nuls
et la matrice obtenue en oubliant première ligne et première colonne est à lignes échelonnées de
rang r − 1.
On appelle pivot une case du tableau n × p où se trouve un tel 1. Il y en a donc r pour une
matrice de rang r.
Théorème 5. Partant d’une matrice A, il est possible, après un nombre fini d’étapes de type (1)
ou (2), d’obtenir une matrice A0 à lignes échelonnées. On dira que la matrice A0 est équivalente
à la matrice A.
On remarque aussi qu’en faisant plusieurs transformations du type (1) il est permis d’ajouter
à une ligne une combinaison linéaire des autres lignes.
On remarque aussi que l’échange de lignes n’est pas nécéssaire pour obtenir une matrice à lignes
échelonnées.
Le théorème affirme l’existence d’une solution au problème posé. En général, elle n’est pas unique.
Enfin, l’énoncé similaire est vrai pour les colonnes (le formuler). 4.4. Matrices et systèmes linéaires. Une matrice A de Mn,p (K) étant donnée, on note ses
coefficients Ai,j , i de 1 à n et j de 1 à p. On lui associe le système linéaire homogène de matrice
A, à n équations d’inconnues (x1 , . . . , xp )
A1,1 x1 + . . . + A1,p xp = 0
..
.
An,1 x1 + . . . + An,p xp = 0
En notant X la matrice colonne dont les coefficients sont x1 , . . . , xn , le système précédent s’écrit
AX = 0.
7
Une remarque facile mais importante est la suivante : si A0 est une matrice à lignes échelonnées
équivalente à A, le système homogène de matrice A0 d’inconnues (x1 , . . . , xp ) est un système
équivalent à celui de matrice A, au sens qu’ils ont les mêmes solutions dans Kp .
D’autre part le système associé à une matrice à lignes échelonnées de rang r est facile à résoudre.
On en déduit que, pour résoudre un système linéaire, il suffit de lui appliquer des transformations
permises du type (1) ou (2).
Plus précisément, si les pivots de A0 sont aux adresses ((i1 , j1 ), . . . , (ir , jr )), on peut prendre
xj1 , . . . , xjr comme inconnues principales et les équations de numéro (i1 , . . . , ir ) comme équations
principales. Toute solution du système est déterminée par la donnée des valeurs des inconnues non
principales. Les solutions du système forment un sous-espace vectoriel de Kp de dimension p − r.
Théorème 6. On considère une matrice A de Mn,p (K). Le rang d’une matrice à lignes échelonnées,
équivalente à A, ne dépend que de A. On l’appelle le rang de A.
Démonstration. Si A0 est une matrice obtenue à partir de A par une transformation permise, alors
les deux systèmes linéaires de matrices respectives A et A0 sont équivalents et ont donc les mêmes
solutions. On en déduit que les rangs de A et A0 sont égaux.
Théorème 7 (Cramer). On considère une matrice carrée A de Mn (K). Les propriétés suivantes
sont équivalentes
(1) Le rang de A est égal à n.
(2) Le système linéaire homogène AX = 0 a une unique solution 0.
(3) Pour toute donnée d’un second membre B, le système linéaire AX = B d’inconnue X a
une solution unique.
4.5. Matrices et applications linéaires.
4.5.1. Les données sont les suivantes :
– Un espace vectoriel E de dimension finie p sur K muni d’une base B. La base B est la liste
(e1 , . . . , ep ).
– Un espace vectoriel F de dimension finie n sur K muni d’une base C. La base C est la liste
(f1 , . . . , fn ).
– Une application linéaire u : E −→ F .
On construit la matrice M de u dans les bases (B, C). Pour j de 1 à p, la colonne de numéro j de
cette matrice a pour coefficients les n coordonnées du vecteur u(ej ) dans la base C.
L’application u est entièrement déterminée par la donnée de sa matrice M dans les bases (B, C).
En effet, si x est un vecteur de E, on lui associe sa matrice X dans la base B : c’est une matrice
colonne p × 1. On associe de même la matrice colonne Y des coordonnées de u(x) dans la base C.
On a alors l’égalité
Y = MX
qui résulte de la linéarité de u.
Si on se donne en plus un espace vectoriel G de dimension finie m sur K, muni d’une base D et
une application v : F −→ G de matrice N dans les bases C et D, alors la matrice de l’application
composée
u
v
v ◦ u : E −→ F −→ G.
est égale au produit N M qui est bien dans Mm,p (K).
8
4.5.2. Si maintenant on se donne une matrice A dans Mn,p (K), on peut lui faire correspondre
simplement une application linéaire de Kp dans Kn . C’est l’unique application linéaire qui a pour
matrice A. Si on préfère, c’est l’unique application linéaire qui envoie le vecteur de numero j dans
la base canonique de Kp sur le vecteur de Kn dont les coordonnées sont inscrites dans la colonne
de numero j de A. On notera également A l’application linéaire ainsi construite.
Il existe un dictionnaire intéressant entre les propriétés des applications linéaires et celles des
matrices. Par exemple :
(1) Le noyau de l’application A : Kp −→ Kn est l’ensemble des solutions du système linéaire
de matrice A.
(2) L’image de l’application A : Kp −→ Kn est le sous-espace vectoriel engendré par les
vecteurs colonnes de A.
Théorème 8. On considère une matrice A de Mn,p (K). Le rang de la matrice A, comme défini
au théorème 6, est égal à la dimension de l’espace vectoriel engendré par les vecteurs colonnes
de A.
Démonstration. Si la matrice A est à lignes echelonnées, le théorème est clair. Pour terminer la
preuve il suffit de montrer que cette dimension ne change pas lorsqu’on applique une transformation
permise. Comme une transformation permise a une réciproque qui est aussi une transformation
permise, il suffit de montrer que cette dimension ne diminue pas.
Considérons une transformation permise où l’on ajoute à la i-ème ligne de A le produit de la j-ème
ligne de A par un scalaire λ.
Prenons une famille (Vj1 , . . . , Vjr ) de vecteurs colonnes de A qui est une base de l’espace engendré
par les vecteurs colonnes de A et considérons la famille des vecteurs colonnes de A0 qui ont les
mêmes indices (Vj01 , . . . , Vj0r ). Supposons que cette dernière est liée. Il existe alors des scalaires
α1 , . . . , αr non tous nuls tels que
r
X
αk Vj0k = 0.
k=1
Autrement dit, pour chaque ` de 1 à n on a une égalité dans K :
r
X
0
αk V`,j
= 0.
k
k=1
0
= Vi,jk pour tout ` sauf
Pr pour ` = i où l’on a Vi,jk = Vi,jk + λV
Pj,jr k . On en déduit que
= 0 pour ` 6= i et k=1 αk (Vi,jk + λVj,jk ) = 0. Mais comme k=1 αk Vj,jk = 0, on en
k
k=1 αk V`,jP
déduit que rk=1 αk Vi,jk est aussi nulle, puis que la famille (Vj1 , . . . , Vjr ) est liée, ce qui contredit
l’hypothèse faite sur elle. La famille (Vj01 , . . . , Vj0r ) est donc libre et engendre donc un espace de
dimension au moins r.
Mais
Pr
0
Vi,j
k
On termine donc avec un slogan : le rang des lignes d’une matrice est égal au rang de ses colonnes :
c’est le rang de la matrice.
On a donc démontré le théorème du rang, un des énoncés les plus fondamentaux de l’algèbre
linéaire, déjà donné au théorème 4 et que nous redonnons sous une forme équivalente :
Théorème 9. On considère deux entiers naturels n et p et une matrice A dans Mn,p (K). Son
rang r est au plus égal au plus petit des deux nombres n et p. La dimension de l’espace des solutions
du système de matrice A est égal à la différence p − r (nombre d’inconnues diminué du rang).
Corollaire 9.1. On se donne une matrice A dans Mn,p (K).
9
(1) Si n ≥ p = rgA, alors le système linéaire homogène AX = 0 de matrice A n’a que la
solution nulle (i.e. le noyau de A est réduit à {0}). {0}.
(2) Si rgA = n ≤ p, alors, pour toute donnée d’un second membre B le système AX = B a
au moins une solution ( i.e. l’application A : Kp −→ Kn est surjective).
(3) Si rgA = n = p, alors, pour toute donnée d’un second membre B le système AX = B a
une solution unique ( i.e. l’application A : Kn −→ Kn est bijective).
4.6. Groupe des matrices carrées inversibles. L’ensemble des matrices carrées Mn (K) est
muni d’une structure d’espace vectoriel sur K et d’une multiplication interne qui en fait une
K-algèbre.
Il découle du corollaire 9.1 que les propriétés suivantes sont équivalentes :
(1) A est de rang n (i.e. le système linéaire de matrice A est de Cramer).
(2) Les vecteurs colonnes (resp. lignes) de A forment une base de Kn .
(3) ker A = {0} (i.e. A : Kn −→ Kn est injective).
(4) A : Kn −→ Kn est surjective.
(5) A : Kn −→ Kn est bijective.
(6) A est inversible dans Mn (K).
Si l’une de ces propriétés est vraie, la solution du système linéaire AX = B, de matrice A et de
second membre B, est donnée par X = A−1 B. On voit donc que les deux problèmes suivants sont
équivalents :
(1) Pour tout second membre B, résoudre le système de Cramer AX = B.
(2) Inverser la matrice A.
L’ensemble des matrices inversibles dans Mn (K) est un groupe. On le note GLn (K). Ce n’est pas
un groupe commutatif en général.
Université de Nice
2006-07
L2MI
Algèbre
Déterminants.
Une parenthèse dans le monde des permutations d’un ensemble fini. On fixe un entier naturel n et
on considère l’ensemble {1, 2, . . . , n} des n premiers entiers. On peut les considérer en eux-mêmes
ou comme les numéros d’un ensemble fini à n éléments.
5. Permutations
5.1. Une permutation est une bijection de l’ensemble {1, 2, . . . , n} sur lui-même. Une telle
permutation est donc une application σ : {1, 2, . . . , n} −→ {1, 2, . . . , n} qui a une application
réciproque notée σ −1 . L’ensemble de ces bijections forme un groupe pour la composition des
applications, appelé groupe symétrique et noté Sn . Le groupe Sn a n! éléments (le démontrer
par récurrence).
La notation traditionnelle est la suivante : une permutation σ de Sn est notée
1
2
...
n
.
σ(1) σ(2) . . . σ(n)
Par exemple la notation
(5.1.1)
τ :=
1 2 3 4 5
5 1 4 3 2
désigne la permutation de S5 telle que τ (1) = 5, τ (2) = 1, τ (3) = 4, τ (4) = 3 et τ (5) = 2. Pour
cette permutation particulière, les transformés successifs de 1 sont 5 = τ (1), 2 = τ (5), 1 = τ (5),
5 = τ (1)...
5.2. Cycles. On appelle cycle de longueur p une permutation de Sp telle que l’ensemble des
transformés successifs de 1 (et donc de tout élément) est l’ensemble {1, 2, . . . , p} tout entier. Un
tel cycle est caractérisé par la liste des transformés successifs de 1. Par exemple la permutation
1 2 3 4 5
σ :=
5 3 4 1 2
est un cycle de longueur 5. La liste des transformés successifs de 1 est (1, 5, 2, 3, 4). La liste des
transformés successifs de 2 est (2, 3, 4, 1, 5). Elle caractérise la même permutation (on voit que
c’est la liste circulaire qui caractérise la permutation).
Plus généralement, on appelle cycle de longueur p de Sn (p ≤ n) une permutation qui induit un
cycle sur un sous-ensemble à p éléments de {1, 2, . . . , n} et qui laisse les autres éléments fixes. Par
exemple, la permutation
1 2 3 4 5
5 1 3 4 2
est un cycle de longueur 3 que nous noterons à l’aide de la liste des transformés successifs de 1, à
savoir (1, 5, 2). De même la la permutation
1 2 3 4 5
1 2 4 3 5
11
est un cycle de longueur 2 que nous noterons (3, 4). On remarque encore que (4, 3) désigne le
même cycle. On constate que les deux cycles (1, 5, 2) et (3, 4) commutent et que leur produit est
égal à la permutation τ décrite en (5.1.1).
On considère une permutation σ dans Sn . Partant d’un élément de {1, 2, . . . , n}, par exemple 1, on
considère ses transformés successifs par σ : 1, σ(1), σ(σ(1))... Cette suite d’entiers entre 1 et n est
forcément périodique. Supposons que σ i (1) = σ j (1) avec i < j. Puisque σ est bijective c’est donc
que σ j−i (1) = 1. On voit donc que la période de la suite des images successives de 1 est le plus
petit des entiers ` pour lesquels σ ` (1) = 1. Notons le c. La donnée de la liste (1, σ(1), . . . , σ c−1 (1))
permet de connaı̂tre les images par σ de tous les termes de la liste :
1 7−→ σ(1) 7−→ . . . 7−→ σ c−1 (1) 7−→ 1.
Si on prend un élément de l’ensemble {1, 2, . . . , n} qui n’est pas dans la liste, on est sûr que
ses images successives ne sont pas non plus dans la liste. On peut donc recommencer le même
processus jusqu’à épuisement de l’ensemble {1, 2, . . . , n}. On a alors obtenu un nombre fini de
listes à supports disjoints (c’est-à-dire qu’un élément de {1, 2, . . . , n} figure dans une liste et une
seule). La réunion des supports est {1, 2, . . . , n}. On a démontré :
Théorème 10. Toute permutation σ de Sn se décompose en un produit de cycles à supports
disjoints.
Noter que deux cycles à supports disjoints commutent toujours. La décomposition de la permutation τ de la formule (5.1.1) en cycles à supports disjoints est (1, 5, 2)(3, 4). La décomposition est
unique (même si la façon de l’écrire ne l’est pas).
5.3. Signature. On considère une permutation σ de Sn . Une inversion est une paire {i, j} telle
que σ(i) et σ(j) ne sont pas dans le même ordre que i et j. Le nombre d’inversions de σ est le
nombre de telles paires. Un cycle de longueur p a p − 1 inversions.
Définition 1. On appelle signature de la permutation σ le nombre (−1)I(σ) où I(σ) est le nombre
d’inversions de σ. On la note (σ).
La signature vaut donc 1 ou −1 suivant que I(σ) est pair ou impair. Un cycle de longueur p est
de signature (−1)p−1 . L’intérêt de la notion de signature est dans le résultat suivant :
Théorème 11. La signature d’un produit de permutations est le produit des signatures.
Démonstration. Considérons deux permutations σ et σ 0 de Sn . Une paire {i, j} est une inversion
pour la composée σ 0 ◦ σ si et seulement si une et une seule des assertions suivantes est vraie
– {i, j} est une inversion pour σ et {σ(i), σ(j)} n’est pas une inversion pour σ 0 .
– {i, j} n’est pas une inversion pour σ et {σ(i), σ(j)} est une inversion pour σ 0 .
On considère les deux ensembles suivants :
– L’ensemble J des inversions de σ.
– L’ensemble J 0 des paires {i, j} pour lesquelles {σ(i), σ(j)} est une inversion pour σ 0 .
Le nombre d’éléments du premier est I(σ) et le nombre d’éléments du second est I(σ 0 ). Une
inversion de σ 0 ◦ σ est un élément de J ∪ J 0 qui n’est pas dans l’intersection J ∩ J 0 , c’est-à-dire
un élément de la différence symétrique J M J 0 . La parité du nombre d’éléments de J M J 0 est
la somme des parités du nombre d’éléments de J et du nombre d’éléments de J 0 (cf. fonction
booléenne « ou exclusif »).
La signature de la permutation τ décrite en (5.1.1) est −1 puisque elle est le produit des cycles
(1, 5, 2) et (3, 4) de longueur 3 et 2.
12
6. Déterminant d’une matrice carrée
On considère un corps K, un entier n et une matrice carrée A de Mn (K). Le coefficient de A
situé sur la i-ème ligne et la j-ème colonne est noté Ai,j pour i et j de 1 à n.
On donne une définition récursive du déterminant : c’est le scalaire donné par la formule suivante
det A :=
n
X
(−1)1+j A1,j ∆1,j
j=1
où ∆1,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la première ligne
et la j-ème colonne de A. Reste à préciser ce qu’est le déterminant d’une matrice 1 × 1 : c’est la
valeur de son unique coefficient. Pour l’anecdote : on convient que le déterminant d’une matrice
0 × 0 vaut 1.
Conséquence : Le déterminant d’une matrice triangulaire est égal au produit des coefficients
diagonaux de la matrice.
On appelle cette manière de calculer le déterminant : développement par rapport à la première
ligne. On constate (par récurrence !) que det A est une somme de termes qui sont les produits
d’une liste de n coefficients de A affectés d’un signe + ou −. Les listes sont obtenues en choisissant
un terme dans chaque ligne et un dans chaque colonne. Reste à calculer le signe :
Théorème 12. Le déterminant de A est donné par la formule (non récursive) suivante :
det A =
X
(σ)A1,σ(1) A2,σ(2) . . . An,σ(n) .
σ∈Sn
En conséquence, le déterminant de A peut se calculer en développant par rapport à la i-ème ligne :
det A =
n
X
(−1)i+j Ai,j ∆i,j ,
j=1
ou par rapport à la j-ème colonne :
det A =
n
X
(−1)i+j Ai,j ∆i,j
i=1
où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la première ligne et
la j-ème colonne de A.
Prendre garde à la fausse similitude entre les formules. Dans l’une l’indice de ligne est fixé, alors
que dans l’autre c’est l’indice de colonne.
Corollaire 12.1. Une matrice de Mn (K) et sa transposée ont même déterminant.
Les exemples de petite taille : pour une matrice de M2 (K), on trouve
a b a b
= ad − bc.
det
= c d
c d 13
Pour les matrices de M3 (K), en developpant par rapport à la première ligne

 a b c a b c
det  d e f  = d e f g h i g h i
e f d f d e = aei − af h − bdi + bf g + cdh − ceg.
= a
− b
+ c
h i g i g h On retrouve bien qu’il y a 3! = 6 termes dans le développement, 3 avec le signe + et 3 avec le
signe −.
Attention aux analogies trop faciles ! Dans le développement du déterminant d’une matrice 4 × 4
A dans M4 (K) il y a 4! = 24 termes. Par exemple, il y a un terme en A1,1 A2,3 A3,4 A4,2 affecté du
signe +, car la permutation
1 2 3 4
1 3 4 2
est le cycle (2, 3, 4) et a pour signature +1.
6.1. Multilinéarité. On se donne deux matrices A0 et A00 dans Mn (K). On suppose que les lignes
de A0 et de A00 sont les mêmes, sauf la i-ème. On appelle A la matrice qui a les mêmes lignes que
A0 sauf la i-ème qui est la somme de la i-ème ligne de A0 et de la i-ème ligne de A00 . Alors :
det(A) = det(A0 ) + det(A00 ).
On se donne maintenant une matrice A dans Mn (K) et un scalaire λ. On appelle A0 la matrice
qui a les mêmes lignes que A sauf la i-ème qui est le produit de la i-ème ligne de A par le scalaire
λ. Alors :
det(A0 ) = λ det(A).
Démonstration. On développe tous les déterminants par rapport à la ligne de numéro i.
6.2. Transformations permises. On rappelle les opérations permises sur les lignes d’une matrice
(1) Ajouter à une ligne un multiple d’une autre ligne.
(2) Multiplier une ligne par un scalaire non nul.
(3) Echanger deux lignes.
Lemme 1. Le déterminant d’une matrice A de Mn (K) qui a deux lignes proportionnelles est nul.
Démonstration. Par récurrence sur n. Si n = 2 c’est facile. Si n > 2, et que les lignes de numéro
i et j sont proportionnelles, on développe par rapport à une ligne de numéro k (k 6= i, k 6= j)
et les matrices obtenues en oubliant la ligne de numéro k et une colonne ont encore deux lignes
proportionnelles.
Lemme 2. On considère une matrice A de Mn (K) et une matrice équivalente A0 obtenue à partir
de A par une transformation de type (1). On a alors det A0 = det A.
Démonstration. On considère un scalaire λ et la matrice A0 obtenue en ajoutant à la i-ème ligne
de A le produit de la j-ème par λ. Désignons par A00 la matrice obtenue en remplaçant la i-ème
ligne de A par la j-ème. Par multilinéarité on a det A0 = det A + λ det A00 et par le lemme 1 on a
det A00 = 0.
On résume les résultats obtenus dans le théorème suivant :
14
Théorème 13. On considère une matrice A de Mn (K).
(1) Une matrice équivalente A0 obtenue à partir de A par une transformation permise de type
(1) a même déterminant que A.
(2) Une matrice équivalente A0 obtenue à partir de A en multipliant une ligne par un scalaire
λ a pour déterminant det A0 = λ det A.
(3) Une matrice équivalente A0 obtenue à partir de A en permutant deux lignes a pour déterminant
det A0 = − det A.
Remarque : Les formules analogues obtenues en transposant sont vraies : dans les énoncés cidessus on peut remplacer ligne par colonne. Le théorème ci-dessus est un outil essentiel pour le
calcul pratique des déterminants.
Démonstration. On a déjà démontré les points (1) et (2) du théorème. Pour le point (3), on peut
revenir à la formule non récursive du théorème 12 ou procéder par récurrence de manière similaire
à la preuve du lemme 1.
Attention ! Si A est une matrice de Mn (K) et λ un scalaire, alors det λA = (λ)n det A.
Corollaire 13.1. On considère une matrice A de Mn (K). Alors det A 6= 0 si et seulement si A
est de rang maximum autrement dit si et seulement si A est inversible dans Mn (K).
Démonstration. On sait (voir théorème 5) que l’on peut trouver une matrice A0 équivalente à A
(donc de même rang) et à lignes echelonnées en effectuant des transformations permises de type
(1) et (2). La matrice A0 est de rang n si et seulement si elle est triangulaire supérieure avec des
coefficients diagonaux tous égaux à 1.
6.3. Déterminant d’un produit de matrices.
Théorème 14. On considère deux matrices A et B dans Mn (K). On a
det AB = det A det B.
Démonstration. À l’exercice 7 de la feuille 2, on montre que si A0 est une matrice équivalente
obtenue à partir de A par une transformation de type (1), alors on peut construire une matrice
triangulaire T telle que A0 = T A. On voit que det T = 1 et que det A0 = det A, donc on a bien
dans ce cas det T A = det T det A.
De manière analogue, lorsque A0 est une matrice équivalente obtenue à partir de A par une
transformation de type (2), alors on peut construire une matrice diagonale D (avec tous les
coefficients diagonaux égaux à 1 sauf l’un d’entre eux égal à λ) telle que A0 = DA. On voit que
det D = λ et que det A0 = λ det A, donc on a bien dans ce cas det DA = det D det A.
Le théorème 5 montre que toute matrice A de Mn (K) est un produit de matrices associées à des
transformation de type (1) ou (2). Multiplier à gauche par A, c’est donc multiplier successivement
par de telles matrices. Si A = L1 . . . Lk , on a
det(AB) = det(L1 ) . . . det(Lk ) det B
Pour B = In on trouve det A = det(L1 ) . . . det(Lk ) det In ce qui donne la formule attendue.
Corollaire 14.1. Soit A une matrice inversible dans Mn (K). Alors
det(A−1 ) = (det A)−1 .
Démonstration. On a AA−1 = In et det In = 1 d’où det A det(A−1 ) = 1 ce qui montre le résultat.
15
Remarque : Le calcul du déterminant d’une matrice de Mn (K) ne fait intervenir que les opérations
d’addition et de multiplication dans K sans jamais faire intervenir de calcul d’inverse. De même
le calcul du produit de deux matrices ne fait intervenir que ces mêmes opérations. On peut donc
considérer des matrices à coefficients entiers (resp. polynômes). Le produit de deux telles matrices
sera encore du même type et leurs déterminants seront des entiers (resp. des polynômes).
Le corollaire 14.1 s’étend donc, avec la même preuve, de la manière suivante : Soit A une matrice
à coefficients entiers (resp. polynômes) qui a un inverse à coefficients entiers (resp. polynômes).
Alors son déterminant est inversible dans les entiers (resp. polynômes). Il vaut donc 1 ou −1
(resp. il est un polynôme constant non nul).
Par exemple, la matrice a coefficients entiers
3 −1
2 1
a un déterminant égal à 5. Elle est inversible dans M2 (R), mais on peut affirmer que son inverse
n’est pas à coefficients entiers.
6.4. Calcul de l’inverse. On considère une matrice A de Mn (K). Le coefficient de A situé sur
la i-ème ligne et la j-ème colonne est noté Ai,j pour i et j de 1 à n. On appelle cofacteur Ci,j
la quantité (−1)i+j ∆i,j où où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en
oubliant la première ligne et la j-ème colonne de A. Avec ces notations, le développement de det A
par rapport à la ligne de numéro i s’écrit
n
X
det A =
Ai,j Ci,j .
j=1
On appelle matrice des cofacteurs de A (ou comatrice de A) la matrice dont le coefficient situé
sur la i-ème ligne et la j-ème colonne est Ci,j . On la note c(A).
Théorème 15. On considère une matrice A de Mn (K) et la matrice de ses cofacteurs c(A).
Alors
(det A)In = A tc(A) = tc(A) A.
En particulier, si det A est inversible, A est aussi inversible et on a
A−1 = (det A)−1 tc(A).
Démonstration. On calcule le coefficient du produit des matrices A tc(A) situé à la ligne numéro i
et à la colonne numéro j. Il vaut :
n
X
Ai,k Cj,k .
k=1
Lorsque i = j on trouve det A. Lorsque i 6= j, on trouve le développement du déterminant de la
matrice obtenue en remplaçant la ligne numéro j de A par la ligne numéro i. Mais, puisque i 6= j
la matrice obtenue a deux lignes qui sont égales. Son déterminant est donc nul.
Exercice 3. . On considère un système linéaire homogène de n − 1 équations à n inconnues. On
suppose qu’il est de rang maximum n − 1.
Montrer que l’espace des solutions est une droite vectorielle.
On désigne par A la matrice du système. Montrer qu’une base de cette droite est donnée par le
vecteur de coordonnées ∆1 , . . . , ∆n où ∆i est le déterminant de la matrice n − 1 × n − 1 obtenue
en oubliant la i-ème colonne de A.
16
Application : On donne deux plans de R3 d’équations respectives
3x − 5y + −z = 0 et x − 2y + 9z = 0.
Déterminer une base de leur intersection. /
6.5. Valeurs propres d’une matrice carrée. On considère une matrice A dans Mn (K), un
scalaire λ et le système linéaire homogène de matrice A − λIn .
Définition 2. On dira que λ est une valeur propre de la matrice A si le système linéaire
homogène (A − λIn )X = 0 a au moins une solution non triviale (c’est-à-dire une solution non
nulle). Une telle solution non triviale est appelée vecteur propre de A associé à la valeur
propre λ. L’espace des solutions du système (A − λIn )X = 0 est appelé espace propre de A
associé à la valeur propre λ.
Le théorème qui suit est simplement une traduction de la définition. On utilise la propriété fondamentale du déterminant.
Théorème 16. On considère une matrice A dans Mn (K) et un scalaire λ dans K. Les propriétés
suivantes sont équivalentes :
(1) λ est valeur propre de A
(2) La matrice A − λIn n’est pas de rang maximum.
(3) Le déterminant det(A − λIn ) est nul.
Étant donnée une matrice A dans Mn (K), on considère la matrice A − T In à coefficients polynômes en T . Comme le calcul du déterminant ne fait intervenir que des multiplications et
des additions, il est possible de calculer le déterminant d’une matrice de Mn (K[T ]). C’est un
polynôme de K[T ].
Définition 3. On considère une matrice A dans Mn (K) et la matrice A − T In dans Mn (K[T ]).
Le déterminant det(A − T In ) est un polynôme à coefficients dans K qu’on appelle le polynôme
caractéristique de A. Ses racines dans K sont les valeurs propres de A dans K.
Considérons une matrice A triangulaire dans Mn (K) et désignons par λ1 , . . . , λn ses coefficients
diagonaux. Alors, A − T In est aussi triangulaire et son déterminant est le produit de ses éléments
diagonaux λ1 − T, . . . , λn − T . On en déduit que les valeurs propres de la matrice triangulaire A,
comptées avec multiplicité, sont ses éléments diagonaux.
Université de Nice
2006-07
L2MI
Algèbre
Changements de variables.
7. Changement de base
7.1. On considère un corps K et un espace vectoriel E de dimension finie sur K muni d’une base
B := (e1 , . . . , en ). Un vecteur x de E a pour coordonnées (x1 , x2 , . . . , xn ) dans la base B. Cela veut
dire qu’il se décompose en
x = X1 e1 + . . . Xn en .
Pour ne pas confondre scalaires et vecteurs on peut mettre des flèches sur ces derniers : l’écriture
devient
~x = X1~e1 + . . . Xn~en .
On se donne une autre base B 0 := (e~0 1 , . . . , e~0 n ) de E. On va l’appeler la nouvelle base et on va
appeler B l’ancienne base. Comment se donner les vecteurs de la famille B 0 ? Par leurs coordonnées
dans la base B. Pour j de 1 à n, chacun des ~ej a une décomposition unique sur la base B
e~0 j = P1,j ~e1 + . . . Pn,j ~en .
(7.1.1)
Ainsi, Pi,j est la i-ème coordonnée du vecteur e~0 j dans la base B. On inscrit ces coordonnées dans
une matrice de Mn (K). Ainsi la j-ème colonne de cette matrice est la liste (P1,j , . . . , Pn,j ) des
coordonnées de e~0 j dans la base B. On appelle la matrice P matrice de passage de la base B à
la base B 0 .
Si ~x est un vecteur de E, on note X la matrice colonne de ses coordonnées dans la base B et X 0
la matrice colonne des coordonnées de ~x dans la base B 0 . En partant de ~x = X10 e~0 1 + . . . Xn0 e~0 n et
en substituant dans cette formule l’expression (7.1.1) des vecteurs de B 0 dans la base B, on trouve
!
!
n
n
n
n
n
X
X
X
X
X
~x = X10 e~0 1 + . . . Xn0 e~0 n =
Xi0 e~0 i =
Xi0
Pk,i~ek =
Pk,i Xi0 ~ek .
i=1
i=1
k=1
k=1
i=1
On en déduit la décomposition
de ~x dans la base B. Comme cette décomposition est unique, on en
Pn
0
déduit que Xk = i=1 Pk,i Xi pour k de 1 à n. Autrement dit, la matrice colonne X est le produit
de la matrice P par la matrice X 0 :
X = P X 0.
On obtient le slogan suivant : la matrice de passage de l’ancienne base B à la nouvelle base B 0
a pour coefficients les coordonnées des vecteurs de la nouvelle base dans l’ancienne et elle permet
de calculer les anciennes coordonnées d’un vecteur au moyen des nouvelles.
Théorème 17. On considère un corps K et un espace vectoriel E de dimension finie sur K muni
d’une base B := (~e1 , . . . , ~en ).
(1) Étant donnée une base B 0 de E, la matrice de passage P de B à B 0 est une matrice
inversible : son rang est n et son déterminant est non nul. La matrice de passage de B 0 à
B est P −1 .
(2) Réciproquement, on considère une matrice inversible P dans Mn (K). Il existe une unique
base B 0 de E telle que P est la matrice de passage de B à B 0 .
18
Démonstration. (1) Désignons par P 0 la matrice de passage de B 0 à B. Si ~x est un vecteur de E,
on note X la matrice colonne de ses coordonnées dans la base B et X 0 la matrice colonne des
coordonnées de ~x dans la base B 0 . On a donc X = P X 0 et X 0 = P 0 X d’où X = P P 0 X. En prenant
successivement pour ~x les vecteurs de la base B, on en déduit les égalités suivantes :
n
X
0
Pi,j Pj,k
= 0 si i 6= k
j=1
=1
si i = k
qui prouvent que le produit de matrices P P 0 est égal à In .
(2) Pour j de 1 à n, on considère le vecteur e~0 j dont les coordonnées dans la base B sont les
coefficients de la j-ème colonne de P . Montrons que la famille (e~0 1 , . . . , e~0 n ) est libre. Considérons
P
une combinaison linéaire nj=1 λj e~0 j . La matrice colonne de ses coordonnées dans la base B est la
P
combinaison linéaire nj=1 λj Pj des colonnes de P . Comme P est de rang n, une telle combinaison
linéaire est nulle si et seulement si tous les λj sont nuls.
7.2. Déterminant d’une famille de vecteurs. On considère un corps K et un espace vectoriel
E de dimension finie sur K muni d’une base B. On considère d’autre part une famille de n vecteurs
(~v1 , . . . , ~vn ) de E et la matrice M de leurs coordonnées dans la base B. Le coefficient Mi,j de M
situé à la ligne numéro i et à la colonne numéro j est donc égal à la i-ème coordonnée du vecteur
vj dans la base B.
On appelle déterminant de la famille (~v1 , . . . , ~vn ) dans la base B le déterminant de la matrice M .
On le note detB (~v1 , . . . , ~vn ).
Ce déterminant dépend de la famille (~v1 , . . . , ~vn ) et de la base B. On se donne une base B 0 de E
et la matrice de passage P de B à B 0 . On désigne par M 0 la matrice des coordonnées des vecteurs
de la famille (~v1 , . . . , ~vn ) dans la base B 0 . Pour j de 1 à n, on note Vj (resp. Vj0 ) la matrice colonne
des coordonnées de ~vj dans la base B (resp. B 0 ). On a Vj = P Vj0 pour j de 1 à n. La règle de calcul
du produit de matrices donne M = P M 0 et en passant aux déterminants
det(~v1 , . . . , ~vn ) = det P det
(~v1 , . . . , ~vn ).
0
B
B
On voit donc que le déterminant de la famille de vecteurs (~v1 , . . . , ~vn ) dans la base B dépend de
la base B dans lequel on le calcule. En revanche, il est nul dans une base si et seulement s’il est
nul dans toutes les bases.
7.3. Aires. On travaille dans R2 , muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée. Si ~u et ~v sont deux vecteurs et B une base orthonormée, on note U et V les
matrices colonnes des coordonnées de ~u et ~v dans la base B. Alors, le produit scalaire h~u | ~v i se
calcule par la formule suivante
h~u | ~v i = U1 V1 + U2 V2 .
Pour une matrice P de M2 (R) les propriétés suivantes sont équivalentes :
(1) P est la matrice de passage d’une base orthonormée à une autre base orthonormée.
(2) La transposée tP est l’inverse de P .
Démonstration. Dire que le produit tP P vaut I2 , c’est dire que les relations suivantes sont vérifiées :
2
2
2
2
P1,1
+ P2,1
= P1,2
+ P2,2
= 1,
P1,1 P1,2 + P2,1 P2,2 = 0.
19
Lorsqu’une matrice P de M2 (R) vérifie l’une des propriétés ci-dessus, on dit qu’elle est orthogonale. Les matrices orthogonales de M2 (R) forment un groupe pour la multiplication des matrices,
noté O(2, R). C’est un sous-groupe du groupe des matrices inversibles GL2 (R).
Théorème 18. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et deux vecteurs ~u et ~v dans R2 . On choisit comme aire unité celle du carré
construit sur les vecteurs de B0 .
L’aire du parallélogramme déterminé par ~u et ~v est égale à la valeur absolue du déterminant
detB0 (~u, ~v ).
Si B est une autre base orthonormée, la valeur absolue du déterminant detB (~u, ~v ) est égale à
l’aire du parallélogramme construit sur ~u et ~v .
Démonstration. On remarque d’abord que detB (~u, ~v ) = det P detB0 (~u, ~v ) où P est la matrice de
passage de B0 à B. Comme cette matrice est orthogonale, son déterminant vaut 1 ou -1 et les deux
déterminants detB (~u, ~v ) et detB0 (~u, ~v ) ont même valeur absolue. Pour calculer cette valeur absolue
il suffit donc de choisir une base orthonormée.
On note que si ~u et ~v sont colinéaires, alors detB0 (~u, ~v ) = 0. Supposons qu’ils ne sont pas colinéaires.
On choisit une base orthormée (~e1 , ~e2 ) avec ~e1 colinéaire à ~u (par exemple ~u/k~uk). On décompose v
sur la base (~e1 , ~e2 ) en ~v = v1~e1 +v2~e2 . Comme e1 est colinéaire à u on a (propriétés du déterminant,
voir paragraphes 11.6 et 6.2)
det(~u, ~v ) = det(~u, v1~e1 + v2~e2 ) = det(~u, v1~e1 ) + det(~u, v2~e2 ) = det(~u, v2~e2 ).
B
B
B
B
B
Comme ~u est colinéaire à ~e1 , la matrice des coordonnées dans la base B des vecteurs ~u et v2~e2 est
u1 0
0 v2
où u1 est la coordonnée de ~u sur ~e1 . Le déterminant de cette matrice a pour valeur absolue
|u1 | |v2 |. Mais |u1 | est la longueur du vecteur u (la base du parallélogramme) et |v2 | est la longueur
de la projection de ~v sur la direction perpendiculaire à ~u (la hauteur). C’est donc bien l’aire d’un
rectangle qui a même base et même hauteur que le parallélogramme construit sur ~u et ~v lorsqu’on
prend comme unité l’aire du carré construit sur les deux vecteurs d’une base orthonormée.
Corollaire 18.1. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et deux vecteurs ~u et ~v dans R2 . On appelle α l’angle (~u, ~v ). On a alors, pour
toute base orthonormée B,
| det(~u, ~v )| = kukkvk| sin α|
B
7.4. Volumes. De manière similaire à ce qui précède, on démontre :
Théorème 19. On considère R3 muni du produit scalaire qui fait de la base canonique B0 une
base orthonormée et trois vecteurs ~u, ~v et w
~ dans R3 . On choisit comme volume unité celui du
cube construit sur les vecteurs de B0 .
Le volume du parallélépipède déterminé par ~u, ~v et w
~ est égal, pour toute base orthonormée B, à
la valeur absolue du déterminant detB (~u, ~v , w).
~
Démonstration. La preuve est similaire. On remarque d’abord que si ~u, ~v , w
~ sont coplanaires alors
le volume et le déterminant sont tous les deux nuls. On les suppose alors non coplanaires et
on choisit une base orthonormée B = (~e1 , ~e2 , ~e3 ) obtenue en complétant une base orthonormée
20
C := (~e1 , ~e2 ) du plan engendré par ~u et ~v . En décomposant w
~ en w0 + w00 où w00 est colinéaire à ~e3
on obtient :
~ 0 + w~00 ) = det(~u, ~v , w~00 ).
det(~u, ~v , w)
~ = det(~u, ~v , w
B
B
B
En développant ce dernier déterminant par rapport à la dernière colonne on trouve
det(~u, ~v , w~00 ) = w3 det(~u, ~v ),
B
C
ce qui est bien le produit de l’aire de la base par la hauteur du parallélépipède.
7.5. Applications linéaires et changements de base. On considère un corps K et deux
espaces vectoriels E et F de dimensions finies p et n sur K. On se donne des bases B de E et C
de F . Une application linéaire u : E −→ F est donnée par sa matrice dans les bases B et C (voir
section 2). On note cette matrice A. C’est une matrice à n lignes et p colonnes dans Mn,p (K).
On fixe une nouvelle base B 0 de E et une nouvelle base C 0 de F et on veut calculer la matrice de
u dans les bases B 0 et C 0 . On note P la matrice de passage de B à B 0 et Q la matrice de passage
de C à C 0 .
Pour cela on considère un vecteur ~x de E et on note X (resp. X 0 ) la matrice colonne de ses
coordonnées dans la base B (resp. B 0 ). On appelle ~y l’image u(~x) et on note Y (resp. Y 0 ) la matrice
colonne de ses coordonnées dans la base B (resp. B 0 ). On a les égalités matricielles suivantes :
Y = AX,
X = P X 0,
Y = QY 0 .
On en déduit que pour tout ~x de E, on a Y 0 = Q−1 AP X 0 , ce qui montre que la matrice A0 de u
dans les bases B 0 et C 0 est
A0 = Q−1 AP.
7.6. Endomorphismes. On considère un corps K et un espace vectoriel E de dimension finie n
sur K muni d’une base B. On appelle endomorphisme de E une application linéaire u : E −→ E.
Une telle application est donnée par sa matrice dans la base B. On note cette matrice A. C’est
une matrice carrée dans Mn (K).
On fixe une nouvelle base B 0 de E et on note P la matrice de passage de B à B 0 . On note A0 la
matrice de u dans la base B 0 . On a alors :
A0 = P −1 AP.
Théorème 20. On considère un corps K, un espace vectoriel E de dimension finie n sur K et
un endomorphisme u de E. On fixe une base B de E et on considère la matrice A de u dans B.
Le déterminant det A ne dépend que de u et pas de la base utilisée pour le calculer. On l’appelle
déterminant de u.
De même, le polynôme caractéristique det(A−T In ) ne dépend que de u et ne dépend pas de la base
utilisée pour le calculer. On l’appelle polynôme caractéristique de u. Ses racines sont les valeurs
propres de u.
Pour calculer le polynôme caractéristique d’un endomorphisme u, il suffit de calculer le polynôme
caractéristique de la matrice de u dans une base B de E (n’importe quelle base convient).
Corollaire 20.1. Sous les hypothèses du théorème, on considère une valeur propre λ de u et
l’espace propre associé, noté Eλ . La dimension de Eλ est majorée par la multiplicité de λ comme
racine du polynôme caractéristique.
21
Démonstration. On considère une base (e1 , . . . , ed ) de Eλ que l’on complète en une base B =
(e1 , . . . , ed , . . . , en ) de E. Dans la base B la matrice A de u est triangulaire par blocs :
λId B
A=
0 C
où Id est la matrice unité de Mk (K) et C une matrice de Mn−d (K). La matrice A − T In s’écrit
donc
(λ − T )Id
B
A − T In =
.
0
C − T In−d
En développant son déterminant par rapport aux premières colonnes, on trouve
det(A − T In ) = (λ − T )d det(C − T In−d ).
On en déduit que (λ − T )d divise le polynôme caractéristique, donc que d est plus petit que la
multiplicité de λ comme racine du polynôme caractéristique de u (définition de la multiplicité en
11.6).
Théorème 21. On considère un corps K, un espace vectoriel E de dimension finie n sur K et
un endomorphisme u de E. On choisit des valeurs propres λ1 , . . . , λr de u distinctes deux à deux.
On considère les espaces propres E1 , . . . , Er associés respectivement à λ1 , . . . , λr . Pour j de 1 à r,
on se donne une base de Ei qu’on appelle Bi . La famille F obtenue en concaténant les Bi (i de 1
à r) est une famille libre.
Démonstration. Supposons la conclusion du théorème fausse et considérons le premier indice s,
s < r tel que la famille obtenue en concaténant les Bi (i de 1 à s) est une famille libre et la famille
obtenue en concaténant les Bi (i de 1 à s + 1) est liée. Il existe alors un vecteur ~x non nul de Es+1
qui est une somme ~x1 + ~x2 + . . . + ~xs avec ~xi dans Ei . Appliquons u à tous ces vecteurs : on a
u(~x) = λs+1~x et u(~xi ) = λi~xi . On en déduit que
~x = ~x1 + . . . + ~xs
λs+1~x = λ1~x1 + . . . + λs~xs .
Par combinaison linéaire de ces deux égalités on obtient
0 = (λs+1 − λ1 )~x1 + . . . (λs+1 − λs )~xs
ce qui entraı̂ne, puisque les λi sont deux à deux distincts, que les ~xi sont tous nuls et donc ~x aussi
ce qui contredit l’hypothèse.
Définition 4. Une matrice A de Mn (K) est diagonalisable s’il existe une base de Kn formée
de vecteurs propres de A.
Un endomorphisme u de E est diagonalisable s’il existe une base de E formée de vecteurs propres
de u. L’endomorphisme u est diagonalisable si et seulement si sa matrice dans une base B de E
est diagonalisable.
Si A est diagonalisable, on a une base B 0 := (~e01 , . . . , ~e0n ) de vecteurs propres de A. Notons
(λ1 , . . . , λn ) les valeurs propres associées. Désignons par P la matrice de passage de la base canonique B0 à la base B 0 . La j-ème colonne de P a pour coefficients les coordonnées de ~e0j . On a
donc AP = P D où D est la matrice diagonale diag(λ1 , . . . , λn ). On en déduit que D = P −1 AP .
On dira que D est une matrice diagonale semblable à A.
Supposons u diagonalisable. On se donne une base B de E et la matrice A de u dans cette base.
Désignons par B 0 une base formée de vecteurs propres et P la matrice de passage de B à B 0 . La
matrice D de u dans la base B 0 est diagonale. Pour i de 1 à n, le i-ème coefficient sur la diagonale
22
de D est la valeur propre associée au vecteur propre ~e0i . La formule de changement de base pour
les endomorphismes (7.6) donne
D = P −1 AP.
Théorème 22. Une matrice A de Mn (K) ayant n valeurs propres distinctes deux à deux est
diagonalisable. C’est le cas lorsque le polynôme caractéristique a n racines simples.
Démonstration. Désignons par λ1 , . . . , λn les valeurs propres de A. Pour i de 1 à n, on désigne par
~vi un vecteur propre associé à la valeur propre λi .
Le théorème 21 montre que la famille (~v1 , . . . , ~vn ) est libre. Comme elle a n éléments, c’est une
base de Kn .
8. Applications
8.1. Systèmes dynamiques linéaires discrets. Le corps K sera ici R ou C et p un entier. On
se donne une matrice A dans Mp (K), un vecteur U0 dans Kp et on considère la suite de vecteurs
de premier terme U0 définie, pour n ≥ 0, par :
Un+1 = AUn .
Le problème est le suivant : quel est le comportement asymptotique de la suite de vecteurs
(Un )n∈N quand n tend vers l’infini ? Comment ce comportement dépend-il du terme initial U0 ?
Par comportement asymtotique on entend : la limite éventuelle, un équivalent, ou même un
développement limité quand n tend vers l’infini.
On dira que la suite (Un )n∈N de vecteurs de Kp a une limite L dans Kp si et seulement si, pour j
de 1 à p, la suite de terme général Un,j (la j-ème coordonnée de Un ) a pour limite Lj dans K.
Pour n entier, on a Un = An U0 . Etudier la suite de vecteurs (Un )n∈N revient à étudier la suite des
images d’un vecteur U0 par les puissances de la matrice A.
Exemple 8.1.1. Considérons la matrice suivante :
0, 8 0, 2
A :=
.
0, 1 0, 9
Son polynôme caractéristique est T 2 − (1, 7)T + 0, 7 dont les racines sont 1 et 0, 7. Le vecteur
W := (1, 1) est un vecteur propre associé à la valeur propre 1, tandis que le vecteur W := (−2, 1)
est un vecteur propre associé à la valeur propre 0, 7.
L’action de la matrice A sur ces deux vecteurs est simple. AV = V donc An V = V . D’autre part
AW = (0, 7)W donc An W = (0, 7)n W .
Pour n fixé, l’application V 7−→ An V est linéaire comme composée d’applications linéaires. Tout
vecteur U0 de R2 se décompose sur la base (V, W ). Pour un vecteur U0 se décomposant en U0 =
αV + βW , on obtient
An U0 = αAn V + βAn W = αV + β(0, 7)n W.
Quand n tend vers l’infini, (0, 7)n tend vers 0 et on en déduit que Un = An U0 tend vers αV . Cette
limite ne dépend que de la décomposition de U0 dans la base (V, W ).
Par exemple, si U0 = (1, 0), on a
1
1
U0 = − V − W.
4
4
La limite de la suite de premier terme (1, 0) est donc − 14 V = (− 14 , − 41 ).
23
Exemple 8.1.2. Considérons maintenant la matrice :
0, 8 0, 1
A :=
.
0, 1 0, 8
Son polynôme caractéristique est T 2 − (1, 6)T + 0, 63 dont les racines sont 0, 9 et 0, 7. Le vecteur
V := (1, 1) est un vecteur propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1)
est un vecteur propre associé à la valeur propre 0, 7.
L’action de la matrice A sur ces deux vecteurs est la suivante : AV = (0, 9)V donc An V = (0, 9)n V .
D’autre part AW = (0, 7)n W donc An W = (0, 7)n W .
Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient
An U0 = αAn V + βAn W = α(0, 9)n V + β(0, 7)n W.
Quand n tend vers l’infini, (0, 7)n et (0, 9)n tendent vers 0 et on en déduit que Un = An U0 tend
vers le vecteur nul. On peut être un peu plus précis et calculer par exemple la limite de la pente
du vecteur Un dans la base (V, W ). Cette pente est infinie si β = 0 et sinon vaut
n
β(0, 7)n
β 0, 7
=
α(0, 9)n
α 0, 9
qui tend vers 0 quand n tend vers l’infini.
Comment interpréter ce résultat ?
(1) Quand α = 0, c’est-à-dire quand U0 est colinéaire à W , le vecteur Un reste colinéaire à W .
(2) Quand α 6= 0 (même s’il est très petit), la pente du vecteur Un dans la base (V, W ) tend
vers 0. Le vecteur Un tend vers le vecteur nul et sa direction tend vers la direction de V .
24
Exemple 8.1.3. Considérer maintenant la matrice :
0, 9 0, 1
A :=
.
0, 11 0, 91
et expliquer le dessin obtenu ci-dessous.
25
8.2. Systèmes différentiels.
À savoir avant de commencer. On considère un réel a, un réel y0 et l’équation différentielle
y 0 = ay.
Il existe une unique fonction t 7−→ y(t) dérivable sur R, telle que y 0 (t) = ay(t) pour tout t réel et
y(0) = y0 . C’est la fonction définie sur R par t 7−→ y0 eat .
De manière analogue, si a et y0 sont des complexes, il existe une unique fonction y de R dans C,
dérivable, telle que
y 0 (t) = ay(t) et y(0) = y0 .
C’est la fonction t 7−→ y0 eat . Si σ et ω sont les parties réelles et imaginaires de a, alors on a :
eat = e(σ+iω)t = eσt eiωt = eσt (cos ωt + i sin ωt).
8.2.1. Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp (K), un
vecteur U0 dans Kp et on considère le système différentiel
dU
(8.2.1)
= AU.
dt
Une solution du système différentiel 8.2.1 est une fonction U : R 7−→ Kp , c’est-à-dire un p-uplet
de fonctions U := (u1 , . . . , up ) à valeurs dans K, telles que :
Pp
 0
u1 (t) = A1,1 u1 (t) + . . . + A1,p up (t) =

j=1 A1,j uj (t)


.
.

..
..


Pp
0
ui (t) = Ai,1 u1 (t) + . . . + Ai,p up (t) =
j=1 Ai,j uj (t)


..
..


.
. P

 0
p
un (t) = An,1 u1 (t) + . . . + An,p up (t) =
j=1 An,j uj (t).
Une solution du système différentiel 8.2.1 de condition initiale U0 est une solution qui vérifie
de plus U (0) = U0 .
Théorème 23. On désigne par K l’un des corps R ou C et par p un entier. On se donne une
matrice A dans Mp (K), un vecteur U0 dans Kp et on considère le système différentiel
dU
= AU.
dt
Il existe une unique solution du système de condition initiale U0 .
Exemple 8.2.2. Considérons la matrice A de l’exemple 8.1.2. Le vecteur V := (1, 1) est un
vecteur propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1) est un vecteur
propre associé à la valeur propre 0, 7.
Considérons la fonction
U : R −→ R2
t 7−→ e(0,9)t V.
C’est une solution du système de condition initiale V . En effet, la valeur de U en 0 est V et la
dérivée de U est la fonction t 7−→ (0, 9)e(0,9)t V . Or V est un vecteur propre de valeur propre (0, 9).
On a donc (0, 9)V = AV et (0, 9)e(0,9)t V = A e(0,9)t V .
De même, la fonction t 7−→ e(0,7)t W est une solution du système de condition initiale W .
Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient une solution de condition
initiale U0 en prenant U (t) = αe(0,9)t V + βe(0,7)t W .
26
Le théorème 23 affirme que c’est la seule. Vérifions-le ici. Soit Ũ une autre solution de condition
initiale U0 . La fonction U − Ũ est une solution de condition initiale 0. Montrer l’unicité de la
solution de condition initiale U0 revient donc à montrer que la fonction nulle est l’unique solution
de condition initiale 0.
Désignons par P la matrice de passage de la base canonique de R2 à la base (V, W ) formée de
vecteurs propres de A et par D la matrice diagonale
0, 9 0
D :=
.
0 0, 7
On a alors A = P DP −1 . Considérons une solution U de condition initiale 0 et posons S = P −1 U .
On a alors :
dS
d(P −1 U )
dU
=
= P −1
= P −1 AU = DP −1 U = DS.
dt
dt
dt
On en déduit que les fonctions coordonnées de S vérifient donc
S10 (t) = (0, 9)S1 (t),
S20 (t) = (0, 7)S2 (t),
S1 (0) = 0
S2 (0) = 0.
On est alors ramené à des équations différentielles linéaires d’ordre 1 à coefficients constants. La
seule solution est la fonction nulle.
Sur ce dessin, on a representé, pour diverses conditions initiales, l’ensemble des extrémités des
vecteurs U (t) lorsque t varie de −10 à −5.
Sur ce dessin, on a representé, pour les mêmes conditions initiales, l’ensemble des extrémités
des vecteurs U (t) lorsque t varie de −10 à 10.
27
Quelle différence entre les deux dessins ? Considérer l’échelle. Pouvez-vous expliquer cette différence
en étudiant la limite de la pente du vecteur U (t) quand t tend vers −∞ ou +∞ ? Voici un troisième
dessin, qui représente, toujours pour les mêmes conditions initiales, l’ensemble des extrémités
des vecteurs U (t) lorsque t varie de −10 à 5.
28
Note : Pour tout point
du
plan de coordonnées (x, y) on a representé par un vecteur d’origine
x
(x, y) la valeur de A
. On peut vérifier que les courbes représentées sont tangentes en (x, y)
y
x
au vecteur A
. En effet, le vecteur de coordonnées (x0 (t), y 0 (t)) est le vecteur vitesse au point
y
de coordonnées (x(t), y(t)) le long de la courbe paramétrée t 7−→ (x(t), y(t)) tracée dans R2 . Si
cette courbe paramétrée est une solution de l’équation différentielle, on a
0
x (t)
x(t)
=A
.
y 0 (t)
y(t)
Université de Nice
2006-07
L2MI
Algèbre
Espaces euclidiens et hermitiens.
Dans ce chapitre, on donne, souvent sans démonstration, les énoncés essentiels valides dans un
espace vectoriel de dimension finie réel (resp. complexe), équipé d’un produit scalaire euclidien
(resp. hermitien). Pour les définitions des produits scalaires en question, voir 11.7.
9. Produit scalaire, orthogonalité
Partant d’un produit scalaire hx | yi sur E on pose, pour x vecteur de E
p
kxk := hx | xi.
Un résultat essentiel est l’inégalité de Cauchy-Schwarz : pour x et y vecteurs de E on a
|hx | yi| ≤ kxk + kyk
avec égalité si et seulement si x et y sont colinéaires.
On en déduit que l’application x 7−→ kxk, de E dans R+ est une norme sur E. En particulier,
elle vérifie l’inégalité triangulaire (voir 11.8(3)).
Le théorème de Pythagore est vrai. Si x et y sont deux vecteurs orthogonaux de E, on a
kx + yk2 = kxk2 + kyk2 .
9.1. Exemple. On considère un entier n et l’espace vectoriel Cn sur le corps C. Pour x et y
vecteurs de Cn de coordonnées respectives (x1 , . . . , xn ) et (y1 , . . . , yn ), on pose
n
X
hx | yi :=
x̄j yj = x̄1 y1 + . . . x̄n yn .
j=1
C’est un produit scalaire hermitien sur Cn . On l’appelle produit scalaire hermitien usuel de
Cn .
De manière analogue, sur Rn , on dispose du produit scalaire euclidien usuel. On a cette fois, pour
x et y vecteurs de Rn
n
X
hx | yi :=
xj yj = x1 y1 + . . . xn yn .
j=1
9.2. Vocabulaire. On dira que deux vecteurs x et y de E sont orthogonaux si leur produit
scalaire hx | yi est nul.
On dira qu’un vecteur x de E est orthogonal à une partie A de E s’il est orthogonal à tous les
vecteurs de A. On définit l’orthogonal A⊥ comme l’ensemble des vecteurs de E orthogonaux à A.
On a donc
x ∈ A⊥ ⇐⇒ ∀y ∈ A hx | yi = 0.
On vérifie que A⊥ est un sous-espace vectoriel de E, même si A n’en est pas un. D’autre part
l’intersection A ∩ A⊥ contient au plus le vecteur nul.
Un vecteur x de E est orthogonal à un sous-espace vectoriel F de E si et seulement s’il est
orthogonal à une partie génératrice de F (par exemple une base).
On dira qu’une famille finie (v1 , . . . , vp ) de vecteurs de E est une famille orthonormée si les
vecteurs qui la composent sont de norme 1 et orthogonaux deux à deux. On abrège base orthonormée en b.o.n.
30
9.3. Procédé de Gram-Schmidt. C’est l’outil essentiel.
Théorème 24. On considère un espace vectoriel E et une famille libre (v1 , . . . , vp ). Il existe
une famille orthonormée (e1 , . . . , ep ) de E telle que, pour tout j de 1 à p, Vect(v1 , . . . , vj ) =
Vect(e1 , . . . , ej ).
Démonstration. La preuve se fait par récurrence sur p. Pour p = 0, on ne fait rien. Considérons
alors p > 0 et une famille libre (v1 , . . . , vp ). Par hypothèse de récurrence, on sait trouver une famille
orthonormée (e1 , . . . , ep−1 ) telle que, pour tout j de 1 à p − 1, Vect(v1 , . . . , vj ) = Vect(e1 , . . . , ej ).
On considère alors le vecteur
p−1
X
0
hej | vp iej .
ep = vp −
j=1
Il a deux propriétés importantes
(1) Il est non nul.
Sinon, vp serait combinaison linéaire de e1 , . . . , ep−1 , donc dans Vect(e1 , . . . , ep−1 ) qui
est égal, toujours par hypothèse de récurrence, à Vect(v1 , . . . , vp−1 ). On aurait donc vp
combinaison linéaire de (v1 , . . . , vp−1 ), ce qui est impossible puisque la famille (v1 , . . . , vp )
est libre.
(2) Il est orthogonal à ei pour i de 1 à p − 1.
En effet, on a
hei |
e0p i
= hei | vp i −
p−1
X
hej | vp ihei | ej i
j=1
et le produit scalaire hei | ej i vaut 0 si i 6= j et 1 si i = j. On en conclut que hei | e0p i = 0
pour i de 1 à p − 1.
Pour terminer la construction de la famille orthonormée (e1 , . . . , ep ), il suffit de prendre
1
ep = 0 e0p .
kep k
Les conséquences du résultat précédent sont importantes. On considère un espace vectoriel hermitien (resp. euclidien) E, c’est-à-dire un espace vectoriel sur C (resp. R) muni d’un produit scalaire
hermitien (resp. euclidien) et un sous-espace vectoriel F de dimension finie p dans E.
(1) Bases orthonormées. Le sous-espace F , qui est de dimension finie, a au moins une b.o.n.
(2) Projection orthogonale. Si x est un vecteur de E et (e1 , . . . ep ) une b.o.n. de F , alors le
vecteur
p
X
0
x :=
hej | xiej
j=1
0
est dans F et la différence x − x est orthogonale à F . C’est le seul vecteur qui a cette
propriété. On appelle x0 la projection orthogonale de x sur F et on la note pr⊥
F x.
(3) Supplémentaire orthogonal. Si E est lui-même de dimension finie n et F un sousespace vectoriel de dimension p dans E, alors F ⊥ est un sous-espace vectoriel de dimension
finie n − p et tout vecteur x de E se décompose de manière unique en
⊥
x = pr⊥
F x + prF ⊥ x.
31
Autrement dit, si on connaı̂t l’une des deux projections orthogonales, on déduit l’autre par
différence. On appelle F ⊥ le supplémentaire orthogonal de F dans E.
(4) Optimisation. À cause du théorème de Pythagore, la projection orthogonale sur F a la
propriété caractéristique suivante : pour tout vecteur y de F ,
kx − pr⊥
F xk ≤ kx − yk.
Autrement dit, la fonction y 7−→ kx−yk, définie sur F , a un minimum unique qui est atteint
pour y = pr⊥
F x. Ceci est un moyen efficace de résoudre certains problèmes d’optimisation
qui se ramènent ainsi à un calcul de projection orthogonale.
10. Réduction des matrices hermitiennes et symétriques réelles
On considère une matrice A dans Mn,p (C). On appelle matrice adjointe de A la matrice A∗ = tĀ.
Autrement dit le coefficient de A∗ situé sur la ligne numéro i et la colonne j est égal au complexe
conjugué Āj,i du coefficient Aj,i de A situé sur la ligne numéro j et la colonne i. La matrice A∗
est donc dans Mp,n (C).
Par exemple, si X est une matrice colonne à n lignes de coefficients (x1 , . . . , xn ), la matrice X ∗
est une matrice ligne à n colonnes de coefficients (x̄1 , . . . , x̄n ).
On a les propriétés suivantes :
(1) (A∗ )∗ = A.
(2) On se donne deux matrices A et B dans Mn,p (C) et un scalaire λ. On a alors
(A + B)∗ = A∗ + B ∗ et (λA)∗ = λ̄A∗ .
(3) On se donne deux matrices A et B dont le produit est défini (i.e. le nombre de colonnes
de A est égal au nombre de lignes de B). Alors le produit B ∗ A∗ est défini et on a
(AB)∗ = B ∗ A∗ .
(4) Les matrices A et A∗ ont même rang.
(5) Si A est une matrice carrée, alors det A∗ = det A et le polynôme caractéristique de A∗
est le polynôme dont les coefficients sont les conjugués des coefficients du polynôme caractéristique de A.
(6) Si A est une matrice carrée inversible, A∗ est également inversible et (A∗ )−1 = (A−1 )∗ .
10.1. Interprétation matricielle et produit scalaire usuel dans Cn . Pour le produit scalaire
usuel de Cn , la base canonique est une base orthonormée. On considère deux vecteurs x et y de
∗
Cn et on note X et Y les matrices colonnes de leurs coordonnées. Le produit
Pndes matrices X et
Y est défini. Le résultat est une matrice 1 × 1 dont l’unique coefficient vaut i=1 x̄i yi , c’est-à-dire
la valeur du produit scalaire de x et y.
X ∗ Y = hx | yi.
De même, si A est une matrice de Mn,p (C), et X la matrice colonne des coordonnées d’un vecteur
x de Cp , alors AX est la matrice colonne des coordonnées de l’image x0 de x par A. Considérons
alors un vecteur y de Cn et la matrice colonne Y de ses coordonnées. On a alors
hx0 | yi = (AX)∗ Y = X ∗ A∗ Y = hx | y 0 i
où y 0 est l’image de y par l’application A∗ . On se permettra l’abus de notations habituel et on
écrira, en confondant un vecteur de Cn et la matrice colonne de ses coordonnées,
hAX | Y i = hX | A∗ Y i.
32
Cet énoncé admet une réciproque : A∗ est l’unique matrice de Mn (C) qui vérifie l’égalité précédente
pour tout couple de vecteurs X et Y .
10.2. Matrices particulières.
Matrices unitaires et matrices orthogonales. On dira qu’une matrice de Mn (C) est unitaire si
c’est la matrice de passage d’une b.o.n. à une autre b.o.n. de Cn muni du produit scalaire usuel.
Dire que P est unitaire c’est dire que P ∗ P = In . Une matrice unitaire est donc inversible d’inverse
P ∗.
Si λ est une valeur propre de P et X un vecteur propre associé, on a
kXk2 = hP ∗ P X | Xi = hP X | P Xi = |λ|2 kXk2 .
On en déduit |λ| = 1, puisque kXk =
6 0. Les valeurs propres d’une matrice unitaires sont des
complexes de module 1.
Une matrice de Mn (R) est dite orthogonale si c’est la matrice de passage d’une b.o.n. à une
autre b.o.n. de Rn muni du produit scalaire usuel. Dire que P est orthogonale c’est dire que
t
P P = In . Une matrice orthogonale est donc inversible d’inverse tP . Une matrice orthogonale est
en particulier unitaire. Les valeurs propres réelles d’une matrice orthogonale sont égales à 1
ou -1 (on ne dit pas qu’elles sont toutes réelles : penser aux matrices de rotation).
Matrices hermitiennes et matrices symétriques réelles. On dira qu’une matrice de Mn (C) est
hermitienne si elle est égale à son adjointe. Les polynômes caractéristiques χA et χA∗ sont égaux
donc à coefficients réels. Si λ est une valeur propre de A et X un vecteur propre associé, on a
λ̄kXk2 = hAX | Xi = hX | AXi = λkXk2 .
On en déduit λ̄ = λ, puisque kXk =
6 0. Le polynôme χA (T ) est donc scindé dans R[T ].
On dira qu’une matrice de Mn (R) est symétrique réelle si elle est égale à sa transposée. Une
matrice symétrique réelle est en particulier hermitienne. Son polynôme caractéristique est donc
scindé dans R[T ].
10.3. Réduction de certaines matrices carrées. On considère une matrice carrée A dans
Mn (C). Son polynôme caractéristique χA (T ) est un polynôme de C[T ] de degré n. D’après le
théorème de d’Alembert-Gauss (11.6), il est scindé dans C[T ].
(1) Le polynôme χA∗ (T ) est le polynôme dont les coefficients sont les conjugués des coefficients
de χA (T ). Donc, si λ est une valeur propre de multiplicité m de A, alors λ̄ est valeur propre
de A∗ de multiplicité m.
(2) L’espace propre de A∗ associé à la valeur propre λ̄ est de même dimension que l’espace
propre de A associé à la valeur propre λ.
Théorème 25. On considère une matrice carrée A dans Mn (C). On suppose que A commute
avec son adjointe, i.e. que A A∗ = A∗ A. Il existe alors une b.o.n. de Cn (pour le produit scalaire
usuel) formée de vecteurs propres de A.
Autrement dit, il existe une matrice unitaire P telle que la matrice P −1 AP = P ∗ AP est diagonale.
Les matrices unitaires et les matrices hermitiennes, les matrices orthogonales et les matrices
symétriques réelles vérifient les hypothèses du théorème. On en déduit le corollaire suivant :
Corollaire 25.1. Matrices hermitiennes : On considère une matrice hermitienne A dans
Mn (C). Ses valeurs propres sont toutes réelles et il existe une base orthonormée de Cn (pour le
produit scalaire usuel) formée de vecteurs propres de A.
33
Autrement dit, il existe une matrice unitaire P telle que matrice P −1 AP = P ∗ AP est diagonale à
coefficients réels.
Corollaire 25.2. Matrices symétriques réelles : On considère une matrice symétrique réelle
A dans Mn (R). Ses valeurs propres sont toutes réelles et il existe une base orthonormée de Rn
(pour le produit scalaire usuel) formée de vecteurs propres de A.
Autrement dit, il existe une matrice orthogonale P telle que matrice P −1 AP = tP AP est diagonale
à coefficients réels.
Corollaire 25.3. Matrices unitaires : On considère une matrice unitaire A. Ses valeurs propres
sont toutes de module 1 et il existe une base orthonormée de Cn (pour le produit scalaire usuel)
formée de vecteurs propres de A.
Autrement dit, il existe une matrice unitaire P telle que matrice P −1 AP = P ∗ AP est diagonale à
coefficients de module 1.
On ne peut dire beaucoup plus d’une matrice orthogonale, parce que ses valeurs propres ne sont
pas toutes réelles en général. Par exemple, la matrice d’une rotation dans le plan euclidien n’a
aucune valeur propre réelle si l’angle de la rotation est différent de 0 module π. En revanche, si A
est une matrice orthogonale de M3 (R) son polynôme caractéristique est à coefficient réels et de
degré 3. Il a au moins une racine réelle qui est donc soit 1, soit −1.
34
11. Définitions, commentaires
11.1. Espace vectoriel. On se donne un corps K et un ensemble E muni d’une addition notée
+. On dit que E a une structure d’espace vectoriel sur K si
(1) E est un groupe abélien pour la loi +. On note 0 l’élément neutre de cette loi.
(2) Il existe une action de K sur E (appelée multiplication par un scalaire). Pour tout élément
λ de K, et tout vecteur x de E, λx est un élément de E. Cette multiplication a les propriétés
suivantes
– pour x dans E on a 1x = x.
– pour α et β dans K, et x dans E on a (α + β)x = αx + βx.
– pour α et β dans K, et x dans E on a α(βx) = (αβ)x.
(3) pour α dans K, x et y dans E, on a α(x + y) = αx + αy.
11.2. Bases, dimension. On se donne un espace vectoriel E sur un corps K. Une famille B :=
(ei )i∈I de vecteurs de E est une base de E si tout vecteur x de E se décompose de manière unique
comme combinaison linéaire finie d’éléments de B.
Lorsque E, espace vectoriel sur K, peut être engendré par un ensemble fini, alors il possède une
base finie et toutes ses bases ont le même nombre d’éléments. Ce nombre est appelé dimension
de E. Lorsque E n’a aucune base finie, on dit que E est de dimension infinie. L’espace vectoriel
K[X] des polynômes à coefficients dans K est dans ce dernier cas.
On considère E espace vectoriel de dimension finie n sur K, avec une base B := (e1 , . . . , en ). Tout
vecteur x de E a une décomposition unique
n
X
x = α1 e1 + α2 e2 + . . . + αn en =
αi ei .
i=1
Par exemple, la seule façon d’écrire le vecteur nul est de prendre tous les coefficients égaux à 0.
11.3. Théorème de la base incomplète : On se donne un espace vectoriel E sur un corps K
et une famille libre de vecteurs de E. On peut compléter cette famille en une base de E.
11.4. Application linéaire. On travaille sur un corps K. On se donne deux espaces vectoriels
E et F sur K et une application f : E −→ F . On dit que f est K-linéaire (linéaire s’il n’y a pas
d’ambiguı̈té) si
(1) f est compatible avec l’addition : pour x et y vecteurs de E
f (x + y) = f (x) + f (y).
(2) f est compatible avec la multiplication par un scalaire : pour x vecteur de E et λ scalaire
f (λx) = λf (x).
On appelle noyau de f , l’ensemble des solutions dans E de l’équation f (x) = 0. On le note
ker f :
ker f := {x ∈ E | f (x) = 0}.
C’est un sous-espace vectoriel de E.
On appelle image de f et on note f (E), le sous-ensemble des vecteurs de F qui ont au moins un
antécédent :
f (E) := {y ∈ F | ∃x ∈ E, y = f (x)}.
C’est un sous-espace vectoriel de E.
35
11.5. Image inverse. On se donne une application f : E −→ E. L’image inverse d’une partie G
de F est l’ensemble des antécédents des éléments de G, c’est-à-dire
f −1 (G) := {x ∈ E | f (x) ∈ G}.
On voit que f −1 (G) est une partie de E et non un élément.
On considère alors E et F , espaces vectoriels sur K et f une application linéaire de E dans
F . Lorsque G est réduit à l’élément 0 de F , l’image inverse f −1 (0) qui est alors le noyau de f ,
contient en général plus d’un élément de E. On voit donc que écrire f −1 (0) ne suppose pas que f
est bijective, ou que l’application inverse de f existe.
11.6. Polynômes, racines, multiplicité. On considère un corps K et un polynôme P à coefficients dans K de degré d. Un tel polynôme a une écriture unique
P (T ) = ad T d + ad−1 T d−1 + . . . + a0 avec ad 6= 0.
On dit qu’un scalaire λ de K est une racine de P si P (λ) = 0 dans K, autrement dit si
P (λ) = ad λd + ad−1 λd−1 + . . . + a0 = 0.
Un théorème classique est le suivant : λ est racine de P si et seulement si T − λ divise P (T ) dans
K[T ].
On désigne par r un entier. On dit que λ est racine de multiplicité r de P si et seulement si
(T − λ)r divise P (T ) dans K[T ] et (T − λ)r+1 ne divise pas P (T ) dans K[T ].
On dit qu’un polynôme de K[T ] est scindé dans K[T ] s’il est produit dans K[T ] de facteurs de
degré 1.
Le théorème de d’Alembert-Gauss affirme que : un polynôme de degré d de C[T ] est scindé
dans C[T ]. C’est-à-dire : il existe des entiers m1 , . . . , mk tels que m1 +. . .+mk = d et des complexes
distincts deux à deux λ1 , . . . , λk , racines de P de multiplicités respectives m1 , . . . , mk . On a donc
P (T ) = ad
k
Y
(T − λi )mi .
i=1
En particulier, un polynôme de degré non nul a au moins une racine complexe.
11.7. Produit scalaire. On considère un espace vectoriel E sur le corps des complexes C. À
deux vecteurs x et y de E on associe un nombre complexe hx | yi. On définit ainsi une application
E × E −→ C
(x, y) 7−→ hx | yi
qui, pour mériter le nom de produit scalaire hermitien, doit vérifier les propriétés suivantes : pour
tous x et y de E, pour tout λ scalaire complexe, on a
(1) Compatibilité avec les opérations de E.
hx0 + x00 | yi
hx | y 0 + y 00 i
hλx | yi
hx | λyi
=
=
=
=
hx0 | yi + hx00 | yi
hx | y 0 i + hx | y 00 i
λ̄hx | yi
λhx | yi
(2) Symétrie hermitienne.
hx | yi = hy | xi
36
(3) Positivité stricte
hx | xi ≥ 0 et
hx | xi = 0 =⇒ x = 0
autrement dit k0k = 0 et, pour x 6= 0, hx | xi > 0.
Si le corps de base est R, les axiomes analogues conduisent à la notion de produit scalaire
euclidien. On travaille alors dans un espace vectoriel E sur le corps des réels R. À deux vecteurs
x et y de E on associe un nombre réel hx | yi. On définit ainsi une application
E × E −→ R
(x, y) 7−→ hx | yi
qui, pour mériter le nom de produit scalaire euclidien, doit vérifier les propriétés suivantes : pour
tous x et y de E, pour tout λ scalaire réel, on a
(1) Compatibilité avec les opérations de E.
hx0 + x00 | yi
hx | y 0 + y 00 i
hλx | yi
hx | λyi
=
=
=
=
hx0 | yi + hx00 | yi
hx | y 0 i + hx | y 00 i
λhx | yi
λhx | yi
(2) Symétrie.
hx | yi = hy | xi
(3) Positivité stricte.
hx | xi ≥ 0 et
hx | xi = 0 =⇒ x = 0
autrement dit k0k = 0 et, pour x 6= 0, hx | xi > 0.
11.8. Norme. On considère un espace vectoriel E sur R ou C. Une application
E −→ R+
x 7−→ kxk
est une norme si elle vérifie les axiomes suivants :
(1) Homogénéité : pour λ scalaire et x vecteur,
kλxk = |λ|kxk
(2) Positivité stricte : pour x dans E, kxk ≥ 0 et kxk = 0 =⇒ x = 0.
(3) Inégalité triangulaire : pour tous x et y vecteurs de E,
kx + yk ≤ kxk + kyk.
Téléchargement