Matrices - Polynômes annulateurs - Classes préparatoires MPSI/MP

publicité
Matrices - Polynômes annulateurs
I — Matrices - Généralités
1) Matrices
Matrices à coefficients dans K (1)
Définition d’une matrice à p lignes et q colonnes à coefficients dans K.
Notation : A = (ai,j )(i,j)∈ [ 1 , q ] × [ 1 , p ] .
(2) : Ensemble de matrices. Notation : Mq,p (K). Matrices carrées : Mn (K).
(3) : Base canonique des (Ei,j )16i6q,16j6p .
0
(4) : Soit A = (ai,j ) ∈ Mq,p (K). On appelle transposée de la matrice A la matrice (ai,j ) ∈ Mp,q (K), telle que
pour tout (i, j) ∈ [[ 1 , p ]] × [[ 1 , q ]] , a0i,j = aj,i . Notation : AT ou t A.
t
(5) : L’application Mq,p (K) → Mp,q (K) ; A 7→ A est un isomorphisme à caractère involutif.
t
t
t
(6) : Soient A ∈ Mq,p (K) et B ∈ Mr,q (K). Alors (BA) = A B.
t
−1
t
−1
(7) : Si M est inversible, ( M )
= (M ).
(1) :
2) Matrices carrées
Algèbre des matrices carrées (2)
(1) : Addition et multiplication (lois internes) et dilatation (loi externe).
∗
2
(2) : Soit n ∈ N . (Mn (K), +, ×, ·) est une K-algèbre de dimension n , d’unité In .
Si n > 2, l’anneau (Mn (K), +, ×) est non commutatif et possède des diviseurs de zéro.
4
k
(3) : Soit (i, j, k, l) ∈ [[ 1 , n ]] . Alors Ei,j Ek,l = δj Ei,l .
Matrices diagonales (3)
On dit que A = (ai,j ) ∈ Mn (K) est diagonale lorsque pour tout (i, j) ∈ [[ 1 , n ]] , si i 6= j alors ai,j = 0.
Notation : A = diag(a1 , . . . , an ) ∈ Dn (K).
(2) : Dn (K) est une K-algèbre commutative de dimension n qui admet (Ei,i )i∈ [ 1 , n ] pour base.
m
m
m
(3) : Soit A = diag(a1 , . . . , an ) ∈ Dn (K) et m ∈ N. Alors A = diag(a1 , . . . , an ).
(4) : On peut généraliser cette propriété de calcul à une matrice diagonale par blocs :
Å
ãm Å m
ã
A1 0
A1
0
=
0 A2
0
Am
2
(5) : Une matrice A ∈ Dn (K) est scalaire s’il existe λ ∈ K tel que A = λIn . Notation : A ∈ KIn .
(6) : KIn est un corps isomorphe à K.
2
(1) :
Centre de l’anneau Mn (K) (loi multiplicative) (4)
Soit K = R ou C. Si A ∈ Mn (K) commute avec toutes les matrices de Mn (K), alors A est une matrice scalaire.
Matrices triangulaires (5)
(1) : On dit que A = (ai,j ) ∈ Mn (K) est triangulaire supérieure (resp. inférieure) lorsque pour tout (i, j) ∈
2
[[ 1 , n ]] , si i > j (resp. i < j) alors ai,j = 0. Notation : A ∈ Tnsup (K) (resp. A ∈ Tninf (K)).
n(n+1)
sup
inf
(2) : Tn (K) (resp. Tn (K)) est une K-algèbre de dimension
, qui admet pour base (Ei,j )16i6j6n (resp.
2
(Ei,j )16j6i6n ).
(3) : En particulier, le produit de deux matrices triangulaires supérieures (resp. inférieures) est une matrice
triangulaire supérieure (resp. inférieure).
1
Matrices symétriques et antisymétriques (6)
t
t
(1) : Soit A ∈ Mn (K). On dit que A est symétrique (resp. antisymétrique) lorsque A = A (resp. A = −A).
Notation : A ∈ Sn (K) (resp. A ∈ An (K)).
(2) : Sn (K) et An (K) sont deux sous-espaces vectoriels de Mn (K) supplémentaires de dimensions respectives
n(n+1)
et n(n−1)
, et de bases respectives (Ei,i )i∈ [ 1 , n ] ∪ (Ei,j + Ej,i )16i<j6n et (Ei,j − Ej,i )16i<j6n .
2
2
Matrices inversibles (7)
Soit A ∈ Mn (K). On dit que A est inversible lorsqu’il existe une matrice B ∈ Mn (K) telle que AB =
BA = In . Notation : A−1 . L’ensemble des matrices carrées d’ordre n inversibles à coefficients dans K se note
GLn (K).
(2) : (GLn (K), ×) est un groupe (non commutatif) appelé groupe linéaire d’ordre n.
2
−1
(3) : Si (A, B) ∈ GLn (K) , alors (AB)
= B −1 A−1 .
Å
ã
Å
ã
a b
d −b
1
(4) : Soit A =
. On a : A ∈ GL2 (K) ⇔ ad − bc 6= 0. Dans ce cas, A−1 = ad−bc
.
c d
−c a
(5) : Soit A ∈ Mn,p (K), B ∈ GLn (K) et C ∈ Mq,n (K). Alors CB = 0 ⇒ C = 0 et BA = 0 ⇒ A = 0.
t
t
−1
(6) : Soit A ∈ GLn (K). Alors A ∈ GLn (K) et ( A)
=t (A−1 ).
(1) :
II — Opérations élémentaires de pivot sur les matrices
1) Opérations élémentaires
Lemme (8)
Soit A ∈ Mq,p (K)Alors la matrice Ek,` A est la matrice de Mq,p (K) dont toutes les lignes sont nulles sauf la
k-ième qui reçoit la `-ième ligne de A.
Théorème (9)
Soit A ∈ Mq,p (K).
Il existe trois opérations dites élémentaires sur les lignes de la matrice A :
2
(1) : Soit λ ∈ K et (k, `) ∈ [[ 1 , q ]] , k 6= `. Alors la matrice de transvection (Iq + λEk,` )A est la matrice obtenue
à partir de A en ajoutant à la k-ième ligne de A λ fois la `-ième ligne de A.
Notation : On code cette opération : Lk ← Lk + λL` .
(2) : Soit λ ∈ K \ {0} et k ∈ [[ 1 , q ]] . Alors la matrice de dilatation (Iq + (λ − 1)Ek,k )A est la matrice obtenue
à partir de A en multipliant la k-ième ligne de A par λ. Notation : On code cette opération : Lk ← λLk .
2
(3) : Soit (k, `) ∈ [[ 1 , q ]] . Alors la matrice de transposition (Iq − Ek,k − E`,` + Ek,` + E`,k )A est la matrice
obtenue à partir de A en échangeant la k-ième et la `-ième ligne de A. Notation : On code cette opération :
Lk ↔ L` .
Définition (10)
Deux matrices A, B ∈ Mq,p (K) sont dites équivalentes par lignes si elles se déduisent l’une de l’autre par une
suite finie d’opérations élémentaires sur les lignes. Notation : A ∼ B.
L
2) Échelonnement et algorithme du pivot de Gauss-Jordan
Définition (11)
(1) : Une matrice est dite échelonnée par lignes si elle vérifie les deux propriétés suivantes :
• Si une ligne est nulle, toutes les lignes suivantes le sont aussi ;
• À partir de la deuxième ligne, dans chaque ligne non nulle, le premier coefficient non nul à partir de la gauche,
appelé pivot, est situé à droite du premier coefficient non nul de la ligne précédente.
(2) : Une matrice échelonnée est dite matrice échelonnée réduite en lignes si les pivots valent 1 et si les autres
coefficients dans les colonnes des pivots sont nuls.
2
Exemple (12)
Voici l’allure d’une matrice échelonnée par ligne de M6,11 (K), où les ∗ désignent des coefficients arbitraires, et
les • les pivots
 puis de la matrice échelonnée réduitepar ligne
 correspondante :

0 • ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 1 0 0 0 0 0 0 0 0 0
 0 0 0 • ∗ ∗ ∗ ∗ ∗ ∗ ∗ 
 0 0 0 1 0 0 0 0 0 0 0 




 0 0 0 0 • ∗ ∗ ∗ ∗ ∗ ∗ 



 et  0 0 0 0 1 0 0 0 0 0 0 
 0 0 0 0 0 0 0 • ∗ ∗ ∗ 
 0 0 0 0 0 0 0 1 0 0 0 




 0 0 0 0 0 0 0 0 0 • ∗ 
 0 0 0 0 0 0 0 0 0 1 0 
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0
Algorithme de Gauss-Jordan pour l’échelonnement réduit d’une matrice (13)
Soit A ∈ Mq,p (K).
À toute étape de l’algorithme, pour tout (i, j) ∈ [[ 1 , q ]] × [[ 1 , p ]] , on désigne par ai,j le coefficient d’indices
i et j, et par Li la ligne d’indice i de la matrice obtenue par les opérations élémentaires sur les lignes, à partir
de A.
L’algorithme se déroule en deux phases :
On commence par transformer A en un matrice échelonnée par lignes, obtenue uniquement par des
transvections sur les lignes :
• Si A est nulle, c’est terminé. Sinon, on considère la première colonne j non nulle de la matrice
A.
• Si le premier coefficient de cette colonne j est nul, on le transforme en un coefficient non nul par
une opération L1 ← L1 + Li , avec ai,j 6= 0.
Le premier coefficient de la colonne considérée est donc désormais un pivot p 6= 0.
• On annule tous les coefficients qui figurent en-dessous de celui-ci : pour tout i > 1 : Li ←
a
Li − i,1
p L1 .
á
ë
0 · · · 0 p (∗)
0 ··· 0 0
On parvient ainsi à une matrice de la forme :
..
.. ..
.
. . A0
0 ··· 0 0
• On itère alors le procédé avec A0 , et on obtient une matrice échelonnée par lignes B ∼ A.
L
On transforme ensuite B en une matrice échelonnée réduite par lignes.
• Si B est nulle, c’est terminé. Sinon, il existe des pivots.
• On commence par déterminer le pivot ai,j dont l’indice de colonne est le plus grand dans la
1
matrice B et on effectue l’opération de dilatation Li ← ai,j
Li .
• Pour tout k < i, on effectue Lk ← Lk − ak,j Li .
• On itère le procédé avec les autres pivots, en les prenant par ordre décroissant d’indice de colonne, et on obtient
une matrice échelonnée réduite par lignes C ∼ A.
L
III — Déterminants
1) Déterminant d’une matrice carrée
Formes n-linéaires alternées sur un espace de dimension n (14)
Soit E un K-espace vectoriel de dimension finie n. On appelle forme n-linéaire sur E toute application de
E dans K linéaire par rapport à chacune de ses variables.
(2) : Soit E un K-espace vectoriel de dimension finie n et f une forme n-linéaire sur E. On dit que f est :
— alternée si elle s’annule sur une famille de n vecteurs dès que cette famille contient deux vecteurs égaux,
— symétrique si pour tout (~x1 , . . . , ~xn ) ∈ E n et tout σ ∈ Sn , f (~xσ(1) , . . . , ~xσ(n) ) = f (~x1 , . . . , ~xn ),
— antisymétrique si pour tout (~x1 , . . . , ~xn ) ∈ E n et tout σ ∈ Sn , f (~xσ(1) , . . . , ~xσ(n) ) = ε(σ)f (~x1 , . . . , ~xn ).
(1) :
n
3
Propriétés et structure (15)
Soit E un K-espace vectoriel de dimension finie n et f une forme n-linéaire sur E. Alors f est antisymétrique
si et seulement si elle est alternée.
(2) : Soit E un K-espace vectoriel de dimension finie n et f une forme n-linéaire alternée sur E.
— L’image d’une n-liste de vecteurs liés de E est nulle.
— On conserve l’image d’une n-liste de vecteurs de E en ajoutant à un des vecteurs une combinaison linéaire
des autres.
(3) :
Théorème fondamental de structure : l’ensemble des formes n-linéaires alternées sur un espace de
dimension n est une droite vectorielle, c’est à dire : deux telles formes n-linéaires alternées sont PROPORTIONNELLES !
(1) :
(1) :
Déterminant d’une matrice carrée et d’une famille de n vecteurs de Kn . (16)
Soit A une matrice carrée d’ordre n à coefficients dans K. On pose
X
det(A) =
ε(σ)a1,σ(1) . . . an,σ(n) .
σ∈Sn
Notation :
a1,1
a2,1
..
.
a1,2
a2,2
..
.
···
···
..
.
a1,n
a2,n
..
.
an,1 an,2 · · · an,n
Soit A ∈ Mn (K). On a : det(A) = det(t A).
2
(3) : Soit (A, B) ∈ Mn (K) et λ un scalaire. Alors :
n
— det(λA) = λ det A,
— det(In ) = 1,
— det(BA) = det(B) det(A) (admis) et donc det(BA) = det(AB),
— A ∈ GLn (K) ⇔ det(A) 6= 0,
— si A ∈ GLn (K), alors det(A−1 ) = (det A)−1 .
(4) : Étant donnée une famille de n vecteurs (~
x1 , ~x2 , . . . , ~xn ) de Kn , on peut définir
le déterminant ê
de cette
Ü
..
..
..
.
.
.
~x1 ~x2 . . . ~xn
famille dans la base canonique βcan = (~e1 , ~e2 , . . . ~en ) en formant la matrice A =
et en
..
..
..
.
.
.
posant
detβcan (~x1 , ~x2 , . . . , ~xn ) = det(A).
(2) :
(5) :
L’application ainsi créée, detβcan : Kn × Kn × . . . × Kn → K est LA forme n-linéaire alternée telle que
detβcan (~e1 , ~e2 , . . . , ~en ) = 1.
Opérations élémentaires et déterminant : (17)
Du fait que le déterminant d’une famille de n vecteurs de Kn est une forme n-linéaire alternée, les propriétés
suivantes sur les rangées (i.e. les lignes et les colonnes) d’un déterminant d’une matrice sont vérifiées :
— Échanger deux rangées d’une matrice change le signe d’un déterminant.
— Ajouter à une rangée une combinaison linéaire d’autres rangées qui lui sont parallèles ne modifie pas un
déterminant.
— On peut factoriser un scalaire commun à l’ensemble des termes d’une rangée.
— Si une matrice a deux lignes ou deux colonnes égales, son déterminant est nul.
(1) :
(2) :
(3) :
Déterminant d’une matrice triangulaire par blocs (18)
Å
ã
A1 A2
Soit A ∈ Mn (K). Si A est triangulaire par blocs de la forme :
, alors det(A) = det(A1 ) det(A3 ).
0 A3
Ce dernier résultat se généralise à toute matrice triangulaire par blocs.
Le déterminant d’une matrice triangulaire est le produit de ses coefficients diagonaux.
4
Formule de développement selon une rangée (19)
(1) : Soit A = (ai,j ) ∈ Mn (K). On note (~
x1 , . . . , ~xn ) les colonnes de A et detβcan la forme déterminant
associée à la base canonique (~e1 , . . . , ~en ) de Kn . On appelle cofacteur d’indices (i, j) de la matrice A le scalaire
det(~x1 , . . . , ~xj−1 , ~ei , ~xj+1 , . . . , ~xn ). Notation : Ai,j .
(2) : On appelle mineur de A ∈ Mn (K) d’indices (i, j) le déterminant d’ordre n − 1 obtenu en éliminant la i-ème
ligne et la j-ème colonne de A. Notation : ∆i,j
2
i+j
(3) : Soit A ∈ Mn (K). Pour tout (i, j) ∈ [[ 1 , n ]] , Ai,j = (−1)
∆i,j .
i+j
(4) : Pour trouver visuellement la valeur de (−1)
, il suffit d’appliquer la règle du damier :
+ − + ···
.
..
. ..
− +
+
..
.
(5) :
..
.
..
.
−
··· − +
Soit A une matrice carrée d’ordre n à coefficients dans K. On a la formule suivante :
det A =
n
X
ai,j Ai,j =
n
X
(−1)i+j ai,j ∆i,j ,
i=1
i=1
appelée développement de det A selon sa j-ème colonne.
(6) : Un tel développement peut aussi se faire selon une ligne de A et ne dépend pas de la rangée choisie.
(7) : Si n = 2 : det A = a1,1 a2,2 − a1,2 a2,1 ; et si n = 3 :
det A = a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a3,2 a2,1 − a1,2 a2,1 a3,3 − a1,3 a3,1 a2,2 − a1,1 a2,3 a3,2
Application à l’expression de l’inverse d’une matrice carrée inversible (20)
Soit A ∈ Mn (K). On appelle comatrice de A la matrice (Ai,j ) des cofacteurs de A. Notation : Com(A).
t
(2) : Soit A ∈ Mn (K). On a : Com(A).A = det(A)In .
t
−1
(3) : Soit A ∈ GLn (K). On a : A
= det1 A Com(A).
(4) : En particulier, une matrice carrée à coefficients entiers admet une inverse à coefficients entiers si et
seulement si son déterminant vaut ±1.
(5) : Cette formule n’a pas d’utilité calculatoire pratique si n > 4.
(1) :
IV — Polynômes annulateurs
1) Polynôme caractéristique
Définition : (21)
Soit M une matrice carrée.
(1) : On définit son polynôme caractéristique par χM = det(XIn − M ).
P
p
(2) : La forme développée est χM =
p cp X où cp ∈ K
(1) :
(2) :
Propriété des coefficients (22)
cn = 1, cn−1 = −Tr (M ), cn = (−1)n det(M ).
χM = X n − Tr (M )X n−1 + . . . + (−1)n det(M ) (le polynôme caractéristique est unitaire)
5
Propriétés (23)
n
(1) : χaIn = (X − a) .
Q
(2) : Si M est triangulaire, χM =
i (X − aii ).
(3) : Le polynôme caractéristique d’une matrice triangulaire par blocs est le produit des polynômes caractéristiques
des blocs diagonaux.
(4) : χM = χtM .
(5) : Matrice compagne d’un polynôme unitaire : χM = le polynôme compagnon.
(6) : Substitution : pour a ∈ A, χM (a) = det(aIn − M ).
Théorème de Cayley-Hamilton : (24)
Le polynôme caractéristique d’une matrice M est un polynôme annulateur de M , c’est à dire :
X
χM (M ) =
cp M p = 0.
p
2) Polynôme minimal
Soit K un corps et M ∈ Mn (K). L’application P 7→ P (M ) est un morphisme d’algèbre de K[X] dans Mn (K)
(morphisme de substitution).
Son image, notée K[M ], est une sous-algèbre commutative de Mn (K).
Son noyau, IM = {P ∈ K[X] tel que P (M ) = 0}, est un idéal de K[X] appelé idéal annulateur de M .
Conséquence du théorème de Cayley-Hamilton / Définition : (25)
IM 6= {0}.
Donc IM admet un unique générateur unitaire noté µM et appelé polynôme minimal de M .
De plus, 1 6 deg(µM ) 6 n et µM | χM .
(1) :
(2) :
(3) :
(4) :
(5) :
(6) :
(1) :
(2) :
Exemples : (26)
µaIn = X − a.
Q
Si M = Diag(a1 , . . . , an ) alors µM = a∈{a1 ,...,an } (X − a) (racines simples).
Å
ã
0 −1
M=
⇒ µM = X 2 + 1,
1 0
Å
ã
0 −1
M=
⇒ µM = X 2 − X + 1.
1 1
Q
Si M est triangulaire à coefficients diagonaux distincts alors µM = χM = i (X − aii ).
Si M est diagonale par blocs alors µM est le ppcm des polynômes minimaux des blocs diagonaux.
Propriétés : (27)
µM = µtM .
Pour P, Q ∈ K[X], on a P (M ) = Q(M ) ⇐⇒ µM | (P − Q).
Valeur propre / vecteur propre d’une matrice (28)
Soit M ∈ Mn (K) et λ ∈ K. Les propositions suivantes sont équivalentes :
• M − λIn est non inversible
• ker(M − λIn ) 6= {0Mn,1 (K) }
• il existe X ∈ Mn,1 (K) NON NUL tel que M X = λX
• µM (λ) = 0
• χM (λ) = 0
Dans ce cas, on dit que λ est une valeur propre de M et
(2) : On définit alors l’espace propre associé à λ par Eλ = ker(M − λIn ) = {X ∈ Mn,1 (K)|M X = λX}.
(1) :
Conséquence : (29)
si χM est scindé à racines simples alors µM = χM (réciproque fausse).
6
Théorème : (30)
soit d = deg(µM ). Alors (In , . . . , M d−1 ) est une base de K[M ].
En particulier, dim K[M ] = deg(µM ).
V — Applications des matrices aux ev de dimension finie
1) Résultats utiles d’algèbre linéaire de MPSI
Dans tout espace vectoriel E (31)
• pour toute partie\X de E, il existe un plus petit sous espace vectoriel de E contenant X noté Vect(X),
• Vect(X) =
F,
F sev E,X⊂F
• deux sous espaces vectoriels F et G sont en somme directe ⇔F ∩ G = {0},
• deux sous espaces vectoriels F et G sont en somme directe ⇔la décomposition de tout vecteur ~x sous la
forme ~xF + ~xG avec ~xF ∈ F et ~xg ∈ G est unique,
• la somme F1 + . . . + Fp est directe si la décomposition de tout vecteur de F1 + . . . + Fp sous la forme
~x1 + . . . + ~xp avec ~xi ∈ Fi est unique.
• l’image d’une famille libre par une application linéaire injective est une famille libre,
• l’image d’une famille génératrice par une application linéaire surjective est une famille génératrice,
• l’image d’une famille base par un isomorphisme est une famille base.
Dans le cas de la dimension finie (32)
Dans un espace vectoriel de dimension finie (engendré par une famille finie) :
• il existe au moins une base,
• toutes les bases sont finies et ont même cardinal n (dimension de l’espace),
• toute famille libre possède au plus n éléments et peut être complétée en une base,
• toute famille génératrice possède au moins n éléments et on peut en extraire une base,
• à partir d’une famille libre L et d’une famille génératrice G, on peut construire une base en complétant L
de certains vecteurs de G.
En dimension finie égale à n (33)
Dans un espace vectoriel E de dimension n :
• tout sous espace vectoriel F de E est de dimension au plus n,
• on a de plus F = E ⇔dim(E) = dim(F ),
• F admet au moins un supplémentaire dans E,
• si F et G sont deux sous espaces vectoriels de E, dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G),
• dim(F + G) = dim(F ) + dim(G) ⇔F et G sont en somme directe,
• pour une famille finie de sous espaces vectoriels (Fi )16i6p , dim(F1 + . . . + Fp ) 6 dim(F1 ) + . . . + dim(Fp )
avec égalité si et seulement si la somme est directe,
• pour f ∈ L(E, F ) avec E de dimension finie, dim E = dim Ker f + rg f ,
• une application linéaire entre deux espaces de même dimension finie est bijective ⇔elle est injective ⇔elle
est surjective
7
2) Matrice d’une famille de vecteurs, d’une application linéaire
Généralités : (34)
P
(1) : Application linéaire canoniquement associée à une matrice : M = Matβcan ,βcan (f ) pour f (ei ) =
j=1 mj,i ej .
−1
(2) : Mat(f (x1 ), . . . , f (xp )), Mat(f ◦ g), Mat(f
).
(3) : Isomorphisme entre un K-ev de dimension n et Mn,1 (K).
(4) : Isomorphisme entre L(E, F ) et Mdim F,dim E (K). Cas F = E.
(5) : Lorsque A = MatB1 ,B2 (f ) et B = MatB0 ,B0 (f ) représentent la même application linéaire dans deux couples
1
2
de bases différents, on dit que A et B sont des matrices équivalentes.
(6) : Lorsque A = MatB1 (f ) et B = MatB2 (f ) représentent le même endomorphisme dans deux bases différentes,
on dit que A et B sont semblables.
Définitions : sous-espaces stables (35)
Soit E = F ⊕ G et B est une base de E adaptée à cette décomposition. Alors :
(1) : F est stable par f ∈ L(E) ⇔f (F ) ⊂ F ⇔MatB (f ) est triangulaire supérieure par blocs avec un découpage
correspondant à celui de B.
(2) : F et G sont stables par f ⇔MatB (f ) est diagonale par blocs.
On définit une suite de drapeaux associée à une base B = (e1 , . . . , en ) par la suite (Fi )16i6n où Fi =
he1 , . . . , ei i.
(4) : Un endomorphisme stabilise le drapeau si et seulement si sa matrice dans B est triangulaire supérieure.
(5) : Un endomorphisme stabilise chaque droite hei i si et seulement si sa matrice dans B est diagonale.
(3) :
3) Déterminant d’une famille de vecteurs dans une base
Théorème : caractérisation des bases : (36)
Soit F une famille de n vecteurs d’un espace vectoriel E de dimension finie égale à n.
(1) : F est une base ⇐⇒ F est libre ⇐⇒ F est génératrice ⇐⇒ MatB (F) est inversible ⇐⇒ detB (F) 6= 0.
(2) : Dans ce cas, MatB (F) × MatF (B) = In .
Matrice de changement de base (37)
Soit E un K-espace vectoriel de dimension finie n et B et B 0 deux bases de E. La matrice de passage de la base B
(dite ancienne base) vers la base B 0 (dite nouvelle base) est la matrice carrée d’ordre n dont la j-ième colonne est
constituée des coordonnées du j-ième vecteur de B 0 dans la base B. Cette matrice est inversible comme matrice
0
dans la base B de l’endomorphisme de E qui transforme B en B 0 . Notation : PB
B .
Changement de base sur les vecteurs (38)
Soit E un K-espace vectoriel de dimension finie n, B et B 0 deux bases de E et x un vecteur de E. On note
X = MatB x ∈ Mn,1 (K) le vecteur colonne des coordonnées de x dans la base B, X 0 = MatB0 x ∈ Mn,1 (K) le
0
0
vecteur colonne des coordonnées de x dans la base B 0 et P = PB
B ∈ GLn (K) la matrice de passage de B vers B .
Alors X = P X 0 .
Propriété (39)
Soit (A, B) ∈ Mn (K)2 . On suppose que, pour tout X ∈ Mn,1 (K), AX = BX. Alors A = B.
Changement de base sur les applications linéaires (40)
Soient E et F deux K-espaces vectoriels de dimensions finies p et q, B et B 0 deux bases de E, C et C 0 deux bases
de F et f ∈ L(E, F ). On note A = MatB,C f ∈ Mq,p (K) la matrice de f dans les bases B et C, A0 = MatB0 ,C 0 f ∈
0
0
Mq,p (K) la matrice de f dans les bases B 0 et C 0 , P = PB
B ∈ GLp (K) la matrice de passage de B vers B et
0
C
0
Q = PC ∈ GLq (K) la matrice de passage de C vers C .
Alors A0 = Q−1 AP.
8
Changement de base sur les endomorphismes (41)
Soit E un K-espace vectoriel de dimension finie n, B et B 0 deux bases de E et f ∈ L(E). On note A =
MatB f ∈ Mn (K) la matrice de f dans la base B, A0 = MatB0 f ∈ Mn (K) la matrice de f dans la base B 0 et
0
0
P = PB
B ∈ GLn (K) la matrice de passage de B vers B .
Alors A0 = P −1 AP.
4) Rang
Théorème : (42)
rg(M ) = dimhcolonnes de M i.
rg(Mat(x1 , . . . , xp )) = dimhx1 , . . . , xp i,
(3) : rg(Mat(f )) = dim Im(f ).
(4) : rg(M N ) 6 min(rg(M ), rg(N )).
(5) : Rang d’une sous-matrice.
(6) : Conservation du rang par équivalence ou similitude.
(1) :
(2) :
M ∈ Mnp (K) deÅrang r siãet seulement si elle est
Ir 0
équivalente à Jnp,r =
.
0 0
t
(8) : rg( M ) = rg(M ).
(9) : Deux matrices de même taille sont équivalentes si
et seulement si elles ont même rang.
(7) :
Calcul algébrique du rang
Rappels : (43)
On convient qu’une sous-matrice de taille 0 × 0 est inversible.
(i)
rg(M ) > r ⇐⇒ M contient une sous-matrice carrée de taille r inversible.
(ii) rg(M ) est la plus grande taille d’une sous-matrice carrée inversible extraite de M .
Conséquence : (44)
Soient K un sous-corps de L et M ∈ Mn (K). Alors M a même rang, considérée comme matrice à coefficients
dans K ou comme matrice à coefficients dans L.
(2) : Soient K un sous-corps de L et M ∈ Mn (K). Alors les polynômes minimaux de M dans Mn (K) et Mn (L)
sont égaux.
(1) :
5) Invariants d’un endomorphisme
Invariants (45)
(1) : Deux matrices semblables ont même trace, même déterminant, même polynôme caractéristique et même
polynôme minimal (donc aussi mêmes valeurs propres).
(2) : On définit la trace, le déterminant, les polynômes caractéristique et minimal d’un endomorphisme comme
étant ceux de sa matrice dans une base quelconque de l’espace considéré.
(1) :
(2) :
(3) :
(4) :
(5) :
Propriétés : (46)
Tr (f ◦ g) = Tr (g ◦ f ), det(f ◦ g) = det(f ) det(g).
detB (f (x1 ), . . . , f (xn )) = det(f ) detB (x1 , . . . , xn ).
detB (f (x1 ), x2 , . . . , xn ) + · · · + detB (x1 , . . . , xn−1 , f (xn )) = Tr (f ) detB (x1 , . . . , xn ).
f est bijective si et seulement si det(f ) 6= 0.
Théorème de Cayley-Hamilton : χf (f ) = 0 et µf | χf .
Famille de vecteurs
Exercice 1 : Liberté ?
Les familles suivantes de R sont-elles libres ou liées ? Fournir des relations de dépendance linéaire quand ces
relations existent.
4
1. (e1 , e2 , e3 ) où e1 = (3, 0, 1, −2), e2 = (1, 5, 0, −1) et e3 = (7, 5, 2, 1).
2. (e1 , e2 , e3 , e4 ) où e1 = (1, 1, 1, 1), e2 = (1, 1, 1, −1), e3 = (1, 1, −1, 1) et e4 = (1, −1, 1, 1).
3. (e1 , e2 , e3 , e4 ) où e1 = (0, 0, 1, 0), e2 = (0, 0, 0, 1), e3 = (1, 0, 0, 0) et e4 = (0, 1, 0, 0).
4. (e1 , e2 , e3 , e4 ) où e1 = (2, −1, 3, 1), e2 = (1, 1, 1, 1), e3 = (4, 1, 5, 3) et e4 = (1, −2, 2, 0).
9
Exercice 2 : Endomorphisme tel que tout vecteur non nul est propre
Soit E un espace vectoriel et f ∈ L(E) tel que pour tout x ∈ E, la famille (x, f (x)) est liée.
1. Montrer que si x 6= 0, il existe un unique scalaire λx tel que f (x) = λx x.
2. Comparer λx et λy lorsque (x, y) est libre.
3. Montrer que f est une homothétie.
4. Soit E un espace de dimension finie. Trouver les endomorphismes (resp. automorphismes) de E qui
commutent avec tous les endomorphismes (resp. automorphismes) de E.
(pour x non nul, on pourra envisager la symétrie s par rapport à Vect(x) parallèlement à un supplémentaire
dans E de Vect(x))
Sous espaces
Exercice 3 : Opérations sur les sous-espaces
Soient F et G deux sous-espaces vectoriels d’un espace vectoriel E.
1. Montrer que F ∩ G est un sous espace de E.
2. F est-il un sous espace de E ?
3. Montrer que : [(F ∪ G sous-espace de E) ⇔ (F ⊂ G ou G ⊂ F )].
(S’inspirer du résultat sur l’union de sous groupes)
Exercice 4 : Chez Grassman
Soient F , G et H trois sous-espaces d’un espace vectoriel E de dimension finie sur K.
Montrer que : dim(F +G+H) 6 dimF +dimG+dimH −dim(F ∩G)−dim(G∩H)−dim(H ∩F )+dim(F ∩G∩H).
Trouver un exemple où l’inégalité est stricte.
Déterminants
Calculer
les déterminants
suivants :
x a b x b x x a
1) x b a x a x x b a − b − c
2a
2a b−c−a
2b 2) 2b
2c
2c
c − a − b
a+b
b+c
c + a 2
3) a + b2 b2 + c2 c2 + a2 a3 + b3 b3 + c3 c3 + a3 a + b ab a2 + b2 4) b + c bc b2 + c2 c + a ca c2 + a2 2
a b2 ab
2
ab a2 5) b
ab a2 b2 suivant :
Calculer le déterminant
a
b
(0)
c ... ...
.
..
..
.
.
b
(0)
c
a
Exercice 5 : Calcul de déterminants
Réponse : (b − a)2 (a + b + 2x)(a + b − 2x).
Réponse : (a + b + c)3 .
Réponse : 2abc(a − b)(b − c)(c − a).
Réponse : (a−b)(b−c)(c−a)(ab+ac+bc).
Réponse : −(a3 − b3 )2 .
Exercice 6 :
Calcul de déterminants
(Chercher une relation de récurrence linéaire d’ordre 2. On notera α et β les racines dans C de l’équation
caractéristique, et on exprimera le déterminant en fonction de α et β.)
10
Exercice 7 : n-linéarité en forme alternée
Calculer
le
déterminant
suivant
:
1
0 . . . 0 1
1 ... ...
0
.
en écrivant que la dernière colonne est la somme de deux colonnes contenant des 0 et un
..
..
.
0
(1) . . . . . .
1
seul 1.
Exercice 8 : Calcul par dérivation
a(x) b(x) .
Soient a, b, c, d : R → R des fonctions dérivables et f (x) = d(x) 0
c(x)
a (x) b(x) a(x) b0 (x) +
.
Montrer que f est dérivable et que : f 0 (x) = 0
c (x) d(x) c(x) d0 (x)
1
cos x
sin x Généraliser à un déterminant n × n. Application : Calculer 1 cos(x + α) sin(x + α).
1 cos(x + β) sin(x + β)
Réponse : sin α − sin β − sin(α − β).
Exercice 9 : Déterminant d’une triangulaire
En utilisant la formule de définition du déterminant d’une matrice triangulaire supérieure, retrouver qu’il est
égal au produit des termes diagonaux.
Exercice 10 : Déterminant de Vandermonde
Soient a1 , . . . , an ∈ K. Le déterminant de Vandermonde associé aux ai est : V (a1 , . . . , an ) = det(aj−1
).
i
Calculer et factoriser V (a, b) et V (a, b, c).
Q
Pour x ∈ K, montrer que V (a1 , . . . , an , x) = V (a1 , . . . , an ) ni=1 (x − ai ).
En déduire l’expression générale de V (a1 , . . . , an ).
Comatrice
Exercice 11 :
1. Soit A une matrice carrée de format n. Calculer le déterminant de sa comatrice.
2. Soit A une matrice carrée de format n. Etudier le rang de comA en fonction du rang de A.
Révisions sur les applications linéaires MPSI
Propriétés élémentaires
Exercice 12 : Effet sur les familles libres et génératrices
Soient E, F deux espaces vectoriels et f : E → F linéaire.
(1) : Montrer que f est injective si et seulement si f transforme toute famille libre de E en une famille libre
de F .
(2) : Montrer que f est surjective si et seulement s’il existe une famille génératrice de E transformée par f en
une famille génératrice de F .
Exercice 13 : L(E × F )
Est-il vrai que L(E × F ) et L(E) × L(F ) sont isomorphes ? (E et F espaces vectoriels de dimensions finies).
Exercice 14 : Somme directe d’endomorphismes
Soit E un K-ev, E1 , . . . , En des sev tels que E1 ⊕ . . . ⊕ En = E. Soient u1 ∈ L(E1 ), …, un ∈ L(En ).
(1) : Montrer qu’il existe un unique endomorphisme u ∈ L(E) tel que pour tout i : u|Ei = ui .
(2) : Montrer que Ker(u) = Ker(u1 ) ⊕ . . . ⊕ Ker(un ) et Im(u) = Im(u1 ) ⊕ . . . ⊕ Im(un ).
Projections
11
Exercice 15 : f ◦ g = id
Soit E un espace vectoriel et f, g ∈ L(E) tels que f ◦ g = idE . Montrer que g ◦ f est une projection et déterminer
ses espaces caractéristiques.
Exercice 16 : Projection p + q − q ◦ p
Soient p, q deux projections telles que p ◦ q = 0. Montrer que p + q − q ◦ p est une projection, et déterminer ses
espaces caractéristiques.
Exercice 17 : Endomorphisme de rang 1
Soit f ∈ L(E) de rang 1. Montrer qu’il existe un unique λ ∈ K tel que f 2 = λf .
Montrer que : λ = 1 ⇔ id −f est non injective ⇔ id −f est non surjective (même en dimension infinie).
Exercice 18 : Commutant d’une projection
Soit E un K-espace vectoriel de dimension n, F, G deux sous-espaces vectoriels de E tels que E = F ⊕ G. On
note p la projection sur F parallèlement à G. Soit Ep = {f ∈ L(E) tel que f ◦ p = p ◦ f }. Quelle est la dimension
de Ep ?
Exercice 19 : Expressions analytiques
Soit E = K , F = {X = (x, y, z) tel que x + 2y + z = 0} et G = vect((1, 1, 1)).
(1) : Vérifier que F ⊕ G = E.
(2) : Soit s la symétrie de base F de direction G et u = (x, y, z). Déterminer s(u).
3
Rang
Exercice 20 : Applications du thm du rang
Soient E, F deux K-ev de dimensions finies et f ∈ L(E, F ).
(1) : Montrer que si H est un sev de E, alors dim f (H) = dim H − dim(H ∩ Ker f ).
−1
(2) : Montrer que si K est un sev de F , alors dim f
(K) = dim(K ∩ Im f ) + dim(Ker f ).
Exercice 21 : Application du thm du rang
Soient E, F deux ev de dimensions finies et u, v ∈ L(E, F ).
Montrer que dim(Ker(u + v)) 6 dim(Ker u ∩ Ker v) + dim(Im u ∩ Im v) (considérer w = u| Ker(u+v) ).
Exercice 22 : Rang de f ◦ g
Soit E un ev de dimension finie et f, g ∈ L(E). Établir :
(1) : dim Ker(f ◦ g) 6 dim Ker f + dim Ker g.
(2) : dim(Im f ∩ Ker g) = rg(f ) − rg(g ◦ f ).
(3) : rg(f ) + rg(g) − dim E 6 rg(f ◦ g) 6 min(rg(f ), rg(g)).
Exercice 23 : f ◦ g = 0
Soit E un ev de dimension finie et f, g ∈ L(E) tels que f ◦ g = 0. Trouver une inégalité liant les rangs de f et
de g. Peut-on avoir égalité ?
Exercice 24 : Somme de projecteurs
Soit K un corps de caractéristique nulle, E un K-ev de dimension finie et p1 , . . . , pn des projecteurs tels que
p1 + . . . + pn = idE .
(1) : Montrer que Tr (pi ) = rg(pi ).
(2) : Montrer que E = Im(p1 ) ⊕ . . . ⊕ Im(pn ).
Image et noyau
Exercice 25 : f (Ker(g ◦ f ))
Soit E un espace vectoriel et f, g ∈ L(E). Montrer que f (Ker(g ◦ f )) = Ker g ∩ Im f .
12
Exercice 26 : Supplémentaire d’un hyperplan
Soit E un K-ev et f : E → K une forme linéaire non identiquement nulle. On note H = Ker f .
(1) : Montrer que Im f = K.
(2) : Soit u ∈ E \ H et F = vect(u). Montrer que F ⊕ H = E.
Exercice 27 : CNS pour que Ker f et Im f soient supplémentaires
Soit E un ev de dimension finie et f ∈ L(E). Montrer que les propriétés suivantes sont équivalentes :
(1) Ker f 2 = Ker f .
(2) Im f 2 = Im f .
(3) Ker f ⊕ Im f = E.
(4) Ker f ∩ Im f = {0}.
(5) Ker f + Im f = E.
Exercice 28 : Ker f + Ker g = Im f + Im g = E
Soient E un ev de dimension finie et f, g ∈ L(E) tels que Ker f + Ker g = Im f + Im g = E. Montrer que les
sommes sont directes.
Équations algébriques
Exercice 29 : f 2 = − id
Soit E un R-ev de dimension finie et f ∈ L(E) tel que f ◦ f = − idE . Pour z = x + iy ∈ C et u ∈ E, on pose
zu = xu + yf (u).
(1) : Montrer qu’on définit ainsi une structure de C-ev sur E.
(2) : En déduire que dimR (E) est paire.
Exercice 30 : f 3 = id
Soit f ∈ L(E) tel que f = idE .
(1) : Montrer que Ker(f − id) ⊕ Im(f − id) = E.
2
2
(2) : Montrer que Ker(f − id) = Im(f + f + id) et Im(f − id) = Ker(f + f + id).
3
Exercice 31 : Endomorphisme cyclique
Soit E un ev de dimension n et f ∈ L(E). On suppose qu’il existe un vecteur u ∈ E tel que la famille (f k (u))k∈N
engendre E.
n−1
(1) : Montrer que (u, . . . , f
(u)) est une base de E (considérer p maximal tel que F = (u, . . . , f p−1 (u)) est
k
libre, et prouver que f (u) est combinaison linéaire de F pour tout entier k).
(2) : Montrer qu’un endomorphisme g ∈ L(E) commute avec f si et seulement si c’est un polynôme en f .
Exercice 32 : Endomorphisme cyclique
Soit f ∈ L(E). On dit que f est un endomorphisme cyclique s’il existe x ∈ E tel que E = hf k (x), k ∈ Ni. Si f
est cyclique et F est un sous-espace vectoriel stable par f , montrer que f|F est aussi cyclique.
Soit E de dimension finie et f ∈ L(E) tel que f = 0.
2
(1) : Montrer que rg f + rg f 6 dim E.
2
(2) : Montrer que 2 rg f 6 rg f (appliquer le théorème du rang à f| Im f ).
Exercice 33 : f 3 = 0
3
Exercice 34 : Endomorphisme nilpotent
Un endomorphisme f ∈ L(E) est dit nilpotent s’il existe p ∈ N tel que f p = 0. Dans ce cas, l’indice de f est le
plus petit entier p tel que f p = 0. On considère f ∈ L(E) nilpotent d’indice p.
p−1
(1) : Soit u ∈ E \ Ker f
. Montrer que la famille (u, f (u), . . . , f p−1 (u)) est libre.
n
(2) : En déduire que si E est de dimension finie n, alors f = 0.
(3) : Soit g ∈ GL(E) tel que f ◦ g = g ◦ f . Montrer que f + g ∈ GL(E) . . .
1. en dimension finie.
2. pour E quelconque.
13
Téléchargement