chapitre3

publicité
Chapitre 3
Matrices
19
20
CHAPITRE 3. MATRICES
3.1
3.1.1
Opérations sur les matrices
Généralités
Définition. Soient p, n ≥ 1 des entiers, une matrice
 p × n est un tableau
 de
a11 a12 · · · a1n
 ..
..
.. .
nombres avec p lignes et n colonnes : A = (aij ) =  .
.
. 
ap1 ap2 · · · apn
L’ensemble des matrices décrites ci-dessus (i.e. matrices à p lignes et n colonnes) sera noté Mp,n (K). L’ensemble des matrices carrées sera noté Mn (K).
Exemples : matrices 2 × 3.. a21 =..., vecteurs colonnes, vecteurs lignes...
Définition. On dit que 2 matrices A et B sont égales ssi aij = bij . Si A et
B sont deux matrices de Mp,n (K), on définit la somme A + B = (aij + bij )
et le produit par un scalaire λA = (λaij ).
Exemples :...
Théorème. L’ensemble Mp,n (K) muni des deux lois que l’on vient de définir
est un espace vectoriel.
Une base de cet espace vectoriel est donnée par la famille (Eij )(i,j)∈[1,p]×[1,n]
où la matrice Eij est la matrice qui ne comporte que des 0 et un unique 1 à
l’intersection de la ieme ligne et de la j ieme colonne.
On obtient alors dim Mp,n (K) = np.
Définition. (Produit matriciel) Si A ∈ Mq,p (K), B ∈ Mp,n (K) on définit le
produit C = A · B ∈ Mq,n (K) par
cij =
p
'
aik bk,j .
k=1
Présentation pratique :
*
aik
→
+
(
bkj ↓
(cij )
)
Remarque : attention au taille des matrices. Le produit n’est défini que
si le nombre de colonne de A est égal au nombre de la ligne de B ! ! !
Exemples :...
Proposition. Les opérations sur les matrices vérifient les règles suivantes :
3.1. OPÉRATIONS SUR LES MATRICES
21
1. (distributivité) A(B + C) = AB + AC et (A + B)C = AC + BC
2. (associativité) (AB)C = A(BC)
3. (compatibilité) α(AB) = (αA)B = A(αB).
Exemples : matrices nulle et identité.
Définition.
(i) (aij ) est une matrice triangulaire supérieure ssi
,
..
. ∗
i > j ⇒ aij = 0, i.e.A =
... .
0
(ii) (aij ) est une matrice triangulaire inférieure ssi
,
..
. 0
i < j ⇒ aij = 0, i.e.A =
.. .
.
∗
Proposition. L’ensemble des matrices triangulaires supérieures est une sousalgèbre de Mn (K) (en particulier, le produit de matrices triangulaires supérieures est triangulaire supérieure). Il en est de même pour les matrices
triangulaires inférieures.
Exercice : montrer la proposition précédente.
Définition. Si A ∈ Mp,n (K), on définit A# ∈ Mn,p (K), matrice transposée
de A par a#ij = aji . Elle sera notée par AT ou t A.
Proposition. L’application transposée : A (→ AT est un isomorphisme de
Mp,n (K) sur Mn,p (K), i.e. :
(A + B)T = AT + B T et (λA)T = λAT .
C’est de plus une pseudo-involution (son carré est l’identité : (AT )T = A).
Proposition. (AB)T = B T AT .
Exercice : montrer les deux propositions précédentes.
Remarque : Si.X et Y sont des matrices unicolonnes à n lignes, le produit
matriciel Y T X = ni=1 yi xi représente en fait le produit scalaire entre X et
Y.
Définition. Dans Mn (K), A est symétrique ssi AT = A et A est antisymétrique ssi AT = −A
22
CHAPITRE 3. MATRICES
Proposition. On a Mn (K) = Sn ⊕ An , où Sn désigne l’ensemble des matrices symétriques et An désigne l’ensemble des matrices anti-symétriques.
Exercices
:


α 0
α 1 0 0
1 α
0 α 0 0


(i) Si A = 
 0 0 β 1  et B =  0 0
0 0
0 0 1 β
3
B .
*
+
1 2
(ii) Si M =
et N = M T alors
0 1
(α, β) ∈ Z2 implique α = β = 0.
3.1.2
0
0
β
1

0
0
, calculer A2 , ABA et
0
β
prouver que M α N β = I2 où
Système d’équations et inversion de matrice
Définition. Soit M ∈ Mn (K). On dit que M est inversible ssi il existe
N ∈ Mn (K) tel que M N = N M = In . On note alors N = M −1 .
Théorème. L’ensemble des matrices carrées d’ordre n sur K inversible est
un groupe pour la multiplication des matrices.
Cet ensemble est noté GL n (K).
Les matrices permettent de compacter des formules et donc de manipuler
de façon plus efficace. Considérons un système d’équation du type


 a11 x1 + . . . + a1n xn = b1
...

a x + ... + a x = b
p1 1
pn n
p
On peut réécrire un tel système sous forme de matrice en posant :
 
 
x1
b1
 .. 
 .. 
A := (aij , X :=  .  et b :=  . 
xn
bp
et le système est alors équivalent à :
AX = b.
Un intérêt clair du calcul de l’inverse d’une matrice (quand il existe) est
la résolution de ce système linéaire. En effet, si A est inversible, la solution
de AX = b est donc X = A−1 b.
3.2. MATRICES ET APPLICATIONS LINÉAIRES
23
Remarque : Calcul pratique de M −1 . Soit M ∈ Mn (K), on prend
x et y des vecteurs dans Kn tels que M x = y. On résout alors n équations
à n inconnues (x1 , x2 , . . . , xn ) pour trouver x en fonction de y (par pivot de
Gauss). On trouve alors une matrice N telle que N y = x et nous avons alors
M −1 = N .


0 1 1
Exercice : si M = 1 0 1, calculer M −1 .
1 1 0
3.2
3.2.1
Matrices et applications linéaires
Représentation matricielle
La représentation matricielle n’est pas canonique, elle dépend des bases
choisies.
.
– Systèmes de vecteurs : si xj = pi=1 aij ei , alors A = (aij ) est la matrice
des vecteurs (xj ) dans la base des (ei ) (on écrit les composantes des
vecteurs xj dans chaque colonne)..
– Application linéaire : si f (ej ) = pi=1 aij e#i où (ej ) est une base de E,
(e#i ) est une base de F, alors A est la matrice de f dans les bases (ej )
et (e#i ) que l’on peut écrire M (f, (ej ), (e#i )).
– Traduction de y = f (x), où y ∈ F , x ∈ E, f ∈ LK (E, F ), les bases de
E et F étant choisies, on peut écrire Y = AX avec A = M (f, (ej ), (e#i )),
Y = M (y, (e#i )) et X = M (x, (ej )).
Proposition. L’application f ∈ L(E, F ) (→ M (f, (ej ), (e#i )) ∈ Mp,n (K) est
un isomorphisme.
Théorème. M (f ) est inversible ssi f ∈ GL (E) et M (f −1 ) = M (f )−1 .
En général, M (f ◦ g) = M (f ) · M (g).
Application : une matrice est inversible ssi la famille des vecteurs colonnes (ou vecteurs lignes) est libre.
3.2.2
Changement de base
.
Définition. Si εj = ni=1 pij ei alors P = (pij ) est la matrice de passage de
la base (ei )i∈[1,n] à la base (εj )j∈[1,n] . Les colonnes de P sont les composantes
de la nouvelle base dans l’ancienne.
Théorème. Soit X la matrices des coordonnées de x dans la base (ei ), X #
la matrice des coordonnées de x dans la base (εj ) alors on a la relation
24
CHAPITRE 3. MATRICES
X = P X # , c.a.d. on obtient les anciennes coordonnées en fonction des
nouvelles.
Dans L(E, F ) : soit P la matrice de changement de base de (ei ) à (εi )
dans E, Q la matrice de changement de base de (e#j ) à (ε#j ) dans F .
Théorème. Si A = M (f, ei , e#j ) et B = M (f, εi , ε#j ) alors B = Q−1 AP .
Définition. Si (A, B) ∈ M2p,n (K), on dit que A et B sont équivalentes ssi
∃(R, S) ∈ GL p (K) × GL n (K) tel que B = RAS.
Définition. Si (A, B) ∈ M2n (K), on dit que A et B sont semblables ssi il
existe P ∈ GL n (K) tel que B = P −1 AP (A et B sont les matrices d’un
même endomorphisme mais dans des bases différentes).
Exercices :
– Chercher la matrice de f : P (X) ∈ Rn [X] (→ P (X + a) dans la base
canonique de Rn [X].
– Montrer l’équivalence A · B = In ⇔ A = B −1 .


Cn0
C 1 C 0
0
n−1
 n

k
n−k
– Dans Rn [x], on pose ek = X (1−X) , inverser P =  ..
.
.
.
 .

.
n−1
n
0
Cn Cn−1
C0
3.3
Rang d’une matrice
Définition. Si A ∈ Mp,n (K) on définit le rang de A comme étant le rang
des vecteurs colonnes de A dans Kp .
Proposition. Si A = M (f ) où f ∈ L(E, F ) alors Rg (A) = Rg (f ).
Théorème. Rg (A) = r ⇔ A équivalente à
*
+
Ir 0
.
0 0
Corollaire. A et B sont équivalentes dans Mp,n (K) ssi Rg (A) = Rg (B).
Proposition. On a Rg (AT ) = Rg A.
3.4. MATRICES ET SOUS-ESPACES STABLES
3.4
25
Matrices et sous-espaces stables
Objectif : si E = V ⊕ W , on veut réduire l’étude de f ∈ L(E) à l’étude
de f sur V et sur W qui sont plus simples.
Définition. Soit V ⊂ E un sous-espace vectoriel de E. Soit f ∈ L(E), on
dit que V est stable par f ssi f (V ) ⊂ V , c.a.d. ∀x ∈ V, f (x) ∈ V .
Exemple fondamental : Ker (f ) et Im (f ) sont stables par f .
Exercice : démontrer l’exemple précédent.
Proposition. Si V est stable par f , alors f |V définit un endomorphisme de
L(V ).
Théorème. Si u ∈ L(E), v ∈ L(E) et que u ◦ v = v ◦ u, alors Ker u et Im u
sont stables par v.
Exercice : démontrer le théorème précédent.
Traduction matricielle
Proposition. Soit f ∈ L(E) et soit V ⊂ E un sous-espace vectoriel (de dimension r) stable par f . Soit W un supplémentaire de V dans E (c.a.d. V ⊕
W = E). Soit b une base adaptée à V ⊕W = E (i.e. b = (b1 , . . . , br , br+1 , . . . , bn )
où bV = (b1 , . . . , br ) est une base de V , et (br+1 , . . . , bn ) une base de W ), alors
M (f, b, b) est de la forme
*
+
A B
0 C
où A = M (f |V , bV , bV ).
Remarque : si W est stable par f alors B = 0.
Proposition. Soit f ∈ L(E), si V1 , . . . , Vp sont des sous-espaces vectoriels
tels que V1 ⊕ · · · ⊕ Vp = E et ∀i Vi est stable par f , alors


M (f |V1 )
0


M (f |V2 )


M (f, b, b) = 

.
.


.
0
M (f |Vp )
avec b une base adaptée à la somme V1 ⊕ · · · ⊕ Vp = E.
26
CHAPITRE 3. MATRICES
Calcul matriciel par blocs
*
A B
C D
·
+
+
A# B #
C # D#
*
+
AA# + BC # AB # + BD#
=
CA# + DC # CB # + DD#
*
Attention : le sens est important ici, en effet en général AB # 0= B # A.
Attention : il faut que les dimensions des blocs soient compatibles ! ! !
Sommes directes et constructions d’applications linéaires
Théorème. Soit V ⊕ W = E. Soit f ∈ L(V ) et g ∈ L(W ). Il existe une
unique application linéaire ϕ ∈ L(E) telle que ϕ|V = f et ϕ|W = g.
Si x ∈ E, ∃!xV ∈ V et xW ∈ W tels que x = xV + xW et alors
ϕ(x) = f (xV ) + g(xW ).
3.5
Le cas particulier des projections et des
symétries
Si p est une projection (p ◦ p = p), alors E = Im (p) ⊕ Ker (p) (voir DM1).
Ker p et Im p sont stables par p. De plus p|Ker p = 0 et p|Im p = Id. Nous
avons donc dans une base adaptée
*
+
Id 0
M (p) =
.
0 0
Nous remarquons que Tr (p) = dim(Im p).
Si s est une symétrie (s◦s = Id), alors E = Ker (s−Id)⊕Ker (s+Id) (voir
DM1). Ker (s − Id) et Ker (s + Id) sont stables par s. De plus s|Ker (s−Id) = Id
et s|Ker (s+Id) = −Id. Nous avons donc dans une base adaptée
M (p) =
*
+
Id 0
.
0 −Id
Nous remarquons que Tr (s) = dim(Ker (s − Id)) − dim(Ker (s + Id)).
3.6. ENDOMORPHISME TRIGONALISABLE/DIAGONALISABLE
3.6
27
Endomorphisme trigonalisable/diagonalisable
Définition. Une matrice A est dite trigonalisable ssi elle est semblable à
une matrice triangulaire supérieure, i.e ssi il existe P ∈ GL n (K) tel que
A = P T P −1 avec T triangulaire supérieure.
Autrement dit, un endomorphisme est trigonalisable s’il existe une base
dans laquelle sa matrice est triangulaire supérieure, c.a.d. tel que f (ei ) ∈
Vect(e1 , . . . , ei ), ∀i = 1..n.
Définition. Une matrice A est dite diagonalisable ssi elle est semblable à
une matrice diagonale, i.e ssi il existe P ∈ GL n (K) tel que A = P DP −1
avec D diagonale (dij = 0 si i 0= j).
Autrement dit, un endomorphisme est diagonalisable s’il existe une base
dans laquelle sa matrice est diagonale, c.a.d. tel que f (ei ) = λi ei , ∀i = 1..n.
Téléchargement