1 Représentation d`un application linéaire par une matrice

publicité
1
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
Matrices et applications linéaires
Introduction
Un hommage à René Descartes (17ième siècle) : en fixant un repère (resp. une base) un point
M (resp. un vecteur) objet géométrique est «numérisé» et devient alors un couple de nombres, ses
coordonnées (x, y), donc un objet numérique. De même une droite est alors représentée par une
équation cartésienne par exemple y = 2x−3 ou une équation paramétrée (x(t), y(t)) = (t, 2t−3), c’està-dire une relation vérifiée par les coordonnées. Tout objet géométrique admet ainsi une représentation
numérique plus ou moins simple. Le cercle unité a par exemple pour équation cartésienne x2 + y 2 = 1,
ou pour paramétrage (x(t), y(t)) = (cos t, sin t), le demi-plan supérieur a pour équation y > 0...
De même, les transformations géométriques classiques, translations, rotations, homothéties (on dit
«zoom» en infographie), symétries seront codées par des matrices. Cette numérisation, permet de
faire de la géométrie en faisant des calculs dans le monde numérique. Il est intéressant à ce titre de
regarder avec votre moteur de recherche favori les mathématiques utilisées en infographie...
Si l’on change de repère ou de base, les coordonnées et les équations sont modifiées. Certaines
bases permettent d’avoir des calculs plus simples. La problématique du changement de base est donc
un enjeu majeur de l’Algèbre linéaire, qui est en quelque sorte «la géométrie dans des espaces de
dimension quelconque».
La morale de ce chapitre pourrait se résumer à ceci : je veux étudier un endomorphisme u de
E. Pour cela je cherche une «bonne» base dans laquelle la matrice de u est «sympatique», l’idéal
étant qu’elle soit diagonale (car faire des calculs avec une matrice diagonale, c’est très simple). Pour
trouver de bonnes bases, très souvent, on décompose E en somme directe de «bons» sous-espaces, et on
recolle les bases des sous-espaces pour obtenir une base de E. L’année prochaine, vous apprendrez des
techniques qui permettent d’obtenir ces bonnes bases, les polynômes annulateurs de matrices joueront
un rôle majeur.
1
Représentation d’un application linéaire par une matrice
1.1
Application linéaire canoniquement associée à une matrice
On considère la matrice A de M3,2 (K) et l’application linéaire u : K2 → K3 définies par :


2 3


A = −4 5
3 7
et u(x, y) = (2x + 3y, −4x + 5y, 3x + 7y).
Observons le produit matriciel




!
2x + 3y
2 3


 x

= −4x + 5y  .
−4 5
y
3x + 7y
3 7
On dit que u ∈ L(K2 , K3 ) est l’application linéaire canoniquement associée à la matrice A. On
peut l’indentifier à l’application linéaire ũ : M2,1 (K) → M3,1 (K) définie par ũ(X) = AX.
Grâce à cette identification, on pourra parler de noyau et d’image de la matrice A, qui s’identifieront
au noyau et à l’image de l’application linéaire ũ. On remarque alors que :
• les colonnes de A engendrent l’image
2
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
• les lignes de A donnent un système d’équations cartésiennes du noyau.
Remarquons enfin que si (e1 , e2 ) est la base canonique de K2 et (f1 , f2 , f3 ) celle de K3 , on a :
u(e1 ) = f (1, 0) = (2, 4, −3) = 2f1 + 4f2 − 3f3
et u(e2 ) = 3f1 + 5f2 + 7f3 .
Autrement dit, les coefficients de ces deux combinaisons linéaires constituent les colonnes de la
matrice A. C’est ce point de vue avec les bases que nous allons généraliser dans la sous-section suivante.
1.2
Matrice d’une application linéaire
Définition 1 Soit u ∈ L(E, F ), BE = (e1 , . . . , ep ) une base de E et BF = (f1 , . . . , fn ) une base de F .
On appelle matrice de u relative aux bases BE , BF , la matrice de Mn,p (K) notée MatBE ,BF (u) dont les
coefficients ai,j sont définies par la relation :
∀j ∈ J1, pK, u(ej ) =
n
X
ai,j fi .
i=1
Réciproquement si A = (ai,j ) est une matrice de Mn,p (K), il existe une unique application linéaire
u ∈ L(E, F ) telle que A = MatBE ,BF (u).
Remarques :
• si u est un endomorphisme de E donc E = F , on prend en général la même base de «départ» et
d’«arrivée». On note alors plus simplement MatB (u) au lieu de MatB,B (u).
• soit F = (x1 , . . . , xp ) est une famille de vecteurs de F dont les coordonnées dans BF sont définies
par :
∀j ∈ J1, pK, xj =
n
X
ai,j fi .
i=1
On dit que la matrice A = (ai,j ) est la matrice de la famille F dans la base BF .
En particulier, si un vecteur x de F a pour coordonnées (c1 , . . . , cn ) dans BF , sa matrice dans
BF est la matrice colonne t (c1 · · · cn ).
1.3
Un véritable dictionnaire : correspondance entre opérations sur les applications linéaires et opérations sur les matrices
Proposition 2 (Dictionnaire et opérations)
1. Soit u et v dans L(E, F ), λ ∈ K, BE = (e1 , . . . , ep ) une base de E et BF = (f1 , . . . , fn ) une base
de F . Alors
MatBE ,BF (λu + v) = λMatBE ,BF (u) + MatBE ,BF (v)
2. Soit u ∈ L(E, F ), v ∈ L(F, G). Alors
MatBE ,BG (v ◦ u) = MatBF ,BG (v) × MatBE ,BF (u)
Remarques :
• comme on a prouvé que la composée d’applications linéaires était bilinéaire et associative, on en
déduit que le produit matriciel est bilinéaire et associatif.
3
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
• A l’inverse, une information sur la matrice donne de l’information sur l’application linéaire : si
par exemple Ap = 0 où A est la matrice d’un endomorphisme u, alors up = 0.
• L’application u 7→ MatBE ,BF (u) est ainsi un isomorphisme entre les espaces vectoriels L(E, F )
et Mn,p (K). Cela permet de retrouver que
dim L(E, F ) = dim E × dim F.
Proposition 3 (Dictionnaire et inverse) Soit E et F deux K-espaces vectoriels de même dimension de bases respectives BE et BF . Soit u ∈ L(E, F ) et A sa matrice relative aux bases B et B ′ . Alors
on a : u est un isomorphisme de E sur F ssi la matrice A est inversible, et alors
−1
MatB,B′ (u)
= MatB′ ,B (u−1 )
Remarque : cela fournit un nouveau moyen de prouver qu’une matrice
est inversible. Par exemple,
on peut montrer que la matrice A ∈ Mn+1 (K) définie par ai,j = j−1
est
inversible car matrice dans
i−1
la base canonique de Kn+1 [X] de l’endomorphisme bijectif P 7→ P (X + 1).
Corollaire 4 (Inverse à gauche ou à droite suffit) Soit A ∈ Mn (K). Les trois propositions suivantes sont équivalentes :
• A est inversible
• il existe B ∈ Mn (K) tel que AB = In .
• il existe C ∈ Mn (K) tel que CA = In .
Remarque : la preuve de ce corollaire repose sur le fait qu’un endomorphisme en dimension finie
est bijectif ssi il est injectif.
Proposition 5 (Dictionnaire et image d’un vecteur) Soit u ∈ L(E, F ) et A sa matrice dans les
bases BE et BF . Soit x un vecteur de E et X la matrice colonne de ses coordonnées dans BE . Alors
la matrice colonne des coordonnées du vecteur u(x) dans la base BF est la matrice colonne AX.
Remarque : on !retrouve donc que si u est l’endormorphisme
de!K2 canoniquement associé à la
!
!
1 3
1 3
2
11
matrice A =
, on a u(2, 3) = (11, 16), car
=
2 4
2 4
3
16
1.4
Notion de rang d’une matrice
Proposition 6 (dictionnaire) Soit A ∈ Mn,p (K). On appelle rang de la matrice A le rang de la
famille (C1 , . . . , Cp ) de Kn formée par les colonnes de A. Le rang de A est aussi égal au rang de toute
application linéaire représentée par A par rapport à n’importe quel couple de base.
Application : on calcule rg(A), on en déduit la dimension du noyau et on obtient alors rapidement
une base du noyau sans résoudre le système linéaire AX = 0. Par exemple, soit u l’endomorphisme de
K3 canoniquement associé à la matrice


2 2 6


A = 3 0 9  .
4 4 12
On a rg(A) = rg(C1 , C2 , C3 ) = rg(C1 , C2 )=2 car C3 = 3C1 et (C1 , C2 ) libre. Ainsi Im u est engendré
par (2, 3, 4) et (2, 0, 4). De plus, par le théorème du rang dim Ker u = 3 − rg(u) = 1. Or C3 = 3C1
donne u(e3 ) = 3u(e1 ) donc u(e3 − 3e1 ) = 0. Le vecteur e3 − 3e1 constitue donc une base du noyau car
de dimension 1.
4
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
Corollaire 7 (Propriétés du rang d’une matrice)
• Soit A ∈ Mn,p (K) on a rg(A) 6 min(n, p).
• Soit A ∈ Mn (K), A est inversible ssi rg(A) = n.
• Le rang d’une matrice n’est pas modifié si on la mulitiplie par une matrice inversible.
Nous verrons dans la dernière section, que les opérations élémentaires conservent le rang d’une
matrice, et qu’on pourra ainsi appliquer l’algorithme du pivot de Gauss pour calculer le rang d’une
matrice.
2
Changements de base
Problématique : soit u ∈ L(E, F ), On note A sa matrice relative au couple de base (BE , BF ) et A′
′ , B ′ ). Quel est le lien matriciel entre les matrices A et A′ ?
sa matrice relative au couple de base (BE
F
2.1
Matrices de passage
Proposition 8 Si B et si B ′ sont deux bases de E, on appelle matrice de passage de B à B ′ la matrice
notée Pass(B, B ′ ) dont les colonnes sont les coordonnées des vecteurs de B ′ dans la base B. On a
aussi Pass(B, B ′ ) = MatB′ ,B (idE ), ainsi l’application identité étant bijective, on en déduit (DICO) que
Pass(B, B ′ ) est inversible et que son inverse est Pass(B ′ , B).
2.2
Formules de changement de base
Proposition 9 (Relation entre deux matrices d’une même application linéaire) Si u ∈ L(E, F ),
′ ) et Q =
(avec des notations évidentes) si A = MatBE ,BF (u), A′ = MatBE′ ,BF′ (u), P = Pass(BE , BE
Pass(BF , BF′ ), on a
A = QA′ P −1 .
En particulier si u est un endomorphisme donc E = F , on a
A = P A′ P −1 .
2
Exemple
! «ma première réduction» : soit u l’endomorphisme de K canoniquement associé à A =
5
4
. On sait que le polynôme P = X 2 − Tr(A)X + det A = (X − 1)(X − 2) est annulateur
−3 −2
de A. Les noyaux Ker(u − id) et Ker(u − 2 id) vont ainsi jouer un rôle crucial 1 : ils sont engendrés
2
respectivement par u1 = (1, 1) et u2 = (4, −3). La famille (u1 , u2 ) est une base de K
! et dans cette
1
4
base, la matrice de u est D = diag(1, 2). On a ainsi A = P DP −1 avec P =
.
−1 −3
Proposition 10 (Formule de changement de coordonnées) Soit x un vecteur de E. Soit X la
matrice colonne des coordonnées de x dans la base B et X ′ la matrice colonne des coordonnées de x
dans la base B ′ . On note P = Pass(B, B ′ ). Alors
X = P X′
et
X ′ = P −1 X.
1. Vous verrez l’année prochaine, «le lemme des noyaux» qui justifie que l’on aura K2 = Ker(u − id) ⊕ Ker(u − 2 id)
car (X − 2) et (X − 1) sont premiers entre eux.
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
2.3
5
Applications des changements de base
En trouvant de «bonnes bases», les objets géométriques (vecteurs ou applications linéaires) ont
des représentations numériques plus simples qui facilitent les calculs :
• réduction de coniques en prenant une base polaire.
• calculs de puissances et de racines carrées de matrices
• calculs de commutants
• classification des matrices à équivalence et à similitude près (cf section suivante).
3
Classification des matrices
3.1
Matrices équivalentes
Définition 11 Deux matrices A et B de Mn,p (K) sont dites équivalentes s’il existe deux matrices
inversibles P ∈ GLn (K) et Q ∈ GLp (K) telles que A = P BQ. Cela revient à dire que A et B codent
une même application linéaire mais relativement à deux couples de base (éventuellement) différents.
Remarque : la relation «matrices équivalentes» est une relation d’équivalence sur Mn,p (K).
Le résultat suivant donne un représentant simple des matrices de rang r.
Théorème 12 (Représentant d’une matrice de rang r) Soit A une matrice de Mn,p (K) de rang
r. Alors A est équivalente à la matrice bloc Jr = diag(Ir , 0).
Corollaire 13 (Le rang, invariant total) Deux matrices de Mn,p (K) sont équivalentes ssi elles
ont même rang.
Corollaire 14 (Conservation du rang par transposition) Une matrice et sa transposée ont même
rang.
Puisque le rang d’une matrice est le rang des ses vecteurs colonnes, par transposition, on en déduit
qu’il est aussi égal au rang de ses vecteurs lignes.
3.2
Matrices semblables
Définition 15 Deux matrices A et B de Mn (K) sont dites semblables s’il existe une matrice inversible
P ∈ GLn (K) telles que A = P BP −1 . Cela revient à dire que A et B codent un même endomorphisme
mais dans une base différente (sauf si A = B).
Remarques :
• la notion de matrices semblables ne vaut que pour des matrices carrées.
• la relation «matrices semblables» est une relation d’équivalence sur Mn (K).
• Si deux matrices sont semblables, elles sont en particulier équivalentes. La réciproque est fausse,
car par exemple I2 et diag(1, 1) sont équivalentes car de rang 2 mais non semblables car la seule
matrice semblable à In est In .
6
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
Proposition 16 (Deux invariants de similitude) Si deux matrices sont semblables, alors elles
ont même trace et même déterminant. Les réciproques sont fausses.
Par exemple, la matrice nulle et la matrice élémentaire E1,2 ont une trace et un déterminant nul
mais ne sont pas semblables.
On étudiera en TD la description complète des classes de similitude de M2 (K). Le cas général est
très difficile, il repose essentiellement sur la classification des matrices nilpotentes, que l’on étudiera
toutefois en exercice pour M3 (K).
4
Matrices d’opérations élémentaires, application au calcul de rang
Soit i et j deux entiers distincts de {1, . . . , n} et λ ∈ K.
On appelle opération élémentaire sur les lignes d’une matrice :
• ajouter à la ligne i la ligne j, codée par Li ← Li + λLj
• multiplier la ligne i par un scalaire λ non nul, codée par Li ← λLi
• permuter les lignes i et j, codée par Li ↔ Lj
On définit de même les opérations élémentaires sur les colonnes d’une matrice.
Les opérations élémentaires sont inversibles, l’inverse des précédentes étant respectivement :
Li ← Li − λLj
Li ←
1
Li
λ
Li ↔ Lj
Effectuer ces opérations élémentaires sur une matrice A revient à multiplier A par des matrices.
• On note Ti,j (λ) la matrice obtenue à partir de In en ajoutant à la ligne i, λ fois la ligne j.
On dit que Ti,j (λ) est une matrice de transvection.
• On note Di (λ) la matrice obtenue à partir de In en multipliant la ligne i par λ.
Lorsque λ est non nul, on dit que Di (λ) est une matrice de dilatation.
• On note Pi,j la matrice obtenue à partir de In en permutant les lignes i et j. On dit que Pi,j est
une matrice de transposition.
Appliquer les opérations élémentaires Li ← Li + λLj , Li ← λLi et Li ↔ Lj à une matrice A
revient à multiplier A par la gauche par les matrices respectives Ti,j (λ), Di (λ) et Pi,j .
Appliquer les opérations élémentaires Ci ← Ci + λCj , Ci ← λCi et Ci ↔ Cj à une matrice A
revient à multiplier A par la droite par les matrices respectives Tj,i (λ), Di (λ) et Pi,j (attention, il n’y
a pas d’erreur c’est bien Tj,i (λ)).
Les opérations élémentaires étant inversibles, il en est de même de leur matrice associée, le tableau
ci-dessous le résume.
opération
Li ← Li + λLj Li ← λLi Li ↔ Lj
1
opération inverse Li ← Li − λLj Li ← Li Li ↔ Lj
λ
matrice
Ti,j (λ)
D
Pi,j
i (λ)
1
inverse matrice
Ti,j (−λ)
Di
Pi,j
λ
Puisque le rang d’une matrice n’est pas modifié si on la multiplie par une matrice inversible, on
en déduit
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
7
Proposition 17 Si l’on transforme une matrice par une opération élémentaire sur une ligne ou une
colonne, son rang n’est pas modifié.
On pourra donc appliquer l’algorithme du pivot de Gauss, pour transformer une matrice en une
matrice triangulaire ou échelonnée pour en calculer le rang.
Téléchargement