1 Applications linéaires, Morphismes, Endomorphismes

publicité
UT2J Département de Mathématiques et Informatique
Licence MIASHS 1
ère
emmanuel
1
bureau 1698
Année 2015-2016
année
Mathématiques S2 (MI005AX)
Extraits de cours Applications linéaires
tél : 05 61 50 48 93
[email protected]
www.math.univ-toulouse.fr/∼hallouin/eh-L1-S2-MIASHS.html
hallouin
Applications linéaires, Morphismes, Endomorphismes
1.1 Les applications linéaires et leur espace
Soient E E et F deux R-espaces vectoriels. Parmi les applications de E dans F , nous allons
nous intéresser plus particulièrement à celles qui respectent les structures d'espaces vectoriels.
Dénition 1.1 (Application linéaire). Soient E et F deux R-espaces vectoriels et u : E → F une
application. On dit que u est
ou que c'est un
si et seulement si :
linéaire
∀x, y ∈ E, ∀λ, µ ∈ R,
morphisme
u(λx + µy) = λu(x) + µu(y).
Lorsque E = F , un morphisme de E dans lui même s'appelle un
Exemples. endomorphisme.
1) Soient E et F deux espaces vectoriels alors l'application nulle, qui
à tout x ∈ E fait correspondre 0F le zéro de F , est une application linéaire (vérication
laissée au lecteur).
2) L'application x 7→ 2x est une application linéaire de R dans R. En revanche, l'application carrée, x 7→ x2 , n'en est pas une.
3) Pour x0 ∈ R, l'application d'évaluation evx0 : F(R, R) → R qui à une fonction f ∈
F(R, R) fait correspondre f (x0 ), sa valeur en x0 , est une application linéaire du R-espace
vectoriel F(R, R) vers le R-espace vectoriel R.
4) L'application de dérivation de R[X] → R[X] qui à un polynôme P fait correspondre
son polynôme dérivé P 0 est un endormorphisme de R[X].
Une application linéaire u : E → F envoie forcément le zéro de E sur le zéro de F : nécessairement u(0E ) = 0F . Pour le voir, il sut de remarquer que u(0E ) = u(0R · 0E ) = 0R · u(0E ) = 0F ,
où 0R désigne le zéro du corps R.
D'autre part, si u : E → F et v : E → F sont deux applications linéaires, on peut les ajouter,
c'est-à-dire considérer l'application u + v qui à x ∈ E associe u(x) + v(x). De la même façon
on peut multiplier u par un scalaire α ∈ R, c'est-à-dire considérer l'application αu qui à x ∈ E
associe αu(x). La notion de combinaison linéaire de u et v a donc un sens : il s'agit pour α, β ∈ R
de la fonction αu + βv , qui à x ∈ E fait correspondre l'élément αu(x) + βv(x). Nous pouvons donc
légitimement nous poser la question de savoir si une combinaison linéaire d'applications linéaires
est encore une application linéaire ?
Proposition 1.2. Soient E et F deux R-espaces vectoriels. L'ensemble des applications linéaires
de E dans F est lui même un R-espace vectoriel. Autrement dit, si u : E → F et v : E → F sont
toutes deux linéaires alors pour tous α, β ∈ R l'application αu + βv est encore linéaire.
Preuve A faire en exercice.
On note L(E, F ) l'espace vectoriel des applications linéaires de E dans F ; quand E = F ,
l'espace L(E, E) est abrégé L(E)
1
1.2 Noyau Image
Comme pour toutes les applications, on peut se poser la question de savoir si une application
linéaire est injective ou surjective. Dans le cas des applications linéaires, il est assez aisé de répondre
à ces questions.
Proposition 1.3. Soient u : E → F un morphisme de R-espaces vectoriels, et E 0 , F 0 des sousespaces vectoriels de E et F respectivement.
1. L'ensemble des images des éléments de E 0 , c'est-à-dire u(E 0 ) = {u(x), x ∈ E 0 }, est un
sous-espace vectoriel de F .
2. L'ensemble des antécédents des éléments de F 0 , c'est-à-dire u−1 (F 0 ) = {x ∈ E | u(x) ∈ F 0 },
est un sous-espace vectoriel de E .
Preuve A faire en exercice.
En particulier, l'image u(E) de l'espace vectoriel E lui même est un sous-espace vectoriel
de F ; de la même façon, l'image réciproque u−1 ({0F }) du sous-espace vectoriel nul de F est un
sous-espace vectoriel de E .
Dénition 1.4 (Noyau, Image). Soit u : E → F un morphisme entre R-espaces vectoriels.
1. On appelle
de u, et on note Im(u), le sous-espace vectoriel de F constitué des images
par u des éléments de E :
image
noyau
Im(u) = {u(x), x ∈ E}.
2. On appelle
de u, et on note Ker(u), le sous-espace vectoriel de E constitué des
antécédents par u du zéro de F :
Ker(u) = {x ∈ E | u(x) = 0F }.
Les deux sous-espaces vectoriels Im(u) et Ker(u) permettent de mesurer le caractère injectif
ou surjectif de l'application u.
Proposition 1.5. Soit u : E → F un morphisme de R-espaces vectoriels.
1. Il est
si et seulement si Im(u) = F .
2. Il est
si et seulement si Ker(u) = {0E }.
surjectif
injectif
Preuve Le premier point n'est ni plus ni moins que la dénition d'une surjection. Pour le
second point, raisonnons en deux temps. Supposons u est injective. Si x ∈ Ker(u) alors u(x) =
0F . D'autre part, on sait que u(0E ) = 0F donc u(x) = u(0E ). Puisque u est injective il en
résulte que x = 0E puis que Ker(u) = {0E }. Réciproquement, supposons que Ker(u) = {0E } et
considérons x, x0 ∈ E tels que u(x) = u(x0 ). Alors par linéarité, on a 0F = u(x) − u(x0 ) = u(x − x0 )
ou encore x − x0 ∈ Ker(u). Puisque ce dernier est réduit à 0E , on en déduit que x − x0 = 0E ou
encore x = x0 . L'injectivité est établie.
Une applications qui est à la fois injective et surjection est dite bijective. Pour une application
linéaire, la terminologie est la suivante :
Dénition 1.6 (Isomorphisme). Une application linéaire u : E → F entre espaces vectoriels qui
est bijective s'appelle un
entre E et F . Un endormorphisme u : E → E d'un
espace vectoriel E qui est bijectif s'appelle un
de E .
isomorphisme
isomorphisme
Deux espaces vectoriels entre lesquels il existe un isomorphisme sont dits isomorphes.
2
1.3 Images de familles libre ou génératrice par un morphisme
Soit u : E → F un morphisme entre espaces vectoriels. Considérons (ei )i une famille de E
que l'on suppose, au choix, libre ou génératrice. Que peut-on dire de la famille (u(ei ))i d'éléments
de F ? En fait pas grand chose sans aucune hypothèse. Pour s'en convaincre, il sut de penser à
l'application linéaire nulle qui à tout x ∈ E associe 0F le zéro de F . Dans ce cas la famille (u(ei ))i
est la famille dont tous les éléments sont nuls. Cette famille n'est jamais libre et pour ainsi dire
jamais génératrice (elle est génératrice si F = {0F } est l'espace vectoriel nul). En bref, l'image par
un morphisme d'une famille libre (respectivement génératrice) n'a aucune raison de rester libre
(respectivement génératrice). C'est parfois vrai mais il faut des hypothèses sur le morphisme en
question.
Proposition 1.7. Soient u : E → F une application linéaire entre R-espaces vectoriels
1. Si u est surjective, alors l'image d'une famille génératrice de E est une famille génératrice
de F .
2. Si u est injective, alors l'image d'une famille libre de E est une famille libre de F .
Preuve (i) Soit (ei )16i6n une famille génératrice de E . Montrons que la famille (u(ei ))16i6n
est une famille génératrice de F . Considérons y ∈ F . Puisque u est surjective, il existe x ∈ E tel
que u(x) = y . Comme (ei )16i6n est une famille génératrice de E , x est combinaison linéaire de ces
éléments : il existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · + λn en . Concernant y , on en déduit :
y = u(x)
= u(λ1 e1 + · · · + λn en )
= λ1 u(e1 ) + · · · + λn u(en ),
par linéarité de u. Sous cette dernière forme, on voit bien que y est combinaison linéaire des
éléments u(e1 ), . . . , u(en ). Cette famille est bien génératrice de F .
(ii) Soit (e1 , . . . , en ) une famille libre de E . Il faut montrer que la famille (u(e1 ), . . . , u(en )) est
une famille libre de F . Pour cela considérons une combinaison linéaire nulle de ces éléments :
0F = λ1 u(e1 ) + · · · + λn u(en ) = u(λ1 e1 + · · · + λn en ),
toujours par linéarité de u. Autrement dit λ1 e1 + · · · + λn en ∈ Ker(u). Comme u est injective, on
en déduit que λ1 e1 + · · · + λn en = 0E . La famille (e1 , . . . , en ) étant libre, cette combinaison linéaire
nulle est triviale, c'est-à-dire que λi = 0K pour tout i. C'est ce qu'il fallait montrer.
Le cas des isomorphismes est évidemment le plus favorable pour ce qui est de préserver les
caractères libre et générateur des familles.
Corollaire 1.8. Si u : E → F est un isomorphisme entre R-espaces vectoriels alors l'image par u
d'une base de E est une base de F .
Preuve Puisque u est un isomorphisme, u est à la fois injective et surjective. Soit (ei )16i6n
une base de E . Puisque u est injective, la famille (u(ei ))16i6n est libre. Puisque u est surjective,
la famille (u(ei ))16i6n est génératrice. Bilan la famille (u(ei ))16i6n est une base de F .
Même si la preuve du corollaire ci-dessous nécessite un théorème de la section suivante, j'ai
choisi de le faire gurer ici, car je le trouve en bonne compagnie dans cette section.
Corollaire 1.9. Pour que deux espaces vectoriels de dimensions nies soient isomorphes, il faut
et il sut qu'ils aient même dimension.
3
Preuve Soient E et F deux R-espaces vectoriels. Supposons qu'il existe un isomorphisme ϕ :
E → F . D'après le corollaire 1.8, l'image d'une base de E est une base de F . En particulier, E
et F admettent des bases ayant le même nombre d'éléments. Ils ont donc même dimension.
Réciproquement, supposons que E et F ont même dimension, disons n. Considérons (ei )16i6n
une base de E et (fi )16i6n une base de F . Arrive le moment tant attendu d'anticipation : d'après
le théorème 2.1, il existe une application linéaire u : E → F vériant u(ei ) = fi pour 1 6 i 6 n
(mieux cette application linéaire est même unique). Montrons que u est un isomorphisme en deux
temps.
• Prouvons que u est surjectif. Tout y ∈ F se décompose sur la base (fi )16i6n : il existe µ1 , . . . , µn ∈
R tels que :
y = µ1 f1 + · · · + µn fn = µ1 u(e1 ) + · · · + µn u(en ) = u(µ1 e1 + · · · + µn en ),
par linéarité. En particulier, posant x = µ1 e1 + · · · + µn en , on a y = u(x) d'où y ∈ Im(u).
Bref F = Im(u) et u est surjectif (proposition 1.5).
• Prouvons que u est injectif. Soit x ∈ Ker(u). Il se décompose sur la base (ei )16i6n : il
existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · λn en . Alors on a :
0F = u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ) = λ1 f1 + · · · + λn fn
par linéarité et dénition de u. On tient donc une combinaison linéaire nulle entre les fi . Comme
cette famille est libre, cette combinaison linéaire nulle est triviale, c'est-à-dire que les scalaires λi
sont nuls pour tous 1 6 i 6 n. Il s'ensuit que x = 0E , puis que Ker(u) = {0E } ou encore que u
est injective (proposition 1.5).
2
Le codage matriciel
Dans cette section nous allons faire intensément usage d'un objet mathématique que vous avez
découvert au semestre dernier : les matrices. Je rappelle qu'une matrice n'est ni plus ni moins qu'un
tableau de nombres à deux entrées. Plus précisément, si m et n sont des entiers supérieurs à 1,
une matrice de taille m × n est un tableau de nombres avec m lignes et n colonnes. Quand m = n,
la matrice est dite carrée de taille n. On note Mm,n (R) l'ensemble des matrices de taille m × n à
coecients dans R ; on abrège par Mn (R) l'ensemble des matrices carrées de taille n.
Vous avez déni la somme A+B de deux matrices de même taille ainsi que le produit A×B de
deux matrices quand le nombre de colonne de A est égal au nombre de lignes de B . En particulier,
on sait multiplier deux matrices carrées de même taille. Attention, ce produit n'est pas commutatif :
il se peut que A × B soit diérent de B × A. La matrice carrée de taille n avec des zéros partout
sauf sur la diagonale où gurent des 1, s'appelle la matrice identité de taille n ; on la note In . Pour
toute matrice M ∈ Mn (R), on a M × In = In × M = M . Une matrice carrée P ∈ Mn (R) est dite
inversible s'il existe Q ∈ Mn (R) telle que P × Q = Q × P = In . La matrice Q s'appelle l'inverse
de P . On la note parfois P −1 . Au semestre dernier, vous avez aussi appris à calculer l'inverse d'une
matrice carrée de taille 2, 3, voire 4.
2.1 Matrice d'une application linéaire
Un joli refrain à retenir : toute application linéaire entre espaces vectoriels est entièrement
dénie par l'image d'une base de l'espace de départ. Autrement dit, dès lors que l'on connaît les
images des éléments d'une base du départ, on connaît l'application en tout point.
Exemple. Soit d : R[X] → R[X] l'application dérivée dénie par P (X) 7−→ P (X). Elle
0
est entièrement déterminée par la dérivé des monômes X n : d(1) = 0 et d(X n ) = nX n−1
pour tout n > 1.
4
Plus précisément et plus formellement, cela donne :
Théorème 2.1. Soient E et F deux R-espaces vectoriels. On se xe (ej )16j6n une base de E .
1. Toute application linéaire u : E → F est entièrement déterminée par ses valeurs en chacun
des ej , à savoir les u(ej ) pour 1 6 j 6 n.
2. Inversement, étant donnée (yj )16j6n une famille d'éléments de F (avec autant d'éléments
que la base de départ), il existe une unique application linéaire u : E → F vériant u(ej ) =
yj pour tous 1 6 j 6 n.
Preuve (i) Supposons que l'on connaisse les images u(ei ). Alors pour calculer l'image de x ∈ E
par u, il sut de décomposer x sur la base (e1 , . . . , en ) :
x = λ1 e1 + · · · + λn en ,
λi ∈ R.
Ensuite, par linéarité, on a :
u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ),
ce qui montre bien que u(x) s'exprime entièrement en fonction des u(ei ).
(ii) Inversement, partant de y1 , . . . , yn ∈ E alors on dénit u en posant :
u(x) = u(λ1 e1 + · · · + λn en ) = λ1 y1 + · · · + λn yn .
C'est l'application linéaire cherchée.
Poussons encore un petit peu plus loin la logique du théorème précédent. Notons B = (ej )16j6n
la base de l'espace de départ E et considérons C = (fi )16i6m une base de l'espace d'arrivé F . Les
images u(ej ), qui susent à la connaissance de u, sont elles mêmes entièrement déterminées par
leurs coordonnées respectives sur la base (fi )16i6m . Pour chaque 1 6 j 6 n, il existe a1,j , . . . , am,j ∈
R uniques tels que :
u(ej ) = a1,j f1 + · · · + am,j fm =
m
X
ai,j fi .
i=1
L'application u est donc entièrement déterminée par n × m = dim(E) × dim(F ) scalaires de R,
les ai,j . On a coutume de résumer toutes ces informations dans le tableau :
 u(e1 ) u(e2 ) . . .
f1
a1,1
a1,2 · · ·

f2  a2,1
a2,2 · · ·
Mat (u, B, C) = Mat (u, (ei ), (fj )) =
 ..
..
...
 .
.
fm am,1 am,2 · · ·
déf.
u(en ) 
a1,n
a2,n 

.. 
. 
am,n
qui comporte autant de colonnes que la dimension de l'espace de départ, ici n, et autant de lignes
que la dimension de l'espace d'arrivée, ici m. La règle de remplissage des m × n cases est la
suivante : dans la case ai,j , à l'intersection de la i-ème ligne et de la j -ème colonne gure la
coordonnée en fi de l'image u(ej ).
Dénition 2.2. Soit u : E → F une application linéaire entre R-espaces vectoriels. Étant données B une base de E et C une base de F , la matrice Mat(u, B, C) précédente s'appelle la
de l'application u dans les bases B et C .
matrice
Évidemment, si on change de base, à l'arrivée et/ou au départ, la matrice s'en retrouve modiée.
Pour autant, l'application u, elle, reste inchangée. Il est important de savoir construire ou dresser
la matrice d'une application linéaire dans deux bases xées.
5
Exemples. 1) Plaçons nous dans R . Soit (e , e ) la base canonique et (e , e ) une autre
2
1
0
1
2
0
2
base donnée par e01 = e1 + e2 , e02 = e1 + 2e2 . Soit u : R2 → R2 dénie par u(e1 ) = 3e1 + e2
et u(e2 ) = −e1 + 2e2 . Alors on a :
Mat(u, (e1 , e2 )) =
e1
e2
u(e1 ) u(e2 )
3
−1
1
2
On remarque que e1 = 2e01 − e02 et que e2 = e02 − e01 . Ainsi :
u(e1 ) = 3e1 + e2 = 3(2e01 − e02 ) + (e02 − e01 ) = 5e01 − 2e02
u(e2 ) = −e1 + 2e2 = −(2e01 − e02 ) + 2(e02 − e01 ) = −4e01 + 3e02
si bien que :
Mat(u, (e1 , e2 ), (e01 , e02 )) =
e01
e02
u(e1 ) u(e2 )
5
−4
−2
3
2) Plaçons nous dans R2 [X] l'espace vectoriel des polynômes de degré 6 2 et considérons d : R2 [X] → R2 [X] l'application linéaire dénie par d(P ) = P 0 . Dans la base
canonique (1, X, X 2 ), on a :
d(1) d(X) d(X 2 )

1
0
1
0
0
2 .
Mat(d, (1, X, X 2 )) = X  0
2
X
0
0
0

Cette façon concise de coder une application linéaire permet aussi de facilement calculer l'image
de n'importe quel élément de E . Partons de x ∈ E écrit dans la base (ei ), c'est-à-dire :
x = λ1 e1 + · · · + λn en ,
où λ1 , . . . , λn ∈ R désignent les coordonnées de x sur la base (ei ). Introduisons µ1 , . . . , µm les
coordonnées de l'image u(x) sur la base (fj ), c'est-à-dire :
u(x) = µ1 f1 + · · · + µm fm .
Alors, on a :
u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en )



 
  
a1,1
a1,n
λ1 a1,1 + · · · + λn a1,n
µ1
 .. 
 ..  


.
. 
..
= λ1  .  + · · · + λn  .  = 
 =  .. 
am,1
am,n
λ1 am,1 + · · · + λn am,n
µm
En termes de produits de matrices, cela peut de ré-écrire :

    
a1,1 a1,2 · · · a1,n
λ1
µ1
 a2,1 a2,2 · · · a2,n   λ2   µ2 

    
 ..
..
..  ×  ..  =  .. 
.
.
 .
.
.
.  .  . 
am,1 am,2 · · · am,n
λn
µm
Si u : E → F et v : E → F sont deux applications linéaires et si α, β ∈ R sont des scalaires,
alors on sait que l'application αu + βv est encore linéaire. Je laisse le soin au lecteur de vérier
que sa matrice dans les bases B et C vérie :
Mat(αu + βv, B, C) = α Mat(u, B, C) + β Mat(v, B, C) ;
autrement dit, la matrice d'une combinaison linéaire d'applications est la combinaison linéaire des
matrices de ces applications. Plus formellement, on peut énoncer la :
6
Proposition 2.3. Soient E et F deux espaces vectoriels de dimension nie. Notons n = dim(E),
m = dim(F ) et xons B = (ej )16j6n une base de E et C = (fi )16i6m une base de F . Alors
l'application :
L(E, F ) −→
Mm,n (R)
u
7−→ Mat(u, B, C)
est un isomorphisme de R-espaces vectoriels.
Preuve Le fait que cette application soit linéaire résulte de la vérication laissée au lecteur
précédant cette proposition.
La surjectivité et l'injectivité résultent du deuxième point du théorème 2.1. En eet, si M =
(ai,j ) ∈ Mm,n (R) est une matrice de taille m × n, appelons y1 , . . . , yn les n vecteurs colonnes de
cette matrice, vus comme des éléments de F écrits dans la base C :
∀1 6 j 6 n,
yj = a1,j f1 + · · · + am,j fm =
m
X
ai,j fi .
i=1
D'après le théorème 2.1, il existe une unique application linéaire u telle que u(ej ) = yj pour
tous 1 6 j 6 n. Par dénition, on a M = Mat(u, B, C). Cela montre la surjectivité, mais aussi
l'injectivité par unicité.
Corollaire 2.4. Soient E et F deux espaces vectoriels de dimension nie. Alors l'espace vectoriel L(E, F ) des applications linéaires de E dans F est de dimension nie et dim(L(E, F )) =
dim(E) × dim(F ).
Preuve C'est une conséquence directe du corollaire 1.8, de l'isomorphisme de la proposition
précédente, et du fait que la base canonique de Mm,n (R) constituée des matrices élémentaires
compte exactement m × n éléments (autant que de case ou faire gurer l'unique 1 de la matrice
élémentaire).
Étant donnés E, F, G des espaces vectoriels, u ∈ L(E, F ) et v ∈ L(F, G), on est en mesure de
composer u et v : on obtient l'application linéaire v ◦ u qui appartient à L(E, G). Dans le même
genre d'idées, on peut eectuer le produit M × N de deux matrices M et N pour peu que M
compte autant de colonnes que N de lignes.
Proposition 2.5 (Matrice d'une composition). Soient u : E → F et v : F → G deux applications
linéaires entre espaces vectoriels. Considérons B, C et D des bases de E, F et G respectivement.
Alors on a :
Mat(v ◦ u, B, D) = Mat(v, C, D) × Mat(u, B, C).
Preuve Le vérier seul en se restreignant par exemple au cas où dim(E) = dim(F ) = dim(G) =
3.
Corollaire 2.6 (Matrice de l'inverse). Soient u : E → F un isomorphisme entre deux espaces
vectoriels. Considérons B une base de E et C une base de F . L'inverse de u, noté u−1 , est un
isomorphisme de F dans E et on a :
Mat(u−1 , C, B) = Mat(u, B, C)−1 .
Preuve En appliquant la proposition précédente au cas particulier où v = u−1 , G = E
et D = B, et en remarquant que u ◦ u−1 = id, on obtient :
Mat(id, B, B) = Mat(u, B, C) × Mat(u−1 , C, B).
Comme Mat(id, B, B) n'est rien d'autre que la matrice identité (de taille dim(E) = dim F ), on a
bien montré ce qu'il fallait.
7
Quand un seul espace vectoriel est en jeu, la combinaison des propositions 2.3 et 2.5 prennent
une nouvelle saveur. Soit E un R-espace vectoriel de dimension n. Alors l'espace L(E) est muni
de trois lois : la somme, le produit par un scalaire et la composition. Muni de ces trois lois, on dit
que (L(E), +, ·, ◦) est une R-algèbre. De la même façon, pour ce qui est des matrices de Mn (R),
on peut les ajouter, les multiplier par un scalaire, mais aussi les multiplier entre elles. Muni
de ces trois lois, (Mn (R), +, ·, ×), est encore une R-algèbre. Dans ce cadre là, l'isomorphisme
de la proposition 2.3, est en fait un isomorphisme d'algèbres, c'est-à-dire qu'il satisfait aussi la
proposition suivante.
Corollaire 2.7. Soient E un R-espace vectoriel de dimension nie n dont on xe B = (ej )16j6n
une base. Alors l'application :
L(E) −→ Mn (R)
u
7−→ Mat(u, B)
est un isomorphisme de R-algèbres, c'est-à-dire qu'elle vérie :
Mat(αu + βv, B) = α Mat(u, B) + β Mat(v, B) et
Mat(u ◦ v, B) = Mat(u, B) × Mat(v, B)
pour tous u, v ∈ L(E) et tous α, β ∈ R.
2.2 Changement de base
Il faut bien garder à l'esprit que la matrice d'une application linéaire est une représentation
de celle-ci qui dépend du choix des bases au départ et à l'arrivée. Il est utile de savoir passer d'une
représentation à une autre. Connaissant la matrice d'un morphisme dressée dans deux bases, il
faut savoir déterminer celle du même morphisme dans deux autres bases. Nous allons nous limiter
au cas des endomorphismes avec la même base au départ et à l'arrivée.
Plus précisément, on se place dans un R-espace vectoriel E dont on considère deux bases B
et B0 . Pour u : E → E un endomorphisme, le but de cette section est de déterminer le lien entre
les matrices de u dressées dans les bases B et B0 . Cela nécessite l'introduction des matrices de
passage.
Dénition 2.8 (Matrice de passage). Soit E un espace vectoriel dont on considère deux bases B =
(ei )16i6n et B 0 = (e0j )16j6n . On appelle
de B à B0 la matrice carrée n×n dont
la j -ème colonne est constituée des coordonnées de e0j dans la base B = (ei )16i6n . On la note PB,B0 .
matrice de passage
La construction de la matrice de passage PB,B0 repose donc sur la connaissance des coordonnées,
sur la base B, des éléments de la base B0 . Si pour chaque 1 6 j 6 n, on a :
e0j = λ1,j e1 + · · · + λn,j en ,
alors :
PB,B0
0
e02
 e1
λ1,1 λ1,2
 λ2,1 λ2,2
=
 ..
..
 .
.
λn,1 λn,2
λi,j ∈ R
. . . e0n 
. . . λ1,n e1
. . . λ2,n 
 e2
..  ..
...
.  .
. . . λn,n en
Exemples. 1) Dans R , si B est la base canonique et si B = (( ) , (
0
2
PB,B0
1 −1
=
2 3
et PB0 ,B =
8
3
5
− 25
1
5
1
5
=
1
5
1
2
, alors :
−1
3 ))
3 1
.
−2 1
La première matrice ne nécessite aucun calcul, la seconde résulte des égalités :
1
1
−1
3
2
=5
−5
0
2
3
0
1
−1
1
1
=5
+5
.
1
2
3
2) Dans R2 [X] le R-espace vectoriel constitué des polynômes à coecients réels de
degré 6 2, considérons les bases B = (X i )06i62 et B0 = ((X − 1)i )06i62 . Alors :
(
X − 1 = (−1) × 1 + 1 × X
(X − 1)2 = 1 × 1 + (−2) × X + 1 × X 2
=⇒
PB,B0
1
1
= 
0
0
(X − 1)
−1
1
0
(X − 1)2

1 1
−2 X
1 X2
et :
2
(
X = 1 × 1 + 1 × (X − 1)
X 2 = 1 × 1 + 2 × (X − 1) + 1 × (X − 1)2
=⇒
PB0 ,B
 1 X X
1 1 1
1
= 
0 1 2 (X − 1)
0 0 1 (X − 1)2
La matrice de passage PB,B0 est la matrice qui mange le vecteur des coordonnées d'un élément
de E écrit dans
base B0 0et!retourne le vecteur des coordonnées de ce même élément mais dans
λla
λ1
1
.
la base B. Si .. et ... sont les coordonnées de x ∈ E dans les bases B et B0 , c'est-à-dire
λn
λ0n
si :
x = λ1 e1 + · · · + λn en = λ01 e01 + · · · + λ0n e0n ,
alors on a :
λ01
PB,B0 ×
..
.0
!
λ1 =
λn
..
.
.
λn
Plus formellement et par dénition, la matrice de passage de B à B0 est aussi la matrice d'une
application linéaire : celle de l'identité IdE : E → E avec B0 comme base au départ et B comme
base à l'arrivée :
PB,B0 = Mat(IdE , B 0 , B)
Compte tenu de la proposition 2.5, en composant l'identité IdE avec elle même et en choisissant
comme bases B0 puis B puis encore B0 , on en déduit que :
Mat(IdE , B 0 , B 0 ) = Mat(IdE , B, B 0 ) × Mat(IdE , B 0 , B)
⇐⇒
In = PB0 ,B × PB,B0 ,
où In désigne la matrice identité de taille n. Évidemment, on obtient de même, en échangeant les
rôles de B et B0 , que In = PB,B0 × PB0 ,B . Les matrices PB,B0 et PB0 ,B sont donc inverses l'une de
l'autre.
En bref, les matrices de passage permettent de passer d'une écriture sur une base à une
écriture sur une autre base. C'est donc tout naturellement qu'elles interviennent dans les formules
de changement de bases pour une application linéaire.
Proposition 2.9. Soient E un R-espace vectoriel, u : E → E un endomorphisme et B, B0 deux
bases de E . Alors les matrices de u dans les bases B et B0 sont reliées par :
−1
Mat(u, B 0 ) = PB0 ,B × Mat(u, B) × PB,B0 = PB,B
0 × Mat(u, B) × PB,B 0 .
9
Preuve Cette formule résulte de la proposition 2.5 appliquée à la composition des applications
linéaires suivantes écrites dans les bases spéciées à chaque étapes :
Id
Id
u
E
E
(E, B 0 ) −→
(E, B) −→ (E, B) −→
(E, B 0 )
En eet, on part d'un élément de E écrit dans la base B0 , on ne le change pas mais on l'écrit dans
la base B ; ensuite on calcul son image par u toujours dans la base B ; enn, on ne change pas
cette image mais on l'écrit dans la base B0 .
Exemple. Plaçons nous dans R
muni de sa base canonique B = (( 10 ) , ( 01 )). Soit u :
0
1 2
R → R l'application linéaires dénie par Mat(u, B) = ( −1
3 ). Considérons la base B =
2
(( 12 ) , ( −1
3 )) de R gurant dans l'exemple suivant la dénition 2.8. Alors :
2
2
2
Mat(u, B 0 ) = PB0 ,B Mat(u, B)PB,B0 =
3
5
− 25
1
5
1
5
1 2
1 −1
4 5
× ( −1
3 ) × ( 2 3 ) = ( −1 0 ) .
Dans ce contexte, on utilise la terminologie suivante :
Dénition 2.10 (Matrices semblables). Deux matrices M, N ∈ Mn (K) sont dites
et seulement s'il existe P ∈ Mn (K) inversible telle que N = P M P −1 .
semblables si
Compte tenu du début de cette section deux matrices sont semblables si et seulement si elles
représentent un même endomorphisme mais dans des bases (éventuellement) diérentes. Cette
relation sur les matrices sera étudiée plus en détail en deuxième année.
10
Téléchargement