UT2J Département de Mathématiques et Informatique Licence MIASHS 1 ère emmanuel 1 bureau 1698 Année 2015-2016 année Mathématiques S2 (MI005AX) Extraits de cours Applications linéaires tél : 05 61 50 48 93 [email protected] www.math.univ-toulouse.fr/∼hallouin/eh-L1-S2-MIASHS.html hallouin Applications linéaires, Morphismes, Endomorphismes 1.1 Les applications linéaires et leur espace Soient E E et F deux R-espaces vectoriels. Parmi les applications de E dans F , nous allons nous intéresser plus particulièrement à celles qui respectent les structures d'espaces vectoriels. Dénition 1.1 (Application linéaire). Soient E et F deux R-espaces vectoriels et u : E → F une application. On dit que u est ou que c'est un si et seulement si : linéaire ∀x, y ∈ E, ∀λ, µ ∈ R, morphisme u(λx + µy) = λu(x) + µu(y). Lorsque E = F , un morphisme de E dans lui même s'appelle un Exemples. endomorphisme. 1) Soient E et F deux espaces vectoriels alors l'application nulle, qui à tout x ∈ E fait correspondre 0F le zéro de F , est une application linéaire (vérication laissée au lecteur). 2) L'application x 7→ 2x est une application linéaire de R dans R. En revanche, l'application carrée, x 7→ x2 , n'en est pas une. 3) Pour x0 ∈ R, l'application d'évaluation evx0 : F(R, R) → R qui à une fonction f ∈ F(R, R) fait correspondre f (x0 ), sa valeur en x0 , est une application linéaire du R-espace vectoriel F(R, R) vers le R-espace vectoriel R. 4) L'application de dérivation de R[X] → R[X] qui à un polynôme P fait correspondre son polynôme dérivé P 0 est un endormorphisme de R[X]. Une application linéaire u : E → F envoie forcément le zéro de E sur le zéro de F : nécessairement u(0E ) = 0F . Pour le voir, il sut de remarquer que u(0E ) = u(0R · 0E ) = 0R · u(0E ) = 0F , où 0R désigne le zéro du corps R. D'autre part, si u : E → F et v : E → F sont deux applications linéaires, on peut les ajouter, c'est-à-dire considérer l'application u + v qui à x ∈ E associe u(x) + v(x). De la même façon on peut multiplier u par un scalaire α ∈ R, c'est-à-dire considérer l'application αu qui à x ∈ E associe αu(x). La notion de combinaison linéaire de u et v a donc un sens : il s'agit pour α, β ∈ R de la fonction αu + βv , qui à x ∈ E fait correspondre l'élément αu(x) + βv(x). Nous pouvons donc légitimement nous poser la question de savoir si une combinaison linéaire d'applications linéaires est encore une application linéaire ? Proposition 1.2. Soient E et F deux R-espaces vectoriels. L'ensemble des applications linéaires de E dans F est lui même un R-espace vectoriel. Autrement dit, si u : E → F et v : E → F sont toutes deux linéaires alors pour tous α, β ∈ R l'application αu + βv est encore linéaire. Preuve A faire en exercice. On note L(E, F ) l'espace vectoriel des applications linéaires de E dans F ; quand E = F , l'espace L(E, E) est abrégé L(E) 1 1.2 Noyau Image Comme pour toutes les applications, on peut se poser la question de savoir si une application linéaire est injective ou surjective. Dans le cas des applications linéaires, il est assez aisé de répondre à ces questions. Proposition 1.3. Soient u : E → F un morphisme de R-espaces vectoriels, et E 0 , F 0 des sousespaces vectoriels de E et F respectivement. 1. L'ensemble des images des éléments de E 0 , c'est-à-dire u(E 0 ) = {u(x), x ∈ E 0 }, est un sous-espace vectoriel de F . 2. L'ensemble des antécédents des éléments de F 0 , c'est-à-dire u−1 (F 0 ) = {x ∈ E | u(x) ∈ F 0 }, est un sous-espace vectoriel de E . Preuve A faire en exercice. En particulier, l'image u(E) de l'espace vectoriel E lui même est un sous-espace vectoriel de F ; de la même façon, l'image réciproque u−1 ({0F }) du sous-espace vectoriel nul de F est un sous-espace vectoriel de E . Dénition 1.4 (Noyau, Image). Soit u : E → F un morphisme entre R-espaces vectoriels. 1. On appelle de u, et on note Im(u), le sous-espace vectoriel de F constitué des images par u des éléments de E : image noyau Im(u) = {u(x), x ∈ E}. 2. On appelle de u, et on note Ker(u), le sous-espace vectoriel de E constitué des antécédents par u du zéro de F : Ker(u) = {x ∈ E | u(x) = 0F }. Les deux sous-espaces vectoriels Im(u) et Ker(u) permettent de mesurer le caractère injectif ou surjectif de l'application u. Proposition 1.5. Soit u : E → F un morphisme de R-espaces vectoriels. 1. Il est si et seulement si Im(u) = F . 2. Il est si et seulement si Ker(u) = {0E }. surjectif injectif Preuve Le premier point n'est ni plus ni moins que la dénition d'une surjection. Pour le second point, raisonnons en deux temps. Supposons u est injective. Si x ∈ Ker(u) alors u(x) = 0F . D'autre part, on sait que u(0E ) = 0F donc u(x) = u(0E ). Puisque u est injective il en résulte que x = 0E puis que Ker(u) = {0E }. Réciproquement, supposons que Ker(u) = {0E } et considérons x, x0 ∈ E tels que u(x) = u(x0 ). Alors par linéarité, on a 0F = u(x) − u(x0 ) = u(x − x0 ) ou encore x − x0 ∈ Ker(u). Puisque ce dernier est réduit à 0E , on en déduit que x − x0 = 0E ou encore x = x0 . L'injectivité est établie. Une applications qui est à la fois injective et surjection est dite bijective. Pour une application linéaire, la terminologie est la suivante : Dénition 1.6 (Isomorphisme). Une application linéaire u : E → F entre espaces vectoriels qui est bijective s'appelle un entre E et F . Un endormorphisme u : E → E d'un espace vectoriel E qui est bijectif s'appelle un de E . isomorphisme isomorphisme Deux espaces vectoriels entre lesquels il existe un isomorphisme sont dits isomorphes. 2 1.3 Images de familles libre ou génératrice par un morphisme Soit u : E → F un morphisme entre espaces vectoriels. Considérons (ei )i une famille de E que l'on suppose, au choix, libre ou génératrice. Que peut-on dire de la famille (u(ei ))i d'éléments de F ? En fait pas grand chose sans aucune hypothèse. Pour s'en convaincre, il sut de penser à l'application linéaire nulle qui à tout x ∈ E associe 0F le zéro de F . Dans ce cas la famille (u(ei ))i est la famille dont tous les éléments sont nuls. Cette famille n'est jamais libre et pour ainsi dire jamais génératrice (elle est génératrice si F = {0F } est l'espace vectoriel nul). En bref, l'image par un morphisme d'une famille libre (respectivement génératrice) n'a aucune raison de rester libre (respectivement génératrice). C'est parfois vrai mais il faut des hypothèses sur le morphisme en question. Proposition 1.7. Soient u : E → F une application linéaire entre R-espaces vectoriels 1. Si u est surjective, alors l'image d'une famille génératrice de E est une famille génératrice de F . 2. Si u est injective, alors l'image d'une famille libre de E est une famille libre de F . Preuve (i) Soit (ei )16i6n une famille génératrice de E . Montrons que la famille (u(ei ))16i6n est une famille génératrice de F . Considérons y ∈ F . Puisque u est surjective, il existe x ∈ E tel que u(x) = y . Comme (ei )16i6n est une famille génératrice de E , x est combinaison linéaire de ces éléments : il existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · + λn en . Concernant y , on en déduit : y = u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ), par linéarité de u. Sous cette dernière forme, on voit bien que y est combinaison linéaire des éléments u(e1 ), . . . , u(en ). Cette famille est bien génératrice de F . (ii) Soit (e1 , . . . , en ) une famille libre de E . Il faut montrer que la famille (u(e1 ), . . . , u(en )) est une famille libre de F . Pour cela considérons une combinaison linéaire nulle de ces éléments : 0F = λ1 u(e1 ) + · · · + λn u(en ) = u(λ1 e1 + · · · + λn en ), toujours par linéarité de u. Autrement dit λ1 e1 + · · · + λn en ∈ Ker(u). Comme u est injective, on en déduit que λ1 e1 + · · · + λn en = 0E . La famille (e1 , . . . , en ) étant libre, cette combinaison linéaire nulle est triviale, c'est-à-dire que λi = 0K pour tout i. C'est ce qu'il fallait montrer. Le cas des isomorphismes est évidemment le plus favorable pour ce qui est de préserver les caractères libre et générateur des familles. Corollaire 1.8. Si u : E → F est un isomorphisme entre R-espaces vectoriels alors l'image par u d'une base de E est une base de F . Preuve Puisque u est un isomorphisme, u est à la fois injective et surjective. Soit (ei )16i6n une base de E . Puisque u est injective, la famille (u(ei ))16i6n est libre. Puisque u est surjective, la famille (u(ei ))16i6n est génératrice. Bilan la famille (u(ei ))16i6n est une base de F . Même si la preuve du corollaire ci-dessous nécessite un théorème de la section suivante, j'ai choisi de le faire gurer ici, car je le trouve en bonne compagnie dans cette section. Corollaire 1.9. Pour que deux espaces vectoriels de dimensions nies soient isomorphes, il faut et il sut qu'ils aient même dimension. 3 Preuve Soient E et F deux R-espaces vectoriels. Supposons qu'il existe un isomorphisme ϕ : E → F . D'après le corollaire 1.8, l'image d'une base de E est une base de F . En particulier, E et F admettent des bases ayant le même nombre d'éléments. Ils ont donc même dimension. Réciproquement, supposons que E et F ont même dimension, disons n. Considérons (ei )16i6n une base de E et (fi )16i6n une base de F . Arrive le moment tant attendu d'anticipation : d'après le théorème 2.1, il existe une application linéaire u : E → F vériant u(ei ) = fi pour 1 6 i 6 n (mieux cette application linéaire est même unique). Montrons que u est un isomorphisme en deux temps. • Prouvons que u est surjectif. Tout y ∈ F se décompose sur la base (fi )16i6n : il existe µ1 , . . . , µn ∈ R tels que : y = µ1 f1 + · · · + µn fn = µ1 u(e1 ) + · · · + µn u(en ) = u(µ1 e1 + · · · + µn en ), par linéarité. En particulier, posant x = µ1 e1 + · · · + µn en , on a y = u(x) d'où y ∈ Im(u). Bref F = Im(u) et u est surjectif (proposition 1.5). • Prouvons que u est injectif. Soit x ∈ Ker(u). Il se décompose sur la base (ei )16i6n : il existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · λn en . Alors on a : 0F = u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ) = λ1 f1 + · · · + λn fn par linéarité et dénition de u. On tient donc une combinaison linéaire nulle entre les fi . Comme cette famille est libre, cette combinaison linéaire nulle est triviale, c'est-à-dire que les scalaires λi sont nuls pour tous 1 6 i 6 n. Il s'ensuit que x = 0E , puis que Ker(u) = {0E } ou encore que u est injective (proposition 1.5). 2 Le codage matriciel Dans cette section nous allons faire intensément usage d'un objet mathématique que vous avez découvert au semestre dernier : les matrices. Je rappelle qu'une matrice n'est ni plus ni moins qu'un tableau de nombres à deux entrées. Plus précisément, si m et n sont des entiers supérieurs à 1, une matrice de taille m × n est un tableau de nombres avec m lignes et n colonnes. Quand m = n, la matrice est dite carrée de taille n. On note Mm,n (R) l'ensemble des matrices de taille m × n à coecients dans R ; on abrège par Mn (R) l'ensemble des matrices carrées de taille n. Vous avez déni la somme A+B de deux matrices de même taille ainsi que le produit A×B de deux matrices quand le nombre de colonne de A est égal au nombre de lignes de B . En particulier, on sait multiplier deux matrices carrées de même taille. Attention, ce produit n'est pas commutatif : il se peut que A × B soit diérent de B × A. La matrice carrée de taille n avec des zéros partout sauf sur la diagonale où gurent des 1, s'appelle la matrice identité de taille n ; on la note In . Pour toute matrice M ∈ Mn (R), on a M × In = In × M = M . Une matrice carrée P ∈ Mn (R) est dite inversible s'il existe Q ∈ Mn (R) telle que P × Q = Q × P = In . La matrice Q s'appelle l'inverse de P . On la note parfois P −1 . Au semestre dernier, vous avez aussi appris à calculer l'inverse d'une matrice carrée de taille 2, 3, voire 4. 2.1 Matrice d'une application linéaire Un joli refrain à retenir : toute application linéaire entre espaces vectoriels est entièrement dénie par l'image d'une base de l'espace de départ. Autrement dit, dès lors que l'on connaît les images des éléments d'une base du départ, on connaît l'application en tout point. Exemple. Soit d : R[X] → R[X] l'application dérivée dénie par P (X) 7−→ P (X). Elle 0 est entièrement déterminée par la dérivé des monômes X n : d(1) = 0 et d(X n ) = nX n−1 pour tout n > 1. 4 Plus précisément et plus formellement, cela donne : Théorème 2.1. Soient E et F deux R-espaces vectoriels. On se xe (ej )16j6n une base de E . 1. Toute application linéaire u : E → F est entièrement déterminée par ses valeurs en chacun des ej , à savoir les u(ej ) pour 1 6 j 6 n. 2. Inversement, étant donnée (yj )16j6n une famille d'éléments de F (avec autant d'éléments que la base de départ), il existe une unique application linéaire u : E → F vériant u(ej ) = yj pour tous 1 6 j 6 n. Preuve (i) Supposons que l'on connaisse les images u(ei ). Alors pour calculer l'image de x ∈ E par u, il sut de décomposer x sur la base (e1 , . . . , en ) : x = λ1 e1 + · · · + λn en , λi ∈ R. Ensuite, par linéarité, on a : u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ), ce qui montre bien que u(x) s'exprime entièrement en fonction des u(ei ). (ii) Inversement, partant de y1 , . . . , yn ∈ E alors on dénit u en posant : u(x) = u(λ1 e1 + · · · + λn en ) = λ1 y1 + · · · + λn yn . C'est l'application linéaire cherchée. Poussons encore un petit peu plus loin la logique du théorème précédent. Notons B = (ej )16j6n la base de l'espace de départ E et considérons C = (fi )16i6m une base de l'espace d'arrivé F . Les images u(ej ), qui susent à la connaissance de u, sont elles mêmes entièrement déterminées par leurs coordonnées respectives sur la base (fi )16i6m . Pour chaque 1 6 j 6 n, il existe a1,j , . . . , am,j ∈ R uniques tels que : u(ej ) = a1,j f1 + · · · + am,j fm = m X ai,j fi . i=1 L'application u est donc entièrement déterminée par n × m = dim(E) × dim(F ) scalaires de R, les ai,j . On a coutume de résumer toutes ces informations dans le tableau : u(e1 ) u(e2 ) . . . f1 a1,1 a1,2 · · · f2 a2,1 a2,2 · · · Mat (u, B, C) = Mat (u, (ei ), (fj )) = .. .. ... . . fm am,1 am,2 · · · déf. u(en ) a1,n a2,n .. . am,n qui comporte autant de colonnes que la dimension de l'espace de départ, ici n, et autant de lignes que la dimension de l'espace d'arrivée, ici m. La règle de remplissage des m × n cases est la suivante : dans la case ai,j , à l'intersection de la i-ème ligne et de la j -ème colonne gure la coordonnée en fi de l'image u(ej ). Dénition 2.2. Soit u : E → F une application linéaire entre R-espaces vectoriels. Étant données B une base de E et C une base de F , la matrice Mat(u, B, C) précédente s'appelle la de l'application u dans les bases B et C . matrice Évidemment, si on change de base, à l'arrivée et/ou au départ, la matrice s'en retrouve modiée. Pour autant, l'application u, elle, reste inchangée. Il est important de savoir construire ou dresser la matrice d'une application linéaire dans deux bases xées. 5 Exemples. 1) Plaçons nous dans R . Soit (e , e ) la base canonique et (e , e ) une autre 2 1 0 1 2 0 2 base donnée par e01 = e1 + e2 , e02 = e1 + 2e2 . Soit u : R2 → R2 dénie par u(e1 ) = 3e1 + e2 et u(e2 ) = −e1 + 2e2 . Alors on a : Mat(u, (e1 , e2 )) = e1 e2 u(e1 ) u(e2 ) 3 −1 1 2 On remarque que e1 = 2e01 − e02 et que e2 = e02 − e01 . Ainsi : u(e1 ) = 3e1 + e2 = 3(2e01 − e02 ) + (e02 − e01 ) = 5e01 − 2e02 u(e2 ) = −e1 + 2e2 = −(2e01 − e02 ) + 2(e02 − e01 ) = −4e01 + 3e02 si bien que : Mat(u, (e1 , e2 ), (e01 , e02 )) = e01 e02 u(e1 ) u(e2 ) 5 −4 −2 3 2) Plaçons nous dans R2 [X] l'espace vectoriel des polynômes de degré 6 2 et considérons d : R2 [X] → R2 [X] l'application linéaire dénie par d(P ) = P 0 . Dans la base canonique (1, X, X 2 ), on a : d(1) d(X) d(X 2 ) 1 0 1 0 0 2 . Mat(d, (1, X, X 2 )) = X 0 2 X 0 0 0 Cette façon concise de coder une application linéaire permet aussi de facilement calculer l'image de n'importe quel élément de E . Partons de x ∈ E écrit dans la base (ei ), c'est-à-dire : x = λ1 e1 + · · · + λn en , où λ1 , . . . , λn ∈ R désignent les coordonnées de x sur la base (ei ). Introduisons µ1 , . . . , µm les coordonnées de l'image u(x) sur la base (fj ), c'est-à-dire : u(x) = µ1 f1 + · · · + µm fm . Alors, on a : u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ) a1,1 a1,n λ1 a1,1 + · · · + λn a1,n µ1 .. .. . . .. = λ1 . + · · · + λn . = = .. am,1 am,n λ1 am,1 + · · · + λn am,n µm En termes de produits de matrices, cela peut de ré-écrire : a1,1 a1,2 · · · a1,n λ1 µ1 a2,1 a2,2 · · · a2,n λ2 µ2 .. .. .. × .. = .. . . . . . . . . am,1 am,2 · · · am,n λn µm Si u : E → F et v : E → F sont deux applications linéaires et si α, β ∈ R sont des scalaires, alors on sait que l'application αu + βv est encore linéaire. Je laisse le soin au lecteur de vérier que sa matrice dans les bases B et C vérie : Mat(αu + βv, B, C) = α Mat(u, B, C) + β Mat(v, B, C) ; autrement dit, la matrice d'une combinaison linéaire d'applications est la combinaison linéaire des matrices de ces applications. Plus formellement, on peut énoncer la : 6 Proposition 2.3. Soient E et F deux espaces vectoriels de dimension nie. Notons n = dim(E), m = dim(F ) et xons B = (ej )16j6n une base de E et C = (fi )16i6m une base de F . Alors l'application : L(E, F ) −→ Mm,n (R) u 7−→ Mat(u, B, C) est un isomorphisme de R-espaces vectoriels. Preuve Le fait que cette application soit linéaire résulte de la vérication laissée au lecteur précédant cette proposition. La surjectivité et l'injectivité résultent du deuxième point du théorème 2.1. En eet, si M = (ai,j ) ∈ Mm,n (R) est une matrice de taille m × n, appelons y1 , . . . , yn les n vecteurs colonnes de cette matrice, vus comme des éléments de F écrits dans la base C : ∀1 6 j 6 n, yj = a1,j f1 + · · · + am,j fm = m X ai,j fi . i=1 D'après le théorème 2.1, il existe une unique application linéaire u telle que u(ej ) = yj pour tous 1 6 j 6 n. Par dénition, on a M = Mat(u, B, C). Cela montre la surjectivité, mais aussi l'injectivité par unicité. Corollaire 2.4. Soient E et F deux espaces vectoriels de dimension nie. Alors l'espace vectoriel L(E, F ) des applications linéaires de E dans F est de dimension nie et dim(L(E, F )) = dim(E) × dim(F ). Preuve C'est une conséquence directe du corollaire 1.8, de l'isomorphisme de la proposition précédente, et du fait que la base canonique de Mm,n (R) constituée des matrices élémentaires compte exactement m × n éléments (autant que de case ou faire gurer l'unique 1 de la matrice élémentaire). Étant donnés E, F, G des espaces vectoriels, u ∈ L(E, F ) et v ∈ L(F, G), on est en mesure de composer u et v : on obtient l'application linéaire v ◦ u qui appartient à L(E, G). Dans le même genre d'idées, on peut eectuer le produit M × N de deux matrices M et N pour peu que M compte autant de colonnes que N de lignes. Proposition 2.5 (Matrice d'une composition). Soient u : E → F et v : F → G deux applications linéaires entre espaces vectoriels. Considérons B, C et D des bases de E, F et G respectivement. Alors on a : Mat(v ◦ u, B, D) = Mat(v, C, D) × Mat(u, B, C). Preuve Le vérier seul en se restreignant par exemple au cas où dim(E) = dim(F ) = dim(G) = 3. Corollaire 2.6 (Matrice de l'inverse). Soient u : E → F un isomorphisme entre deux espaces vectoriels. Considérons B une base de E et C une base de F . L'inverse de u, noté u−1 , est un isomorphisme de F dans E et on a : Mat(u−1 , C, B) = Mat(u, B, C)−1 . Preuve En appliquant la proposition précédente au cas particulier où v = u−1 , G = E et D = B, et en remarquant que u ◦ u−1 = id, on obtient : Mat(id, B, B) = Mat(u, B, C) × Mat(u−1 , C, B). Comme Mat(id, B, B) n'est rien d'autre que la matrice identité (de taille dim(E) = dim F ), on a bien montré ce qu'il fallait. 7 Quand un seul espace vectoriel est en jeu, la combinaison des propositions 2.3 et 2.5 prennent une nouvelle saveur. Soit E un R-espace vectoriel de dimension n. Alors l'espace L(E) est muni de trois lois : la somme, le produit par un scalaire et la composition. Muni de ces trois lois, on dit que (L(E), +, ·, ◦) est une R-algèbre. De la même façon, pour ce qui est des matrices de Mn (R), on peut les ajouter, les multiplier par un scalaire, mais aussi les multiplier entre elles. Muni de ces trois lois, (Mn (R), +, ·, ×), est encore une R-algèbre. Dans ce cadre là, l'isomorphisme de la proposition 2.3, est en fait un isomorphisme d'algèbres, c'est-à-dire qu'il satisfait aussi la proposition suivante. Corollaire 2.7. Soient E un R-espace vectoriel de dimension nie n dont on xe B = (ej )16j6n une base. Alors l'application : L(E) −→ Mn (R) u 7−→ Mat(u, B) est un isomorphisme de R-algèbres, c'est-à-dire qu'elle vérie : Mat(αu + βv, B) = α Mat(u, B) + β Mat(v, B) et Mat(u ◦ v, B) = Mat(u, B) × Mat(v, B) pour tous u, v ∈ L(E) et tous α, β ∈ R. 2.2 Changement de base Il faut bien garder à l'esprit que la matrice d'une application linéaire est une représentation de celle-ci qui dépend du choix des bases au départ et à l'arrivée. Il est utile de savoir passer d'une représentation à une autre. Connaissant la matrice d'un morphisme dressée dans deux bases, il faut savoir déterminer celle du même morphisme dans deux autres bases. Nous allons nous limiter au cas des endomorphismes avec la même base au départ et à l'arrivée. Plus précisément, on se place dans un R-espace vectoriel E dont on considère deux bases B et B0 . Pour u : E → E un endomorphisme, le but de cette section est de déterminer le lien entre les matrices de u dressées dans les bases B et B0 . Cela nécessite l'introduction des matrices de passage. Dénition 2.8 (Matrice de passage). Soit E un espace vectoriel dont on considère deux bases B = (ei )16i6n et B 0 = (e0j )16j6n . On appelle de B à B0 la matrice carrée n×n dont la j -ème colonne est constituée des coordonnées de e0j dans la base B = (ei )16i6n . On la note PB,B0 . matrice de passage La construction de la matrice de passage PB,B0 repose donc sur la connaissance des coordonnées, sur la base B, des éléments de la base B0 . Si pour chaque 1 6 j 6 n, on a : e0j = λ1,j e1 + · · · + λn,j en , alors : PB,B0 0 e02 e1 λ1,1 λ1,2 λ2,1 λ2,2 = .. .. . . λn,1 λn,2 λi,j ∈ R . . . e0n . . . λ1,n e1 . . . λ2,n e2 .. .. ... . . . . . λn,n en Exemples. 1) Dans R , si B est la base canonique et si B = (( ) , ( 0 2 PB,B0 1 −1 = 2 3 et PB0 ,B = 8 3 5 − 25 1 5 1 5 = 1 5 1 2 , alors : −1 3 )) 3 1 . −2 1 La première matrice ne nécessite aucun calcul, la seconde résulte des égalités : 1 1 −1 3 2 =5 −5 0 2 3 0 1 −1 1 1 =5 +5 . 1 2 3 2) Dans R2 [X] le R-espace vectoriel constitué des polynômes à coecients réels de degré 6 2, considérons les bases B = (X i )06i62 et B0 = ((X − 1)i )06i62 . Alors : ( X − 1 = (−1) × 1 + 1 × X (X − 1)2 = 1 × 1 + (−2) × X + 1 × X 2 =⇒ PB,B0 1 1 = 0 0 (X − 1) −1 1 0 (X − 1)2 1 1 −2 X 1 X2 et : 2 ( X = 1 × 1 + 1 × (X − 1) X 2 = 1 × 1 + 2 × (X − 1) + 1 × (X − 1)2 =⇒ PB0 ,B 1 X X 1 1 1 1 = 0 1 2 (X − 1) 0 0 1 (X − 1)2 La matrice de passage PB,B0 est la matrice qui mange le vecteur des coordonnées d'un élément de E écrit dans base B0 0et!retourne le vecteur des coordonnées de ce même élément mais dans λla λ1 1 . la base B. Si .. et ... sont les coordonnées de x ∈ E dans les bases B et B0 , c'est-à-dire λn λ0n si : x = λ1 e1 + · · · + λn en = λ01 e01 + · · · + λ0n e0n , alors on a : λ01 PB,B0 × .. .0 ! λ1 = λn .. . . λn Plus formellement et par dénition, la matrice de passage de B à B0 est aussi la matrice d'une application linéaire : celle de l'identité IdE : E → E avec B0 comme base au départ et B comme base à l'arrivée : PB,B0 = Mat(IdE , B 0 , B) Compte tenu de la proposition 2.5, en composant l'identité IdE avec elle même et en choisissant comme bases B0 puis B puis encore B0 , on en déduit que : Mat(IdE , B 0 , B 0 ) = Mat(IdE , B, B 0 ) × Mat(IdE , B 0 , B) ⇐⇒ In = PB0 ,B × PB,B0 , où In désigne la matrice identité de taille n. Évidemment, on obtient de même, en échangeant les rôles de B et B0 , que In = PB,B0 × PB0 ,B . Les matrices PB,B0 et PB0 ,B sont donc inverses l'une de l'autre. En bref, les matrices de passage permettent de passer d'une écriture sur une base à une écriture sur une autre base. C'est donc tout naturellement qu'elles interviennent dans les formules de changement de bases pour une application linéaire. Proposition 2.9. Soient E un R-espace vectoriel, u : E → E un endomorphisme et B, B0 deux bases de E . Alors les matrices de u dans les bases B et B0 sont reliées par : −1 Mat(u, B 0 ) = PB0 ,B × Mat(u, B) × PB,B0 = PB,B 0 × Mat(u, B) × PB,B 0 . 9 Preuve Cette formule résulte de la proposition 2.5 appliquée à la composition des applications linéaires suivantes écrites dans les bases spéciées à chaque étapes : Id Id u E E (E, B 0 ) −→ (E, B) −→ (E, B) −→ (E, B 0 ) En eet, on part d'un élément de E écrit dans la base B0 , on ne le change pas mais on l'écrit dans la base B ; ensuite on calcul son image par u toujours dans la base B ; enn, on ne change pas cette image mais on l'écrit dans la base B0 . Exemple. Plaçons nous dans R muni de sa base canonique B = (( 10 ) , ( 01 )). Soit u : 0 1 2 R → R l'application linéaires dénie par Mat(u, B) = ( −1 3 ). Considérons la base B = 2 (( 12 ) , ( −1 3 )) de R gurant dans l'exemple suivant la dénition 2.8. Alors : 2 2 2 Mat(u, B 0 ) = PB0 ,B Mat(u, B)PB,B0 = 3 5 − 25 1 5 1 5 1 2 1 −1 4 5 × ( −1 3 ) × ( 2 3 ) = ( −1 0 ) . Dans ce contexte, on utilise la terminologie suivante : Dénition 2.10 (Matrices semblables). Deux matrices M, N ∈ Mn (K) sont dites et seulement s'il existe P ∈ Mn (K) inversible telle que N = P M P −1 . semblables si Compte tenu du début de cette section deux matrices sont semblables si et seulement si elles représentent un même endomorphisme mais dans des bases (éventuellement) diérentes. Cette relation sur les matrices sera étudiée plus en détail en deuxième année. 10