Lycée Berthollet PCSI2 2016-17 Programme de colle de la semaine du 2 au 5 mai 2017 Note aux colleurs : la fin du programme, chapitre “matrices et applications linéaires”, à partir de la section 2.3 “caractérisation des matrices inversibles” a été vue en autonomie par les élèves, à partir du document que j’ai inséré ici. Ils n’en savent donc pas plus que ce que vous pouvez en lire dans ce programme de colle. Cependant, les élèves doivent connaître précisément les résultats correspondants, qui sont tous très naturels. Équations linéaires Structure de l’ensemble des solutions d’une équation (E) linéaire avec second membre (la notion de sous-espace affine est hors programme) : définition de l’équation en termes d’une application linéaire u (u(x) = b). Elle a des solutions ssi le second membre b est dans Im u et dans ce cas, si x0 est un antécédent de b (une “solution particulière”), l’ensemble des solutions est x0 + Ker u (la “solution générale” de (E) est la somme d’une “solution particulière” de (E) et de la “solution générale” de l’équation homogène associée à (E)). Description paramétrique des solutions, retour sur les exemples du cours (equations différentielles...). Dimension finie On rappelle que les seules familles libres ou génératrices au programme sont les familles finies. On note encore K pour R ou C. 1 1.1 Espaces vectoriels de dimension finie Dimension finie et construction de bases Définition d’un espace de dimension finie (existence d’une partie génératrice finie). Théorème de la base extraite (en dimension finie, on peut extraire une base de E de toute famille génératrice de E). Conséquence : tout espace vectoriel de dimension finie admet une base. Théorème de la base incomplète (en dimension finie, on peut compléter toute famille libre de E en une base de E. De plus, les vecteurs ajoutés peuvent être choisis parmi les vecteurs d’une famille génératrice donnée). 1.2 Définition de la dimension Lemme clé : dans un espace engendré par n vecteurs, toute famille d’au moins n +1 vecteurs est liée. Conséquence : théorème de la dimension (toutes les bases d’un e.v. E de dimension finie ont le même cardinal, appelé dimension de E). Dimensions de Kn , Kn [X], Mn,p (K). Si dim E = n et dim F = p, alors dim L (E, F) = np (exhibition d’une base). Notions de droites et de plans vectoriels, exemple des solutions d’une EDLH1 ou d’une EDLH2. 1.3 Familles de vecteurs et dimension En dimension n, toute famille libre a au plus n vecteurs et toute famille génératrice en a au moins n, de plus une famille de n vecteurs est une base ssi elle est libre ssi elle est génératrice. Rang d’une famille finie de vecteurs (i.e. dimension du sous-e.v. qu’ils engendrent). Caractérisation des familles libres par leur rang. Calcul pratique du rang par manipulation des colonnes de la matrice des coordonnées de ces vecteurs dans une base donnée à l’aide des trois faits suivants : si on ajoute à un des vecteurs de la famille une CL des autres, cela ne change pas le sous-espace engendré, de même si on multiplie l’un des vecteurs par une constante non nulle et si on supprime un vecteur de cette famille lorsqu’il est nul. Application de ces remarques à la méthode du pivot : toute opération élémentaire sur les colonnes traduit une opération sur les vecteurs de la famille qui laisse invariant la rang, d’après les résultats précédents ; à la fin de la “descente”, le nombre de vecteurs colonnes non nuls est le rang de la famille initiale (on remarque que des vecteurs ayant des vecteurs colonnes les représentant dans une base donnée qui sont “échelonnés” est automatiquement libre. 1.4 Sous-espaces et dimension Un sous-espace F d’un e.v. E de dimension finie n est de dimension finie p ≤ n et si p = n, alors F = E. Tout sous-espace F d’un e.v. E de dimension finie possède un supplémentaire G. Si F ⊕ G ⊂ E et E est de dimension finie, alors dim(F ⊕ G) = dim F + dim G. Conséquences : tous les supplémentaires de F ont la même dimension ; F et G sont supplémentaires ssi leur intersection est {0} et dim F + dim G = dim E. Formule de Grassmann pour la somme non forcément directe de deux sous-espaces. 2 2.1 Applications linéaires et dimension finie Isomorphismes en dimension finie Deux e.v. de dimension finie sont isomorphes ss’ils ont la même dimension. Si E et F sont deux espaces de même dimension finie (en particulier si E = F est de dimension finie) et u ∈ L (E, F), alors u est bijective ssi elle est injective ssi elle est surjective. Si E est de dimension finie et u ∈ L (E), alors elle est inversible ssi elle est inversible à gauche ssi elle est inversible à droite. 2.2 Rang d’une application linéaire Une application linéaire u est de rang fini ssi son image est de dimension finie, on appelle alors rang de u (rg (u)) la dimension de l’image. Si v est un morphisme injectif (resp. surjectif) d’espace de départ (resp. d’arrivée) adéquat, v ◦ u (resp. u ◦ v) a même rang que u. En particulier, composer une application linéaire par un isomorphisme ne change pas le rang de cette application linéaire. 2 2.3 Théorème du rang Si u ∈ L (E, F) et S est un supplémentaire de Ker u dans E, alors u induit un isomorphisme de S sur Im u. Si E est de dimension finie, alors u est de rang fini et dim E = dim Ker u + rg u. Matrices et applications linéaires 1 1.1 1.1.1 Matrice d’une application linéaire dans un couple de bases Définition et linéarité Définition p Rappel : matrice Mat e ((xi )i=1 ) d’une famille de vecteurs dans une base e de E (coordonnées des vecteurs présentées en colonnes dans la base e), cas particulier d’un vecteur (Mat e (x)). p Matrice de u ∈ L (E, F) dans le couple de bases (e, f ) où e = (e j ) j=1 est une base de E et f = ( fi )ni=1 est une base de F : Mat e, f (u) = Mat f (u(e)). 1.1.2 Isomorphisme d’espaces vectoriels L’application Mat e, f est un isomorphisme d’espaces vectoriels de L (E, F) vers Mn,p (K) (bien noter que p est la dimension de E et n celle de F et que cet isomorphisme dépend du choix des bases). Pour x ∈ E, expression de Y = Mat f (u(x)) en fonction de A = Mat e, f (u) et de X = Mat e (x) : Y = AX. En utilisant la bijectivité de Mat e, f , Mat e, f (u) est l’unique matrice A vérifiant celle égalité pour tout x ∈ E. 1.2 1.2.1 Application aux calculs de noyaux et d’images Noyau Pour déterminer Ker u, on résout le système AX = 0. La méthode du pivot, ou plus généralement, l’échelonnement de la matrice, fournit alors une base du noyau. Plus précisément, en notant z1 , ..., zk les inconnues secondaires, Ni la solution obtenue en prenant z j = δi, j pour j ∈ [[1, k]] et ni ∈ E le vecteur défini par Mat e (ni ) = Ni , la famille (n1 , ..., nk ) est une base de Ker u. 1.2.2 Image Pour l’image, en échelonnant les vecteurs colonnes de la matrice A à l’aide d’opérations élémentaires, par exemple par la méthode du pivot, on obtient un famille de vecteurs colonnes dont ceux qui sont non nuls sont les vecteurs coordonnées, dans la base f , d’une base de Im u. 3 1.3 1.3.1 Composition et produit matriciel Matrices et composition Mat e,g (v ◦ u) = Mat f ,g (v)Mat e, f (u). Si E, F sont de dimension finie munis de bases e et f , u ∈ L (E, F) est un isomorphisme ssi Mat e, f (u) est carrée inversible. 1.3.2 Cas des endomorphismes Cas des endomorphismes : notation Mat e (u) := Mat e,e (u). L’application Mat e est un isomorphisme d’anneaux de L (E) vers Mn (K). Par conséquent, un endomorphisme est bijectif ssi sa matrice dans une base e est inversible. Cela prouve aussi la remarque concernant l’inversibilité à gauche ou à droite qui suffit pour qu’une matrice carrée soit inversible. 1.4 1.4.1 Changements de bases Matrices de passage 0 Pour e et e0 deux bases de E, la matrice de passage de e à e0 est la matrice Pee = Mat e (e0 ) = Mat e0 ,e (Id) (noter l’“inversion”). Cette matrice est inversible d’inverse Pee0 . Plus généralement, 00 0 00 si e00 est une autre base, on a Pee Pee0 = Pee . 1.4.2 Changement de base pour un vecteur 0 Avec les notations P = Pee , X = Mat e (x) et X 0 = Mat e0 (x), formule X = PX 0 . 1.4.3 Changement de bases pour une application linéaire f0 Si de plus on a un espace F de bases f et f 0 et on note Q = Pf , et si on a u ∈ L (E, F) et on note A = Mat e, f (u) et A0 = Mat e0 , f 0 (u), on a la formule A0 = Q−1 AP. Cas des endomorphismes : si A = Mat e (u) et A0 = Mat e0 (u) alors A0 = P−1 AP. 2 Application linéaire canoniquement associée à une matrice Dans toute cette section, pour q ∈ N? , on identifie les vecteurs de Kq à des matrices colonnes (i.e. Kq à Mq,1 (K)). 2.1 Définitions Pour A ∈ Mn,p (K), l’application linéaire canoniquement associée à A est uA ∈ L (K p , Kn ) admettant A pour matrice dans les bases canoniques. Grâce à l’identification entre vecteurs et matrices colonnes, elle s’écrit X 7−→ AX. On définit le noyau (resp. image, resp. rang) de A comme celui (resp. celle, resp. celui) de uA . Les vecteurs colonnes de A sont alors les images des vecteurs de la base canonique par uA et ils engendrent l’image de A (en particulier, leur rang est celui de A). 4 2.2 Lien avec les systèmes linéaires Le noyau est exactement l’ensemble des solutions de AX = 0. L’image est l’ensemble des seconds membres B tels que AX = B admette des solutions. Le noyau est invariant par multiplication à gauche par une matrice inversible, donc par toute opération élémentaire sur les lignes. L’image est invariante par multiplication à droite par une matrice inversible donc par toute opération élémentaire sur les colonnes. Cela conforte dans ce cas particulier les méthodes de calcul de noyaux, d’images et de rangs vus précédemment par des équivalences sur les lignes ou les colonnes. 2.3 Caractérisation des matrices inversibles Soit n ∈ N? . Pour une matrice A ∈ Mn (K), l’application uA est alors un endomorphisme de Kn . On déduit immédiatement des résultats sur les endomorphismes d’un espace vectoriel de dimension finie la proposition suivante. Proposition 1 Pour toute A ∈ Mn (K), les assertions suivantes sont équivalentes : 1. A ∈ GLn (K) (i.e. uA est bijective) 2. Ker A = {0} (i.e. uA est injective) 3. Im A = Kn (i.e. uA est surjective) 4. rg A = n (i.e. rg (uA ) = n) 2.4 Théorème du rang Soient n, p ∈ N? . On déduit directement du théorème du rang pour les applications linéaires, le résultat suivant. Théorème 2 ∀A ∈ Mn,p (K), rg A + dim Ker A = p. qui a en particulier comme conséquences : Corollaire 3 Le rang d’une matrice est invariant par multiplication, à gauche ou à droite, par une matrice inversible. Démonstration: On a vu précédemment que la multiplication à droite d’une matrice A par une matrice inversible ne change pas Im A et donc pas rg A qui est la dimension de cette image. Lorsqu’on multiplie A à gauche par une matrice inversible, on ne change ni son nombre de colonnes, ni son noyau, donc pas son rang d’après le théorème du rang ci-dessus. 2 Corollaire 4 Le rang d’une matrice est invariant par toute opération élémentaire sur ses lignes ou sur ses colonnes. Démonstration: On a vu qu’une opération élémentaire sur les lignes se traduit par une multiplication à gauche par une matrice élémentaire (qui est inversible), ce qui ne change pas le rang d’après le corollaire précédent. De la même manière, une opération élémentaire sur les colonnes se traduisant par une multiplication à droite par une matrice élémentaire (qui est inversible), ne change pas le rang. 2 5 2.5 Autres résultats concernant le rang Le rang est de plus invariant par transposition : Théorème 5 ∀A ∈ Mn,p (K), rg tA = rg A. Démonstration: Soit A ∈ Mn,p (K). On sait qu’il existe une (unique) matrice échelonnée réduite par lignes A0 telle que A ∼ A0 . On a alors tA ∼ tA0 . Ces équivalences nous assurent que rg A = rg A0 L C et rg tA = rg tA0 . Il nous suffit donc de montrer que rg tA0 = rg A0 . Pour cela, on utilise le fait que la matrice A0 est échelonnée réduite. En appelant k le nombre de ses pivots, sa structure en escalier assure que toute les lignes d’indice strictement supérieur à k sont nulles. En notant (e1 , e2 , . . . , en ) la base canonique de Kn et en rappelant que Im A est engendrée par les vecteurs colonnes de A, cela signifie que Im A ⊂ Vect (e1 , . . . , ek ). Par ailleurs, comme la matrice est échelonnée réduite, ses vecteurs colonnes correspondant aux colonnes des pivots sont exactement e1 , . . . , ek , donc Im A ⊃ Vect (e1 , . . . , ek ). Ainsi Im A = Vect (e1 , . . . , ek ) et est de dimension k puisque la famille (e1 , . . . , ek ) est libre, étant une sous famille d’une base. Par ailleurs, la matrice tA0 est échelonnée par colonne, donc son rang est le nombre de ses colonnes non-nulles, qui est k (rappelons que les vecteurs non nuls de cette matrice étant échelonnés, ils forment une famille libre de K p ). Ainsi rg tA0 = rg A0 , ce qui achève la preuve. 2 Remarquons qu’on tire de la démonstration ci-dessus le résultat supplémentaire suivant Proposition 6 Le rang d’un système linéaire (i.e. le nombre de ses pivots) est égal au rang de la matrice (non-augmentée) du système (au sens défini dans ce chapitre, i.e. le rang de la famille de ses vecteurs colonnes). Démonstration: Avec les notations ci-dessus, si A est la matrice (non-augmentée) du système, on vient de voir que le rang de A est le nombre de pivots obtenus en échelonnant-réduisant A, soit le rang du système. 2 Enfin, on peut appliquer tous ces résultats pour calculer le rang d’une application linéaire entre deux espaces de dimension finie quelconques, en passant par sa matrice dans un couple de base donné, grâce au résultat suivant : Théorème 7 Soient E, F deux espaces vectoriels de dimension finie munis de bases respectives e et f et u ∈ L (E, F). on a alors rg u = rg Mat e, f (u). Démonstration: On a vu que les deux peuvent se calculer par un échelonnement par colonnes de Mat e, f (u), le rang étant alors égal au nombre de vecteurs colonnes non nuls de la matrice échelonnée. 2 Toutes les définitions et tous les énoncés sont exigibles. Les démonstrations exigibles sont sur la page suivante. 6 Démonstrations de cours exigibles — Dans un ev E de dimension finie : tout sous-espace possède un supplémentaire et pour une somme directe de sous-ev, dim(F ⊕ G) = dim F + dim G. Conséquences : tous les supplémentaires de F ont la même dimension et F et G sont supplémentaires ssi leur intersection est {0} et dim F + dim G = dim E ; — Si u ∈ L (E, F) et S est un supplémentaire de Ker u dans E, alors u induit un isomorphisme de S sur Im u. Si E est de dimension finie, alors u est de rang fini et dim E = dim Ker u + rg u ; — Mat e, f est un isomorphisme d’espace vectoriel de L (E, F) vers Mn,p (K) ; — Pour x ∈ E, expression de Y = Mat f (u(x)) en fonction de M = Mat e, f (u) et de X = Mat e (x) ; — Définition des matrices de passage et formules X = PX 0 et A0 = Q−1 AP. 7