1 MATHEMATIQUES GENERALES 2 Algebre linaire Chapitre 1 Espace vectoriel 1 Premières définitions Définition 1. on appelle espace vectoriel sur R ou R-espace vectoriel un ensemble E sur lequel on a défini deux lois de composition : – Une loi interne dite addition, notée + (i.e. une application + : E ∗ E → E) vérifiant : – (x + y) + z = x + (y + z) pour tout x, y, z ∈ E – x + y = y + x pour tout x, y ∈ E – il existe un élément de E, noté 0E , dit neutre, tel que pour tout x ∈ E x+0E = x – soit x ∈ E ; il existe (−x) élément de E dit opposé de x tel que x + (−x) = 0E – une loi externe de domaine R (i.e. une application . : R ∗ E → E,(λ, x) → λx) vérifiant : – λ(µx) = (λµ)x pour tout λ, µ ∈ R et x ∈ E – (λ + µ)x = λx + µx – λ(x + y) = λx + λy – 1.x = x Les éléments de E sont appelés vecteurs et ceux de R scalaire. Remarque : On peut remplacer dans la définition R par un corps quelconque. Dans ce cours on notera K un tel corps et on pensera à K = R, C. Exemple 1 : Modèle fondamental : E = Rn = R × ... × R 3 4 Calcul matriciel Exemple : n = 2. Alors E = R × R = {(x, y) : x ∈ R y ∈ R} est un R-espace vectoriel : on prend les applications : E × E −→ E ((x1 , y1 ), (x2 , y2 )) −→ (x1 + x2 , y1 + y2 ) comme addition et R × E −→ E (λ, (x, y)) −→ (λx, λy) come multiplication par un scalaire. On a alors (0, 0) comme neutre et −(x, y) = (−x, −y). Ici les 2-uplets sont les vecteurs et les réels les scalaires. Exercice : vérifier les axiomes de la définition. Interprétation géométrique : Soit P = {vecteursdansleplan} : Définition 2. • Une flèche dans le plan est un segment entre deux points A et B orientés. • Deux flèches sont équivalentes si elles ont mêmes direction, sens et longueurs. • Les vecteurs du plan sont les classes d’équivalences des flèches. Addition de vecteurs : ~ = AD ~ où AD ~ a le même sens et la même Multiplication par un scalaire : λAB direction que AB et la longueur multipliée par λ (si λ est positif). Exemple 2 : Soit E = Rn [X] = {f onctionspolynomescoef f icientdansRdedegr 6 n} = {P (X) = a0 + a1 X + ... + an xn ai ∈ R} est un espace vectoriel sur R muni des lois : (a0 + a1 X + ... + an xn ) + (b0 + b1 X + ... + bn xn ) := ((a0 + b0 ) + (a1 + b1 )X + ... + (an + bn )xn ) λ.(a0 + a1 X + ... + an xn ) := (λa0 + λa1 X + ... + λan xn ) Chapitre 1. Espace vectoriel 5 Fig. 1 – Addition de deux vecteurs Plus généralement E = R[X] qui est l’ensemble des polynomes de tout degré à coefficient dans R est un espace vectoriel sur R avec les lois : X X X (ak + bk )xk bk xk := ak x k + k k k λ X k ak x := k X λak xk k (Les sommes sont finies.) Exemple 3 : Soit F(R, R) ensemble des fonctions de R dans R. On munit cet ensembles des lois suivantes : – (f + g)(x) := f (x) + g(x) – λ(f (x)) := λf (x) Proposition 1.1. Soit E un espace vectoriel. Alors : 1. 0.x = 0E pour tout x ∈ E 2. λ.0E = 0E 3. λ.x = 0E implique λ = 0 ou x = 0E 4. (−1).x = −x pour tout x ∈ E Démonstration. (1) 0.x = 0.x + 0E = 0.x+x+(-x) définition de l’opposé 0E est le neutre de + 6 Calcul matriciel = (0.x+x)+(-x) associativité de l’addition = (0+1)x+(-x) (car 1.x = x et distributivité de . par rapport à + ) = x+(-x) =0E (2) Soit λ ∈ K. λ.0E = λ(0.x) = (λ.0)x = 0.x = 0E (3) Soient λ ∈ K et x ∈ E tels que λx = 0E . Supposons que λ 6= 0. Montrons qu’alors x = 0E . Si λ 6= 0 alors il existe λ1 ∈ K tel que λ. λ1 = 1. Alors ( λ1 )(λx) = ( λ1 )(λx) = ( λ1 λ)x = 1.x = x. Donc x = 0E . 1 0 λ E = 0E et (4) On a (−1).x = (−1)x + 0E = (−1)x + x + (−x) = ((−1) + 1)x + (−x) = 0.x + (−x) = (−x) Simplification de notations : on notera par la suite 0E par 0 et x + (−y) = x − y. Enfin “espace vectoriel” sera noté ev. 2 Sous-espace vectoriel 2.1 Définition On identifie parmi les sous parties de E celles qui se comportent bien par rapport aux opérations de E. Définition 3. Soit E un K-ev et F une partie de E. On dit que F est un sous espace vectoriel de E (ou sev) si : – F 6= ∅ – F est stable par rapport à l’addition : x, y ∈ F => x + y ∈ F – F est stable par rapport à la multiplication : λ ∈ K, x ∈ F => λ.x ∈ F Conséquence : 0 est toujours dans F. En effet F non vide implique qu ’il existe x ∈ F donc −x ∈ F . Par stabilité de l’addition x − x = 0E ∈ F . Chapitre 1. Espace vectoriel 7 Proposition 1.2. F est un sev de E ssi : – F 6= ∅ – x, y ∈ F λ, µ ∈ K alors λx + µy ∈ F Quelques exemples : 1. {0} et E sont toujours des sev de E. 2. Rn [X] ⊂ R[X] 3. L’ensemble des fonctions dérivables et à dérivées continues de R dans R (C 1 (R, R)) est un sev de F(R, R). 4. Dans R2 les axes de coordonnées sont des sev de R2 : F = {(x, 0), x ∈ R} et G = {(0, y), y ∈ R}. 5. En général, les droites vectorielles dans R2 sont de sev de R2 : c’est l’ensemble suivant : Fv := {y ∈ E : il existe λ ∈ R tq y = λv} Une partie quelconque F d’un espace vectoriel E n’est pas toujours un sous espace vectoriel, par contre elle sera toujours inclue dans un sev de E. Enfin une partie F d’un espace vectoriel E peut ne pas être un sous espace vectoriel de E mais être un espace vectoriel (en changeant biensûr les lois d’addition et/ou de multiplication par un scalaire). 2.2 Sous espace vectoriel engendré par une partie de E On veut construire le plus petit sous espace vectoriel contenant une partie de E donnée. Définition 4. Soit {e1 , ..., en } une famille de n vecteurs dans E. On dit que x ∈ E est une combinaison linéaire de {e1 , ..., en } s’il existe λ1 ,...,λn dans K tels que x = λ1 e1 + ... + λn en . Exemple : Dans Rn , tout vecteur est combinaison linéaire de la base canonique : e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en = (0, ...0, 1). Alors x = (x1 , ..., xn ) = x1 e1 + ... + xn en . notation : On note vect(e1 , ..., en ) = {{textx ∈ E : il existeλ1 , ..., λn ∈ Ktelsquex = λ1 e1 + ...λn en } l’espace vectoriel engendré par les vecteurs {e1 , ..., en }. 8 Calcul matriciel Théorème 1.3. vect(e1 , ..., en ) est un sev contenant {e1 , ...en }. C’est le plus petit avec cette propiété. On l’appelle le sous espace vectoriel engendré par {e1 , ...en }. Démonstration. Première partie • {e1 , .., en } ⊂ vect(e1 , ...en ) en effet ei = 0e1 + ...0ei−1 , +1ei + 0ei+1 + ...0en pour tout i = 1...n • Stabilité par rapport à + : soient x, y ∈ vect(e1 , ...en ). Alors il existe λ1 ,...,λn et µ1 ,...µn dans K tels que x = λ1 e1 + ... + λn en et y = µ1 e1 + ... + µn en . Alors x + y = (λ1 + µ1 )e1 + ... + (λn + µn )en ∈ vect(e1 , ...en ). • Stabilité par rapport à . : Soient x ∈ vect(e1 , ...en ) tel que x = λ1 e1 + ... + λn en et µ ∈ K. Alors µx = µ(λ1 e1 + ... + λn en ) = µ(λ1 e1 ) + ... + µ(λn en ) = (µλ1 )e1 + ... + µλn )en ∈ vect(e1 , ...en ). Deuxième partie : c’est le plus petit On fait par récurrence : Soit F un sous espace vectoriel de E contenant {e1 , ...en }. Soit l’hypothèse de récurrence HR(k) : F contient les combinaisons linéaires de {e1 , ...ek }. HR(1) est vérifiée : e1 ∈ F implique λ.e1 ∈ F pour tout λ ∈ K (par stabilité par rapport à la multiplication par un scalaire. Soit 1 6 k 6 n − 1. Supposons que HR(k) est vraie et montrons qu’elle implique HR(k + 1). Par hypothèse F contient toutes les combinaisons linéaires de {e1 , ...ek }. Soit x = (λ1 e1 + ... + λk ek ) + λk+1 ek+1 . Ces deux éléments (celui dans la parenthèse et le second) sont dans F par HR et car ek+1 ∈ F , donc x est dans F comme somme de deux vecteurs de F. Exemples : 1. Dans le dernier exemple de sev, vect(e1 ) est une droite vectorielle. 2. Regardons vect(e1 , e2 ) dans Rn avec e1 et e2 deux vecteurs de Rn . – si e1 ou e2 = 0 c’est une droite vectorielle. – si e2 = λe1 vect(e1 , e2 ) = vect(e1 ) – sinon vect(e1 , e2 ) est un plan vectoriel. Définition 5. Soit P une partie de E espace vectoriel. On pose vect(P ) = {x ∈ E : il existe e1 , ..., en ∈ P tel que x = λ1 e1 + ... + λn en } c’est à dire l’ensemble des combinaisons linéaires des éléments de P . C’est le plus petit sev de E contenant P. Chapitre 1. Espace vectoriel 2.3 9 Intersection et somme de deux sev Définition 6. Soient F et G deux ensembles. Alors la somme F + G = {z : z = x + y avec x ∈ F, y ∈ G}. Proposition 1.4. Soient F et G deux sev d’un K-ev E. Alors : 1. F ∩ G est un sev de E. 2. F ∪ G n’est pas en général un sev de E. MaisF + G est un sev de E et c’est le plus petit contenant F ∪ G. 3. Le complémentaire E-F n’est pas un sev de E. Démonstration. (1) F ∩ G 6= ∅ car 0 ∈ F et 0 ∈ G, donc 0 ∈ F ∩ G Soient x, y ∈ F ∩ G i.e. x, y ∈ F et x, y ∈ G. Alors x + y ∈ F et x + y ∈ G car F et G sont des sev ; d’où x + y ∈ F ∩ G. Soit λ ∈ K et x ∈ F ∩G. Alors λxF et λx ∈ G car F et G sev de E, donc λx ∈ F ∩G. (2)Contre-exemple Dans R2 avec les lois classiques. Soit F l’axe de abscisses engendré par e1 et G l’axe des ordonnées engendré par e2 . Fig. 2 – Addition de deux vecteurs Alors F ∪ G est représenté par les deux axes de coordonnées mais e1 + e2 6∈ F ∪ G car il engendre la première diagonale. exercice : faites un dessin pour vous en convaincre Par contre F + G est un sev de E : - 0=0+0∈F +G - Soient x1 , x2 ∈ F + G. Alors il existe y1 , y2 ∈ F et z1 , z2 ∈ G tels que x1 = y1 + z1 et x2 = y2 + z2 . Alors x1 + x2 = (y1 + y2 ) + (z1 + z2 ) ∈ F + G.(car F et g sont deux sev) - Soit λ ∈ K et x = y + z ∈ F + G . Alors λx = λy + λz ∈ F + G (car F et G sont deux sev de E). C’est le plus petit contenant F ∪ G : 10 Calcul matriciel Soit H un sev de E tel que F ∪ G ⊂ H. Soit x = y + z ∈ F + G. y ∈ F donc y ∈ H et z ∈ G donc z ∈ H donc y + z ∈ H car H est stable par addition. Donc F + G ⊂ H. (3) 0 6∈ E − F donc le complémentaire ne peut etre un sev de E. Remarques :-L’union de deux sev n’est pas un espace vectoriel à cause de la non stabilité par rapport à l’addition. D’où la définition de la somme de deux sev. - On vient de voir que pour montrer qu’un ensemble n’est pas un sev il suffit d’exiber un contre exemple, alors que pour montrer que l’on est en présence d’un ev il faut montrer les propriétés pour tous les éléments. Quelques propiétés de la somme de deux sous espaces vectoriels : – associativité : Soient F,G et H trois sev d’un K-ev E. Alors (F + G) + H = F + (G + H) = F + G + H – commutativité : F+G=G+F sont le plus petit sev contenant F ∪ G = G ∪ F . – élément neutre : Pour tout sev F on a : F + {0} = F Attention En général il n’exsite pas de sev tels que F + G = 0. De même F + G = F + H n’implique pas G = H exercice : trouver un contre exemple Proposition 1.5. Soient P et Q deux parties de E. Alors vect(P ∪ Q) = vect(P ) + vect(Q). Démonstration. admise 2.4 Some directe. Supplémentaire Définition 7. Soient F et G deux sev d’un K-ev E. On dit que F et G sont en sommes directes si F ∩ G = {0}. Notation : Si F et G sont en somme directe on note F + G = F ⊕ G. Proposition 1.6. Soient F et G deux sev de E en somme directe. Alors F ⊕ G = {x ∈ E : il existe un unique y ∈ F etz ∈ G tels que∆ x = y + z} Chapitre 1. Espace vectoriel 11 Démonstration. Soit x ∈ F ⊕ G. Supposons que x = y1 + z1 = y2 + z2 et montrons qu’alors y1 = y2 et z1 = z2 . (y1 + z1 = y2 + z2 ) <=> (y1 − y2 = z2 − z1 ) et on a y1 − y2 ∈ F et z2 − z1 ∈ G. Or F ∩ G = {0},donc y1 = y2 et z1 = z2 . Définition 8. Soit F un sous espace vectoriel d’un K-ev E. G est un supplémentaire de F si E = F ⊕ G. Remarques : 1. il y a deux conditions à vérifier : F ∩ G = {0} et F + G = E. 2. Attention : Il n’y a pas unicité du supplémentaire d’un sev donné. 3. Attention : G supplémentaire n’est pas le complémentaire de F dans E. 2.5 Dimension d’un espace vectoriel On a tous, de façon intuitive, la notion de dimension : on a envie par exemple de dire qu’une droite est de dimension 1 car il suffit d’un paramètre pour situé un point de la droite, un plan de dimension 2 et l’espace K n de dimension n. Le problème auquel on est confronté est d’arriver à définir la dimension d’un espace vectoriel de manière intrinsèque, ie en ne faisant appel qu’aux opérations définissant les structures. Bases Définition 9. 1. Une famille de vecteurs {v1 , ..., vn } d’un K-ev E est dite génératrice si E = vect(v1 , ..., vn ), ie pour tout x ∈ E il existe λ1 ,...,λn ∈ K x = λ1 e1 + ... + λn en . 2. La famille {e1 , ..., en } est libre ssi λ1 e1 + ... + λn en = 0 implique λ1 = ... = λn = 0. On dit alors qu’il sont linéairement indépendants. Sinon on dit qu”ils sont liés. 3. Une famille {e1 , ..., en } de vecteurs de E est une base si elle est à la fois libre et génératrice. Exemples : (1) E = R2 – {(0, 0), (1, 0)} ni libre ni génératrice 12 – – – – – Calcul matriciel {(1, 0), (0, 1)} base {(1, 1), (2, 2)} non base {(0, 1), (1, 0), (1, 1)} génératrice mais pas libre {(1, 0), (1, 0)} pas libre pas génératrice {(1, 0), (1, 1)} base (2) Dans R3 , les vecteurs v1 = (1, 2, 1) , v2 = (−1, 3, 1) et v3 = (−1, 13, 5) sont liés car 2v1 + 3v2 − v3 = 0 Proposition 1.7. Soit {e1 , ..., en } une base de E. Soit x ∈ E. Alors il existe un unique n-uplets (λ1 , ..., λn ) ∈ K n tel que x = λ1 e1 + ...λn en . Définition 10. (λ1 , ..., λn ) sont les coordonnées de x dans {x1 , ..., xn }. Démonstration. existence : {e1 , ..., en } génératrice implique qu’ il existe (λ1 , ..., λn ) ∈ K n tels que x = λ1 e1 + ...λn en . unicit : x = λ1 e1 + ...λn en = µ1 e1 + ...µn en .Ceci implique que (λ1 − µ1 )e1 + ... + (λn − µn )en = 0. Or {e1 , ..., en } est libre donc λi − µi = 0 pour tout i = 1...n. Proposition 1.8. (1) Soit {e1 , ..., en } une base de E. Soit {f1 , ..., fl } une autre famille de vecteurs de E tels que chaque ei est combinaison linéaire de {f1 , ..., fl }. Alors la famille {f1 , ..., fl } est génératrice. (2) a. Soit {e1 , ..., ek } une famille libre de E et ek+1 6∈ vect(e1 , ..., ek ). Alors {e1 , ..., ek+1 } est encore libre. b. Soit {f1 , ..., fk } une famille libre de F sev de E et {g1 , ..., gl } une famille libre de G sev de E. On suppose que F et G sont en somme directes. Alors {f1 , ..., fk n, g1 , ..., gl } est encore libre. Démonstration. (1) On veut montre que vect(f1 , ..., fl ) = E. Or pour tout i = 1...n on a ei ∈ vect(f1 , ..., fl ) donc {e1 , ..., ek } ⊂ vect(f1 , ..., fl ). D’où vect(e1 , ..., en ) = E ⊂ vect(f1 , ..., fl ) ⊂ E car vect(e1 , ..., en ) est le plus petit sous espace vectoriel de E contenant {e1 , ..., en }. D’où {f1 , ..., fl } est génératrice. (2) a. {e1 , ..., ek+1 } est elle libre ? Soient λ1 , ...λk+1 ∈ K tels que λ1 e1 + ... + λk+1 ek+1 = 0. On doit montrer que λi = 0 pour tout i. k1 1 e1 + ... + λλk+1 ek = −ek+1 , c’ est faux par hypoSupposons que λk+1 6= 0. Alors λλk+1 thèse. Donc λk+1 = 0 et λ1 e1 + ... + λk ek = 0. Or la famille {e1 , ..., ek } est libre par hyppothèse donc pour tout i = 1...k λi = 0. b. laissé en exercice. Chapitre 1. Espace vectoriel Proposition 1.9. 13 1. x est une famile libre équivaut à x non nul. 2. Toute famille contenant une famille génératrice est génératrice. 3. Toute sous-famille d’une famille libre est libre. 4. Toute famille contenant une famille liée est liée. 5. Toute famille {v1 , ..., vp } dont l’un des deux vecteurs vi est nul est liée. Essayez de vous convaincre de la véracité de la proposition ci-dessus en donnant la preuve Dimension Dans cette sous section on se place en dimension finie c’est à dire quand il existe une famille génératrice finie. Théorème 1.10. Dans un K-ev E non égal au vecteur nul et de dimension finie, il existe toujours des base. Démonstration. admise Théorème 1.11. Soit E 6= {0} un ev de dimension finie. Alors : 1. Toute famille génératrive de E a au moins autant d’éléments que n’importe quelle famille libre de E 2. De toute famille génératrice on peut extraire une base. 3. (Théorème de la base incomplète) Toute famille libre peut etre complétée par des vecteurs de E de manière à former une base. Conséquences : 1. Deux bases données de E ont le même nombre d’éléments. Ce nombre est la dimension de l’espace noté n = dimE. 2. Toute famille génératrice a au moins n éléments 3. Toute famille libre a au plus n éléments. Démonstration. des conséquences : (1) Soient {e1 , ..., ek } et {f1 , ..., fl } deux bases. Alors {e1 , ..., ek } est génératrice et {f1 , ..., fl } est libre. Donc par le théorème précédent, l 6 k. Et inversement k 6 l. 14 Calcul matriciel (2) Soient {e1 , ..., ek } génératrice et {f1 , ..., fl } base donc libre. Donc par théorème k>l (3) Soient {e1 , ..., ek } libre et {f1 , ..., fl } base donc génératrice. Donc l > k Démonstration. Idée de la preuve du téorème : (1) Soient {e1 , ..., ek } génératrice et {f1 , ..., fl } libre. A-t-on k > l ? On suppose que l > k et on montre qu’alors k = l. idée : substituer progressivement les fi aux ei tout en gardant la propriété d’etre génératrice. (2) Idée : Si la famille génératrice n’est pas une base alors elle n’est pas libre. On montre qu’elle contient une famille génératrice plus petite. (3) Idée : Montrer qu’une famille libre non génératrice est contenue dans une famille libre plus grande. Théorème 1.12. ... + dimEp . 1. Soient E1 , ...Ep des K-ev. Alors dim(E1 ×...×Ep ) = dimE1 + 2. Soit F un sev d’un ev E. Alors dimF 6 dimE. Si dimF = dimE alors F = E. 3. Soient F et G deux sev supplémentaires l’un de l’autre. Alors dimF + dimG = dimE. 4. Soient F et G deux sous espaces vectoriels de E. Alors dim(F + G) + dim(F ∩ G) = dimF + dimG. Démonstration. admise Chapitre 2 Feuille Td 1 A : espaces vectoriels, sous espaces vectoriels Exercice 1 Parmi les ensembles suivants reconnaitre ceux qui sont des sev de R2 ou R3 : E1 = {(x, y, z) ∈ R3 /x + y = 0} E10 = {(x, y, z) ∈ R3 /xy = 0} E2 = {(x, y) ∈ R2 /x2 + yx > 0} E20 = {(x, y, z) ∈ R3 /x2 + xy + y 2 > 0} E3 = {f ∈ F(R, R)/f (1) = 0} E30 = {f ∈ F(R, R)/f (1) = 0} Exercice 2 On munit R2 des lois : E × E −→ E ((x1 , y1 ), (x2 , y2 )) −→ (x1 + x2 , y1 + y2 ) comme addition et R × E −→ E (λ, (x, y)) −→ (λx, 0) 15 16 Calcul matriciel come multiplication par un scalaire. E doté de ces lois est-il un espace vectoriel ? Exercice 3 Définition 11. Une matrice carrée 2 × 2 est un tableau carré à deux lignes et deux colonnes A= a11 a12 a21 a22 colonnes = (aij )j=12 ∈ M2 (K) i=12 lignes ,ou K est un corps (pensez aux nombres réels ou aux complexes). On munit M2 (R) des lois suivantes : M2 (R) × M2 (R) −→ M2 (R) j=12 j=12 (aij )i=12 , (bij )j=12 i=12 −→ (aij + bij )i=12 comme addition et R × M2 (R) −→ M2 (R) j=12 (λ, (aij )j=12 i=12 −→ (λaij )i=12 come multiplication par un scalaire. Montrer que M2 (Rr) muni de ces lois est un espace vectoriel. Exercice 4 Soit a+b c E = {A ∈ M2 (R)/A = } 2c −b 1 a F = {A ∈ M2 (R)/A = } 0 b Lequel de ces deux sous ensembles de M2 (R) sont des sev ? Chapitre 2. Feuille Td 1 17 B :Somme et somme directe d’espaces vectoriels Exercice 5 Montrer que les ensembles U = {(a, a, a)/a ∈ R} et V = {(α, β, γ) ∈ R3 /α + 2β + 3γ = 0} sont des sev de R3 et que R3 = U ⊕ V . Exercice 6 : caractérisation de la somme directe de 3 sev Soient U, V et W des sev d’un ev E vérifiant : (1) : U ∩ V = {0} = (U + V ) ∩ W 1. Démontrer que : U ∩ V = {0} = U ∩ (V + W ) 2. Montrer que (1) équivaut à : pour tout x dans U + V + W il existe un unique (u, v, w) U × V × W tels que x = u + v + w Exercice 7 Soient e1 = (0, 1, −2, 1), e2 = (1, 0, 2, −1), e3 = (3, 2, 2, −1) , e4 = (0, 0, 1, 0) et e5 = (0, 0, 0, 1) des vecteurs de R4 . Les propositions suivantes sont elles vraies ou fausses ? Justifier votre réponse. 1. vect(e1 , e2 , e3 ) = vect((1, 1, 0, 0), (−1, 1, −4, 2)) 2. (1, 1, 0, 0) ∈ vect(e1 , e2 ) ∩ vect(e2 , e3 , e4 ) 3. dimR (vect(e1 , e2 ) ∩ vect(e2 , e3 , e4)) = 1 4. vect(e1 , e2 ) + (e2 , e3 , e4 ) = R4 5. vect(e4 , e5 ) est un sous espace vectoriel supplementaire de vect(e1 , e2 , e4 ) dans R4 Exercice 8 On considère les vecteurs v1 = (1, 0, 0, 1), v2 = (0, 0, 1, 0, v3 = (0, 1, 0, 0), v4 = (0, 0, 0, 1) et v5 = (0, 1, 0, 1) dans R4 . 18 Calcul matriciel 1. vect(v1 , v2 ) et vect(v3 ) sont ils supplémentaires dans R4 ? 2. Même question pour vect(v1 , v3 , v4 ) et vect(v2 , v5 ). Exercice 9 Soit E = M2 (R. a 0 0 0 } 0 b c d } E1 = {A ∈ M2 (R)/A = et E2 = {A ∈ M2 (R)/A = Montrer que E1 et E2 sont deux sev de E et que E = E1 ⊕ E2 . C : familles libres et génératrices. Base et dimension Exercice 8 Soient les vecteurs v1 = (1 − i, i) et v2 = (2, −1 + i) dans C2. 1. Montrer que le système (v1 , v2 ) est R libre et lié. 2. Vérifier que le système S = (1, 0)(i, 0), (0, i), (0, i) est une base de C2 sur R et donner les composantes des vecteurs v1 et v2 dans cette base. Exercice 10 Montrer que dans R3 les vecteurs u1 = (2, 3, −1) et u2 = (1, −1, −2) engendrent le même sev que les vecteurs v1 = (3, 7, 0) et v2 (5, 0, −7). Exercice 11 La famille {v1 , v2 , v3 } ∈ R3 avec v1 = (1, 1, −1) , v2 = (2, 1, 3) et v3 = (0, −1, 5) est-elle libre ? Est-elle génératrice ? Quelle relation linéaire lie les vecteurs ? Quel est l’espace qu’ils engendrent ? Chapitre 2. Feuille Td 1 19 Exercice 12 Montrer que la famille (v1 , v2 ) où v1 = (1, 2) et v2 = (−1, 1) engendre R2 . Est elle une base ? Exercice 13 Dans R4 on considère l’ensemble E des vecteurs (x1 , x2 , x3 , x4 ) vérifiant x1 + x2 , x3 , x4 = 0. L’ensemble E est il un sev de R4 ? Si oui, en donner une base. Exercice 14* Les familles suivantes sont elles libres ? (a) v1 = (1, 0, 1), v2 = (0, 2, 2) et v3 = (3, 7, 1) dans R3 (b) v1 = (1, 0, 0), v2 = (0, 1, 1) et v3 = (1, 1, 1) dans R3 (c) v1 = (1, 2, 1, 2, 1), v2 = (2, 1, 2, 1, 2) , v3 = (1, 0, 1, 1, 0) et v4 = (0, 1, 0, 0, 1) dans R5 (d) v1 = (2, 4, 3, −1, −2, 1), v2 = (1, 1, 2, 1, 3, 1) et v3 = (0, −1, 0, 3, 6, 2) dans R6 Exercice 15* on considère dans Rrn une famile de 4 vecteurs linéairement indépendants (e1 , e2 , e3 , e4 ). Les familles suivantes sont elles libres ? (a) (e1 , 2e2 , e3 ) (b) (e1 , e3 ) (c) (e1 , 2e1 + e4 , e4 ) (d) (3e1 + e3 , e3 , e2 + e3 ) (e) (2e1 + e2 , e1 − 3e2 , e4 , e2 − e1 ) Chapitre 3 Solutions de la feuille 1 A : espaces vectoriels, sous espaces vectoriels Exercice 1 (1) E1 est un sev : -E1 6= ∅ car (0, 0, 0) ∈ E1 (en effet 0 + 0 = 0). -soient (x1 , x2 , x3 ) ∈ E1 i.e. x1 + x2 = 0 et (y1 , y2 , y3 ) ∈ E1 i.e. y1 + y2 = 0 Alors ((x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 ) ∈ E1 si (x1 + y1 ) + (x2 + y2 ) = 0. Ceci est vrai car x1 + x2 = 0 et y1 + y2 = 0. Donc E1 est stable par addition. - Soit (x, y, z) ∈ E1 ie x + y = 0. Soit λ ∈ R. Alors (λx, λy, λz) ∈ E1 car λx + λy = λ(x + y) = 0. donc E1 reste stable par la multiplication par un scalaire. (2) E2 n’est pas un sev : en effet (1, −2) = (0, −2) + (1, 0) et on a (1, −2) 6∈ E2 car 1 − 2 < 0 et (0, −2) et (1, 0) sont dans E2 . Donc l’addition n est pas stable. 21 22 Calcul matriciel (3) E3 est un sev de l’ensemble des applications de R dans R. -E3 6= ∅ car la fonction f qui est nulle partout appartient à E3 . -Soient f, g ∈ E3 . Alors (f + g)(1) = f (1) + g(1) = 0 donc f + g ∈ E3 -Soit f ∈ e3 et λ ∈ R. Alors (λf )(1) = λf (1) = 0. donc λf ∈ E3 . (4) Par contre E30 n’est pas un sev. Soit f ∈ E30 . Alors f (0) + f (0) = 2 = (f + f )(0) Donc f + f 6∈ E30 . Exercice 2 L’addition définit sur R2 est l’usuelle. Donc il nous faut juste vérifier les axiomes pour la multiplication par un scalaire. Soient 1 ∈ R et (x, y) ∈ E. Alors i.(x, y) = (x, 0) 6= (x, y). Cet axiome n’étant pas vérifier, R2 muni de ces lois n’est pas un ev. Exercice 3 C’est bien un ev. L’élément neutre de l’addition est 0 0 0 0 et l’opposé de a b c d −a −b est . −c −d (Les axiomes ne sont pas difficiles ici à vérifier.) Exercice 4 Tout élément de E peut s’écrire sous la forme : 1 0 1 0 0 1 A=a +b +c 0 0 0 −1 2 0 avec a,b et c quelconques. Donc E est engendré par ces trois matrices , c’est bien un sev de M2 (R). Quant à F l’élément neutre de M2 (R) ne lui appartient pas. Donc F ne peut etre un sev de M2 (R). Chapitre 3. Solutions de la feuille 1 23 B :Somme et somme directe d’espaces vectoriels Exercice 5 On montre d’abord que U et V sont des sev de R3 : -(0, 0, 0) ∈ U donc U est non vide. De meme (0, 0, 0) ∈ V car 0 + 0 + 0 = 0 donc V n’est pas vide. -Stabilité pour l’addition : Soient (a, a, a) ∈ U et (b, b, b) ∈ U , Alors (a + b, a + b, a + b) ∈ U . évident. Soient (a, b, c) et (d, e, f ) dans V. Alors a + d + 2(b + e) + 3(c + f ) = a + 2b + 3c + d + 2e + 3f = 0. Donc V est stable par addition. -Stabilité par multiplication par un scalaire : Soit λ ∈ R. Alors (λa, λa, λa) ∈ U . Soit (a, b, c) ∈ V . Alors λa + λ2b + λ3c = λ(a + 2b + 3c) = 0. D’où la stabilité de V. Maintenant il nous faut montrer que R3 = U ⊕ V , ie que U et V s’intersecte dans l’élément neutre et que U et V engendre tout l’espace. Soient (x, y, z) ∈ R3 . On veut monter qu’il existe (a, a, a) ∈ U et (b, c, d) ∈ V tels que (x, y, z) = (a, a, a) + (b, c, d). On obtient le système suivant : x=a+b y =a+c z =a+d qui est équivalent à b=x−a c=y−a d=z−a et on a b + 2c + 3d = 0 = (x − a) + 2(y − a) + 3(z − a). D’ou a = 16 (x + 2y + 3z). Et on trouve alors les expressions de b,c et d en x,y et z grace aux équations précédentes. On vient de montrer que s’il existe une décomposition de (x, y, z) alors elle est unique (car on n’a pas de choix sur a,b,c,d).Réciproquement Si pour (x, y, z) donnés on choisit a,b,c,d tels que ci dessus alors (a, a, a) + (b, c, d) = (x, y, z). 24 Calcul matriciel Exercice 7 On commence par donner des noms aux ensembles que l on va considérer (pour raccoucir la rédaction). Soient vect(e1 , e2 , e3 ) = A, B = vect((1, 1, 0, 0), (−1, 1, −4, 2)), C = vect(e1 , e2 ), D = vect(e2 , e3 , e4 ) et E = vect(e4 , e5 ). (a) Pour montrer l’égalité entre les deux epsaces on montre que BA puis que dimB = dimA. Pour montrer l’ inclusion il sufiit de montrer que les générateurs de B sont dans A. • (1, 1, 0, 0) ∈ A équivaut à dire que (1, 1, 0, 0) est une combinaison linéaire de (e1 , e2 , e3 ). Soient a, b, c ∈ R tels que (1, 1, 0, 0) = ae1 + be2 + ce3 (on suppose qu ils existent, si on aboutit a une contradiction cela voudra dire que (1, 1, 0, 0) 6∈ A.) Ceci équivaut à : 1 = b + 3c * 1 = a + 2c 1 = b + 3c => 0 = −2a + 2b + 2c a=b+c 0=a−b−c On peut prendre a = 1 = b, c = 0. • De même (−1, 1, −4, 2) ∈ A équivaut à dire que (−1, 1, −4, 2) est une combinaison linéaire de (e1 , e2 , e3 ). Soient a, b, c ∈ R tels que (−1, 1, −4, 2) = ae1 + be2 + ce3 Ceci équivaut à : −1 = b + 3c * 1 = a + 2c −1 = b + 3c => −4 = −2a + 2b + 2c a =b+c+2 2=a−b−c On peut prendre a = 1 = −b, c = 0. Donc B ⊂ A. Or (e1 , e2 ) est libre et e3 = 2e1 + 3e2 donc dimA = 2. et dimB = 2 car ces deux générateurs sont libres entre eux. (b) dimA = 2 et (e1 , e2 ) ainsi que (e2 , e3 ) sont des familles libres donc A = C ⊂ D d’où C ∩ D = A et on a déjà que (1, 1, 0, 0) ∈ A. (c) C ∩ D = A et dimA = 2 Chapitre 3. Solutions de la feuille 1 25 (d) dim(C + D) = dimC + dimD − dim(C ∩ D) . Or dimC = 2 = dimA donc dim(C + D) = dimD 6 3 car D a au plus 3 générateurs. Donc dim(C + D) < dimR4 = 4 , il ne peut y avoir égalité entre les deux ensembles. (e) Calculons A ∩ E. Soit z ∈ A ∩ E . Alors z est à la fois une combinaison linéaire des générateurs de A et de ceux de E. Donc il existe a, b, c, d, e ∈ tels que z = ae1 + be2 + ce2 = 3 = de4 + ee5 . Ceci équivaut à : b + 3c = 0 * b = −3c a + 2c = 0 a = −2c => −2a + 2b + 2c = d e=0=d a−b−c=e donc z = 0 = A ∩ E. On doit doit montrer que R4 = A+E. Il suffit de montrer que R4 ⊂ A+E car dimR4 > dim(A + E). Soit (x, y, z, w)R4 . Soient a, b, c, d, e ∈ R tels que (x, y, z, w) = ae1 + be2 + ce3 + de4 + ee5 (si il n y a pas de solutions cela veut dire que l’on n’a pas l’inclusion souhaitée). Cela équivaut à x = b + 3c a = y − 2c * y = a + 2c b = x − 3c => z = −2a + 2b + 2c + d d = z − 2x + 2y w =a−b−c+e e=w−y+x Il existe une solution ( il y en a même plus). Donc on a bien l’inclusion. Exercice 8 (a) dim(vect(v1 , v2 )+vect(v3 )) = dimvect(v1 , v2 )+dimvect(v3 )−dim(vect(v1 , v2 )∩ vect(v3 ))geq3 < 4 = dimR4 donc ils ne peuvent supplémentaires. (b) v5 = v4 + v3 donc v5 ∈ vect(v1 , v3 , v4 ) ∩ vect(v2 , v5 ). Les deux sev ne sont pas supplémentaires l’un de l’autre. 26 Calcul matriciel Exercice 9 a 0 0 0 } 0 b c d } E1 = {A ∈ M2 (R)/A = est engendré par la matrice 1 0 0 0 et E2 = {A ∈ M2 (R)/A = est engendré par les matrices 0 1 0 0 0 0 , et 0 0 1 0 0 1 Donc ce sont bien des sev de l’espace des matrices carrées 2 × 2. 0 0 E1 ∩ E2 = } 0 0 . Toute matrice 2 × 2 peuvent s’écrire comme somme de matrices de E1 et E2 (en effet il n’y a pas de choix sur a,b,c,d pour que les matrices appartiennet à E1 ou E2 .). D’où le résultat. C : familles libres et génératrices. Base et dimension Exercice 8 Remarque : C2 est un Rr ev de dimension 4 et un C ev de dimension 2. 1) Montrons que le système est R libre : Soient a,b dans R et montrons que av1 + bv2 = (0, 0) implique a = b = 0 (c’est la définition de “famille libre”). av1 +bv2 = a(1−i, i)+b(2, −1+i) = (a−ia+2b, ai−b+ib) = (0, 0). Ceci équivaut à : Chapitre 3. Solutions de la feuille 1 27 a + 2b − ia = 0 + i0 −b + i(a − b) = 0 + i0 on identifit la partie réelle et imaginaire : a + 2b = 0 a=0 b=0 a+b=0 Donc a = b = 0. Par contre si a et b sont complexes on obtient a + 2b − ia = 0 + i0 −b + i(a − b) = 0 + i0 Mais cette fois on ne peut pas identifier les parties réelles et imaginaires. On doit résoudre le système complexe. Les deux éqations sont équivalentes à b = 21 (1 − i)a. Donc on peut choisir un a non nul tel que la premiere équation soit vérifier. Les deux vecteurs sont liés. 2) On montre facilement que S est une famille génératrice de C2 (tous les éléments de 2 peuvent s’écrire sous la forme a(1, 0) + b(i, 0) + c(0, 1) + d(0, i)) et que cette famille est R libre (grace à l’identification partie réelle et imaginaire). v1 = 1(1, 0) − 1(i, 0) + 0(0, 1) + 1(0, i) et v2 = 2(1, 0) + 0(i, 0) − 1(0, 1) + 1(0, i) Exercice 9 Pour montrer que deux espaces sont les memes, en règle générale on montre les deux inclusions. 1) vect(u1 , u2 ) ⊂ vect(v1 , v2 ) Pour montrer une telle inclusion il faut montrer que tout élément du premier espace 28 Calcul matriciel appartient au deuxième. Donc on prend un élément quelconque x dans vec(u1 , u2 ) et on montre que x ∈ vect(v1 , v2 ). Soit donc x ∈ vect(u1 , u2 ). x est combinaison linéaire de u1 et u2 , ie soient a, ∈ R tels que x = au1 + bu2 . Si x était un élément de vect(v1 , v2 ) il existerait c et d réels tels que x = cv1 + dv2 . Alors au1 + bu2 = cv1 + dv2 i.e. a(2, 3, −1) + b(1, −1, −2) = c(3, 7, 0) + d(5, 0, −7). Il nous faut montrer que le système que l’équation précédente engendre est résoluble. 2a + b = 3c + 5d 3a − b = 7c −a − 2b = −7d La deuxième équation nous donne c = 71 (3a − b). La troisieme nous donne d = 1 (a + 2b). Pour que c et d conviennent , il faut que la premiere équation soit vérifier 7 et c’est le cas. D’ou l’inclusion. 2) vect(v1 , v2 ) ⊂ vect(u1 , u2 ) On procède de meme :cette fois grace au système obtenu précédemment on trouve a et b en fonction de c et d. Une deuxieme méthode consistait en une fois que l’on a 1), on montre que (u1 , u2 ) est libre, c’est donc une base d’un ev de dimension 2 d’ou l’égalité des espaces. Exercice 10 1)libre ? Soient a,b,c réels tels que av1 + bv2 + cv3 = 0 (1). rappel : la famille est libre ssi la relation précédente (1) implique a = b = c = 0. Sinon elle est liée. (1) équivaut à : a + 2b = 0 a+b−c=0 −a + 3b + 5c = 0 <=> a = −2b c = −b −2b − 3b + 5b = 0 Chapitre 3. Solutions de la feuille 1 29 Alors a = −2, b = 1 et c = −1 est solution de (1). Donc la famille n’est pas libre (elle est donc liée). 2)génératrice ? La famille comporte trois vecteurs de R3 , elle ne peut etre génératrice que si elle est libre. N’étant pas libre elle ne peut etre génératrice. Les vecteurs v1 et v2 forment une famille libre donc vect(v1 , v2 , v3 ) = vect(v1 , v2 ). 3)relation de dépendance On a montré dans 1) que −2v1 + v2 − v3 = 0. De plus la famille formée par v1 et v2 est libre donc il n y a qu’une relation de dépendance :−2v1 + v2 − v3 = 0. Exercice 11 Pour montrer que la famille (v1 , v2 ) engendre R2 , il faut montrer que tout élément de R2 s’écrit comme un combinaison linéaire des vecteurs de cette famille. Soit (x1 , x2 ) = x ∈ R2 . On doit montrer que le système suivant admet toujours une solution (x étant donné) : x = av1 + bv2 , ce qui équivaut à : a − b = x1 2a + b = x2 <=> a = x1 + b b = 13 (x2 − 2x1 ) Donc le système admet toujours une solution, donc la famille proposée engendre R2 . Comme elle est composée de deux vecteurs, le théorème sur la dimension dit que c’est une base. remarque : il est parfois plus facile de montrer qu’une famille est libre plutot que génératrice. Toujours grace au th sur la dimension on pouvait ici montrer que la famille était libre, donc une base et donc génératrice. 30 Calcul matriciel Exercice 12 Dans R4 , soient v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v4 = (2, 1, 1, 1), v4 = (−1, 0, −1, 2) et v5 = (2, 3, 0, 1). On pose U le sev engendré par (v1 , v2 , v3 ) et V celui engendré par (v4 , v5 ). (a) Vérifier que le système (v1 , v2 , v3 , v4 ) est libre. (Comme il est formé de 4 vecteurs de R4 il en sera une base). (b) En déduire la dimension de chacun des sous espaces U , V , U + V et U ∩ V . (c) Déterminer une base du sev U ∩ V . 1) Soient a, b, c, d ∈ R tels que av1 + bv2 + cv3 + dv4 = 0. Cela équivaut à : a + b + 2c − d = 0 2a + b + c = 0 3a +b+c−d=0 4a + 3b + c + 2d = 0 La troisième ligne moins la deuxième donne a = d. Donc le système équivaut à : a=d b = 2c 2a + b+c=0 6a + 3b + c = 0 ce qui nous donne a = c = 0 donc b = d = 0. La famille formée par les quatre premiers vecteurs est donc libre. 2) 1) implique que les trois premiers vecteurs sont libres eux aussi (car toute sous famille d’une famille libre est libre) et par hypothèse ils engendrent U donc dimU = 3. La famille engendrée par (v4 , v5 ) est libre (facile) et engendre V donc dimV = 2. De plus on a montré que vect(v1 , v2 , v3 , v4 ) = R4 donc vect(v1 , v2 , v3 , v4 , v5 ) = R4 .De plus les trois premiers vecteurs engendrent U et les deux derniers engendrent V donc les cinq vecteurs engendrent u + V . La dimension de U + V est donc 4. Finalement dimU ∩ V = dimU + dimV − dimU + V = 1. 3) La dimension de U ∩ V égale 1 donc une base de U ∩ V sera formé d’un seul vecteur. Soit (a, b, c, d) ∈ U ∩ V . Alors il existe x1 , x2 , x3 , y1 , y2 ∈ R tels que (a, b, c, d) = x1 v1 + x2 v2 + x3 v3 = y1 v4 + y2 v5 . Il nous faut donc résoudre le système suivant à quatre équations et cinq inconnues (on va trouver la valeur de quatre Chapitre 3. Solutions de la feuille 1 31 inconnues en fonction de la cinquième car la dimension de U ∩ V = 1) : x1 + x2 + 2x3 + y1 − 2y2 = 0 2x1 + x2 + x3 − 3y2 = 0 3x1 + x2 + x3 + y1 = 0 4x1 + 3x2 + x3 − 2y1 − y2 = 0 <=> x1 + x2 + 2x3 + y1 − 2y2 = 0 −x2 − 3x3 − 2y1 + y2 = 0 −2x2 − 5x3 − 2y1 + 6y2 = 0 −x2 − 7x3 − 6y1 + 7y2 = 0 <=> x1 + x2 + 2x3 + y1 − 2y2 = 0 −x2 − 3x3 − 2y1 + y2 = 0 x3 + 2y1 + 4y2 = 0 −4x3 − 4y1 + 6y2 = 0 <=> x1 + x2 + 2x3 + y1 − 2y2 = 0 −x2 − 3x3 − 2y1 + y2 = 0 x3 + 2y1 + 4y2 = 0 4y1 + 22y2 = 0 <=> y + 2y2 = − 17 y x1 = 9y2 − 14y2 − 11 2 2 2 2 x2 = −21y2 + 11y2 + y2 = −9y2 x3 = +11y2 − 4y2 = 7y2 y1 = − 11 y 2 2 Alors tout élément de U ∩V s’écrit sous la forme (a, b, c, d) = (− 17 y , 3y2 , − 11 y , −10y2 ) 2 2 2 2 17 11 avec y2 sans contraintes, donc U ∩ V = vect(− 2 , 3, − 2 , −10). Exercice 13 E est un espace vectoriel. Sa dimension est dimE = dimR4 − 1 = 3 (1 est le nombre d’équation qui le définissent). Pour trouver une base il suffit de trouver trois éléments libres de 4 qui vérifient l’équation. Prenons par exemple ((1, −1, 0, 0), (1, 0, −1, 0), (1, 0, 0, −1). 32 Calcul matriciel Exercice 14 Pour montrer qu’une famille de vecteurs (v1 , ..., vn ) est libre il faut montrer que l’unique solution de a1 v1 + ... + an vn = 0 (ici 0 est l’élément neutre de l’ev considéré) est a1 = ... = an = 0 (ici c’est le scalaire 0). (a) Soient a, b, c ∈ R tels que av1 + bv2 + cv3 = (0, 0, 0). Ceci équivaut à : a(1, 0, 1) + b0, 2, 2) + c(3, 7, 1) <=> a + 3c = 0 2b + 7c = 0 a + 2b + c = 0 <=> a=0 b=0 c=0 Donc la famille est libre. (b) On a directement que v3 = v1 + v2 . Donc la famille n’est pas libre. (c) Soient a, b, c, di nR tels que av1 + bv2 + cv3 + dv4 = 0. Ceci équivaut à : a + 2b + c = 0 2a + b + d = 0 a + 2b + c = 0 2a + b + c = 0 a + 2b + d = 0 <=> a=b c = −3b c=d Donc (0, 0, 0, 0) n’est pas l’unique solution du système, donc la famille n’est pas libre. (d) On trouve que la famille est libre (ici il faut prendre 3 variables car il y a trois vecteurs). Chapitre 3. Solutions de la feuille 1 33 Exercice 15 Dans cet exercice on ne connait pas les valeurs des vecteurs (e1 , e2 , e3 , e4 ) mais on sait qu’ils sont linéairement indépendants, c’est à die que si on a ae1 + be2 + ce3 + de4 = 0 ceci implique que a = b = c = d = 0. (a) Une sous famille d’une famille libre est libre donc (e1 , e2 , e3 ) est libre. Soient a, b, c, d ∈ R tels que ae1 + 2be2 + ce3 = 0 . Par ce qui précède cette égalité équivaut à a = 2b = c = 0. Donc la famille est libre. (b) (e1 , e3 ) est libre en tant que sous famille d’une famille libre. (c) le deuxième vecteur est evidemment une combinaison linéaire des deux autres donc la famille n’est pas libre. (d) Soient a, b, c ∈ R tels que 3ae1 + ae3 + be3 + ce2 + ce3 = 0. cela équivaut à 3ae1 + ce2 + (a + b + c)e3 = 0. Donc on a a = 0 = c = a + b + c car la famille (e1 , e2 , e3 ) est libre.Cela donne a = b = c = 0. Donc la famille donnée est libre. (e) Soient a, b, c, di n tels que (2a + b − d)e1 + (a − 3b + d)e2 + ce4 = 0. Ceci équivaut à d = 2a et b = a. (0, 0, 0) n’est pas l’unique solution du système donc la famille n’est pas libre. Chapitre 4 Interlude : le pivot de Gauss On a vu dans ce chapitre que l’indépendance et la dépendance d’un système de vecteurs revient fréquemment dans par exemple la détermination de base ou le calcul des dimensions... et ces problèmes se ramènent à l’étude de système linéaires (cf. exercices). Comme annoncé dans l’introduction on va dans ce chapitre développer un outil appelé méthode du pivot ou d’élimination de Gauss pour étudier ces systèmes. Les exemples donnés dans ce chapitre tiendront lieu d’exercices : à vous de jouer.Pour vous entrainer, vous pouvez résoudre les exercices précédents avec la méthode du pivot 1 Etude d’un système par la méthode du pivot On appelle système d’équations linéaires un système du type : a11 x1 + ... + a1n xn = b1 .. . a x + ... + a x = b p1 1 pn n p Les xi sont les inconnues et résoudre le système consiste à déterminer les xi qui satisfont les équations du système. Comme on l’a vu dans la pratique certaines opérations sont non seulement autorisées mais surtout permettent de résoudre le système/ (a) changer l’ordre des équations ; 35 36 Calcul matriciel (b) multiplier une équations par une constante élément de K (le corps tels que aij ∈ K) (c) ajouter à une ligne une combinaison linéaire des autres lignes. Illustrons cela par quelques exemples : Exemple 1 : L1 2x + y − 2z + 3w = 1 L2 3x + 2y − z + 2w = 4 L3 3x + 3y + 3z − 3w = 5 On voit que les coefficients devant x sont tous non nuls. Si on multiplie la première ligne par 3 et les suivantes par 2 alors le coefficient devant x sera à chaque fois 6. Il suffira par exemple de soustraire la nouvelle ligne 1 aux deux autres pour faire disparaitre dans celles-ci l’inconnues x. On fait maintenant la même chose avec les y dans les deux dernières lignes et on obtient :(faites les étapes ! !) L01 2x + y − 2z + 3w = 1 y + 4z − 5w = 5 L02 0 L3 0=8 (Remarque : attention à la deuxième étape ne toucher plus à la ligne que vous avez soustraite ! Pourquoi ?...) Dans cet exemple on trouve 0 = 8 ce qui est évidemment faux, on dit alors que le système est incompatible ou qu il n a pas de solutions. Exemple 2 : L1 x + 2y − z = 1 L2 2x + 3y + z = 2 L3 2 − 4y − 6z = 2 Après la même méthode décrite ci dessus on trouve : x + 2y − z = 1 −y + 3z = 0 z=1 Chapitre 4. Interlude : le pivot de Gauss 37 Et on peut remonter la valeur de z dans d’abord l’équation 2 puis dans la 1 pour trouver les valeurs de x et y. Comme on le voit la méthode consiste à choisir une inconnue dans la première équation avec un coefficient non nul, et à éliminer cette inconnue dans les équations suivantes. Puis on renouvelle l’opération en “oubliant” la première équation. On dit que l’on met le système sous forme échelonnée. Exercez-vous sur les systèmes suivants : 1) L1 x + 2y − 3z = 4 L2 x + 3y + z = 11 L3 2x + 5y − 4z = 13 L4 4x + 11y = 37 On trouve x + 2y − 3z = 4 y + 4z = 7 2z = z 0=0 donc z = 1 ,y = 3 et x = 1. 2) L1 x − 3y + 4z − 2w = 5 L2 x − y + 9z − w = 7 L3 x − 2y + 7z − 2w = 9 On trouve : x − 3y + 4z − 2w = 5 2y + 5z + w = 2 z−w =6 On voit que l’on peut exprimer toutes les solutions pour x,y,z en fonctions de w. L’ensemble des solutions s’écrit sous la forme :(x, y, z, w) = (−61−11λ, −14−3λ, 6+λ, λ). Le système admet une infinité de solutions. On appelle les variables x,y,z les inconnues principales et w la variable libre (il peut y en avoir plusieurs). 38 Calcul matriciel Remarquez que les échelonnements que vous trouvez dépendent de l’inconnue et de la première équation que vous choisissez. Pour bien utiliser la méthode il faut préparer le système de manière à ce que les calculs ne soient pas trop lourds. 2 Systèmes homogènes Les systèmes homogènes sont les systèmes de la forme : a11 x1 + ... + a1n xn = 0 .. . a x + ... + a x = 0 p1 1 pn n Ces système on toujours une solution au moins : x1 = ... = xn = 0. L’ensemble des solutions d’unsystème linéaire homogène à n inconnues et p équations est un sous espace vectoriel de K n . Si le système sous forme échelonnée comporte k équations l’espace des solutions est de dimension n − k. En particulier un système homogène avec plus d’inconnues que d’équations admet des solutions non nulles. Remarque : La dimensions de l’espace des solutions égale le nombre de variables libres qui apparaissent dans le système sous forme échelonnée. 3 Applications • Montrer que les vecteurs v1 = (1, −2, 3), v2 = (2, 3, −1) et v3 = (3, 2, 1) forment une famille libre Soient a, b, c ∈ R tels que av1 +bv2 +cv3 = 0. On doit montrer qu’alors a = b = c = 0 (cf. definition de systeme libre). Cela revient à résoudre : a + 2b + 3c = 0 −2a + 3b + 2c = 0 −3a − b + c = 0 Résoudre le système par la méthode. On trouve bien a = b = c = 0. Chapitre 4. Interlude : le pivot de Gauss 39 •Détermination des relations linéaires liant une famille de vecteurs Déterminer les relations liant les vacteurs de R4 suivants :v1 = (1, 1, 0, 2), v2 = (−1, 0, 2, 1), v3 = (0, 1, 2, 3) et v4 = (1, 3, 4, 8) On veut trouver a,b,c,d réels tels que av1 + bv2 + cv3 + dv4 = 0 c’est à dire trouver les solutions du système : a−b +d=0 a + c + 3d = 0 2b + 2c + 4d = 0 2a + b + 3c + 8d = 0 Utilisez la méthode pour trouver : a−b +d=0 b + c + 2d = 0 0=0 0=0 On trouve deux variables libres et deux inconnues principales. Les solutions sont de la forme : (a, b, c, d) = (−λ − 3µ, −λ − 2µ, λ, µ). D’ou les relations puvent s’écrire sous la forme (−λ − 3µ)v1 + (−λ − 2µ)v2 + λv3 + µv4 = 0. On peut choisir λ = 1 et µ = 0 (et inversement) et on trouve les équations v1 + v2 − v3 = 0 et 3v1 + 2v2 − v4 = 0 (toutes les autres équations seront combinaisons linéaires de celles ci. (Réfléchissez y bien). • Soit v = (3, 9, −4, −2). Montrer que v ∈ vect(v1 , v2 , v3 ) où v1 = (1, −2, 0, 3), v2 = (2, 3, 0, 1) et v3 = (2, −1, 2, 1). Déterminer les composantes de v sur v1 , v2 , v3 On veut qu’il existe une solution à l’équation : av1 + bv2 + cv3 = v c’est à dire une solution au système : a + 2b + 2c = 3 −2a + 3b − c = 9 2c = −4 3a − b + c = −2 40 Calcul matriciel (remarquez que cette fois le système n’est pas homogène et qu’il pourrait ne pas y avoir de solutions). On trouve ici a = 1, b = 3 et c = −2. Donc v appartient bien à l’espace engendr’é par les trois vecteurs et on a v = v1 + 3v2 − 2v3 . • La famille v1 = (1, 1, 1), v2 = (0, 1, 1) et v3 = (0, 1, −1) génère-t-elle R3 ? On doit montrer que tout vecteur de R3 peut s’écrire comme combinaison linéaire des trois vecteurs proposés, i.e. que le système (a, b, c) = ev1 + f v2 + gv3 admet au moins une solution pour tout (a, b, c) ∈ R3 . On doit donc résoudre le système suivant (en fonction de a,b,c) : e=a e+f +g =b e+f −g =c On trouve bien e, f, g en fonction de a, b, c (le faire ! !) d’où la réponse par l’affirmative. •Trouver une base de E ∩ F où E et F sont des sev on renvoit l’étudiant à l’exercice 12 de la première feuille. • Equations d’un sous espace Il s’agit de trouver les équations satisfaites par les vecteurs d’un espace engendrés par des vaecteurs donnés. Déterminer les équations du sous espace F de R5 engendré par les vecteurs v1 = (1, 3, −2, 2, 3), v2 = (1, 4, −3, 4, 2), et v3 = (2, 3, −1, −2, 9). Un élément de l’espace F est de la forme (x1 , x2 , x3 , x4 , x5 ) et il vérifie des équations du type : ax1 + bx2 + cx3 + dx4 + ex5 = 0. Les vecteurs v1 , v2 et v3 vérifient en particulier ces équations, donc on trouve le système : a + 3b − 2c + 2d + 3e = 0 a + 4b − 3c + 4d + 2e = 0 2a + 3b − c − 2d + 9e = 0 <On échelonne le système et on trouve deux inconnues principales et trois variables libres. On trouve donc trois équations qui engendreront l’ensemble des équations vérifiées par les vecteurs de f : Chapitre 4. Interlude : le pivot de Gauss −x1 + x2 + x3 = 0 4x1 − 2x2 + x4 = 0 −6x1 + x2 + x5 = 0 41 Chapitre 5 Calcul matriciel Dans ce chapitre on développe l’outil fondamental de ce cours. Sa signification apparaitra dans le chapitre suivant. Pour l’instant on va chercher à s’approprier cet objet appelé matrice, i.e. on le définit ainsi que les opérations que l’on s’autorise dessus. 1 1.1 Les matrices Définitions Définition 12. Une matrice est un tableau rectangulaire de nombres dans un corps K(= R ou C) à m lignes et n colonnes. On note cet ensemble Mm,n (K). Un élément de cet ensemble s’écrit : a11 . . . a1n . = (aij )16i6m A= . 16j6n . am1 . . . amn où aij ∈ K Si m = n on dit que A est une matrice carrée et on note Mn,n (K) = Mn (K). Définition 13. On appelle matrice identité In la matrice carrée de n lignes et n colonnes suivante : 43 44 Calcul matriciel In = 1.2 1 0 . . . 0 0 1 0 . . 0 . . . 0 . . . 0 1 Opérations sur les matrices On munit l’ensemble des matrices Mm,n (K) des opérations suivantes : l’addition : + : Mm,n × Mm,n → Mm,n (aij ), (bij ) → (aii + bij ) la multiplication par un saclaire : . : K × Mm,n → Mm,n λ, (bij ) → (λbij ) Ces opérations font de (Mm,n , +, .) un espace vectoriel, de dimension mn. Transposition des matrices Définition 14. Soit A ∈ Mm,p (K). La transposée de A, notée t A, est un élément de Mp,m (K) telle que a0 ij = aji . Exemple A= Alors 1 2 3 4 5 6 1 4 t A= 2 5 3 6 Conjugaison hermitienne Rappel : Soit z = a + ib ∈ C. Alors z = a − ib est le conjugué de z. Chapitre 5. Calcul matriciel 45 Définition 15. Soit M ∈ Mm,n (C). On appelle conjugaison hermitienne de M la matrice t M telle que a0ij = aji . Trace d’une matrice carrée Définition 16. Soit A ∈ Mn (K) une matrice carrée. Sa trace, notée T r(A), est la somme de ses coefficients diagonnaux. Exemple 1 2 3 A= 4 5 6 1 1 1 alors T r(A) = 1 + 5 + 1 = 7. 1.3 Matrice lignes , Matrices colonnes Soit M ∈ Mm,n (K). Si m = 1 M est appelée matrice ligne. Si n = 1 M est appelée matrice colonne. 2 Produit de matrices En plus de l’addition et de la multiplication par un scalaire, on peut définir le produit de deux matrices, mais qu’entre matrices d’un certain type. Définition 17. On appelle produit de matrice l’application : . : Mm,n × Mn,p → Mm,p (aij ), (bmk ) → (cik ) où cik = ai1bik + ... + ain bnk . Proposition 5.1. Le produit de matrice est associatif, i.e. (A.B).C = A.(B.C) Le produit de matrice est distributif (par rapport à +), i.e. A.(B + C) = A.B + A.C. 46 Calcul matriciel Remarques : (a) Le produit n’est pas commutatif, i.e. A.B 6= B.A. (par exemple si A n’a pas le même nombre de colonnes que B a de lignes) (b) A.B = A.C n’implique pas que B = C, même si A 6= 0. (Exercice : contre exemple ?) (c) On peut avoir A.B = 0 sans que A ou B soit nulle. Exemples : (a) Pour les matrices carrées, le produit des matrices est une loi interne : Mn × Mn −→ Mn . L’élément neutre est la matrice identité de taille n. (b) Produit de matrice-vecteur Soit A ∈ Mm,p (K) et v= v1 . . . vp ∈ Mp,1 Alors A.v est defini et égale : a11 v1 + ... + a1p vp . . v= . am1 v1 + ... + amp vp ∈ Mm,1 Définition 18. Soit A ∈ Mn (K) une matrice carée de taille n. On dit que A est inversible si il existe une matrice B ∈ Mn (K) telle que A.B = In Proposition 5.2. (a) t (AB) =t B t A (t A)−1 =t (A−1 ) 3 Matrices particulières Dans cette section, on va définir différents sous ensembles des matrices carrées A ∈ Mn (K). Chapitre 5. Calcul matriciel 47 (b) (a) Matrices symétriques et antisymétriques . Définition 19. A est dite symétrique (resp. antisymétrique) si t A = A(resp.(t A = −A). (b) Matrices hermitiennes et antihermitiennes. Définition 20. A ∈ Mn (C) est dite hermitienne (resp. antihermitienne) si t A = A (resp. t A = −A). (En particulier les matrices réelles symétriques sont hermitiennes.) (c) Matrices normales. Définition 21. A ∈ Mn (C) est dite normale si t AA = At A. (d) Matrices idempotente. Définition 22. A est idempotente si A2 = A. (e) Matrices nilpotente. Définition 23. A est dite nilpotente si il existe m ∈ N tel que Am = In . (f) Matrices Orthogonale. Définition 24. A ∈ Mn (R) est dite orthogonale si t AA = In . (g) Matrices unitaire. Définition 25. A ∈ Mn (C) est dite unitaire si t AA = In . Chapitre 6 Feuille Td 2 On munit l’espace des matrices des lois usuelles qui en font un ev. Exercice 1 Dans l’ensemble M2,3 (C) des matrices à deux lignes et 3 colonnes à coeficients complexes résoudre : 1 i 1−i 0 1 + i −i −X = 2 −i i 1 1−i i−1 Exercice 2 Déterminer dans M2 (C) les matrices X et Y vérifiant : 1 i X +Y = 1 i et X −Y = 1 −i −1 i Exercice 3 Déterminer dans M2,3 (C) les matrices X, Y et Z telles que : 49 50 Calcul matriciel 4i i − 1 −i iX + Y − iZ = 1 1 + 2i 0 −1 − 5i 2 i X − Y + iZ = 0 −1 −i 7 1 − 2i 4+i X + Y + 2Z = 0 2i 1 − 2i Exercice 4 Calculer les produits suivants lorsque cela est possible : (a) 1 i −i 0 0 0 0 0 0 0 1 i 0 i −1 2 (b) 0 0 0 0 0 0 (c) 1 1 1 1 1 1 (d) 1 1 1 1 1 1 (e) 1 i 0 i −1 2 1 i i −1 0 2 (f) 1 i −i 1 1 i 0 i −1 2 0 2 Chapitre 6. Feuille Td 2 51 Exercice 5 Calculer 1 2 1 1 0 2 1 2 1 0 2 1 2 0 1 − 1 2 3 0 0 1 2 3 0 0 1 2 1 0 1 Exercice 6 On considère les matrices et 0 0 1 T = 0 1 0 1 0 0 1 −2 1 A = 2 −3 3 1 4 −1 (a) Calculer T A et AT . Si X ∈ M3 (R), comment obtient on T X et XT à partir de X ? Calculer T 2 (b) pour 1 0 0 E= 2 1 0 0 0 1 Calculer EA et AE.omment obtient on EX et XE à partir de X ? En déduire l’existence d’une seule matrice E −1 ∈ M3 (R) vérifiant EE −1 = I3 = E −1 E. Exercice 7 Soit A la matrice 1 0 2 0 −1 1 1 −2 0 Calculer A3 et vérifier que A3 − A − 4I = 0. En déduire que A est inversible. 52 Calcul matriciel Exercice 8 Soit 1 1 0 A= 0 1 1 0 0 1 et soit B = A − I3 . (a) Calculer B 2 , B 3 en déduire une formule de récurrence que l’on démontrera pour B n , pour tout entier n. (b) Développer (B + I3 )n par la formule du binôme et simplifier. (c) En déduire An Pour tout entier n. Exercice 9 Soit 2 1 1 A = 1 4 −1 4 9 −1 (a) On note KA l’ensemble des vecteurs x X= y z de R3 vérifiant 0 AX = 0 0 Montre que KA est un sev de Rr3 et déterminer une base de KA . (b) On pose , 1 C1 = A 0 0 0 C2 = A 1 0 Chapitre 6. Feuille Td 2 53 et 0 C3 = A 0 1 . Le systéme (C1 , C2 , C3 ) est-il libre dans R3 ? Déterminer une base du sev appelé Im(A) engendré par (C1 , C2 , C3 ). (c) Déterminer l’espace vectoriel engendré par KA ∪ Im(A). Que peut-on dire de KA ∩ Im(A) ? Exercice 10 : Rang d’une matrice Définition 26. On appelle rang d’une matrice la dimension de l’espace vectoriel engendré par ses vecteurs colonnes. (a) Calculer le rang des matrices 1 −1 3 5 1 2 0 −1 3 1 A= et B = 3 −1 2 8 2 1 2 3 −1 0 −1 3 −1 2 5 3 8 1 1 2 Que remarque-t-on ? (b) Calculer le rang des 1 2 A1 = 1 2 1 A3 = matrices suivantes. 1 2 1 1 1 0 1 1 1 1 1 1 1 0 1 1 2 1 , A = 2 1 0 1 1 1 1 1 1 1 2 1 0 1 1 0 2 1 1 2 1 1 −1 1 1 1 1 1 1 1 2 1 1 3 2 2 3 0 , A4 = 1 1 0 2 1 1 2 1 1 −1 0 0 1 0 0 0 0 0 1 0 1 1 1 1 1 1 0 0 0 1 1 1 2 1 1 2 2 2 3 0 Chapitre 7 Solutions de la feuille 2 Exercice 1 Le système 1 i 1−i 2 −i i −X = 0 1 + i −i 1 1−i i−1 équivaut à X= 1 i 1−i 2 −i i − 0 1 + i −i 1 1−i i−1 = 1 −1 1 1 −2 + i 1 (On soustrait les coefficients des matrices termes à termes). Exercice 2 Comme pour un système classique, on additionne les deux égalités (Alors l’inconnue Y disparaitra). On obtient : 2 0 2X = 0 2i C’est à dire : X= 0 0 0 i 55 56 Calcul matriciel On trouve Y en remplaçant la valeur de X dans une des deux équations : 0 i Y = 1 0 Exercice 3 On résout : −1 − 5i 2 i X − Y + iZ = −1 −i 0 7 1 − 2i 4 + i 4i i − 1 −i iX + Y − iZ = X + Y + 2Z = 0 2i 1 − 2i 0 1 1 + 2i Ce système équivaut à −1 − 5i 2 i X − Y + iZ = 0 −1 −i 8 + 5i −1 − 2i 4 2Y + (2 − i)Z = 2i + 1 1 − i 0 5i − 5 −i − 1 −i + 1 (1 − i)Y + (−i + 1)Z = 0 1+i 2i ce qui équivaut à −1 − 5i 2 i X − Y + iZ = 0 −1 −i 8 + 5i −1 − 2i 4 2Y + (2 − i)Z = 0 2i + 1 1 − i 1 1 (13 − 3i) (−3 − i) 2(1 − i) 1 2 2 (3 + i)Z = 2 0 1 i+1 Maintenant qu’on a Z on remonte sa valeur dans les équations précédentes pour avoir X et Y . Exercice 4 On applique quand c’est possible la formule du cours : 1) 1 i 1 i 0 1+i∗i i ∗ 1 + (−1)i 1∗0+i∗2 0 0 2i = = −i 0 i −1 2 −i ∗ 1 + 0 ∗ i −i ∗ i + 0 ∗ (−1) −i ∗ 0 + 0 ∗ 2 −i 1 0 Chapitre 7. Solutions de la feuille 2 57 2) On ne peut faire le produit de deux matrices 2 × 3 (il faut que la première ait le même nombre de colonnes que la seconde a de lignes). 3) 1 1 1 1 1 = (1 + 1 + 1) = (3) ∈ M1 1 4) 1 1 1 1 1 1 1 1 1 = 1 1 1 1 1 1 5) 1 i 0 i −1 2 1 i 0 0 i −1 = 0 4 0 2 6) 1 i 0 0 2i −i 1 1 i 0 = 0 0 −2 i −1 2 0 2 2i −2 4 Exercice 5 1 2 1 1 0 2 1 2 1 0 1 2 2 2 −1 0 2 1 2 0 1 − 1 2 3 0 0 = 2 1 − 1 3 = 1 −2 1 2 3 0 0 1 2 1 0 1 1 2 1 1 0 1 Exercice 6 1)On obtient des matrices 3 × 3 : 1 4 −1 T A = 2 −3 3 1 −2 1 58 Calcul matriciel et 1 −2 1 AT = 3 −3 2 −1 4 1 Soit a b c X= e f g h i j Alors h i j TX = e f g a b c et c b a XT = g f e j i h Et donc T 2 1 0 0 = 0 1 0 0 0 1 2) 1 −2 1 EA = 4 −7 5 1 4 −1 −3 −2 1 AE = −1 −3 3 9 4 −1 Soit a b c X= e f g h i j Alors 0 0 0 0 0 0 a b c EX = (Id3 + 2 0 0 )X = X+ 2 0 0 X = e + 2a f + 2b g + 2c 0 0 0 0 0 0 h i j Chapitre 7. Solutions de la feuille 2 59 et 0 0 0 0 0 0 a + 2b b c XE = X(Id3 + 2 0 0 ) = X + X 2 0 0 = e + 2f f g 0 0 0 0 0 0 h + 2i i j On a deux choix pour montrer que E est inversible : solution 1 On résout XE = Id et on trouve 1 0 0 −2 1 0 0 0 1 et on vérifie que cela donne bien EX = Id. solution 2 On utilise la relation trouvée pour multiplier par E : on a 0 0 0 E = I3 + 2 0 0 0 0 0 et 0 0 0 E2 = E + 2 0 0 E 0 0 0 On additionne et on obtient : 0 0 0 E 2 − 2 0 0 (I3 + E) = I3 0 0 0 <=> 0 0 0 0 0 0 E 2 − 2 0 0 (2E − 2 0 0 ) = I3 0 0 0 0 0 0 Or 2 0 0 0 2 0 0 = 03 0 0 0 D’où 0 0 0 0 0 0 E 2 − 2 2 0 0 E = E(E − 2 2 0 0 ) = I3 0 0 0 0 0 0 60 Calcul matriciel c’est à dire que E est inversible et d’inverse 1 0 −2 1 0 0 : 0 0 1 Exercice 7 1 0 2 A = 0 −1 1 1 −2 0 donc 3 −4 2 A2 = 1 −1 −1 1 2 0 et 5 0 2 A3 = 0 3 1 1 −2 4 Alors on obtient : 5 0 2 1 0 2 4 0 0 0 0 0 A3 − A − 4I = 0 3 1 − 0 −1 1 − 0 4 0 = 0 0 0 1 −2 4 1 −2 0 0 0 4 0 0 0 Alors en réécrivant l’équation précédente on a A(A2 − Id3 ) = 4Id3 c’est à dire A(( 14 )(A2 − Id3 )) = Id3 . Donc A est inversible, son inverse étant : A−1 = ( 41 )(A2 − Id3 ). Exercice 8 (a) On trouve 0 0 1 B2 = 0 0 0 0 0 0 Chapitre 7. Solutions de la feuille 2 et 61 0 0 0 B3 = 0 0 0 0 0 0 Pour tout n > 3 B n = 0. k k n−k , où Cnk sont les coefficients binomiaux. (b) (B + I3 )n =k=n k=0 Cn B I3 n Or pour tout n > 3 B = 0, donc on garde dans la somme les trois premiers éléments : 1 n n(n − 1) n (B + I3 )n = I3 + nB + n(n − 1)B 2 = An = 0 1 0 0 1 Exercice 9 2 1 1 A = 1 4 −1 4 9 −1 i. KA est non vide, en effet le vecteur nul lui appartient. Soient X et Y dans KA . Alors X + Y ∈ KA :en effet A(X + Y ) = AX + AY = 0 + 0 = 0 (c’est un abus de notation , ici 0 0 0= 0 ) Soit λ ∈ R et X ∈ KA . Alors A(λX) = λ(AX) = 0. (Par définition KA est dans R3 .) KA est un sev de R3 . Soit x X= y z dans KA . Alors 2 1 1 x 0 AX = 1 4 −1 y = 0 4 9 −1 z 0 62 Calcul matriciel Pour trouver une base de KA , on doit donc résoudre le système suivant : 2x + y + z = 0 x + 4y − z = 0 4x + 9y − z = 0 <=> x + 4y − z = 0 −7y + 3z = 0 −7y + 3z = 0 Donc on trouve une infinité de solutions qui s’écrivent toutes de la λ, 37 λ, λ) = λ( −5 , 3 , 1) avec λ ∈ R. Cela équiforme : (x, y, z) = ( −5 7 7 7 vaut à dire que le vecteur ( −5 , 3 , 1) engendre KA . 7 7 ii. On a 2 1 1 C1 = 1 , C2 = 4 et C3 = −1 4 9 −1 C1 , C2 , C3 libre ? Soient x, y, z ∈ R tels que xC1 + yC2 + zC3 = 0 (1). Rappel : la famille est libre ssi ((1) => x = y = z = 0) Cela revient à résoudre le système : 2x + y + z = 0 x + 4y − z = 0 4x + 9y − z = 0 On vient de voir que ce système a des solutions non nulles : la famille n’est pas libre. (On verra plus tard que l’on pouvait conclure directement : en effet on a dimR3 = dimKA + dim(Im(A)) et ici dimKA = 1 donc dim(Im(A)) = 2.) Grace à la résolution du systéme précédent on a : C3 = 71 (5C1 − 3C2 ). De plus on a C1 , C2 libre donc forme une base de Im(A). iii. L’espace vectoriel engendré par KA ∪ ImA est l’espace somme : KA + ImA .De plus si BK et BIm sont les bases respectives de KA et ImA , Alors BK ∪ BIm engendre la somme. Pour avoir une base il faut extraire de la famille précédente la plus grande famille libre. Dans cet Chapitre 7. Solutions de la feuille 2 63 exercice, on montre que les vecteurs formant les deux bases sont libres et donc que dim(KA + ImA ) = 3 et KA + ImA = R3 . Pour l’intersection on la calcule avec le pivot de Gauss : Soit x ∈ KA ∩ ImA . Alors x = λ(−5, 3, 7) = δ1 C1 + δ2 C2 . On résout : λ(−5, 3, 7) − δ1 C1 − δ2 C2 = 0 (remarque on retrouve le même système que précédemment donc on a λ = δ1 = δ2 = 0.i.e. KA = (0, 0, 0). Exercice 10 1) Cet exercice est une illustration de rgA = rg t A. Soient v1 , ..., v5 les vecteurs colonnes de la matrice A. On va déterminer le nombre d’équations qui lient les vecteurs (c’est le nombre de variables libres dans le système échelonné de Gauss, cf. Pivot de Gauss). Soient a, b, c, d, e, ∈ R tels que av1 + bv2 + cv3 + dv4 + ev5 = 0. Cela équivaut à : a − b + 3c + 5d + e = 0 2a − c + 3d + e 3a − b + 2c + 8d + 2e = 0 <=> au système échelonné suivant a − b + 3c + 5d + e = 0 2b − 7c − 7d − e = 0 Il y a deux équations liant les 5 variables donc le système a 3 variables libres. On a donc 3 équations indépendantes qui lient 5 vecteurs : l’espace vectoriel engendré par ces vecteurs et de dimension 2, donc la matrice est de rang 2. Remarque : pour trouver les équations liant les vecteurs on trouve d’abord les générateurs de l’espace S des solutions du système échelonné. Ici il faut décider des valeurs de c, d, e pour avoir toutes les solutions donc un système générateur pour S est ((1, 7, 1, 0, 0), (−3, 7, 0, 2, 0), (−1, 1, 0, 0, 2)) (on écrit a, b en fonctions des autres variables). Alors les équations liant les vecteurs sont : v1 + 7v2 + v3 = 0 64 Calcul matriciel −3v1 + 7v2 + 2v4 = 0 −v1 + v2 + 2v5 = 0 . Attention : l’espace S et l’espace vect(v1 , ..., v5 ) sont deux chose différentes ! Par la même méthode on montre que rgB = 2 (et on a t A = B). 2) Pour calculer le rang d’une matrice, il existe une “méthode de Gauss pour les matrices”. Elle consiste à mettre des 0 dans la matrice en se servant d’un pivot. On va en voir un exemple avec la première matrice. Les flèches entre les matrices indiquent que l’on applique la méthode et n’est en aucun cas un égalité entre les matrices. 1 1 2 1 1 1 1 2 1 1 2 1 1 1 1 0 −1 −3 −1 −1 → 0 0 −1 1 1 1 1 2 1 0 A1 = 2 1 1 1 1 0 −1 −3 −1 −1 1 1 1 1 2 0 0 −1 0 1 On a soustrait la première ligne aux 4 autres (avec un coefficient 2 pour les 2ieme te 4ieme lignes). Maintenant on garde les deux premières lignes et on applique la même méthode pour échelonner la matrice : 1 1 2 1 1 1 1 2 1 1 0 −1 −3 −1 −1 0 −1 −3 −1 −1 0 0 → 0 0 −1 1 → 0 0 −1 1 0 0 0 0 0 0 0 0 −1 1 0 0 −1 0 1 0 0 0 0 0 La matrice est échelonnée et a 4 lignes indépendantes donc rgA1 = 4. De même on trouve rgA4 = rgA3 = 5 et rgA2 = 4 (sous réserve d’ erreurs de calculs). Vous pouvez retrouver ces résultats en utilisant la méthode de 1) (c’est un bon entrainement pour résoudre des systèmes). Chapitre 8 Applications linéaires : première partie Maintenant que l’on a nommé les ensembles sur lequels on veut travailler, i.e. les espaces vectoriels, on veut définir les applications entre ces ensembles et qui “conservent” la structure de ceux-ci. De telles applications s’appellent applications linéaires. 1 1.1 Définition et propiétés générales Définition Définition 27. Soient E et F deux ev sur un même corps K et u : E → F une application. On dit que f est linéaire si : A. u(v + w) = u(v) + u(w) pour tout v, w ∈ E. B. u(λv) = λu(v) pour tout v ∈ E et λ ∈ K. L’ensemble des applications linéaires de E dans F est noté L(E, F ). Conséquences : A. u(0E ) = 0F . B. u(−x) = −u(x) Démonstration. On a u(0E ) = u(0E + 0E ) = u(0E ) + u(0E ) donc u(0E ) = 0F . 65 66 Calcul matriciel De même u(−x) = u(0 − x) = u(−x + x − x) = u(−x) + u(−x) + u(x) et donc u(−x) = −u(x). Exemples : A. u : R[X] → R[X] P → P0 l’application dérivée.En effet soient P, Q ∈ R[X] et λ ∈ R. Alors u(P + Q) = (P + Q)0 = P 0 + Q0 = u(P ) + u(Q) et u(λP ) = (λP )0 = λP 0 = λu(P ). B. u : C 1 (R, R) → R f → f (0) C. u : E1 ⊕ E2 → E1 (x, y) → x la projection sur le premier facteur. Définition 28.A. On appelle endomorphisme de E un application linéaire de E dans E. L’ensemble des endomorphismes est noté End(E). B. On appelle isomorphisme de E dans F une application linéaire de E dans F qui est une bijection. C. Soit E un K-ev. On appelle forme linéaire une application f : E → K. Rappels : Une application bijective est un application à la fois injective et surjective. u est injective ssi (si x, y ∈ E sont tels que u(x) = u(y) alors x=y) et u surjective équivaut à “ pour tout y ∈ F il existe x ∈ E tel que y = u(x)” Chapitre 8. Applications linéaires : première partie 67 2 Comportement des applications linéaires par rapport à un sev Proposition 8.1. Soient E et F deux espaces vectoriels sur un même corps K. Soit u : E → F une application linéaire. Soient E’ un sev de E et F’un sev de F. Alors u(E 0 ) est un sev de F et u−1 (F 0 ) = {x ∈ E : u(x) ∈ F 0 } est un sev de E. Définition 29. On appelle u(E) l’image de u et on la note Im(u). Sa dimension est appelé rang de u et est noté dim(Im(u)) = rg(u). Le sev u−1 ({0}) = {x ∈ E : u(x) = 0} est appelé noyau de u et est noté Ker(u) (de kernel) (Remarque : on ne suppose pas u inversible, la définition de u−1 (F 0 ) est ensembliste.) Démonstration.A. • u(E 0 ) 6= ∅ car u(0) = 0 et 0 ∈ E 0 . • Soit y0 , y2 ∈ u(E 0 ) et λ, µ ∈ K. Alors (par définition) il existe x1 , x2 ∈ E 0 tels que y1 = u(x1 ) et y2 = u(x2 ). λy1 + µy2 = λu(x1 ) + µu(x2 ) = u(λx1 + µx2 ) ∈ u(E 0 ) B. • u(0) = 0 et 0 ∈ F 0 donc 0 ∈ u−1 (F 0 ). • Soient y1 , y2 ∈ u−1 (F 0 ) et λ, µ ∈ K. Alors u(λy1 + µy2 ) = λu(y1 ) + µu(y2 ) ∈ F 0 Proposition 8.2. Soit u : E → F un application linéaire.Alors A. u est injective ssi Ker(u) = {0}. B. u est surjective ssi Im(u) = F . Démonstration.A. =>)Supposons u injective. Soit x ∈ ker(u) (on veut montrer que x = 0). Par définition on a u(x) = 0 = u(0) et u est injective donc x = 0. <=)On suppose que ker(u) = 0. Soient x, y ∈ E tels que u(x) = u(y). Alors, comme u est linéaire, on a u(x − y) = o, c’est-à-dire x − y ∈ ker(u). Donc par hypothèse x = y. B. u surjective <=> pour tout y ∈ F il existe x ∈ E tel que y = u(x). Ceci équivaut à ce que u(E) = F , i.e. Im(u) = F . 68 Calcul matriciel Exemples : A. Soit D : R[X] → R[X] P → P0 l’application dérivée. Alors Ker(D) = {P ∈ R[X] : P = a ∈ R} l’ensemble des fonctions constantes car seules les constantes ont des dérivées nulles et Im(u) = R[X] car tout polynome a une primitive polynomiale, donc tout élément de l’espace dérivé a au moins un antécédant. B. u : C 1 (R, R) → R f → f (0) Alors Ker(u) = {f : R → R : f (0) = 0} et Im(u) = R. C. f : R3 → R3 x0 = x + y − z y 0 = 2x + y − 3z (x, y, z) → (x , y , z ) = 0 z = 3x + 2y − 4z 0 0 0 Alors Ker(f ) = {(x, y, z) ∈ R3 : 0=x+y−z 0 = 2x + y − 3z 0 = 3x + 2y − 4z } On trouve que {x = 2λ, y = −λ, z = λ} donne l’ensemble des solutions, i.e. Ker(f ) = {(x, y, z) : x = 2λ, y = −λ, z = λ} = {(2λ, −λ, λ tel que λ ∈ R} = vect(2, −1, 1). Quelle est l’image de f ? (x0 , y 0 , z 0 ) ∈ Im(f ) <=> il existe (x, y, z) ∈ R3 tq x0 = x + y − z y 0 = 2x + y − 3z 0 z = 3x + 2y − 4z Chapitre 8. Applications linéaires : première partie 69 <=> il existe (x, y, z) ∈ R3 tq x0 = x + y − z y 0 − 2x0 = −y − z 0 z − 3x0 = −y − z <=> il existe (x, y, z) ∈ R3 tq x0 = x + y − z −y 0 + 2x0 = y + z 0 z − x0 − y 0 = 0 3 Comportement des applications linéaires par rapport aux dimensions Proposition 8.3. Soit u : E → F linéaire (E et F K-ev de dimension finie). A. u injective implique dimF > dimE u injective et dimE = dimF implique u bijective. B. u surjective implique dimE > dimF . u surjective et dimE = dimF implique u bijective. En d’autres termes :Soit {vi }i une famille de vecteurs de E. A. u injective et {vi }i libre implique {f (vi )}i libre dans F. B. u surjective et {vi }i génératrice implique {f (vi )}i génératrice de F. Démonstration. (1) On suppose u injective. Soit n = dimE et {e1 , ..., en } une base. On montre que {u(e1 ), ..., u(en )} est libre dans F. Soient λ1 , ..., λn ∈ K tels que λ1 u(e1 ) + ... + λn u(en ) = 0. Alors u(λ1 (e1 ) + ... + λn (en )) = 0 car u est linéaire. Donc λ1 (e1 ) + ... + λn (en ) = 0 car u est injective. Et finallement λ1 = ... = λn = 0 car {e1 , ..., en } est une base. 70 Calcul matriciel D’où n = dimE 6 dimF . On suppose u injective et dimE = dimF = n. On vient de montrer que {u(e1 ), ..., u(en )} est libre dans F, et comme elle a n éléments c’est une base de F. Or {u(e1 ), ..., u(en )} ⊂ Im(u) par définition donc F = vect(u(e1 ), ..., u(en )) ⊂ Im(u) ⊂ F . L’application u est donc surjective, et par suite bijective. (2) exercice Théorème 8.4. Théorème du rang Soit u : E → F linéaire , E et F deux K-ev de dimension finie. Alors dimE = dim(Ker(u)) + rg(u). Démonstration. • Si u est bijective alors Ker(u) = 0 et dim(E) = dim(Im(u)) = dimF = rg(u). • u non bijective. On veut se ramener au cas précédent. Ker(u) ⊂ E est un sev de E. Il existe E’ sev de E tel que E = E 0 ⊕ Ker(u). Soit v : E 0 → Im(u) x → u(x) la restriction de u à E’. Proposition 8.5. L’application v est bijective. Démonstration. v est surjective : Soit y ∈ Im(u). Il existe z ∈ E tel que u(z) = y. Or E = E 0 ⊕ Ker(u) donc il existe z1 ∈ E 0 , z2 ∈ Ker(u) tel que z = z1 + z2 . Et on a u(z) = u(z1 ) + u(z2 ) = u(z1 ) = y. Donc y est bien l’image d’un élément z1 de E’. v est injective : v et linéaire donc il faut montrer que Ker(v) = {0}.Soit x ∈ Ker(v) c’est-à-dire v(x) = 0 = u(x). Donc en fait x ∈ Ker(v). Or Ker(u) ∩ E 0 = {0} donc x = 0. Alors on a dimE 0 = rg(u) et donc dimE = dimE 0 + dimKer(u) = rg(u) + dimKer(u). Chapitre 8. Applications linéaires : première partie 4 71 Opération sur les applications linéaires Addition : u, v ∈ L(E, F ) alors u + v ∈ L(E, F ) . Multiplication par un scalaire : soit λ ∈ K, alors λu ∈ L(E, F ) L(E, F ) muni des lois précédentes est un espace vectoriel. On peut définir une opération supplémentaire sur les applications linéaires : Composition : soient u ∈ L(E, F ) et v ∈ L(F, G) alors vou ∈ L(E, G). C’est un loi interne sur End(E). Question : ça ne vous rappelle rien ?... 5 Applications linéaires et matrices Soient E et F deux K-ev de dimension respective n et p. Soit f : E → F une application linéaire. Soient {e1 , ..., en } et {f1 , ..., fp } des bases de E et F. On écrit les images des éléments de la base de E dans la base de F : f (e1 ) = a11 f1 + ... + ap1 fp f (e2 ) = a12 f1 + ... + ap2 fp .. . f (en ) = a1n f1 + ... + apn fp Définition 30. On appelle matrice de f dans les bases {e1 , ..., en } et {f1 , ..., fp } la matrice notée M (f )ei fj ∈ Mp,n (K) dont les colonnes sont les composantes des vecteurs f (e1 ), ..., f (en ) : a11 . . . a1n . = (aij )16i6m M (f )ei fj = . 16j6n . ap1 . . . apn La matrice associée à f dépend des bases de E et F. Quand f : E → E , on peut choisir la même base. 72 Calcul matriciel Proposition 8.6. Soient E et F deux K-ev de dimension finie n et p, {e1 , ..., en } et {f1 , ..., fp } des bases. Alors l’application M : L(E, F ) → Mp,n qui à une application associe sa matrice dans une base donnée est un isomorphisme d’espace vectoriel, i.e. M (f + g) = M (f ) + M (g) , M (λf ) = λM (f ) et M est bijective. En particulier dimL(E, F ) = np = dimMp,n . Exemples : A. E = R2 , f la projection sur la première bissectrice parallèlement à la seconde bissectrice ; {e1 , e2 } étant la base canonique on a f (e1 ) = Fig. 1 – Addition de deux vecteurs f (e2 ) = 21 (e1 + e2 ) = g donc M (f )ei ,ei 1 = 2 1 1 1 1 B. Soit f : R2 → R2 symétrie par rapport à l’axe des abcisses, parallèlement à l’axe des ordonnées. Alors f (e1 ) = e1 et f (e2 ) = −e2 donc : 1 0 M (f )ei ,ei = 0 −1 Chapitre 8. Applications linéaires : première partie 73 C. Soit f : R2 → R2 rotation de centre 0 et d’angle θ.(cf figure suivante) Fig. 2 – rotation d’angle θ Alors f (e1 ) = cos(θ)e1 +sin(θ)e2 etf (e2 ) = −sin(θ)e1 +cos(θ)e2 .Donc la matrice dans la base canonique est : cos(θ) −sin(θ) M (f )ei ,ei = sin(θ) cos(θ) D. Soit f : E → K une forme linéaire, i.e. f (ei ) ∈ K . Alors M (f ) = (f (e1 ), ..., f (en )) ∈ M1,n . 74 Calcul matriciel 5.1 Image d’un vecteur Les vecteurs sont représentés par les matrices colonnes. Définition 31. Soit E un espace vectoriel de dimension n, {e1 , ..., en } une base de E et x = x1 e1 + ... + xn en . On appelle matrice de x dans la base {e1 , ..., en } la matrice colonne des composantes de x dans la base {e1 , ..., en } : x1 M (x)ei = ... xn Remarque : cela correspond à la matrice de f :K → E λ → λx Proposition 8.7. Soient E et F deux ev, {e1 , ..., en } et {f1 , ..., fp } des bases de E et F. Pour tout f ∈ L(E, F ) et pour tout x ∈ E on a M (f (x))fi = M (f )ei fi M (x)ei . Démonstration. Soit M (f )ei fj = a11 . . . a1n . . . ap1 . . . apn Pp c’est à dire f (ei ) = a1i f1 + ... + api f = p j=1 aji fjP Pn Pp n On (x) = f (x1 e1 +...+x n en ) = k=1 xk f (ek ) = k=1 xk j=1 ajk fj = Pp a fP P n p j=1 k=1 (xk ajk )fj = j=1 yj fj . Donc y1 M (f (x))fj = ... yp avec yj = Pn k=1 (xk ajk ). Chapitre 8. Applications linéaires : première partie 75 D’autre part M (f )ei fj M (x)ei = a11 . . . a1n . . . ap1 . . . apn × x1 .. = . xn y1 .. . yp Proposition 8.8. La matrice associée à la composition de deux applications est le produit des matrices correspondantes : M (f og) = M (f )M (g) Proposition 8.9. Soit u : E → F une application linéaire entre deux K-ev. Soient {e1 , ..., en } et {f1 , ..., fp } des bases de E et F. Soit A = M (u)ei ,fj . Alors A est inversible ssi u est bijective. On a alors M (u−1 )fj ei = A−1 . Exemple de calcul de l’inverse d’une matrice : Soit 1 2 A= 1 3 . Soient x1 X= x2 et Y = y1 y2 tels que y1 y2 = 1 2 1 3 × x1 x2 et on veut trouver M telle que x1 y1 =M× x2 y2 (1) <=> y1 = x1 + 2x2 y2 = x1 + 3x2 76 Calcul matriciel On résout et on trouve : x1 = 3y1 − 2y2 y2 = −y1 + y2 Donc M =A 5.2 −1 = 3 −2 −1 1 Changement de base On a vu que la matrice correspondant à un application linéaire u : E → F dépend des bases choisies de E et F. On veut voir ce qu’il advient lorsque l’on change ces bases. Définition 32. Matrice de passage Soit E un K-ev de dimension n, e et e0 bases de E. Alors la matrice de passage de la base e dans la base e0 est la matrice correspondant à e0i = a1i e1 + ... + ani en c’est à dire à l’application identité Id : Ee0 → Ee e0i → e0i = ai1 e1 + ... + ain en Remarque : c’est bien l’application identité ; dans l’espace de départ on écrit e0i dans la base (e’), et dans l’espace d’arrivée on écrit ce même élément dans la base (e). Cette matrice s’écrit : P (Id)e→e0 = a11 . . . a1n . . . an1 . . . ann Cette matrice est inversible (car l’application identité est bijective). Exemple : On considère R2 avec pour bases : e = ((1, 0), (0, 1)) et e0 = ((1, 1), (1, 2)). (Vérifier que ce sont bien des bases). Alors on a Chapitre 8. Applications linéaires : première partie 77 Id : Ee0 → Ee (1, 1) → (1, 0) + (0, 1) (1, 2) → (1, 0) + 2(0, 1) D’où P (Id)e→e0 = 1 1 1 2 De même on a Id : Ee → Ee0 (1, 0) → 2(1, 1) − (1, 2) (1, 2) → −(1, 1) + (1, 2) D’où P (Id)e→e0 = 2 −1 −1 1 Proposition 8.10. Soit E un K-ev, e et e0 deux bases. Soit x ∈ E, P la matrice de passage de e vers e0 , X la matrice de x dans e et X 0 la matrice de x dans e0 . Alors X 0 = AX. Démonstration. Soit e = (e1 , e2 , ..., en ) et e0 = (e01 , ..., e0n ). P (Id)e→e0 est définie par :e0i = ai1 e1 + ... + ain en . x = x0 1 e0 1 + ... + x0 n e0 n = x0 1 (a11 e1 + ... + a1n en )(+... + x0 n (an1 e1 + ... + ann en ) = e1 (a11 x0 1 + ... + an1 x0 n ) + ... + en (a1n x0 1 + ... + ann x0 n ) = x1 e1 + ... + xn en D’où x1 a11 x0 1 + ... + an1 x0 n .. . .. . = = xn a1n x0 1 + ... + ann x0 n a11 . . . a1n . . . an1 . . . ann × x0 1 .. . x0 n 78 Calcul matriciel Proposition 8.11. Soit u : E → F un application linéaire. soient e et e0 des bases de E et f et f 0 deux bases de F . Soit A = M (f )ei fj et A0 = M (f )0 ei f 0 j . Alors A0 = P (Id)−1 f →f 0 AP (Id)e→e0 . Corollaire 8.12. Soit u : E → E un endomorphisme. Alors (sous les mêmes notations que précédemment) on a A0 = P (Id)−1 e→e0 AP (Id)e→e0 . Définition 33. Deux matrices A et A’ carrées n × n sont dites semblables s’il existe une matrice P de même taille, inversible telle que A0 = P −1 AP . Rang d’un vecteur : On avait défini le rang d’une application linéaire u : E → F par la dimension de l’image de u : rg(u) = dim(Im(u)). Les matrices représentant des applications linéaires, on définit de la même manière le rang d’une matrice (cf feuille2, exo 10) : Définition 34. Soit A ∈ Mm,n . on appelle A1 , ..., An les vecteurs colonnes de A. Alors rg(A) = dim(vect(A1 , ..., An ). Remarquez que cette définition est bien cohérente : en effet on a e0 1 u(ei ) =t Ai ... e0 n et vect(u(e1 )..., u(en )) = Im(u). Dernière remarque : les matrices inversibles (donc carrée) correspondent aux isomorphismes, donc le rang est maximal (= n). Chapitre 9 Feuille Td 3 1 Définition Exercice 1 Déterminer si les applications fi suivantes (de Ei dans Fi ) sont linéaires : f1 : (x, y) ∈ R2 7→ (2x+y, x−y) ∈ R2 , f2 : (x, y, z) ∈ R3 7→ (xy, x, y) ∈ R3 f3 : (x, y, z) ∈ R3 7→ (2x + y + z, y − z, x + y) ∈ R3 f4 : P ∈ R[X] 7→ P 0 ∈ R[X], f5 : P ∈ R3 [X] 7→ P 0 ∈ R3 [X] f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3 , f7 : P ∈ R[X] 7→ P −(X−2)P 0 ∈ R[X]. Exercice 2 Soit E un espace vectoriel de dimension n et ϕ une application linéaire de E dans lui-même telle que ϕn = 0 et ϕn−1 6= 0. Soit x ∈ E tel que ϕn−1 (x) 6= 0. Montrer que la famille {x, . . . , ϕn−1 (x)} est une base de E. Indication Prendre une combinaison linéaire nulle et l’évaluer par ϕn−1 . 79 80 Calcul matriciel 2 Image et noyau Exercice 3 E1 et E2 étant deux sous-espaces vectoriels de dimensions finies d’un espace vectoriel E, on définit l’application f : E1 × E2 → E par f (x1 , x2 ) = x1 + x2 . A. Montrer que f est linéaire. B. Déterminer le noyau et l’image de f . C. Appliquer le théorème du rang. Indication Faire un dessin de l’image et du noyau pour f : R × R −→ R. Exercice 4 Soient E un espace vectoriel et ϕ une application linéaire de E dans E. On suppose que Ker (ϕ) ∩ Im (ϕ) = {0}. Montrer que, si x 6∈ Ker (ϕ) alors, pour tout n ∈ N : ϕn (x) 6= 0. Exercice 5 : Soient la matrice : 1 1 1 3 1 2 0 2 A= 0 2 0 −1 0 1 1 0 et l’application linéaire ϕ :4 −→4 définie par ϕ(X) = AX. (a) Déterminer le noyau de ϕ et en donner une base. (b) Quel est le rang de l’application ϕ ? (c) Déterminer une base de l’image de ϕ. Exercice 6 Soient E un espace vectoriel de dimension n et f une application linéaire de E dans lui-même. Montrer que les deux assertions qui suivent sont équivalentes : Chapitre 9. Feuille Td 3 81 A. Ker(f ) = im(f ). B. f 2 = 0 et n = 2 rg(f ). Exercice 7 Donner des exemples d’applications linéaires de R2 dans R2 vérifiant : A. Ker(f ) = im(f ). B. Ker(f ) inclus strictement dans im(f ). C. im(f ) inclus strictement dans Ker(f ). 3 Injectivité, surjectivité, isomorphie Exercice 8 Soit E un espace vectoriel de dimension 3, {e1 , e2 , e3 } une base de E, et λ un paramètre réel. ϕ(e1 ) = e1 + e2 ϕ(e2 ) = e1 − e2 Démontrer que la donnée de définit une ap ϕ(e3 ) = e1 + λe3 plication linéaire ϕ de E dans E. Écrire le transformé du vecteur x = α1 e1 + α2 e2 + α3 e3 . Comment choisir λ pour que ϕ soit injective ? surjective ? Exercice 9 Pour les applications linéaires trouvées à l’exercice 1, déterminer ker(fi ) et Im (fi ), en déduire si fi est injective, surjective, bijective. Exercice 10 : Soient la matrice : 0 1 1 A= i 0 1 1 i 0 et l’application linéaire f : C 3 −→ C 3 définie par f (X) = AX. 82 Calcul matriciel (a) L’application f est-elle injective ? surjective ? (b) Déterminer une base de Imf et une base de Kerf . 4 Matrice d’une application linéaire dans une base Exercice 11 : Ecrire les matrices des applications linéaires suivantes dans les bases proposées. A. ϕ :3 −→3 définie par ϕ(x, y, z) = (2x + z, x + y, y − 2z) dans la base canonique de 3 . B. ψ : C 2 −→ C 2 définie par ψ(z, w) = ((1 + i)z − iw, w + 2iz) dans la base canonique de C 2 C. On note (e1 , e2 e3 , e4 ) la base canonique de 4 . Soit f :4 −→4 l’application linéaire définie par f (e1 ) = e1 + e2 , f (e2 ) = e2 + e3 , f (e3 ) = e3 + e4 et f (e4 ) = e4 + e1 . Quelle est la matrice de f dans la base (e4 , e3 , e2 , e1 ) ? Dans la base canonique de 4 ? Exercice 12 : On note (e1 , e2 , e3 ) la base canonique de 3 . Soit l’application linéaire ϕ :3 −→3 définie par : 1 1 ϕ(e1 ) = e1 − e3 2 2 1 1 ϕ(e2 ) = e1 + e2 + e3 2 2 1 1 ϕ(e3 ) = −e1 − e2 − e3 2 2 1. (a) Déterminer l’image par ϕ d’un vecteur x = λe1 + µe2 + νe3 de 3 . (b) Ecrire la matrice de ϕ dans la base canonique de 3 2. (a) Déterminer une base de Kerϕ. Chapitre 9. Feuille Td 3 83 (b) Quel est le rang de ϕ ? Montrer que la famille {f1 = e1 + e2 , f2 = e1 + e3 } est une base de Imϕ. (c) Soit f3 = e2 + e3 . Montrer que la famille (f1 , f2 , f3 ) est une base de 3 . Ecrire la décomposition des vecteurs ϕ(f1 ), ϕ(f2 ) et ϕ(f3 ) dans la base (f1 , f2 , f3 ). En déduire la décomposition d’un vecteur x = αf1 + βf2 + γf3 ∈3 dans la base (f1 , f2 , f3 ). (d) Ecrire la matrice de ϕ dans la base (f1 , f2 , f3 ). 5 Changement de base Exercice 13 : Donner les matrices de passage de la base B à la base B 0 dans chacun des cas suivants. A. Dans 3 , B est la base canonique et B 0 = ((0, 1, 1), (1, −1, 1), (1, 1, 0)). B. Dans 3 , B = ((1, 0, 0), (1, 1, 0), (1, 1, 1)) et B 0 est la base canonique de 3 . C. Dans C 3 , B est la base canonique et B 0 = ((1+i, 1−i, 0), (0, 0, 2i), (−i, 1, 2i)). Exercice 14 : Soitf l’endomorphisme de 3 dont la matrice dans la base canonique 1 0 1 est 2 0 2 . −1 0 −1 (a) Montrer que f ◦ f = 0 et en déduire que Imf ⊂ Kerf . Déterminer Kerf et en donner une base. (b) Montrer que la famille (e1 − e3 , e2 , e1 ) est une base de 3 et écrire la matrice de f dans cette base. Chapitre 10 Solutions de la feuille 3 Exercice 1 Soitf1 : (x, y) ∈ R2 7→ (2x + y, x − y) ∈ R2 Soient z1 = (x1 , y1 ) et z2 = (x2 , y2 ) dans R2 . Alors f1 (z1 + z2 ) = f1 ((x1 + x2 , y1 + y2 )) = (2(x1 + x2 ) + (y1 + y2 ), (x1 + x2 ) − (y1 + y2 . Or on est maintenant dans R2 , donc on a f1 (z1 + z2 ) = (2x1 + y1 , x1 − y1 ) + (2x2 + y2 , x2 − y2 ) = f1 (z1 ) + f1 (z2 ) . Soient z = (x, y) ∈ R2 et λ ∈ R. Alors f1 (λz) = (f1 ((λx, λy)) = (2λx + λy, λx−) = λf1 (z) . Donc f1 est linéaire. Soit f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3 . Soient P, Q ∈ R3 [X]. Alors f6 (P + Q) = ((P + Q)(−1), (P + Q)(0), (P + Q)(1) 85 86 Calcul matriciel On a donc f6 (P +Q) = (P (−1)+Q(−1), P (0)+Q(0), P (1)+Q(1)) = (P (−1), P (0), P (1))+(Q(−1), Q( = f6 (P ) + f6 (Q) . Soient P ∈ R3 [X] et λ ∈ R (l’espace des polynomes à coefficients réels est un R-espace vectoriel). f6 (λP ) = ((λP )(−1), (λP )(0), (λP )(1)) = λ(P (−1), P (0), P (1)) Donc f6 est linéaire. On montre de même que f3 , f4 , f5 , f7 sont linéaires. Par contre f2 n’est pas linéaire, en effet par exemple f (1, 1, 0) + f (1, 1, 0) n’est pas égal à f (2, 2, 0). Exercice 2 Montrons que la famille {x, . . . , ϕn−1 (x)} est libre. Soient λ0 , . . . , λn−1 ∈ tels que λ0 x + · · · + λn−1 ϕn−1 (x) = 0. Alors : ϕn−1 (λ0 x + · · · + λn−1 ϕn−1 (x)) = 0. Mais comme de plus ϕn = 0, on a l’égalité ϕn−1 (λ0 x+ · · · + λn−1 ϕn−1 (x)) = ϕn−1 (λ0 x) + ϕn (λ1 x + · · · + λn−1 ϕn−2 (x)) = λ0 ϕn−1 (x). Comme ϕn−1 (x) 6= 0 on obtient λ0 = 0. En calculant ensuite ϕn−2 (λ1 ϕ(x) + · · · + λn−1 ϕn−1 (x)) on obtient λ1 = 0 puis, de proche en proche, λn−1 = · · · = λ0 = 0. La famille {x, . . . , ϕn−1 (x)} est donc libre. Elle compte n vecteurs. Comme dim (E) = n elle est libre maximale et forme donc une base de E. Exercice 3 A. ... B. Par définition de f et ce qu’est la somme de deux sous-espaces vectoriels, l’image est f = E1 + E2 . Chapitre 10. Solutions de la feuille 3 87 Pour le noyau : Ker f = {(x1 , x2 ) | f (x1 , x2 ) = 0} = {(x1 , x2 ) | x1 + x2 = 0} Mais on peut aller un peu plus loin. En effet un élément (x1 , x2 ) ∈ Ker f , vérifie x1 ∈ E1 , x2 ∈ E2 et x1 = −x2 . Donc x1 ∈ E2 . Donc x1 ∈ E1 ∩ E2 . Réciproquement si x ∈ E1 ∩ E2 , alors (x, −x) ∈ Ker f . Donc Ker f = {(x, −x) | x ∈ E1 ∩ E2 }. De plus par l’application x 7→ (x, −x), Ker f est isomorphe à E1 ∩E2 . C. Le théorème du rang s’écrit : dim Ker f + dim f = dim(E1 × E2 ). Compte tenu de l’isomorphisme entre Ker f et E1 ∩ E2 on obtient : dim(E1 ∩ E2 ) + dim(E1 + E2 ) = dim(E1 × E2 ). Mais dim(E1 × E2 ) = dim E1 + dim E2 , donc on retrouve ce que l’on appelle quelques fois le théorème des quatre dimensions : dim(E1 + E2 ) = dim E1 + dim E2 − dim(E1 ∩ E2 ). Exercice 4 Montrons ceci par récurence : Pour n = 1, l’assertion est triviale : x∈ / ker ϕ ⇒ ϕ(x) 6= 0. Supposons que si x ∈ / ker ϕ alors ϕn−1 (x) 6= 0, (n > 2). Fixons x ∈ / ker ϕ, Alors par hypothèses de récurrence ϕn−1 (x) 6= 0, mais ϕn−1 (x) = ϕ(ϕn−2 (x)) ∈ ϕ donc ϕn−1 (x) ∈ / ker ϕ n−1 n grâce à l’hypothèse sur ϕ. Ainsi ϕ(ϕ (x)) 6= 0, soit ϕ (x) 6= 0. Ce qui termine la récurrence. Exercice 5 Soient la matrice : 1 1 A= 0 0 1 2 2 1 1 3 0 2 0 −1 1 0 88 Calcul matriciel et l’application linéaire ϕ : R4 −→ R4 définie par ϕ(X) = AX. Cela signifie que 1 1 1 3 1 2 0 2 Θ ϕ((x, y, z, w)) = 0 2 0 −1 t(x, y, z, w) 0 1 1 0 . A. Ker(φ) = Ker(A) = {(x, y, z, w) ∈ R4 /AΘ t(x, y, z, w)}. on doit donc résoudre le système suivant : x + y + z + 3w = 0 x + 2y + +2w = 0 2y − z = 0 y+z =0 On trouve Ker(φ) = {w(−6, 1, −1, 2)/w ∈ R}. B. Par le théorème du rang, on a dimR4 = rgφ + dimKer(φ). D’où rgφ = 4 − 1 = 3 C. L’image de φ est engendr par les vecteurs colonnes de la matrice A associée à φ. Or le rang de φ est 3 donc trois des vecteurs colonnes sont libres et une seule équation lie tous les vecteurs colonnes. On détermine cette équation en échelonnant la matrice Θ tA. On trouve 1 1 v4 − 3v1 + v2 − v3 2 2 . Les trois premiers vecteurs colonnes engendrent Imφ. Exercice 6 (i) ⇒ (ii) Supposons f (x) ∈ ker f , cela d’après la formule dim imf = f , ainsi ker f = imf . Soit x ∈ E, alors f (x) ∈ f donc entraine f (f (x)) = 0 ; donc f 2 = 0. De plus du rang dim ker f + f = n, mais dim ker f = 2f = n. Chapitre 10. Solutions de la feuille 3 89 (ii) ⇒ (i) Si f 2 = 0 alors imf ⊂ ker f car pour y ∈ imf il existe x tel que y = f (x) et f (y) = f 2 (x) = 0. De plus si 2f = n alors par la formule Du rang dim ker f = f c’est-à-dire dim ker f = dim imf . Nous savons donc que f est inclus dans ker f mais ces espaces sont de même de dimension donc sont égaux : ker f = f . Exercice 7 A. Par exemple f (x, y) = (0, x) alors Ker f = f = {0} × R = {(0, y) | y ∈ R}. B. Par exemple l’identité : f (x, y) = (x, y). En fait un petit exercice est de montrer que les seules applications possibles sont les applications bijectives (c’est très particulier aux applications de R2 dans R2 ). C. L’application nulle : f (x, y) = (0, 0). Exercice : c’est la seule possible ! Exercice 8 A. Comment est définie φ à partir de la définition sur les éléments de la base ? Pour x ∈ E alors x s’écrit dans la base {e1 , e2 , e3 }, x = α1 e1 + α2 e2 + α3 e3 . Et φ est définie sur E par la formule φ(x) = α1 φ(e1 ) + α2 φ(e2 ) + α3 φ(e3 ). Soit ici : φ(x) = (α1 + α2 + α3 )e1 + (α1 − α2 ) + λα3 e3 . Cette définition rend automatiquement φ linéaire (vérifiez-le si vous n’êtes pas convaincus !). B. On cherche à savoir si φ est injective. Soit x ∈ E tel que φ(x) = 0 donc (α1 + α2 + α3 )e1 + (α1 − α2 ) + λα3 e3 = 0. Comme {e1 , e2 , e3 } est une base alors tous les coefficients sont nuls : α1 + α2 + α3 = 0, α1 − α2 = 0, λα3 = 0. Si λ 6= 0 alors en resolvant le système on obtient α1 = 0, α2 = 0, α3 = 0. Donc x = 0 et φ est injective. 90 Calcul matriciel Si λ = 0, alors φ n’est pas injective, en resolvant le même système on obtient des solutions non triviales, par exemple α1 = 1, α2 = 1, α3 = −2. Donc pour x = e1 + e2 − 2e3 on obtient φ(x) = 0. C. On peut soit faire des calcul soit appliquer la formule du rang. Examinons cette deuxième méthode. φ est surjective si et seulement si la dimension de φ est égal à la dimension de l’espace d’arrivée (ici E de dimension 3). Or on a une formule pour dim φ : dim Ker φ + dim φ = dim E. Si λ 6= 0, φ est injective donc Ker φ = {0} est de dimension 0. Donc dim φ = 3 et φ est surjective. Si λ = 0 alors φ n’est pas injective donc Ker φ est de dimension au moins 1 (en fait 1 exactement), donc dim φ 6 2. Donc φ n’est pas surjective. On remarque que φ est injective si et seulement si elle est surjective. Ce qui est un résultat du cours pour les applications ayant l’espace de départ et d’arrivée de même dimension (finie). Exercice 9 iv. f1 : R2 → R2 . Les dimensions de l’espace de départ et d’arrivée sont les mêmes donc par le théorème du rang f1 injective équivaut à f1 surjective qui équivaut à f1 bijective (cf cours). Calculons le noyau de f1 . kerf1 = {(x, y) ∈ R2 /f1 (x, y) = (0, 0)} = {(x, y)/x = y et 3x = 0} Donc f1 est injective (resp. surjective, resp. bijective) si et seulement si a 6= −2. v. f2 n’est pas linéaire. vi. De même il faut juste voir l’injectivité de f3 . Or ker(f3 ) = {z(−1, 1, 1)/z ∈ R}. Donc f3 n’est pas injective (ni surjective ni bijective). vii. Dans ce cas les dimensions sont infinies donc on ne peut utiliser le théorème du rang. Kerf4 = {p ∈ R[X]/P 0 = 0} . c’est l’ensemble des polynomes constants. Donc elle n’est pas injective (f4 (1) = 0). Par contre elle est surjective car tout polynome admet une primitive polynomiale (ie pour tout P ∈ R[X] il existe Q ∈ R[X] tel que Q0 = P ), donc tout élément de l’espace d ’arrivée a un antécédent. Chapitre 10. Solutions de la feuille 3 91 viii. Pour f5 on trouve de la même manière qu’elle n’est pas injective. Elle n’est pas surjective non plus car les espaces vectoriels sont les polynomes de degré au plus trois et les primitives d’un polynome de degré 3 est de degré4. (on pouvait ici utiliser le théorème du rang). est linéaire. f5 est surjective mais pas injective. ix. kerf6 = {ax3 +bx2 +cx+d/(−a+b−c+d, d, a+b+c+d) = (0, 0, 0)} = {ax3 − cx} = vect(x3 , x). Donc f6 n’est pas injective. Les dimensions sont différentes donc f6 pourrait etre surjective..f6 est surjective car on peut toujours trouver un polynome en fixant trois de ses valeurs. x. f7 est surjective mais pas injective. Exercice 10 (a) On commence par calculer le noyau de φ. Kerφ = {(x, y, z) ∈ C3 /A(x, y, z) = (0, 0, 0)} = {(x, y, z) ∈ C3 /y+z = 0, ix+z = 0, x+iy = 0} . D’ou kerφ = {(x, y, z) ∈ C3 /x = iz, y = −z} . Donc kerφ = vect{(i, −1, 1)} L’application φ n’est pas injective. Par le théorème du rang, elle n’est pas surjective. Remarque : Ici on considère C3 en tant que C espace vectoriel il est donc de dimension trois et dimker(φ) = 1 (b) On a déjà le vecteur de base du noyau. Par le théorème du rang la dimension de l’image est 2. or les vecteurs colonnes de A engendrent Im(φ).Donc il suffit de prendre deux vecteurs colonnes indépendants pour avoir une base. Par exemple Im(φ) = vect{(0, i, 1), (1, 0, i)} . 92 Calcul matriciel Exercice 11 1. Soient e1 , e2 , e3 la base canonique de R3 . Alors les vecteurs colonnes représentent φ(e1 ), φ(e2 ), φ(e3 ) écrits dans la base canonique de R3 . On a : φ(e1 ) = φ((1, 0, 0)) = (2, 1, 0) = 2e1 + e2 φ(e2 ) = (0, 1, 1) = e2 + e3 φ(e3 ) = (1, 0, −2) = e1 − 2e3 Donc la matrice de φ dans la base canonique de R3 (cela veut dire que les espaces de départ et d arrivée ont la même base. quand ce n’est pas le cas on le précisera) est : 2 0 1 M (φ) = 1 1 0 0 1 −2 2) La base canonique de C2 en tant que C esace vectoriel est (1, 0), (0, 1) (tout élément de C2 s’écrit sous la forme z(1, 0) + w(0, 1) = (z, w) avec z, w ∈ C. On a : ψ(e1 ) = (1 + i, 2i) ψ(e2 ) = (−i, 1) Donc M (ψ) = 1 + i −i 2i 1 3) On suppose que (e4 , e3 , e2 , e1 ) est la base des epsaces de départ et d’arrivée. Alors – f (e4 ) = e4 + e1 – f (e3 ) = e4 + e3 – f (e2 ) = e3 + e2 – f (e1 ) = e2 + e1 Alors 0 0 M (f ) = 1 1 0 1 1 0 1 1 0 0 1 0 0 1 Chapitre 10. Solutions de la feuille 3 Dans la base canonique on obtient : 1 1 M (f ) = 0 0 93 0 1 1 0 0 0 1 1 1 0 0 1 Exercice 12 i. (a) φ(x) = λφ(e1 ) + µφ(e2 ) + νφ(e3 ) car φ est linéaire. En regroupant les termes on obtient : 1 1 1 1 1 1 φ(x) = ( λ + µ − ν)e1 + ( µ − ν)e2 + (− λ + µ − ν)e3 2 2 2 2 2 2 (b) On a 1 1 −1 2 M (φ) = 0 12 − 12 − 12 12 − 12 ii. (a) Kerφ = {(x, y, z) ∈ R3 /M (φ)(x, y, z) = (0, 0, 0)} On résout le système et on trouve : kerφ = {(x, y, z)/y = z, x = 0} = vect{(0, 1, 1)} (b) Par le théorème du rang on a rgM (φ) = 2. On a de plus φ(2e1 + 4e2 + 2e3 ) = 3e1 + e2 = f1 et φ(2e1 + e2 + e3 ) = e1 − e3 = f2 et f1 , f2 sont des vecteurs linéairement indépendants d’ou ils engendrent Im(φ). (Il ne fallait pas oublier de vérifier que f1 et f2 appartenaient à Im(φ)). (c) Les trois vecteurs f1 , f2 , f3 sont linéairement indépendant et froment un sous espace vectoriel de dimension 3 donc forment une base de R3 . On a : φ(f1 ) = φ(3e1 + e2 ) = 3φ(e1 ) + φ(e2 ) car φ est linéaire. D’ou 1 5 φ(f1 ) = e1 + e2 − e3 2 2 Or on veut écrire la matrice dans la nouvelle base donc il faut écrire les images des nouveaux vecteurs de bases dans ces nouveaux vecteurs de base. On trouve : 1 φ(f1 ) = f1 + f2 2 94 Calcul matriciel . De même on trouve : 1 φ(f2 ) = f1 2 et φ(f3 ) = 0 car f3 est dans le noyau. D’où 1 2 1 2 0 M (φ) = 1 0 0 0 0 0 Exercice 13 La matrice de passage de la base B dans la base B 0 est la matrice de l’application linéaire identité Id : (E, B 0 ) → (E, B). Donc pour l’obtenir il suffit d’exprimer les vecteurs de la base B 0 dans la base B. i. 0 1 1 1 −1 1 1 1 0 ii. 1 −1 0 0 1 −1 0 0 1 iii. 1 + i 0 −i 1−i 0 1 0 2i 2i Exercice 14 i. il suffit de calculer le carré de la matrice et on trouve la matrice nulle. Soit x ∈ Im(f ).Alors il existe y ∈ R3 tel que f (y) = x (par définition). Mais on vient de montrer que f of (y) = 0 = f (x). D’ou x ∈ Ker(f ). D’ou l’inclusion. ker(f ) = {(x, y, z) ∈ R3 : A(x, y, z) = (0, 0, 0)} Chapitre 10. Solutions de la feuille 3 95 Donc ker(f ) = {(x, y, z) : x + z = 0, 2x + 2z = 0, −x − z = 0} Les trois équations sont proportionnelles et on trouve : ker(f ) = vect{(1, 0, −1), (0, 1, 0)} Attention ici on voit que y n’intervient pas dans les équations, cela veut dire que le noyau de f contient l’axe des y. ii. On verifie facilement que vect{(e1 − e3 , e2 , e1 )} = vect{(e1 , e2 , e3 )} donc la dimension de cet espace est 3 , il est formeé de trois vecteurs qui forment donc une base. On doit écrire l’image des trois vecteurs de la nouvelle base par f dans cette meme base. – f (e1 − e3 ) = f (e1 ) − f (e3 ) = (1, 2, −1) − (1, 2, −1) = (0, 0, 0) – f (e2 ) = (0, 0, 0) – f (e1 ) = (1, 2, −1) Alors la matrice représentant f est 0 0 1 0 0 2 0 0 −1 Chapitre 11 Déterminant et inversion des matrices Comme on l’a vu jusque là, beaucoup de problèmes d’algèbre linéaire comme savoir si une famille est libre ou non, ou une matrice est ou non inversible, se ramènent à résoudre des systèmes d’équations linéaires. On voudrait pouvoir trouver une solution à ces problèmes sans avoir à résoudre explicitement les sytèmes, puis trouver des solutions facilement. C’est dans ce cadre que nous allons introduire la notion de déterminants.Nous allons nous restreindre pour les exemples aux matrices 2×2 ou 3×3, bien que les calculs se généralisent par récurrence aux dimensions supérieures. Ensuite nous donneront les applications pour calculer l’inverse d’une matrice, ou à la théorie du rang. 1 1.1 Les déterminants Définition On commence par la définition classique du déterminant comme forme multilinéaire alternée. Puis on donnera une définition sous forme d’une formule de calculs qui se généralise par récurrence. C’est cette dernière définition qu’il vous faut retenir pour l’instant. Définition 35. On appelle forme multilinéaire alternée une application 97 98 Calcul matriciel δ : Rp × ...Rp −→ R telle que : n δ(c1 , ..., ci + c0i , ..., cn ) = δ(c1 , ..., ci , ..., cn ) + δ(c1 , ..., c0i , ..., cn ) 1 6 i 6(11.1) δ(c1 , ..., λci , ..., cn ) = λδ(c1 , ..., ci , ..., cn(11.2) ) X si ci = aj cj alors δ(c1 , ..., ci , ..., cn ) =(11.3) 0 j6=i Remarque : i. multilinéaire veut donc dire linéaire par rapport aux facteurs. ii. si on permute deux facteurs ci avec cj par exemple alors δ(c1 , ..., ci , ..., cj ..., cn ) = −δ(c1 , ..., cj , ..., ci , ..., cn ) . Théorème 11.1. Les formes multilinéaires alternées sur un espace vectoriel E de dimension n sont toutes proportionnelles à une certaine forme . admis Définition 36. On définit le déterminant d’une matrice A n × n , notée det(A), comme étant l’unique forme multilineaire alternée telle que det(In ) = 1. Détermination de cette forme en dimension 2 Définition 37. Une application δ : Rp × Rp −→ R est appelée forme bilinéaire alternée si elle vérifie les identités suivantes : δ(u + u0 , v) = δ(u, v) + δ(u0 , v) δ(λu, v) = λδ(u, v) δ(v, u) = −δ(u, v) on vérifie aisemment que cela implique : (11.4) (11.5) (11.6) Chapitre 11. Déterminant et inversion des matrices δ(u, v + v 0 ) = δ(u, v) + δ(u, v 0 ) δ(u, λv) = λδ(u, v) δ(0, u) = δ(u, 0) = 0 δ(u, u) = 0 δ(u + λv, v) = δ(u, v) = δ(u, λu + v) 99 (11.7) (11.8) (11.9) (11.10) (11.11) Soit E un R-espace vectoriel de dimension 2 et f : E × E −→ R une forme multilinéaire alternée. Soit B = (e1 , e2 ) une base de E.Alors tout élément de E se décompose dans cette base : xj = xj1 e1 + xj2 e2 On a par multilinéarité et alternance : f (x1 , x2 ) = f (x11 e1 + x12 e2 , x21 e1 + x22 e2 = (x11 x22 − x12 x21 )f (e1 , e2 ) Si on pose f (e1 , e2 ) = 1 alors detB (x1 , x2 ) = x11 x22 − x12 x21 E de dimension 3 Soit B = (e1 , e2 , e3 ) une base de E. Alors xi = xi1 e1 + xi2 e2 + xi3 e3 . et on trouve f (x1 , x2 , x3 ) = (a11 (a22 a33 −a32 a23 )+a12 (−a21 a33 +a31 a23 )+a13 (a21 a32 −a22 a31 )f (e1 , e2 , e3 ) Si on pose f (e1 , e2 , e3 ) = 1 alors on définit detB (x1 , x2 , x3 ) = (a22 a33 − a32 a23 ) + a12 (−a21 a33 + a31 a23 ) + a13 (a21 a32 − a22 a31 On peut définir les déterminants de la même manière pour des éléments d’ un espace vectoriel de dimension n, mais nous ne le ferons pas ici. 100 Calcul matriciel 1.2 Déterminant d’une matrice Définition 38. Soit A = (a) une matrice (1 × 1). On pose det(A) = a. Soit A= a11 a12 a21 a22 On pose det(A) = a11 a22 − a12 a21 . Soit a11 a12 a13 A = a21 a22 a23 a31 a32 a33 On pose det(A) = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a22 ) + a13 (a21 a32 − a31 a22 ). Cette définition se généralise de la façon suivante : Définition 39. Soit A= a11 . . . a1n . . . an1 . . . ann On définit par récurrence une application det : Mn (K) → K de la manière suivante : – si n = 1 A = a et det(A) = a – si n > 1 notons Aij la matrice obtenue en supprimant la ieme ligne et la jieme colonne à A (on a donc une matrice de dimension n − 1). Alors on pose detA = a11 detA11 + ... + (−1)k+1 a1k detA1k + ... + (−1)n+1 a1n detA1n On le note en général : det(A) = a11 . . . a1n . . . an1 . . . ann Chapitre 11. Déterminant et inversion des matrices 101 Remarque : on retrouve bien les formules de (1.1), les colonnes de la matrice jouant le role des vecteurs ci . On vérifie facilement que c’est bien une forme bilinéaire alternée par rapport aux colonnes. 1.3 Déterminants de la transposée d’une matrice, du produit d’une matrice et d’un endomorphisme Les théorèmes qui suivent sont faciles à démontrer en petite dimension (mais fastidieux à écrire). Pour les preuves, vous pouvez vous réferrer au livre de Joseph Grifone ou bien m’écrire. Théorème 11.2. det(t A) = det(A) ∀A ∈ Mn (K). Cela nous donne le corollaire suivant : Corollaire 11.3. Règle de dualité Toutes les propiétés des déterminants relatives aux colonnes peuvent être affirmées pour les lignes. On a par exemple les propriétés suivante : Théorème 11.4. le déterminant est une fonction multilinéaire et alternée de chaque ligne. Cela implique les propriétés suivantes (qui sont les mêmes pour les colonnes) qui nous faciliteront le calcul des déterminants : i. si la matrice a deux lignes égalent, le déterminant est nul. ii. si on échange deux lignes de la matrice, le déterminant change de signe. iii. Le déterminant est non nul si et seulement si les vecteurs lignes sont indépendants. iv. Si on ajoute à une ligne une combinaison linéaire des autres lignes, le déterminant ne change pas. Calcul des déterminants Grâce aux propriétés précédentes, le calcul des déterminants est rendu plus simple : i. On choisit si on développe par rapport aux lignes ou aux colonnes. 102 Calcul matriciel ii. On permute (en n’oubliant pas de changer de signe le déterminant) les lignes (resp. les colonnes) pour rendre les calculs faciles. iii. En ajoutant ou soustrayant à une ligne des combinaisons linéaires des autres lignes (comme avec Gauss) on transforme la première ligne (resp. colonne) de la matrice de sorte qu’elle ait un maximum de 0. iv. En multipliant une colonne par un scalaire le déterminant est multiplié par le même scalaire. Exemple Quel est le déterminant de 6 5 A= 4 la matrice suivante ? 3 2 2 2 2 2 On remarque que la dernière colonne comporte que des 2 donc en soutrayant la première ligne aux deux autres on obtient facilement des 0. 2 3 2 3 6 6 3 2 6 det(A) = 5 2 2 = − 2 2 5 = − 0 −1 −1 0 −1 −2 2 2 4 4 2 2 On développe par rapportà la première colonne : −1 −1 = −2 × (−1 ∗ −2 − (−1 ∗ −1)) = −2 det(A) = −2 × −1 −2 Théorème 11.5. det(AB)=det(A)det(B) ∀A, B ∈ Mn (K) Encore une fois la preuve en dimension 2ou 3 est facile : il suffit d’un coté de développer les déterminant de deux matrices quelconques (mais de même dimension) puis de les multiplier en développant complètement le rpoduit, et d’un autre coté multiplier les deux matrices et calculer le déterminant du produit. Cela nous donne le corollaire très important suivant : Corollaire 11.6. Une matrice A ∈ Mn est inversible ssi det(A) 6= 0 et on 1 a det(A−1 ) = det(A) . Cela vient du fait que det(In ) = 1 et qu’on ne peut jamais diviser par 0. Chapitre 11. Déterminant et inversion des matrices 103 Corollaire 11.7. si A et A’ sont semblables alors det(A) = det(A0 ). Démonstration. Les matrices A et A’ sont semblables donc il existe une 1 det(A)det(P ) = matrice inversible telle que A0 = P −1 AP . Alors det(A0 ) = det(P ) det(A). Ce corollaire nous permet de définir le déterminant d’un endomorphisme d’un espace vectoriel E (en effet les matrices d’un même endomorphisme sont semblables entre elles donc le déterminant ne dépendra pas de la base de E choisie). Définition 40. Soit E un espace vectoriel de dimension finie et f un endomorphisme de E. on appelle déterminant de f le déterminant de la matrice qui représente f dans une base quelconque de E. 2 Inversion des matrices Ainsi qu’on l’a vu dans la section précédente, calculer le déterminant suffit à décider si une matrice est inversible ou non. On peut calculer l’inverse d’une matrice en résolvant un sytème à autant d’inconnues que d’équations (cf exemple dans le chapitre précédent). Mais en fait on peut le faire plus “rapidement” (c’est surtout vrai à partir de la dimension 3). Définition 41. Soit A ∈ Mn . i. bij = (−1)i+j det(Aij est appelé cofacteur de A d’indice ij. ii. On appelle comatrice de A ∈ Mn la matrice Com(A) dont les coefficients sont les cofacteurs : Com(A) = (bij )16j6n 16i6n . Théorème 11.8. Soit A ∈ Mn . Alors i. t Com(A)A = At Com(A) = det(A)In ii. Si A est inversible, on a : t Com(A) det(A) t Com(A) det(A) .A = A. . exercice : faire la preuve pour n = 2, 3. t Com(A) det(A) = In . Donc A−1 = 104 Calcul matriciel 3 Application du déterminant à la théorie du rang 3.1 Bases Théorème 11.9. Soit E un espace vectoriel de dimension n. Soient {vi , ..., vn } une famille de n vecteurs de E. Soit A la matrice dont les vecteurs colonnes sont constitués des vecteurs vi écrits dans une base de E. les vecteurs {v1 ..., vn } forment une base de e ssi det(A) =6= 0. 3.2 Famille libre Théorème 11.10. Soient {e1 , ..., ek } une famille de k vecteurs d’un espace vectoriel E de dimension n et A ∈ Mnk la matrice dont les colonnes sont constituées des composantes des k vecteurs. la famille des k vecteurs ssi on peut extraire de A un mineur d’ordre k. (Un mineur est une sous matrice(k) de la matrice A). Exemple 1 0 1 2 1 5 forment une 9 Les vecteurs v1 = 3 , v2 = 2 , v3 = 3 4 −2 5 0 0 5 famille libre de R car dans la matrice associée on a un mineur de rang 3 : A= 1 2 3 3 5 0 1 1 5 2 9 4 −2 0 0 3.3 Appartenance d’un vecteur à l’espace engendré par une famille Définition 42. Soit A une matrice et b un mineur d’ordre k extrait de A. On appelle bordant de b tout mineur d’ordre k + 1 extrait de A dont b est un mineur extrait. Chapitre 11. Déterminant et inversion des matrices 105 Théorème 11.11. Soit {v1 , ..., vk } k vecteurs linéairement indépendants et A ∈ Mnk la matrice associée. Soit b un mineur d’ordre k non nul extrait de A. Pour qu’un vecteur w appartienne à vect(v1 , ..., vk ), il faut et il suffit que tous les bordants de b dans la matrice C = |v1 , ..., vn , w| soient nuls. (En effet on vient de voir que k vecteurs étaient linéairement indépendant ssi il existait un mineur d’ordre k non nul. Donc ils sont liés ssi tous les mineurs d’ordre k sont nuls.) 3.4 Détermination du rang Théorème 11.12. Soit A ∈ Mpn . Le rang de A est k ssi on peut extraire de A un mineur b d’ordre k non nul et tous les bordants de b dans A sont nuls. Autre manière de chercher le rang d’une matrice : Théorème 11.13. Le rang d’une matrice A est l’ordre maximal des mineurs non nuls extraits de A. Chapitre 12 Feuille Td 4 Exercice 1 Soit A un endomorphisme d’ev de dimension finie. Montrer que les conditions sont équivalentes : i. detA 6= 0 ii. A est injectif iii. A est surjectif iv. A est bijectif v. Ker(A) = {0} Exercice 2 Soient a = (a1 , a − 2) et b = (b1 , b2 ) des vecteurs de R2 . Montrer que l’aire du parallélogramme engendré par a et b est égale au déterminant de la a1 b 1 matrice . Démontrer l’énoncé analogue dans R3 sur le volume a2 b 2 d’un parallélotope engendré par trois vecteurs. Exercice 3 Calculer les déterminants suivants : 4 −3 5 0 x z 3 −2 8 , −x 0 y 1 −7 −5 −z −y 0 107 1 x x2 1 y y2 1 z z2 108 Calcul matriciel 1 1 1 1 1 −1 1 1 1 1 −1 1 1 1 1 −1 , , 6 −5 8 4 9 7 5 2 7 5 3 7 −4 8 −8 −3 Exercice 4 Calculer les inverses des matrices suivantes : 1 x z a b 2 1 0 1 y ( a 6= 0 0 1 1 1 0 0 1 2 7 3 3 9 4 1 5 3 Exercice 5 1 2 Soient B = 1 1 2 4 2 2 1 0 1 1 1 0 3 −2 1 x1 1 x2 ; X = x3 0 1 x4 1 ; C1 = 0 et C2 = 1 1 i. Calculer le rang de B. ii. Déterminer les solutions de BX = C1 iii. Déterminer les solutions de BX = C2 Exercice 6 Les vecteurs v1 = (1, 0, 0, 2, 5), v2 = (0, 0, 1, 4, 7), v3 = (0, 1, 0, 3, 4) et v4 = (2, −3, 4, 11, 12) sont-ils indépendants dans R5 ? Exercice 7 Pour quelles valeurs de λ et µ les vecteurs (2, µ, 1), (λ, 0, 1), (µ, λ, 0) forment ils une base de R3 . Chapitre 12. Feuille Td 4 109 Exercice 8 Soit A ∈ Mn (K) et λ ∈ K. Montrer l’équivalence : ∃u ∈ Rn \Au = λu <=> λ est racine de p(x) = det(A − xIn ) Exercice 9 Calculer le déterminant de la matrice qui représente dans la base canonique de R3 la projectio f sur le plan x − y + 5z = 0 parallèlement à la droite x = y = z suivie de laprojection g sur le plan x + y + z = 0 parallèlement à la droite x = y = −5z. Exercice 10 Pour quelles valeurs de a ∈ R 1 1 1 la matrice 1 1 2 4 ∈ M3 (R) 3 a est-elle inversible ? Calculer dans ce cas son inverse. 1 Déterminants et inversion Exercice 5 : Calculer les déterminants 1 0 2 1 2 3 , 3 4 5 , 3 −1 4 5 6 7 5 suivants : 0 6 4 15 , 6 21 1 0 0 2 3 5 4 1 3 Exercice 6 : Lesquels des déterminants suivants sont nuls ? 2 4 1 3 −1 −2 1 0 , 0 0 2 2 3 6 2 5 9 9 8 25 75 −30 , 5 15 −6 1 0 −1 0 0 −1 1 0 0 0 −1 1 1 −1 −1 1 110 Calcul matriciel Exercice 13 : Soit ϕ ∈ End(3 ), défini par l’image par ϕ d’une base = {e1 , e2 , e3 } : ϕ(e1 ) = e1 +2e2 +2e3 , ϕ(e2 ) = 3e1 +4e2 +6e3 , ϕ(e3 ) = 5e1 +62 +9e3 . Expliciter la matrice M (ϕ) de ϕ dans la base . M (ϕ) est elle inversible ? Si oui, l’inverser, et en déduire l’action de ϕ−1 dans la base . Chapitre 13 Solutions de la feuille 4 Exercice 1 On montre d’abord que kerA = {o} <=> Ainjectif <=> Asurjectif <=> Abijectif . Rappel : On a dimE = dim(Ker(A)) + rgA. • A injective <=> KerA = {0}. Soit x ∈ E tel que x ∈ KerA. Alors A(x) = 0 = A(0). Comme A est injective x = 0. Supposons Ker(A) = 0. Soient x, y ∈ E tels que A(x) = A(y). Alors on a A(x − y) = 0 (car A est linéaire), donc x − y ∈ Ker(A) et donc x − y = 0. • A surjective <=> Im(A) = E <=> Ker(A) = 0 La première équivalence est vraie par définition. Ker(A) = 0 <=> dimKer(A) = 0 <=> dim(Im(A)) = dimE <=> Im(A) = E. 111 112 Calcul matriciel Cela nous donne directement la dernière équivalence. • A bijectve <=> det(A) 6= 0 Soient (e1 , ..., en ) une base de E. Si A est bijective alors (A(e1 ), ..., A(en )) forme une base de E (car l’image d’une base par un isomorphisme est une base). Donc det(A(e1 ), ..., A(en )) 6= 0 car (A(e1 ), ..., A(en )) n’est pas liée. On a aussi det(e1 , ..., en ) 6= 0. Rappel : soit f un endomorphisme, alors det(f (e1 ), ..., f (en )) = det(f )det(e1 , ..., en ) d’où det(A) 6= 0. Réciproquement, si det(A) 6= 0, comme det(e1 , ..., en ) 6= 0, on a det(A(e1 ), ..., A(en )) 6= 0. Exercice 2 Soit A le parallélogramme engendré par (a, b). Soit A l’aire de A. Alors A = ||a|| ∗ h où ||a|| est la longueur du vecteur a. Or h = ||b||sin(α) Donc A = ||a|| ∗ h = ||a||||b||sin(α). D’autre part on a (rappel) ||a ∧ b|| = ||a||||b||sin(α). 3 Ecrivons pouvoir faire le produit vectoriel). On a R (pour aet b dans b1 a1 a = a2 et b = b2 . 0 0 0 0 = . 0 0 Alors a ∧ b = a1 b 2 − a2 b 1 det(a, b) donc ||a ∧ b|| = |det(a, b)|. (On pouvait aussi montrer que l’aire était une forme bilinéaire alternée telle que l’aire engendrée par (e1 , e2 ) égalait 1. Alors par une proposition du cours l’aire est égale au déterminant. Chapitre 13. Solutions de la feuille 4 113 Soit a, b, c trois vecteurs de R3 et soit V le volume du parallélotope engendré par ces trois vecteurs. Alors V = Aire(a, b) ∗ p où p est la profondeur par rapport au plan (a, b), c’est à dire la projection de c sur la drtoie pera∧b . Alors pendiculaire à (a, b). le vecteur unitaire de cette droite est u = ||a∧b|| (rappel) p = |c.u| (le produit scalaire entre ces deux vecteurs). Finalement V = Aire(a, b) ∗ p = ||a ∧ b|| ∗ |c. Or a∧b = |c.a ∧ b| ||a ∧ b|| a1 b1 a2 b 3 − a3 b 2 a ∧ b = a2 ∧ b 2 = a3 b 1 − a1 b 3 a3 b3 a1 b 2 − a2 b 1 et c.a ∧ b = c1 (a2 b3 − a3 b2 ) + c2 (a3 b1 − a1 b3 ) + c3 (a1 b2 − a2 b1 ) donc le volume égale c 1 a1 b 1 det c2 a2 b2 = |det(c, a, b)| = |det(a, b, c)| c 3 a3 b 3 Exercice 3 Pour trouver les déterminants sans trop faire de calculs, on “met “ le plus de 0 possible dans la matrice (c est à dire que l’on ajoute des combinaisons linéaires à un ligne des autres lignes (resp. aux colonnes) avant de développer. 4 −3 5 3 −2 8 1 −7 −5 0 6 2 = 0 19 23 1 −7 −5 1 1 1 1 1 −1 1 1 1 1 −1 1 1 1 1 −1 = = 1 ∗ (6 ∗ 23 − 19 ∗ 2) = 138 − 38 = 100 1 0 0 0 1 −2 0 0 1 0 −2 0 1 0 0 −2 −2 0 0 = 1 ∗ 0 −2 0 0 0 −2 = −8 114 Calcul matriciel 0 x z −x 0 y = −x −x y −z 0 −z −y 0 +z 0 x z −x 0 −z −y = −x(yz) + z(xy) = 0 De manière générale si une matrice est antisymétrique alors son déterminant sera nul. 1 x x2 1 y y2 1 z z2 1 x x2 = 0 y − x (y − x)(y + x) 0 z − x (z − x)(z + x) = 1 ∗ ((y − x)(z − x)(z + x) − (z − x)(y − x)(y + x)) = (y − x)(z − x)(z − y) 6 3 8 4 6 3 −4 4 9 12 5 2 9 12 −13 2 = = 7 8 3 7 7 8 −11 7 −4 0 −8 −3 −4 0 0 −3 3 −4 4 6 3 −4 = −(−4) 12 −13 2 − 3 9 12 −13 8 −11 7 7 8 −11 6 3 −4 0 3 −4 Or 9 12 −13 = −15 12 −13 = −3(15 ∗ 11 − 9 ∗ 13) − 4(−15 ∗ 7 8 −11 −9 8 −11 8 + 9 ∗ 12) = −96 3 −4 4 3 0 4 et 12 −13 2 = 12 −113 2 = 3 ∗ (−11 ∗ 7 + 4 ∗ 2) + 4(−4 ∗ 12 + 8 −11 7 8 −4 7 8 ∗ 11) = −47 Alors le déterminant demandé est 100. 6 −5 8 4 9 7 5 2 7 5 3 7 −4 8 −8 −3 Exercice 4 La première méthode que l’on a vu pour inverser une matrice était de résoudre un système A.(x1 , ..., xn ) = (x01 ..., x0n ) avec invonnues x1 , ..., xn . Chapitre 13. Solutions de la feuille 4 115 t 1 com(A). On commence bien sur Ici on va utiliser la formule A−1 = det(A) par caluler les déterminant pour vérifier qu ils sont non nuls. a b • A1 = et a 6= 0 0 1 On a det(A1 ) = a 6= 0 donc on peut inverser. On commence par les cofacteurs : cof11 (A1 ) = (−1)1+1 det(1) = 1 cof12 (A1 ) = (−1)1+2 det(0) = 0 cof21 (A1 ) = (−1)2+1 det(b) = −b cof22 (A1 ) = (−1)2+2 det(a) = 4 Alors t com(A1 ) = 1 −b 0 a et donc A 1 x z • A2 = 0 1 y 0 0 1 −1 = 1 a 0 1 −b a a 116 Calcul matriciel detA2 = 1 donc on peut inverser. Les cofacteurs sont : 1 y 1+1 cof11 (A1 ) = (−1) det( )=1 0 1 0 y 1+2 cof12 (A1 ) = (−1) det( )) = 0 0 1 0 1 1+3 cof13 (A1 ) = (−1) det( )) = 0 0 0 x z 2+1 cof21 (A1 ) = (−1) det( )) = −x 0 1 1 z 2+2 cof22 (A1 ) = (−1) det( )) = 1 0 1 1 x 2+3 cof23 (A1 ) = (−1) det( )) = 0 0 0 x z 3+1 cof31 (A1 ) = (−1) det( )) = xy − z 1 y 1 z 3+2 cof32 (A1 ) = (−1) det( )) = −y 0 y 1 x 3+3 cof33 (A1 ) = (−1) det( )) = 1 0 1 Alors A−1 2 • A3 = 2 1 1 1 1 −x xy − z −y = 0 1 0 0 1 On a det(A3 ) = 2 − 1 = 1 donc on peut inverser. 1 −1 −1 A3 = −1 2 2 7 3 • A4 = 3 9 4 1 5 3 Chapitre 13. Solutions de la feuille 4 117 On a det(A3 ) = −3 et A−1 4 −7 2 −1 5 −1 −1 . = −1 3 −2 1 −3 Exercice 5 1 2 B= 1 1 1 0 1 1 1 0 3 −2 1 1 0 1 1)Le rang de B est le plus grand déterminant non nul que l’on peut ex 1 1 = −1 6= 0 donc rg(B) > 2. traire. On a 2 1 On cherche maintenant un mineur d’ordre 3 : 1 0 1 1 1 1 = −1 6= 0 donc rg(B) > 3. 1 0 0 Or det(B) = 0 donc rg(B) = 3. 2) Comme det(B) = 0 on ne peut pas inverser la matrice pour trouver la solution directement. On n a pas d’unicité non plus. BX = C1 équivaut au système : x1 + x2 + x4 = 1 2x1 + x2 + x3 + x4 = 0 x1 + x2 = 0 x1 + 3x2 − 2x3 + x4 = 1 ce qui équivaut à : x2 = −x1 x4 = 1 x1 + x3 = −1 −2x1 − 2x3 = 0 Le système n’est pas compatible donc il n’y a pas de solutions. 118 Calcul matriciel 3) BX = C2 équivaut au système : x1 + x2 + x4 = 2 2x1 + x2 + x3 + x4 = 4 x1 + x2 = 2 x1 + 3x2 − 2x3 + x4 = 2 ce qui équivaut à : x2 + x1 = 2 x4 = 0 x1 + x3 = 2 2x2 − 2x3 = 0 i.e.l’ensemble des solutions est l’ensemble des quadruplets (x1 , x2 , x3 , x4 ) tels que x2 = x3 = 2 − x1 et x4 = 0. Exercice 6 Les quatre vecteurs v1 = (1, 0, 0, 2, 5), v2 = (0, 0, 1, 4, 7), v3 = (0, 1, 0, 3, 4) et v4 = (2, −3, 4, 11, 12) sont indépendants ssi on peut extraire un mineur de rang 4 de la matrice A dont les colonnes sont ces vecteurs (ssi rg(A) = 4). 1 0 0 2 0 0 1 −3 A= 0 1 0 4 2 4 3 11 5 7 4 12 Or 1 0 0 2 0 0 1 4 0 2 1 −3 = −8 0 4 3 11 donc la famille est libre. Exercice 7 Les vecteurs (2, µ, 1), (λ, 0, 1), (µ, λ, 0) forment une base de R3 si et seulement si ils forment une famille libre (en effet on a trois vecteurs donc si ils Chapitre 13. Solutions de la feuille 4 119 sont libres il engendrent un sev de R3 de dimension 3, donc par théormèe, ils engendrent tout l’espace. ) donc si et seulement si det 6= 0. Calculons ce déterminant : 2 λ µ 2 λ−2 µ µ 0 λ = µ −µ λ = λ(λ − 2) + µ2 1 1 0 1 0 0 La famille est libre ssi λ(λ − 2) + µ2 6= 0 Exercice 8 λ racine de p(x) = det(A−xIn ) <=> à det(A−λIn ) = 0 <=> A−λIn n’est pas bijective, en particuler elle n’est pas injective <=> Ker(A − λIn ) 6= 0 <=> il existe u 6= 0 tel que (A − λIn )(u) = 0. ceci équivaut bien sur à ce qu’ il existe u 6= 0 tel que Au = λu. Exercice 9 On veut le déterminant de l’application composée gof . La matrice associée à cette application est le produit des matrices associees à f et g respectivement : Mgof = Mg ∗ Mf et le déterminant le produit des deux. Or l’application f est une projection sur un plan parallélement à une droite. En particulier tous les points situés sur cette droite seront tous envoyés sur (0, 0, 0). Donc l’application n’est pas injective, ce qui implique que son déterminant est nul. (C’est le même argument pour g) donc det(Mgof = 0. Exercice 10 Pour que la matrice A soit inversible il faut que son déterminant soit non nul. on va donc calculer ce déterminant : 1 1 1 det(A) = 1 2 4 1 3 a 1 1 1 = 0 1 3 0 2 a−1 =a−1−6=a−7 120 Calcul matriciel Donc si a 6= 7 la matrice est inversible. Pour calculer l’inverse on calcule d’abord 2a − 12 Com(A) = 3 − a 2 Alors la comatrice : 4−a 1 a − 1 −2 −3 1 A−1 2a − 12 3 − a 2 1 4 − a a − 1 −3 = a−7 1 −2 1 Exercice 11 2 3 −1 4 = 2 ∗ 4 + 3 = 11 1 0 2 1 0 2 3 4 5 = 0 4 −1 = −6 0 6 −3 5 6 7 Pour la troisième matrice, on remarque que la troisième colonne vaut trois fois la troisieme colonne de la deuxieme matrice et que le reste est identique, alors le déterminant est multiplié par trois : 1 0 6 3 4 15 = −18 5 6 21 1 0 0 2 3 5 = 9 − 5 = 4 4 1 3 Exercice 12 Les trois déterminant sont nuls car : i. La deuxième colonne vaut deux fois la première colonne Chapitre 13. Solutions de la feuille 4 121 ii. la deuxième ligne vaut 5 fois la troisième ligne iii. la dernière ligne est la somme de toutes les lignes. Exercice 13 La matrice représentant ϕ dans la base = {e1 , e2 , e3 } est telle que ses colonnes sont l image des vecteurs de base exprimés dans la base de l’espace d arrivée (qui est la même que celle de départ dans ce cas ci). On obtient alors : 1 3 5 2 4 6 2 6 9 Pour montrer que ϕ est inversible il suffit de montrer que le déterminant de la matrice représentant cette application est non nul. On a : 1 3 5 2 4 6 = 2 2 6 9 donc ϕ est inversible. On calcule son inverse en utilisant la formule avec les cofacteurs et on trouve : 3 −1 0 2 M (φ)−1 = −3 − 12 2 2 0 −1 Alors l’action de ϕ−1 est – ϕ−1 (e1 ) = −3e2 + 2e3 ϕ−1 (e2 ) = 32 e1 − 21 e2 – ϕ−1 (e3 ) = −e1 + 2e2 − e3 Chapitre 14 Résolution d’équations différentielles On va maintenant appliquer la théorie du calcul matriciel à la résolution des systèmes d’équations différentielles. Avant cela il nous faut un petit peu plus de théorie : la diagonalisation des matrices. Diagonaliser les matrices rendra la résolution des sytèmes linéaires beaucoup plus facile ; mais on ne peut pas toujours le faire. On va donc dans un premier temps caractériser les matrices diagonalisables puis trouver les bases dans lesquelles leur matrice semblable est diagonale. C’est une des parties les plus importantes de ce chapitre, bien plus que les applications, il est très important de vous entrainer à le faire. (remarque : la diagonalisation des matrices fait partie de ce que l’on appelle “réduction des endomorphismes” qui comprend aussi la trigonalisation, mais que nous ne verrons pas ici.) 1 Diagonalisation Le problème est le suivant. Etant donné un endomorphisme f on lui associe une matrice MB (f ) écrite dans une certaine base B ; on voudrait trouver une base B 0 dans laquelle la matrice de f (semblable à MB (f ) ) est la plus simple possible (c’est à dire diagonale). Une telle base n’existe pas toujours. 123 124 Calcul matriciel 1.1 Vecteur propre - valeur propre Soit u : E −→ E x −→ Ax un endomorphisme (avec A la matrice de u dans une base b). On veut trouver une base b0 telle que A = P DP −1 où D est diagonale et représente u dans la base b0 , P est la matrice de passage de b vers b0 .(On aura aussi D = P −1 AP ). si D est diagonale , cela implique que u(e0i ) = λi e0i pour tout e0i ∈ b0 (λi est le ième coefficient de la diagonale de D).Aurement dit on veut trouver une base b0 dont tous les vecteurs ont des images par u proportionnels à eux-mêmes. Définition 43. i. Soit u : E −→ E linéaire , avec E de dimension n. On dira que x 6= 0 tel que u(x) = λx est un vecteur propre de u pour la valeur propre λ. ii. Soit λ une valeur propre de u. On pose Eλ = {vecteur propre pourλ}∪ {0}.Eλ est le sous espace propre associé à λ. C’est un sev de E. iii. On dit que u est diagonalisable si u possède une base de vecteurs propres. On conserve ces définitions pour une matrice (toute matrice A est asociée à un endomorphisme u : E −→ E x −→ Ax ). Théorème 14.1. Soit u : E → E linéaire. Soit P (x) = det(u − xIE ). C’est un polynome de degré la dimension de E dont les racines sont précisemment les valeurs propres de u. Chapitre 14. Résolution d’équations différentielles 125 Définition 44. Ce polynome P (x) est appelé le polynome caractéristique de u (ou de A matrice). Alors on a par définition : Proposition 14.2. L’espace propre associé à une valeur propre λ est défini par : Eλ = Ker(u − λIdE ) C’est une conséquence du théorème précédent. a b Exemple 1 : dim(E) = 2 , A = c d a−x b = x2 − (a + d)x + ad − bc = Alors det(A − xI2 ) = c d−x x2 − T r(A)x + det(A) où T r(A) est la trace de A, c’est à dire la somme des coefficients diagonnaux de A. Exemple 1 : A= −2 1 1 −2 Alors P (x) = x2 + 4x + 3. Les racines de P sont −1 et −3. Ce sont aussi les valeurs propres de A. Attention , la recherche des racines dépend du corps dans lequel vous les cherchez : x2 + 1 n’a pas de racines dans R mais en a deux dans C. On va rechercher maintenant les vecteurs propres associés aux valeurs propres : λ = −1 : E−1 = Ker(A + I2 ) = {(x, y)/A(x, y) = −(x, y)} −x + y = 0 on doit résoudre : x−y =0 On a deux fois la même équation. 126 Calcul matriciel Donc E−1 = {(x, y)/x = y} = vect((1, 1)). λ = −3 : E−3 = Ker(A + 3I2 ) = {(x, y)/A(x, y) = −3(x, y)} on doit résoudre : x+y =0 x+y =0 On a deux fois la même équation. Donc E−3 = {(x, y)/x = −y} = vect((1, −1)). Alors dans cet exemple, −1 0 1 1 D= et P = 0 −3 1 −1 (l’ordre des valeurs propres dans la matrice diagonale est déterminé par l’ordre des vecteurs propres dans b0 . Définition 45. Pour un endomorphisme f : E → E, on considère l’ensemble A(f ) = {P ∈ K[X] : P (f ) = 0} des polynomes annulant f pour E de dimension finie . Il existe un unique polynome unitaire mf tel que A(f ) est l’ensemble des multiples de mf . Ce polynome mf est le polynome minimal de f Théorème 14.3. Cayley-Hamilton Soit f un endomorphisme d’un espace vectoriel de dimension finie sur un corps K. Alors Pf (f ) = 0. En d’autres termes le polynome minimal divise le polynome caractéristique. 1.2 caractérisation des endomorphismes diagonalisables Dans l’exemple un fois que l’on a calculer les valeurs propres on savait la matrice diagnalisable car les valeurs propres étaient distinctes. Ce n’est pas toujours le cas. Définition 46. Soit λ une valeur propre de u : E → E linéaire. On appelle multiplicité de λ sa multiplicité en tant que racine du polynome caractéristique, i.e. la plus grande puissance n telle que (x−λ)n divise p(x). Chapitre 14. Résolution d’équations différentielles 127 Théorème 14.4. Soit f un endomorphisme de E.f est diagonalisable ssi : i. P (x) est scindé dans K (i.e. on peut l’écrire comme produit de (x−λ) : P (x) = (−1)n (x − λ1 )α1 ...(x − λp )αp avec λi ∈ K et α1 + ... + αp = n) ii. Pour chaque valeur propre λi de multiplicité αi on a dim(Eλi ) = αi . Exemple : −1 1 0 A = 0 −1 1 1 0 −1 Le polynome caractéristique associé à A est P (x) = −x(x2 + 3x + 3). Dans R ce polynome n’est pas scindé (i.e. x2 + 3x + 3 n’a pas de racines réelles) donc A n’est pas diagonalisable dans R. Mais elle l’est dans C (tout polynome à coefficient réels est scindé dans C).On a : 0 DA = 0 0 0√ −3+ 3i 2 0 0 0√ −3− 3i 2 Remarque : une valeur propre peut être nulle, mais jamais une vecteur propre : une famille de vecteurs contenant un vecteur nul ne peut être libre donc ne peut être une base. Théorème 14.5. Une matrice carrée A est diagonalisable si et seulement si son polynome minimal est scindé et ses racines sont deux à deux distinctes. -cf exercice 2,1) 2 Application de la diagonalisation On va appliquer la diagonalisation tout d’abord au calcul des la puissance d’une matrice puis à la résolution de système d’équations différentielles linéaires. 128 Calcul matriciel 2.1 Calcul de la puissance d’une matrice Soit A ∈ Mn (K). Supposons que A est diagonalisable. Il existe alors une matrice diagonale D et un matrice inversible P telles que D = P −1 AP , ou de manière équivalente A = P DP −1 . Alors Ak = P Dk P −1 (on remplace A par sa valeur k fois , et P −1 P = In ). Or la matrice D est diagonale donc sa puissance kime est facile à calculer : λ1 0 0 λk1 0 0 0 λ2 0 λk 0 0 2 k D = .. alors D = .. . . k 0 0 λn 0 0 λn On n’a plus qu’à appliquer la formule pour retrouver Ak . 2.2 Résolution des système d’équations différentielles linéaires à coefficient constants On veut résoudre le système suivant : 0 x1 = a11 x1 + ... + a1n xn .. . x0 = a x + ... + a x n1 1 nn n n avec aij ∈ K(= R ou C) et xi dérivables. On écrit le système sous forme matricielle : x1 X 0 = AX o X = ... xn On suppose A digonalisable donc il existe une matrice diagonale D et un matrice inversible P telles que D = P −1 AP , ou de manière équivalente A = P DP −1 .La matrice P est la matrice de changement de base de la base b vers la base v = (v1 , ..., vn ) où les vi sont les vecteurs propres de Chapitre 14. Résolution d’équations différentielles 129 A. On peut appliquer ce même changement de base aux vecteurs X et X 0 pour les exprimés dans la nouvelle base formée des vecteurs propres. Soit Y = P −1 X alors Y 0 = P −1 X 0 et on a Y 0 = P −1 AX = P −1 AP P −1 X = DY . Ce système est facile à intégrer car D est diagonale. Ainsi pour résoudre un système différentiel à coefficients constants on commence par diagonaliser la matrice, puis on intègre le système “diagonal”. Enfin grâce aux matrices inversibles on écrit les solutions dans la base de départ. 3 Résolution des systèmes d’équations linéaires, systèmes de Cramer 3.1 Soit existence et unicité des solutions ( a11 x1 + ... + a1n xn = b1 .. .am1 x1 + ... + amn xn = bm un système à résoudre où les (aij ) et bk sont les données et xj les inconnues. On peut reécrire ce système sous forme marticielle : AX = B avec A = (aij ). Théorème 14.6. i. le système a des solutions ssi B et lié aux vecteurs colonnes de A A1 , ..., An ii. Il y a unicité des solutions ssi A1 , ..., An forment une famille libre conséquences directes : i. si n > m la famille A1 , ..., An n’est pas libre dans Rm , il n’y a jamais unicité des solutions. ii. si m > n si A est fixé, il existera toujours des second membres B pour lequel il n’y aura pas de solutions. Corollaire 14.7. si m = n et si A est inversible alors il y a existence et unicité des solutions du système AX = B. 130 Calcul matriciel La preuve est facile. Définition 47. Un tel système est dit de Cramer. Théorème 14.8. Soit AX = B un système linéaire d’équations linéaires . Soit X0 une solution particulière de ce système. Alors toutes les autres solutions s’écriront X0 +Y avec Y solution de AX = 0 (le système hoogène associé). Démonstration. on suppose que l’on a une solution X0 telle que AX0 = B. Soit X une autre solution. Alors AX = AX0 ce qui équivaut à A(X−X0 ) = 0. Donc Y = X − X0 est une solution du système homogène associé . Corollaire 14.9. Soit AX = B un système et X0 une solution. Alors l’ensemble des solutions de ce système est de la forme X0 + F où F est un sous espace vectoriel de Rn de dimension n − rg(A). 3.2 Résolution théorique Soit ( a11 x1 + ... + a1n xn = b1 .. .am1 x1 + ... + amn xn = bm un système à résoudre où les (aij ) et bk sont les données et xj les inconnues. a)m = n : système de Cramer On suppose A inversible donc de déterminant non nul. Jusqu’ici pour résoudre untel système on pouvait soit utiliser le pivot de Gauss soit inverser la matrice A (ce qui revient à beaucoup de calculs si la matrice est grande). Dans cette section on présente une troisième manière de résoudre un tel système : il existe des formules directes pour calculer les xi ce sont les formules de Cramer. On a : 2 ,...,An )) – x1 = det((B,A det(A) .. . Chapitre 14. Résolution d’équations différentielles 131 1 ,A2 ,...,B)) – xn = det((Adet(A) sont les solutions du système. b) Cas général On résoud en trois étapes : i. On calcule le rang r de A. On sait alors que l’on peut extraire de A une matrice carrée inversible de taille r. On extrait cette matrice (en permutant les équations et/ou les inconnues du système) ii. On vérifie que le système est compatible (i.e. il faut que les solutions du système de Cramer soit aussi solution des autres équations). Pour avoir des solutions il faut et il suffit que B soit dans l’espace engendré par (A1 , ..., Ar ) (colonnes de la matrice modifiée). iii. On résout le système principal de Cramer. On fera des exemples dans les exercices. Chapitre 15 Feuille Td 5 A : Diagonalisation Exercice 1 Calculer les polynomes caractéristique et minimal des endomorphismes représentées par les matrices qui suivent. Calculer les vecteurs propres et sous espaces propres quand cela est possible. Donner la matrice de passage P telle que D = P −1 AP où D est diagonale (quand cela est possible. −4 0 ii. 0 1 5 1 iii. 1 0 i. −2 −2 0 3 2 1 −5 −2 0 2 1 3 2 0 K=RouC Exercice 2 Soit A= i. Diagonaliser A. ii. Calculer Ak 133 1 −1 2 4 134 Calcul matriciel Exercice 3 Soit le système dx =x dt dy = 2x dt −y + 4y i. Ecrire le système sous forme matricielle. ii. Diagonaliser la matrice trouvée en 1). iii. Résoudre le système. B :Résolutions de système linéaire par les déterminants Exercice 4 Soit le système 2x − 5y + 2z = 7 x + 2y − 4z = 3 3x − 4y − 6z = 5 i. Montrer que c’est un système de Cramer. ii. Le résoudre grace aux formules de Cramer Exercice 5 Eventuellement résoudre le système suivant : x−y−z =1 2x + 2y − 3z = 0 x + 2y − z = 0 4x + 3y − 5z = 1