Volume n° Application linéaire Géraud Sarrebourse de la Guillonnière 21 mai 2013 Table des matières 1 Application linéaire 1.1 Définition . . . . . . . . . . . . . . . . 1.2 Image et noyau . . . . . . . . . . . . . 1.3 Rang et nullité . . . . . . . . . . . . . 1.4 Théorème du rang . . . . . . . . . . . 1.5 Continuité . . . . . . . . . . . . . . . . 1.6 Structure algébrique . . . . . . . . . . 1.6.1 Application linéaire nulle . . . 1.6.2 Application linéaire identité . . 1.6.3 Espace vectoriel (L(E, F ), +, •) 1.6.4 Anneau (L(E, F ), +, o) . . . . . 1.6.5 Norme sur L(E, F ) . . . . . . . 1.6.6 Espace de Banach L(E, F ) . . 1.7 Forme linéaire . . . . . . . . . . . . . . 1.7.1 Définition . . . . . . . . . . . . 1.7.2 Base duale . . . . . . . . . . . 1.7.3 Sous-espace orthogonal de A . 1.7.4 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 3 4 4 5 5 5 5 5 6 6 6 6 7 8 8 2 Application linéaire remarquable 2.1 Endomorphisme nilpotent . . . . . . . 2.2 Homothétie de rapport α . . . . . . . 2.3 Projecteur . . . . . . . . . . . . . . . . 2.3.1 Définition . . . . . . . . . . . . 2.3.2 Projection . . . . . . . . . . . . 2.3.3 Caractérisation d’un projecteur 2.4 Involution . . . . . . . . . . . . . . . . 2.4.1 Définition . . . . . . . . . . . . 2.4.2 Symétrie . . . . . . . . . . . . . 2.4.3 Caractérisation des involutions 2.5 Dilatation . . . . . . . . . . . . . . . . 2.6 Transposée . . . . . . . . . . . . . . . 2.7 Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 9 10 10 13 15 15 16 17 19 19 20 3 Matrice d’un vecteur dans une base 4 Matrice d’AL de E sur F dans 2 bases 4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 4.2 Matrices remarquables . . . . . . . . . . . . . . . . 4.2.1 Matrice nulle . . . . . . . . . . . . . . . . . 4.2.2 Matrice unité . . . . . . . . . . . . . . . . . 4.2.3 Matrice colonne et ligne . . . . . . . . . . . 4.2.4 Matrice canonique . . . . . . . . . . . . . . 4.2.5 Matrice triangulaire supérieure et inférieure 4.2.6 Matrice diagonale . . . . . . . . . . . . . . 4.2.7 Matrice d’un projecteur . . . . . . . . . . . 4.2.8 Matrice d’une symétrie . . . . . . . . . . . 4.2.9 Matrice transposée . . . . . . . . . . . . . . 4.3 Opération sur les matrices . . . . . . . . . . . . . . 4.3.1 Addition . . . . . . . . . . . . . . . . . . . . 4.3.2 Produit par un scalaire . . . . . . . . . . . 22 . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 26 26 27 28 28 29 29 29 30 30 30 30 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 33 34 34 34 35 35 35 35 35 35 36 36 36 37 37 37 37 37 5 Existence de matrice inversible : déterminant 5.1 Déterminant d’une matrice . . . . . . . . . . . . . . . . . 5.1.1 Permutation . . . . . . . . . . . . . . . . . . . . . 5.1.2 Inversion . . . . . . . . . . . . . . . . . . . . . . . 5.1.3 Signature . . . . . . . . . . . . . . . . . . . . . . . 5.1.4 Produit élémentaire de scalaire signé d’une matrice 5.1.5 Déterminant . . . . . . . . . . . . . . . . . . . . . 5.2 Calcul du déterminant en pratique . . . . . . . . . . . . . 5.2.1 Règle de Sarrus pour les matrices 2 × 2 et 3 × 3 . . 5.2.2 Sous-matrice . . . . . . . . . . . . . . . . . . . . . 5.2.3 Mineur et cofacteur . . . . . . . . . . . . . . . . . 5.3 Autre application du déterminant . . . . . . . . . . . . . . 5.3.1 Aire . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 39 39 39 40 41 42 42 42 42 44 44 44 du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 46 46 46 cofacteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 47 47 47 4.4 4.5 4.6 4.7 4.8 4.3.3 Produit de matrices . . . . . . . . . . . . . 4.3.4 Produit par bloc . . . . . . . . . . . . . . . 4.3.5 Produit de Kronecker . . . . . . . . . . . . Calcul en terme de composante de y = f (x) . . . . Structure algébrique . . . . . . . . . . . . . . . . . 4.5.1 Espace vectoriel (Mmn (K), +, •) . . . . . . 4.5.2 Anneau (Mn (K), +, ×) . . . . . . . . . . . 4.5.3 Algèbre (Mn (K), +, •, ×) . . . . . . . . . . Matrice inversible dans (Mn (K), +, ×) . . . . . . . 4.6.1 Définition . . . . . . . . . . . . . . . . . . . 4.6.2 Structure algébrique : groupe (GLn (K), ×) 4.6.3 Unicité . . . . . . . . . . . . . . . . . . . . 4.6.4 Inversion d’un produit . . . . . . . . . . . . 4.6.5 Inversion par bloc . . . . . . . . . . . . . . Puissance d’une matrice . . . . . . . . . . . . . . . Formule . . . . . . . . . . . . . . . . . . . . . . . . 4.8.1 (A + B)n (binôme) . . . . . . . . . . . . . . 4.8.2 An − B n . . . . . . . . . . . . . . . . . . . . 4.8.3 An + B n , (n impaire) . . . . . . . . . . . . 6 Existence de matrice inversible : th 6.1 Rang d’une matrice . . . . . . . . . 6.2 noyau et nullité d’une matrice . . . 6.3 Théorème du rang . . . . . . . . . 7 Calcul de matrice inversible : 7.1 Co-matrice . . . . . . . . . 7.2 Matrice adjointe . . . . . . 7.3 Méthode des cofacteurs . . 8 Elimination de Gauss-Jordan :pivot de Gauss 8.1 Matrices et opérations élémentaires . . . . . . . 8.1.1 Définition . . . . . . . . . . . . . . . . . 8.1.2 Matrice équivalente par ligne . . . . . . 8.2 Matrice augmentée . . . . . . . . . . . . . . . . 8.3 Matrice échelonnée et échelonnée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 49 49 50 51 51 9 Application de l’élimination de Gauss-Jordan 9.1 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Bases de Ker f et Im f . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Résolution d’un système d’équation linéaire : pivot de Gauss . . . . 9.5.1 Équation linéaire complète et homogène . . . . . . . . . . . . 9.5.2 Espace vectoriel des solutions de l’équation linéaire homogène 9.5.3 Espace affine des solutions de l’équation linéaire complète . . 9.5.4 Système d’équation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 53 53 54 54 54 55 56 56 56 Mail: [email protected] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tous droits réservés . . . . . . . . . . Page no 2 sur 96 9.6 9.5.5 Espace vectoriel des solutions d’un système d’équation linéaire homogène 9.5.6 Espace affine des solutions d’un système d’équation linéaire complet . . . 9.5.7 Système d’équation linéaire et matrice . . . . . . . . . . . . . . . . . . . . 9.5.8 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Résolution d’un système d’équation linéaire : règle de Cramer . . . . . . . . . . . 10 Décomposition LU 10.1 Définition . . . . . . . . . . . . 10.2 Application . . . . . . . . . . . 10.2.1 Déterminant . . . . . . 10.2.2 Inversion matrice . . . . 10.2.3 Résolution d’un système 11 Changement de base 11.1 Matrice de passage . . 11.2 Application . . . . . . 11.2.1 Changement de 11.2.2 Changement de 11.3 Matrice équivalente . . 11.4 Matrice semblable . . 11.5 Invariant de similitude 11.5.1 Déterminant . 11.5.2 Trace . . . . . 11.5.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 58 58 59 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 60 60 60 60 60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . coordonnées pour un vecteur . . . . . matrice pour une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 61 62 62 63 64 64 65 65 65 66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 67 68 68 70 70 71 71 71 72 74 74 74 75 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d’équation linéaire 12 Diagonalisation 12.1 Vecteur propre, valeur propre et spectre 12.2 Polynôme d’un endomorphisme . . . . . 12.2.1 Caractéristique . . . . . . . . . . 12.2.2 Invariant de similitude . . . . . . 12.2.3 Annulateur . . . . . . . . . . . . 12.2.4 Minimal . . . . . . . . . . . . . . 12.3 Sous-espace stable . . . . . . . . . . . . 12.4 Espace propre . . . . . . . . . . . . . . . 12.5 Existence et unicité . . . . . . . . . . . . 12.6 Base de diagonalisation . . . . . . . . . 12.7 Application . . . . . . . . . . . . . . . . 12.7.1 Diagonalisation . . . . . . . . . . 12.7.2 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Décomposition de Dunford 14 Trigonalisation 14.1 Définition . . . . . . . . . . 14.2 Existence . . . . . . . . . . 14.3 Sous-espace caractéristique 14.4 Vecteur propre généralisé . 76 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Décomposition de Cholesky 16 Réduction de Jordan 16.1 Bloc de Jordan . . . . . . . 16.2 Matrice de Jordan . . . . . 16.3 Existence et unicité . . . . . 16.4 Espace caractéristique . . . 16.5 Base de Jordan . . . . . . . 16.6 Application . . . . . . . . . 16.6.1 Proposition . . . . . 16.6.2 Réduction de Jordan 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 79 79 80 80 80 80 80 81 82 17 Bilan : existence de matrice inversible Mail: [email protected] 77 77 77 77 77 Tous droits réservés Page no 3 sur 96 18 Bilan : matrices remarquables 18.1 Matrice nulle . . . . . . . . . . . . . . . . . 18.2 Matrice unité . . . . . . . . . . . . . . . . . 18.3 Matrice colonne et ligne . . . . . . . . . . . 18.4 Matrice canonique . . . . . . . . . . . . . . 18.5 Matrice triangulaire supérieure et inférieure 18.5.1 Définition . . . . . . . . . . . . . . . 18.5.2 Déterminant . . . . . . . . . . . . . 18.5.3 Matrice inverse . . . . . . . . . . . . 18.6 Matrice diagonale . . . . . . . . . . . . . . . 18.6.1 Définition . . . . . . . . . . . . . . . 18.6.2 Déterminant . . . . . . . . . . . . . 18.6.3 Matrice inverse . . . . . . . . . . . . 18.6.4 Matrice puissance . . . . . . . . . . 18.7 Matrice scalaire . . . . . . . . . . . . . . . . 18.8 Matrice transposée . . . . . . . . . . . . . . 18.9 Matrice conjuguée . . . . . . . . . . . . . . 18.10Matrice nilpotente . . . . . . . . . . . . . . 18.11Matrice positive et strictement positive . . . 18.12Matrice définie positive . . . . . . . . . . . 18.13Matrice de rotation . . . . . . . . . . . . . . 18.13.1 Déterminant . . . . . . . . . . . . . 18.14Matrice d’un projecteur . . . . . . . . . . . 18.15Matrice d’une symétrie . . . . . . . . . . . . 18.16Matrice symétrique et antisymétrique . . . 18.17Matrice de permutation . . . . . . . . . . . 18.18Matrice de dilatation . . . . . . . . . . . . . 18.19Matrice de transvection . . . . . . . . . . . 18.20Matrice orthogonale . . . . . . . . . . . . . 18.21Matrice de Houscholder . . . . . . . . . . . 18.22Matrice de Hadamard . . . . . . . . . . . . 18.23Matrice de Hankel . . . . . . . . . . . . . . 18.24Matrice de Toeplitz . . . . . . . . . . . . . . 18.25Matrice circulante . . . . . . . . . . . . . . 18.26Matrice anticirculante . . . . . . . . . . . . 18.27Matrice de Vandermonde . . . . . . . . . . 18.27.1 Définition . . . . . . . . . . . . . . . 18.27.2 Déterminant . . . . . . . . . . . . . 18.27.3 Déterminant . . . . . . . . . . . . . Mail: [email protected] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tous droits réservés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 83 83 83 84 84 84 84 85 85 85 85 86 86 86 86 87 87 88 88 88 90 90 90 90 91 92 92 92 92 92 93 93 94 94 95 95 95 96 Page no 4 sur 96 Résumé Lorsque l’on a voulu comparer la cardinalité de deux ensembles X et Y nous avons chercher à définir une certaine application f : X −→ Y qui puisse y répondre : f devait être une bijection (injection et surjection). Dans le cadre de ce volume on cherchera une application f : X −→ Y qui permette de comparer deux e.v E et E 0 c’est-à-dire qui conserve les structures d’e.v ou dit autrement qui en transporte ses structures. Ainsi il ne suffit pas de comparer deux e.v au moyen d’applications quelconques. Si E et E 0 sont des e.v, alors les application f : E −→ E 0 que nous devrons étudier doivent tenir compte de la structure algébrique de ces espaces i.e de l’addition et la multiplication par un scalaire. Ces applications sont appelées applications linéaires ou homomorphisme d’e.v et nous verrons que nous pourrons les représenter par des tableaux de scalaires. A deux bases de E et E 0 ce tableau sera alors unique. Ceux-ci seront appelés également matrices relativement aux bases de E et E 0 . Les matrices permettrons (avec des théorèmes d’existence et des procédés de calcul) de donner l’ensemble des solutions d’un système d’équation (relativement à une base d’e.v) que l’on rencontre souvent en physique. Cependant la résolution de certain système d’équation (en général dans la base canonique de Cn ou Rn ) via les matrices peuvent s’avérer long et donc gourmand en opération calculatoire. Dans ce cas on cherchera des bases de E et E 0 pour lesquelles la matrice soit beaucoup plus simple : nous parlerons alors de réduction d’endomorphisme. Dans ce volume nous travaillerons principalement sur des e.v et des corps. Les lois de composition, comme l’addition + et la multiplication . sont souvent notées sans distinction, c’est-à-dire qu’on doit pouvoir retrouver seul, s’il s’agit de loi de composition de E ou K. Afin de ne pas se tromper, et de bien fixer correctement les notations, nous avons choisis d’utiliser des couleurs pour désigner les différentes lois de composition de E ou K (au lieu de noter +E , .E ... qui est une écriture plus lourde) : (E, + , |{z} • ),(F, + , |{z} • ) et (K, + , |{z} • ) |{z} |{z} |{z} lci lce lci lce lci lci De plus nous préciserons par un indice les éléments neutres pour les lois additives et multiplicatives : 0E , 1E , 0K , 1K Notons que les homomorphismes d’e.v ou application linéaire sont les mêmes définitions. La première étant orientée sur les propriétés des e.v via cette fonction et la deuxième plus dirigée vers les propriétés de cette fonction. Certaines propriétés sur les homomorphismes du volume des e.v seront "mise à jour", ici en temps qu’application linéaire. Dans ce cas on rappellera la proposition correspondante du volume e.v par un encadré e.v proposition 23 p56 . Pour terminer nous rappelons la remarque qui a été faite dans le volume sur les e.v à savoir qu’on ne confondra pas un vecteur (un point) avec le vecteur composante associé. Par exemple si on prend le point (3, 2) ∈ R2 et B = {e1 (1, 0); e2 (0, 1)} alors le vecteur composante de R2 est (3, 2). Le vecteur composante du point (3, 2) dans la base B = {e1 (2, 0); e2 (0, 1)} sera (3/2, 1) Chapitre 1 Application linéaire 1.1 Définition Définition 1. K désignera un corps. Soient E et F deux K-espaces vectoriels. On appelle application linéaire de E dans F ou morphisme (homomorphisme) d’e.v ou opérateur linéaire ou transformation linéaire toute application f vérifiant : 1. ∀(x, y) ∈ E 2 , f (x+y) = f (x)+f (y) (additivité) 2. ∀(α, x) ∈ K × E, f (α•x) = α•f (x) (homogénéité) On dira également que f est K-linéaire. Vocabulaire : L’ensemble des applications linéaires de E dans F est noté LK (E, F ). Dans le cas où l’on a une application linéaire avec E = F , l’on parlera d’endomorphisme et l’ensemble des endomorphismes sera LK (E, E) = LK (E) ou simplement s’il ni a pas d’ambigüité L(E). Si f : E −→ F est une application linéaire bijective on dira que f est un isomorphisme de E vers F . Si f : E −→ F est une application linéaire injective on parlera de monomorphisme. Avec f une application linéaire surjective on parlera d’épimorphisme. Enfin on dit que f est un automorphisme ssi E = F et f est linéaire bijective. On notera l’ensemble des automorphismes GLK (E) ou GL(E). L’ensemble des applications linéaires continues sera noté LK (E, F ), des automorphismes GLK (E) Comme indiquer dans le liminaire de ce volume, un homomorphisme d’e.v est une application linéaire. Par acquis de conscience nous allons remettre ici un certain nombre de propriété des homomorphismes mais adapté avec le vocabulaire d’application linéaire. Un encadré indiquera le lien vers le volume sur les e.v Proposition 2. Si f ∈ L(E, F ) alors f (0E ) = 0F et ∀αi ∈ K, ∀xi ∈ E, f (α1 x1 + ... + αn xn ) = α1 f (x1 ) + ... + αn f (xn ) Preuve : application linéaire (5).pdf 1/10 Comme f ∈ L(E, F ) on a f (x + y) = f (x) + f (y) donc en particulier pour x = y = 0E , f (0E + 0E ) = f (0E ) + f (0E ) soit f (0E ) = f (0E ) + f (0E ) ⇔ 2f (0E ) − f (0E ) = 0F ⇔ f (0E ) = 0F a faire... Voici une définition équivalente : Définition 3. f est linéaire de E dans F ssi ∀(x, y) ∈ E 2 , ∀α ∈ K : f (α•x+y) = α•f (x)+f (y) Preuve : Si f est une application linéaire de E dans F alors f (α.x + y) = f (αx) + f (y) = α.f (x) + f (y). Réciproquement si on a f (α.x + y) = α.f (x) + f (y) alors en particulier pour y = 0E on aura f (α.x + 0) = α.f (x) + f (0). Or f (0) = 0 donc 1 CHAPITRE 1. APPLICATION LINÉAIRE pour y = 0E on a f (α.x + 0) = α.f (x) soit f (α.x) = α.f (x) De plus si α = 1K on aura f (α.x + y) = α.f (x) + f (y) c’est-à-dire f (x + y) = f (x) + f (y). Au final si f est une application linéaire de E sur F alors f (α.x + y) = α.f (x) + f (y) et si f (α.x + y) = α.f (x) + f (y) alors f (α.x) = α.f (x) et f (x + y) = f (x) + f (y). Les deux définitions sont donc équivalentes. Voici enfin une dernière définition équivalente : Définition 4. f est linéaire de E dans F ssi ∀(x, y) ∈ E 2 , ∀α, β ∈ K2 : f (α•x+β•y) = α•f (x)+β•f (y) Preuve : Si on a f (α.x + β.y) = α.f (x) + β.f (y) alors en particulier pour α = β = 1K on aura f (x + y) = f (x) + f (y). De même si y = 0E alors f (α.x + β.0) = f (α.x) = α.f (x) + β.f (0) = α.f (x) + 0 = α.f (x). Ainsi f est linéaire. Réciproquement si ∀(X, Y ) ∈ E 2 , f (X + Y ) = f (X) + f (Y ) alors pour X = α.x ∈ E et Y = β.y ∈ E on aura f (α.x + β.y) = f (α.x) + f (β.y) = α.f (x) + β.f (y) Remarque : On voit que f conserve le caractère de combinaison linéaire. Dit autrement l’image d’une combinaison linéaire est encore une combinaison linéaire. C’est pourquoi f vérifiant cette propriété est dite linéaire. Exemple 1.1.1 Soit f : R3 −→ R2 (x, y, z) 7−→ (2x − 3y, z) Soit u = (x, y, z) et v = (x0 , y 0 , z 0 ) et λ ∈ R, on aura alors f (λ.u + v) = f (λ(x, y, z) + (x0 , y 0 , z 0 )) = f ((λ.x + x0 , λ.y + y 0 , λ.z + z 0 )) = (2(λ.x + x0 ) − 3(λ.y + y 0 ), λ.z + z 0 ) = (2λ.x − 3λ.y + 2x0 − 3y 0 , λ.z + z 0 ) = (2λ.x + 3λ.y, λ.z) + (2x0 − 3y 0 , z 0 ) = λ(2x − 3y, z) + (2x0 − 3y 0 , z 0 ) = λ.f (u) + f (v) donc f est une application linéaire (f est R-linéaire). Exemple 1.1.2 Soient E un K − ev et x0 6= 0E ∈ E, on définit l’application fx0 : E −→ E x 7−→ x + x0 On a fx0 (x+y) = x+y+x0 . De plus fx0 (x)+fx0 (y) = (x+x0 )+(y+x0 ) donc comme x0 6= 0 on en déduit que fx0 (x+y) 6= fx0 (x)+fx0 (y). L’application fx0 n’est pas linéaire. si E = R2 et par exemple pour x0 (1, 1) (vu comme un vecteur) et x(2, 0) (vu comme un point) on aura fx0 (x) = x+x0 = (3, 1) (vu comme un point). , Exemple 1.1.3 Soient R2 l’espace vectoriel sur R et R l’espace vectoriel sur R. Ici + = + et • = •. On pose f : R2 −→ R (x, y) 7−→ xy ∀α ∈ R, ∀(x, y) ∈ R2 on a f (α•(x, y)) = f (α•x, α•y) = α2 •x•y et α•f (x, y) = α•x•y donc la proposition "∀α ∈ R, ∀(x, y) ∈ R2 , f (α(x, y)) = αf (x, y)" est fausse. L’application f n’est pas linéaire. Exemple 1.1.4 Prenons E = F = R et K = R. Soit a ∈ R∗ = K∗ . On définit l’application f (x) = a.x. On a pour x, y ∈ R, f (x + y) = a(x + y) = ax + ay = f (x) + f (y) et pour α ∈ R = K, f (αx) = a.αx = αax = αf (x). De sorte que f est une application linéaire. Comme E = F et que f est une bijection (y = ax ⇔ x = y/a si a 6= 0), f est donc un automorphisme de E. Mail: [email protected] Tous droits réservés Page no 2 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Exemple 1.1.5 Si l’on note E = D(R, R) l’ensemble des applications dérivables de R dans R alors celui-ci muni de l’addition (lci) et de la multiplication par un scalaire de K = R (lce) défini un K-espace vectoriel. On se donne l’application d qui à f de E on associe d(f ) = f 0 de F. Soit f1 , f2 ∈ E alors d(f1 + f2 ) = (f1 + f2 )0 = (f1 )0 + (f2 )0 = d(f ) + d(f 0 ). De plus si α ∈ R = K alors d(αf ) = (αf )0 = αf 0 = αd(f ). Ainsi d est une application linéaire ou un opérateur linéaire. Exemple 1.1.6 Soit C l’espace vectoriel sur le corps K = C et f : C −→ C z 7−→ z̄ On a alors pour z, z 0 ∈ C, f (z + z 0 ) = z + z 0 = z + z 0 = f (z) + f (z 0 ) et pour α ∈ C, f (αz) = αz = α.z = αf (z) 6= αf (z) si α ∈ C\{R} Donc f ainsi définie n’est pas linéaire. f n’est pas C-linéaire. Si on définit cette fois-ci C l’espace vectoriel sur le corps K = R on aura f αz) = αf (z) et donc f sera R-linéaire. On retiendra qu’une application linéaire C-linéaire est aussi R-linéaire par contre une application R-linéaire n’est pas forcement C-linéaire. 1.2 Image et noyau Définition 5. Si f est une application linéaire de E dans F , on définit le noyau de f , noté Ker(f ) (Kern signifie ’noyau’ en allemand), et l’image de f , notée Im(f ), par : Ker(f ) = {x ∈ E, f (x) = 0F } = f −1 (0F ) Im(f ) = {f (x) ∈ F, x ∈ E} = f (E) Proposition 6. Si f ∈ L(E, F ) alors Im(f ) et Ker(f ) sont des sous-espaces vectoriel respectivement de F et E. Preuve :algèbre licence.pdf 16/144 Proposition 7. Si f ∈ L(E, F ) et A un sous-espace vectoriel de E et B un sous-espace vectoriel de F alors f (A) et f −1 (B) sont des sous-espaces vectoriel respectivement de F et de E. Preuve : Proposition 8. Soit f ∈ L(E, F ). 1. f est surjective ssi Im(f ) = E 2. f est surjective ssi Ker(f ) = {0E } Preuve :algèbre licence.pdf 16/144 Proposition 9. Soit f ∈ L(E, F ) et f bijective alors f −1 ∈ L(F, E) Preuve : Soient f (x) = X, f (y) = Y et α, β ∈ K. On a f −1 (α.X + β.Y ) = f −1 (α.f (x) + β.f (y)) = f −1 (f (α.x + β.y)) = α.x + β.y = α.f −1 (X) + β.f −1 (Y ) d’où la conclusion. 1.3 Rang et nullité Mail: [email protected] Tous droits réservés Page no 3 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Définition 10. On appelle rang d’une application linéaire f : E −→ F la dimension de f (E). Dit autrement rg(f ) = rang(f ) = dim Im f (E) Définition 11. On appelle nullité d’une application linéaire f : E −→ F la dimension du noyau de f . Dit autrement null(f ) = dim Ker(f ) 1.4 Théorème du rang Proposition 12. Soient E et F deux e.v de dimension finie ou infinie sur un corps K et f ∈ L(E, F ) alors rg(f )+null(f ) = dim(E) dit autrement dim Im(f ) + dim Ker(f ) = dim E Preuve : Remarque : Le théorème du rang permet de faire un lien entre le rang d’une application linéaire (dim Im(f )) et la dimension de son noyau (dim Ker(f )). Proposition 13. Lorsque les e.v E et F sont de dimension finie n, le théorème du rang permet d’établir les propositions suivantes équivalentes : 1. L’application f est un isomorphisme de E sur F 2. l’application f est surjective 3. l’application f est injective 4. rg(f ) = n Preuve : 1.5 Continuité Proposition 14. Soit f ∈ L(E, F ) alors on a les équivalences suivantes : 1. f est continue sur E 2. f est continue en 0 3. ∃M > 0 : ∀x ∈ E, ||f (x)||F ≤ M ||x||E 4. f est lipschitzienne. Preuve : Proposition 15. Si f ∈ L(E, F ) avec Dim(E) < +∞ et Dim(F ) < +∞ alors f est continue. Mail: [email protected] Tous droits réservés Page no 4 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Preuve : 1.6 Structure algébrique 1.6.1 Application linéaire nulle f : E −→ F . ∀x, y ∈ E on a f (x+y) = 0F = 0F +0F = f (x)+f (y). De plus x 7−→ 0F ∀x ∈ E, ∀α ∈ K, f (α•x) = 0F = α•0F = α•f (x). f est une application linéaire appelée application linéaire nulle ou zéro et sera souvent notée O. Nous voyons donc que L(E, F ) 6= ∅ Soient E, F des K-ev. On définit l’application 1.6.2 Application linéaire identité f : E −→ E . ∀x, y ∈ E on aura f (x+y) = x+y = f (x)+f (y) et ∀α ∈ K, ∀x ∈ x 7−→ x E, f (α•x) = α•x = α•f (x). f ainsi définie est une application linéaire sur E. f s’appelle l’application identité est sera notée Id Soit E un K-ev. On définit l’application Espace vectoriel (L(E, F ), +, •) 1.6.3 Proposition 16. =>e.v Home(E,F) est un sous ev de A(E,F) Soient E, F des K-ev alors (L(E, F ), +, •) est un K-ev. Dit autrement (L(E, F ), +, •) est un sous-espace vectoriel de (A(E, F ), +, •) Preuve : Notons que cet ensemble est non vide puisque O ∈ L(E, F ). Nous avons démontré dans le volume sur les e.v que (A(E, F ), +, •) était un K-ev. Nous allons utiliser une caractérisation pour définir un sous-espace vectoriel. On rappelle que dans l’e.v (A(E, F ), +, •) on a : ∀f, g ∈ A(E, F ), (f +g)(x) := f (x)+g(x) ∀α ∈ K, ∀f ∈ A(E, F ), (α•f )(x) := α•f (x) De là on va démontrer que ∀f, g ∈ L(E, F ), f +g ∈ L(E, F ) et ∀α ∈ K, ∀f ∈ L(E, F ) alors α•f ∈ L(E, F ) ∀(x, y) ∈ E 2 , (f +g)(x+y) = f (x+y)+g(x+y) = f (x)+g(x)+f (y)+g(y) = (f +g)(x)+(f +g)(y). ∀α ∈ K, (f +g)(α•x) = f (α•x)+g(α•x) = α•f (x)+α•g(x) = α•(f (x)+g(x)) = α•(f +g)(x) d’où ∀f, g ∈ L(E, F ), f +g ∈ L(E, F ) ∀(x, y) ∈ E 2 , (αf )(x + y) = αf (x + y) = α(f (x) + f (y)) = αf (x) + αf (y) = (αf )(x) + (αf )(x). ∀β ∈ K, (αf )(βx) = αf (βx) = α.βf (x) = β.αf (x) = β(αf )(x). Ainsi ∀α ∈ K, ∀f ∈ L(E, F ) alors α.f ∈ L(E, F ) d’où la conclusion. Proposition 17. Soit f ∈ L(E, F ) alors Dim(L(E, F )) = Dim(E).Dim(F ) Preuve : 1.6.4 Anneau (L(E, F ), +, o) Proposition 18. => Soient E, F, G des K-ev alors si f ∈ L(E, F ) et g ∈ L(F, G) alors gof ∈ L(E, G) Mail: [email protected] Tous droits réservés Page no 5 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Preuve : Si f ∈ L(E, F ) et g ∈ L(F, G) alors ∀(x, y) ∈ E 2 , (gof )(x + y) = g(f (x + y)) = g(f (x) + f (y)) = g(f (x)) + g(f (y)) = (gof )(x) + (gof )(y). De plus ∀α ∈ K, (gof )(αx) = g(f (αx)) = g(αf (x)) = αg(f (x)) = α(gof )(x) donc gof ∈ L(E, G) Proposition 19. (L(E, F ), +, o) est un anneau commutatif non intègre dès que Dim(E) ≥ 2 Preuve : Norme sur L(E, F ) 1.6.5 Proposition 20. f : L(E, F ) −→ R g 7−→ ||g||L(E,F ) = Sup||x||=1 ||f (x)||F continues de E dans F . L’application définie une norme sur L(E, F ) des applications linéaires Preuve : Espace de Banach L(E, F ) 1.6.6 Proposition 21. Si F est un espace de Banach alors L(E, F ) des applications linéaires continues de E dans F est un espace de Banach. Preuve : 1.7 Forme linéaire 1.7.1 Définition Soient K = R ou C. Attention : ici K est considéré comme un K-ev sur lui-même et non pas simplement comme un corps. Ici on a + = + et • = • Définition 22. Une application f de E dans K (e.v) est dite une forme linéaire sur E ou covecteur de E si elle vérifie : 1. ∀x, y ∈ E f (x+y) = f (x)+f (y) (additivité) 2. ∀α ∈ K, ∀x ∈ E f (α•x) = α•f (x) (homogénéité) Dit autrement c’est une application linéaire particulière de E dans K (e.v) L’ensemble des formes linéaires sur E est notée L(E, K) ou E ∗ et est appelée le dual de E. Un élément de E ∗ sera noté f ∗ . f : E −→ K . On a alors ∀x, y ∈ E f (x+y) = 0K = 0K +0K = f (x)+f (y) et ∀α ∈ K, ∀x ∈ x 7−→ 0K E f (αx) = 0K = α•0K = α•f (x). Ainsi f ∈ E ∗ Exemple 1.7.1 Soit l’application Exemple 1.7.2 Considérons le R-ev (C([−1, 1], R), +, •) des fonctions continues de [−1, 1] à valeur dans R. On définit alors f : C([−1, 1], R) −→ K = R R1 l’application . g 7−→ −1 g(x)dx R1 R1 R1 R1 On a ∀g, h ∈ C([−1, 1], R), f (g+h) = −1 (g+h)(x)dx = −1 g(x)+h(x)dx = −1 g(x)dx+ −1 h(x)dx = f (g)+f (h). De plus R1 R1 R1 ∀α ∈ K, f (α•g) = −1 (α•g)(x)dx = −1 α•g(x)dx = α• −1 g(x)dx = α•f (g) donc f ∈ L(C([−1, 1], R)) Mail: [email protected] Tous droits réservés Page no 6 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Remarque : Si x ∈ E et f ∈ L(E, K) on utilise parfois la notation < f, x > dite crochet de dualité pour désigner f (x). Ainsi < f, x + y >=< f, x > + < f, y > et < f, αx >= α < f, x > Proposition 23. Si E un K-ev de dimension finie n. Si f est une forme linéaire non nulle sur E alors le noyau de f , Ker f est un hyperplan de E. Réciproquement tout hyperplan de E est le noyau d’une forme linéaire. Preuve : On rappelle qu’un hyperplan de E est un sous-espace vectoriel de dimension n − 1 (c’est-à-dire de codimension 1). Algèbre licence.pdf 36/144 Proposition 24. Si E un K-ev de dimension finie n. Si f est une forme linéaire sur E alors Im f = K Preuve : Proposition 25. (Ici Kn et K sont vus comme des e.v). Les seules formes linéaires de Kn dans K sont de la forme f (x) = a1 x1 + ... + an xn avec ai ∈ K et x = (x1 , ..., xn ) ∈ Kn Preuve : Exemple 1.7.3 D’après la proposition précédente f (x, y, z) = 17x − 3/5y + z est une forme linéaire de R3 . Proposition 26. f : E −→ Kn alors f est une application linéaire ssi ses composantes f1 , f2 , ..., fn x 7−→ f (x) = (f1 (x), f2 (x), ..., fn (x)) sont des formes linéaires. Soit Preuve : 1.7.2 Base duale Proposition 27. e∗i : E −→ K n Soit Dim(E) = n et B = {e1 , ..., en } une base de E. Alors ∀1 ≤ i ≤ n les applications x = Xx e 7−→ x est j j i j=1 une application linéaire (c’est-à-dire de L(E, K)). Preuve : Proposition 28. Dim E = Dim E ∗ Mail: [email protected] Tous droits réservés Page no 7 sur 96 CHAPITRE 1. APPLICATION LINÉAIRE Preuve : Proposition 29. La famille (e∗i )1≤i≤n est une base de E ∗ appelée base duale de la base (ei )1≤i≤n Preuve : Vérifions que cette famille est libre. On a ∀λi ∈ K, λ1 e∗1 + λ2 e∗2 + ... + λn e∗n = 0L(E,K) donc ∀x ∈ E, λ1 e∗1 (x) + λ2 e∗2 (x) + ... + λn e∗n (x) = 0L(E,K) (x) en particulier pour x = ej (1 ≤ j ≤ n) et comme e∗i (ej ) = 0 pour j 6= i on aura λj e∗j (ei ) = 0L(E,K) (ei ). Comme la fonction e∗j n’est pas l’application linéaire nulle on aura donc ∀1 ≤ j ≤ n, λj = 0. Comme Dim E ∗ = n et en utilisant la propo ? ? (ev) on en déduit que (e∗i ) est une base de E ∗ Remarque : On a e∗i (ej ) = e∗i (0e1 + ... + ej + 0ej+1 + ... + 0en ) = 1 si i = j et e∗i (ej ) = 0 si i 6= j. En notant δij le symbole 0 si i 6= j j . On aura alors e∗i (ej ) = δij de Kronecher avec δi = 1 si i = j Exemple 1.7.4 Soit E = R3 et sa base canonique B = {e1 (1, 0, 0), e2 (0, 1, 0), e3 (0, 0, 1)}. On sait que e∗1 (e1 ) = 1, e∗1 (e2 ) = 0 et e∗1 (e3 ) = 0. Ainsi e∗1 (x, y, z) = e∗1 (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) = e∗1 (xe1 + ye2 + ze3 ) = xe∗1 (e1 ) + ye∗1 (e2 ) + ze∗1 (e3 ) = x. De même e∗2 (x, y, z) = y et e∗3 (x, y, z) = z. Ainsi (e∗1 , e∗2 , e∗3 ) forme une base de E ∗ c’est-à-dire que ∀f ∈ L(R3 , R), f = αe∗1 + βe∗2 + γe∗3 soit f (x, y, z) = αx + βy + γz=>est ce la demonstraion que toute application lineraire de R3 dans R s’écrit de la forme f(x,y,z)=alpha xbet x+gamma z ? Proposition 30. Soit E un K-ev de dimension finie n. Si (fj )1≤j≤n est une base de E ∗ alors il existe une unique base (ei )1≤i≤n dont (fj )1≤j≤n est la base duale. On parle de couples de bases duales. Preuve : Sous-espace orthogonal de A 1.7.3 Proposition 31. Soit A une partie non vide de E. L’ensemble A⊥ = {f ∗ ∈ E ∗ |∀a ∈ A, f ∗ (a) = 0} est un sous-espace vectoriel de E ∗ appelé sous-espace orthogonal de A. Preuve : 1.7.4 Bidual Définition 32. Le bidual E ∗∗ de E est le dual de E ∗ Mail: [email protected] Tous droits réservés Page no 8 sur 96 Chapitre 2 Application linéaire remarquable Remarque : Les notions de nilpotence, idempotence ou involution ne sont pas intrinsèques à celle d’endomorphisme. Nous donnons simplement ici des endomorphismes particuliers. 2.1 Endomorphisme nilpotent Définition 33. Un endomorphisme f ∈ L(E) avec dim(E) < +∞ est dit nilpotent d’indice n si n > 0 et f n = f o...of = 0L(E) | {z } n f ois 2.2 Homothétie de rapport α Soit E un K-ev et α ∈ K. On définit la fonction fα : E −→ E x 7−→ α•x ∀x, y ∈ E, fα (x+y) = α•(x+y) = α•x + α•y = fα (x)+fα (y). De plus ∀β ∈ K, ∀x ∈ E, fα (β•x) = α•(β•x) = (α•β)•x = fα•β (x). Ainsi fα est une application linéaire sur E dite homothétie de rapport α et qui se note hα . L’ensemble des homothéties sur E est noté H(E) Proposition 34. 1. h1 = IdE 2. ha = a.IdE 3. ha est une application bijective ssi a 6= 0 et alors (ha )−1 = h1/a 4. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅ Preuve : 1. h1 = f1K : E −→ E c’est-à-dire par définition h1 est l’identité. x 7−→ 1K x = x 2. ha (x) = a.x = a.IdE (x) d’où ha = a.IdE 3. 4. 2.3 Projecteur Nous allons chercher à généraliser la situation de projection déjà vue depuis le collège. 9 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE A minima un projecteur devra être donc un endomorphisme et vérifier p(x) = x0 et p(p(x)) = p(x0 ) = x0 c’est-à-dire pop = p d’où la définition. 2.3.1 Définition Définition 35. Un endomorphisme f ∈ L(E) est dit un projecteur ou idempotent s’il vérifie f 2 = f of = f . Dit autrement les endomorphismes idempotents sont ceux quand on réitère leurs actions ne font rien d’autre de plus que la première fois. p : E −→ E On sait que p ∈ L(E). On a alors p(p(x)) = p(0) = 0 = p(x) donc p est un x 7−→ p(x) = 0E p : E −→ E projecteur sur E. De même pour on a p ∈ L(E) et p(p(x)) = p(x) donc p est un projecteur. x 7−→ p(x) = IdE (x) = x Exemple 2.3.1 Soit Exemple 2.3.2 Soit p un projecteur. On sait que c’est un endomorphisme idempotent c’est-à-dire p2 = pop = p. Si Q(X) = X 2 − X alors Q(p) = p2 − p = p − p = 0 donc Q est un polynôme annulateur de p. Proposition 36. Soient p et q deux projecteurs de E. p + q projecteur ⇔ poq = qop = 0L(E) ⇔ poq + qop = 0L(E) Preuve : Si p et q sont deux projecteurs alors par définition p et q sont linéaires. Comme (L(E), +, .) est un espace vectoriel on aura p + q ∈ L(E). De là p + q est un projecteur ssi (p + q)2 = p + q. Or (p + q)2 = (p + q)o(p + q) = p(p + q) + q(p + q) = pop + poq + qop + qoq = p2 + poq + qop + q 2 = p + poq + qop + p. De là p + q est un projecteur ssi poq + qop = 0 Démontrons que poq + qop = 0 ⇔ poq = qop = 0. Si poq = qop = 0 alors poq + qop = 0. Réciproquement démontrons que poq = 0 poq + qop = 0 ⇒ qop = 0 On a donc poq + qop = 0 donc en composant à gauche par p on aura pop oq + poqop = p(0) c’est-à-dire poq + poqop = p(0) = 0 |{z} p2 =p car p ∈ L(E) De plus poq + qop = 0 donne en composant à droite par p, poqop + qo pop = p(0) soit poqop + qop = 0. De là |{z} p2 =p poq + poqop = 0 poqop + qop = 0 − − − − − − − − − − −− poq − qop = 0 ⇔ poq = qop poq = 0 Comme poq + qop = 0 ⇔ 2poq = 0 ⇔ poq = 0. De même 2qop = 0 ⇔ qop = 0. De là poq + qop = 0 ⇒ qop = 0 Dit autrement p + q projecteurs ⇔ poq + qop = 0L(E) ⇔ poq = qop = 0L(E) 2.3.2 Projection On rappelle que si E = E1 ⊕ E2 alors ∀x ∈ E se décompose de façon unique x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . E1 et E2 sont deux sous-espaces vectoriel de E dit supplémentaires. E est dit la somme directe de E1 et E2 . Pour plus de détail voir le volume espace vectoriel. Mail: [email protected] Tous droits réservés Page no 10 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Proposition 37. On définit l’application et l’application p : E = E1 ⊕ E2 −→ E = E1 ⊕ E2 x 7−→ p(x) = p(x1 + x2 ) = x1 q : E = E1 ⊕ E2 −→ E = E1 ⊕ E2 x 7−→ q(x) = q(x1 + x2 ) = x2 Alors p et q sont des projecteurs. Preuve : On a p(x + y) = p(x1 + y1 + x2 + y2 ) = p(x1 + x2 + y1 + y2 ) = x1 + x2 = p(x) + p(y) et p(αx) = p(α(x1 + x2 )) = p(αx1 + αx2 ) = αx1 = αp(x). Ainsi p ∈ L(E). De plus pop(x) = p(p(x1 + x2 )) = p(x1 ) = p(x1 + 0) = x1 = p(x) donc q est un endomorphisme idempotent (projecteur). Enfin q(x + y) = q(x1 + x2 + y1 + y2 ) = y1 + y2 = q(x) + q(y) et q(αx) = q(αx1 + αx2 ) = αx2 = αq(x) d’où q ∈ L(E). On aura q(q(x)) = q(q(x1 + x2 )) = q(x2 ) = q(0 + x2 ) = x2 = q(x) c’est-à-dire que q est un projecteur (endomorphisme idempotent). Définition 38. p ∈ L(E) est appelée la projection sur E1 parallèlement à E2 ou projection de base E1 de direction E2 . q ∈ L(E) sera appelée la projection sur E2 parallèlement à E1 ou projection de base E2 de direction E1 Parfois p est noté p1 et q sera noté de sorte qu’en général si E = E1 ⊕...⊕En on définit pi (x) = pi (x1 +...+xn ) = xi Exemple 2.3.3 Soit R2 munit de la base B = {e1 (1, 0), e2 (0, 1)}. E1 = {x(1, 1) = (x, x)|x ∈ R} et E2 = {x(1, −1) = (x, −x)|x ∈ R} sont des sous-espaces vectoriel de R2 et on aura R2 = E1 ⊕ E2 . Cherchons dans B, p(3, 2) et q(3, 2). On a 1 5 5 5 5 5 1 1 5 5 1 1 1 1 p(3, 2) = p( (1, 1) + (1, −1) = p(( , ) + ( , − )) = ( , ) et q(3, 2) = q(( , ) + ( , − )) = ( , − ) 2 2 2 2 2 2 2 2 2 2 2 2 2 2 | {z } | {z } | {z } | {z } ∈E1 ∈E2 ∈E1 ∈E2 Exemple 2.3.4 Soit E = R3 et F = {(x, y, z) ∈ R3 |x + y + z = 0} et G = V ect(1, 1, 1). Déterminons les projecteurs p et q respectivement sur F parallèlement à G et sur G parallèlement à F . F est un plan de R3 passant par (0, 0, 0) donc c’est un sous-espace vectoriel de R3 . G est une droite de R3 passant par (0, 0, 0) c’est donc aussi un sous-espace vectoriel de R3 . Montrons que F et G sont bien supplémentaires. On a F ∩ G = {(0, 0, 0)} = OR3 . Montrons que enfin que R3 = F + G. Soit X ∈ R3 , XF ∈ F et XG ∈ G tels que X = XF + XG . Le but est de chercher XF et XG en fonction de (x, y, z) donné. x On a X = (x, y, z) et XF = (a, b, c) avec donc a + b + c = 0 et XG = (α, α, α) = α(1, 1, 1). De là X = XF + XG = y = z a α x a+α a+α=x b + α ⇔ y = b+α ⇔ b+α=y c α z c+α c+α=z Mail: [email protected] Tous droits réservés Page no 11 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE En sommant les 3 égalités on aura a + b + c +3α = x+y+z soit α = | {z } x+y+z x+y+z x+y+z x+y+z . De là XG = ( ; ; ) 3 3 3 3 =0 x+y+z x+y+z x+y+z 2x − y − z −x + 2y − z −x − y + 2z ainsi XF = X − XF = (x − ;y − ;z − )=( ; ; ) 3 3 3 3 3 3 x+y+z x+y+z x+y+z On a pour X = (x, y, z) ∈ R3 donné X = XF + XG avec XG = ( ; ; ) et 3 3 3 2x − y − z −x + 2y − z −x − y + 2z 2x − y − z −x + 2y − z −x − y + 2z XF = ( ; ; ). Notons que pour XF on a + + =0 3 3 3 3 3 3 donc XF ∈ F . p : F ⊕ G −→ F ⊕ G En conclusion (x, y, z) 7−→ p(x, y, z) = ( 2x − y − z −x + 2y − z −x − y + 2z et ; ; )∈F 3 3 3 q : F ⊕ G −→ F ⊕ G (x, y, z) 7−→ q(x, y, z) = ( x+y+z x+y+z x+y+z ; ; )∈G 3 3 3 Si (x, y, z) = (−1; −1 − 1) on aura p((−1; −1 − 1)) = ( (−1; −1; −1) ==>placer sur le dessin à faire −2 + 1 + 1 1 − 2 + 1 1 + 1 − 2 ; ; ) = (0; 0; 0) et q((−1; −1 − 1)) = 3 3 3 1 1 −2 2 2 2 Si maintenant (x, y, z) = (1, 1, 0) on aura p(1, 1, 0) = ( , , ) et q(1, 1, 0) = ( , , )==>placer sur le dessin à faire 3 3 3 3 3 3 Exemple 2.3.5 Déterminons le projecteur (projection) p de F(R, R) sur F = {f ∈ F(R, R)|f (0) = 0} parallèlement à V ect(f (x) = 1). Démontrons tout d’abord que F est un sous-espace vectoriel de F(R, R). La fonction 0 ∈ F donc F 6= ∅. Soient α, β ∈ K et f, g ∈ G. On a alors (αf + βg)(0) = αf (0) + βg(0) = 0 donc αf + βg ∈ F . D’après la caractérisation d’un sous-espace vectoriel on en déduit que F est un sous-espace vectoriel de F(R, R). De plus V ect((f (x) = 1) = {g(x) = αf (x) = α avec α ∈ K} = G. La fonction 0 ∈ G et si f, g ∈ G alors (αf + βg)(x) = αf (x) + βg(x) = α + β ∈ G donc G est un sous-espace vectoriel de F(R, R). Montrons que F et G sont supplémentaires dans F(R, R). On a F ∈ F ∩ G donc f (0) = 0 et f (x) = αg(x) = α.1 = α donc f (0) = α ainsi α = 0 de là f ≡ 0 c’est-à-dire F ∩ G = {0F (R,R) } Montrons maintenant que F(R, R) = F +G. Soit f ∈ F(R, R) donné, on pose fF (x) = f (x)−f (0) ∈ F (fF (0) = f (0)−f (0) = 0) et fG (x) = f (0) ∈ G. On a f = fF + fG c’est-à-dire F(R, R) = F + G. On en déduit ∀f ∈ F(R, R), p(f ) = fF : x 7−→ f (x) − f (0) Si f (x) = x2 on aura p(f ) = x2 − 02 = x2 et si f (x) = (x + 1)2 on aura p(f ) = (x + 1)2 − (0 + 1)2 = (x + 1)2 − 1 Mail: [email protected] Tous droits réservés Page no 12 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Proposition 39. Soit E = E1 ⊕ E2 y ∈ E1 y − x ∈ E2 2. poq = h1 et p + q = h1 = IdE 1. ∀x, y ∈ E p(x) = y ⇔ 3. Si E1 = E alors p = h1 = IdE et si E2 = E alors p = h0 4. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅ Preuve : 1. 2. poq(x) = p(q(x1 + x2 )) = p(x2 ) = p(0 + x2 ) = 0 c’est-à-dire poq = h0 . Enfin (p + q)(x) = p(x) + q(x) = p(x1 + x2 ) + q(x1 + x2 ) = x1 + x2 = x = 1.x c’est-à-dire p + q = IdE 3. Soit E1 = E on aura E = E ⊕ {0} donc p(x) = p(x + 0) = 1.x c’est-à-dire p = h1 = IdE . De même si E2 = E on aura E = {0} ⊕ E et p(x) = 0 = 0.x d’où p = h0 Proposition 40. Soit E = F ⊕ G et p la 1ere projection alors Ker p = G et Im p = F c’est-à-dire E = Im p ⊕ Ker p===> et pour q ? Preuve : Soit x ∈ G alors x s’écrit comme décomposition en somme directe 0 + x avec 0 ∈ f et x ∈ G. Ainsi p(x) = 0 donc x ∈ Ker p c’est-à-dire G ⊂ Ker p Réciproquement soit x ∈ Ker p on aura donc p(x) = 0. Comme x = xF + xG on obtient xF = 0 c’est-à-dire x = xG ainsi x ∈ G ou encore Ker p ⊂ G. En conclusion Ker p = G. Démontrons maintenant que Im p = F . Soit x ∈ F alors p(x) = x ∈ Im p c’est-à-dire F ⊂ Im p. Réciproquement si x ∈ Im p alors ∃y ∈ E tel que p(y) = x. Comme x est la projection de y sur F on a x ∈ F donc Im p ⊂ F . De là Im p = F 2.3.3 Caractérisation d’un projecteur Les projections vectorielles définies précédemment sont des projecteurs, à priori on serait tenté de dire qu’un projecteur n’est pas forcément une projection. Nous allons voir en faite que la réciproque est vraie. Proposition 41. Tout projecteur p de E est une projection de base Im p = Ker(p − IdE ) = Inv(p) et de direction Ker p = Im(p − IdE ). Dit autrement p est un projecteur ssi p est la projection sur Im p parallèlement à Ker p Preuve : Si p est une projection alors d’après la proposition ? ? ? E = F ⊕ G avec F = Im p et G = Ker p. D’après la proposition ? ? ? on aura p un projecteur sur F . Montrons l’implication réciproque, à savoir si p est un projecteur (p2 = pop et p ∈ L(E)) alors p est une projection sur Im p parallèlement à Ker p. Commençons à démontrer que si p est un projecteur alors E = Im p ⊕ Ker p. Soit u ∈ Im p ∩ Ker p donc il existe u0 ∈ E tel que u = p(u0 ) et p(u) = 0 donc p(p(u0 )) = p(u) = 0 c’est-à-dire p2 (u0 ) = 0 = p(u0 ) = 0 ⇔ u = 0. Ainsi Im p∩Ker p = {0E }. Vérifions que E = Im p + Ker p c’est-à-dire trouvons uF ∈ Im p et uG ∈ Ker p tels que ∀u ∈ E on ait u = uF + uG . Soit u ∈ E, uF ∈ Im p et uG ∈ Ker p tels que u = uF + uG , puisque uF ∈ Im p alors il existe u0 ∈ E tel que p(u0 ) = uF et p(uG ) = 0E . Ainsi u = uF + uG avec p2 = p donnera p(u) = p(uF + uG ) = p(uF ) + p(uG ) ⇔ p(u) = p(p(u0 )) + 0E ⇔ p(u) = Mail: [email protected] Tous droits réservés Page no 13 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE p2 (u0 ) ⇔ p(u) = p(u0 ) = uF . Par conséquent p(u) = uF et uG = u − uF = u − p(u). Ainsi si p est un projecteur alors on aura u = uF + uG avec uF = p(u) et uG = u − p(u) dons au final E = Im p ⊕ Ker p et par construction on aura p(u) = uF donc | {z } | {z } F G par définition p est la projection sur Im p parallèlement à Ker p Remarque : Les mots projecteurs et projection (vectorielle) peuvent donc être employé de manière équivalente. Exemple 2.3.6 Soit f : R3 −→ R3 (x, y, z) 7−→ (x, y, −x − y) On conjecture donc que f est un projecteur sur P parallèlement à une droite D. Montrons que f est un projecteur et caractérisons-le comme une projection. Tout d’abord montrons que f ∈ L(R3 ) f (αX + X 0 ) = f (α(x, y, z) + (x0 , y 0 , z 0 )) = f (αx + x0 , αy + y 0 , αz + z 0 ) = (αx + x0 , αy + y 0 , −αx − x0 − αy − y 0 ) = α(x, y, −x − y) + (x0 , y 0 , −x0 − y 0 ) = αf (X) + f (X 0 ) donc f ∈ L(R3 ) Calculons f 2 = f of . ∀X = (x, y, z)R3 , f 2 (X) = f (f (X)) = f (x, y, −x − y)) = (x, y, −x − y) = f (X) donc f 2 = f of = f et f 3 est bien un projecteur. On aura d’après la proposition ? ? ? R = Im f ⊕ Ker f avec X = (x, y, z) ∈ Ker f ⇔ f (X) = 0R3 ⇔ x=0 y=0 ⇔ x = y = 0 donc Ker f = {(0, 0, z); z ∈ R} = {z(0, 0, 1); z ∈ R} donc Ker f = V ect((0, 0, 1)) −x − y = 0 De plus X = (x, y, z) ∈ Im f ⇔ f (X) = X ⇔ (x, y, −x − y) = (x, y, z) ⇔ z = −x − y d’où Im f = {(x, y, −x − y)} = {x(1, 0, −1) + y(0, 1, −1); x, y ∈ R} = V ect((1, 0, −1); (0, 1, −1)). Par conséquent f est la projection de R3 sur V ect(0, 0, 1) parallèlement à V ect((1, 0, −1); (0, 1, −1)) T : F(R, R) −→ F(R, R) f (x) + f (−x) f 7−→ 2 Montrons que T est un projecteur et caractérisions-le. Exemple 2.3.7 Soit Montrons tout d’abord que T ∈ L(F(R, R)). Soit f, g ∈ F(R, R) et α, β ∈ R. (α.f + β.g)(x) + (α.f + β.g)(−x) f (x) + f (−x) g(x) + g(−x) = α. + β. = α.T (f ) + β.T (g). Vérifions 2 2 2 2 maintenant que T = T On a T (α.f + β.g) = f (x) + f (−x) ∀f ∈ F(R, R), T 2 (f ) = T (T (f )) = T ( )= 2 T (f ) et ainsi T est un projecteur. Mail: [email protected] f (x) + f (−x) f (−x) + f (x) 2f (x) + 2f (−x) + f (x) + f (−x) 2 2 2 = = = 2 2 2 Tous droits réservés Page no 14 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Déterminons Im p = Inv p c’est-à-dire T (f ) = f ⇔ ∀x ∈ R, f ∈ Ker(T ) ⇔ T (f ) = 0F (R,R) ⇔ ∀x ∈ R, f (x) + f (−x) = f (x) ⇔ ∀x ∈ R, f (−x) = f (x). De plus 2 f (x) + f (−x) = 0 ⇔ f (−x) = −f (x) 2 D’après la proposition nous avons donc F(R, R) = Im(T ) ⊕ Ker(T ) où Im(T ) est le sous-espace vectoriel des fonctions paires et Ker(T ) est le sous-espace vectoriel des fonctions impaires. De plus T est la projection sur le sous-espace vectoriel de fonctions paires parallèlement au sous-espace vectoriel des fonctions impaires. Proposition 42. Soient p et q deux projecteurs de E. p et q ont même noyau ⇔ p = poq et q = qop Preuve : Démontrons le sens p = poq et q = qop ⇒ p et q ont même noyau. Soit x tel que q(x) = 0 alors p(x) = p(q(x)) = p(0) = 0 donc x ∈ Ker q ⇒ x ∈ Ker p c’est-à-dire Ker q ⊂ Ker p. De même si x est tel que p(x) = 0 alors q(x) = q(p(x)) = q(0) = 0 donc x ∈ Ker p ⇒ x ∈ Ker q c’est-à-dire Ker p ⊂ Ker q. Ainsi si p = poq et q = qop ⇒ Ker p = Ker q Réciproquement on suppose Ker p = Ker q. Soit x ∈ E alors x se décompose en x = x1 + x2 avec x1 ∈ Im q = Inv q et x2 ∈ Ker q = Ker p (par hypothèse). On a alors (poq)(x) = p(q(x1 + x2 )) = p(q(x1 )) + p(q(x2 )) = p(x1 ) = p(x1 ) + p(x2 ) = | {z } | {z } | {z } x1 =0 =0 p(x1 + x2 ) = p(x) donc poq = p. De même qop(x) = q(p(x1 + x2 )) = q(p(x1 )) + q(p(x2 )) = q(x1 ) + 0 = q(x1 ) + q(x2 ) = q(x1 + x2 ) = q(x) donc qop = q. Ainsi | {z } x1 si Ker q = Ker p ⇒ qop = q et poq = p d’où le résultat. 2.4 Involution Le but des involutions sera de généraliser les symétries axiales. Ainsi à minima une involution devra donc être un endomorphisme (pourquoi ?) et vérifier s(x) = x0 et s(s(x)) = s(x0 ) = x c’est-à-dire sos = Id d’où la définition : 2.4.1 Définition Définition 43. On dit qu’un endomorphisme f ∈ L(E) est une involution ou que f est involutif lorsque f 2 = f of = IdE . Dit autrement f est une involution ssi f est bijective et f = f −1 Les involutions sont les endomorphismes qui "changent" les points 2 par 2, c’est-à-dire f (x) = y alors f (y) = x. De même que nous avions caractérisé les endomorphismes idempotents ou projecteurs comme des projections, nous allons caractériser les endomorphismes involutifs comme des symétries. Exemple 2.4.1 Soit f : E −→ E x 7−→ −x On a f (x + y) = −(x + y) = −x − y = f (x) + f (y) et f (α.x) = −α.x = α(−x) = αf (x) donc f est une application linéaire. De plus f of (x) = f (f (x)) = f (−x) = x donc f of = f 2 = IdE c’est-à-dire que f est une involution. Mail: [email protected] Tous droits réservés Page no 15 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Exemple 2.4.2 Soit s une symétrie. On pose Q(X) = X 2 − 1 comme s2 = sos = IdE nous aurons Q(s) = s2 − 1.IdE = 0E donc Q est un polynôme annulateur de s. 2.4.2 Symétrie Proposition 44. On définit l’application et l’application s = p − q : E = E1 ⊕ E2 −→ E = E1 ⊕ E2 x 7−→ s(x) = x1 − x2 t = q − p : E = E1 ⊕ E2 −→ E = E1 ⊕ E2 x 7−→ t(x) = x2 − x1 Alors s et t sont des endomorphismes involutifs. Preuve : On a s(x+y) = (x1 +y1 )−(x2 +y2 ) = (x1 −x2 )+(y1 −y2 ) = s(x)+s(y). Enfin ∀α ∈ R, s(α.x) = α(x1 −x2 ) = αs(x). Ainsi s ∈ L(E) faire pour t....a faire Nous aurions pu également dire que comme (L(E), +, .) est un espace vectoriel alors il y a stabilité par combinaison linéaire donc comme, p et q ∈ L(E) on aura p + (−1).q = p − q = s ∈ L(E). On aura aussi t = q − p ∈ L(E). Pour finir sos(x) = s(s(x)) = s(x1 − x2 ) = s(x1 + (−x2 )) = x1 − (−x2 ) = x1 + x2 = x c’est-à-dire sos = IdE . De même tot(x) = t(t(x1 + x2 )) = t(x2 − x1 ) = t(−x1 + x2 ) = x2 − (−x1 ) = x1 + x2 = x c’est-à-dire tot = IdE . Ainsi s et t sont des involutions. Définition 45. s ∈ L(E) est appelée la symétrie par rapport à E1 parallèlement à E2 ou symétrie de base E1 de direction E2 . t ∈ L(E) sera appelée la symétrie par rapport à E2 parallèlement à E1 ou symétrie de base E2 de direction E1 . Exemple 2.4.3 Soit f : C −→ C On considère C comme un R-ev. z 7−→ z On a C = R ⊕ iR où iR = {α.i, α ∈ R} De plus f (αz + z 0 ) = αz + z 0 = α.z + z 0 = α.z + z 0 = α.f (z) + f (z 0 ) donc f ∈ LR (C). De là s(z) = s(a + ib ) = a − ib et s | {z } xF +xG sera la symétrie de C par rapport à R parallèlement à iR Exemple 2.4.4 Déterminons la symétrie de R3 par rapport à F = {(x, y, z) ∈ R3 |x+z = 0} parallèlement à G = V ect(1, 1, 0) G par définition est un sous-espace vectoriel de R3 de dimension 1. Démontrons que F est un sous-espace vectoriel de R3 , on a déjà 0R3 ∈ F . Soit (x, y, z) ∈ F et (x0 , y 0 , z 0 ) ∈ F alors α (x, y, z) + (x0 , y 0 , z 0 ) = (αx + x0 , αy + y 0 , αz + z 0 ) = αx + x0 + αz + z 0 = | {z } | {z } X X0 α(x + z) + x0 + z 0 = α.0 + 0 = 0 donc αX + X 0 ∈ F et ainsi F est un sous-espace vectoriel de R3 . Mail: [email protected] Tous droits réservés Page no 16 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Montrons que F et G sont supplémentaires. x+z =0 x+z =0 x=α Tout d’abord (x, y, z) ∈ F ∩ G ⇔ ⇔ ⇔ x = y = z = α = 0 c’est-à-dire F ∩ G = {0R3 } (x, y, z) = α(1, 1, 0) y=α z=0 Enfin soit X = (x, y, z) ∈ R3 donné. On et cherche XF ∈ F x a XG = (α, α, 0) de là X = XF + XG ⇔ y = b + z c xG∈ G tels que X = XF + XG . On note XF = (a, b, c) et α a+α=x α ⇔ b+α=y 0 c=z En additionnant la 1ere et la dernière ligne a + c +α = x + z de là XG = (x + z, x + z, 0) et ainsi XF = X − XG = | {z } 0 (x, y, z)−(x+z, x+z, 0) = (−z, −x+y−z, z). En conclusion X = XF +XG avec XF (−z, −x+y−z, z) et XG = (x+z, x+z, 0) ce qui démontre que E = F ⊕ G La symétrie de R3 par rapport à F parallèlement à G sera donc s(x, y, z) = (−z, −x + y − z, z) − (x + z, x + z, 0) = (−x − 2z, −2x + y − 2z, z). D’un point de vue géométrique on aura Voici une proposition qui permet de faire le lien entre une projection p et une symétrie s. Proposition 46. Soit E = F ⊕ G et p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F 1 parallèlement à G alors s = 2p − IdE ⇔ p = (IdE + s) 2 Preuve : On a ∀x ∈ E, x = xF + xG donc p(x) = xF et s(x) = xF − xG = 2xF − (xF + xG ) = 2p(x) − x. De là 1 s = 2p − IdE ⇔ p = (s + IdE ) 2 Proposition 47. x + y ∈ E1 y − x ∈ E2 2. Si E1 = E alors s = h1 = IdE et si E2 = E alors s = h−1 = −IdE 1. ∀x, y ∈ E s(x) = y ⇔ 3. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅ Preuve : Proposition 48. Si E = F ⊕ G et s la symétrie alors F = Ker(s − IdE ) = Inv s et G = Ker(s + IdE ) = opp(s) c’est-à-dire E = Ker(s − IdE ) ⊕ Ker(s + IdE ) Preuve : 2.4.3 Caractérisation des involutions Mail: [email protected] Tous droits réservés Page no 17 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Proposition 49. Toute involution s de E est une symétrie de E par rapport à Ker(s−IdE ) = Inv s parallèlement Ker(s+IdE ) = opp(s). Dit autrement s est une involution de E ssi s est une symétrie de E par rapport à Inv(s) parallèlement à opp(s) Preuve : Si s est une symétrie alors d’après la proposition ? ? E = F ⊕ G avec F = Ker(s − IdE ) = Inv(s) et G = Ker(s + IdE ) = opp(s). D’après la proposition ? ? ? on a s est une involution c’est-à-dire sos = Id Réciproquement montrons que si s est une involution sur E (s2 = Id et s ∈ L(E)) alors s est une symétrie de E par rapport à Inv(s) parallèlement à opp(s). 1 Soit s ∈ L(E) tel que s2 = IdE , d’après la proposition ? ? ? nous avons démontrer que p = (s + Id) était un projecteur. 2 1 D’après la proposition ? ? ? qui caractérise les projecteurs p = (s + Id) est le projecteur de E sur Im(p) parallèlement à 2 1 Ker(p). De plus (Id + s) = p ⇔ s = 2p − Id en outre u ∈ Im(p) ⇔ u ∈ Inv(p) ⇔ p(u) = u ⇔ 2p(u) − Id(u) = 2u − u = 2 u = s(u) ⇔ u ∈ Ker(s − Id) donc Im(p) = Ker(s − IdE ) Enfin u ∈ Ker(p) ⇔ p(u) = 0 ⇔ 2p(u) = 0 ⇔ 2p(u) − u = −u ⇔ s(u) = −u ⇔ u ∈ Ker(s + IdE ) = opp(s) donc Ker(p) = Ker(s + Id) ainsi s involution ⇒ p projecteur ⇒ p projection de E sur Im p parallèlement à Ker p ⇒ s symétrie sur Ker(s − IdE ) = Inv(s) parallèlement à Ker(s + Id) = opp(s) d’où le résultat. Exemple 2.4.5 Soit f : R3 −→ R3 (x, y, z) 7−→ (x, y + 2z, −z) Démontrons que f est une symétrie et caractérisons-là. f (αX + X 0 ) = f (αx + x0 , αy + y 0 , αz + z 0 ) = (αx + x0 , αy + y 0 + 2αz + z 0 , −αz − z 0 ) = α(x, y + 2z, −z) + (x0 , y 0 + 2z 0 , −z 0 ) = αf (X) + f (X 0 ) donc f ∈ LR (R3 ) Montrons que f 2 = f of = IdR3 ∀X = (x, y, z) ∈ R3 , f 2 (X) = f (f (X)) = f (x, y + 2z, −z) = (x, y + 2z − 2z, z) = (x, y, z) donc f 2 = IdR3 et ainsi f est une involution avec R3 = Inv(f ) ⊕ opp(f ) Déterminons Inv(f ) et opp(f ) x=x y + 2z = y ⇔ z = 0 donc X = (x, y, z) ∈ Ker(f − Id) ⇔ f (x, y, z) = (x, y, z) ⇔ (x, y + 2z, −z) = (x, y, z) ⇔ −z = z X = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0) et ainsi Ker(f − Id) = V ect((1, 0, 0), (0, 1, 0)) x = −x x=0 y + 2z = −y ⇔ Maintenant X = (x, y, z) ∈ opp(f ) ⇔ f (x, y, z) = −(x, y, z) ⇔ (x, y+2z, −z) = (−x, −y, −z) ⇔ z = −y −z = −z Ainsi X = (0, y, −y) = y(0, 1, −1) et Ker(f + Id) = opp(f ) = V ect(0, 1, −1). D’après la proposition f est la symétrie de R3 par rapport au plan vectoriel V ect((1, 0, 0); (0, 1, 0)) parallèlement à la droite V ect(0, 1, −1). De façon plus visuel : Exemple 2.4.6 Soit T : R2 [X] −→ R2 [X] P 7−→ P (1 − X) Démontrons que f est une symétrie puis caractérisons-là. Mail: [email protected] Tous droits réservés Page no 18 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Tout d’abord montrons que T ∈ L(E) = LR (R2 [X]). Soient P, Q ∈ R2 [X] et α, β ∈ R on a alors T (αP + βQ)(1 − X) = αP (1 − X) + βQ(1 − X) = α(T (P ))(X) + β(T (Q))(X) = (αT (P ) + βT (Q))(X) donc T (αP βQ) = αT (P ) + βT (Q), ainsi T ∈ LR (R2 [X]) Vérifions T 2 = T oT = IdR2 [X] ∀P ∈ R2 [X], T 2 (P ) = T (T (P )) = T (P (1 − X)) = P (1 − (1 − X)) = P (X) = P d’où ∀P ∈ R2 [X], T 2 (P ) = P c’est-à-dire que T 2 = IdR2 [X] et T est une symétrie. Déterminons Inv(T ) et opp(T ) Soit P (X) = aX 2 + bX + c ∈ R2 [X] on a P ∈ Ker(T − Id) ⇔ T (P ) = P ⇔ P (1 − X) = P (X) ⇔ a(1 − X)2 + b(1 − X) + c = 2 2 2 aX 2 + bX + c ⇔ a(1 − 2X +X 2 ) + b − bX + c = aX + bX + x ⇔ aX − 2aX + a + b − bX + c = aX + bX + c ⇔ −2a − 2b = 0 a = −b X(−2a − 2a) + (a + b) = 0 ⇔ ⇔ ⇔ a = −b d’où P (X) = aX 2 − aX + c = a(X 2 − X) + c et a+b=0 a+b=0 donc Inv(T ) = {a(X 2 − X) + c.1} = V ect < X 2 − X, 1 > Déterminons maintenant opp(T ) 2 2 2 P ∈ opp(T ) ⇔ T (P ) = −P ⇔ P (1−X) = −P (X) ⇔ aX −2aX +a+b−bX +c = −aX −bX −c ⇔ 2aX −2aX +a+b+2c = 2a = a a=0 −2a = 0 0⇔ ⇔ d’où P (X) = −2cX + c = c(−2X + 1) et ainsi opp(T ) = {c(−2X + 1), c ∈ R} = b = −2c a + b + 2c = 0 V ect < −2X + 1 >. D’après la proposition T est la symétrie de R2 [X] par rapport à V ect < X 2 − X, 1 > parallèlement à V ect < −2X + 1 > 2.5 Dilatation Proposition 50. fa : E −→ E est une x = x1 + x2 7−→ p(x) + aq(x) = x1 + ax2 application linéaire appelée dilatation ou affinité par rapport à E1 parallèlement à E2 de rapport a ou de base E1 de direction E2 et de rapport a. Soit a ∈ K et E = E1 ⊕ E2 . L’application Preuve : 2.6 Transposée Proposition 51. Soient E, F deux K-ev de dimension finie et T une application linéaire de E dans F . On définit l’application T ∗ du dual F ∗ (de F ) dans le dual E ∗ (de E) par : T ∗ =t T : F ∗ −→ E ∗ f ∗ 7−→ T ∗ (f ∗ ) = f (T ) = f oT T ∗ ou t T est alors une application linéaire de F ∗ dans E ∗ (t T ∈ L(F ∗ , E ∗ )) et s’appelle la transposée de f . Preuve :dual.pdf 2/5 Mail: [email protected] Tous droits réservés Page no 19 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE Proposition 52. Soient E, F deux K-ev. 1. ∀f ∈ L(E, F ), g ∈ L(F, G) alors t (gof ) =t f ot g 2. t IdE = IdE ∗ avec E = F 3. Si f ∈ L(E, F ) est bijective (isomorphisme) alors t f est bijective et t (f −1 ) = (t f )−1 4. Preuve :dual.pdf 2/5 Proposition 53. Soit f ∈ L(E, F ) alors Ker(t f ) = Im(f )⊥ . Preuve :dual.pdf 1/5 2.7 Rotation Dans le plan R2 on considère la rotation r d’angle θ et de centre O Proposition 54. L’application r : R2 −→ R2 est une rotation d’angle θ et de centre O : r(O, θ) (x, y) 7−→ (x cos θ − y sin θ, x sin θ + y cos θ) 0 0 Preuve : On a cos α = √ 2x 2 et sin α = √ 2y 2 . De plus cos(θ + α) = √ x2 2 et sin(θ + α) = √ y2 2 d’où x0 = x +y x +y x +y p x +y p p x2 + y 2 cos(θ + α) = x2 + y 2 (cos θ cos α − sin θ sin α) = x2 + y 2 (cos θ √ 2x 2 − sin θ √ 2y 2 ) = x cos θ − y sin θ x +y p p p De même y 0 = x2 + y 2 sin(θ + α) = x2 + y 2 (sin θ cos α + cos θ sin α) = x2 + y 2 (sin θ √ x +y x x2 +y 2 + cos θ √ y ) x2 +y 2 = x sin θ + y cos θ Proposition 55. r est une application linéaire de R2 dans R2 . Preuve : Soit (x1 , y1 ) et (x2 , y2 ) de R2 . r((x1 , y1 ) + (x2 , y2 )) = r(x1 + x2 , y1 + y2 ) = [(x1 + x2 ) cos θ − (y1 + y2 ) sin θ; (x1 + x2 ) sin θ + (y1 + y2 ) cos θ] = [x1 cos θ − y1 sin θ + x2 cos θ − y2 sin θ; x1 sin θ + y1 cos θ + x2 sin θ + y2 cos θ] = (x1 cos θ − y1 sin θ, x1 sin θ + y1 cos θ) + (x2 cos θ − y2 sin θ, x2 sin θ + y2 cos θ) = f (x1 , y1 ) + f (x2 , y2 ). Soit α ∈ R, f (α(x, y)) = f (αx, αy) = (αx cos θ − αy sin θ, αx sin θ + αy cos θ) = α(x cos θ − y sin θ, x sin θ + y cos θ) = αf (x, y) d’où le résultat. On considère maintenant l’espace R3 Mail: [email protected] Tous droits réservés Page no 20 sur 96 CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE L’oeil regarde toujours l’axe dans le sens positif. Proposition 56. rx : R3 −→ R3 est une rotation d’angle θ autour de l’axe x (x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x, y cos θ − z sin θ, y sin θ + z cos θ) ry : R3 −→ R3 est une rotation d’angle θ autour de l’axe y (x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ + z sin θ, y, −x sin θ + z cos θ) rz : R3 −→ R3 est une rotation d’angle θ autour de l’axe x (x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ − y sin θ, x sin θ + y cos θ, z) Preuve : Pour rx on a : 0 x =x y 0 = y cos θ − z sin θ On a déjà x0 = x d’où on est ramené à une rotation dans le plan P . Ainsi 0 z = y sin θ + z cos θ Pour ry on a : Vu par l’autre côté 0 0 x = x cos(−θ) − z sin(−θ) x = x cos θ + z sin θ y0 = y y0 = y Ainsi ⇔ 0 0 z = x sin(−θ) + z cos(−θ) z = −x sin θ + z cos θ Enfin pour rz on a : 0 x = x cos θ − y sin θ y 0 = x sin θ + y cos θ soit 0 z =z Proposition 57. rx , ry r z sont des applications linéaires de R3 dans R3 Preuve : Mail: [email protected] Tous droits réservés Page no 21 sur 96 Chapitre 3 Matrice d’un vecteur dans une base Soit un espace vectoriel de dimension n et B = {e1 , ..., en } une base de E. ∀x ∈ E on peut décomposer de façon unique n X comme combinaison linéaire des vecteurs de la base : x = α1 e1 + ... + αn en = αk ek . Dit autrement à tout vecteur (point) k=1 n ϕ : (E, B) −→ K de E on peut associer le vecteur composante dans Kn c’est-à-dire x − 7 → X = |{z} vecteur x1 x2 .. . x1 x2 .. . xn est dite matrice colonne des composantes (ou coordonnée) de x ou vecteur colonne des composante de x ou xn matrice coodonnée de x. Cette matrice est notée X = MB (x) ou M atB (x) voire [x]B . On note parfois aussi cette matrice B x↔X Proposition 58. ϕ est un isomorphisme (application linéaire bijective). Preuve : Exemple 3.0.1 Soit l’espace vectoriel R3 [X] de base {1, X, X 2 , X 3 }. Soit p(X) = a0 + a1 X + a2 X 2 + a3 X 3 ∈ R3 [X] alors 4 ϕ : (R3 [X], B) −→ K a0 a1 p(x) 7−→ a2 a3 22 Chapitre 4 Matrice d’AL de E sur F dans 2 bases Soient E et F deux K-ev de dimension finie respectivement m et n. Soient B = {e1 , e2 , ..., em } une base de E et B 0 = {f1 , f2 , ..., fn } une base de F . Soit enfin f une application linéaire de E dans F . Comme tout éléments de x ∈ E s’écrit de m m m m X X X X manière unique sur la base (ej )1≤j≤m on aura x = xj ej avec xj ∈ K et donc f (x) = f ( xj ej ) = f (xj ej ) = xj f (ej ). j=1 j=1 j=1 j=1 Par conséquent f (x) s’écrit de manière unique sur la famille (f (ej ))1≤j≤m (Attention, ce n’est pas forcement une base de F ). En d’autres termes l’application f est connue dès que les images f (ej ) le sont sur la base (fi )1≤i≤n . Il suffit de décomposer x sur la base (ej )1≤j≤m dont les composantes sont (xj ) puis connaissant les f (ej ) sur (fi ) faire une combinaison linéaire avec les mêmes (xj )1≤j≤m et les (f (ej )1≤j≤m sur (fi )1≤i≤n . Réciproquement supposons que l’on fixe les (f (ej ))1≤j≤m sur (fi )1≤i≤n de façon arbitraire (tous différent) et que l’on pose, m m m m X X X X f (x) = xj f (ej ) alors f (x + y) = (xj + yj )f (ej ) = xj f (ej ) + yj f (ej ) = f (x) + f (y). De plus ∀α ∈ K, f (αx) = j=1 m X j=1 j=1 j=1 m X αxj f (ej ) = α xj f (ej ) = αf (x) donc f ainsi définie sera une application linéaire de E dans F . j=1 j=1 qu’est ce qui nous dit qu’on touche’ toute les AL de E dans F, parler de l’isomorphisme ? En conclusion se donner une application linéaire est donc équivalent à se donner les images dans (fi )1≤i≤n des vecteurs (ej )1≤j≤m de la base choisie de E. On stocke dans un tableau rectangulaire appelée matrice les composantes des vecteurs f (ej ) dans la base B 0 = {f1 , f2 , ..., fn } f : (R2 , B) −→ (R, B 0 ) . Nous avons vu dans l’exemple ? que f était une application linéaire. Soit (x, y) 7−→ x + y 0 0 B = {e1 (1, 0); e2 (0, 1)} et B = {e (2)}. On a f (e1 ) = f (1, 0) = 1 + 0 = 1 = 1/2e0 et f (e2 ) = f (0, 1) = 0 + 1 = 1/2e0 . Cherchons par exemple l’image de (3, 2) par f . -Tout d’abord on écrit le point (3, 2) dans la base B : (3, 2) = 3e1 + 2e2 , puis -On calcule f (3, 2) dans la base B 0 : f (3, 2) = f (3e1 + 2e2 ) = 3f (e1 ) + 2f (e2 ) = 3.1/2e0 + 2.1/2e0 = 5/2e0 -On conclut que l’image du point (3, 2) = 3e1 + 2e2 de R2 dans la base B est le point 5/2e0 de R dans la base B 0 . Exemple 4.0.2 Soit Réciproquement donnons nous f (e1 ) = 3e0 et f (e2 ) = 4e0 (on sait déjà que f est linéaire). Cherchons f (3, 2) dans la base B 0 . f (3, 2) = f (3e1 + 2e2 ) = 3f (e1 ) + 2f (e2 ) = 3.3e0 + 2.4e0 = 17e0 . De façon plus générale f (x, y) = f (xe1 + ye2 ) = f : (R2 , B) −→ (R, B 0 ) xf (e1 ) + yf (e2 ) = 3xe0 + 4ye0 = (3x + 4y)e0 donc (x, y) 7−→ (3x + 4y) × 2 4.1 Définition On met à la colonne j et à la ligne i la composante aij du vecteur f (ej ) sur la base fi . Ainsi la colonne j du tableau contient bien les composantes du vecteur f (ej ) dans la base B 0 . 23 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Définition 59. f (e1 ) a1,1 f (e2 ) a1,2 ... ... .. . f (en ) a1,m a2,1 a2,2 a2,m 0 La matrice A = (ai,j ) 1 ≤ i ≤ n = M at (f ) = An,m = Mn,m (K) = . .. .. B .. . . 1≤j≤m an,1 an,2 . . . an,m 0 est la matrice de l’application linéaire f dans les bases B et B . Cette matrice à n lignes et m colonnes sera dite a1,1 a1,2 . . . a1,m a2,1 a2,2 . . . a2,m de taille (n, m) ou n × m. On note parfois aussi la matrice entre crochet La matrice . .. .. .. .. . . . B,B0 an,1 an,2 ... an,m Dans la notation An,m , par convention le premier indice est toujours celui des lignes et le second celui des colonnes. Les scalaires a1,1 ; a1,2 ; ... sont parfois notés a11 , a12 , .... lorsqu’il n’y a pas d’ambiguité. On peut donc résumer la situation par le schéma suivant : On a démontré que ∀α ∈ K, f, g ∈ L(E, F ) alors αf, f + g et f og sont des applications linéaires (structure d’ev et d’anneau) donc on se posera la question de savoir qu’elles opérations naturelles sur les matrices doit-on définir pour avoir l’équivalence avec αf, f + g et f og. Mail: [email protected] Tous droits réservés Page no 24 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Deux matrices sont égales lorsqu’elles ont la même taille et que les composantes des f (ej ) dans B 0 sont égaux i.e (aij ) = (a0ij ) Si m = n nous parlerons de matrices carrées d’ordre n. Dans le cas d’une matrice carrée d’ordre n, les éléments a11 , a22 , ..., ann sont appelées les éléments diagonaux Exemple 4.1.1 Soit f : E = R3 −→ F = R3 (x, y, z) 7−→ (3x, 3y, 3z) On a f (X +Y ) = f ((x, y, z)+(x0 , y 0 , z 0 )) = f (x+x0 , y+y 0 , z+z 0 ) = (3x+3x0 , 3y+3y 0 , 3z+3z 0 ) = (3x, 3y, 3z)+(3x0 , 3y 0 , 3z 0 ) = f (X) + f (Y ). Enfin f (αX) = f (α(x, y, z)) = f (αx, αy, αz) = (3αx, 3αy, 3αz) = α(3x, 3y, 3z) = αf (X) donc f est une application linéaire. On munit R3 de sa base canonique B = B 0 = {e1 = e01 (1, 0, 0); e2 = e02 (0, 1, 0); e3 = e03 (0, 0, 1)} on a alors : f (e1 ) = f (1, 0, 0) = (3, 0, 0) = 3e01 + 0e02 + 0e03 f (e2 ) = f (0, 1, 0) = (0, 3, 0) = 0e01 + 3e02 + 0e03 f (e3 ) = f (0, 0, 1) = (0, 0, 3) = 0e01 + 0e02 + 3e03 D’où la matrice associée à f et aux bases, M = Mail: [email protected] f (e1 ) f (e2 ) f (e3 ) 3 0 0 0 3 0 0 0 3 0 B . Tous droits réservés Page no 25 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Définition 60. Une matrice de taille 1 × n est dite matrice ligne. Une matrice de taille m × 1 est dite matrice colonne. Remarque : On a noté la base B = {e1 , e2 , e3 }. Or dans une famille il n’y a pas d’ordre. On aura donc x = 2e1 + 3e2 + 4e3 , ce qui donne le même résultat que x = 3e2 + 2e1 + 4e3 . On remarque par contre que si on prend l’ ordre e1 , e2 , e3 dans B alors la matrice de f est (B 0 = {e1 , e2 , e3 } dans cette ordre) : f (e1 ) f (e2 ) f (e3 ) 0 0 0 3 M = 0 3 0 B . 0 0 3 f (e2 ) f (e1 ) f (e3 ) 3 0 0 0 alors que si l’ordre est dans B, e2 , e1 , e3 la matrice de f relativement aux bases B et B 0 sera M = 3 0 0 B 0 0 3 Maintenant si on ae1 (1, 0, 0), e2 (0, 1, 0), e3 (0, 0, 1) on aurait tout aussi bien pu écrire e1 (0, 1,0), e2 (1, 0, 0), e3 (0, 0, 1). Dans le f (e1 ) f (e2 ) f (e3 ) f (e1 ) f (e2 ) f (e3 ) 0 0 0 3 0 0 3 0 premier cas M = 0 3 0 B alors que dans le deuxième cas on aura M = 3 0 0 B . Ainsi 0 0 3 0 0 3 une matrice dépend donc, outre de f et de sa base, mais aussi de l’ordre des éléments de la base et de leur notation. Certains ouvrages utilisent donc la notation (ei ) pour indiquer l’ordre. Dans d’autres ouvrages on peut lire B = {e1 , e2 , e3 , ..., en }, les éléments de la base sont ordonnés dans le sens de la lecture. Quoi qu’il en soit une base est toujours exprimée dans l’ordre de ses indices. Remarque : Si l’on utilise d’autres bases pour les espaces vectoriels E et F on change aussi la matrice de l’application linéaire f . Dans ce volume nous évoquerons la recherche de base de E et F pour rendre la matrice associée f plus simple. Exemple 4.1.2 Soit f : K2 [X] −→ K2 [X] p 7−→ 3p On munit (P2 [X], +, •) de la base B = B 0 = {1, X, X 2 }. f (p+p0 ) = 3(p+p0 ) = 3p+3p0 = f (p)+f (p0 ) et f (αp) = α.3.p = αf (p) et donc f est une application linéaire. On a f (e1 ) = f (1) = 3 = 3e1 + 0e2 + 0e3 f (e2 ) = f (X) = 3X = 0e1 + 3e2 + 0e3 f (e1 ) f (e2 ) f (e3 ) 3 0 0 0 0 3 0 B 0 0 3 On remarque donc que deux applications linéaires de même nature mais manipulant des objets différents peuvent donner la même matrice.Pour A donnée, il ne nous est pas possible de remonter l’expression de E sans la donnée des bases. Ainsi f (e3 ) = f (1) = 3Xr = 0e1 + 0e2 + 3e3 d’où la matrice relativement aux bases B = B 0 : M = f (e1 ) f (e2 ) 1 1 1 c’est-à-dire avec ei et e0i . dire soit B = 4.2 0 0 1 Nous f (e3 ) 1 0 2 nous donne la dimension de E et de F et les images f (ej ) sur B en terme général 1 ne pouvons rien dire sur la forme de E i.e est-ce E = R3 , E = K2 [X]? Matrices remarquables Notons dès à présent que nous ne ferons pas ici l’étude de matrice en profondeur mais que nous les définirons simplement (parce que nommée dans la suite de ce cours). En fin de volume, l’étude complète des matrices remarquables sera reprise en détail, comme une sorte de bilan. 4.2.1 Matrice nulle Mail: [email protected] Tous droits réservés Page no 26 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Définition 61. On appelle matrice nulle une matrice ne contenant que des 0. On la note Mmn (K) = OL(E,F ) = OMmn (K) = 0K . . . 0K 0K . . . 0K O= . .. .. .. . . 0K . . . 0K Exemple 4.2.1 M2,2 (K) = 0 0 0 0 ou M2,3 (K) = 0 0 0 0 0 0 et enfin M1,1 (K) = 0 Proposition 62. L’application linéaire associée à la matrice nulle est l’unique application nulle. Preuve : Soit la matrice 0m,n = f (e1 ) 0 .. . ··· ··· 0 f (en ) 0 .. . 0 0 On aura donc pour f : (E, B) → (F, B ) , f (x) = f (α1 e1 + ... + αn en ) = α1 f (e1 ) + ... + αn f (en ) = α1 (0e01 + ... + 0e0m ) + ... + αn (0e01 + ... + 0e0m ) = 0F donc ∀x ∈ E, f (x) = 0F c’est-à-dire que l’application linéaire associée à la matrice est la seule application nulle. 4.2.2 Matrice unité Définition 63. On appelle matrice unité une matrice 1 0 0 1 On la note Mn (K) = In = . .. .. . 0 ... Exemple 4.2.2 I2 = 1 0 0 1 carrée avec des 1 sur la diagonale principale et des 0 partout ailleurs. ... 0 . . . . .. .. . 0 ... 1 1 et I3 = 0 0 0 1 0 0 0 et I1 = (1) sont des matrices unités. 1 Exemple 4.2.3 Soit E un e.v de dimension n. L’identité de E dans E munit des mêmes bases donne : f (e1 ) = e1 = 1e1 + 0e2 + ... + 0en f (e2 ) = e2 = 0e1 + 1e2 + ... + 0en .. . f (en ) = en = 0e1 + 0e2 + ... + 1en f (e1 ) 1 L’application linéaire Id (démonstration page 5) de (E, B) dans (E, B) aura pour matrice I = In = ... 0 .. . 1 .. . 0 ... ... ... .. . ... f (en ) 0 .. . 0 1 B. I est bien une matrice unité. Exemple 4.2.4 Soit f : (R3 , B) −→ (R2 [X], B 0 ) (x, y, z) 7−→ x + yX + zX 2 Mail: [email protected] Tous droits réservés Page no 27 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES avec B = {(1, 0, 0); (0, 1, 0); (0, 0, 1)} et B 0 = {1, X, X 2 }. On a alors f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x + x0 , y + y 0 , z + z 0 ) = (x + x0 ) + (y + y 0 )X + (z + z 0 )X 2 = (x + yX + zX 2 ) + (x0 + y 0 X + z 0 X 2 ) = f (x, y, z) + f (x0 , y 0 , z 0 ). Enfin f (α(x, y, z)) = f (αx, αy, αz) = αx + αyX + αzX 2 = α(x + yX + zX 2 ) = αf (x, y, z), f est donc une application linéaire. On a : f (e1 ) = f (1, 0, 0) = 1 = 1e01 + 0e02 + 0e03 f (e2 ) = f (0, 1, 0) = X = 0e01 + 1e02 + 0e03 1 f (e3 ) = f (0, 0, 1) = X 2 = 0e01 + 0e02 + 1e03 donc la matrice de f relativement aux bases est I3 = 0 0 0 1 0 0 0 1 Remarque : On retiendra qu’une matrice unité n’est pas forcément associée à l’application linéaire identité (dans deux mêmes bases). Dans certains ouvrages les matrices unités sont dites aussi matrices identités, mais c’est un anglicisme. Parler de matrice identité peut laisser supposer qu’elle est associée uniquement à l’application linéaire identité, ce que les exemples contredisent. Dit autrement il suffit de poser f (e1 ) = e01 , f (e2 ) = e02 ... pour définir une application linéaire de E dans F dont la matrice sera In . 4.2.3 Matrice colonne et ligne Définition 64. si m = 1 on parlera de matrice colonne et si n = 1 on parlera de matrice ligne. f : E = R3 −→ F = R, . Cette fonction est la 1ere projection et on aura f (X + Y ) = f (x + x0 , y + (x, y, z) 7−→ x y 0 , z + z 0 ) = x + x0 = f (X) + f (Y ) et si α ∈ R alors f (αX) = αX = αf (X) donc f est une application linéaire (R-linéaire). Exemple 4.2.5 Soit De là si R3 et R sont munis de leurs bases canoniques à savoir B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} et B 0 = {e01 (1)} alors f (e1 ) = 1 = 1e01 f (e2 ) = 0 = 0e01 f (e1 ) f (e2 ) f (e3 ) f (e3 ) = 0 = 0e01 d’où la matrice associée A = 1 0 0 Soit maintenant la fonction f : E = R −→ F = R3 , . f est appelée injection canonique et est clairement linéaire. On aura x 7−→ (x, x, x) pour les bases canoniques : f (e1 ) = f (1) = (1, 1, 1) = 1e01 + 1e02 + 1e03 d’où la matrice associée à cette application linéaire : A = 4.2.4 f (e1 ) 1 1 1 Matrice canonique Définition 65. Soit f ∈ L(Kp , Kn ) de matrice associée A relativement aux base canoniques de Kp et Kn . f est alors dite application linéaire canoniquement associée. On notera souvent A ←→ f . Dit autrement A peut être au moins la matrice associée de f , mais il peut y en avoir d’autres. Lorsque l’on veut associée A à f ainsi défini on parlera de la matrice canonique associée à f . Exemple 4.2.6 Si f : (R3 , B) −→ (R2 , B 0 ) on a alors : (x, y, z) 7−→ (x − 2z, 2x + y − 3z) f (X + αX 0 ) = f (x + αx0 , y + αy 0 , z + αz 0 ) = (x + αx0 − 2(z + αz 0 ), 2(x + αx0 ) + (y + αy 0 ) − 3(z + αz 0 )) = (x − 2z, 2x + y − 3z) + (αx0 − 2αz 0 , 2αx0 + αy 0 − 3αz 0 ) = (x − 2z, 2x + y − 3z) + α(x0 − 2z 0 , 2x0 + y 0 − 3z 0 ) = f (X) + αf (X 0 ) donc f ∈ L(R3 , R2 ). Si on a la base canonique de R3 (B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)}) et de R2 (B = {e01 (1, 0); e02 (0, 1)}) la matrice associée sera : f (e1 ) = f (1, 0, 0) = (1, 2) = 1e01 + 2e02 f (e2 ) = f (0, 1, 0) = (0, 1) = 0e01 + 1e02 Mail: [email protected] Tous droits réservés Page no 28 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES 1 0 −2 f (e3 ) = f (0, 0, 1) = (−2, −3) = −2e01 − 3e02 soit A = dit autrement l’application linéaire canoniquement 2 1 −3 associée à A est f . A est la matrice canonique associée à f . 4.2.5 Matrice triangulaire supérieure et inférieure Définition 66. Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp.triangulaire inférieure) lorsque aij = 0, ∀(i, j) pour i > j (resp. i < j). Dit autrement sous forme de matrice : a 0 ··· ··· 0 1,1 a1,1 a1,2 · · · · · · a1,n .. .. 0 a2,2 a2,n . a2,1 a2,2 . .. .. . . . .. . . . . . et . . . . . . . . . . . . . . . .. .. .. . .. .. . . 0 0 ··· ··· 0 an,n an,1 an,2 · · · · · · an,n 1 1 Exemple 4.2.7 La matrice 0 2 0 0 une matrice triangulaire inférieure. 4.2.6 0 0 0 est une matrice triangulaire supérieure. De même la matrice 1 3 2 0 1 3 0 0 est 0 Matrice diagonale Définition 67. Lorsque aij = 0 pour tout couple (i, j) tels que i 6= j on dira que la matrice est diagonale. Celle-ci s’appelle la λ1 0 .. diagonale principale. Dit autrement une matrice diagonale est de la forme . 0 λn On l’a note également diag(λ1 , ..., λn ) Exemple 4.2.8 Soit E = F = R3 et B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} et B 0 = {e01 (2, 0, 0); e02 (0, 1, 0); e03 (0, 0, 3)}. Soit f : (R3 , B) −→ (R3 , B 0 ) . On a : x 7−→ x f (e1 ) = e1 = (1, 0, 0) = 1/2e01 + 0e02 + 0e03 f (e2 ) = e2 = (0, 1, 0) = 0e01 + 1e02 + 0e03 f (e3 ) = e3 = (0, 0, 1) = 0e01 + 0e02 + 1/3e03 1/2 Ainsi la matrice associée à l’application f (identité) relativement aux bases B et B 0 est 0 0 diagonale. La matrice unité en est une aussi. 4.2.7 0 1 0 0 0 C’est une matrice 1/3 Matrice d’un projecteur On rappelle d’après le volume des ev, que si E = F ⊕ G alors une base B de E est le recollement d’une base de F et d’une base de G. Proposition 68. Soit p ∈ L(E) un projecteur de E = Imp(p) ⊕ Ker(p). Soit B une base de E qui est le recollement d’une base Ir 0 de Imp(p) et Ker(p) alors la matrice de p dans B est 0 0 Mail: [email protected] Tous droits réservés Page no 29 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Preuve : 4.2.8 Matrice d’une symétrie Proposition 69. Soit s ∈ L(E) la symétrie par rapport à F parallèlement à G où E = F ⊕ G. Soit B une base de E qui est Im 0 le recollement d’une base de F et de G alors la matrice de s dans B est M athB (s) = où 0 −In−m dim F = m et dim G = n − m Preuve : 4.2.9 Matrice transposée Exemple 4.2.9 a faire avec un f ou f* 4.3 Opération sur les matrices 4.3.1 Addition Soient E, F deux K-e.v munis des base B = (ei )1≤i≤m et B 0 = (fj )1≤j≤n Proposition 70. Si f et g sont des applications linéaires de E dans F de matrices respectives (aij )i,j et (bij )i,j de même taille alors f +g est une application linéaire qui aura pour matrice (aij + bij )i,j Preuve : Soient f : E −→ F et g : E −→ F deux applications linéaires. Comme (L(E, F ), +, •) est un e.v on a f + g ∈ L(E, F ). De là (f +g)(ei ) = f (ei )+g(ei ). En termes matriciel cela se traduit par (f + g)(e1 ) = f (e1 ) + g(e1 ) = (a11 e01 + a21 e02 + ... + an1 e0n ) + (b11 e01 + b21 e02 + ... + bn1 e0n ) = (a11 + b11 )e01 + (a21 + b21 )e02 + ... + (an1 + bn1 )e0n etc. d’où : g(e ) g(e ) (f +g)(e ) g(em ) (f +g)(e2 ) (f +g)(en ) 1 2 1 f (e1 ) f (e2 ) f (em ) a12 . . . a1m b11 b12 . . . b1m a11 a11 + b11 a12 + b12 . . . a1m + b1m a21 b21 a . . . a b . . . b 22 2m 22 2m := a21 + b21 a22 + b22 . . . a2m + b2m A∗B = A+B = .. .. .. .. + . .. .. .. .. .. .. .. . . . . .. . . . . . . . an1 an2 . . . anm bn1 bn2 . . . bnm an1 + bn1 an2 + bn2 . . . anm + bnm Définition 71. La somme ainsi définie sur deux matrices A = (aij ) et B = (bij ) de même taille est la matrice C = (cij ) de même taille où cij = aij + bij . On notera alors C := A+B i.e M atBB0 (f + g) = M atBB0 (f ) + M atBB0 (g) 4.3.2 3 1 −2 7 5 −1 1 −2 B= alors A + B n’est pas définie. Enfin 3 8 1 Exemple 4.3.1 A = et B = 0 2 alors A + B = 2 3 3 2 2 1 + 1 2 3 2 3 1 3 3 4 . Si maintenant A = 3 6 −3 1 4 4 4 3 = 4 4 4 2 4 4 4 1 2 et Produit par un scalaire Soient E, F deux K-e.v munis des bases B = (ei )1≤i≤m et B 0 = (fj )1≤j≤n Mail: [email protected] Tous droits réservés Page no 30 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Proposition 72. Si f est une application linéaire de E dans F de matrice (aij )i,j et si α ∈ K alors α•f est une application linéaire et aura pour matrice (αaij ) Preuve : Soient f ∈ L(E, F ) et α ∈ K. Comme (L(E, F ), +, •) est un e.v on a αf ∈ L(E, F ). Ainsi (α•f )(ei ) = α•f (ei ). Soit (αf )(e1 ) = α(a11 e01 + a21 e02 + ... + an1 e0n ) = (αa11 e01 + αa21 e02 + ... + αan1 e0n ) d’où matriciellement : (αf )(e1 ) (αf )(e2 ) (αf )(em ) f (e1 ) f (e2 ) f (em ) a a . . . a a a . . . a 11 12 1m 12 1m 11 αa21 a21 αa . . . αa a . . . a 22 2m 22 2m d’où la définition : := α ∗ A = α•A = α• .. .. .. .. .. .. .. .. . . . . . . . . αan1 αan2 . . . αanm an1 an2 . . . anm Définition 73. Le produit d’une matrice A = (aij )i,j par un scalaire α est la matrice C = (cij ) de même taille où cij = αaij . On note alors C = α•A i.e M atBB0 (αf ) = αM atBB0 (f ) Exemple 4.3.2 Soient A = 4.3.3 3 0 −2 6 et α = −3 alors α•A = αA = −9 0 6 −18 Produit de matrices Proposition 74. Soient E, F, G trois K-e.v munis de bases B = (ei )1≤i≤m , B 0 = (e0j )1≤j≤n et B 00 = (e00k )1≤k≤p . Soient f ∈ L(E, F ) et g ∈ L(F, G) et de matrices respectives |{z} A = (aij ) de taille p × n et |{z} B = (bij ) de taille n × m. La composée g f g o f est une application linéaire de E dans G de matrice associée |{z} C = (cij ) de taille p × m telle que |{z} |{z} B gof A n X cij = bik akj = bi1 a1j + bi2 a2j + ... + bin a1n = a1j bi1 + a2j bi2 + ... + a1n bin k=1 Preuve : D’après le volume sur les espaces vectoriels nous savons déjà que gof ∈ L(E, f ) f (e1 ) a11 A= .. . ... .. . an1 ... f (ej ) a1j .. . ... .. . an2 ... f (em ) a1m .. . anm g(e0j ) g(e01 ) 0 b11 B et B = . .. bp1 g(e0n ) ... .. . b1j .. . ... .. . ... bp2 ... b1n .. B 00 . bpn n X ∀1 ≤ j ≤ m( posé) (gof )(ej ) = g(f (ej )) = g(a1j e01 + a2j e02 + ... + anj e0n ) = g( akj e0k ) = a1j g(e01 ) + a2j g(e02 ) + ... + anj g(e0n ) = n X k=1 akj g(e0k ) = a1j (b11 e001 + b21 e002 + ... + bp1 e00p ) + a2j (b12 e001 + b22 e002 + ... + bp2 e00p ) + ... + anj (b1n e001 + b2n e002 + ... + bpn e00p ) = k=1 n X p X k=1 k0 =1 akj ( bk0 k e00k0 ) = p n X X ( akj bk0 k e00k0 ). Soit sur la base B 00 , (gof )(ej ) = (a1j b11 +a2j b12 ...+anj b1n )e001 +(a1j b21 +a2j b22 ...+ k=1 k0 =1 anj b2n )e002 + ... + (a1j bp1 + a2j bp2 ... + anj bpn )e00p De là la matrice de gof relativement les bases B et B 00 vérifiera : C1j = a1j b11 + a2j b12 + ... + anj b1n C2j = a1j b21 + a2j b22 + ... + anj b2n .. . Mail: [email protected] Tous droits réservés Page no 31 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Cpj = a1j bp1 + a2j bp2 + ... + anj bpn Soit pour 1 ≤ i ≤ p, Ci,j = a1j bi1 + a2j bi2 + ... + anj bin , comme K est un corps commutatif on aura Ci,j = bi1 a1j + bi2 a2j + n X ... + bin anj d’où (cij ) 1 ≤ i ≤ p = bik akj qui est une matrice de taille p × m. k=1 1≤j≤m n X Remarque : Dans la proposition si nous avions pris g de matrice A et f de matrice B nous aurions obtenu C = ( aik bakj ) k=1 Définition 75. Le produit de deux matrices ainsi définit de |{z} A = (aij ) de taille (p, n) et |{z} B = (bij ) de taille (n, m) est la g f n X matrice |{z} C = (cij ) de taille (p, m) où cij = aik bkj . On notera alors C = A×B = AB i.e M atBB00 (gof ) = k=1 gof M atBB0 (g) × M atB0 B00 (f ) Remarque : Le produit AB existe ssi le nombre de colonnes de A est égale au nombre de ligne de B. Exemple 4.3.3 Si f ∈ L(E, F ) de matrice B et g ∈ G ) gof ∈ L( |{z} E , |{z} dim 1 dim m a11 . . . .. AB = M at(gof ) = M at(g) × M at(f ) = ... . am1 . . . a11 x1 + a12 x2 + ... + a1n xn .. . L(F, G) de matrice A avec dim E = 1, dim F = n, dim G = m alors ... .. . ... .. . an2 ... a1n x1(1) m .. .. = (Xa x ) ik kj 1 ≤ i ≤ m = . . k=1 amn xn(1) j=1 am1 x1 + am2 x2 + ... + amn xn 1 3 4 2 17 2 Ainsi = 1 3 1 10 3 {z } | | {z } | {z } (2,3) (2,1) (3,1) Exemple 4.3.4 Si f ∈ L(E, F ) de matrice B et g ∈ L(F, G) de matrice A avec dim E = 1, dim F = n, dim G = 1 alors gof ∈ L( |{z} E , |{z} G ) dim 1 dim 1 b1(1) m n X X AB = M at(gof ) = M at(g) × M at(f ) = a(1)1 . . . a(1)n ... = ( aik xkj ) i = 1 = ( a(1)k bk(1) ) i = 1 = k=1 k=1 bn(1) j=1 j=1 (a1 b1 + a2 b2 + ... + an bn ) 4 Ainsi 2 3 −1 −2 = 8 − 6 − 3 = −1 |{z} | {z } 3 1 (1,3) | {z } (3,1) Exemple 4.3.5 Si f ∈ L(E, F ) de matrice B et g ∈ L(F, G) de matrice A avec dim E = m, dim F = 1, dim G = n alors gof ∈ L( |{z} E , |{z} G ) dim m dim n a11 m a21 X donc AB = M at(gof ) = M at(g) × M at(f ) = . b11 b12 . . . b1m = ( aik bkj ) 1 ≤ i ≤ n .. k=1 1≤j≤m a n1 On a donc C11 = a11 b11 + a12 b21 + a13 b31 +... + a1n bn1 = a11 b11 | {z } | {z } | {z } 0 Mail: [email protected] 0 0 Tous droits réservés Page no 32 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES a11 b11 a11 b12 . . . a11 b1m a21 b11 a21 b12 . . . a21 b1m C12 = a11 b12 +a12 b22 + a13 b32 +...+a1n bn2 = a11 b12 ... d’où AB = = (ai1 b1j ) 1 ≤ i ≤ n .. .. .. .. | {z } | {z } | {z } . . . . 0 0 0 1≤j≤m an1 b11 an1 b12 . . . an1 b1m 3 −3 6 9 0 Par exemple −2 −1 2 3 0 = 2 −4 −6 0 | {z } 1 −1 2 3 0 (1,4) | {z } | {z } (3,1) (3,4) Attention : Pour des matrices de même taille A et B on a en général AB 6= BA (ce que l’on retrouve en terme d’application linéaire c’est-à-dire en général f og 6= gof ) 1 0 2 −1 2 −1 4 −5 Exemple 4.3.6 Soient A = et B = alors AB = et BA = −2 5 3 0 11 2 3 0 Le produit des matrices de même taille n’est pas nécessairement commutatif. Attention : Il peut arriver que le produit de deux matrices non nulles soit nul. En d’autres termes, on peut avoir A, B 6= 0 et AB = 0 0 −1 2 −3 0 0 Exemple 4.3.7 Soient A = et B = alors AB = 0 5 0 0 0 0 4.3.4 Produit par bloc Proposition 76. 0 A B A B0 0 On définit deux matrices par blocs M = et M = dans Mn (K). Alors le produit C D C0 D0 par bloc se calcule comme pour un produit normal de matrices, c’est-à-dire : AA0 + BC 0 AB 0 + BD0 MM0 = CA0 + DC 0 CB 0 + DD0 Preuve : Remarque : On prendra garde tout de même à n’écrire que des matrices multipliables entre elles et on fera attention de ne pas changer l’ordre des matrices puisqu’elles ne commutent diagonale par bloc si 0 On appellera matrice pas en général. A 0 0 0 A A0 A0 A, D = 0 ou B, C = 0. Dans ce cas le produit par bloc sera = 0 D 0 D0 0 D0 D0 1 1 2 3 1 3 1 1 1 2 3 1 0 0 et M 0 = 1 0 Exemple 4.3.8 Soient M = 1 1 1 1 0 0 0 1 1 0 1 0 0 1 0 0 1 1 1 3 2 3 0 0 2 3 0 3 2 6 0 0 On a donc AA + BC = + = + = 1 2 1 0 3 1 0 1 3 3 0 1 3 4 1 1 1 1 2 3 0 1 1 1 0 2 1 3 De là AB 0 + BD0 = + = + = 1 2 0 0 3 1 0 0 1 1 0 3 1 4 1 1 1 3 1 1 0 0 2 3 0 1 2 4 0 0 = + = Puis CA + DC = + 1 0 1 0 1 0 0 1 1 3 0 0 1 3 1 1 1 1 1 1 0 1 1 1 0 1 1 2 0 0 Enfin CB + DD = + = = 1 0 0 0 1 0 0 0 1 1 0 1 1 2 1 3 2 6 3 4 1 4 0 d’où M M = 2 4 1 2 1 3 1 2 Mail: [email protected] Tous droits réservés Page no 33 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES 4.3.5 Produit de Kronecker Le produit de Kronecker (Leopold) est une opération sur les matrices. Il s’agit d’un cas particulier du produit tensoriel (voir volume calcul tensoriel). Définition 77. a11 B .. Soient A ∈ Mm,n (K) et B ∈ Mm,n (K). Le produit tensoriel est la matrice A ⊗ B = . am1 B 1 Exemple 4.3.9 1 1 3 0 2 2 0 0 ⊗ 5 2 1 1. 5 0 = 1. 1 1. 0 5 1 0 5 1 0 5 1 5 0 1 5 0 1 5 0 1 3. 0. 2. 0 5 1 0 5 1 0 5 1 5 0 1 5 0 1 5 0 1 2. 0. 2. 0 5 1 0 5 1 0 5 1 5 0 1 5 0 1 5 0 1 a1n B .. . amn B ... .. . ... = 0 5 1 0 5 1 0 1 5 0 1 5 0 1 5 1 0 15 3 0 0 0 0 2 15 0 3 0 0 0 10 2 0 10 2 0 0 0 0 2 Calcul en terme de composante de y = f (x) 4.4 Proposition 78. Soient B et B 0 deux bases de E et F et f : E −→ F une application linéaire de E dans F . Soit MBB0 (f ) sa matrice dans les bases B et B 0 alors ∀x ∈ E, MB0 (f (x)) = MBB0 (f ) MB (x) au sens du produit de matrice. Ce | {z } | {z } vect.comp.col de y vect.comp.col de x qu’on écrit Y = AX Preuve : f : E = R2 −→ F = R2 , . Le but est de calculer f (1, 2) en terme de point et en terme de composante, (x, y) 7−→ (2x − y, x + y) grâce au calcul matriciel. Vérifions tout d’abord que f est R-linéaire. Exemple 4.4.1 Soit ∀(x, y), (x0 , y 0 ) ∈ R2 , α ∈ R, f (α(x, y)+(x0 , y 0 )) = f ((αx+x0 , αy+y 0 )) = (2(αx+x0 )−(αy+y 0 ), αx+x0 +αy+y 0 = (2αx−αy+ 2x0 −y 0 , αx+αy +x0 +y 0 ) = (α(2x−y), α(x+y))+(2x0 −y 0 , x0 +y 0 ) = α(2x−y, x+y)+(2x0 −y 0 , x0 +y 0 ) = αf (x, y)+f (x0 , y 0 ). Soit R2 munit de sa base canonique B = {e1 (1, 0); e2 (0, 1)}. On aura : f (e1 ) = f (1, 0) = (2, 1) = 2e1 + 1e2 2 −1 f (e2 ) = f (0, 1) = (−1, 1) = −e1 + e2 . Ainsi la matrice M atBB0 (f ) = 1 1 Voici un tableau récapitulatif pour calculer f (1, 2) f (1, 2) | {z } y = f (x) ⇔ Y = M atBB (f )M atB (x) f (1e1 + 2e2 ) | {z } point Composante 2 1 −1 1 1 2 f (1, 2) = (0, 3) | {z } f (1e1 + 2e2 ) = f (e1 ) + 2f (e2 ) = 2e1 + 1e2 + 2(−e1 + e2 ) = 0e1 + 3e2 | {z } (1, 2) = 1e1 + 2e2 , Ne tiens pas compte de la base Long : décomposer x puis calculer f (e1 ), f (e2 ) dans B et calculer/simplifier f (1e1 + 2e2 ). Besoin presque de tout refaire si x différent Rapide : une fois trouver la matrice, on décompose seulement le vecteur et on effectue le produit matriciel. point = 0 3 composante 4.5 Structure algébrique Mail: [email protected] Tous droits réservés Page no 34 sur 96 10 0 2 0 0 0 10 2 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Espace vectoriel (Mmn (K), +, •) 4.5.1 Proposition 79. Avec l’addition (lci) des matrices et la multiplication par un scalaire (lce), (Mmn (K), +, •) a une structure d’espace vectoriel sur K. Preuve : Anneau (Mn (K), +, ×) 4.5.2 Proposition 80. Avec l’addition (lci) des matrices et le produit de matrice (lci) (Mn (K), +, ×) a une structure d’anneau. Preuve : Algèbre (Mn (K), +, •, ×) 4.5.3 Proposition 81. Avec l’addition (lci) des matrices, la multiplication par un scalaire (lce) et le produit de matrice (lci) (Mn (K), +, •, ×) est une K-algèbre non commutative (sauf pour n = 1). Preuve : Matrice inversible dans (Mn (K), +, ×) 4.6 4.6.1 Définition Définition 82. Soit A une matrice carrée de taille n × n, s’il existe une matrice B carrée de taille n × n telle que AB = In et BA = In alors on dit que A est inversible et on appelle B un inverse de A. Si A est une matrice inversible, son inverse est souvent noté A−1 (ne pas confondre avec l’opposé de A que l’on note −A). Une matrice inversible est aussi dite régulière ou non singulière. 3 0 Exemple 4.6.1 La matrice A = est-elle inversible ? Supposons que oui nous aurons alors une matrice B = 5 0 b11 b12 b11 b12 3 0 ∗ 0 telle que le produit BA = = . Cette dernière ne peut jamais être égale à la b21 b22 b21 b22 5 0 ∗ 0 matrice unité, nous en concluons que A n’est pas inversible L’ensemble des matrices carrées inversibles se note GLn (K) 4.6.2 Structure algébrique : groupe (GLn (K), ×) Proposition 83. (GLn (K), ×) a une structure de groupe dit groupe linéaire des matrices carrées d’ordre n. Mail: [email protected] Tous droits réservés Page no 35 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Preuve : 4.6.3 Unicité Proposition 84. Si B et C sont des inverses de A alors B = C. Preuve : On BA = AB = I et CA = AC = I donc B = BI = B(AC) = (BA)C = IC = C a b d −b 1 Exemple 4.6.2 Considérons les matrices carrées d’ordre 2. A = et B = ad−bc . On a alors AB = c d −c a 1 0 d −b 1 1 (ad − bc) = I2 donc A est inversible ssi ad − bc 6= 0 et alors A−1 = B = ad−bc BA = ad−bc 0 1 −c a 4.6.4 Inversion d’un produit Proposition 85. Dans (Mn (K), +, ×) où + est l’addition de matrice et × le produit de deux matrices alors si A1 , A2 , ..., An sont −1 −1 des matrices inversibles pour × alors (A1 A2 ....An )−1 est inversible et A−1 n An−1 ....A1 . En particulier si A et B −1 −1 −1 sont des matrices inversibles pour × alors AB est inversible et (AB) = B A Preuve : , comme 2.3 − 5.1 6= 0 A est inversible, on a alors Exemple 4.6.3 Considérons la matrice carrée d’ordre 2. A = 3 −1 −9 −4 −1 −4 A−1 = . De plus pour B = alors −9.1 − 2(−4) = −9 + 8 = −1 6= 0 donc B −1 = −5 2 2 1 2 9 2 1 −9 −4 −16 −7 De là AB = . = 5 3 2 1 −39 −17 −1 −4 3 −1 17 −7 −1 −1 −1 Enfin (AB) = B A = . = 2 9 −5 2 −39 16 −16 −7 17 −7 −272 + 273 0 1 0 −1 On a alors bien (AB)(AB) = . = = = I2 −39 −17 −39 16 0 273 − 272 0 1 4.6.5 2 5 1 3 Inversion par bloc Proposition 86. Soient A, D des matrices carrées. −1 A 0 0 D−1 A 0 0 D est inversible ssi A et D le sont. On a alors A 0 0 D −1 = Preuve : Exemple 4.6.4 Soit M = donc A −1 = −1 1 −1 −3 2 2 1 0 0 Mail: [email protected] = 3 1 0 0 0 0 2 1 −1 1 0 0 2 alors A = 1 3 1 3 1 comme ad − bc = −1 on en déduit que A est inversible 3 −2 Tous droits réservés Page no 36 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES 0 0 −1 3 1 −2 0 0 = 0 0 −1 3 1 −2 0 0 Ainsi M −1 = 4.7 A 0 0 A −1 = A−1 0 0 A−1 Puissance d’une matrice Définition 87. −1 −m = |A−1 A−1 Soit A une matrice n × n. On définit Am = AA...A | {z } . Si A est inversible, on définit A {z ...A }. Par m f acteurs m f acteurs convention A0 = In . Proposition 88. Soit A une matrice inversible alors : 1. A−1 est inversible et (A−1 )−1 = A 2. Am est inversible et (Am )−1 = A−1 A−1 ....A−1 = (A−1 )m = A−m 3. kA est inversible si k 6= 0 et (kA)−1 = k1 A−1 Preuve : 4.8 Formule (A + B)n (binôme) 4.8.1 Proposition 89. ∀n ∈ N, A ∈ Mn (K) avec AB = BA alors (A + B)n = n X Cnk An−k B k = k=0 n X Cnk Ak B n−k k=0 Preuve : An − B n 4.8.2 Proposition 90. ∀n ∈ N, A ∈ Mn (K) avec AB = BA ? alors An − B n = n−1 X An−k−1 B k k=0 Preuve : ya t’il une relatrion equi a mettre dans le volume ens finiinfini 4.8.3 An + B n , (n impaire) Proposition 91. Si n est impaire et A ∈ Mn (K) avec AB = BA ? alors An + B n = (A + B) n−1 X (−1)k An−k−1 B k k=0 Mail: [email protected] Tous droits réservés Page no 37 sur 96 CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES Preuve : ya t’il une relatrion equi a mettre dans le volume ens finiinfini Mail: [email protected] Tous droits réservés Page no 38 sur 96 Chapitre 5 Existence de matrice inversible : déterminant Nous allons ici traiter d’une possibilité pour trouver l’existence d’une matrice inversible, qui sera le déterminant. Il en existe d’autre qui seront vu tout au long de ce volume. Un bilan sur les théorèmes d’existences sera donné en fin de volume (renvoyant au démonstration). 5.1 Déterminant d’une matrice Le but sera donc de construire une fonction appelée déterminant qui associe à chaque matrice carrée d’ordre n un nombre a b réel et qui permettra de caractériser facilement les matrices inversibles. Nous avons vu dans l’exemple ? que si A = c d d −b 1 alors A−1 = ad−bc et donc que A, matrice carrée d’ordre 2, est inversible ssi ad − bc 6= 0. Ainsi nous dirons que −c a det(A) = ad−bc et que A est inversible ssi det(A) 6= 0. Nous allons généraliser cette notion à des matrices carrées de taille n×n. 5.1.1 Permutation Voici un rappel issu du volume sur les ensembles finis et infinis. Définition 92. Soit card(E) = n. On appelle permutation de E ou substitution de E une liste à n éléments pris dans n éléments de E. Il y a ordre, pas de répétition et pas d’omission. C’est aussi une bijection de E dans E, d’après la proposition ? . L’ensemble des permutations de E est noté σ(E) ou Sn si E = {1, ..., n} Notation : Si E = {1, ..., n} on écrit un élément de Sn , σ = 1 2 3 σ(1) σ(2) σ(3) ··· ··· n σ(n) Exemple 5.1.1 Soit σ6 définie par σ(1) = 2, σ(2) = 4, σ(3) = 5, σ(4) = 6, σ(5) = 3 et σ(6) = 1 alors σ se note 1 2 3 4 5 6 σ= ou plus simplement σ = (2 4 5 6 3 1). 2 4 5 6 3 1 Il y a deux permutations dans l’ensemble {1, 2}. σ1 = (1, 2) et σ2 = (2, 1). σ1 est l’identité car σ1 (1) = 1 et σ1 (2) = 2. Il y a 6 permutations dans l’ensemble {1, 2, 3} qui sont σ1 = (1, 2, 3), σ2 = (1, 3, 2), σ3 = (2, 1, 3), σ4 = (3, 2, 1), σ5 = (2, 3, 1) et σ6 = (3, 1, 2). Nous avons vu dans le volume sur les ensembles finis et infinis que le nombre de permutation d’un ensemble E ou le nombre de bijection sur E est n! = 1.2...n 5.1.2 Inversion Définition 93. Dans une permutation on a une inversion si un nombre plus grand précède un nombre plus petit. De manière plus précise, le nombre d’inversion d’une permutation σ = (σ(1), σ(2), ..., σ(n)) = (j1 , j2 , ...,n ) est la somme du nombre de successeur de j1 plus petit que j1 plus le nombre de successeur de j2 plus petit que j2 plus ... le nombre de successeur de jn−1 plus petit que jn−1 Exemple 5.1.2 Soit la permutation σ = (4, 2, 5, 3, 1). 4 à 3 successeurs plus petits, 2 à 1 successeurs plus petit, 5 en à 2 et 3 en a 1 donc le nombre d’inversion de σ est 3 + 1 + 2 + 1 = 7. La permutation σ = (6, 1, 3, 4, 5, 2) contient 5 + 0 + 1 + 1 + 1 = 8 inversions. 5.1.3 Signature 39 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT Définition 94. Une permutation σ ayant un nombre paire d’inversion est appelée permutation paire sinon elle est dite permutation impaire. On définit la signature de la permutation σ comme suit : 1 si σ est paire sign(σ) = −1 si σ est impaire Exemple 5.1.3 Soit les permutations de {1, 2, 3} Permutation (1, 2, 3) (1, 3, 2) (2, 1, 3) (2, 3, 1) (3, 1, 2) (3, 2, 1) nombre d’inversion 0 1 1 2 2 3 parité paire impaire impaire paire paire impaire signature 1 −1 −1 1 1 −1 Proposition 95. Soit n ≥ 1, i, j ∈ {1, ..., n} avec i < j et σ ∈ Sn . On pose σ 0 = (σ(1), ..., σ(i − 1), σ(j), σ(i + 1), ..., σ(j − 1), σ(i), σ(j + 1), ...σ(n)) alors sign(σ) = −sign(σ 0 ) Preuve : 5.1.4 Produit élémentaire de scalaire signé d’une matrice Définition 96. a11 . . . a1n .. .. une matrice carrée de taille n × n, un produit élémentaire de scalaire Soit la matrice A = ... . . an1 . . . ann de A est le produit de n éléments de A, choisis de façon qu’aucun n-uplet d’entre eux ne provienne de la même ligne ou de la même colonne. Autrement dit, tous les éléments du produit sont dans les lignes et des colonnes différentes. Exemple 5.1.4 Les a11 a12 de A = a21 a22 a31 a32 a11 a21 produits élémentaires de la matrice A = a13 a23 sont a11 a22 a33 ; a11 a32 a23 ; a21 a12 a33 ; a33 a12 a22 sont a11 a22 et a12 a21 . Les produits élémentaires a21 a32 a13 ; a31 a12 a23 ; a31 a22 a13 Comme le corps K est supposé commutatif, on peut ordonner les facteurs des produits élémentaires comme suit : a11 aa; a13 aa; a11 aa; aaa ; a12 aa a13 aa On constate qu’un produit élémentaire de A est un produit a1j1 a2j2 a3j3 (donc le nombre de produit est 3! = 6). En généralisant, un produit élémentaire de A est un produit a1j1 a2j2 a3j3 ...anjn où (j1 , j2 , ..., jn ) ∈ Sn et le nombre de produit élémentaire est alors n!. Définition 97. Un produit élémentaire de scalaire signé d’une matrice A est un produit sign(σ)a1j1 a2j2 a3j3 ...anjn ou σ = (j1 , ..., jn ) est une permutation à n éléments. Mail: [email protected] Tous droits réservés Page no 40 sur 96 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT a11 a12 Exemple 5.1.5 Les produits élémentaires de scalaires signés de A = sont sign(σ)a1a2=sign( a21 a22 a11 a12 a13 Les produits élémentaires de scalaires signés de A = a21 a22 a23 sont : a31 a32 a33 a11 a22 a33 ; 5.1.5 −a11 a23 a32 ; −a12 a21 a33 ; a12 a23 a31 ; a13 a21 a32 ; − a13 a22 a31 Déterminant Définition 98. Le déterminant d’une matrice carrée A d’ordre n est le nombre obtenu en effectuant la somme de tous les produits élémentaires signés de A. Il est noté det(A). det(A) = X sign(σ)a1j1 a2j2 ...anjn où σ = (j1 , ..., jn ). On note aussi det(A) = |A|. σ∈Sn a11 a12 = a11 a22 − a12 a21 Exemple 5.1.6 Si A = alors det(A) = a21 a22 a11 a12 a13 a11 a12 a13 Pour la matrice A = a21 a22 a23 on aura det(A) = a21 a22 a23 = sign(1, 2, 3)a11 a22 a33 +sign(1, 3, 2)a11 a23 a32 + a31 a32 a33 a31 a32 a33 sign(2, 1, 3)a12 a21 a33 + sign(2, 3, 1)a12 a23 a31 + sign(3, 1, 2)a13 a21 a32 + sign(3, 2, 1)a13 a22 a31 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 a11 a21 a12 a22 Proposition 99. Soit A une matrice carrée alors A est inversible ssi det(A) 6= 0 et dans ce cas |A−1 | = 1 |A| Preuve :algebre lineaire 3.pdf 41/160 Proposition 100. Soient A et B deux matrices carrées de taille n × n alors det(AB) = det(A)det(B) Preuve :algebre lineaire 3.pdf 41/160 Remarque : En général det(A + B) 6= det(A) + det(B) Proposition 101. Soient A une matrice carrée de taille n × n alors det(A) = det(AT ) et det(e1 , ..., en ) = 1 Preuve :pour 1)algebre lineaire 3.pdf 42/160 (pour 2) algebre licence.pdf 66/144) Proposition 102. Si M ∈ Mn (K) alors det(αM ) = αn det(M ) Preuve : Mail: [email protected] Tous droits réservés Page no 41 sur 96 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT Proposition 103. 1. Si une matrice A contient deux colonnes (resp. deux lignes) identiques alors det(A) = 0 2. Une matrice A ayant une colonne (resp. une ligne) nulle est telle que det(A) = 0 Preuve : 5.2 Calcul du déterminant en pratique 5.2.1 Règle de Sarrus pour les matrices 2 × 2 et 3 × 3 La règle de Sarrus est une méthode pour calculer le déterminant de matrices 2 × 2 ou 3 × 3 matrice 2 × 2 Soit det(A) = a11 a22 − a12 a21 matrice 3 × 3 Soit det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 Attention : Cette méthode ne s’applique pas pour les matrices de dimension supérieures à 4. 2 1 0 Exemple 5.2.1 Calculons 1 0 1 on a d’après la règle de Sarrus : 0 0 1 d’où det(A) = −1 5.2.2 Sous-matrice Définition 104. soit A ∈ Mn,p (K). On appelle sous-matrice de A ou matrice extraite de A, toute matrice obtenue en supprimant une ou plusieurs lignes et/ou colonnes de A 1 Exemple 5.2.2 Soit A = 4 1 5.2.3 3 2 8 5 1 7 alors 4 9 3 2 , 4 2 7 1 et 4 1 5 7 sont des sous-matrices de A. 9 Mineur et cofacteur Mail: [email protected] Tous droits réservés Page no 42 sur 96 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT Définition 105. Soit A = (aij ) une matrice de taille n × n. On appelle mineur de l’élément aij le déterminant de la sous-matrice obtenue en éliminant la i-ème ligne et la j-ème colonne de la matrice A. On le note alors Mij . On appelle cofacteur de aij la quantité Cij = (−1)i+j Mij avec : a11 a21 .. . et Mij = ai−1,1 ai+1,1 .. . an1 1 Exemple 5.2.3 Soit A = 4 0 2 2 0 a12 a22 .. . ... ... .. . a1,j−1 a2,j−1 .. . a1,j+1 a2,j+1 .. . ... ... .. . a1n a2n ai−1,2 ai+1,2 .. . ... ... .. . ai−1,j−1 ai+1,j−1 .. . ai−1,j+1 ai+1,j+1 .. . ... ... .. . ai−1,n ai+1,n an2 ... an,j−1 an,j+1 ... ann 3 1 . Calculons M11 , C11 , M32 et C32 1 d’où C11 = (−1)1+1 M11 = 2 d’où C32 = (−1)3+2 (−11) = 11 Pour + − + .. . déterminer si Cij = Mij ou Cij = −Mij on peut regarder si i + j est paire ou impaire ou utiliser le schéma suivant − + − ... + − +... donc C11 = M11 , C12 = −M12 , C21 = −M21 etc. − + − ... .. .. .. .. . . . . a11 a12 a13 Soit une matrice de taille 3 × 3, A = a21 a22 a23 Nous savons que |A| = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a31 a32 a33 a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . On peut alors le réecrire de la façon suivante |A| = a11 (a22 a33 − a23 a32 ) + a12 (a23 a31 − a21 a33 ) + a13 (a21 a32 − a22 a31 ). Nous voyons que les termes entre parenthèses sont les cofacteurs des éléments a11 , a12 et a13 donc |A| = a11 C11 + a12 C12 + a13 C13 . 1 2 3 Exemple 5.2.4 Soit la matrice carrée de taille 3 × 3 avec A = 4 2 1 on aura alors det(A) = 1C11 + 2C12 + 3C13 = 0 1 1 2 1 4 1 4 2 + 2. 1. 0 1 + 3. 0 1 = 1 − 8 + 15 = 5 1 1 Nous aurions de manière analogue |A| = a11 C11 + a12 C12 + a13 C13 (développement en cofacteur par rapport à la 1ere ligne) |A| = a21 C21 + a22 C22 + a23 C23 (développement en cofacteur par rapport à la 2-ème ligne) |A| = a31 C31 + a32 C32 + a33 C33 (développement en cofacteur par rapport à la 3-ème ligne) mais aussi |A| = a11 C11 + a21 C21 + a31 C31 (développement en cofacteur par rapport à la 1ere colonne) |A| = a12 C12 + a22 C22 + a32 C32 (développement en cofacteur par rapport à la 2-ième colonne) |A| = a13 C13 + a23 C23 + a33 C33 (développement en cofacteur par rapport à la 3-ièmee colonne) Mail: [email protected] Tous droits réservés Page no 43 sur 96 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT Proposition 106. Le développement du déterminant en cofacteur par rapport à la i-ème ligne est det(A) = ai1 Ci1 + ai2 Ci2 + ... + ain Cin . Le développement du déterminant en cofacteur par rapport à la j-ème colonee est det(A) = a1j C1j + a2j C2j + ... + anj Cnj Preuve : Remarque : L’utilisation d’un développement en cofacteur se nomme aussi développement par rapport à une ligne ou à une colonne. mettre qq part det d’une matrice trianguliare> et < et matrice diag=>besoin pour Gauss Proposition 107. Si k 6= i, ak1 Ci1 + ak2 Ci2 + ... + akn Cin = 0 Preuve : 5.3 Autre application du déterminant 5.3.1 Aire On se place dans le plan usuel R2 rapporté à sa base canonique (e1 , e2 ). On se donne deux vecteurs ~u et ~v et l’on s’intéresse au parallélogramme P~u,~v de côté ~u et ~u Proposition 108. Aire(P~u,~v ) = |det(~u, ~v )| Preuve : Proposition 109. Soit f ∈ L(R2 ) et A une partie de R2 dont l’aire vaut a alors l’aire de f (A) vaut |det f | × a. En d’autres termes un endomorphisme f multiplie les aires par |det f | Preuve : 5.3.2 Volume Soient ~u, ~v , w ~ trois vecteurs de R3 munit de sa base canonique (e1 , e2 , e3 ) Notons P le parallélépipède formé par ~u, ~v , w ~ Mail: [email protected] Tous droits réservés Page no 44 sur 96 CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT Proposition 110. Le volume de P vaut |det(~u, ~v , w)|. ~ Un endomorphisme f de R3 multiplie les volumes par |det f | Preuve : Mail: [email protected] Tous droits réservés Page no 45 sur 96 Chapitre 6 Existence de matrice inversible : th du rang On rappelle que si A = {x1 , ..., xp } est une partie (famille) de l’e.v E de dimension n de base B = {e1 , ..., en } alors la dimension de l’e.v engendré par A (plus petit pour l’inclusion contenant A) est appelée le rang de A et sera notée rang(A) ou rg(A) voire dim(V ect(A)). Si A est un e.v de dimension m alors rg(A) = m. Enfin comme f ∈ L(E, F ) est telle que f (E) est un sous-espace vectoriel de F , on appellera rang de l’application linéaire f , le rang (c’est-à-dire sa dimension) de Im(f ) = f (E) 6.1 Rang d’une matrice Définition 111. Le rang d’une matrice est le rang de l’application linéaire de E dans F associée à la matrice. Proposition 112. Le rang d’une matrice est le rang de la famille des vecteurs colonne ou de la famille des vecteurs lignes. Preuve : ? ? ? 6.2 noyau et nullité d’une matrice Définition 113. Soit f ∈ L(E, F ). L’ensemble des X ∈ Kn tel que AX = 0 est appelé noyau de A ou nilespace de A et sera noté Ker A Proposition 114. Ker A := {X ∈ Mn1 (K)|AX = 0} est un sous-espace vectoriel de Kn . Preuve : ? ? ? Définition 115. Soit A une matrice. La nullité de A est par définition la dimension du noyau de A et est notée null(A) 6.3 Théorème du rang Le théorème du rang permet de lier le rang d’une application linéaire (dim f (E)) et la dimension de son noyau (dim Ker f ) ou en terme de matrice rg A et null A. Il permet aussi de caractériser l’existence de l’inversibilité d’une matrice par son rang. Proposition 116. Soit A une matrice à n colonnes. On a alors rg(A) + null(A) = n Preuve : ? ? ?alpgebre lineaire 3.pdf 98/160 46 Chapitre 7 Calcul de matrice inversible : cofacteur Après avoir donné deux manières de déterminer l’existence d’une matrice inverse (déterminant et rang) nous allons maintenant chercher à exprimer de façon explicite la matrice inverse. La méthode sera ici celle des cofacteurs mais il en existe d’autre comme nous le verrons plus loin (pivot de Gauss). 7.1 Co-matrice Définition 117. C11 C21 On appelle co-matrice la matrice des cofacteurs de la matrice A. com(A) = C = ... Cn1 C12 C22 ... Cn2 ··· ··· ... ··· C1n C2n ... Cnn Exemple 7.1.1 7.2 Matrice adjointe Définition 118. On appelle matrice adjointe de A la matrice C T (transposée de la co-matrice) et sera notée adj(A) soit adj(A) = C11 C21 · · · Cn1 C12 C22 · · · Cn2 CT = ... ... ... ... C1n C2n · · · Cnn Exemple 7.2.1 7.3 Méthode des cofacteurs Proposition 119. Si det(A) 6= 0 alors A−1 = 1 det(A) adj(C) | {z } CT a11 a12 · · · a1n a21 a22 · · · a2n C11 C21 · · · Cn1 . . . . . . . . . . . . C12 C22 · · · Cn2 T Preuve : Calculons AC T = ai1 ai2 · · · ain . . . . . . . . . . . . . Dans le produit AC , l’élément de la ... ... ... ... C1n C2n · · · Cnn an1 an2 · · · ann T i-ème ligne et de la j-ième colonne est ai1 Cj1 + ai2 Cj2 + ... + ain Cjn donc d’après la proposition ? ? ? on aura AC = det(A) 0 ··· 0 0 det(A) · · · 0 = det(A).In . On en déduit que si det(A) 6= 0 i.e que A est inversible alors AC T = ... ... ... ... 0 0 · · · det(A) 1 adj(C) det(A)I ⇔ A−1 AC T = A−1 det(A)I ⇔ A−1 det(A)I = C T ⇔ det(A)A−1 = C T ⇔ A−1 = det(A) 47 CHAPITRE 7. 0 1 1 on a 0 1 1 CALCUL DE MATRICE INVERSIBLE : COFACTEUR 1 0 1 1 1 1 0 1 donc d’après la règle de Sarrus det(A) = 0 1 1 0 1 1 Exemple 7.3.1 Soit la matrice A = 0 1 1 0 1+1+1−0−0−0=2 1 −1 −1 + − La matrice formée des Mij est M = 1 1 −1 . La matrice des signes est alors S = − + 1 1 1 + − 1 1 −1 1 −1 1 1 −1 1 d’où la matrice adjointe, adj(A) = C T = 1 des cofacteurs est C = −1 1 1 −1 1 −1 1 1 1 −1 1 1 −1 Nous obtenons alors A−1 = 1/2 1 −1 1 1 Mail: [email protected] Tous droits réservés + − donc la matrice + Page no 48 sur 96 Chapitre 8 Elimination de Gauss-Jordan :pivot de Gauss L’élimination de Gauss-Jordan ou pivot de Gauss nommé en l’hommage à Carl Friedrich Gauss et Wilhelm Jordan est une méthode pour déterminer les solutions d’un système d’équations linéaires ainsi que le rang d’un matrice ou pour calculer l’inverse d’une matrice carrée inversible. Lorsque l’on applique l’élimination de Gauss sur une matrice on obtiendra sa forme échelonnée réduite, beaucoup plus simple qui permettra d’obtenir rapidement des résultats. Cette méthode est connue en fait des chinois depuis le 1er siècle. Elle y est référencée dans l’important livre chinois Jiuzhang suanshu ou les 9 chapitres sur l’art mathématiques. La méthode est présentée au moyen de 18 exercices sous le titre "Fang cheng" c’est-à-dire "la disposition rectangulaire". Dans son commentaire très détaillé daté de 263 Liu Hui en attribue la paternité à Chang Ts’ang chancelier de l’empereur de Chine au 2ième siècle avant notre ère. 8.1 Matrices et opérations élémentaires 8.1.1 Définition Définition 120. On dit qu’une matrice E est élémentaire si elle peut être obtenue par une seule opération (manipulation) sur les lignes (ou les colonnes) de la matrice unité. Il y a trois types de matrices élémentaires correspondant aux trois opérations élémentaires (manipulation) 1. La matrice Ei (c) est la matrice élémentaire obtenue en multipliant par c la i-ème ligne de In où c ∈ C 2. La matrice Eij est la matrice élémentaire obtenue en permutant les i-ème et j-ième lignes de In 3. La matrice Eij (c) est la matrice élémentaire obtenue en ajoutant c fois la j-ème ligne de In à la i-ème ligne. 1 0 0 0 0 5 0 0 Exemple 8.1.1 E2 (5) = 0 0 1 0 est une matrice élémentaire dite de dilatation 0 0 0 1 1 0 0 0 0 0 0 1 E24 = E42 = 0 0 1 0 est une matrice élémentaire dite de de permutation 0 1 0 0 1 0 0 0 −5 1 0 0 E21 (−5) = 0 0 1 0 est une matrice élémentaire dite de transvection 0 0 0 1 Proposition 121. Si la matrice élémentaire E est le résultat d’une opération élémentaire effectuée sur In , alors pour toute matrice A de taille m × n, le produit EA est égal à la matrice obtenue en effectuant la même opération élémentaire sur A. Ainsi multiplier une matrice sur la gauche par Eij revient à échanger les lignes i et j de A. Multiplier A sur la gauche par Ei (c) revient à multiplier la ligne i de A par c. Enfin multiplier A sur la gauche par Eij (c) revient à ajouter c fois la j-ième ligne à la i-ème ligne. Preuve : 49 CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS 2 0 a11 a12 a13 2a11 2a12 2a13 Exemple 8.1.2 E1 (2).A = = 0 1 a21 a22 a23 a21 a22 a23 1 0 0 a11 a12 a11 a12 E23 .A = 0 0 1 a21 a22 = a31 a32 0 1 0 a a32 a21 a22 31 1 0 0 a11 a11 E21 (9).A = 9 1 0 a21 = 9a11 + a21 0 0 1 a31 a31 Proposition 122. Toute matrice élémentaire est inversible. En particulier : 1. [Eij (c)]−1 = Eij (−c) −1 2. Eij = Eij 3. [Ei (c)]−1 = Ei (1/c) Preuve : 1 0 1 Exemple 8.1.3 Soient E21 (−4) = alors son inverse est E21 (4) = −4 1 4 1 0 1 0 1 0 1 0 et 0 1 4 1 −4 1 0 1 0 1 1 . En effet −4 0 1 1 4 0 1 = Proposition 123. Soit A une matrice de taille n × n et soit E une matrice élémentaire (Ei (k), Eij ou Eij (k)) alors 1. det(Ei (k)) = k 2. det(Eij ) = −1 3. det(Eij (k)) = 1 Preuve :algebre lineaire 3.pdf 37/160 8.1.2 Matrice équivalente par ligne Définition 124. Une matrice A est ligne-équivalente ou équivalente par ligne a une matrice B si B peut être obtenue à partir de A par un nombre fini d’opération élémentaire de lignes. Dit autrement B = E1 E2 ...Ei A où Ei sont des matrices | {z } P élémentaires. Remarque : P est inversible et en général n’est pas unique. Proposition 125. l La ligne-équivalence est une relation d’équivalence. On note alors A ∼ B Preuve : Mail: [email protected] Tous droits réservés Page no 50 sur 96 CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS Proposition 126. Soient A et B deux matrices ligne-équivalente alors 1. Les lignes de B sont des combinaisons linéaires de A l 2. ∀C ∈ Mm,n (K) tel que AC et BC existent alors AC ∼ BC Preuve : Proposition 127. Pour toute matrice A de taille n × n, les affirmations suivantes sont équivalentes : 1. A est inversible 2. A est équivalent par ligne à In 3. A est un produit de matrices élémentaires. Preuve : 8.2 Matrice augmentée Définition 128. Soit A et B deux matrices ayant le même nombre de lignes, on appelle matrice augmentée la matrice (A|B) formée des deux blocs A et B. De même si Aet B sont deux matrices ayant le même nombre de colonnes, on A appelle matrice augmentée la matrice . . . formée des deux blocs A et B. B Exemple 8.2.1 a faire 8.3 Matrice échelonnée et échelonnée réduite On nommera une ligne/colonne non nulle dès lorsqu’au moins un de ses éléments n’est pas nul. Le 1er élément d’une ligne le plus à gauche non nul est dit élément de tête. Définition 129. Une matrice Mm,n (K) est dite sous forme échelonnée ou sous forme échelonnée par rapport aux lignes si : – Toutes ses lignes non nulles sont situées au-dessus de ses lignes nulles, – Chaque élément de tête d’une ligne se trouve dans une colonne à droite de l’élément de tête de la ligne précédente, – Tous les éléments de la colonne sous un élément de tête sont nuls. Définition 130. Une forme échelonnée réduite ou forme échelonnée réduite par rapport aux lignes est une matrice échelonnée satisfaisant aux conditions supplémentaires : – L’élément de tête de chaque ligne non nulle vaut 1, – Chaque 1 de tête de ligne est le seul élément non nul de sa colonne. Dit autrement en terme de colonne, s’il y a un élément de tête égal à 1 le reste sont des éléments 0. Mail: [email protected] Tous droits réservés Page no 51 sur 96 CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS Remarque : Dans la plupart des ouvrages on abrège en parlant de matrice échelonnée et de matrice échelonnée réduite. Exemple 8.3.1 1 et A = 0 0 0 1 0 2 −3 2 2 Les matrices triangulaires comme A = 0 1 0 sont échelonnées. De plus A = 0 0 0 3 0 0 29 0 16 sont échelonnées, la dernière étant échelonnée réduite. 1 3 −3 2 1 −4 0 0 1 8 5 Remarque : Les éléments de tête de chaque ligne forment un échelon, comme une marche d’un escalier qui descend de gauche à droite. L’échelon porte aussi le nom de pivot. On dit que l’on a triangulé la matrice. Proposition 131. (Existence et unicité) Une matrice A est équivalente par ligne à une et une seule matrice échelonnée réduite U . Preuve : Définition 132. Si U est une matrice échelonnée équivalente par ligne à A on dit que U est une forme échelonnée de A. Dans le cas où U serait une matrice échelonnée réduite équivalente par ligne à A on dira que U est une forme échelonnée réduite de A Exemple 8.3.2 Soit la matrice 0 0 0 1/3 3 1 3 0 3 0 1 0 1 0 1/3 1 alors l1 → l2 : 0 0 1 3 soit l1 → 1/3l1 : 0 0 1 3 2 0 3 1 2 0 3 1 2 0 1 0 1/3 ou encore l3 → l3 − l2 : 0 0 1 3 A ce stade nous avons une matrice 0 0 0 −2 0 3 3 1 0 1 0 1 0 d’où l3 → l3 − 3l2 : 0 0 1 0 0 1 échelonnée non réduite. 0 1 0 1/3 3 Cette matrice n’est pas réduite à cause du 1/3 et 3 (1) De là l3 ↔ −1/2l3 : 0 0 1 0 0 0 1 0 1 0 1/3 0 1 0 1/3 0 0 soit l2 → −1/2l2 : 0 0 1 0 ou encore l1 → l1 − 1/3l3 : 0 l2 ↔ l2 − 3l3 : 0 0 −2 0 0 0 1 0 0 0 1 0 C’est l’unique matrice échelonnée réduite. 1 0 0 0 1 0 0 0 1 L’ensemble des étapes du début de l’exemple jusqu’à (1) porte le nom de phase descendante ou vers l’avant tandis que de l’étape (1) jusqu’à la fin et qui conduit à l’unique forme échelonnée réduite est appelée phase de remontée ou vers l’arrière. Remarque : Certains logiciel sélectionne comme pivot dans une colonne le plus grand élément en valeur absolu afin de réduire les erreurs d’arrondi dans les calculs. Cette stratégie est appelée du pivot partiel. La phase de descente de la réduction par rapport aux lignes est en général plus longue que la phase de remontée. =>mettre dans calcul numérique et approximation, le nbre d’opération Mail: [email protected] Tous droits réservés Page no 52 sur 96 Chapitre 9 Application de l’élimination de Gauss-Jordan 9.1 Inverse d’une matrice Pour déterminer l’inverse d’une matrice A inversible, il suffit de faire des opérations élémentaires sur A pour trouver In i.e Er Er−1 ...E1 A = In. En pratique on forme la matrice augmentée (A|In ) puis (E1 A|E1 In )... (Er Er−1 ...E1 A|Er Er−1 ...E1 In ) {z } | A−1 soit (In |A−1 ) 1 2 1 1 1 2 1 0 Exemple 9.1.1 Calculons l’inverse de A = 4 0 −1 . On a alors (A|In ) = 4 0 −1 −1 2 2 −1 2 2 0 1 0 0 1 0 0 1 2 1 1 2 1 −4 1 0 ou encore l3 → l3 + l1 : 0 −8 −5 −4 1 0 l2 → l2 − 4l1 : 0 −8 −5 0 0 1 1 0 1 −1 2 2 0 4 3 1 0 0 1 2 1 1 0 0 1 2 1 1/2 −1/8 0 ou l3 → l3 − 4l2 : 0 1 5/8 1/2 −1/8 0 d’où l2 → −1/8l2 : 0 1 5/8 0 4 3 0 0 1/2 1 0 1 −1 1/2 1 1 2 1 1 2 1 1 0 0 1 0 0 1/2 −1/8 0 ou l2 → l2 − 5/8l3 : 0 1 0 7/4 −3/4 −5/4 d’où l3 → 2l3 : 0 1 5/8 −2 1 2 −2 1 2 0 0 1 0 0 1 1 0 0 −1/2 1/2 1/2 −2 2 2 7/4 −3/4 −5/4 Ainsi A−1 = 14 7 −3 −5 l1 → l1 − 2l2 − l3 : 0 1 0 0 0 1 −8 4 8 −2 1 2 9.2 0 1 0 0 0 soit 1 ce qui donne Déterminant Cette méthode consiste à remplacer la matrice par une matrice triangulaire en utilisant seulement des permutations de lignes/colonnes et des ajouts à une ligne d’un multiple d’une autre ligne/colonne de manière à faire apparaitre un maximum de 0. Proposition 133. Soit A une matrice carrée : – Si on multiplie une colonne (resp. une ligne) par α alors le déterminant est multiplié par α. Si on multiplie deux colonnes (resp. deux lignes)par α alors le déterminant est multiplié par α2 etc. – Si on échange deux colonnes (resp. deux lignes) on change le déterminant en son opposé – On ne change pas le déterminant en ajoutant à une colonne (resp. une ligne) une combinaison linéaire des autres colonnes (resp. des autres lignes). Preuve : ? ? ? Principe : – On choisit dans la matrice un terme non nul aij (en général le 1er en haut à gauche) que l’on appelle le pivot. – Si le terme choisi n’est pas a11 on peut en permutant les lignes 1 et i et les colonnes 1 et j ce qui le met en bonne position. On obtient alors une matrice A0 telle que det(A0 ) = (−1)i+j det(A) k1 – On élimine tous les termes situés sous le pivot a11 en ajoutant à la ligne k la ligne 1 multipliée par −a a11 . Cette opération ne change pas le déterminant. – On recommence ensuite le même processus dans la sous-matrice privée de sa 1ere ligne et de sa 1ere colonne. – On obtient alors à la dernière étape une matrice triangulaire dont le déterminant est égal au déterminant de la matrice de départ. 53 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN Si nous arrivons à écrire A = E1 ....Er D où D est une matrice triangulaire alors d’après la proposition on aura det(A) = det(E1 )....det(Er )a11 .a22 ...ann 0 1 5 3 −6 9 Exemple 9.2.1 Soit A = 3 −6 9 On alors A = E12 0 1 5 2 6 1 2 6 1 1 −2 3 1 −2 3 3 −6 9 3 −6 9 d’où det(A) = det(E12 ) 0 1 5 = (−1) 0 1 5 = (−1)det(E1 (3)) 0 1 5 = −1.3 0 1 5 2 6 1 2 6 1 2 6 1 2 6 1 1 −2 1 −2 1 −2 3 1 − 3 3 2 3 = −3.1 0 1 5 = 5 = −3.1 0 1 5 = −3det(E32 (−10)) 0 1 5 =(-3)det(E31 (−2)) 0 1 0 0 −55 0 0 −55 0 10 −5 0 10 −5 −3.1.1.(−55) = 165 1 3 −2 4 1 3 −2 4 0 0 0 0 2 6 −4 8 Exemple 9.2.2 Soit A = 3 9 1 5 On a A = E21 (−2) 3 9 1 5 1 1 4 8 1 1 4 8 1 3 −2 4 0 0 0 0 =0 d’où det(A) = det(E21 (−2)) 3 9 1 5 1 1 4 8 −2 2 −3 Exemple 9.2.3 Soit la matrice A = −1 1 3 . Si on choisit −2 comme pivot alors si la 2ième ligne l2 on 2 0 −1 −2 2 −3 −2 2 −3 −2 2 −3 ajoute −1/2l1 on aura −1 1 3 = 0 0 9/2 . Puis si on remplace l3 par l3 + l1 on aura −1 1 3 = 2 0 −1 2 0 −1 2 0 −1 −2 2 −3 −2 2 −3 0 0 9/2 . en choisissant cette fois-ci 2 comme second pivot et en permutant les lignes 2 et 3 on aura −1 1 3 = 0 2 −4 2 0 −1 −2 2 −3 (−1) 0 2 −4 = (−1)(−2.2.9/2) = 18 0 0 9/2 9.3 Rang Proposition 134. Soit A une matrice, de matrice échelonnée U = p1 0 .. . ∗ p2 .. . 0 .. . ... .. . 0 0 ... ... ... ... .. . ∗ . . . pr .. .. . . 0 0 ∗ ∗ ∗ ∗ ∗ ∗ alors rg(A) = r ∗ ∗ .. .. . . 0 0 Preuve : ? ? ? 9.4 Bases de Ker f et Im f Soit f une application linéaire entre deux e.v de dimension finie. Soit A une matrice représentant f . On effectue uniquement des opérations élémentaires sur les colonnes de A pour obtenir une matrice échelonnée comme pour calculer le rang de A. Les colonnes de cette matrice échelonnée sont des combinaisons linéaires des colonnes de A donc en remontant les calculs et d’après le théorème du rang les colonnes nulles donnent une base de Ker f et les colonnes non nulles forment un base de Im f 9.5 Résolution d’un système d’équation linéaire : pivot de Gauss Mail: [email protected] Tous droits réservés Page no 54 sur 96 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN 9.5.1 Équation linéaire complète et homogène Définition 135. Soient E et F deux K-e.v. Soit f une application linéaire de E dans F . Soit b ∈ F on appelle équation linéaire complète ou avec second membre une équation de la forme f (x) = b. L’équation f (x) = 0F est dite équation linéaire homogène associée ou sans second membre. Si l’équation linéaire admet au moins une solution alors elle sera dite compatible sinon s’il n’y a pas de solution on parlera d’équation linéaire incompatible. Si E = Rn et F = R ou E = Cn et F = C alors les applications linéaires de E dans F s’écrivent sous la forme f (x) = f (x1 , ..., xn ) = a1 x1 + ... + an xn Si l’on cherche à résoudre f (x) = b ⇔ a1 x1 + ... + an xn = b on parlera donc d’équation linéaire (algébrique) dans les (ou des) variables (inconnues) x1 , ..., xn . Les éléments ai sont appelés les coefficients de la variable xi Exemple 9.5.1 Soient E = C et F = C. Une équation linéaire à une inconnue est de la forme ax = b avec a, b ∈ C. Si a 6= 0 alors cette équation admet une unique solution x = b/a. Si a = 0 et b 6= 0 il n’existe aucune valeur de x qui vérifie ax = b. Si a = 0 et b = 0 alors ∀x ∈ C, 0x = 0. L’équation admet alors une infinité de solution. Exemple 9.5.2 Soient E = R2 et F = R et l’équation linéaire f (w) = f (x, y) = a1 x + a2 y = b (équation d’une droite dans le plan) où a1 , a2 , b sont des constantes (paramètres) réels. C’est une équation linéaire de variable x et y. 2x21 + x2 = 1 ou y = sin x ne sont pas des équations linéaires puisque f : R2 −→ R f : R −→ R ou ne sont x = (x1 , x2 ) 7−→ 2x21 + x2 x 7−→ sin x pas linéaire. Soient E = R3 et F = R et l’équation linéaire f (w) = f (x, y, z) = a1 x + a2 y + a3 z = b (équation d’un plan dans l’espace). 2x + y 2 + z = 3 n’est pas une équation linéaire. Ce type d’équations linéaires sont implicites et ne donnent pas directement les valeurs que peuvent prendre les variables. Une solution d’équation linéaire est un n-uplet (s1 , ..., sn ) de valeurs des variables x1 , ..., xn qui satisfont à l’équation, autrement dit a1 s1 + ... + an sn = b Exemple 9.5.3 Soit f : R3 −→ R. Trouvons l’ensemble des solutions de l’équation linéaire f (x) = f (x1 , x2 , x3 ) = x1 − 4x2 + 13x3 = 5. Nous donnerons des valeurs arbitraires s et t à x2 et x3 de là x2 = s, x3 = t et x1 = 4s − 13t + 5. Ainsi S = {x1 = 4s − 13t + 5, x2 = s, x3 = t|(s, t) ∈ R2 } (c’est un plan de R3 ). Exemple 9.5.4 Si a1 = ... = an = b = 0 toute donnée (s1 , ..., sn ) de n éléments de Rn est solution donc l’équation linéaire admet Rn comme solution. Si a1 = ... = an = 0 et b 6= 0 l’équation linéaire n’a pas de solution et S = ∅ Nous introduisons ici la notion d’équation différentielle linéaire, que nous reprendrons plus en détail dans le volume d’équation différentielle. Ici nous prendrons deux e.v sur K, E = F(A, B) et F = F(A, B) avec A, B ⊆ C. Nous définissons l’application linéaire (a démontrer ? ? ? ou a mettre dans AL comme exemple ) de E dans F d’ordre n par F (f ) = a1 f +a2 f 0 +...+an f (n) où a1 , ..., an sont des fonctions numériques et f (n) la dérivée d’ordre n de f . Cette application linéaire sera dite application différentielle linéaire. Si a1 , ..., an sont des constantes (fonctions particulières) on parlera d’application différentielle linéaire à coefficients constants. Définition 136. Une équation différentielle linéaire (équation linéaire particulière) d’ordre n et d’inconnu y (au lieu de f ) est une équation de la forme F (y) = a1 y + a2 y 0 + ... + an y (n) = b où b est une fonction. Si b = 0 on parlera d’équation différentielle linéaire d’ordre n homogène associée. Exemple 9.5.5 ay + by 0 = c est une équation différentielle linéaire du premier ordre d’inconnue y (c’est une fonction). y” + y = 0 est une équation différentielle linéaire du second ordre à coefficient constant homogène. Mail: [email protected] Tous droits réservés Page no 55 sur 96 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN 9.5.2 Espace vectoriel des solutions de l’équation linéaire homogène Proposition 137. Si on a une équation linéaire homogène alors l’ensemble des solutions est un sous-espace vectoriel de E Preuve : ? ? ? Exemple 9.5.6 faire exemple aussi avec equ diff mais tres simple+preciser base 9.5.3 Espace affine des solutions de l’équation linéaire complète Proposition 138. Si une équation linéaire est compatible alors l’ensemble des solutions est un espace affine, dirigé par le noyau. En notant x0 une solution particulière de l’équation complète, l’espace solution est de la forme S = x0 + Ker f = {x0 + k, k ∈ Ker f }. De plus si dim E = n alors dim S = n − 1=> qu’appelle ton dim d’un espace affine ? et sans parler de matrice Preuve : ? ? ? Exemple 9.5.7 faire exemple aussi avec equ diff mais tres simple D’après la propo ? ? ? si on connait une solution particulière d’une équation différentielle linéaire, la solution générale (espace affine) est formée de la somme de cette solution particulière avec la solution générale de l’équation différentielle linéaire homogène associée. 9.5.4 Système d’équation linéaire Définition 139. Un système de m équations linéaire à n variables à coefficient dans K est une famille d’équations linéaires : a11 x1 + ... + a1n xn = b1 a21 x1 + ... + a2n xn = b2 où x1 , ..., xn sont les variables (inconnues) et où aij ∈ K sont les coefficients. ... am1 x1 + ... + amn xn = bm Nous recherchons les solutions d’un système i.e en terme de vecteur (α1 , ..., αn ) ∈ Kn tels que ∀1 ≤ i ≤ m, ai1 α1 +...+aim αn = bi . Plus généralement nous voulons caractériser l’ensemble des solutions du système i.e S = {(α1 , ..., αn ) ∈ K|ai1 α1 + ... + aim αn = bi ∀1 ≤ i ≤ m} Remarque : Le système est dit homogène lorsque ∀1 ≤ i ≤ m, bi = 0. Un système est dit carré quand le nombre d’équation est égal aux nombres de variables i.e n équations et n inconnues. x1 − 3x2 + x3 = 1 Exemple 9.5.8 Le système d’équation linéaire admet comme solution x1 = −18, x2 = −6 et −2x1 + 4x2 − 3x3 = 9 x3 = 1. Par contre x1 = 7, x2 = 2 et x3 = 0 ne satisfait que la première équation et pas la 2ième. Ce n’est donc pas un solution (3-uplet) du système. Définition 140. Un système d’équation linéaire est dit incompatible s’il n’admet pas de solution et compatible s’il en admet au moins une. Mail: [email protected] Tous droits réservés Page no 56 sur 96 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN x1 + x2 = 1 Exemple 9.5.9 Le système d’équation linéaire est clairement incompatible i.e S = ∅ 2x1 + 2x2 = 1 9.5.5 Espace vectoriel des solutions d’un système d’équation linéaire homogène Proposition 141. Si on a un système (d’équation) linéaire homogène alors l’ensemble des solutions est un sous-espace vectoriel de E de dimension ? sans avoir à parler de matrice ! Preuve :intersection fini d’ev ou algebre lineaire 3.pdf 84/160 Proposition 142. Tout système homogène d’équations linéaires dont le nombre d’inconnue est plus grand que le nombre d’équation a une infinité de solution. Preuve : Proposition 143. Un système d’équation linéaire homogène admet zéro, une ou une infinité de solutions. Preuve :e.v x − 2y + 3z = 0 2x − 4y + 6y = 0 sont x = 2s − 3t, y = s et z = t ce qui Exemple 9.5.10 Les solutions du système d’équation linéaire 3x − 6y + 9z = 0 donne x = 2y − 3z c’est-à-dire x − 2y + 3z = 0. L’ensemble des solutions est donc un plan de R3 passant par l’origine, puisque c’est un sous-espace vectoriel de R. 9.5.6 Espace affine des solutions d’un système d’équation linéaire complet Proposition 144. Si on a un système linéaire complet alors l’ensemble des solutions est un sous-espace affine de E. dim ?=qu’appelle ton dim d’un espace affine ? et sans partler de matrice Preuve : ? ? ?intersection fini d’esp affine ax + by = c avec b, b0 6= 0. Ces deux équations repréa0 x + b0 y = c0 sentent deux droites (d1 ) et (d2 ) du plan. Une solution de ce système (s1 , s2 ) est donc un point qui est sur ces deux droites. Trois cas se présentent : Exemple 9.5.11 Soit le système d’équations linéaires suivant -Les droites (d1 ) et (d2 ) se coupent en un seul point. Mail: [email protected] Tous droits réservés Page no 57 sur 96 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN Dans ce cas le système n’a qu’une solution. -Les droites (d1 ) et (d2 ) sont parallèles strictement. Le système est incompatible. -Les droites (d1 ) et (d2 ) sont parallèles et confondues. Nous voyons que le système a une infinité de solution qui sont des points de (d1 ) ou d2 ). 9.5.7 Le Système d’équation linéaire et matrice a11 x1 + ... + a1n xn = b1 a21 x1 + ... + a2n xn = b2 peut s’écrire sous forme d’opération matricielle : système d’équation linéaire ... am1 x1 + ... + amn xn = bm a1,1 a1,2 . . . a1,n x1 b1 a2,1 a2,2 . . . a2,n x 2 b2 = .. .. .. .. . . . . . . .. .. am,1 | am,2 . . . {z am,n A }| xn {z } X bn | {z } B On appelle A la matrice des coefficients du système. Le vecteur X est une solution du système ssi AX = B (écriture compacte). En général l’ensemble des solutions du système linéaire {X ∈ Kn |AX = B} n’est pas un sous-espace vectoriel de Kn . 9.5.8 Résolution on cherche le nombre de solution par substitution trouver inverse de A (cf méthode vu précedement=cofacteur, gauss...) 2x1 + x2 + x3 = 1 x1 − x2 − x3 = 0 Exemple 9.5.12 Considérons le système linéaire 2x1 + 2x2 − x3 = 1 2 1 1 1 0 . En effectuant les opérations élémentaires sur cette Cela donne en terme de matrice augmentée 1 −1 −1 1 2 2 −1 1 −1 −1 0 1 −1 −1 0 1 1 puis l2 → l2 − 2l1 : 0 0 3 3 soit l3 → l3 − 2l1 : matrice nous obtenons l1 → l2 : 2 1 2 2 −1 −1 2 2 −1 −1 1 −1 −1 0 1 −1 −1 0 1 −1 −1 0 0 3 3 1 ou encore l2 → 4l2 et l3 → 3l3 : 0 12 12 4 ou l3 → l3 − l1 : 0 12 12 4 et enfin 0 4 1 1 0 12 3 3 0 0 −9 −1 1 −1 −1 0 l2 1 1/3 l2 → 12 et −l9 3 → l3 : 0 1 0 0 1 1/9 Mail: [email protected] Tous droits réservés Page no 58 sur 96 CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN Nous obtenons une matrice échelonnée mais pas réduite car les colonnes de tête de ligne valant 1 ne possèdent pas que des 0. Ainsi x3 = 91 et x2 + x3 = 31 soit x2 = 39 − 19 = 29 et x1 − x2 − x3 = 0 ⇔ x1 = 92 + 19 = 39 = 13 d’où S = {( 13 , 92 , 91 )}. Vérification : 2. 13 + 29 + 19 = 6+2+1 = 1, puis 31 − 29 − 91 = 3−2−1 = 0 et enfin 2 13 + 2 29 − 19 = 6+4−1 =1 9 9 9 Remarque : Ce genre de résolution a été vue au lycée sans utilisation de matrice augmentée et restaitsous la forme originelle x + y + 7z = −1 x + y + 7z = −1 2x − y + 5z = −5 d’où l2 → l2 − 2l1 : −3y − 9z = −3 d’une système d’équation (linéaire) comme par exemple −x − 3y − 9z = −5 −x − 3y − 9z = −5 x + y + 7z = −1 x + y + 7z = −1 l2 y + 3z = 1 −3y − 9z = −3 = −5 ensuite l2 → −3 et l3 → l23 : soit l3 → l3 + l1 : −y − z = −3 −2y − 2z = −6 x + y + 7z = −1 y + 3z = 1 ou encore l3 → l3 + l2 : Ainsi z = −1, y = 4 et x = 2 z = −1 9.6 Résolution d’un système d’équation linéaire : règle de Cramer La règle de Cramer donne une formule explicite pour la solution de certains système d’équations linéaires. Soit d’équations linéaires à n équations et n inconnues : x 1 a11 x1 + ... + a1n xn = b1 a11 x1 + ... + a1n xn = b1 x2 a21 x1 + ... + a2n xn = b2 a21 x1 + ... + a2n xn = b2 . = ce système peut s’écrire AX = B i.e . . . . . . . . an1 x1 + ... + ann xn = bn an1 x1 + ... + ann xn = bn x n {z } | {z } | | A a1,j+1 a2,j+1 .. . ... ... .. . an1 . . . an,j−1 bn an,j+1 j-ième colonne de A par le second membre B. ... Définissons Aj = a11 a21 .. . ... ... .. . a1,j−1 a2,j−1 .. . b1 b2 .. . le système b1 b2 .. . bn {z } X B a1n a2n autrement dit Aj est la matrice obtenue en remplaçant la ann Proposition 145. (Règle de Cramer) Soit AX = B un système de n équations à n inconnues. Supposons que det(A) 6= 0, alors det(A2 ) det(An ) 1) l’unique solution du système est donnée par x1 = det(A det(A) , x2 = det(A) , .., xn = det(A) Preuve :algebre lineaire 3.pdf 47/160 1 0 2 x1 + +2x3 = 6 −3x1 + 4x2 + 6x3 = 30 On a A = −3 4 6 d’après la règle Exemple 9.6.1 Résolvons le système suivant −x1 − 2x2 + 3x3 = 8 −1 −2 3 1 1 0 2 0 6 0 6 de Sarrus |A| = −3 4 6 −3 4 = 4.3 + 0 + 2.(−3)(−2) = 44 De plus on aura A1 = 30 4 6 soit −1 −2 3 −1 −2 8 −2 3 6 0 6 6 0 |A1 | = 30 4 6 = 30 4 = 6.4.3 + 0 − 2.30.2 − 8.4.2 − (−2.6.4) − 0 = −40 Enfin det(A2 ) = 72 et det(A3 ) = 152. 8 −2 3 8 −2 La solution est alors : x1 = det(A1 ) det(A) = −40 44 = −10 11 , x2 = Mail: [email protected] det(A2 ) det(A) = 72 44 = 18 11 , x3 = det(A3 ) det(A) = 125 44 = Tous droits réservés 38 11 Page no 59 sur 96 Chapitre 10 Décomposition LU Cette décomposition de matrice permet de résoudre des systèmes d’équation linéaire mais aussi l’inverse d’une matrice ou de calculer un déterminant facilement. 10.1 Définition Définition 146. On dit qu’une matrice A se décompose en LU si A peut s’écrire comme le produit d’une matrice triangulaire inférieure (Lower) de termes diagonaux égales à 1 et d’une matrice triangulaire supérieure (Upper) Proposition 147. Soit A ∈ Mn (R) une matrice inversible. Il existe alors une matrice de permutation P telle qu’il existe un et un seul couple (L, U ) où L est une matrice triangulaire inférieure de termes diagonaux égales à 1 et U une matrice triangulaire supérieures vérifiant P A = LU Preuve : 2 − 1 0 , cette matrice se factorise en un produit d’une matrice triangulaire Exemple 10.1.1 Soit la matrice −1 2 −1 0 −1 2 inférieure (que des 1 sur la diagonale principale) par une matrice triangulaire supérieure de la façon suivante : 2 −1 0 1 0 0 2 − 1 0 = −1/2 −1 2 −1 1 0 0 3/2 −1 0 0 4/3 0 −2/3 1 0 −1 2 10.2 Application 10.2.1 Déterminant 10.2.2 Inversion matrice 10.2.3 Résolution d’un système d’équation linéaire 60 Chapitre 11 Changement de base Nous avons vu que changer de base B et/ou B 0 d’une application linéaire de E dans F changeait également sa matrice. Nous allons donc chercher à exprimer la matrice d’une application linéaire lorsque l’on change les bases de E et F . On convient que B = {e1 , e2 , ...., en } et B 0 = {e01 , e02 , ...., e0n } 11.1 Matrice de passage Soit l’application linéaire f : (E, B 0 ) −→ (E, B) . On a alors x 7−→ x f (e01 ) = e01 = α11 e1 + α21 e2 + ... + αn1 en .. . f (e0n ) = e0n f (e01 ) a1,1 α21 = α1n e1 + α2n e2 + ... + αnn en donc MB0 B (IdE ) = .. . αn1 f (e02 ) α12 α22 .. . ... ... .. . αn2 ... f (e0n ) α1,n α2n .. . B αnn On remarque que e01 = α11 e1 + α21 e2 + ... + αn1 en .. . e0n = α1n e1 + α2n e2 + ... + αnn en dit autrement on exprime e0i en fonction de ei , ce qu’on traduit aussi en disant que l’on exprime une nouvelle base (e0i ) en fonction de l’ancienne base (ei ) Définition 148. 0 La matrice MB0 B (IdE ) est appelée la matrice de passage de la base B à la base B 0 . Elle se note PBB ou PBB0 voire PB→B0 Remarque : La matrice P est donc constituée des vecteurs colonnes formée par les composantes des vecteurs (e0i ) dans la base (ei ) f (e01 )=e01 f (e02 )=e02 f (e0n )=e0n α . . . α a 1,1 12 1,n α21 α22 ... α2n B0 B PB = .. .. .. .. . . . . αn1 αn2 ... αnn Exemple 11.1.1 Si e01 = 2e1 + 3e2 − e3 , e02 = 5e1 + 2e2 − 4e3 , e03 = e1 + e2 + e3 alors PBB 0 2 = 3 −1 Proposition 149. 0 0 Soient B et B 0 deux bases de E alors PBB est inversible et (PBB )−1 = PBB0 Preuve : On rappelle que le produit de matrice s’identifie à la composée d’application linéaire. 0 PBB .PBB0 = MB0 B (IdE ).MBB0 (IdE ) = MBB (IdE ) = In | {z } gof =IdBB0 oIdB0 B 61 5 2 −4 1 1 1 CHAPITRE 11. CHANGEMENT DE BASE Proposition 150. 00 0 00 Soient B, B 0 et B 00 trois bases de E alors PBB = PBB .PBB0 Preuve : 11.2 Application 11.2.1 Changement de coordonnées pour un vecteur Proposition 151. a1 Soient B et B 0 deux bases de E. Soit x ∈ E et X = ... les composantes de x dans B et X 0 = an composantes de x de B 0 alors X = P X 0 ou X 0 = P −1 X Preuve : x ∈ E s’écrit dans B x = a1 e1 + ... + an en , dans la base B 0 ce même vecteur 0s’écrit0 x e1 e2 a11 a12 a21 a22 Soit P la matrice de passage de B = {e1 , e2 , ...., en } à B 0 = {e01 , e02 , ...., e0n } : P = .. .. . . b1 .. les . bn = b1 e01 +... + bn e0n . e0n . . . a1n . . . a2n .. ei . On a ... . a a . . . ann n1 n2 a11 a12 a1n an alors en terme de composante de x dans B, x = b1 ... + b2 ... + ... + bn ... c’est-à-dire ... = an1 an2 ann an1 e0 e02 e0n 1 b1 a11 + b2 a12 + ... + bn a1n a11 a12 . . . a1n b1 b2 a21 + b2 a22 + ... + bn a2n a21 a22 . . . a2n 0 0 −1 . = . .. .. .. .. donc X = P X ou encore X = P X . . . . ... . bn b1 a1n + b2 an2 + ... + bn ann an1 an2 . . . ann Exemple 11.2.1 Soit R3 munit de la base canonique B = {e1 (1, 0, 0), e2 (0, 1, 0), e3 (0, 0, 1)}. On définit : e01 = e1 + e2 + e3 e02 = e1 + 0e2 − e3 e03 = 2e1 − e2 − 3e3 Montrons que dans B 0 = {e01 (1, 1, 1), e02 (1, 0, −1), e03 (2, −1, 3)} est une base de R3 D’après le volume sur les espaces vectoriels on sait que (R3 , +, .) est un R-ev de dimension 3. Or B 0 contient 3 éléments donc d’après la proposition ? ? ? du volume ev, B 0 est une base de R3 ssi B 0 est libre. α + β + 2γ = 0 α−γ =0 or α − γ = 0 ⇔ α = γ d’où De là αe01 + βe02 + γe03 = 0 ⇔ α − β + 3γ = 0 γ + β + 2γ = 0 β = −3γ α=γ α=γ ⇔ ⇔ α = β = γ = 0 donc B 0 est une base de R3 γ − β + 3γ = 0 −β + 4γ = 0 Soit x ∈ R3 , on cherche alors les composantes de x dans B 0 connaissant les composantes a exprimer par un calcul simple 1 1 2 1 −1 1 0 de x dans B. On a PBB = 1 0 −1 et P −1 = −2 5 −3 . On prendra dans B x = 1e1 + 2e2 + 3e3 = 1 −1 −3 1 −2 1 1 1(1, 0, 0) + 2(0, 1, 0) + 3(0, 0, 1) donc a pour composante dans B, X = 2 . De là d’après la proposition X 0 = P −1 X = 3 Mail: [email protected] Tous droits réservés Page no 62 sur 96 CHAPITRE 11. CHANGEMENT DE BASE −1 5 −2 1 −2 1 1 1 2 −3 2 = −1 1 3 0 Ainsi dans la base B 0 , x = 2e01 − e02 . On peut le vérifier via B, x = 1e1 + 2e2 + 3e3 = (1, 2, 3) et via B 0 , x = 2e01 − e02 = | {z } point 2(1, 1, 1) − (1, 0, 1) = (1, 2, 3). | {z } point Attention : P s’appelle la matrice de passage de B à B 0 mais la formule X = P X 0 donne les coordonnées dans B en fonction des coordonnées dans B 0 et non l’inverse. Pour avoir les coordonnées dans B 0 en fonction des coordonnées dans B il faut utiliser la formule X 0 = P −1 X. 11.2.2 Changement de matrice pour une application linéaire Proposition 152. Soient (E, B1 ) et (F, C1 ) deux espaces vectoriels de dimension finie. Soit B2 une nouvelle base de E et C2 une nouvelle base de F Soit A la matrice de f ∈ L(E, F ) relativement à B1 et C1 On note P la matrice de passage de B1 à B2 (IdE : (E, B2 ) −→ (E, B1 )) On note Q la matrice de passage de C1 à C2 (IdF : (F, C2 ) −→ (F, C1 )) La matrice de f ∈ L(E, F ) relativement aux bases B2 et C2 est alors donnée par B = Q−1 AP . Ce que l’on résume par le diagramme : Preuve : Q−1 AP = MC2 C1 (IdF )−1 [MB1 C1 (f ).MB2 B1 (IdE )] = MC2 C1 (IdF )−1 .MB2 C1 (f ) = MC1 C2 (IdF ).MB2 C1 (f ) = MB2 C2 (f ) = B {z } {z } | | f oId Idof Corollaire 153. Si f : (E, B) → (E, B) alors si B 0 est une nouvelle base de E et si A = MBB (f ), P = PBB0 alors la matrice carrée de f relativement à la base B 0 (f : (E, B 0 ) → (E, B 0 )) est MB0 B0 (f ) = P −1 AP c’est-à-dire en terme de diagramme Preuve : f (e1 ) −1 Exemple 11.2.2 Soit f : (R3 , B) → (R3 , B) dont la matrice est A = 1 2 Mail: [email protected] Tous droits réservés f (e2 ) 2 2 1 f (e3 ) 4 −2 On a : 5 Page no 63 sur 96 CHAPITRE 11. CHANGEMENT DE BASE f (e1 ) = −e1 + e2 + e3 f (e2 ) = 2e1 + 2e2 + e3 f (e3 ) = 4e1 − 2e2 + 5e3 Soit B 0 = {e01 , e02 , e03 } où : e01 = e1 + e2 + e3 e02 = e1 + 0e2 − e3 2 −1 . On cherche la matrice de f : (R3 , B 0 ) → (R3 , B 0 ). −3 f (e01 ) 1 −1 1 −1 2 4 1 1 2 12 D’après le corolaire on a B = P −1 AP = −2 5 −3 1 2 −2 1 0 −1 = −29 1 −2 1 2 1 5 1 −1 −3 11 1 e03 = 2e1 − e2 − 3e3 donc P = 1 1 1 0 −1 f (e02 ) −11 34 −14 f (e03 ) −34 0 98 B −40 Remarque : Nous avons vu que si l’on connait P et Q alors on peut trouver B. On va se poser la question : étant données deux matrices A et B peut-on trouver deux matrices de passage P et Q (donc deux couples de bases) telles que B = Q−1 AP ? Dit autrement les deux matrices représentent-t’elles la même application linéaire pour des bases différentes. Dans ce cas on parlera de matrices équivalentes et pour le corolaire B = P −1 AP on parlera de matrices semblables. 11.3 Matrice équivalente Deux matrices A et B sont équivalentes ssi elles peuvent représenter la même application linéaire f : E −→ F par rapport à deux couples de bases, c’est-à-dire A pour f : (E, B1 ) −→ (F, C1 ) et pour B pour f : (E, B2 ) −→ (F, C2 ) Définition 154. Deux matrices de même taille (m, n) A et B sont équivalentes ssi il existe deux matrices de passage inversibles P (de taille n × n) et Q (de taille m × m) telles que A = QBP −1 ou Q−1 AP = B. Proposition 155. A ∼ B ⇔ A et B sont équivalent (A = QBP −1 ) est une relation d’équivalence. Preuve : Proposition 156. Deux matrices sont équivalentes ssi elles ont le même rang. Preuve : 11.4 Matrice semblable Deux matrices sont semblables si elles constituent deux matrices représentatives du même endomorphisme dans deux bases éventuellement différentes, c’est-à-dire A pour f : (E, B) −→ (E, B) et pour B, f : (E, B 0 ) −→ (E, B 0 ) d’où la définition : Définition 157. Deux matrices carrées A et B sont dites semblables s’il existe une matrice de passage P inversible telle que A = P BP −1 ou P −1 AP = B Il ne faut pas confondre la notion de matrice semblable avec celle de matrice équivalente. Si deux matrices sont semblables alors elles sont équivalentes, la réciproque étant en généralement fausse. Mail: [email protected] Tous droits réservés Page no 64 sur 96 CHAPITRE 11. CHANGEMENT DE BASE 2 1 2 2 1 1 Exemple 11.4.1 Soit A = et B = . Sont-elles semblables ? Si on pose P = alors on obtient 2 0 1 0 1 0 0 1 0 1 2 1 1 1 2 2 P −1 = et on vérifie que P −1 AP = = = B donc A et B sont 1 −1 1 −1 2 0 1 0 1 0 semblables. Dit autrement f : (E, B) −→ (E, B) pour A donne pour B f : (E, B 0 ) −→ (E, B 0 ) avec B 0 donnée par la matrice de passage 0 PBB c’est-à-dire e01 = 1e1 + 1e2 et e02 = 1e1 + 0e2 . 11.5 Invariant de similitude Se poser la question sur les réciproques trA=trB=>semblables ? Soit F un espace vectoriel. Nous nous intéresserons aux applications f : Mn (K) −→ F dont le résultat est le même pour deux matrices semblables. Des applications telles que si A et B sont semblables alors f (A) = f (B) seront appelées invariants de similitude. 11.5.1 Déterminant Proposition 158. Si A et B sont deux matrices semblables alors det(A) = det(B). Preuve : Soient A et B deux matrices semblables, ∃P ∈ GLn (K) telle que B = P −1 AP d’où det(B) = det(P −1 AP ) = 1 det(P −1 )det(A)det(P ) = det(P ) det(A)det(P ) = det(A). Cela signifie que les matrices de f dans une base quelconque ont toute le même déterminant. On l’appelle le déterminant de l’endomorphisme f 11.5.2 Trace Définition 159. Soit A ∈ Mn (K). On appelle trace de A, notée tr(A), le réel définit par tr(A) = n X aii . i=1 a11 .. A= . an1 a1n .. c’est-à-dire tr(A) = a + a + ... + a 11 21 nn . . . . ann ... .. . 1 Exemple 11.5.1 tr 1 1 3 −1 4 2 0 = 1 + (−1) + 7 = 7. De plus avec la matrice unité tr(In ) = n 7 Proposition 160. Soient A et B deux matrices n × n alors 1. La trace est une forma linéaire i.e ∀A, B ∈ Mn (K) et λ ∈ K on a tr(A + B) = tr(A) + tr(B) et tr(λA) = λtr(A). 2. tr(AT ) = tr(A) 3. tr(AB) = tr(BA) Preuve : algebre lineaire 3.pdf 31/160 Mail: [email protected] Tous droits réservés Page no 65 sur 96 CHAPITRE 11. CHANGEMENT DE BASE α11 .. Soient A = β11 .. et A = . . βnn αnn α11 + β11 1. tr(A + B) = tr .. = α11 + β11 + ... + αnn + βnn = (α11 + ... + αnn ) + (β11 + ... + βnn ) = . αnn + βnn λα11 .. tr(A) + tr(B). De plus tr(λA) = tr . = λα11 + ... + λαnn = λ(α11 + ... + αnn ) = λtr(A). Enfin λαnn la trace d’une matrice carrée est une application de Mn (K) dans K donc c’est une forme linéaire (application linéaire particulière). 2. transposée 3. Si on pose C = AB = (cij ) et D = BA = (dij ). Nous avons alors cij = n X n X aik bkj et dij = k=1 cii = i=1 n X bik akj . Ainsi tr(AB) = k=1 n X n n n X n X X X ( aik bki ) et tr(BA) = dii = ( bik aki ). Si dans la 1ère relation on interverti les rôles joués i=1 k=1 i=1 i=1 k=1 n X n n X n X X par les indices muets i et k on aura tr(AB) = ( aik bki ) = ( aki bik ). Comme K est commutatif tr(AB) = i=1 k=1 k=1 i=1 vol.ens.f inis n n X n n X XX z}|{ ( bik aki ) = ( bik aki ) = tr(BA) d’où le résultat. k=1 i=1 i=1 k=1 Remarque : En général nous n’aurons pas tr(AB) = tr(A)tr(B). En effet si A = 8 5 AB = . On a dans ce cas tr(A) = 5, tr(B) = 3 et pourtant tr(AB) = 8. 10 10 1 2 5 4 et B = 3 1 5 0 alors Proposition 161. Si A et B sont semblables alors tr(A) = tr(B) Preuve : tr(B) = tr(P −1 AP ) = tr(P −1 (AP )) = tr((AP )P −1 ) = tr(A) Proposition 162. Ker(tr) est un hyperplan de Mn (K) et Mn (K) = Ker(tr) ⊕ K.In dit autrement L(E) = Ker(tr) ⊕ K.IE Preuve : 11.5.3 Rang Mail: [email protected] Tous droits réservés Page no 66 sur 96 Chapitre 12 Diagonalisation Soit f ∈ L(E) et A ∈ Mn (K). La diagonalisation en algèbre linéaire consiste à trouver, si cela est possible, une base de E pour que la matrice carrée associée à l’endomorphisme soit diagonale. On recherche donc une matrice D semblable à A c’est-à-dire D = P −1 AP . Supposons que f soit diagonalisable on aura le diagramme : λ1 0 .. avec D= 0 . λn f (e01 ) λ1 Dit autrement on aurait une autre base B 0 = {e01 , ..., e0n } telle que la matrice associée à f serait D = f (e0n ) 0 .. 0 B . . 0 λn Ainsi f (e01 ) = λ1 e1 et en général f (e0n ) = λn en . Nous devons donc dans un premier temps (condition nécessaire) chercher, les λi ∈ K, s’ils existent et les vecteurs u ∈ E tels que f (u) = λi u. Même si u = 0 convient toujours, quelque soit λ on cherchera de préférence des u 6= 0 de sorte que f (e01 ) 6= 0. La diagonalisation d’une matrice carrée (associée à un endomorphisme) permet un calcul plus simple de ses puissances et de son exponentielle. 12.1 Vecteur propre, valeur propre et spectre Définition 163. Soit E un K-e.v de dimension n et B = {e1 , ..., en } une base de E. Soit f ∈ L(E) et A ∈ Mn (K) sa représentation matricielle relativement aux bases B et B 0 = B. On dit que u(x1 , ..., xn ) est un vecteur propre de f s’il existe un x1 scalaire λ tel que f (u) = λu i.e AX = λX avec X = ... = uT = (x1 , ..., xn )T xn 1 3 x Exemple 12.1.1 Soit f ∈ L(E) de matrice A = . On pose X = et on résout l’équation AX = λX ⇔ y 2 2 x(1 − λ) + 3y = 0 1 3 x x x + 3y λx x + 3y − λx = 0 =λ ⇔ = ⇔ ⇔ Si 2x + y(2 − 2 2 y y 2x + 2y λy 2x + 2y − λy = 0 2x + y(2 − λ) = 0 λ) = 0 alors x = −y(2−λ) d’où x(1 − λ) + 3y = 0 ⇔ −y(2−λ) (1 − λ) + 3y = 0 ⇔ y( −y(2−λ) (1 − λ) + 3) = 0. En prenant 2 2 2 −y(2−λ) −1(2−λ) y = 1 alors y( (1 − λ) + 3) = 0 ⇔ 1( 2 (1 − λ) + 3) = 0 ⇔ −(2 − λ)(1 − λ) + 6 = 0 ⇔ −(2 − 2λ − λ + λ2 ) + 6 = 2 2 = −1 ou λ2 = −3−5 0 ⇔ −λ + 3λ + 4 = 0. De là on a ∆ = 9 − 4(−1)(4) = 25 d’où λ1 = −3+5 −2 = 4. Ainsi pour λ = −1 et −2 −3/2 y = 1, x = −y(2−λ) = −1(2+1) = −3/2. En conclusion X = est un vecteur propre associé à λ = −1. Vérifions, si 2 2 1 1 3 −3/2 −3/2 + 3 3/2 3/2 λ = −1 on aura AX = = = et λX = d’où l’égalité. 2 2 1 −3/2.2 + 2 −1 −1 67 CHAPITRE 12. DIAGONALISATION Définition 164. Le nombre λ est appelé valeur propre associé au vecteur propre u. l’ensemble des valeurs propres éventuelles de A est appelé le spectre de A et est noté Sp(A) Remarque : Si u est un vecteur propre alors pour tout vecteur colinéaire u0 = αu on aura f (u0 ) = f (αu) = αf (u) = αλu = λαu = λu0 . Ainsi tout vecteur colinéaire à u est aussi un vecteur propre associé à la même valeur propre λ. Pour une même valeur propre λ, il peut exister plusieurs vecteurs propres non colinéaires. 1 3 on a au moins deux valeurs propres : λ = −1 est associée au vecteur 2 2 = −1(2−4) = 1. Ainsi λ = 4 est une valeur propre u = (−3/2, 1). Dans le cas λ = 4 on aura toujours pour y = 1, x = −y(2−λ) 2 2 propre associée au vecteur propre u = (1, 1). En utilisant la remarque, les vecteurs propres (mais il y en a peut être d’autres) associés à λ = −1 sont aussi les vecteurs u = ( −3k 2 , k), k ∈ Z. Exemple 12.1.2 En reprenant la matrice De même les vecteurs propres (il y en a peut être d’autres) associés à λ = 4 sont aussi les vecteurs uT = (k, k), k ∈ Z. Peut-on trouver trouver un vecteur u non colineaire à (1,1) et qui soit un vetc propre associée à lambda=-1 ou -4=>non a preciser 12.2 Polynôme d’un endomorphisme Une manière pour trouver les valeurs propres est donnée par le calcul du polynôme caractéristique. Avant de l’expliciter nous allons rappeler certaines propriétés et définition sur les polynômes dans K[X]. Nous reprendrons ici, certaine notion déjà vu dans le volume sur les anneaux et en particulier les anneaux euclidiens de polynôme à une indéterminée. Soit un polynôme P à coefficients dans K que l’on note aussi P ∈ K[X] Exemple 12.2.1 Si K = R, P (X) = 3X 2 + 17 X 6 + X + 1 ∈ R[X], par contre P (X) = 1 X2 +2∈ / R[X] Définition 165. Soit P ∈ K[X]. On dit que P est scindé dans K[X] si P est complètement factorisable dans K[X], c’est-à-dire que P peut s’écrire P = (X − α1 )k1 (X − α2 )k2 ...(X − αn )kn où α1 , ..., αn ∈ K sont les racines de P . k1 , ..., kn ∈ N n X ki = deg(P ). On appelle ki l’ordre de multiplicité de la racine αi et est notée m(αi ) ou mi . avec i=1 x1 Supposons que A soit diagonalisable alors on aura f (ei ) = λei ou f (u) = λu. En terme matricielle si X = uT = ... xn 0 on aura AX = λX soit AX − λX = (A − λIn )X = 0. Or si O = ... alors si X est non nul et qu’on suppose (A − λIn ) 0 inversible alors (A − λIn )−1 (A − λIn )X = (A − λIn )−1 0 c’est-à-dire X = 0 donc il y a contradiction. Ainsi si X 6= 0 alors (A − λIn ) n’est pas inversible donc que det(A − λIn ) = 0. a11 − λ a12 ··· a1n a21 X a12 − λ · · · a2n De là det(A − λIn ) = sign(σ)aij1 ...anjn ∈ Kn [X]. y’a til une reciproque ? = .. .. .. .. . . . . σ∈S n an1 an2 · · · a2n − λ Dit autrement résoudre det(A − λIn ) = 0 revient à résoudre un polynôme dont l’inconnue est λ d’où la définition : 12.2.1 Caractéristique Mail: [email protected] Tous droits réservés Page no 68 sur 96 CHAPITRE 12. DIAGONALISATION Définition 166. Soit A ∈ Mn (K) associée à l’endomorphisme f ∈ L(E). Le polynôme P (λ) = det(A − λIn ) est appelé polynôme caractéristique. Ce polynôme est aussi noté χA (λ) ou Cf (λ) Dans cet ouvrage on note ce polynôme formel P (X) = det(A − XIn ). Ainsi λ est valeur propre de A ssi det(A − λIn ) = P (λ) = 0. Proposition 167. Une matrice et sa transposée ont le meme poly cara=>st elle semblable auquel cas enlever cette prop Preuve :algebre(2).pdf 49/99 Proposition 168. Le polynôme caractéristique de A vérifie χA (λ) = n X (−1)n−k σ(k)X n−k = (−1)n λn + (−1)n−1 tr(A)λn−1 + | {z } | {z } k=0 dernier terme avant dernier terme ... |{z} quelque chose + det(A) | {z } 1er terme Preuve : 1−λ 1−λ 1 2 1 2 1 2 −1 − λ 0 6 −1 −λ = Exemple 12.2.2 Soit A = 6 −1 0 . On a alors det(A − λI3 ) = 6 −1 −1 −2 −1 −2 −1 − λ −1 −2 (1 − λ)(−1 − λ)(−1 − λ) + 0 + 6(−2) − (−1)(−1 − λ).1 − 0 − (−1 − λ).12 = (1 − λ)(−1 − λ)2 − 12 + (−1 − λ) − 12(−1 − λ) = (1 − λ)(−1 − λ)2 − 1 − λ + 12λ = (1 − λ)(1 + 2λ + λ2 ) − 1 + 11λ = −λ3 − λ2 + 12λ = −λ(λ2 + λ − 12) d’où det(A − λI3 ) = 0 ⇔ λ = 0 ou λ2 + λ + 12 = 0. = 3 et λ2 = −1−7 = −4 ainsi det(A − λI3 ) = 0 ⇔ λ1 = 0 ou λ2 = −4 ou λ3 = 3 2 1−λ 1 2 0 2 0 1 − λ 3−λ 0 0 Exemple 12.2.3 Considérons la matrice A = 0 3 0 . On a alors det(A−λI3 ) = 0 2 2 −4 2 −4 2−λ 2 (1 − λ)(3 − λ)(2 − λ) d’où det(A − λI3 ) = 0 ⇔ λ1 = 3 ou λ2 = 2 ou λ3 = 1 ∆ = 12 − 4(1)(−12) = 49 soit λ1 = −1+7 2 2 3−λ −4 Proposition 169. Toute matrice à coefficients complexes admet au moins une valeur propre complexe. Preuve : Proposition 170. Le nombre de valeurs propres d’une matrice carrée est au plus égal à son ordre. Preuve : Mail: [email protected] Tous droits réservés Page no 69 sur 96 CHAPITRE 12. DIAGONALISATION Proposition 171. Le polynôme caractéristique d’une matrice triangulaire par bloc M = A 0 B C avec A ∈ Mp (K) et C ∈ Mq (K) et B ? alors χM = χA χC Preuve : 12.2.2 Invariant de similitude Nous allons voir un nouvel invariant de similitude c’est-à-dire que si A et B sont semblables alors f (A) = f (B) Proposition 172. Soit f : Mn (K) −→ Kn [X] alors deux matrices semblables ont le même polynôme caractéristique. A 7−→ χA (X) Preuve :algebre(2).pdf 49/99 12.2.3 Annulateur Définition 173. Soient P ∈ K[X] et f ∈ L(E) avec P (X) = n X ai X i . On définit P (f ) = i=1 n X ai f i = an f n + an−1 f n−1 + ... + i=1 a1 f + a0 IdE où f n = f o...of . Un polynôme P est dit annulateur de f si P (f ) ≡ 0 (qu’on écrit P (f ) = 0) | {z } n f ois Proposition 174. Soit f ∈ L(E). f alors P (f ) est un endomorphisme de L(E)? dans L(E)? Preuve : Proposition 175. Soient f ∈ L(E) et dim(E) = n 1. Si P ∈ K[X] et Q ∈ K[X] des polynômes quelconques alors P (f ) et Q(f ) commutent 2. Il existe des polynômes non nuls P tel que P (f ) = 0 Preuve :algebre licence 137/144 Exemple 12.2.4 Soit f un endomorphisme nilpotent d’indice p. Posons Q(X) = X p alors Q(f ) = f p = 0 donc Q est un polynôme annulateur de f Proposition 176. Les polynômes annulateurs de f ∈ L(E) forment un idéal principal dans l’anneau des polynômes. Mail: [email protected] Tous droits réservés Page no 70 sur 96 CHAPITRE 12. DIAGONALISATION Preuve : 12.2.4 Minimal Définition 177. Soit dim(E) = n et f ∈ L(E). Le polynôme minimal de l’endomorphisme f est le polynôme de plus petit degré qui annule f . On le note Qf . Nous verrons plus loin que le polynôme minimal est l’outil théorique central pour la réduction des endomorphismes dans le cas où Dim(E) = n Proposition 178. En dimension finie, le polynôme minimal existe toujours et d◦ (Qf ) ≤ n Preuve : Proposition 179. Deux matrices semblables ont le même polynôme minimal=>a mettre ne corrol(prop ;ont meme poly caract) ou sub’invariant de similitude’ Preuve : 12.3 Sous-espace stable Définition 180. Soit f ∈ L(E, F ). Un sous-espace vectoriel A de E est dite stable par f si f (A) ⊂ A 12.4 Espace propre Nous allons maintenant après avoir déterminé les valeurs propres λ rechercher pour λi donnés, les vecteurs propres associés. Définition 181. On appelle sous-espace propre associé à la valeur propre λi , l’ensemble contenant tous les vecteurs propres à λi . Proposition 182. Le sous-espace propre associé à λi est un sous-espace vectoriel de E. Il est noté Eλi et vaut Eλi = Ker(A − λi In ) Preuve :algebre lineaire(3).pdf 25/27 Soit λi donné, on cherche donc les vecteurs de E c’est-à-dire de composantes X tels que f (u) = λi u i.e AX = λi X ⇔ AX − λi X = 0 ⇔ (A − λi In )X = 0. On cherche donc {X ∈ Kn |(A − λi In )X = 0} ce qui est par définition Ker(A − λi In ). D’après la prop ? le noyau est un sous-espace vectoriel de E d’où le résultat. Remarque : Puisque le sous-espace vectoriel Eλi est un sous-espace vectoriel de E il nous faut trouver une base de celui-ci. Mail: [email protected] Tous droits réservés Page no 71 sur 96 CHAPITRE 12. DIAGONALISATION Proposition 183. Les sous-espaces propres Eλi d’un endomorphisme de f sont en somme directe i.e Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp ⊆ E ou = avec ordre de multip licite? Preuve : 1 2 0 Exemple 12.4.1 Soit A = 0 3 0 On a alors les valeurs propres données par les solutions de det(A − λI3 ) = 0. On 2 −4 2 a vu dans l’exercice précédent 12.2.3 que λ1 = 3, λ2 = = 1. De − λ1 I3 ) = {X ∈ R3 , (A I3 )X= 0} 2et λ3 là E λ1 = Ker(A − λ1 1−3 2 0 x1 0 −2 2 0 x1 0 3−3 0 x2 = 0 ⇔ 0 0 0 x2 = 0 ⇔ or (A − λ1 I3 )X = 0 ⇔ 0 2 −4 2− 3 x3 0 2 −4 −1 x3 0 x3 ∈ R x1 = x2 −2x1 + 2x2 = 0 3 x1 = x2 ⇔ x2 = −x . ⇔ 2 2x1 − 4x2 − x3 = 0 −2x2 = x3 x3 ∈ R −1 −1 3 −x3 Ainsi Eλ1 = {( −x 2 , 2 , x3 ), x3 ∈ R} = {x3 ( 2 , 2 , 1), x3 ∈ R}. Eλ1 est un sous-espace vectoriel de E de dimension 1 et peut avoir pour base (avec x3 = −2) v1 (1, 1, −2) −x1 + x2 = 0 1−2 2 0 x1 0 −x2 = 0 x1 = x2 = 0 3−2 0 x2 = 0 ⇔ Pour λ2 on aura (A−λ2 I3 )X = 0 ⇔ 0 ⇔ 2x1 − 4x2 = 0 x3 ∈ R 2 −4 2 − 2 x3 0 x3 ∈ R Ainsi Eλ2 = {(0, 0, x3 ), x3 ∈ R} = {x3 (0, 0, 1), x3 ∈ R} c’est-à-dire de dimension 1 et a pour base par exemple v2 (0, 0, 1). x1 x2 = 0 0 2 0 0 2x = 0 2 x3 ∈ R ⇔ ⇔ Pour λ3 = 1 on a 0 2 0 x2 = 0 soit 2x1 − 4x2 + x3 = 0 2x + x = 0 2 −4 1 x 0 1 3 3 x2 = 0 −1 3 x3 ∈ R d’où Eλ3 = {( −x 2 , 0, x3 ), x3 ∈ R} = {x3 ( 2 , 0, 1), x3 ∈ R}. Eλ3 est un e.v de dimension 1 dont une base peut −x3 x1 = 2 être (pour x3 = −2), v3 (1, 0, 2) Proposition 184. Soient λ une valeur propre de A, m(λ) sa multiplicité et q(λ) la dimension du sous-espace propre associé alors 1 ≤ q(λ) = dim Eλ (A) = n − rg(A − λIn ) ≤ m(λ) Preuve : 12.5 Existence et unicité Mail: [email protected] Tous droits réservés Page no 72 sur 96 CHAPITRE 12. DIAGONALISATION Proposition 185. Soit A ∈ Mn (K). On a les propositions suivantes équivalentes : 1. A est diagonalisable 2. A est semblable à une matrice diagonale 3. La somme des dimensions des sous-espaces propres de A est n ( p X dim Eλk = n) k=1 4. E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp 5. χA est scindé sur K[X] et pour toute valeur propre, la multiplicité est égale à la dimension du sous-espace propre associé (dim Eλi = m(λi ) = mi ) 6. Il existe une matrice P ∈ GLn (K) telle que P −1 AP = diag(λ1 , ..., λn ). P étant la matrice de changement de base, de la base canonique à la base constituée de vecteur propre de A, le j-ième étant relatif à la valeur propre λj . 7. Il existe un polynôme annulateur de f scindé à racine simple p Y 8. Le polynôme (X − λi ) où λi ∈ Sp(A) est un polynôme annulateur de f i=1 9. Le polynôme annulateur de degré minimal est scindé à racine simple Preuve : Proposition 186. Si A est diagonalisable alors D est unique. Preuve : Exemple 12.5.1 Nous allons donner ici un exemple pour chaque items. 1. 2. 3. 4. 5. Soit A = 2 1 −1 2 2−λ On a det(A − λI2 ) = 0 ⇔ 1 −1 = 0 ⇔ (2 − λ)2 +1 = 0. Ainsi le polynôme caracté2−λ | {z } ≥0 ristique ne peut être scindé sur R[X] donc cette matrice n’est pas diagonalisable dans K = R. cos θ − λ − sin θ cos θ − sin θ = 0 ⇔ (cos θ − λ)2 + sin2 θ = De même si M = on a alors det(M −λI2 ) = 0 ⇔ sin θ cos θ sin θ cos θ − λ | {z } |{z} ≥0 ≥0 2 0. Si l’on considère θ 6= kπ on aura alors (cos θ − λ)2 + |sin {z θ} = 0 et donc ne possède pas de racine sur R. Cette matrice | {z } ≥0 >0 n’est pas diagonalisable dans K = R. 6. 7. Soit f un endomorphisme tel que f 3 − 7f + 6Id = 0 alors P (X) = X 3 − 7X + 6 est un polynôme annulateur de f . De plus X 3 − 7X + 6 = (X − 2)(X − 1)(X + 3) c’est-à-dire est scindé sur K[X] à racine simple. d’après la proposition f est diagonalisable et l’ensemble des valeurs propres est une partie de {−3, 1, 2}. 8 0 Si maintenant M = −3 −1 −6 0 Mail: [email protected] 9 −3 alors M annule le polynôme (X − 2)(X + 1). En effet (M − 2In )(M + Id) = −7 Tous droits réservés Page no 73 sur 96 CHAPITRE 12. DIAGONALISATION 6 0 −3 −3 −6 0 dans K[X] à 9 9 −3 −0 −9 −6 racine simple 0 9 0 0 0 0 −3 = 0 0 0 Dit autrement il existe un polynôme annulateur de M , scindé 0 −6 0 0 0 donc M est diagonalisable. 8. 9. Proposition 187. (Condition suffisante). Si A admet n valeurs propres distinctes alors A est diagonalisable. Preuve : Proposition 188. Si A est diagonalisable alors : 1. Sp(A) = {λ1 , ..., λn } n X 2. tr(A) = λi i=1 n Y 3. det(A) = λi i=1 Preuve : 12.6 Base de diagonalisation Définition 189. Un endomorphisme f ∈ L(E) est dit diagonalisable lorsqu’il existe une base de E dans laquelle la matrice de f est diagonalisable. Une telle base est appelée base de diagonalisation de f . Dit autrement A est diagonalisable ssi E possède une base formée de vecteurs propres. Proposition 190. Si f est diagonalisable la base de diagonalisation de f est la mise bout à bout des bases de Eλi . Preuve : 12.7 12.7.1 Application Diagonalisation On cherche une matrice diagonale D qui soit semblable à A c’est-à-dire D = P −1 AP Dans la pratique : -Calcul du polynôme caractéristique et des valeurs λ -Éventuellement condition d’existence -Calcul des espaces propres Eλi et de leurs bases -Éventuellement condition d’existence -Construction de la base de diagonalisation Mail: [email protected] Tous droits réservés Page no 74 sur 96 CHAPITRE 12. DIAGONALISATION -Construction de P et P −1 -Calcul de D = P −1 AP 12.7.2 Puissance d’une matrice Le but sera de pouvoir calculer facilement An . Proposition 191. Soit A ∈ Mn (K) une matrice diagonalisable dans K telle que D = P −1 AP ou A = P DP −1 (où P est inversible et D est diagonale) alors ∀n ∈ N, An = P Dn P −1 Preuve : On va utiliser une démonstration par récurrence. Soit ∀n ∈ N, Pn la proposition "An = P Dn P −1 " On a pour n = 0, A0 = I et P D0 P −1 = P IP −1 = P P −1 = I donc P0 est vraie. On suppose Pn vraie pour n donné. Démontrons que Pn+1 vraie i.e An+1 = P Dn+1 P −1 . On a An = P Dn P −1 soit An+1 = P Dn P −1 A or A = P DP −1 d’où An+1 = P Dn (P −1 P )DP −1 = P Dn DP −1 = P Dn+1 P −1 . Ainsi Pn+1 vraie. On en déduit donc le résultat. 1 2 0 Exemple 12.7.1 On cherche An avec A = 0 3 0 On a vu que λ1 = 3, λ2 = 2, λ3 = 1 et Eλ1 =< v1 (1, 1, −2) > 2 −4 2 , Eλ2 =< v2 (0, 0, 1) > et Eλ3 =< v3 (1, 0, −2) > 0 1 0 1 0 1 On aura donc P = 1 0 0 de sorte que P −1 = 2 0 1 Ainsi dans la base de R3 , B = {v1 , v2 , v3 } l’en1 −1 0 −2 1 −2 1 2 0 1 0 1 3 0 0 0 1 0 domorphisme aura pour matrice D = 2 0 1 0 3 0 1 0 0 = 0 2 0 On remarque que 2 −1 2 −2 1 −2 0 0 1 1 −1 0 les valeurs propres λi apparaissentsur la diagonale de la matrice dans le même ordre que nous avons placé les colonnes 3n 0 0 propres pour former P d’où Dn = 0 2n 0 0 0 1n n 1 0 1 3 0 0 0 1 0 1 −1 + 3n n n n −1 1 0 0 0 2 0 2 0 1 0 3n Ainsi d’après la proposition A = P D P = = n n+1 −2 1 −2 0 0 1 1 −1 0 −2 + 2 2 − 2.3n Mail: [email protected] Tous droits réservés Page no 75 sur 96 0 0 2n Chapitre 13 Décomposition de Dunford Proposition 192. Soit f ∈ L(E) alors il existe un couple (g, h) ∈ L2 (E) tel que : – g est diagonalisable et h nilpotent – g et h commutent – f =g+h Preuve : 76 Chapitre 14 Trigonalisation On pose f ∈ L(E) et A = M atBB (f ) de taille (n, n) 14.1 Définition Définition 193. Un endomorphisme est trigonalisable ssi il existe une base (e0i ) dans laquelle la matrice de f est triangulaire. Théorème 194. (Caley-Hamilton) Soit K = C et f ∈ L(E) de matrice A et soit son polynôme caractéristique χA (X) alors χ(A) = 0 Preuve :trigonalisation des endo.pdf 2/11 14.2 Existence Proposition 195. Un endomorphsime est trigonalisable ssi son polynôme caractéristique est scindé sur K[X] Preuve : Remarque : Si K = C alors χA (X) est scindé donc trigonalisable. Dit autrement toutes matrice sur K = C est trigonalisable. 14.3 Sous-espace caractéristique Définition 196. On appelle sous-espace caractéristique, sous-espace spectral ou encore espace propre généralisé de f associé à la valeur propre λi le sous-espace vectoriel Nλi (f ) = Ker(f − λi Id)mi = {X ∈ E, (f − λi Id)mi X = 0F où mi est l’ordre de multiplicité de λi dans le polynôme caractéristique. 14.4 Vecteur propre généralisé Définition 197. v est un vecteur propre généralisé de f associé à la valeur propre λi s’il existe k ≥ 1 tel que v ∈ Ker(f − λi Id)k \{0}. Dit autrement v est un vecteur propre généralisé de f associé à λi ou nul ssi v ∈ Nλi (f ) 77 Chapitre 15 Décomposition de Cholesky Proposition 198. Soit A ∈ Mn (R) avec n ≥ 1. On suppose A symétrique définie positive (mettre def dans matrice remarquable ds def matrice) alors il existe une unique matrice L ∈ Mn (R) telle que – L est triangulaire inférieure (lij = 0 si j > i) – lij > 0, ∀1 ≤ i ≤ n – A = LLT Preuve : 78 Chapitre 16 Réduction de Jordan : (E, B) → (E, B).A défaut de pouvoir diagonaliser une matrice nous pourrons chercher une 1 0 ... 0 .. .. . . ... 0 .. .. c’est-à-dire une matrice triangulaire supérieure dont les termes au-dessus . . 0 .. . 1 0 ... ... ... λ de la diagonale vaut 1 et les autres étant nuls. Cette réduction est appliquée en particulier en analyse pour la résolution d’équation différentielle ou pour déterminer le terme général de suite récurrente. On parle également de ’Jordanisation’ des endomorphismes. Trouver une réduction de Jordan de la matrice A est donc chercher une matrice de la forme ci-dessus semblable à A c’est-à-dire J = P −1 AP Soit A une matrice associée àf λ 0 forme simple de la forme ... . .. 16.1 Bloc de Jordan Définition 199. λ On appelle bloc de Jordan d’ordre n une matrice de la forme Jλ = Jλ = Jn = Jn,λ 0 .. . .. . 0 1 .. . ... 0 .. . ... ... .. .. . . .. . ... ... 0 0 0 1 λ Dit autrement : – Les coefficients de la diagonale sont égaux à λ – Les coefficients en (i, i + 1) sont tous égaux à 1 (1 ≤ i ≤ n − 1) – Tous les autres coefficients sont nuls Dans le cas où λ = 0 on parlera de bloc de Jordan nilpotent Exemple 16.1.1 J1,λ = (λ) ou J2,λ = 16.2 λ 0 1 λ et J3,λ λ = 0 0 1 λ 0 0 1 λ Matrice de Jordan Définition 200. Une matrice de Jordan est une matrice carrée partagée en sous-matrices telles que : – Les blocs diagonaux sont des blocs de Jordan (pas forcement de même paramètre λ) – Les blocs extérieurs à la diagonale sont des matrices nulles. λ Exemple 16.2.1 Voici des matrices de Jordan : 0 0 λ 1 0 0 0 λ 0 0 . 0 0 µ 1 0 0 0 µ 0 λ 0 79 λ 0 0 1 ou 0 λ 0 1 λ 0 0 0 0 λ 0 0 λ 0 voire 0 1 0 λ 0 0 µ 1 ou 0 µ Voici des λ 0 0 0 0 1 λ 0 0 0 λ 0 exemples de matrices de Jordan avec 3 blocs diagonaux : 0 0 0 0 0 0 0 0 µ 1 0 0 µ 0 0 γ CHAPITRE 16. 0 0 0 λ 0 0 ou 0 λ 1 0 0 λ RÉDUCTION DE JORDAN λ 1 0 0 0 λ 0 0 voire 0 0 µ 0 0 0 0 λ Remarque : Une matrice de Jordan est dons triangulaire supérieure. Un bloc de Jordan est une matrice de Jordan particulière. Une matrice diagonale est aussi une matrice de Jordan, avec n blocs de Jordan de taille 1 × 1 16.3 Existence et unicité Théorème 201. (Jordan) Soit f ∈ L(E) dont le polynôme caractéristique est scindé sur K[X], alors il existe une base de E dans laquelle la matrice de f est de Jordan, c’est-à-dire diagonalisable par bloc de Jordan. Preuve : Proposition 202. Soit f ∈ L(E) nilpotent d’indice k dans un e.v E où dim E = n alors il existe des entiers n1 , ..., nk tels que n1 + ... + nk = n et une base de E dans laquelle la matrice de f est la matrice diagonale par bloc de Jordan dont les blocs sont Jn1 , ..., Jnk . Preuve : 16.4 Espace caractéristique 16.5 Base de Jordan 16.6 Application 16.6.1 Proposition Nous mettrons ici des propriétés qui se montrent grâce au théorème de Jordan et seraient difficiles à démontrer sans celui-ci. Proposition 203. Toute matrice de Mn (C) est semblable à sa transposée. Preuve : Proposition 204. Toute matrice de Mn (C) est semblable à une matrice symétrique. Preuve : Mail: [email protected] Tous droits réservés Page no 80 sur 96 CHAPITRE 16. RÉDUCTION DE JORDAN Proposition 205. Soit A ∈ Mn (C). On pose com(A) = {B ∈ Mn (C), AB = BA}. Posons Com(Com(A)) = {C ∈ Mn (C), BC = CB, ∀B ∈ Com(A)} alors Com(Com(A)) est l’ensemble des polynômes en A. Preuve : 16.6.2 Réduction de Jordan Dans la pratique : – Mail: [email protected] Tous droits réservés Page no 81 sur 96 Chapitre 17 Bilan : existence de matrice inversible =>toutes ces propositions doivent apparaitre qq part dans ce volume avt ces pages Nous regroupons ici toutes les propositions susceptibles de démontrer qu’une matrice est inversible. Un lien sera donné pour chacune d’elles afin d’en retrouver la démonstration. Soit A ∈ Mn (K), les propositions suivantes sont équivalentes : – A est inversible – A est équivalent à la matrice unité In – A possède n pivots – Le déterminant de A est non nul (det(A) 6= 0) – 0 n’est pas valeur propre de A – Le rang de A vaut n – null(A) = 0 algebre3.pdf 98/160 – Le système homogène AX = 0 a pour unique solution X = 0 – ∀b ∈ Mn1 (K) le système linéaire AX = b a au plus une solution – ∀b ∈ Mn1 (K) le système linéaire AX = b a exactement une solution – Les colonnes de A considérées comme des vecteurs de Kn sont linéairement indépendants – Les colonnes de A considérées comme des vecteurs de Kn engendrent Kn – Les colonnes de A considérées comme des vecteurs de Kn est une base de Kn – L’endomorphisme canoniquement associé à A est injectif – L’endomorphisme canoniquement associé à A est surjectif – L’endomorphisme canoniquement associé à A est bijectif – La matrice A est inversible à gauche : ∃B ∈ Mn (K) telle que BA = In – La matrice A est inversible à droite : ∃B ∈ Mn (K) telle que AB = In – La transposée AT de A est inversible – Il existe un polynôme annulateur de A dont 0 n’est pas racine – 0 n’est pas racine du polynôme minimal de A – f associée à A est un isomorphisme de E (automorphisme de E) 82 Chapitre 18 Bilan : matrices remarquables Nous allons dans cette partie faire le bilan sur certaines matrices remarquables, à savoir leur définition, l’existence d’un inverse, du déterminant etc. Tout ce qui n’aura pas été démontré le sera et si cela est déjà fait un renvoi sera donné vers la page de la preuve. =>ici toutes les propriétés (det/inversion/struct alg/relation d’ordre/diag/trig/jordan...avec renvoi vers les démonstrations si deja faite et qui st vraiment nécessaire avt cette partie sinon mettre les dem/ex ici et pas avt (sauf nécessite) 18.1 Matrice nulle Soit E un K-e.v de dimension n de base B = {e1 , ..., en } et F un K-e.v de dimension m de base B 0 = {e01 , ..., e0m } L’application linéaire (démonstration page 5) O : E −→ F est telle que : x 7−→ 0F f (e1 ) = 0 = 0e01 + 0e02 + 0e03 + ... + 0e0m f (e2 ) = 0 = 0e01 + 0e02 + 0e3 + ... + 0e00m .. . f (en ) = 0 = 0e01 + 0e02 + 0e03 + ... + 0e0m L’application linéaire de (E, B) dans (F, B 0 ) aura pour matrice de taille (m, n) Définition 206. On appelle matrice nulle une matrice ne contenant que des 0. 0K . . . 0K . . . On la note Mmn (K) = OL(E,F ) = OMmn (K) = O = . .. .. . 0K 18.2 ... 0K 0K .. . 0K Matrice unité Définition 207. On appelle matrice unité une matrice 1 0 0 1 On la note Mn (K) = In = . .. .. . 0 ... carrée avec des 1 sur la diagonale principale et des 0 partout ailleurs. ... 0 . . . . .. .. . 0 ... 1 Remarque : On rappelle qu’une matrice unité n’est pas forcement associée à l’application linéaire identité (dans deux mêmes bases). Voir exemple 4.2.3 page 27 et exemple 4.2.4 page 27. Le terme de matrice identité est un anglicisme dont on évitera dans les présents volume. 18.3 Matrice colonne et ligne 83 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Définition 208. si m = 1 on parlera de matrice colonne et si n = 1 on parlera de matrice ligne. 18.4 Matrice canonique Définition 209. Soit f ∈ L(Kp , Kn ) de matrice associée A relativement aux base canoniques de Kp et Kn . f est alors dite application linéaire canoniquement associée. On notera souvent A ←→ f . Dit autrement A peut être au moins la matrice associée de f , mais il peut y en avoir d’autres. Lorsque l’on veut associée A à f ainsi défini on parlera de la matrice canonique associée à f . 18.5 Matrice triangulaire supérieure et inférieure 18.5.1 Définition Définition 210. Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp.triangulaire inférieure) lorsque aij = 0, ∀(i, j) pour i > j (resp. i < j). Dit autrement sous forme de matrice : a 0 ··· ··· 0 1,1 a1,1 a1,2 · · · · · · a1,n .. .. 0 a2,2 a2,n . a2,1 a2,2 . .. . . . .. . .. .. et . .. .. .. . . . . . . .. . .. .. .. .. . . . .. . 0 0 ··· ··· 0 an,n an,1 an,2 · · · · · · an,n 4 0 0 5 0 −1 0 est une matrice triangulaire inférieure. De même que Exemple 18.5.1 A = 1 3 −2 0 1 −3 et sont des matrices triangulaires supérieures. 0 6 0 −2 1 . Enfin 0 0 1 −1 0 −1 −1 −1 Définition 211. On appelle matrice triangulaire strictement positive A ∈ Mn (K) où aii = 0 0 0 ··· 0 a1,2 · · · · · · a1,n .. 0 0 a2,n a2,1 . 0 .. . . . . . . . .. . . . .. . . et . . . . .. .. .. .. .. . 0 ··· ··· 0 0 an,1 an,2 · · · 18.5.2 (resp. inférieure strictement) une matrice triangulaire ··· .. .. . . ··· 0 .. . .. . 0 0 Déterminant Proposition 212. Le déterminant d’une matrice triangulaire est égal au produit a11 a22 ...ann des éléments diagonaux. Dit autrement une matrice de taille n × n triangulaire est inversible ssi ses éléments diagonaux sont tous non nuls. Mail: [email protected] Tous droits réservés Page no 84 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Preuve : algèbre lineaire 3.pdf Preuve : Soit une matrice triangulaire supérieure, est a11 a22 ...ann . La permutation correspondante est Ainsi det(A) = a11 a22 ...ann a1,1 a1,2 · · · · · · a1,n 0 a2,2 a2,n .. .. .. .. . . . . le seul produit élémentaire signé non nul .. .. .. .. . . . . 0 ··· ··· 0 an,n σ(1, 2, ..., n) qui contient 0 inversion donc on a une permutation paire. Proposition 213. Une matrice triangulaire supérieure par bloc M = A 0 B D a pour déterminant det M = det Adet C Preuve : algèbre licence.pdf 70/144 1 2 3 1 2 3 4 5 6 7 8 . On a alors 5 6 7 Exemple 18.5.2 On veut calculer le déterminant de la matrice suivante 0 0 9 0 0 9 10 0 0 11 0 0 11 12 1 2 3 4 5 6 7 8 = 1 2 9 10 = (1.6 − 5.2).(9.12 − 11.10) = 8 0 0 11 12 5 6 9 10 0 0 11 12 1 2 3 4 6 7 8 6 7 0 6 7 8 Si nous avions eu = 1. 0 9 10 0 9 = 1.[(6.9.12) + 0 + 0 − 0 − (11.10.6) − 0] = −12 0 9 10 0 0 11 12 0 11 0 0 11 12 18.5.3 18.6 4 8 10 12 = Matrice inverse Matrice diagonale 18.6.1 Définition Définition 214. Lorsque aij = 0 pour tout couple (i, j) tels que i 6= j on dira que la matrice est diagonale. Celle-ci s’appelle la λ1 0 .. diagonale principale. Dit autrement une matrice diagonale est de la forme . λn Dit autrement une matrice qui est triangulaire supérieure et inférieure est diagonale. On l’a note également diag(λ1 , ..., λn ) Remarque : Les coefficients de la diagonale peuvent être ou ne pas être nulle. Remarque : Les matrices diagonales apparaissent dans presque tous les domaines de l’algèbre linéaire. Les calculs sur une matrice diagonale sont très rapide mais sont également plus facile à stocker en mémoire. Nous avons vu que le procédé qui consiste à trouver des bases de E et F telles que la matrice soit diagonale s’appelait diagonalisation. 18.6.2 Déterminant Mail: [email protected] Tous droits réservés Page no 85 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Proposition 215. Une matrice diagonale est inversible ssi ses éléments diagonaux sont tous non nuls c’est-à-dire det A = a11 ...ann 6= 0 Preuve : Une matrice diagonale étant une matrice triangulaire la proposition ? ? ? s’applique. 18.6.3 Matrice inverse Proposition 216. a1 0 .. Si det(A) 6= 0 et diag(a1 , ..., an ) = 0 a1 Preuve : AA−1 = 0 .. . 0 an fie que A est inversible d’inverse A−1 18.6.4 1/a1 .. a1 /a1 = In donc par définition cela signi- . 0 1/an 1/an 0 .. = . . 0 0 alors A−1 = . 0 .. 0 an 1/a1 an /an Matrice puissance Proposition 217. Si D = diag(a1 , ..., an ) alors Dn = diag(an1 , ..., ann ) Preuve : 18.7 Matrice scalaire Définition 218. Une matrice scalaire est une matrice diagonale dont tous les coefficients diagonaux sont égaux. 2 Exemple 18.7.1 Soit A = 0 0 n’est pas une matrice scalaire. 18.8 0 2 0 0 1 0 est une matrice scalaire. La matrice B = 0 2 0 0 2 0 0 0 si elle est bien diagonale 1 Matrice transposée Définition 219. La transposée de la matrice A = (aij ) de taille (n, m) a11 a12 . . . a1m a11 a21 a22 . . . a2m a12 Si A = . .. .. .. alors At = .. .. . . . . an1 an2 . . . anm a1m est la matrice At = (aji ) de taille (m, n) a21 . . . an1 a22 . . . an2 .. .. .. . . . a2m ... anm D’autres notations sont t A ou AT et les statisticiens notent souvent la transposée A0 . Mail: [email protected] Tous droits réservés Page no 86 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Exemple 18.8.1 t 1 −2 5 1 0 = −2 ou encore 1 5 −1 T 3 0 −5 = 3 2 1 −5 −1 2 . Enfin −1 0 0 2 t = −1 0 et (4)T = 4 Proposition 220. 1. (A + B)T = AT + B T 2. (kA)T = kAT 3. (AB)T = B T AT 4. (AT )T = A 5. Si A est inversible alors AT l’est aussi et on a (AT )−1 = (A−1 )T qui sera noté A−T Preuve :algebre lineaire 3.pdf 30/160 trace a mettre tr(AT ) = tr(A) prop 160+page 65 18.9 Matrice conjuguée Définition 221. Soit K = C et A ∈ Mmn (K), on appelle matrice conjuguée de A la matrice A∗ de Mnm (K) définie par ∀ 1 ≤ k ≤ n et 1 ≤ l ≤ m ; a∗kl = alk Remarque : Si K = R l’opération de conjugaison coïncide avec l’opération de transposition. i 0 −i −i ∗ Exemple 18.9.1 Soit A = alors A = i 1 0 1 Proposition 222. Soient α, β ∈ C et A, B ∈ Mmn (C) alors (αA + βB)∗ = αA∗ + βB ∗ . Cela signifie que l’opération de conjugaison est anti-linéaire. Preuve : Proposition 223. Soient A ∈ Mmn (C) et B ∈ Mnp (C) alors (AB)∗ = B ∗ A∗ . Si de plus A est inversible alors A∗ aussi et l’on aura (A∗ )−1 = (A−1 )∗ Preuve : Proposition 224. tr A∗ = tr A Preuve : 18.10 Matrice nilpotente Mail: [email protected] Tous droits réservés Page no 87 sur 96 0 2 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Définition 225. On dit que A ∈ Mn (K) est une matrice nilpotente s’il existe p ∈ N∗ tel que Ap = 0. Le plus petit p est appelé indice de nilpotence de A. 0 .. Exemple 18.10.1 Soit On = . 0 ... ... 0 .. est nilpotente d’ordre ? ( a verifier p>0) . 0 Proposition 226. Une matrice A est nilpotente ssi l’endomorphisme f ∈ End(E) (avec dim E = n) de matrice A par rapport à la base B est nilpotent. Preuve : 18.11 Matrice positive et strictement positive Définition 227. Une matrice A ∈ Mmn (R) est dite positive lorsque tous ses éléments scalaires sont des réels positifs. On écrira alors A ≥ 0. Elle sera dite strictement positive si aij > 0 et on écrira A > 0 Exemple 18.11.1 Soit A = 1 2 2 1 0 2 est une matrice positive. A = −1 0 2 1 ne l’est pas et enfin A = 1 3 2 4 >0 Proposition 228. Soient A, B ∈ Mmn (R) alors A ≤ B ⇔ B − A ≥ 0 est une relation d’ordre partiel compatible avec l’addition et la multiplication (à gauche ou à droite) par une matrice positive. Preuve : 18.12 Matrice définie positive Définition 229. Une matrice définie positive est une matrice positive inversible. 18.13 Matrice de rotation En dimension 2 : Proposition 230. La matrice de rotation d’un repère orthonormé dans le sens anti de centre O etd’angle θ dans le plan munit cos θ − sin θ cos θ sin θ horaire est : R(θ) = ou dans le sens horaire sin θ cos θ − sin θ cos θ Mail: [email protected] Tous droits réservés Page no 88 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Preuve : Nous avons vu que l’application linéaire rotation de centre O et d’angle θ était r : R2 −→ R2 (x, y) 7−→ (x cos θ − y sin θ, x sin θ + y cos θ) (proposition 54 page no 20) Si l’on prend les bases orthonormées canoniques, B = B 0 = {e1 (1, 0); e2 (0, 2)} on aura : f (e1 ) = f (1, 0) = (cos θ, sin θ) = cos θe1 + sin θe2 f (e2 ) = f (0, 1) = (− sin θ, cos θ) = − sin θe1 + cos θe2 d’où la matrice de rotation. 0 −1 Exemple 18.13.1 Dans le cas où θ = π2 on aura R( π2 ) = et ainsi si on cherche l’image du vecteur composante 1 0 0 −1 1 0 (1, 0) après rotation on obtient = 1 0 0 1 −1 0 −1 0 1 0 De même si θ = π alors R(π) = soit = 0 −1 0 −1 0 −1 En dimension 3 : Proposition 231. La matrice de rotation autourde l’axe (Ox) et d’angle θ dans l’espace munit d’un 1 0 0 sens anti-horaire est Rx (θ) = 0 cos θ − sin θ 0 sin θ cos θ cos θ 0 0 1 La matrice de rotation autour de l’axe (Oy) et d’angle θ est Ry (θ) = − sin θ 0 cos θ Enfin la matrice de rotation autour de l’axe (Oz) et d’angle θ est Ry (θ) = sin θ 0 repère orthonormé dans le − sin θ 0 cos θ sin θ 0 cos θ 0 0 1 rx : R3 −→ R3 . Si l’on se place (x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x, y cos θ − z sin θ, y sin θ + z cos θ) 0 dans la base canonique orthonormée B = B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} on a : Preuve : pour Rx nous avons démontré que f (e1 ) = f (1, 0, 0) = (1, 0, 0) = 1e1 + 0e2 + 0e3 f (e2 ) = f (0, 1, 0) = (0, cos θ, sin θ) = 0e1 + cos θe2 + sin θe3 f (e3 ) = f (0, 0, 1) = (0, − sin θ, cos θ) = 0e1 − sin θe2 + cos θe3 d’où le résultat. Pour Ry nous avons démontré que ry : R3 −→ R3 soit dans les bases cano(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ + z sin θ, y, −x sin θ + z cos θ) niques : f (e1 ) = f (1, 0, 0) = (cos θ, 0, − sin θ) = cos1 +0e2 − sin θe3 f (e2 ) = f (0, 1, 0) = (0, 1, 0) = 0e1 + 1e2 + 0e3 f (e3 ) = f (0, 0, 1) = (sin θ, 0, cos θ) = sin θe1 + 0e2 + cos θe3 d’où le résultat. Enfin pour Rz nous avons démontré que rz : R3 −→ R3 soit dans les bases (x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ − y sin θ, x sin θ + y cos θ, z) canoniques : f (e1 ) = f (1, 0, 0) = (cos θ, − sin θ, 0) = cos1 + − sin θe2 + 0e3 f (e2 ) = f (0, 1, 0) = (− sin θ, cos θ, 0) = − sin1 + cos θe2 + 0e3 f (e3 ) = f (0, 0, 1) = (0, 0, 1) = 01 + 0e2 + 1e3 d’où le résultat. Proposition 232. L’ensemble des matrices de rotation de taille fixée (R, ?, ?) ou (Rx , ?, ?),(Ry , ?, ?) ou (Rz , ?, ?) est un groupe appelé groupe des rotations ou groupe spécial orthogonal. C’est un sous-groupe du groupe orthogonal. Mail: [email protected] Tous droits réservés Page no 89 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Preuve : =>faut-il mettre une subsection matrice rotation dans matrice remarquable+prop precendente ? 18.13.1 Déterminant En dimension 2 : Proposition 233. det(R(θ)) = 1 Preuve : 18.14 Matrice d’un projecteur Proposition 234. Toute matrice d’un projecteur est diagonalisable===>la matrice d’une projection n’est elle pas déjà diagonale ? Preuve : Remarque : Les valeurs propres des projecteurs sont 0 et 1. Le sous-espace propre associé à la valeur propre 0 étant le noyau du projecteur (la direction parallèlement à laquelle on projette). Le sous-espace propre associé à la valeur propre 1 est l’image du projecteur (le sous-espace vectoriel sur lequel on projette). 18.15 Matrice d’une symétrie Proposition 235. Toute matrice d’une symétrie est diagonalisable===>la matrice d’une symétrie n’est elle pas déjà diagonale ? Preuve : Remarque : Les valeurs propres sont −1 et 1. Le sous-espace propre associé à la valeur propre −1 étant la direction parallèlement à laquelle on effectue la symétrie. Le sous-espace propre associé à la valeur propre 1 est le sous-espace vectoriel par rapport auquel s’effectue la symétrie. 18.16 Matrice symétrique et antisymétrique Les matrices symétriques et antisymétriques seront vues en algèbre bilinéaire avec les formes bilinéaires symétriques et les formes bilinéaires antisymétriques. En effet nous verrons qu’une forme bilinéaire symétrique ou antisymétrique peut se représenter pour une base donnée par une matrice symétrique ou antisymétrique. Définition 236. On dit que A est symétrique si A =t A ou encore aij = aji . On dit que A est antisymétrique si A = −t A c’est-àdire aij = −aji . On note l’ensemble des matrices symétriques Sn (K) et l’ensemble des matrices antisymétriques An (K) −1 Exemple 18.16.1 Les matrices A = 0 5 Mail: [email protected] 0 2 −1 5 0 −1 , 2 0 2 4 ,In et Onn sont symétriques. Tous droits réservés Page no 90 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES 0 4 2 0 −1 0 0 Exemple 18.16.2 Les matrices A = , et −4 0 −5 sont antisymétriques. Si i = j alors on 1 0 0 0 −2 5 0 doit avoir aii = −aii donc aii = 0. Ainsi les éléments diagonaux d’une matrice antisymétrique sont toujours nuls. Proposition 237. Pour une matrice B ∈ Mmn (K), les matrices BB T et B T B sont symétriques. Preuve : algebre lineaire 3.pdf 32/160 Proposition 238. Toute matrice symétrique est diagonalisable. Preuve : Proposition 239. Toute matrice A de taille n × n est la somme directe d’une matrice symétrique B = T . Dit autrement Mn (K) = Sn (K) ⊕ An (K) antisymétrique C = A−A 2 A+AT 2 et d’une matrice Preuve : algebre lineaire 3.pdf 32/160 Proposition 240. dim Sn (K) = n(n+1) 2 et dim An (K) = n(n−1) 2 Preuve : algebre lineaire 3.pdf 32/160 2 8 10 −3 T 1 2[ 2 8 10 −3 2 8 10 −3 1 2 4 18 + Exemple 18.16.3 Soit A = alors B = (A + A )/2 = ] = 2 9 . 9 −3 2 10 2 8 0 2 0 1 2 9 0 1 1 1 Enfin C = 2 [ − ]= 2 = d’où A = + 8 −3 10 −3 −2 0 −1 0 9 −3 −1 0 | {z } | {z } symetrique 18.17 18 −6 = antisymetrique Matrice de permutation Définition 241. Une matrice de permutation est une matrice carréz qui vérifie les conditions suivantes : -Les coefficients sont 0 ou 1 -Il y a un et un seul 1 par ligne -Il y a un et un seul 1 par colonne. 1 0 Exemple 18.17.1 0 0 0 0 0 1 Mail: [email protected] 0 1 0 0 0 0 est une matrice de permutation. 1 0 Tous droits réservés Page no 91 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES 18.18 Matrice de dilatation Définition 242. Dans une base de E et pour λ ∈ R on appelle matrice de dilatation de rapport λ une matrice du type diag(1, 1..., λ, 1, ..., 1) = In + (λ − 1)Eii 18.19 Matrice de transvection Définition 243. Une matrice de transvection est du type 1 1 O 18.20 O λ . = In + λEij 1 Matrice orthogonale Définition 244. Une matrice A ∈ Mn (R) est dite orthogonale si elle vérifie At A = In où At est la matrice transposée de A et In la matrice identité de taille n. Proposition 245. A est orthogonale ssi A est inversible et A−1 = At . Preuve : Proposition 246. A est orthogonale ssi tous ses vecteurs colonnes sont orthogonaux entre eux et de norme 1. Preuve : 18.21 Matrice de Houscholder Définition 247. T xx Soit x ∈ Rn , la matrice carrée de Houscholder associée à x est la matrice définie par Hx = In − 2 ||x|| 2 où In est la matrice identité de taille n. Proposition 248. Hx est symétrique et orthogonale. Preuve : 18.22 Matrice de Hadamard Mail: [email protected] Tous droits réservés Page no 92 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Définition 249. Une matrice de Hadamard est une matrice carrée dont les coefficients sont tous 1 ou −1 et dont les vecteurs lignes sont tous orthogonaux entre eux. Ces matrices portent le nom en hommage au mathématicien français Jacques Hadamard mais les premiers exemples sont dus à James Joseph Sylvester. Ces matrices de Hadamard sont utilisées dans le codes correcteurs, les plans d’analyse sensoriel ou les plans d’expériences factoriels. 1 1 1 1 1 −1 1 −1 1 1 et H4 Exemple 18.22.1 Les matrices suivantes sont de Hadamard : H1 = (1), H2 = 1 1 −1 −1 1 −1 1 −1 −1 1 Proposition 250. (Existence : conjecture de Hadamard) L’ordre d’une matrice de Hadamard si elle existe est nécessairement 1, 2 ou un multiple de 4. Preuve : Proposition 251. (Existence : construction de Sylver) Il existe des matrices de Hadamard d’ordre 2k , ∀k ∈ N Preuve : 18.23 Matrice de Hankel Définition 252. En algèbre linéaire, une matrice de Hankel, du nom du mathématicien Herman Hankel est une matrice carrée dont les valeurs sont constantes le long des diagonales ascendantes, c’est-à-dire ai,j = ai−1,j+1 ∈ K α1 α2 α3 α4 · · · α2 α3 α4 α5 · · · α3 α4 α5 α6 · · · .. .. .. .. .. . . . . . Exemple 18.23.1 La matrice 18.24 a b b c c d d e e f c d e f g d e f g h e f g h i est une matrice de Hankel. Matrice de Toeplitz Mail: [email protected] Tous droits réservés Page no 93 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Définition 253. Une matrice de Toeplitz ou matrice à diagonales constantes est une matrice dont les coefficients sur les diagonales descendantes sont les mêmes. a0 a−1 a−2 . . . . . . a−n+1 .. . a1 a0 a−1 . . . . . . . . . . . a2 . . . a1 . On a avec ces notations de scalaires aij = ai−j . .. .. .. .. . . . a a −1 −2 . . .. .. a a0 a−1 1 am−1 . . . . . . a2 a1 a0 Ces matrices rencontrées dans des systèmes linéaires dont la matrice est de Toeplitz peuvent être calculées très rapidement. Ces matrices ont une certaine parenté avec les matrices de Hankel, ce sont des matrices de Hankel "renversées". a b c d e f a b c d Exemple 18.24.1 La matrice suivante est Toeplitz g f a b c h g f a b j h g f a 18.25 Matrice circulante Définition 254. On appelle matrice circulante droit associée au n-uplet (x1 , .., xn ) la matrice x1 x2 x3 · · · xn xn x1 x2 · · · xn−1 xn−1 xn x1 · · · xn−2 (aij ) = .. .. .. .. .. . . . . . x2 18.26 x3 x4 ··· x1 Matrice anticirculante Les matrices anticirculantes sont des cas particulier de matrices de Hankel ou de Toeplitz. Il existe donc plusieurs définitions. Définition 255. Une matrice anticirculante standart de taille n à coefficients dans K = C est de la forme d’Hankel : c0 c1 c2 ... . . . cn−1 c1 ... ... cn−2 cn−1 c0 c2 . . . c c c c1 n−2 n−1 0 C= et où la somme en ligne comme en colonne demeure constante. .. .. .. .. .. .. . . . . . . cn−1 c0 c1 c2 ... cn−2 Mail: [email protected] Tous droits réservés Page no 94 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Définition 256. On appelle matrice anticirculante de Hankel la matrice de la forme : c0 c1 c2 ... ... 0 c1 ... ... cn−2 0 −cn−2 c2 . . . c 0 −c n−2 n−2 −cn−3 C= . . On parle aussi de g-circulant ou H-skew-circulant. . . . . . .. .. .. .. .. .. ... ... ... ... ... −c1 0 −cn−2 −cn−3 . . . −c1 −c0 Proposition 257. Toute matrice de Hankel est la somme d’une matrice circulante et d’une matrice anticirculante. Preuve : Définition 258. On appelle matrice anticirculante de Toeplitz, les matrices de la forme : c0 −c1 −c2 . . . −cn−1 cn−1 c0 −c1 . . . −cn−2 cn−2 cn−1 c0 . . . −cn−3 C= . On parle aussi de matrice circulante gauche. .. .. .. .. .. . . . . . c1 c2 c3 ... c0 18.27 Matrice de Vandermonde 18.27.1 Définition Définition 259. En algèbre linéaire, une matrice de Vandermonde est une matrice avec une progression géométrique dans chaque ligne. Elle tient son nom du mathématicien français Alexandre-Théophile Vandermonde. 1 a1 a1 2 . . . a1 n−1 1 a2 a2 2 . . . a2 n−1 2 . . . a3 n−1 V = V (a1 , ..., an ) = 1 a3 a3 . .. .. .. .. . . . . 1 am am 2 ... am n−1 Remarque : Certains ouvrages utilisent la transposée de la matrice ci-dessus. 18.27.2 Déterminant Mail: [email protected] Tous droits réservés Page no 95 sur 96 CHAPITRE 18. BILAN : MATRICES REMARQUABLES Proposition 260. Soient a1 , ..., an ∈ K. Le 1 1 det(V (a1 , ..., an )) = 1 .. . 1 déterminant de Vandermonde est le suivant : a1 a1 2 . . . a1 n−1 a2 a2 2 . . . a2 n−1 Y a3 a3 2 . . . a3 n−1 = (aj − ai ) .. .. .. 1≤i<j≤n . . . am am 2 . . . am n−1 Preuve : algebre licence .pdf 78/144 1 1 4 . Calculons le déterminant par la formule de Vandermonde. Exemple 18.27.1 Soit la matrice V (4, 3) = 1 1 3 Y (aj − ai ). Si i = 1 alors j = 2 d’où det(V (4, 3)) = (a2 − a1 ) = 3 − 4 = −1. 4 = 3 1≤i<j≤2 1 2 4 Y Maintenant prenons V (2, 3, 4) = 1 3 9 . On va calculer |A| = (aj − ai ). Si i = 1 alors j = 2 ou j = 3. Si 1 4 16 1≤i<j≤3 i = 2 alors j = 3. D’où det(V (2, 3, 4)) = (a2 − a1 )(a3 − a1 )(a3 − a2 ) = (3 − 2)(4 − 2)(4 − 3) = 2 18.27.3 Déterminant Proposition 261. La matrice de Vandermonde est inversible ssi tous les nombres ai sont distincts deux à deux. Preuve : algebre licence .pdf 78/144 Mail: [email protected] Tous droits réservés Page no 96 sur 96