Algèbre linéaire et bilinéaire Quelques rappels sur les « bases » de l’algèbre linéaire................................ 3 I) Matrices et applications linéaires ........................................................ 3 II) Déterminants ........................................................................................ 6 III) Sommes de sous-espaces vectoriels ................................................. 7 IV) 1) 2) 3) Premiers éléments de réduction ...................................................... 8 Objectif............................................................................................ 8 Eléments propres ............................................................................. 9 Diagonalisation. Trigonalisation. .................................................. 10 Polynômes d’endomorphisme ....................................................................... 11 I) Définitions .......................................................................................... 11 II) Arithmétique des polynômes .............................................................. 11 III) Le lemme des noyaux..................................................................... 13 IV) Polynômes annulateurs d’un endomorphisme............................... 13 Réduction d’endomorphismes ....................................................................... 15 I) 1) 2) 3) Premiers pas ...................................................................................... 15 Recherche de sous-espaces stables ................................................ 15 Critère pour qu’un endomorphisme soit diagonalisable ................ 15 Théorème de Cayley Hamilton...................................................... 15 1) 2) 3) 4) 5) Réduction de Jordan .......................................................................... 16 Décomposition en sous espaces caractéristiques ........................... 16 Réduction des endomorphismes nilpotent ..................................... 16 Méthode pratique de la réduction des endomorphismes nilpotents 17 Théorème de Jordan ...................................................................... 18 Intérêt de la forme de Jordan ......................................................... 18 II) Formes Quadratiques .................................................................................... 21 I) Définitions .......................................................................................... 21 II) Réduction par la méthode de Gauss................................................... 22 Index des notions ............................................................................................ 23 Quelques rappels sur les « bases » de l’algèbre linéaire Dans tout le cours, on notera K R ou C (corps des scalaires). I) Matrices et applications linéaires Notation (E) : La lettre E désigne en général un K-espace vectoriel de dimension finie. En particulier, si on note d dim E , une fois le choix d’une base fait, étudier E revient à étudier K d . Notation (espace des matrices) : On notera M n, p K l’espace vectoriel des matrices à coefficients dans K qui ont n lignes et p colonnes (et Mn K Mn,n K ). Notation (espace des applications linéaires) : Si E et F sont des espaces vectoriels (de dimension finie), on note L E, F l’espace vectoriel des applications linéaires de E dans F. Notation (matrices d’une application linéaire) : Si on se donne e j et fi des bases de E et F, et si j 1,2,, dim E u e j dim E a i 1 f alors la matrice ij i A aij 1idim F est appelée matrice de u dans les bases e j et f i . 1 j dim E On note A Mate j fi u . Le choix d’une base de l’espace de départ et d’une base de l’espace d’arrivé fait correspondre bijectivement les applications linéaires et les matrices. Bien sûr, L E, F est un K-espace vectoriel, et on a donc : Def (addition interne) : uv: E F x u v x u x v x Def (produit externe) : u : E F x u x u x Naturellement, correspondent la somme des matrices et la multiplication par un scalaire. Def (composition) : On peut enfin composer des applications linéaires. u v E F G vu: E G On défini x v u x vu x Matriciellement correspond à la composition d’applications linéaires le produit de matrice. On défini C A B par cij aik bkj . k Alors Matek gi v u Mat f j gi v Matek f j u . Def (inverse) : Si E F , on note L E L E, E et on parle d’endomorphisme. u L E Est dit inversible s’il existe v L E tel que id : E E . v u u v id où xx L’inverse est usuellement noté u 1 . Matriciellement lui correspond l’inverse de matrice (ie A A1 A1 A Id ). Def (ensemble des matrices inversibles) : L’ensemble des matrices (de Mn K ) inversibles est noté GLn K . C’est un groupe non commutatif pour la multiplication des matrices. Def (puissance d’application linéaire) : Si u L E et k N , on note u k u u u k fois. Si k 0 u 0 id . Def (polynôme d’application linéaire) : Si P K X (polynôme à d coefficients dans K), disons que P ai X i . i 0 d Alors P u ai u i . i 0 Def (changement de base) : Si e j et h j sont deux bases de E, et x E , on note x x j e j y j h j . j x1 Def (matrice de passage) : Si X est le vecteur et Y le x dim E y1 vecteur alors X P Y où P est appelée matrice de y dim E passage de e j dans h j . Les colonnes de P sont les coordonnées des vecteurs h j dans la base e j . On la note Pe j h j . Ff , Def (changement de base des matrices) : Si u : E e j h j i gi application linéaire : Mate j fi u P fi gi Math j gi u Ph j e j . 1 Rq : Ph j e j Pe j h j Donc si u L E : Math j u Pe j h j Mate j u Pe j h j 1 Def (matrices semblables) : Si A, B Mn K tel qu’il existe P GL K telle que B P 1 A P On dit que A et B sont semblables. (être semblable est une relation d’équivalence) Def (relation d’équivalence) : - réflexif : A et A sont toujours semblable - symétrique : A et B semblables B et A semblables A et B semblables - transitif : A et C semblables B et C semblables Def (matrices équivalentes) : A et B sont équivalentes s’il existe P, Q GL K telles que B Q A P (c’est une relation d’équivalence). Def (image) : Si u L E, F , Imu ux x E est un sousespace vectoriel de F appelé image de u. Def (noyau) : Keru x E ux 0 est un sous-espace vectoriel de E appelé noyau de u. Def (rang d’une application linéaire) : rgu dim Im u est appelé rang de u. Théorème du rang : dim E dim Ker u dim Im u Def (rang d’une matrice) : Si A M n, p K , son rang est la dimension de l’espace vectoriel engendré par les vecteurs colonnes. Si A Mate j fi u , alors rg A rg u . En fait, il revient au même de dire que deux matrices sont équivalentes et qu’elles ont même rang. I 0 . Et donc r rg A A est équivalente à r 0 0 II) Déterminants Def (déterminant) : Soit A aij 1i , jn . On définit det A n sign ai i . S n i 1 Sn bijection de 1,, ndans 1,, n Si S n , sign 1 avec card i, j 1 i j n i j Rq : On ne peut pas utiliser cette définition dés que n est grand (sauf n 2 et n 3 ). En pratique : On utilise les formules de développement par rapport aux lignes et aux colonnes. n det A 1 0 ai0 , j i0 , j j 1 i j Où i , j det matrice A privée de sa i e ligne et j e colonne . On peut aussi voir det A f C1 ,, Cn f est n-linéaire et alternée (ie si on intervertit C j1 et C j2 , la valeur de l’image est transformée et son opposé). Il en découle alors les opérations sur les lignes et les colonnes pour le calcul du déterminant. III) Sommes de sous-espaces vectoriels Def (somme de sous-espaces vectoriels) : Soient F1 , F2 ,, Fp des sous-espaces vectoriels de E. On définit la somme : F1 Fp Fi f1 f p i 1,, n f i Fi p i 1 Def (somme directe) : On dit que cette somme est directe, et on la p note : F1 F2 Fp Fi , si l’une des conditions i 1 équivalentes suivante est réalisée : (i) i 1,, p Fi F j 0 j i i 1 (ii) i 2,, p Fi F j 0 j 1 p (iii) y Fi i 1 !x1 ,, x p F1 Fp p y xi i 1 (iv) Si 0 x1 x p avec i 1,, p xi Fi , alors i 1,, p xi 0 p p (v) dim Fi dim Fi i 1 i 1 (vi) Si B1 ,, Bp sont des bases de F1 ,, Fp , alors B B1 B2 Bp est une base de p F i 1 IV) i Premiers éléments de réduction 1) Objectif Si u L E , on cherche une base ei 1 i n de E dans laquelle u est représenté par une matrice « simple ». Def (stabilité) : On dit qu’un sous-espace vectoriel F de E est stable par u si : x F ux F . Alors, si Mat u F A la matrice de u est de la forme : A 0 . Matu 0 B Si maintenant E F1 Fk avec les Fi stables par u. Chaque Fi est équipé d’une base dans laquelle Mat u F Ai . i Si on équipe E de la réunion des bases de F1 , Fk , alors : A1 0 0 0 A2 Matu 0 0 0 A k Donc Matu est « simple » dans cette base (car elle comporte beaucoup de 0), en tout cas plus simple qu’une matrice quelconque. Elle sera d’ailleurs d’autant plus simple que les Ai le seront. 2) Eléments propres u désigne toujours un endomorphisme de E. Def (valeur propre) : On appelle valeur propre de E tout K tel qu’il existe x E 0 avec ux x . Un tel x est appelé vecteur propre associé à la valeur propre . E Keru id x E ux x est appelé sous espace propre de u associé à la valeur propre . Rq : - E est stable par u - u E id E E , si bien que dans n’importe quelle base de Mat u E I d où d dim E On peut définir de la même façon les valeurs propres et vecteurs propres d’une matrice. Rq : valeur propre de u Keru id 0 u id non injectif u _ id non bijective (car on est en dimension finie) det Matu I n 0 Def (polynôme caractéristique) : Le polynôme unitaire de degré n u det X I n Matu est appelé polynôme caractéristique de u. Si on note Spu (spectre de u) l’ensemble des valeurs propres de u, on a donc : Spu K u 0. Rq : Supposons que F est un sous-espace stable par u et E F G . Alors : u divise u . F 3) Diagonalisation. Trigonalisation. u L E Def (matrice diagonalisable) : On dit que u est diagonalisable si il peut être représenté par une matrice de la forme : 1 I d1 0 k I d k 0 Prop : u diagonalisable E E Spu Prop : On a toujours : E E . Mais la somme ne fait Sp u Sp u pas toujours E. Prop : u diagonalisable u scindé et l’ordre de multiplicité de chacune de ces racines est égale à la dimension du sous-espace vectoriel E associé. Def (matrice trigonalisable) : On dit que u est trigonalisable s’il existe une base dans laquelle il est représenté par une matrice triangulaire. Prop : u trigonalisable u scindé. Polynômes d’endomorphisme I) Définitions k k i 0 i 0 Si P ai X i , on pose Pu ai u i Rq : Mat Pu PMat u P Q u Pu Qu P Q u Pu Qu Qu Pu P Q A P A Q A P Q A P A Q A Q A P A k P A ai Ai . i 0 II) Arithmétique des polynômes K X , l’ensemble des polynômes à coefficients dans K est un « anneau », ie il est muni de 2 lois internes + et telles que, en particulier, K X , est un groupe. Def (anneau euclidien) : Cet anneau est de plus un anneau euclidien, ie si A, B K X sont non nuls, il existe un unique couple Q, R K X tels que A Q B R où R B (avec 0 ). Def (multiple) : Si R 0 , on dit que A est un multiple de B, ou encore B divise A (noté B A ). Def (polynômes associés) : On dira que deux polynômes A, B K X sont associés s’il existe K * tel que A B Rq : être associé est une relation d’équivalence Def (polynôme irréductible) : On dira que A K X est irréductible si ses seuls diviseurs sont 1 et A, et leurs associés, et s’il est de degré au moins 1. Def (idéal) : On dit que I K X est un idéal si : - I Ø - A, B I A B I - P K X A I P A I Rq : en particulier : 0 I . Prop : tout idéal de K X est de la forme I H , avec H K X . Prop : 1) Une somme finie d’idéaux est un idéal. 2) Une intersection finie d’idéaux est un idéal. Def (PGCD, PPCM) : Si P1 , , Pk K X , on appelle : - Plus Grand Diviseur Commun (PGCD) des Pi , un polynôme D tel que : P1 Pk D - Plus Petit Multiple Commun (PPCM) des Pi , un polynôme M K X tel que P1 Pk M Rq : D min Pi et M max Pi 1i k 1i k Def (polynômes premiers entre eux) : Si P1 , , Pk K X sont tels que P1 Pk 1 K X , on dit que les polynômes P1 , , Pk sont premiers entre eux (dans leur ensemble). On dira qu’ils sont premiers entre eux deux à deux si, i, j 1 i j k Pi Pj 1 Rq : premiers deux à deux premiers dans leur ensemble Th de Bezout : Soient P1 , , Pk K X et D leur PGCD. Alors il existe A1 ,, Ak K X tels que D A1 P1 Ak Pk . En particulier, s’ils sont premiers entre eux : 1 A1 P1 Ak Pk . Rq : En fait, K X est un anneau factoriel, ie tout P K X peut s’écrire de façon unique (à l’ordre prés, et au choix des associés prés) comme produit de polynômes irréductibles. III) Le lemme des noyaux Lemme : Soit u L E . Si P1 , , Pk K X sont premiers entre eux deux à deux, alors KerP1 Pk u KerPi u k i 1 Cor : Si P est un polynôme annulateur de u (ie Pu 0 ) qui se k décompose sous la forme P Pi , avec les Pi deux à deux i 1 premiers entre eux, alors E KerPi u k i 1 IV) Polynômes annulateurs d’un endomorphisme Soit u L E . On va noter Annu P K X Pu 0. Rq : Annu est un idéal de K X . Def(polynôme minimal) : Le polynôme unitaire M u tel que Annu M u est appelé polynôme minimal de l’endomorphisme u. Rq : On a vu qu’il existe un polynôme annulateur de degré n 2 , donc M u n 2 . On verra plus tard qu’en fait 1 M u n . Réduction d’endomorphismes I) Premiers pas 1) Recherche de sous-espaces stables Rq : Si P K X , alors KerPu est stable par u. Prop : Si E est un C-espace vectoriel, alors u admet un sousespace vectoriel stable de dimension 1. Si R est un R-espace vectoriel, alors u admet un sous-espace vectoriel stable de dimension 1 ou 2. 2) Critère pour qu’un endomorphisme soit diagonalisable Prop : Soit u L E . u est diagonalisable si et seulement si son polynôme minimal est scindé à racines simples. k Ie M u est de la forme M u X i , où les i sont distincts. i 1 3) Théorème de Cayley Hamilton Th (Cayley Hamilton) : Soit u L E de polynôme minimal M u et de polynôme caractéristique u . Alors u u 0 . (ce qui est équivalent à M u u ) Th : u et M u ont mêmes facteurs irréductibles (avec des puissances dans la décomposition à priori différentes). k En particulier, si K C , u X i m i et i 1 k M u X i i 1 r i avec 0 r i mi et i distincts. II) Réduction de Jordan 1) Décomposition en sous espaces caractéristiques Def (sous-espace caractéristique) : Si Spu et m sa multiplicité dans u , le sous-espace Ker u id sous-espace caractéristique associé à λ. k Si u est scindé, u X i m i i 1 m est appelé , i distincts, le lemme des noyaux donne que E Ker u u Ker u i id k Chaque Fi Ker u i id Rq : Les i u Fi mi i 1 m i est stable par u. . i id sont nilpotent. 2) Réduction des endomorphismes nilpotent Soit u L E un endomorphisme nilpotent. Def (indice de nilpotence) : Le plus petit indice r N tel que u r 0 est appelé indice de nilpotence. Def (u-cyclique) : En particulier, si pour v E u p v 0 , on dit que v est u-cyclique. On appelle période de v le plus petit r tel que u r v 0 . La famille v, uv ,, u r 1 v est libre, et F Vect v, uv ,, u E de dimension r. r 1 v est un sous-espace vectoriel stable de 0 1 0 0 M r Mat u F 0 dans la base 1 0 0 r 1 u v ,, u v , v . Th : Soit u nilpotent d’indice de nilpotence r. Alors E F1 Fk où les Fi sont de la forme Fi Vect vi , u vi ,, u ri 1 vi 0 M r1 0 0 dans la base Mat u 0 0 0 M rk u v ,, uv , v . k ri 1 i i i i 1 De plus, k, r1 ,, rk sont uniques. 3) Méthode pratique de la réduction des endomorphismes nilpotents Soit u nilpotent d’indice de nilpotence r. En travaillant avec les noyaux, on remarque que : 0 ker u ker u 2 ker u r 1 ker u r E . On détermine les sous-espaces vectoriels ker u i ,1 i r On détermine la base Br 1 ,, nr de ker u r \ ker u r 1 Par récurrence, on obtient la base de ker u i \ ker u i 1 : Bi Bi 1 u Bi 1 ni1 1 ,, ni 4) Théorème de Jordan Notation : Si K et r N * , on note 1 0 0 0 J , r 0 1 0 0 Th (de Jordan) : Soit u L E de polynôme caractéristique scindé. Alors il existe une base de E dans laquelle la matrice est J1 0 0 0 diagonale par bloc : où les J i sont des 0 0 0 J k J i , ri uniques à permutation prés. En pratique, pour définir la matrice de Jordan, on se place sur m chaque sous-espace caractéristique F ker u id et on applique la méthode vue pour les endomorphismes nilpotent à la réduction de u id à F. 5) Intérêt de la forme de Jordan J1 0 0 0 M 0 0 0 J k n J1 0 0 0 n M 0 0 0 J n k p J , r Cni i J 0, r p i 0 p i Formes Quadratiques E est un R espace vectoriel. I) Définitions Def (forme bilinéaire symétrique) : On appelle forme bilinéaire : EE R symétrique sur E toute telle que : x; y x; y , y0 : E R 1) Linéaire à gauche : y0 E est x x; y0 une forme linéaire x0 , : E R 2) Linéaire à droite : x0 E est une y x0 ; y forme linéaire 3) Symétrique : x, y E E x; y y; x Rq : Si 3) est vérifié, alors 1) 2) Def (forme quadratique) : On appelle forme quadratique associée à une forme bilinéaire symétrique l’application : q: E R x qx x; x Rq : Si on donne Φ, alors qx x; x (par def) Si q est une forme quadratique associée à Φ, 1 x, y q x y q x q y 2 1 q x y q x y 4 Donc, se donner q suffit pour avoir Φ. Rq : Si dim E n et B e1 ,, en base de E. x, y E , n n i 1 j 1 x xi ei , y y j e j . x, y x y 1i , j n i j ei , e j En posant qij , on fait correspondre à Φ une matrice Q qij 1i , j n symétrique. x1 De plus, si X représente x dans B : x; y t X Q Y et x n qx t X Q X . Si maintenant on change de base : Si B est une autre base et P la matrice de passage de B dans B : Qt P Q P On dit que les matrices Q et Qt P Q P , qui représentent une même forme bilinéaire symétrique dans deux bases différentes, sont congruentes. II) Réduction par la méthode de Gauss Th (Sylvester) : Soit q une forme quadratique sur E de dimension n. Il existe v1 ,, vn des formes linéaires indépendantes telles n que : qx i vi x où i 1,0,1 . i 1 2 Si on note r card i i 1 et r card i i 1, r et r ne dépendent que de q. r , r est la signature de q. Index des notions addition interne AlgLin ............................ 3 anneau AlgLin .................... 11, 12 anneau euclidien AlgLin .......................... 11 anneau factoriel AlgLin .......................... 12 application symétrique AlgLin, CDO ...... 6, 21, 22 bilinéaire AlgLin, CDO ................ 21 changement de base AlgLin ............................ 5 composition de fonctions AlgLin ............................ 4 déterminant AlgLin ............................ 7 élément symétrisable StructAlg ............ 6, 21, 22 endomorphisme StructAlg . 4, 9, 11, 13, 15, 16 ensemble des matrices inversibles AlgLin ............................ 4 forme bilinéaire symétrique AlgLin .................... 21, 22 forme quadratique AlgLin .................... 21, 22 groupe StructAlg .................. 4, 11 groupe cyclique StructAlg ....................... 16 idéal AlgLin ............... 11, 12, 13 image AlgLin, StructAlg ....... 6, 7 indice de nilpotence AlgLin ..................... 16, 17 inverse d’un endomorphisme AlgLin ............................. 4 lemme des noyaux AlgLin ..................... 13, 16 loi commutative StructAlg ......................... 4 loi de composition interne StructAlg ......................... 4 matrice de passage AlgLin ....................... 5, 22 matrice diagonalisable AlgLin ........................... 10 matrice trigonalisable AlgLin ........................... 10 matrices congruentes AlgLin ........................... 22 matrices équivalentes AlgLin ............................. 6 matrices semblables AlgLin ............................. 6 multiple AlgLin ........................... 11 noyau AlgLin, StructAlg ........... 6 ordre d’un groupe StructAlg ................. 10, 12 permutation StructAlg ...................... 18 PGCD AlgLin .......................... 12 polynôme caractéristique AlgLin .............. 10, 15, 18 polynôme d’application linéaire AlgLin ............................ 5 polynôme irréductible AlgLin .......................... 11 polynôme minimal AlgLin .................... 13, 15 polynômes associés AlgLin .... 9, 10, 11, 12, 16 polynômes premiers entre eux AlgLin .................... 12, 13 PPCM AlgLin .......................... 12 produit externe AlgLin ............................. 3 rang AlgLin ......................... 6, 7 relation d’équivalence AlgLin ....................... 6, 11 somme de sous-espaces vectoriels AlgLin ............................. 7 somme directe AlgLin ............................. 8 sous-espace caractéristique AlgLin ..................... 16, 18 stabilité AlgLin ............................. 8 Théorème de Bezout AlgLin ........................... 12 u-cyclique AlgLin ........................... 16 valeur propre AlgLin ............................. 9