COURS DE MATHEMATIQUES ALGEBRE LAKHEL El Hassan Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi www.ensasafi.ma Année Universitaire : 2006-2007 Table des matières I ALGÈBRE GÉNÉRALE 6 1 GÉNÉRALITÉS - STRUCTURES ALGÉBRIQUES 1.1 Ensenbles - Relations . . . . . . . . . . . . . . . . . . . 1.1.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Relation binaire sur un ensemble E . . . . . . . 1.1.3 Applications et fonctions . . . . . . . . . . . . . 1.2 Lois de composition - Structures d’ensembles . . . . . 1.3 Groupes et sous-groupes . . . . . . . . . . . . . . . . . . 1.4 Morphisme de groupes . . . . . . . . . . . . . . . . . . . 1.5 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . 1.6 EXERCICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 LES POLYNÔMES 2.1 Présentation des polynômes . . . . . . . . . . . . . . . . . . 2.1.1 Définitions et notations . . . . . . . . . . . . . . . . 2.1.2 Opérations sur les polynômes : . . . . . . . . . . . . 2.2 Division Euclidienne . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Arithmétiques sur les polynômes . . . . . . . . . . . 2.2.2 Algorithme d’Euclide. . . . . . . . . . . . . . . . . . 2.3 Fonction polynôme . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Polynôme dérivé . . . . . . . . . . . . . . . . . . . . 2.3.2 Formule de Taylor pour les polynômes . . . . . . . . 2.4 Zéros d’un polynôme . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Multiplicité d’une racine . . . . . . . . . . . . . . . . 2.5 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . 2.6 Décomposition des polynômes en facteurs irréductibles . . 2.6.1 Factorisation des polynômes dans C[X] . . . . . . . 2.6.2 Factorisation des polynômes dans R[X] . . . . . . 2.6.3 Annexe : Recherche des racines, quelques résultats et 2.7 EXERCICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 8 10 11 13 14 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 19 20 21 22 24 26 26 27 27 28 29 30 30 30 32 33 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (X − a)α . . . . . . . . 36 36 36 38 38 38 41 41 43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . méthodes . . . . . . 3 FRACTIONS RATIONNELLES 3.1 Définitions et propriétés algèbriques . . . . . . . . . . . . . . . . 3.1.1 Fractions ratinnelles irréductibles . . . . . . . . . . . . . . 3.2 Décomposition en éléments simples d’une fraction rationnelle . . 3.2.1 Fractions rationnelles régulières . . . . . . . . . . . . . . . 3.2.2 Décomposition en éléments simples . . . . . . . . . . . . 3.2.3 Décomposition dans C(X) . . . . . . . . . . . . . . . . . . 3.2.4 Décomposition dans R(X) . . . . . . . . . . . . . . . . . . 3.3 Recherche des parties polaires relatives à des facteurs de la forme 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 3.5 3.6 II 3.3.1 Division suivant les puissances croissantes . . . . . . . . . . . . . . . . Recherche des parties polaires relatives à des facteurs de la forme (X 2 + bX + c)α APPLICATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . EXERCICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ALGÈBRE LINÉAIRE 43 45 46 47 49 4 ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES 4.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . 4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Sous-espace engendré par une partie . . . . . . . . . . . . 4.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Image et noyau d’une application linéaire . . . . . . . . . 4.4 Opérations sur les applications linéaires . . . . . . . . . . . . . . 4.4.1 Structure d’espace vectoriel de LK (E, F ) . . . . . . . . . . 4.4.2 Composition des applications linéaires . . . . . . . . . . . 4.4.3 Le groupe linéaire (GL(E), o) . . . . . . . . . . . . . . . . 4.5 Indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 ESPACES VECTORIELS DE DIMENSION FINIE 5.1 Définition d’un espace vectoriel de dimension finie. Bases. . . . . 5.1.1 Espace vectoriel engendré par une suite finie. Base . . . . 5.1.2 Existence de bases . . . . . . . . . . . . . . . . . . . . . . 5.2 Dimension d’un espace vectoriel de dimension finie . . . . . . . . 5.2.1 Le théorème de la dimension . . . . . . . . . . . . . . . . 5.2.2 Rang d’une suite finie de vecteurs . . . . . . . . . . . . . 5.2.3 Espace vectoriel de dimension finie donnée n . . . . . . . 5.3 Sous-espaces d’un espace vectoriel de dimension finie . . . . . . . 5.4 Applications linéaires d’un K-e.v. de dimension finie dans un K e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 50 51 51 52 54 54 56 56 56 57 57 57 60 . . . . . . . . . 62 62 62 63 63 63 64 65 65 66 6 MATRICES ET SYSTÈMES LINÉAIRES 6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 L’espace vectoriel Mp,n (K) . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Base canonique et dimension de Mp,n (K) . . . . . . . . . . . . . . . . 6.2.3 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . 6.2.4 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Action d’un changement de base sur les coordonnées d’un vecteur . . 6.5.2 Action d’un changement de base sur la matrice d’une application linéaire 6.6 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6.2 Interprétation matricielle d’un système linéaire : . . . . . . . . . . . . 2 72 72 72 73 74 74 74 74 75 75 77 78 79 80 80 80 81 . . . . . . . . . . . . . . . . 7 DÉTERMINANTS 7.1 Le groupe symétrique Sn . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Formes miltilinéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Déterminant d’une suite de vecteurs dans une base . . . . . . . . . . . 7.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . 7.5 Propriétés et calcul des déterminants . . . . . . . . . . . . . . . . . . . 7.6 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension n 7.6.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 7.6.3 Calcul de l’inverse d’une matrice carrée inversible . . . . . . . . . 7.6.4 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . 7.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 . 91 . 93 . 94 . 95 . 95 . 97 . 97 . 98 . 99 . 99 . 101 8 RÉDUCTION DES ENDOMORPHISMES 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Vecteurs propres et valeurs propres d’un endomorphismes : 8.2.1 Calcul des valeurs propres. Polynôme caractéristique 8.2.2 Sous-espaces propres . . . . . . . . . . . . . . . . . . 8.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Caractérisation des endomorphismes diagonalisables . . . . 8.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 6.8 6.9 6.6.3 Rang d’un système linéaire Méthode de pivot de Gauss . . . . Algorithme du pivot de Gauss : . . Exercices : Les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Examens de l’année universitaire 2005-2006 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 82 84 87 104 104 104 105 107 108 108 109 111 113 117 INTRODUCTION Ce support de cours a pour objectif de faciliter le travail des étudiants. Il contient l’essentiel du module d’algèbre, de la première année ENSAS que l’étudiant doit connaı̂tre. Dans le cadre de ce cours on cherche à la fois développer de faon rigoureuse des concepts et des méthodes et á dégager des connaissances nécessaires à la physique et aux sciences ingénieurs. Le programme d’algèbre est organisé autour des concepts fondamentaux d’espace vectoriel et d’application linéaire, et de leurs interventions en algèbre, en analyse et en géométrie. La maı̂trise de l’algèbre linéaire élémentaire en dimension finie constitue un objectif essentiel. C’est pour les élèves la partie la plus difficile, car la plus abstraite et la plus neuve : ils y rencontrent pour la première fois la notion de structure, qui s’intéresse aux propriétés des objets manipulés et non leur nature. Elle nécessite un important effort d’abstraction et demande une assez longue adaptation. La plupart des résultats sont démontrs, dans le but d’habituer les élèves à tenir un raisonnement rigoureux, à ne pas confondre démonstration et affirmation, et aussi parce que les démonstrations permettent souvent de mettre en oeuvre et d’illustrer les concepts introduits ou les propriétés précédemment établies. En début d’année, on introduit la notion de loi de composition interne dans un ensemble, l’étude des structures de groupe, anneau, corps, se réduit aux définitions (structure, sousstructure, morphismes) et à quelques propriétés élémentaires des morphismes (composition, noyau, isomorphismes). Survol du groupe des permutations d’ordre n (définition d’une permutation, d’une transposition, détermination pratique de la signature). Ensuite, nous allons étudier les polynômes et les fractions rationnelles. L’étude de l’algèbre linéaire constitue le coeur du cours d’algèbre ; elle est subdivisée en six chapitres : La deuxème partie évoque la notion d’espace vectoriel. Notre but est d’introduire les notions de base de l’algèbre linéaire et de démontrer rigoureusement les résultats principaux de ce sujet. Les domaines suivants seront traités dans le premier chapitre de cette partie : • Espace vectoriel et sous-espace vectoriel. • Suite libre et suite génératrice. • Application linéaire, endomorphisme, isomorphisme, automorphisme. • Noyau et image d’une application linéaire. • Espaces vectoriels de dimension finie. Les chapitres cinq-huit introuduisent les matrices, les systèmes d’équations linéaires , les déterminants et les réductions des matrices. Le meilleur apprentissage de l’Algèbre Linéaire s’obtient par un travail régulier sur toute l’année. Ce cours va te permettre de revoir rapidement ce qu’il te faut absolument savoir ! Mais ça reste un aide-mémoire et ne te dispense ni de cours, ni de faire les exercices. Chaque fois qu’un exercice vous pose des problèmes, revenez à la partie du cours concernée, vérifiez que les définitions et les théorèmes ont été bien compris et refaire les exemples et exercices donnés. Ces allers-retours entre le cours et les applications sont essentiels pour une bonne compréhension. Pour certains théorème, la démonstration ne demande que quelques lignes, 4 -et peut à tort sembler triviale, -alors que pour d’autres , il faut beaucoup plus d’ingeniosité. Aucune de ces démonstrations ne doit être traitée à la légère, car c’est précisément à cause de l’abondance de ces théorèmes que le calcul offre une base naturelle d’étude à ceux qui veulent atteindre une certaine maturité mathématique. Des exercices sont insérés dans le cours, souvent à la fin de chaque chapitre, ils deveraient permettre à l’étudiant de contrôler, au fur et à mesure, l’acquisition des connaissances. J’espère présenter ainsi un ensemble cohérent que chaque étudiant pourra parcourir à son rythme. Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques sur ce ce fascicule. E. Lakhel 5 Première partie ALGÈBRE GÉNÉRALE 6 Chapitre 1 GÉNÉRALITÉS - STRUCTURES ALGÉBRIQUES 1.1 Ensenbles - Relations 1.1.1 Ensembles a- Ensemble : Un ensemble est une collection d’objets vérifiant une propriété commune. Ces objets sont alors appelés éléments de l’ensemble. b- Appartenance : Soit E un ensemble. Si a est un élément de E ; on dit que a appartient à E et on note a ∈ E. c- Sous-ensemble d’un ensemble : Soit E un ensemble. On dit qu’une partie A de E est un sous-ensemble de E si tout élément de A est élément de E ; on dit aussi que A est inclus dans E et on note : A ⊆ E. Les sous ensembles ou parties de E constituent un ensemble qu’on note P(E), et on a A ∈ P(E) ⇔ A ⊆ E. Remarque 1.1. 1. Si E = ∅, P(E) contient un élément qui est la partie vide de E. C’està-dire : P(∅) = {∅}. 2. Si a ∈ E on ne confondra pas a et {a} : a est un élément de E tandis que {a} est une partie de E, i.e. un élément de P(E). d- Sous-ensemble complémentaire : Soient E un ensemble et A une partie de E. On appelle sous-ensemble complémentaire de A dans E et on note ⊂A E ou A, le sousensemble de E constitué des éléments de E qui n’appartiennent pas à A, et on a A = {x ∈ E/ x∈ / A}. e- Égalité d’ensembles : A = B ⇔ (A ⊆ B et B ⊆ A). f- Produit cartésien de deux ensembles Le produit cartésien de deux ensembles E et F se définit par : 1. E × F = {(x, y)/ x ∈ E et y ∈ F } 2. E × E = E 2 . 7 1.1.2 Relation binaire sur un ensemble E On appelle relation binaire R sur un ensemble E, tout sous-ensemble de E 2 , tel que : (∀a ∈ E), (∀b ∈ E) aRb (a est en relation avecb) La relation R peut être un objet matématique quelconque : ⊆, ≤ .... Relation d’équivalence sur un ensemble Une relation d’équivalence dans un ensemble E est une relation binaire qui est à la fois réflexive, symétrique et transitive, (∀a ∈ E) (∀b ∈ E), (∀c ∈ E) 1. R est une relation réflexive si et seulement si aRa 2. R est une relation symétrique si et seulement si aRb =⇒ ¾ bRa. aRb 3. R est une relation transitive si et seulement si =⇒ aRc. bRc Exemples 1. La relation ” égal à ” est une relation d’équivalence. 2. La relation ” inclus dans ou égal à ” est une relation réflexive et transitive 3. La relation ”perpendiculaire” est une relation symétrique. Elle n’est pas transitive ! (Théorème d’Euclide : deux droite perpendiculaures à un troisième sont parallèles.) 3. La relation ”parallèle à ” est une relation d’équivalence. Relation d’ordre sur un ensemble Une relation d’ordre dans un ensemble E est une relation binaire qui est à la fois réflexive, antisymétrique et transitive. Une relation R est une relation antisymétrique, si et seulement si : (aRb et bRa) =⇒ a = b (∀a ∈ E)(∀b ∈ E). Exemple - La relation ”inférieur ou égal ” est une relation d’ordre sur R. 1.1.3 Applications et fonctions Définition 1.1. Soient E, F deux ensembles. On appelle application de E vers F toute correspondance de E vers F qui, à tout élément de E, associe un élément unique de F . Image d’une partie de E : Définition 1.2. L’image d’une partie X de E par l’application f que l’on note f (X), est l’ensemble des images de tous les éléments de X : f (X) = {y ∈ F/∃x ∈ X, y = f (x)}. Théorème 1.3. Soient A, B deux parties de E, on a : 1. f (A ∪ B) = f (A) ∪ f (B). 2. Mais on a seulement l’inclusion : f (A ∩ B) ⊆ f (A) ∩ f (B). Preuve. (Voir exercice 3 série No 1.) 8 Remarque 1.2. l’inclusion réciproque n’est pas toujours vraie. En effet, considérons l’application f : R −→ R x −→ x2 et considérons les ensembles A = [−3, 2], B = [1, 5]. On a f (A) = [0, 9], f (B) = [1, 25], donc f (A) ∩ f (B) = [1, 9], et A ∩ B = [1, 2], donc f (A ∩ B) = [1, 4]. Donc f (A) ∩ f (B) * f (A ∩ B). En fait l’inclusion réciproque n’est vraie que si l’application f est injective (voir T.D.). Image réciproque d’une partie de F Définition 1.4. L’image réciproque d’une partie Y de F par l’application f qu’on note f −1 (Y ) est l’ensemble des éléments de E dont l’image par f est dans Y , f −1 (Y ) = {x ∈ E/ f (x) ∈ Y }. Remarque 1.3. Attention ! il ne faut pas confondre cette notion avec la fonction réciproque d’une application bijective rappelée ci-après. Théorème 1.5. Soient A et B deux parties de F . On a 1. f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B). 2. f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B). Preuve. 1. 2. x ∈ f −1 (A ∪ B) ⇔ f (x) ∈ A ∪ B ⇔ f (x) ∈ A ou f (x) ∈ B ⇔ (x ∈ f −1 (A)) ou (x ∈ f −1 (B)) ⇔ x ∈ f −1 (A) ∪ f −1 (B). x ∈ f −1 (A ∩ B) ⇔ f (x) ∈ A ∩ B ⇔ f (x) ∈ A et f (x) ∈ B ⇔ (x ∈ f −1 (A)) et (x ∈ f −1 (B)) ⇔ x ∈ f −1 (A) ∩ f −1 (B). Propriétés des applications Soient E, F deux ensembles, et f une application de E vers F . • Injection : On dit que l’application f est injective si : ∀(x, y) ∈ E 2 , x 6= y ⇒ f (x) 6= f (y). ∀(x, y) ∈ E 2 , f (x) = f (y) ⇒ x = y. Autrement dit : • Surjection : On dit que l’application f est surjective si : ∀y ∈ F, ∃x ∈ E / 9 y = f (x). • Bijection : On dit que l’application f est bijective si elle est à la fois injective et surjective. Autrement dit, ∀y ∈ F, ∃!x ∈ E / y = f (x). • Bijection réciproque : Soit f une bijection de E vers F . On obtient ∀y ∈ F, ∃!x ∈ E/y = f (x). la bijection F −→ E y 7→ x est appelée bijection réciproque de f et est notée f −1 . Ainsi ∀(x, y) ∈ E × F, f (x) = y ⇔ x = f −1 (y). • Applications égales : Soient E, F deux ensembles, et f une application de E vers F . On dit que f et g sont égales si, pour tout élément x de E, on a f (x) = g(x). On note alors : f = g. • Application identité : soit E un ensemble. On appelle application identité dans E, l’application qui, à tout élément x de E, on associe x ; cette application est notée id. Exemples 1. f : R∗ −→ R x −→ x1 f est une application injective. 2. Soit C ∞ (R, R) l’ensemble constitué des fonctions infiniment dérivables sur R à valeurs dans R. Φ C ∞ (R, R) −→ C ∞ (R, R) 0 ϕ −→ ϕ Φ est une application surjective. 3. f: R −→ R x −→ x + 1 f est une application bijective. 1.2 Lois de composition - Structures d’ensembles Définition 1.6. • Soit E un ensemble. Une loi de composition interne (l.c.i) sur E est une application de E × E dans E. • Soient E et F deux ensembles. Une loi de composition externe (l.c.e) sur E à domaine d’opérateurs (ou scalaires) dans F est une application de F × E dans E . Notations 1. T : E × E −→ E (x, y) −→ T (x, y) = xT y. ⊥ : F × E −→ E (x, y) −→ ⊥(x, y) = x⊥y. 10 Remarque 1.4. Munir un ensemble G d’une structure, c’est définir sur G un nombre fini de lois de composition internes ou externes vérifiant un certain nombre de conditions appelées axiomes de la structure en question. Dans la suite, G étant un ensemble muni d’une l.c.i notée ∗. 1.3 Groupes et sous-groupes Définition 1.7. Un ensemble (G, ∗) est un groupe si il vérifie les trois conditions suivantes : i) La loi ∗ est associative c’est-à-dire. ∀x, y, z ∈ G, x ∗ (y ∗ z) = (x ∗ y) ∗ z. ii) La loi ∗ admet un élément neutre c’est-à-dire ∃e ∈ G ∀x ∈ G, x ∗ e = e ∗ x = x. iii) Tout élément est symétrisable c’est-à-dire ∀x ∈ G, ∃x0 ∈ G/x ∗ x0 = x0 ∗ x = e. Si, de plus, la loi est commutative (∀x, x0 ∈ G, x ∗ x0 = x0 ∗ x), on dit que le groupe est commutatif ou abélien. Exemple 1.1. Les ensembles suivants sont des groupes : – (Z, +) où + est l’addition usuelle. – (C∗ , ×) où × est la multiplication usuelle. – (E, +) où E = { fonctions numériques définies sur R}. et + est la somme usuelle des fonctions. C’est-à-dire, f et g étant deux éléments de E, f + g est définie, pour tout réel x, par : (f + g)(x) = f (x) + g(x). Proposition 1.8. Soit (G, ∗) un groupe et soit x un élément de G. Le symétrique de x est unique. Preuve. On suppose qu’il existe deux symétriques à x : x0 et x”. x0 ∗ x ∗ x00 = (x0 ∗ x) ∗ x00 = e ∗ x00 = x00 = x0 ∗ (x ∗ x00 ) = x0 ∗ e = x0 . Remarque 1.5. – Si une loi ∗ est commutative, pour vérifier qu’un élément e est l’élément neutre, il suffit de vérifier que, ∀x ∈ G, on a x ∗ e = x (ou e ∗ x = x). L’autre relation étant obtenue par la commutativité. De même, pour vérifier qu’un élément x0 est le symétrique de x, il suffit que l’on ait soit x ∗ x0 = e soit x0 ∗ x = e. Proposition 1.9. Soit (G, ∗) un groupe, pour tous les éléments a et b de G, on a : (a ∗ b)−1 = b−1 ∗ a−1 . Preuve. (a ∗ b)−1 est par définition l’unique élément de G qui vérifie : (a ∗ b)−1 ∗ (a ∗ b) = (a ∗ b) ∗ (a ∗ b)−1 = e. Or (b−1 ∗ a−1 ) ∗ (a ∗ b) = b−1 (a−1 ∗ a) ∗ b = b−1 ∗ e ∗ b = b−1 ∗ b = e et (a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ e ∗ a−1 = a ∗ a−1 = e. Définition 1.10. Soit (G, ∗) un groupe. 1. On dit qu’un élément a de G est régulier à gauche si ∀b, c ∈ G, (a ∗ b = a ∗ c) ⇒ (b = c). 2. On dit qu’un élément a de G est régulier à droite si ∀b, c ∈ G, (b ∗ a = c ∗ a) ⇒ (b = c). 3. On dit qu’un élément a de G est régulier si il est rérulier à gauche et à droite. Proposition 1.11. Tout élément d’un groupe est régulier. Preuve. Soient a, x, y trois éléments d’un groupe (G, ∗). Si on suppose que a ∗ x = a ∗ y, alors, on aura après multiplication à gauche par a−1 a−1 ∗ (a ∗ x) = a−1 ∗ (a ∗ y), 11 ce qui entraine en utilisant l’associativité de la loi ∗ : (a−1 ∗ a) ∗ x = (a−1 ∗ a) ∗ y. Par suite x = y. Sous-groupes Soit H une partie non vide d’un groupe G ; la partie H est dite stable pour la loi ∗ du groupe G (ou stable dans G)si ∀x, y ∈ H, x ∗ y ∈ H. Définition 1.12. Soit (G, ∗) un groupe. Soit H ⊆ G et H 6= ∅. On dit que H est un sous-groupe de (G, ∗) si et seulement si i) H est stable dans G. ii) L’ensemble H, muni de la loi ∗ induite par G est un groupe. Exemple 1.2. . – (Z, +) est un sous-groupe de (R, +). – 2Z = {2k/k ∈ Z}, alors, (2Z, +) est un sous-groupe de (Z, +). – (Z∗ , ×) n’est pas un sous-groupe de (R∗ , ×). Théorème 1.13. Soit (G, .) un groupe noté multiplicativement. Soit H ⊆ G. Les propriétés suivantes sont équivalentes : (i) H est un sous-groupe de G. (ii) H 6= ∅, H est stable par la loi de G et ∀x ∈ H, on a x−1 ∈ H. (iii) H 6= ∅ et ∀x, y ∈ H, on a x.y −1 ∈ H. Preuve. (i) ⇒ (ii) évident. (ii) ⇒ (iii) évident. (iii) ⇒ (i) : Associativité découle de celle de G. Elément neutre : ∀x ∈ H, x.x−1 ∈ H ⇒ e ∈ H. Symétrique : ∀x ∈ H, e.x−1 ∈ H ⇒ x−1 ∈ H. Loi de composition interne : ∀x, y ∈ H, on a y −1 ∈ H, et donc x.y = x.(y −1 )−1 ∈ H. Remarque 1.6. – Soit H un sous-groupe de G. L’élément neutre de H est le même que celui de G . Le symétrique d’un élément de H est le même dans H que dans G. – Si la loi de G est notée additivement, on a : (ii) devient (ii)’ H 6= ∅, H est stable par la loi de G et ∀x ∈ H, on a −x ∈ H. (iii) devient (iii)’ H 6= ∅ et ∀x, y ∈ H, on a x − y ∈ H. Exemple 1.3. Soit G un groupe. {e} et G sont deux sous-groupe de G. Tous les autres sous-groupes sont dits propres. PropositionT1.14. Soit G un groupe et soit (Hi )i∈I une famille non vide de sous- groupes de G. Alors i∈I Hi est un sous- groupe de G. Preuve. T T – ∀i ∈ I(6= ∅) e ∈ Hi , donc e T ∈ i∈I Hi , par suite i∈I Hi 6= ∅. – Soit x, y Tdeux éléments de i∈I Hi . ∀i ∈ I, x, y ∈ Hi donc x.y −1 ∈ Hi . D’où x.y −1 ∈ i∈I Hi . Remarque 1.7. En général, la réunion de 2 sous-groupes n’est pas un sous-groupe. Par exemple, on a (2Z, +) est un sous-groupe de (Z, +) et (3Z, +) est un sous-groupe de (Z, +). Si 2Z ∪ 3Z est un sous-groupe de (Z, +), on devrait avoir 2 + 3 ∈ 2Z ∪ 3Z. Proposition 1.15. Soit G un groupe et soit a un élément de G. Il existe un plus petit sousgroupe de G contenant a. Ce sous-groupe est appelé groupe engendré par a et est noté gr(a). Preuve. Soit (Hi )i∈I l’ensemble des sous-groupes deTG qui contiennent a. Cette famille n’est pas vide car G appartient à cette famille et gr(a) = i∈I Hi . 12 Exemple 1.4. 1) (2Z, +) est un sous-groupe de (Z, +) engendré par 2. 2) (Z, +) est sous-groupe de (R, +) engendré par 1. 3) Dans (C∗ , ×) , gr(i) = {1, i, −1, −i}. Remarque 1.8. On peut géraliser cette définition à une partie A quelconque d’un groupe G. Il existe un plus petit sous-groupe de G contenant A. Ce sous-groupe est appelé groupe engendré par A et est noté gr(A). Définition 1.16. Soit G un groupe et soit A une partie de G. On dit que A est une partie génératrice de G si et seulement si gr(A) = G. 1.4 Morphisme de groupes Définition 1.17. Soient (G, ∗), (F, ⊥) deux groupes, et f une application de G dans F . On dit que f est un morphisme de groupes si : ∀(x, y) ∈ G2 , f (x ∗ y) = f (x)⊥f (y). Exemples : 1. Soient G, G0 deux groupes. l’application de G dans G0 qui à x fait correspondre e0 (l’élément neutre de G0 ), est un morphisme de groupes appelé morphisme trivial. 2. Soit n ∈ N. L’application de (Z, +) dans (Z, +) qui à chaque x on associe nx, est un morphisme de groupes (f (x + y) = f (x) + f (y)). 3. La fonction exponentielle est un morphisme de (R, +) dans (R∗+ , ×). La fonction logarithme est un morphisme de (R∗+ , ×) dans (R, +). Théorème 1.18. Soient (G, ∗) et (F, ⊥) deux groupes d’éléments neutres respectifs e et e0 . Soit f un morphisme de G dans F . Alors, (i) f (e) = e0 . (ii) ∀x ∈ G, f (x−1 ) = (f (x))−1 . Preuve : (i) Nous avons e0 ⊥f (e) = f (e) = f (e ∗ e) = f (e)⊥f (e), donc f (e) = e0 puisque dans un groupe tout éément est régulier. (ii) Soit x un élément de G. Nous avons f (x−1 )⊥f (x) = f (x−1 ∗ x) = f (e) = e0 , donc (f (x))−1 = f (x−1 ). Définition 1.19. Soient (G, ∗), (F, ⊥) deux groupes et f un morphisme de G dans F . On dit que f est un isomorphisme de G dans F s’il est bijective de G dans F . Dans ce cas on dit que G et F sont isomorphes et on écrit G ∼ = F. Dans le cas où G = F , un morphisme (resp. un isomorphisme) de G dans G est appelé un endomorphime (resp. automorphisme)de G. Définition 1.20. Soient (G, ∗), (F, ⊥) deux groupes et f un morphisme de G dans F . • Le noyau de f noté ker(f ), est le sous-groupe de G défini par : Ker(f ) = f −1 (e0 ) = {x ∈ G : f (x) = e0 }. • L’image de f noté Im(f ), est le sous-groupe de G0 défini par : Im(f ) = f (G) = {f (x) : x ∈ G}. Théorème 1.21. Soit f un morphisme d’un groupe G dans un groupe F . Alors f est injectif si et seulement si Ker(f ) = {e}. 13 Preuve Supposons que f est un morphisme injectif, donc si x est un élément de ker(f ), alors f (x) = e0 = f (e), ce qui implique que x = e. Réciproquement, soient x, y ∈ G tels que f (x) = f (y), alors, en multipliant par f (y)−1 , on obtient f (xy −1 ) = e0 . Il en résulte que xy −1 ∈ ker(f ) = {e}. Donc xy −1 = e, d’où x = y. Par suite f est injective. 1.5 Anneaux et corps Définition 1.22. Soit A un ensemble muni de deux lois de composition internes + et ×. On dit que (A, +, ×) est un anneau si et seulement si : i ) (A, +) est un groupe abélien. ii ) La loi × est associative. iii ) La loi × est distributive par rapport à la loi + ; c’est-à-dire distributive à gauche : ∀x, y, z ∈ A, x×(y+z) = (x×y)+(x×z) et distributive à droite : ∀x, y, z ∈ A, (y+z)×x = (y × x) + (z × x). vi) A admet un élément neutre pour la loi × ∃e ∈ A ∀x ∈ A ex = xe = x. On note e = 1A ou tout simplement 1. Notons que la définition d’un anneau peut être énnoncée sans vi). Dans ce cas un anneau vérifiant vi) sera dit un anneau unitaire. Remarque 1.9. 1. Un anneau n’est jamais vide. 2. ({0}, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle est un anneau. Cet anneau est appelé un anneau nul. Les autres anneaux seront dits unifères. Exemple 1.5. 1. (Z, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle. 2. (R, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle. 3. Soit E = { fonctions numériques définies sur R} (E, +, ×) où + et × sont les lois usuelles : (f + g)(x) = f (x) + g(x) et (f × g)(x) = f (x) × g(x) pour tout réel x (f et g étant deux éléments de E). On pourrait déterminer les éléments neutres pour chacune des lois..... Notations 2. Soit (A, +, ×) un anneau. On note généralement 0 ou 0A l’élément neutre de (A, +) et 1 ou 1A l’élément neutre de (A, ×). On parlera d’opposé pour le symétrique d’un élément pour la loi +. On note A∗ = A \ {0A }. Exemple 1.6. Pour les matrices, on 1 0 0 1 1 = I3 = 0 0 a dans (M3 (R), +, ×) : 0 0 0 0 0 et 0 = 0 0 0 . 1 0 0 0 Définition 1.23. Un anneau (A, +, ×) est dit commutatif si la loi × et commutative. Exemple 1.7. 1. Les précédents exemples (Z, +, ×), (R, +, ×) et (E, +, ×) sont des anneaux commutatifs. 2. (M3 , +, ×) que nous verrons plus tard n’est pas non plus commutatif. Définition 1.24. Soit (A, +, ×) un anneau. On dit qu’un élément x ∈ A est inversible si et seulement si il admet un symétrique par rapport à la loi × ; c’est-à-dire : ∃x0 ∈ A tel que x × x0 = x0 × x = 1. On note u(A) l’ensemble des éléments inversibles de A (qui sont appelés aussi des unités). 14 Exemple 1.8. 1. u(Z) = {−1, 1} et u(Q) = Q∗ 2. (E, +, ×) où E = { fonctions numériques définies sur R}. Alors, u(E) = { fonctions numériques qui ne s’annulent pas sur R}. Définition 1.25. On appelle corps tout anneau unitaire tel que tout élément non nul soit inversible. C’est-à-dire, si (A, +, ×) est un anneau unitaire, on a : A corps ⇔ (A∗ , ×) est un groupe. Si de plus la loi × est commutative, on dit que le corps est commutatif. Exemple 1.9. 1. (Z, +, ×) et (R[X], +, ×) ne sont pas des corps. 2. (R, +, ×) et (R(X), +, ×) sont des corps. Exercice : Soit A = L(R2 ) l’ensemble des applications linéaires de R2 dans R2 .On munit A des deux lois de composition internes suivantes : (f, g) −→ f + g et (f, g) −→ f og telles que pour tout x ∈ R2 (f + g)(x) = f (x) + g(x) et fog(x)=f(g(x)). Montrer que (A, +, o) est un anneau. Est-il commutatif ? Quel est l’élément neutre pour la loi o. 15 1.6 EXERCICES. Exercice 1. a. Soit les ensembles : E = {0, 3, 6} et F = {1, 2, 6}. On définit la relation R de E vers F par : ∀x ∈ E et ∀y ∈ F , xRy ⇐⇒ x < y + 2. On appelle graphe, et on le note G, d’une relation binaire R l’ensemble G = {(x, y) ∈ E × F/xRy}. Déterminer le graphe de R. b. On donne ici l’ensemble E = {1, 2, 3, 4, 5, 6, 7, 8} et la relation R de E vers E définie par ∀(x, y) ∈ E 2 , xRy ⇐⇒ x est un diviseur de y. Déterminer le graphe de R. R est une relation d’ordre ? d’équivalence ? Exercice 2. A toute partie A d’un ensemble E, on assoucie la fonction χA , appelée fonction caractéristique de A, définie de E vers {0, 1} par ½ ∀x ∈ A, χA (x) = 1 ∀x ∈ Ac , χA (x) = 0 Soit A et B deux sous-ensembles de E. a. Montrer que A = B ⇐⇒ χA = χB . b. Exprimer à l’aide des foctions χA et χB les fonctions χA∩B , χA∪B et χAc . Exercice 3. Soient A et B deux sous-ensembles d’un ensemble E. 1) Montrer que : A ⊂ B ⇒ B ⊂ A. A∩B =A∪B 2) Les sous-ensembles ou parties de E constituent un ensemble que l’on note P(E), Montrer que P(A ∩ B) ⊂ P(A). Exercice 4. On considère l’application : f : R− −→ x 7−→ R x2 . 1+x2 Montrer que f est une bijection de R− sur un intervalle à préciser, et définir f −1 . Exercice 5. Soient E et F deux ensembles, f une application de E vers F , et A et B deux parties de E. 1) Montrer que : A ⊂ B ⇒ f (A) ⊂ f (B). 2) Comparer : a) f (A ∪ B) et f (A) ∪ f (B). b) f (A ∩ B) et f (A) ∩ f (B) si f est injective. Exercice 6. Soit E un ensemble non vide. On considère une application f de E dans R telle que : (i) f (∅) = 0, (ii) f (E) = 1, (iii) f (A ∪ B) = f (A) + f (B) si A ∩ B = ∅, A et B étant deux parties quelconques de E. 1) Pour toute partie A de E, exprimer f (A) en fonction de f (A). 16 2) Démontrer que, pour toutes parties A et B de E, f (A ∪ B) = f (A) + f (B) − f (A ∩ B). 3) On suppose de plus que : (iv) ∀A ⊂ E, f (A) ≥ 0. En déduire que, si A et B sont deux parties de E, Alors : (v) A ⊂ B ⇒ f (A) ≤ f (B). (vi) 0 ≤ f (A) ≤ 1. Exercice 7. On définit dans R la loi de composition ∗ par : ∀(a, b) ∈ R2 , a ∗ b = 3ab + a + b. 1) Vérifier que ∗ est une loi interne sur R. 2) La loi ∗ est-elle commutative ? associative ? Déterminer les éléments régulier de R pour ∗. 4) (R, ∗) est-il un groupe abélien ? Sinon déterminer un ensemble E tel que (E, ∗) soit un groupe abélien. Exercice 8. Soit (G, .) un groupe multiplicatif non nécessairement commutatif. On appelle centre de G la partie notée C définie par : C = {x ∈ G/ ∀y ∈ G; xy = yx}. 1) Montrer que C est un sous-groupe de G. 2) Pour a ∈ G on pose : fa : G −→ G x 7−→ fa (x) = axa−1 . Montrer que fa est un automorphisme de G. 3) Soit A = {fa ; a ∈ G}. Montrer que fa ofb = fab et que (fa )−1 = fa−1 . Que peut-on déduire pour (A, o) ? 4) Soit ϕ: (G, .) −→ (A, o) a 7−→ ϕ(a) = fa . Montrer que ϕ est un morphisme de groupe et que Ker(ϕ) = C. Exercice 9. On sait que R2 muni de l’addition ((a, b) + (a0 , b0 ) = (a + a0 , b + b0 )) est un groupe commutatif. On considère E = {(x, −x); x ∈ R}. 1) Montrer que (E, +) est un sous-groupe de (R2 , +). 2) Soit F = {(x, 1); x ∈ R}. F est-il un sous-groupe de R2 ? Exercice 10. Soit f : (R2 , +) −→ (R, +) (x, y) 7−→ f (x, y) = x − y. 1) Montrer que f est un morphisme de groupes. 2) Déterminer le noyau de f . Exercice 11. Soit (A, +, ×) un anneau unitaire. On désigne par u(A) l’ensemble des éléments de A inversiblespour la loi ×. Montrer que (u(A), ×) est un groupe. 17 Exercice 12. Soit A une partie non vide d’un groupe G. Montrer que : gp(A) = {aε11 .aε22 ...aεnn / n ∈ N∗ , 18 ai ∈ A, εi ∈ {−1, 1}}. Chapitre 2 LES POLYNÔMES Historiquement, la recherche des solutions des équations polynomiales précède l’étude des polynômes. Elle marque l’entrée des mathématiques dans une nouvelle ère. La formule de résolution de l’équation du troisième degré x3 + px2 + q = 0 obtenue sans doute au début du seizième siècle. La formule de résolution de l’équation du quatrième degré est obtenue un demi siècle après. Cependant, l’équation du cinquième degré tient les mathématiciens en echec pendant 200 ans ; ce n’ est qu’en 1826 qu’Abel démontre qu’il est impossible de donner des formules explicites de types de celles données pour les degrés inférieurs pour les solutions des équations de degré supérieur ou égal à 5. Quelques années plus tard, Galois donne un critère de résolubilité par des radicaux de toutes les équations polynomiales. La théorie des polynom̂es est née. Dans ce chapitre, K est un corps (on pourra penser à R ou C). 2.1 Présentation des polynômes 2.1.1 Définitions et notations Définition 2.1. Un polynôme à une indéterminée X est défini par la donnée de ses coefficients a0 , a1 , ..., an éléments de K. X étant une lettre muette, on note P (X) = a0 + a1 X + ... + an X n ou P k≥0 ak X k, étant entendu que la somme ne comporte qu’un nombre fini de ak non nuls. On peut faire jouer à X d’autres rôles que des valeurs de K. X peut être remplacé par exemple par une matrice, ou un endomorphisme d’un espace vectoriel sur K, etc... Notations 3. . 1) L’ensemble des polynômes à coefficients dans K est noté K[X]. 2) Le polynôme dont tous les coefficients sont nuls est dit polynôme nul, il est noté 0. Définition 2.2. Si P 6= 0, on appelle degré de P le maximum des entiers naturels k tels que ak 6= 0. On note deg(P ) ou d0 P le degré du polynôme P . Si P = 0, par convention, on pose deg(P ) = −∞. Si P est de degré n, an X n est le terme (ou monôme) dominant. Si an = 1, le polynôme est dit unitaire. Exemple 2.1. Soit a ∈ R et fa (X) = (2 + a)X 3 − 5X 2 + X + 3. Pour tout a 6= −2, fa est de degré 3. Pour a = −2, f−2 est de degré 2. 19 Nous indiquons maintenant comment calculer les coefficients de la somme et du produit de deux polynômes. 2.1.2 Opérations sur les polynômes : On peut définir sur K[X] a) Une P somme P P Si P = k≥0 ak X k et Q = k≥0 bk X k , alors P + Q = k≥0 (ak + bk )X k On peut vérifier facilement que (K[X], +) est un groupe commutatif. b) Un produit interne P P P P Si P = k≥0 ak X k Q = k≥0 bk X k , alors P Q = k≥0 ki=0 ai bk−i X k . c) Produit P par un kscalaire (produit extrene) P Si P = k≥0 ak X et λ ∈ K alors λP = k≥0 λak X k . On vérifier facilement que (K[X], +, .) est un K−espace vectoriel, dont une base est constituée des polynômes (1, X, , X 2 , ..., X n , ...). d) Egalité formelle de 2 polynômes. Soit P = a0 + a1 X + ... + an X n et Q = b0 + b1 X + ... + bm X m deux polynômes sur K[X]. Alors P = Q ⇔ m = n et ai = bi pour tout i ∈ {1, ...., n} Proposition 2.3. Pour tous polynômes P et Q de K[X], on a : deg(P + Q) ≤ sup(deg(P ), deg(Q)). (2.1.1) deg(P.Q) = deg(P ) + deg(Q). (2.1.2) Preuve. La relation (2.1.1) est évidente P si P = 0 ou Q = 0. P k Soient P = nk=0 ak X k et Q = m k=0 bk X avec m, n ≥ 1. Si m 6= n alors deg(P + Q) = sup(deg(P ), deg(Q)). Si m = n alors deg(P + Q) ≤ sup(deg(P ), deg(Q)). Donc deg(P + Q) ≤ sup(deg(P ), deg(Q)). La relation (2.1.2) est évidente si P = 0Pou Q = 0. SupposonsP que P et Q sont non nuls et k k avec c = c X soit n = d0 P et m = d0 Q. On a P.Q = m+n k k=0 k i=0 ai bk−i . Pour k > m + n on a : i > n ou k − i > m, donc ai bk−i = 0. Donc pour tout k > m + n on a : ck = 0. De plus cm+n = an × bm 6= 0. D’où deg(P.Q) = n + m = d0 P + d0 Q. P P k Définition 2.4. Soient P = nk=0 ak X k et Q = m0 k=0 bk X deux polynômes. On appelle composée de P et Q noté P oQ (ou P(Q)) le polynôme P oQ = n X ak Qk = a0 + a1 Q + ... + an Qn k=0 Remarque 2.1. En général P oQ 6= QoP. 20 Proposition 2.5. Soient P , Q et R dans K[X]. Alors (P + Q)oR = P oR + QoR Preuve. P P k Soit P = nk=0 , Q = m k=0 bk X et R dans K[X]. On a m∨n X P +Q= (ak + bk )X k k=0 Par suite (P + Q)oR = m∨n X k (ak + bk )R = k=0 n X k=0 k ak R + m X bk Rk = P oR + QoR. k=0 Remarque 2.2. Attention ! En général, P o(Q + R) 6= P oQ + P oR. Par exemple : on prend P = 1 + X 2 , Q = X 2 et R = X. 2.2 Division Euclidienne Théorème 2.6. Soit A, B dans K[X] deux polynômes avec B 6= 0. Alors il existe un couple unique (Q, R) d’éléments de K[X] tel que : A = B.Q + R avec deg(R) < deg(B). Q est le quotient de la division euclidiènne (en abrégé D. E.) . R est le reste de la D.E. (de A par B). Lorsque le reste est nul on dit que B divise A. On notera l’analogie dans l’énoncé avec la division euclidienne dans Z. Les démonstrations, en ce qui concerne l’unicité, sont également analogues. Preuve. Montrons l’unicité : Si A = BQ + R = BQ0 + R0 avec d0 R < d0 B et d0 R0 < d0 B, on a B(Q − Q0 ) = R0 − R, avec d0 (B(Q − Q0 )) = d0 B + d0 (Q − Q0 ). Puisque d0 (R − R0 ) ≤ M ax(d0 R, d0 R0 ) < d0 B. On déduit que deg(Q − Q0 ) = deg(R0 − R) − deg(B) < 0. Par conséquent Q − Q0 = 0 et par suite R − R0 = 0. Montrons l’existence : Nous allons faire une démonstration par récurrence sur le degré de A. On montre la propriété suivante : pour tout polynôme A de degré ≤ n il existe un couple (Q, R) tel que A = BQ + R et deg(R) < deg(B). La propriété est vraie pour n = 0 : si A = 0; 0.B + 0 0.B + A si A = λ ∈ K∗ et deg(B) ≥ 1; A= a si A = a ∈ K∗ et B = b ∈ K∗ . b .B + 0 (H.R) supposons que pour tout A dans K[X] , d0 A ≤ n la propriété est vérifiée. Soit A ∈ K[X], d0 A = n + 1 de la forme A = a0 + a1 X + ... + an+1 X n+1 , an+1 6= 0. Soit B = b0 + b1 X + ... + bp X p . n+1−p . Posons Q1 = an+1 bp X Alors bp−1 an+1 n A − BQ1 = 0.X n+1 + (an − )X + .... bp 21 Donc deg(A − BQ1 ) ≤ n. D’après (H.R) il exsite (Q2 , R2 ) ∈ K[X]2 tel que A − BQ1 = BQ2 + R2 avec deg(R2 ) < deg(B). Donc A = B(Q1 + Q2 ) + R2 avec deg(R2 ) < deg(B). On prend Q = Q1 + Q2 et R = R2 . Exemple 2.2. 1) Effectiuons la division euclidienne de A = 2X 4 + 5X 3 − X 2 + 2X + 1, par B = 2X 2 − 3X + 1. On trouve Q = X 2 + 4X + 5 et R = 13X − 4. 2) Pour A = X 4 − 2X 2 − X + 1 et B = X 2 + X. Après calculs, on trouve Q = X 2 − X − 1 et R = 1. Remarque 2.3. Nous verrons au paragraphe sur les racines que le reste de la division euclidienne du polynôme A par X − λ est le polynôme constant R = A(λ). 2.2.1 Arithmétiques sur les polynômes Définition 2.7. Soit A, B ∈ K[X], on dit que B divise A qu’on note par B/A si : ∃Q ∈ K[X]; A = B.Q. Exemple 2.3. 1. X 2 − 1 = (X − 1)(X + 1), donc (X − 1) et (X + 1) divisent X 2 − 1, dans R[X] 2. X 2 + 1 = (X − i)(X + i), donc (X − i) et (X + i) divisent X 2 + 1 dans C[X]. Remarque 2.4. Si P.Q = 1, donc degP + degQ = 0. Par suite do P = do Q = 0. D’où P, Q ∈ K∗ . Théorème 2.8. Soient A1 , ... ,An , n polynômes non tous nuls de K[X]. Alors il existe un polynôme D ∈ K[X] tel que : i) D divise chaque polynôme Ai , i ∈ {1, ..., n}. ii) Tout diviseur commun aux Ai divise D. D est appelé plus grand commun diviseur des polynôme A1 ,...,An . En abrégé pgcd et sera noté : D = A1 ∧ A2 ∧ ... ∧ An . Preuve. Considérons l’ensemble : E = {P = n X Pi Ai /Pi ∈ K[X]}. i=1 Et posons FE = {d0 P / P ∈ E \ {0}}. Alors FE ⊆ N et FE 6= ∅. Donc FEPadmet un plus petit élément p. On choisit un polynôme D ∈ E tel que d0 D = p. On a D = ni=1 Pi Ai , ∀R ∈ E \ {0}, d0 R ≥ d0 D. Montrons maintenant que D vérifie i) et ii). Montrons ii). Soit D0 ∈ K[X] tel que D0 soit diviseur commun des Ai , i = 1, ...., n. On a Ai = Qi .D0 avec Qi ∈ K[X], i = 1, ...., n. On a aussi, puisque D ∈ E, D= n X Pj Aj = ( j=1 n X j=1 22 P jQj )D0 . Par conséquent, D0 divise D. IL reste à montrer i). La division euclidienne de Ai par D , 1 ≤ i ≤ n, implique Ai = D.Qi + Ri , avec d0 Ri < d0 D. si Ri 6= 0, on aura : Ri P = Ai − DQi = Ai − ( nj=1 Pj Aj )Qi Pn = Ai − Pi Ai Qi − j=1,j6=i Pj Aj Qi P = (1 − Pi Qi )Ai − ( nj=1,j6=i Pj Aj Qi ). Ri peut s’écrire : Ri = n X Pj0 Aj j=1 Pi0 Pj0 avec = 1 − Pi Qi et = Pj Qi pour j 6= i. Donc Ri ∈ E. Par définition de D, on a 0 0 d Ri ≥ d D. Ce qui est absurde. Donc Ri = 0, ∀i = 1, ...., n, et par conséquent D divise tous les Ai , i = 1, ...., n. Remarque 2.5. Deux polynômes unitaires P et Q chacun divisant l’autre sont égaux. En effet : il existe D, D0 ∈ K[X] tels que P = DQ et Q = D0 P . Ceci implique DD’=1. Par suite D, D0 ∈ K∗ . De plus pn = Dqn ce qui entraire D = 1 de même D0 = 1. Conséquence : D’après cette remarque il existe un seul polynôme unitaire D qui vérifie le théorème 2.8. Définition 2.9. On dit que les polynômes A1 , ...., An sont premiers entre eux dans leur ensemble si leur pgcd est une constante non nulle, autrement dit : s’ils n’ont pas de diviseur commun de degré > 0. Ils sont dits premiers entre eux deux à deux si ∀i 6= j, pgcd(Ai , Aj ) = 1. Théorème 2.10. (Bezout). Des polynômes A1 , ..., An ∈ K[X] sont premiers entre eux dans leur ensemble si et seulement s’il existe U1 , ..., Un ∈ K[X] tels que U1 A1 + ... + Un An = 1 Preuve. ⇒) La condition est nécessaire : si D = A1 ∧ A1 ∧ A2 ∧ ..... ∧ An est le pgcd de A1 , ..., An . D’après la preuve du Théorème précédent il existe n polynômes P1 , ..., Pn tels que D= n X Pi Ai (2.2.3) i=1 Les polynômes A1 , ..., An sont premiers entre eux. Par suite, D est une constante non nulle. (2.2.3) =⇒ 1 = n X Pi i=1 D’où 1= n X Ui Ai , D Ai . avec Ui = i=1 Pn Pi . D ⇐) La condition P est suffisante : si i=1 Ui Ai = 1. Alors tout polynôme D qui divise A1 , ..., An divise aussi ni=1 Ui Ai = 1. Donc D est une constante non nulle. D’où A1 , ..., An sont premiers entre eux. 23 Théorème 2.11. (Gauss). Soient A, B et C trois polynômes. Si C est premier avec B et divise AB, alors C divise A. Preuve. C divise AB ⇒ ∃Q ∈ K[X] tel que AB = QC (*) C ∧ B = 1 ⇒ ∃U, V ∈ K[X] tels que U B + V C = 1 (**). Multiplions (**) par A, on obtient : U AB + V AC = A. D’après (*), on peut remplacer AB par QC : (U Q + V A)C = A. D’où C divise A. Théorème 2.12. Soient A, B, C ∈ K[X]. Si A et B sont premiers entre eux et divisent C, alors C est un multiple de AB, autrement dit : AB divise C. Preuve. Il existe des polynômes P, Q, U, V ∈ K[X] tels que C = P A = QB et U A + V B = 1. On en déduit : U AC + V BC = C Donc U AQB + V BP A = AB(U Q + V P ) = C. Par conséquent, AB divise C. Théorème 2.13. Si A est premier avec B et C, il est premier avec le produit BC. Preuve. Il existe U, V, U 0 , V 0 ∈ K[X] tels que U A + V B = 1 et U 0 A + V 0 C = 1. Par multiplication, on obtient : (U U 0 A + U V 0 C + V U 0 B)A + (V V 0 )BC = 1. Donc A et BC sont premiers entre eux. 2.2.2 Algorithme d’Euclide. Proposition 2.14. (Théorème d’Euclide ) Soient A et B deux polynômes dans K[X], tels que d0 B < d0 A. Soit R le reste de la division euclidienne de A par B. Alors A ∧ B = B ∧ R. Preuve. Soit (Q, R) le quotient et le reste de la division euclidienne de A par B. On a (∗) A = B.Q + R avec d0 B < d0 R. Soit ∆ = B ∧ R. Nous allons montrer que ∆ = A ∧ B ; c’est à dire que : ∆ vérifie i) et ii) du théorème 2.8 . 24 i) ∆ divise t-il A et B ? On a ∆ divise B et R, donc ∃Q1 , Q2 ∈ K[X] tels que : B = Q1 .∆ et R = Q2 .∆. Remplaçons dans (*) : A = (Q1 Q + Q2 )∆. Donc ∆ divise A. ii) Soit D un diviseur commun de A et B : ∃P1 , P2 ∈ K[X] tels que : A = P1 D et B = P2 D Remplaçons dans (*) : R = P1 D − P2 DQ = (P1 − P2 Q)D. Par suite D divise R. Finalement, D divise B et R. Or ∆ = B ∧ R. Donc D divise ∆. Algorithme d’Euclide Soient A et B deux polynômes de K[X] tels que d0 B < d0 A. Soit R1 le reste de la division euclidienne de A par B. A = BQ + R1 , d0 R1 < d0 B. Si R1 = 0 ⇒ A = BQ ⇒ B/A, donc A ∧ B = B. Si R1 = 6 0, d’après la Proposition (2.14) , on a ½ A ∧ B = B ∧ R1 d0 R1 < d0 B. On recommence et on considère R2 le reste de la division euclidienne de B par R1 . Si R2 = 0 ⇒ B = R1 Q ⇒ R1 /B, donc B ∧ R1 = R1 . Si R2 6= 0, Toujours d’après la Proposition (2.14), on a : ½ A ∧ B = B ∧ R1 = R1 ∧ R2 d0 R2 < d0 R1 < d0 B. On construit ainsi une suite de polynômes (Rk )k≥0 vérifiant : R0 = B R1 : est le reste de la D.E. de A par B . . . R : est le reste de la D.E. de Rk−2 par Rk−1 k0 (d Rk )k≥0 est une suite strictement décroissante. Comme la suite des degrés des restes est strictement décroissante, il existe un entier n tel que Rn = 0. Alors A ∧ B = Rn−1 (où Rn−1 est le dernier reste non nul). Exemple 2.4. Le pgcd des deux polynômes A = X 5 − 3X 4 + 5X 3 − 4X 2 + 7X − 4 et B = X 5 − 3X 4 + 4X 3 − X 2 + 3X − 4 est le polynôme R2 = −X 2 + 3X − 4. 25 2.3 Fonction polynôme Définition 2.15. Pour tout polynôme P = P̃ : Pn k=0 ak X k dans K[X] : on note K→K P x → P̃ (x) = nk=0 ak xk . On dit que P̃ est la fonction polynôme associée au polynôme P . Remarque 2.6. On distingue parfois le polynôme P (qui, par construction, est nul si et seulement si tous ses coefficients sont nul(*) ) de la fonction polynomiale associée (celle-ci est nulle si et seulement si : ∀x ∈ K, P (x) = 0 (**)). On a bien évidemment l’implication : P (X) = 0 ⇒ ∀x ∈ K : P̃ (x) = 0. Mais la réciproque est loin d’être évidente. Il suffit de se placer sur le corps Z/2Z et de considérer le polynôme P (X) = X 2 + X. Celle-ci est non nul en tant que polynôme formel, mais la fonction polynomiale associée est nulle de K dans K. Cependant, nous pouvons prouver que dans notre cas (K = R ou C), il y a équivalence. Dans la suite on convient de noter P (x) la valeur de la fonction polynomiale P̃ (x) associée à P au point x ∈ K, au lieu de P̃ (x). 2.3.1 Polynôme dérivé Définition 2.16. Soit P ∈ K[X], P : x → an xn + ... + a1 x + a0 . Le polynôme dérivé de P , noté P 0 est défini par P 0 : x → nan xn−1 + ... + 2a2 x + a1 . Remarque 2.7. Lorsque K = R, le polynôme dérivé correspond à la dérivée usuelle de la fonction polynomiale P . Puisque P 0 est encore un polynôme, on peut itérer cette opération de dérivation et définir successivement P 00 , puis P (3) ,... comme le degré diminue de 1 à chaque étape, cette itération finira par donner le polynôme constant P (n) = n!an . Pour k > n, P k = 0 (polynôme nul). Le résultat suivant établit un lien intéressant entre les valeurs en 0 des polynômes dérivés successifs et les coefficients de P . Théorème 2.17. Soit P : x → an xn + ... + a0 un polynôme de degré n. Pour tout k ∈ {0, ..., n}, P (k) (0) ak = k! Preuve. Pour k = 0, c’est évident. Stop ! Avez-vous fait la démonstration vous-même avant de lire ci-dessous ? Le cours n’est jamais qu’une suite d’exercices corrigés et commentés ! ! ! Ceci est valable pour TOUS les cours de mathématiques. Pour k ≥ 1, P (k) (0) est le terme constant de P (k) . Comme chaque dérivation abaisse le degré de 1, ce terme constant résulte de k dérivations successives de ak xk . Il vaut donc k!ak d’où le résultat. 26 2.3.2 Formule de Taylor pour les polynômes Soit P un polynôme de degré n. Le Théorème 2.17 prouve l’identité suivante : P (x) = a0 + ... + ak xk + ... + an xn = P (0) + ... + P (n) (0) n P (k) (0) k x + ... + x . k! n! Le théorème suivant montre qu’elle est valable en tout point, et pas seulement en 0. Théorème 2.18. Soit P un polynôme de degré n et soit α ∈ K. Alors, pour tout x ∈ K, P (n) (α) (x − α)n . n! P (x) = P (α) + P 0 (α)(x − α) + ... + Preuve. Nous allons utiliser le fait que nous connaissons déjà la validité de la formule pour α = 0. Posons Q(t) = P (t + α). Q est encore un polynôme, du même degré que P , on peut donc écrire, pour tout t ∈ K, Q(t) = Q(0) + Q0 (0)t + ... + Q(n) (0) n t . n! Admettons pour l’instant que, pour tout t ∈ K, Q(k) (t) = P k (t + α). On a alors, pour tout t∈K P (n) (α) n t . P (t + α) = P (α) + P 0 (α)x + ... + n! Il reste donc à prouver que, pour tout k, Q(k) (t) = P k (t + α). Pour k = 0, la formule à prouver devient Q(t) = P (t + α), qui est la définition même de Q. Posons g(t) = t + α. On a Q = P og. Supposons que la formule est vraie au rang k. on a donc : Q(k) (t) = P k (t + α), ou en d’autres termes Q(k) (t) = P k og). Dérivons cette égalité en appliquant la formule de dérivation des fonctions composées : 0 0 0 (Q(k) ) = [(P k ) og] × g . Comme g 0 = 1, on en déduit Q(k+1) = P (k+1) og. La propriété est donc vraie pour k + 1. Ceci termine la récurrence. 2.4 Zéros d’un polynôme Une des questions les plus importantes dans l’étude des polynômes est le calcul de leurs racines. Bien qu’il y ait peu de méthodes générales pour leur calcul effectif (on en décrira quelques unes en fin de paragraphe), il y a en revanche de nombreux résultats théoriques. Définition 2.19. Soit P ∈ K[X]. On dit que α ∈ K est racine de P si P (α) = 0. Le fait qu’un nombre α soit racine d’un polynôme peut s’exprimer en termes fonctionnels comme dans la définition ci-dessus, mais également en termes de divisibilité, grâce au critère donné par le théorème suivant. Théorème 2.20. Soit P ∈ K[X] et α ∈ K. Alors, 1) α est racine de P si et seulement si P est divisible par X − α. 2) Soit n ∈ N∗ et α1 , α2 , ..., αn ∈ K deux à deux distincts. Si α1 , α2 , ..., αn sont des zéros de P , alors : n Y (X − αi )/P. i=1 27 Preuve. 1) Si P est divisible par X − α, on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X], tel que P (x) = (x − α)Q(x). Par suite : P (α) = 0. Réciproquement, soit α une racine de P . Faisons la division euclidienne de P par X − α. Le reste R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a donc P (x) = (x − α)Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0 puisque P (α) = 0 : P est donc bien divisible par X − α. 2) On a d’une part, pour tout i ∈ {1, ..., n} αi est zéro de P , donc (X − αi )/P . D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − αi ) ∧ (X − αj ) = 1. Le théorème 2.12 entraı̂ne : n Y (X − αi )/P. i=1 Ce théorème explique pourquoi le calcul des racines d’un polynôme joue un rôle important dans la factorisation des polynômes. Cependant, avant d’énoncer le théorème de factorisation, nous devons introduire le concept de racine multiple. 2.4.1 Multiplicité d’une racine Quand le discriminant d’un trinôme du second degré est nul, on dit que cette équation admet une racine double. Ce qui pouvait dans ce contexte apparaı̂tre comme une convention de vocabulaire un peu arbitraire est en fait le cas particulier d’une situation générale que nous décrivons dans ce chapitre. Définition 2.21. Soit P ∈ K[X] et α ∈ K. On dit que α est racine de multiplicité k de P si (X − α)k divise P et si (X − α)k+1 ne divise pas P . Si k = 2 ou 3, on dit aussi : racine double ou racine triple. Si k = 1, on parle de racine simple. Exemple 2.5. Le polynôme (X − 3)2 (X − 5)4 admet α = 3 comme racine double et α = 5 comme racine de multiplicité 4. Nous avons vu au paragraphe précédent qu’il y avait sur la notion de racine deux points de vue possibles : un point de vue fonctionnel et un point de vue de divisibilité (on parle, pour le second, d’un point de vue arithmétique). Cette dualité de points de vue se retrouve pour l’étude des racines multiples. Théorème 2.22. Soit P ∈ K[X] et α K. Alors α est racine de multiplicité k de P si et seulement si P (α) = P 0 (α) = = P (k−1) (α) = 0, et P (k) (α) 6= 0. Preuve. Supposons que α est racine de multiplicité k avec k ≥ 1. On peut écrire, pour tout x ∈ K : P (x) = (x − α)k Q(x) avec Q(α) 6= 0. On vérifie alors par récurrence sur l ∈ {1, ..., k} que P (l) (x) = (x − α)k−l Ql (x) 28 avec Ql (α) 6= 0. Il en résulte que, tant que k − l ≥ 1, c’est-à-dire l ≤ k − 1, P (l) (α) = 0, et que pour l = k, P k (α) = Qk (α) 6= 0. Réciproquement, faisons l’hypothèse sur les dérivées successives et montrons que α est racine de multiplicité k de P . On écrit la formule de Taylor à l’ordre n = deg(P ) en α. On a (k−1) P (x) = P (α) + (x − α)P 0 (α) + ... + (x − α)k−1 P (k−1)!(α) + (x − α)k ∗ P (k) (α) ... k! + (x − α)n P (n) (α) n! . Tous les coefficients de la première ligne sont nuls à cause de l’hypothèse. On peut donc écrire : P (x) = (X − α)k Q(x), (k) avec Q(α) = P k!(α) 6= 0. Ceci prouve que P est divisible par (X − α)k mais pas (X − α)k+1 , d’où la conclusion. Exercice. Déterminer a et b pour que le polynôme P (x) = x5 + ax4 + bx3 − bx2 − ax − 1 admette 1 comme racine de plus grande multiplicité possible. 2.5 Polynômes irréductibles Définition 2.23. Un polynôme P ∈ K[X] est irréductible sur K s’il n’est pas constant et si : ∀Q, R ∈ K[X], P = Q.R ⇒ d0 Q = 0 ou d0 R = 0. Autrement dit, un polynôme P est irréductible sur K si et seulement si 1- degP ≥ 1. 2- Les seuls diviseurs de P dans K[X] sont les constantes et λP avec λ ∈ K. Exemple 2.6. . 1) Tout polynôme de premeir degré est irréductible. Par exemple P = X + 2 est irréductible dans K[X] ( K = R ou C ) 2) Le polynôme P = X 2 + 1 est irréductible dans R. 3) Le polynôme P = X 2 + 1 n’est pas irréductible dans C. Proposition 2.24. Soit P ∈ K[X] irréductible, A ∈ K[X] \ {0}. Alors P/A ou P ∧ A = 1. Preuve. Soit D = P ∧ A. Puisque D/P et P est irréductible, alors D = 1 ou D = P (à une constante multiplicative près) . D’où P ∧ A = 1 ou P = D/A. Proposition 2.25. Soient P ∈ K[X] irréductible, n ∈ N∗ , A1 , ..., An ∈ K[X] \ {0}. Alors : (P/ n Y Ai ) ⇔ (∃i ∈ {1, ..., n}, P/Ai ). i=1 Preuve. ⇐) Evidente. ⇒) Si P ne divise aucun des Ai , 1 ≤ i ≤ n. Alors, il est premier avec chaque Ai (d’après la proposition 2.24. Donc premier avec le produit A1 ...An , d’après le Théorème 2.13. 29 2.6 Décomposition des polynômes en facteurs irréductibles Les théorèmes suivants donnent la forme de la décomposition d’un polynôme P en facteurs irréductibles selon que P est à coefficients dans R ou dans C . 2.6.1 Factorisation des polynômes dans C[X] Nous commençons par rappeler le théorème de d’Alembert (que nous admettons) : Théorème 2.26. (Théorème de d’Alembert) Si P ∈ C[X] est de degré n ≥ 1, P possède n racines (comptées éventuellement avec leur multiplicité). On dit que C est un corps algèbriquement clos. On déduit de ce théorème le résultat suivant : Théorème 2.27. Sur C, les polynômes irréductibles sont les polynômes de degré 1. Tout polynôme à coefficients dans C se décompose comme produit de polynômes irréductibles. Preuve. On sait déjà que les polynômes de degré 1 sont irréductibles. Il reste à prouver que les polynômes irréductibles sont de degré 1. On va montrer que les polynômes de degré supérieur ou égal à 2 ne sont pas iréductibles. Soit P ∈ C[X], d0 P ≥ 2. D’après le théorème de d’Alembert, P possède au moins une racine. Donc P n’est pas irréductible. Conséquence : Tout polynôme P de degré n ≥ 1 de C[X] se factorise donc de manière unique comme produit d’une contante et de polynômes du premier degré normalisés, autrement dit, P peut s’crire sous la forme : P = an . p Y (X − xi )λi . i=1 où ; - an est le coefficient dominant de P . - x1 , x2 , ...., xp sont les racines distinctes de P dans C. - λi pour i ∈ {1, 2, ..., p} est l’ordre de multiplicité de la racine xi . - λ1 + λ2 + ... + λp = n. Exemples. 1. P = X 4 − 2X 2 Q + 1 = (X 2 − 1)2 = (X − 1)2 (X + 1)2 . n 2. P = X − 1 = n−1 i=1 (X − ωi ) où les ωi sont les racines n−ième de l’unité. 2.6.2 Factorisation des polynômes dans R[X] Remarquons que si P ∈ R[X] et α ∈ C une racine d’ordre k de P , alors ᾱ est aussi racine d’ordre k de P . En effet, ¯ P (x) = (x − α)k Q(x) = (x − ᾱ)k Q(x). Les racines de P dans C sont donc : β1 , ..., βk : des racines réelles. 30 α1 , ..., αl α¯1 , ..., ᾱl ¾ complexes deux à deux conjuguées (distinctes ou multiples). Donc P (x) = λ(x − β1 )...(x − βk )....(x − α1 )(x − α¯1 )...(x − αl )(x − ᾱl ). avec k + 2l = d0 P . Le polynôme (x − αi )(x − ᾱi ) = x2 − 2(Reαi )x + |αi |2 ∈ R[X], Ceci montre que tout polynôme P ∈ R[X] est produit de polynômes à coefficients réels de degrés 1 ou 2, et en outre ceux de degré 2 ont un discriminant strictement négatif (sinon leurs racines seraient réelles). Il en résulte que ces polynômes sont les seuls à être irréductibles, et que tout polynôme de R[X] est produit de polynômes irréductibles. On a donc le théorème : Théorème 2.28. Les polynômes irréductibles R[X] sont - Les polynômes de degré 1. -Les polynômes de degré 2 de discriminant strictement négatif. Corollaire 2.29. Si P ∈ R[X] tel que degP = n ≥ 1, alors la décomposition de P en facteurs irréductibles sur R est de la forme : P = an .(X − x1 )λ1 .(X − x2 )λ2 ...(X − xl )λl .(X 2 + p1 X + q1 )µ1 ...(X 2 + ps X + qs )µs . où ; - an est le coefficient dominant de P , - x1 , x2 , ...., xl sont les racines distinctes de P dans R, - λi pour i ∈ {1, 2, ..., l} est l’ordre de multiplicité de la racine xi , - pi , qi , (i=1, 2,...,s) sont des nombres réels tels que ∆i = p2i − 4qi < 0, - λ1 + λ2 + ... + λl + 2(µ1 + µ2 + ... + µs ) = n. Remarque 2.8. Pour décomposer un polynôme en facteurs irréductibles sur R, il suffit donc de le décomposer sur C (en calculant ses racines (du moins lorsque c’est possible) et de regrouper les racines complexes avec leurs conjuguées. Exemples. La décomposition de P en facteurs irréductibles de : - P = X 4 − 2X 2 + 1 est P = (X − 1)2 (X + 1)2 , - P = X 4 + 2X 2 + 1 est P = (X 2 + 1)2 , - P = X 4 + 2X 3 + X 2 − 1 = (X 2 + X − 1)(X 2 + X + 1), d’où : √ √ √ √ 1− 5 1+ 5 1−i 3 1−i 3 P = (X − )(X − )(X − )(X − ). 2 2 2 2 En regroupant les racines complexes avec leurs conjuguées, on obtient √ √ 1− 5 1+ 5 2 p = (X − )(X − (X + X + 1) 2 2 31 2.6.3 Annexe : Recherche des racines, quelques résultats et méthodes Nous savons déjà résoudre les équations de degré 2, à coefficients réels ou complexes. Bien que des formules existent aussi pour les équations de degré 3 (formules de Cardan) et 4 (formules de Ferrari), ces formules sont assez difficiles à utiliser, et en pratique ne servent jamais. Au delà, on a pu démontrer qu’il n’existe aucune formule générale permettant de résoudre les équations de degré 5 et plus. Il existe néanmoins quelques types d’équations que l’on peut résoudre explicitement. Figurent parmi ceux-ci les équations bicarrées, tricarrées et certaines équations appelées réciproques. – On appelle équation bicarrée une équation de la forme aX 4 + bx2 + c = 0. On la résoud en posant x = X 2 , en résolvant l’équation du second degré en x et en calculant les racines carrées des solutions x1 et x2 . – De manière analogue, une équation tricarrée a pour forme aX 6 + bX 3 + c = 0. Cette fois on pose x = X 3 , on résoud l’équation du second degré en x et on calcule les racines cubiques des solutions x1 , x2 et x3 . Remarque 2.9. On terminera ce paragraphe en signalant que parfois, une information supplémentaire sur les racines permet de simplifier leur calcul (ou parfois même de le rendre possible). Par exemple, si l’on sait que le polynôme X 4 +5X 3 −9X 2 −81X−108 possède une racine triple, on cherche un nombre x tel que P (x) = P 00 (x) = 0. Comme P 00 est de degré 2, on calcule facilement ses racines et on trouve x1 = −3 et x2 = 1/2. On vérifie que P (−3) = P 0 (−3) = 0. La racine triple cherchée est donc −3 et il n’y a plus qu’une racine x4 à chercher pour factoriser P . En utilisant le produit des racines, on trouve (−3)3 x4 = −108, d’où il résulte que x4 = 4. Finalement P (X) = (X + 3)3 (X − 4). 32 2.7 EXERCICES. Exercice 1. Soient P , Q, et R trois polynomes dans K[X]. Montrer que (P + Q)oR = P oR + QoR. Et que en général P o(Q + R) 6= P oQ + P oR. Exercice 2. Effectuer la division euclidienne de A par B dans les cas suivants : a) A = X 8 − 1, B = X 3 − 1. 6 4 b) A = X + 4X − X 2 + 1, B = X 2 + 1. 9 4 c) X − 1, B = X − 1. 3 d) A = X − 3X 2 + X − 1, B = X 2 − X − 2. 3 2 e) A = X − iX + X + 12, B = X 2 − iX + 1. Exercice 3. On donne K = C, A = X 4 + aX 2 + bX + c, B = X 2 + X + 1. Trouver des conditions sur a, b, c pour que B divise A. Exercice 4. Soient a et b deux nombres complexes distincts, et soit P (X) un polynôme. Calculer en fonction de P (a) et de P (b) le reste de la division euclidienne de P (X) par (X − a)(X − b). Exercice 5. Soit la suite de polynômes définies par : P0 = 1 , P1 = X et pour tout n ≥ 0 , Pn+2 = XPn+1 − Pn . 1) Montrer que ∀n ∈ N : 2 Pn+1 − Pn Pn+2 = 1 2) Montrer que Pn et Pn+1 sot premiers entre eux. Exercice 6. Trouver le p.g.c.d des deux polynômes : A = 2X 5 − 4X 4 − 3X 3 + 6X 2 + X − 2 et B = X 3 − 3X 2 + 3X − 2. Exercice 7. Soit m et p des entiers tels que m ≥ p > 0. En effectuant la division euclidienne de X m − am par X p − ap , trouver une condition nécessaire et suffisante pour que X p − ap divise X m − am . Exercice 8. Soient A, B, et C trois polynômes tels que A ∧ B = B ∧ C = A ∧ C = 1. Montrer que ABC ∧ (AB + BC + AC) = 1. Exercice 9. Soit P un polynôme. Montrer que si P (X n ) est divisible par X − 1, il est aussi divisible par X n − 1. Exercice 10. a) Soient a, p, q trois nombres complexes. Ecrire les conditions pour que a soit racine double 33 de polynôme X 3 + pX + q. b) Quelle condition nécessaire et suffisante doivent satisfaire p et q pour que le polynôme X 3 + pX + q ait une racine (au moins) double ? Exercice 11. (Polynômes d’interpolation de Lagrange). Soient a, b, c trois nombres réels distincts. a) Chercher un polynôme P1 de degré inférieur ou égal à 2, tel que P1 (a) = 1, P1 (b) = 0, P1 (c) = 0. Est-il unique ? b) Chercher des polynômes P2 et P3 de degré inférieur ou égal à 2, tels que P2 (a) = 0, P2 (b) = 1, P2 (c) = 0 et P3 (a) = 0, P3 (b) = 0, P3 (c) = 1 . c) Soient α, β, γ , trois nombres réels quelconques. Chercher un polynôme Q de degré inférieur ou égal à 2, tel que Q(a) = α, Q(b) = β, Q(c) = γ. (Indication : chercher Q comme combinaison des polynômes P1 , P2 , P3 ). Le polynôme Q est-il unique ? Exercice 12. Soit Q(X) le polynm̂es de R[X] donné par : Q(X) = X 5 − X 4 − 2X 3 + 2X 2 + X − 1. 0 00 1) Calculer les dérivées Q (X), Q (X), Q3 (X), et Q4 (X). 2) Monter que 1 est un zéro d’ordre trois de Q(X). 3) En déduire la décomposition en facteurs irréductibles de Q(X) dans R[X]. Exercice 13. Quelle est la multiplicité des racines 1,-1 et 2 du polynôme : P = X 9 − 2X 8 − 4X 7 + 8X 6 + 6X 5 − 12X 4 − X 3 + 8X 2 + X − 2. Exercice 14. 1) Montrer que si le polynôme P = X 4 − X 3 + X 2 + 2 admet une racine complexe α, il admet également pour racine ᾱ. √ 2) Montrer que 1 + i et − 12 + i 23 sont des racines de l’équation P = 0. 3) En déduire une factorisation de P dans C[X] puis dans R[X]. Exercice 15. dire, sans trop de calcul, si les polynômes suivants sont irréductibles dans R et dans C. P1 = X 2 − X + 2, P2 = X 4 − 3X2 + 2, P3 = X − 2, P4 = X 3 − 2X 2 + 4X − 1. Exercice 16. Soit α1 , ..., αn , β1 , ..., βn ∈ R, avec αi 6= αj si i 6= j. On pose P = n X i Y X − αj βi ( ). αi − αj j6=i Vérifier due P (αk ) = βk , pour tout 1 ≤ k ≤ n. Exercice 17. Soit P ∈ K[X] et n ∈ N. Montrer que si d0 P ≤ n et si P admet au moins n + 1 zéros deux à deux distincts, alors P = 0. Déduire que si un polynôme de K[X] admet une infinité de racines, alors P = 0. 34 Exercice 18. (Racine commune a deux polynômes ). a) On considère les deux polynômes suivants : P (X) = 2X 4 + X 3 − X 2 + 2X − 1 et Q(X) = 4X 3 + 4X 2 − X − 1. Montrer qu’ils ont une racine commune α que l’on déterminera. (Indication : effectuer la division euclidienne de P par Q pour obtenir un polynôme de degré plus petit que ceux de P et Q admettant encore pour racine α ; itérer cette procédure ). b) Même question pour les polynômes : P (X) = X 4 − (1 + i)X 3 + X2 + (1 + i)X − 2 et Q(X) = X 3 + (2 + 2i)X 2 + 2iX − 1 . Exercice 19. Factoriser sur R puis sur C les polynômes suivants : P1 = X 10 + X 5 + 1, P2 = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16. Exercice 20. Soit n un entier non nul. 1. Montrer qu’il existe un couple unique (F, G) de polynômes de R[X], de degré srictement inférieur à n, vérifiant : (1 − X)n F (X) + X n G(X) = 1. 2. Montrer que ∀X ∈ R, F (X) = G(1 − X). 35 Chapitre 3 FRACTIONS RATIONNELLES Dans ce chapitre, K est un corps (on pourra penser à R ou C). 3.1 Définitions et propriétés algèbriques Définition 3.1. On appelle fraction rationnelle à coefficients dans K tout quotient de poA lynômes à coeficients dans K. Autrement dit : une expression de la forme B où A ∈ K[X] et ∗ B ∈ K[X] . L’ensemble de ces fractions rationnelles est noté K(X). Soit F une fraction rationnelle. On appellera un représentant de F tout couple de polynômes A . Il est clair qu’une fraction rationnelle admet une infinité de représentants. (A, B) tels que F = B On notera 0 la fraction rationnelle B0 et 1 la fraction rationnelle A A. A Pour toute fraction rationnelle F = B 6= 0, on appellera inverse de F la fraction rationnelle 1 B F = A. Exemple 3.1. F (X) = X 5 + 3X 2 + 1 ∈ R(X). X 6 + 2X 3 + 4X iX 5 + 3jX 2 + 1 ∈ C(X). X 6 + 2X 3 + 4i Remarque 3.1. Il n’est pas difficile de vérifier que K(X) est un corps. F (X) = Définition 3.2. B On dit que deux fractions rationnelles F1 = et seulement si AD = BC. Exemple 3.2. F = A B et F2 = C D sont égales si X 2 + 2X + 1 X +1 = . 2 X −1 X −1 Car (X 2 + 2X + 1)(X − 1) = (X 2 − 1)(X + 1). 3.1.1 Fractions ratinnelles irréductibles P Définition 3.3. Une fraction F = Q de K(X) est dite irréductible si les polynômes P et Q sont premiers entre eux (i.e. P ∧ Q = 1 ). Proposition 3.4. Toute fraction rationnelle F est égale à une fraction rationnelle irréductible. P Preuve. Soit F = Q ∈ K(X) , Si D = P ∧ Q. Alors P = DP1 et Q = DQ1 avec P1 ∧ Q1 = 1. P1 P Par suite Q = Q1 . 36 Exemple 3.3. X 3 −1 (X 2 +X+1)(X+2) = (X−1)(X 2 +X+1) (X 2 +X+1)(X+2) = X−1 X+2 . A Définition 3.5. Soit F = B ∈ K(X). Le degré de F , noté d0 F , est la quantité : d0 F = 0 0 d A − d B. Le degré d’une fraction rationnelle est un élément de Z ∪ {−∞}. Proposition 3.6. Soient F1 , F2 ∈ K(X) et soit λ ∈ K∗ . Alors : 1. d0 (λF1 ) = d0 F1 . 2. d0 (F1 F2 ) = d0 F1 + d0 F2 . 3. d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ). Preuve. Les points 1. et 2. sont faciles. A C A C Montrons 3. Soit F1 = B et F2 = D . On a F1 + F2 = B +D = AD+BC BD . Par suite, d0 (F1 + F2 ) = d0 (AD + BC) − d0 B − d0 D. ≤ sup(d0 (AD), d0 (BC))) − d0 B − d0 D. Si sup(d0 (AD), d0 (BC)) = d0 (AD). Alors, d0 (F1 + F2 ) = d0 A − d0 B = d0 F1 ≤ sup(d0 F1 , d0 F2 ). Si sup(d0 (AD), d0 (BC)) = d0 (BC). Alors, d0 (F1 + F2 ) = d0 C − d0 D = d0 F2 ≤ sup(d0 F1 , d0 F2 ). Finalement, d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ). Remarque 3.2. Le degré d’une fraction rationnelle F ∈ K(X) est indépendant du choix du représentant de F . A un représentant irréductible de F . On dira que Définition 3.7. Soit F ∈ K(X) et soit B α ∈ K est une racine d’ordre n de F si α est une racine d’ordre n de A. On dira que β ∈ K est un pôle d’ordre m de F si β est une racine d’ordre m de B. Remarque 3.3. Pour calculer les racines et les pôles d’une fraction rationnelle F , il est nécéssaire d’avoir un repésentant irréductible de F . 3 X −3X+2 Exemple 3.4. Soit F = (X+1)(X−2) 3 , alors 3 2 ♣ X − 3X + 2 = (X − 1) (X + 2), donc 1 est un zéro double et −2 est un zéro simple de F . ♣ −1 est un pôle simple de F . ♣ 2 est un pôle triple de F . D’après les propriétés des polynômes, l’ensemble ∆F des pôles de F est fini. On dit que DF = K \ ∆F est l’ensemble de définition de F . A partir de là, l’application : F̃ : DF −→ K, est appelée la fonction rationnelle associée à F. 37 x 7→ Ã(x) B̃(x) 3.2 3.2.1 Décomposition en éléments simples d’une fraction rationnelle Fractions rationnelles régulières P Q Définition 3.8. La fraction rationnelle F = est dite régulière si do P < do Q. Remarque 3.4. Une fraction rationnelle est régulière si et seulement si do F < 0. Exemple 3.5. F1 = 5X − 2 , X2 − 1 F2 = 2X 2 − 5 , X3 + 6 F3 = X3 − 2 X5 + 3 sont régulières. P Théorème 3.9. Soit F = Q ∈ K(X). Il existe un polynôme E ∈ K[X] et un seul, tel que F − E soit une fraction rationnelle régulière. Le polynôme E s’appelle la partie entière de F . Preuve. On suppose do P > do Q, la division euclidienne de P par Q donne : Ainsi, F = P = QE + R, do R < do Q. R P =E+ Q Q avec do R < do Q. Unicité : Supposons que E1 , E2 ∈ K[X] vérifient le théorème, alors : do (E1 − E2 ) = do [(F − E2 ) − (F − E1 )] ≤ sup(do (F − E1 ), do (F − E2 )) < 0. Par suite E1 = E2 . Exemple 3.6. 3 X2 − 1 =X −2+ , donc E = X − 2. X +2 X +2 Propriété Si F1 , FP 2 , ..., Fn sont des fractions rationnelles de parties entières respectivement P E1 , E2 , ..., En , alors ni=1 Ei est la partie entière de la fraction rationnelle F = ni=1 Fi . F1 = 3.2.2 Décomposition en éléments simples Comment intégrer la fraction rationnelle : F = X ? (X − 1)(X 2 + 1)3 On procède de la manière suivante, on écrit : X a0 a1 X + b1 a2 X + b2 a3 X + b3 = + + + , 2 3 2 2 2 (X − 1)(X + 1) X − 1 (X + 1) (X + 1) (X 2 + 1)3 puis on intègre chaque élément. Le but de ce paragraphe est de montrer que cette écriture est toujours possible. On aura besoin du résultat suivant. 38 Proposition 3.10. Soient A et P deux polynômes de K[X], P 6= 0. Pour tout entier naturel non nul n, il existe un système unique de polynômes A1 , A2 , ..., An et R tels que A = An + An−1 P + An−2 P 2 + .... + A1 P n−1 + RP n , avec d0 Ak < d0 P , 1 ≤ k ≤ n. Preuve. Unicité : Commençons par établir l’unicité. Supposons que : A = An + An−1 P + An−2 P 2 + .... + A1 P n−1 + RP n , d0 Ak < d0 P, 1 ≤ k ≤ n. A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R̃P n , d0 Ãk < d0 P, 1 ≤ k ≤ n. et Posons Bk = Ak − Ãk et S = R − R̃. On a 0 = Bn + Bn−1 P + ... + B1 P n−1 + SP n . D’où : Bn = −P (Bn−1 + ... + B1 P n−2 + SP n−1 ). Si Bn 6= 0, on aura d0 Bn ≥ d0 P , ce qui est absurde. Donc Bn = 0. On simplifie par P (qui est 6= 0)et on fait la même chose pour Bn−1 , Bn−2 , ..., B1 , à la fin on obtient SP = 0, puisque P 6= 0,on a alors S = 0. D’où l’unicité. Existence : Nous allons faire une démonstration par récurrence sur n. Pour n = 1, on effectue la D.E. de A par P , on a : ∃Q1 , R1 ∈ K[X] tels que A = P Q1 + R1 , d0 R1 < d0 P. Il suffit de prendre A1 = R1 et R = Q1 . Supposons le résultat vrai à l’ordre n ; c’est-à-dire ∃Ãk , 1 ≤ k ≤ n, ∃R̃ ∈ K[X] tels que : A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R̃P n , avec d0 Ãk < do P. Effectuons la D.E. R̃ par P , il existe Q2 , R2 dans K[X], d0 R2 < d0 P tels que : R̃ = P Q2 +R2 . Donc A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R2 P n + Q2 P n+1 . Posons Ak+1 = Ãk , 1 ≤ k ≤ n, A1 = R2 et R = Q2 . Finalement on trouve : A = An+1 + An P + An−1 P 2 + .... + A1 P n + RP n+1 . P ∈ K(X), P ∧ Q = 1 avec Q normalisé. Soit maintenant, F = Q Décomposons Q en facteurs irréductibles : Q= r Y Qαi i , αi ≥ 1. i=1 Les Qi étant deux à deux premiers entre eux, irréductibles et normalisés. Le résultat fondamental portant sur les fractions rationnelles est le suivant : 39 Théorème 3.11. Avec les notations ci-dessus, la fraction F s’écrit d’une manière unique, sous la forme : F =E+ r X Pi i=1 où E est un polynôme et où Pi = Pαi Pi,j j=1 Qj . i Les Pi,j et les Qi étant des polynômes tels que pour tout i et tout j, d0 Pi,j < d0 Qi . Le terme Pi s’appelle la partie polaire de F relative au facteur Qαi i du dénominateur Q de F. E s’appelle la partie entière de F . Dans la pratique, on a intérêt à déterminer d’abord E. Preuve. Existence : On a : Q = Qα1 1 (Qα2 2 ...Qαr r ) avec Qα1 1 et (Qα2 2 ...Qαr r ) sont premiers entre eux. Il existe U, V ∈ K[X] tels que : U Qα1 1 + V (Qα2 2 ...Qαr r ) = 1. D’où F = P P.1 P [U Qα1 1 + V (Qα2 2 ...Qαr r )] PU PV = = = . α1 α2 α2 αr αr + Q Q Q1 (Q2 ...Qr ) (Q2 ...Qr ) Qα1 1 De proche en proche, en appliquant le même raisonnement à F = r X Ai Qαi i PU α r (Q2 2 ...Qα r ) ; on obtient (∗) i=1 où les Ai étant des polynômes. Soit maintenant 1 ≤ i ≤ r, d’après le résultat de la proposition précédente pour A = Ai , P = Qi et n = αi : ∃Pi,j , 1 ≤ j ≤ αi , et ∃Ei ∈ K[X] tels que : Ai = Pi,αi + Pi,αi −1 Qi + ... + Pi,1 Qαi i −1 + Ei Qαi i avec d0 Pi,j < d0 Qi , ∀1 ≤ j ≤ αi . Ai = αi X Pi,j Qαi i −j + Ei Qαi i . j=1 En remplaçant dans (∗) on obtient : αi αi r X r X r X X Pi,j Qαi i −j Pi,j X F = ( + Ei ) = + Ei , Qαi i Qji i=1 j=1 i=1 j=1 avec d0 Pi,j < d0 Qi ∀1 ≤ i ≤ r et ∀1 ≤ j ≤ αi . P P P i Posons E = ri=1 Ei , on a F = ri=1 Pi + E avec Pi = αj=1 i=1 Pi,j Qji et d0 Pi,j < d0 Qi , ∀1 ≤ i ≤ r et ∀1 ≤ j ≤ αi . Unicité : C’est une conséquence du résultat suivant : la famille constituée d’une part par k ) où Q est un polynôme irréductible, l ∈ N∗ et k < d0 Q les (X n )n≥0 et d’autre part par les ( X Ql est une base du K − espace vectoriel K(X). 40 3.2.3 Décomposition dans C(X) Lorsque K = C, les polynômes Qi sont du premier degré, soit Qi = X − ai . Les polynômes Pi,j se réduisent à des constantes. Le théorème précédent s’écrit, dans ce cas, sous la forme : P Théorème 3.12. Toute fraction rationnelle F = Q ∈ C(X) admet la décomposition : F =E+ αi r X X i=1 j=1 Ai,j (X − ai )j où a1 , ..., ar sont les racines distinctes de Q et α1 , ..., αr leurs ordres de multiplicités. Les Ai,j sont des constantes et E est un polynôme de degré égal à d0 P − d0 Q. Exemple 3.7. Donner la décomposition en éléments simples dans C(X) des fractions rationnelles suivantes : 1) F = 1 1+X 1 , 2) G = , 3) H = , 1−X 1 + X2 (1 + X)(2 + X)(3 + X) 2 1−X . a(X−i)+b(X+i) (X+i)(X−i) . 1) On a 1 + X = −(1 − X) + 2, donc F = −1 + 2) G = 1 1+X 2 = 1 (X−i)(X+i) = a X+i + b X−i = On en déduit alors (par identification) : a + b = 0 et b − a = −i donc b = Par conséquent : i 1 i − . G= = 2 1+X 2(X + i) 2(X − i) 3.2.4 −i 2 et a = 2i . Décomposition dans R(X) Lorsque K = R ; les polynômes irréductibles dans R[X] sont de deux types : 1) Tout polynôme du prenier degré. 2) Tout polynôme du second degré à discriminant strictement négatif. Donc dans R(X) (ensemble des fractions rationnelles) il y a deux types d’éléments simples : 1) L’élément simple dit de première espèce de la forme : λ (X + µ)n avec µ, λ ∈ R n ∈ N∗ . et 2) L’élément simple de deuxième espèce de la forme : (X 2 λX + µ . + bX + c)n avec λ, µ, b, c ∈ R, et n ∈ N∗ . avec b2 − 4c < 0. Soit Q ∈ R[X]. D’après ce qui précède Q peut s’écrire sous la forme : Q = (X − a1 )α1 (X − a2 )α2 ...(X − ar )αr (X 2 + b1 X + c1 )µ1 ...(X 2 + bn X + cn )µn . Et le théorème de la décomposition en éléments simples s’écrit dans le cas de R sous la forme : Théorème 3.13. Toute fraction rationnelle F dans R(X) s’écrit d’une manière unique sous la forme : a1,α1 a1,1 a1,2 X−a1 + (X−a1 )2 + ... + (X−a1 )α1 + ar,2 b1,1 X+c1,1 ar,αr + (X−a 2 + ... + (X−a )αr + X 2 +b X+c r r) 1 1 b X+cn,1 bn,µn X+cn,µn + (Xn,1 + ... + . 2 +b X+c ) (X 2 +bn X+cn )µn n n F = E+ ... + + ... ar,1 X−ar b 1 X+c1,µ1 + (X1,µ 2 +b X+c )µ1 1 1 Ceci est la décomposition de F en éléments simples dans R(X). 41 + ...+ Remarque 3.5. Pour décomposer F ∈ R(X) en éléments simples dans R, on peut : i) soit décomposer F en éléments simples dans C et regrouper les termes conjugués. ii) soit procéder par identification, en utilisant les propriétés de F (parité,...) (Voir T.D). Exemple 3.8. 1. F = 1 (1+X 2 )(X−1) = a X−1 + bX+c X 2 +1 = a(X 2 +1)+(bX+c)(X−1) . (1+X 2 )(X−1) Par identification on obtient : a + b = 0, c − b = 0 et a − c = 1. Donc a = 12 , b = Par conséquent, X +1 1 − . F = 2(X − 1) 2(X 2 + 1) 2. Soit G = 4X 3 . (X 2 −1)2 −1 2 = c. G admet une décomposition de la forme G= c a b d + . + + 2 X + 1 (X + 1) X − 1 (X − 1)2 Remarquons que G est impaire : G(−X) = −G(X). On a : b −c d −a G(−X) = + + + . 2 X − 1 (X − 1) X + 1 (x + 1)2 −a −c −b −d −G(X) = + . + + X + 1 (X + 1)2 X − 1 (X − 1)2 L’unicité de la décomposition en éléments simples entraı̂ne : ½ a=c b = −d. Pour trouver b multiplions G par (X + 1)2 . (X + 1)2 G(X) = 4X 3 c(X + 1)2 d(X + 1)2 + = a(X + 1) + b + . (X − 1)2 X −1 (X − 1)2 En remplaçant X par −1, on obtient : b = −1, d’où d = 1. Cette méthode permet de trouver le coefficient du terme de plus haut degré de chaque partie polaire. Pour déterminer les coefficients a et c, multiplions G par X : X.G(X) = bX dX 4X 4 aX cX + + = + . 2 2 2 (X − 1) X + 1 (X + 1) X − 1 (X − 1)2 En cherchant la limite de XG(X) en +∞ , on obtient : lim X−→+∞ XG(X) = 4 = a + c d’où a = c = 2. Cette méthode permet de trouver la somme des coefficients de plus bas degré de toutes les parties polaires. Finalement, on obtient : 2 −1 2 1 G= + + + . 2 X + 1 (X + 1) X − 1 (X − 1)2 Remarque 3.6. Puisque la décomposition est unique, on peut utiliser tout procédé qui nous semble adéquat pour obtenir les coefficients de la décomposition, sans que cela influe sur le résultat final. Exercice 3.14. Décomposer en éléments simples dans C puis dans R la fraction rationnelle 1 . F = 2 (X + X + 1)2 (X + 1) 42 3.3 3.3.1 Recherche des parties polaires relatives à des facteurs de la forme (X − a)α Division suivant les puissances croissantes Théorème 3.15. Soient A, B deux polynômes tels que B(0) 6= 0. Pour tout entier n, il existe un couple unique de polynomes (Qn , Rn ) vérifiant : A = BQn + X n+1 Rn , d0 Qn ≤ n. Qn est appelé le quotient à l’ordre n, X n+1 Rn est le reste à l’ordre n. Preuve. Existence : Démontrons l’existence par récurrence sur n. Posons p q X X A= ai X i et B = bi X i . i=0 A(0) Pour n = 0, posons Q0 = B(0) = l’existence de R0 ∈ K[X] tel que a0 b0 . i=0 Alors Q0 ∈ K et A − BQ0 est divisible par X, d’où A = BQ0 + XR0 , d0 Q0 = 0. Supposons l’existence du couple (Qn , Rn ) aquise jusqu’à l’ordre n, c’est-à-dire : A = BQn + X n+1 Rn , On a : Rn = d0 Qn ≤ n. Rn (0) Rn (0) B + (Rn − B) . B(0) B(0) | {z } H On a H(0) = 0, donc il existe S ∈ K[X] tel que Rn = Rn (0) B + XS. B(0) L’hypothèse de récurrence implique : A = BQn + X n+1 ( Rn (0) Rn (0) n+1 B + XS) = B(Qn + X ) + X n+2 S. B(0) B(0) n (0) On prend Qn+1 = Qn + RB(0) X n+1 et Rn+1 = S, on a donc d0 Qn+1 ≤ n + 1. Unicité : Supposons BQn + X n+1 Rn = 0. Alors X n+1 /BQn . La condition B(0) 6= 0 implique que B et X n+1 sont premiers entre eux. Le théorème de Gauss implique que X n+1 /Qn , or d0 Qn ≤ n donc Qn = 0. Par conséquent Rn = 0. Exemple 3.9. Effectuons la division suivant les puissances croissantes de A = X 3 + 2X + 1 par B = 2X 2 + X + 1 à l’ordre 3. Après le calcul, on trouve : X 3 + 2X + 1 = (2X 2 + X + 1) (1 + X − 3X 2 + 2X 3 ) +X 4 (4 − 4X) . | {z } | {z } Q3 43 R3 Nous allons maintenant appliquer ce théorème à la recherche de la partie polaire relative au P (X) α pôle a de F = (X−a) α Q (X) , Q1 (a) 6= 0, et P (X) ∧ (X − a) Q1 (X) = 1. 1 Posons Y = X − a, et F (X) = G(Y ) = P (a + Y ) . Y α Q1 (a + Y ) Nous sommes donc ramenés au cas où a = 0. Dans ce cas, on a le résultat suivant : Proposition 3.16. Etant donnée la fraction rationnelle irréductible F = P (X) X α Q1 (X) , Q1 (0) 6= 0. La partie polaire de F relative au pôle 0 est l’expression : λ1 λα−1 λ0 + α−1 + ... + , α X X X avec λ0 +λ1 X +...+λα−1 X α−1 est le quotient de la division suivant les puissances croissantes de P par Q1 à l’ordre α − 1. Preuve. Soit Qα−1 = λ0 + λ1 X + ... + λα−1 X α−1 le quotient de la division suivant les puissances croissantes de P par Q1 à l’ordre α − 1. Donc P = Q1 Qα−1 + X α Rα−1 . D’où F = λ0 Rα−1 Q1 (X)(λ0 + λ1 X + ... + λα−1 X α−1 ) + X α Rα−1 λ1 λα−1 = α + α−1 + ... + + , X α Q1 (X) X X X Q1 (X) mais comme Q1 (0) 6= 0 , alors 0 n’est pas un pôle de de la proposition. Rα−1 Q1 (X) . Ce qui achève la démonstration Exemple 3.10. En effectuant la division suivant les puissances croissantes, trouver la décomposition en éléments simples dans R(X) de la fraction rationnelle : 2X 2 + 5 . (X 2 − 1)3 Comme F est paire, l’unicité de la décomposition de F en éléments simples permet d’identifier la décomposition de F (X) et de F (−X). On a : F = F (X) = a b c α β γ + + + + + . 2 3 2 X − 1 (X − 1) (X − 1) X + 1 (X + 1) (X + 1)3 F (−X) = b −c −α β −γ −a + + + + + . X + 1 (X + 1)2 (X + 1)3 X − 1 (X − 1)2 (X − 1)3 Ce qui donne : a = −α, b = β, Déterminons a, b et c. Posons Y = X − 1. F (Y + 1) = et c = −γ. 2Y 2 + 4Y + 7 . Y 3 (Y + 2)3 Effectuons la division suivant les puissances croissantes de 2Y 2 + 4Y + 7 par (Y + 2)3 = 13 Y 3 + 6Y 2 + 12Y + 8 à l’ordre 2. On trouve : c = 78 = −γ, b = −13 16 = β et a = 16 = −α. 44 Remarque 3.7. Dans le cas où α = 1, la partie polaire relative à un pôle simple de P (X) 1 F = (X−a)Q , Q1 (a) 6= 0 est QP0(a) (a) . (X−a) . En effet, 1 (X) F = P (X) , Q(X) Q(X) = (X − a)Q1 (X), avec Q1 (a) 6= 0. En prenant les dérivées, on trouve : Q0 (X) = Q1 (X) + (X − 1)Q01 (X), d’où Q0 (a) = Q1 (a). D’autre part, F = D’où α= P (X) α R0 (X) = + . Q(X) X − a Q1 (X) P (X)(X − a) R0 (X)(X − a) − . Q(X) Q1 (X) Pour X = a, on a : α= 3.4 P (a) P (a) = 0 . Q1 (a) Q (a) Recherche des parties polaires relatives à des facteurs de la forme (X 2 + bX + c)α Il n’ y a pas, en général, une méthode précise pour déterminer les éléments simples de second espèces, mais on dispose pratiquement de trois techniques. – Technique 1 1. On cherche la décomposition en éléments simples dans C(X). 2. On regroupe les éléments simples relatifs à des pôles conjugués. Exemple 3.11. Décomposer en éléments simples dans R(X) la fraction F = 1. La décomposition de F en éÃlément simples dans C(X) La décomposition de F en éléments simples dans C(X) est X . (X 2 +4)(X 2 +1) 1 1 1 1 1 F = [ + − − ]. 6 X + i X − i X + 2i X − 2i 2. En groupant les éléments simples relatifs aux pôles conjugués, on obtient : 1 X X F = [ 2 − 2 ]. 3 X +1 X +4 Technique 2 (méthode des coefficients indéterminés) On détermine les coefficients par des considérations numériques particulières ; par exemple : - Donner à X des valeurs particulières, - multiplier par une puissance de X et faire tendre X vers +∞. - Vérifier si F (−X) = F (X) ou F (−X) = −F (X) (c’est à dire la parité de F ). Technique 3 (abaissement de l’exposant de (X 2 + bX + c)) 1 Soit F = (X+1)(X 2 +1)2 . La décomposition de F en éléments simples dans R(X) est de la forme : a bX + c dX + e 1 = + + . F = (X + 1)(X 2 + 1)2 X + 1 X 2 + 1 (X 2 + 1)2 45 1. On commence par calculer d et e. On multiplie les deux membres par (X 2 + 1)2 et 1 on donne à X la valeur i, on obtient i+1 = di + e, d’où 12 − 21 i = di + e. 1 −1 Par suite : e = 2 et d = 2 . 2. On calcule F− Il reste, dX + e 1 1 −X + 1 = − . (X 2 + 1)2 (X + 1)(X 2 + 1)2 2 (X 2 + 1)2 1 a bx + c = + . (X + 1)(X 2 + 1) (X + 1) X 2 + 1 CONSEILS PRATIQUES : Pour décomposer une fraction rationelle (irréductible) F = P Q en éléments simples, il faut : 1. Factoriser Q . 2. Ecrire la forme générale de la décomposition, en n’oubliant pas la partie entière E, qu’on calcule en faisant la division euclidienne. 3. Utiliser la parité-imparité qui réduit souvent beaucoup l’étude. 4. Terme de degré dominant : multiplier par (X − ai )αi , simplifier, puis prendre X = ai . 5. La somme des termes de plus bas degré : multiplier par X et calculer la limite quand X tend vers +∞. 6. Enfin, prendre des valeurs ... 3.5 APPLICATIONS Voir les travaux dirigés. 46 3.6 EXERCICES Exercice 1. Déterminer les zéros et les pôles de la fraction rationnelle de C[X] F (X) = X 4 − 5X 2 + 4 . Xn − 1 Exercice 2. Montrer qu’il n’existe pas de fraction rationnelle de K(X) telle que F 2 = X. Exercice 3. Mettre sous forme irréductible les fractions rationnelles de R(X) 2 −3X+2 X 5 −X 4 −2X 3 +2X 2 +X−1 X 3 −3X+2 a) XX4 −5X , c) X 4 −5X 2 +4 , b) 3 +4X 2 +X+2 . X 4 +X+1 Exercice 4. Soit A et P deux polynômes de K[X]. On suppose que P est non nul et ne divise pas A. 1) Montrer que pour tout entier naturel non nul n, il existe des polynômes A0 , A1 , ..., An−1 , Rn uniques tels que : A = A0 + A1 P + A2 P 2 + .... + An−1 P n−1 + Rn P n , avec deg(Ak )< deg(P), 0 ≤ k ≤ n − 1. 2) Si P est irréductible, montrer que la décomposition en éléments simples de la fraction est A0 A1 An−1 + Rn . + n−1 + ... + n P P P 3) Décomposer en éléments simples dans R(X) la fraction F = 3X 8 + 4X 2 + 1 . (X 2 + 2X + 3)3 Exercice 5. Décomposer les fractions rationnelles suivantes en éléments simples dans R(X) 7 +2 0. F0 = (X 2X+X+1) 3. 1−2X . (X 2 +1)(X+2)2 X 2 +1 2. F2 = X 4 +X 3 −X−1 . X 4 +1 3. F3 = X 6 +1 . 7X 3 +2X 2 +15X+6 4. F4 = (X 2 +X−2)(X 2 +4) . −X 3 −X 2 +3X−1 5. F5 = (X 2 +X+1)2 . 5 4 −76X 3 −157X 2 −165X−72 6. F6 = −2X −19X (X . 2 +4X+5)3 n! ∗ 7. F7 = X(X+1)(X+2)...(X+n) , n ∈ N . X2 8. F8 = (X 4 +X 2 +1)2 . 1 9. F9 = X(X 2 +1)2 . 10. F10 = X n1−1 , n ∈ N∗ . 1. F1 = Exercice 6. Décomposer en éléments simples dans C(X) les fractions rationnelles suivantes : 1)F = (X 2 −1)X2 (X 2 +1) . 2)F = X4 . X 5 +1 47 A Pn Exercice 7. Décomposer la fraction rationnelle en éléments simples dans R(X) F = X 2n , (X 2 +1)n n ∈ N. Exercice 8. 1) En développant (cosX + isinX)2n+1 , n ∈ N∗ , montrer qu’il existe un polynôme P à coefficients réels, tels que P (sinx) = sin(2n + 1)x, pour tout x ∈ R. 2) Déterminer les zéros de P et en déduire le degré de P . 3) Décomposer en éléments simples la fraction rationnelle P1 . 4) Déduire que 2n kπ X (−1)k cos( 2n+1 ) 2n + 1 = kπ sin(2n + 1)x sinx − sin( 2n+1 ) k=o pour tout réel x tel que sin(2n + 1)x 6= 0 Exercice 9. En effectuant la division suivant les puissances croissantes, décomposer la fraction rationnelle dans R(X) F = (X 2 4 . − 1)2 Exercice 10. On dit qu’un polynôme non nul P est scindé sur K si, et seulement si, P est de degré 0 ou, si degré de P est non nul, P s’écrit sous la forme P = λ. n Y (X − ai )ki i=1 où a1 , ..., an sont des éléments de K et k1 ,..., kn des entiers strictement positifs. Par exemple X 2 + 1 est un polynôme scindé sur C et n’ est pas un polynôme scindé sur R. 0 Soit P un polynôme scindé. Décomposer en éléments simples la fraction rationnelle PP . Exercice 11. ( Dérivation d’ordre n des fractions rationnelles et calcul des sommes partielles) 1) Montrer que pour tout n ∈ N et tout α ∈ C on a ( (−1)n n! 1 )(n) = . X +α (X + α)n+1 1 2) Calculer la dérivé d’ordre 4 de la fraction rationnelle F = X(X−1)(X+1) 3) Calculer la limite quand n tend vers l’infini de la somme partielle Sn = n X k=2 1 k(k − 1)(k + 1) 48 Deuxième partie ALGÈBRE LINÉAIRE 49 Chapitre 4 ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES L’algèbre linéaire fournit un langage et une collection de résultats très utiles dans des domaines très variés (biologie, chimie, économie, physique, statistiques ...). Mais pour savoir l’utiliser, il faut apprendre à identifier les problèmes linéaires ou ceux qui peuvent être modélisés par une approche linéaire (c’est une situation usuelle dans la plupart des sciences : on remplace ainsi un phénomène complexe par un problème plus facile à résoudre). En mathématiques, l’axiomatisation des problèmes linéaires se fait par la définition de la structure d’espace vectoriel et notre premier souci sera de distinguer, parmi les ensembles qui nous sont familiers, ceux qui peuvent être munis de cette structure. Dans tout ce chapitre K = R ou C. 4.1 Structure d’espace vectoriel Définition 4.1. On appelle espace vectoriel sur K ou K-espace vectoriel, un ensemble E muni de : 1) Loi de composition interne + appelée addition telle que (E, +) est un groupe commutatif. 2) Loi de composition externe, ça sera une multiplication de K × E −→ E (α, x) −→ αx vérifiant : a. ∀ λ, µ ∈ K, ∀x ∈ E : (λ + µ)x = λx + µx. b. ∀λ ∈ K, ∀x, y ∈ E : λ(x + y) = λx + λy c. ∀ λ, µ ∈ K, ∀x ∈ E : λ(µx) = (λµ)x. d. ∀x ∈ E : 1K x = x Remarques 1. Faire attention aux lois. 2. Les éléments de K sont appelés des scalaires. 3. Les éléments de E sont appelés des vecteurs. Exemples 1. Soit n ∈ N∗ , (Rn , +, ×) est un R-espace vectoriel. 50 2. (R[X], +, ×) est un R-espace vectoriel. 3. Si X 6= 0 et E est un K-espace vectoriel, alors (F(X, E), +, ×) est un K-espace vectoriel, avec f + g est définie par (f + g)(x) = f (x) + g(x), ∀x ∈ X. 4. On définit, dans l’espace des suites réelles S qui sont des fonctions de N dans R, les opérations suivantes : (u + v)n = un + vn (λu)n = λun . Ainsi, (S, +, ×) est un R-espace vectoriel. Dans toute la suite, E désigne un espace vectoriel sur K. Proposition 4.2. Soit λ ∈ K et x ∈ E. On a : λx = 0E ⇐⇒ λ = 0K ou x = 0E . Preuve ⇐=) On a : λ(x − y) = λx − λy , ∀x, y ∈ E et ∀λ ∈ K. Pour x = y, on obtient λ0E = 0E ceci ∀λ ∈ K. De même (λ − µ)x = λx − µx, ∀λ, µ ∈ K et ∀x ∈ E. Pour λ = µ, on obtient 0K x = 0E , ∀x ∈ E. =⇒) Soit λ ∈ K et x ∈ E tels que λx = 0. Supposons que λ 6= 0. On a d’une part, λ−1 (λx) = λ−1 0E = 0E . D’autre part, λ−1 (λx) = (λ−1 λ)x = x. D’où x = 0E . 4.2 4.2.1 Sous-espaces vectoriels Généralités Définition 4.3. On appelle sous-espace vectoriel de E, toute partie F de E vérifiant les conditions suivantes : (1) 0E ∈ F et pour tout x ∈ F et tout y ∈ F , x + y ∈ F, (2) pour tout x ∈ F et pour tout λ ∈ K, λx ∈ F . Proposition 4.4. Une partie F de E est un sous-espace vectoriel si, et seulement si 0E ∈ F et ∀λ ∈ K, ∀x, y ∈ F , x + λy ∈ K. Preuve. Exercice à le faire. Exemples 1. {0} et E sont deux sous-espaces vectoriels de E. 2. L’ensemble des suites convergentes dans R est un R-espace vectoriel de (S, +, ×). 3. Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n} est sous-espace vectoriel de K[X]. 4. L’ensemble C 0 (I, R) des fonctions continues d’un intervalle I de R a valeurs dans R est un sous-espace vectoriel de F(I, R). 51 Théorème 4.5. Soit E un K-e.v. . Toutes intersections de sous-espaces vectoriels de E est un sous-espace vectoriel de E. Preuve. Evidente. Remarques 1. Attention, ce théorème est faux pour la réunion. Par exemple : E = R2 , si F = {(x, 0)/x ∈ R} et G = {(0, y)/y ∈ R}. On a F et G sont deux s.e.v. de R2 , mais F ∪ G n’est pas un s.e.v. de R2 . En effet, (1, 0) ∈ F ⊆ F ∪ G et (0, 1) ∈ G ⊆ F ∪ G mais (1, 1) ∈ / F ∪ G, car (1, 1) ∈ / F et (1, 1) ∈ / G. 2. Soit F un s.e.v. de E. La restriction à F × F de l’addition est une loi interne sur F (appelée loi induite par celle de E). La restriction à K × F de la multiplication externe est une loi externe sur F . Pour ces deux lois, F est un K-espace vectoriel. Conséquence : On montre rarement directement qu’un ensemble est un espace vectoriel, mais souvent que c’est un sous-espace vectoriel d’un espace vectoriel connu (à l’aide de la proposition 4.4). 4.2.2 Sous-espace engendré par une partie Soit A une partie non vide de E. On note V ect(A) l’ensemble des vecteurs u ∈ E pouvant s’écrire u = λ1 a1 + λ2 a2 + · · · + λn an avec n ∈ N∗ , a1 , . . . , an ∈ A et λ1 , . . . , λn ∈ K. V ect(A) = {u ∈ E | ∃n ∈ N∗ , ∃a1 , . . . , an ∈ A, ∃λ1 , . . . , λn ∈ K, u = λ1 a1 + λ2 a2 + · · · + λn an }. Proposition 4.6. V ect(A) est un sous-espace vectoriel. Preuve. Prenons λ1 = λ2 = ... = λn = 0, λ1 a1 + λ2 a2 + · · · + λn an = 0 donc 0 ∈ V ect(A). Soit u, v ∈ V ect(A) et λ ∈ K. Par définition il existe un entier n, des vecteurs a1 , . . . , an ∈ A et des scalaires α1 , . . . , αn ∈ K tels que u = α1 a1 + · · · + αn an . De même, il existe m ∈ N∗ , b1 , . . . , bm ∈ A et β1 , . . . , βm ∈ K tels que v = β1 b1 + · · · + βm bm . Alors u + λv = α1 a1 + · · · + αn an + (λβ1 )b1 + · · · + (λβm )bm donc u + λv ∈ V ect(A). Définition 4.7. V ect(A) est appelé le sous-espace engendré par A. Soit F un sous-espace vectoriel. Si V ect(A) = F on dit que A est une partie génératrice (ou une famille génératrice) de F ou que A engendre F . Notation Si A = {a} contient un seul élément on note V ect(a) = Ka = {λa | λ ∈ K}. Remarques : • V ect(A) est le plus petit sous-espace vectoriel contenant A. • Si A ⊂ B alors V ect(A) ⊂ V ect(B). En particulier, si A est une partie génératrice de E et si B contient A alors B est aussi une partie génératrice de E. • On considère souvent un ensemble fini : si A = {a1 , . . . , an }. Alors V ect(A) = {λ1 a1 + · · · + λn an | λ1 , . . . , λn ∈ K}. Exemple 4.1. Les vecteurs (1, 0), (0, 1) engendrent R2 . En effet, si (x, y) ∈ R2 , on peut écrire (x, y) = x(1, 0) + y(0, 1). 52 {(1, 0), (0, 1), (1, 1)} engendre également R2 car (x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Il y a plusieurs façons d’écrire (x, y) comme combinaison linéaire de ces 3 vecteurs, en voici une deuxième : x−y y−x x+y (x, y) = (1, 0) + (0, 1) + (1, 1). 2 2 2 Théorème 4.8. Soit F et G deux sous-espaces vectoriels d’un même K-espace vectoriel E. Les propriétés suivantes sont équivalentes : i) tout vecteur x ∈ E s’ecrit de manière unique, x = y + z, avec x ∈ F et z ∈ G, ii) E = F + G et F ∩ G = {0}. Preuve. i) =⇒ ii) Soit x ∈ E, d’après i) x s’écrit sous la forme x = y + z avec y ∈ F et z ∈ G, donc x ∈ F + G, d’où E ⊆ F + G. Or F + G ⊆ E. Donc E = F + G. Soit x ∈ F ∩ G. On a x = x + 0 avec x ∈ F et 0 ∈ G. On a aussi x = 0 + x avec 0 ∈ F et x ∈ G. L’unicité de l’écriture de x comme somme d’un vecteur de F et d’un vecteur de G implique x = 0. Donc F ∩ G ⊆ {0}. De plus {0} ⊆ F ∩ G. D’où F ∩ G = {0}. ii) =⇒ i) Soit x ∈ E, puisque E = F + G, x s’écrit x = y + z avec y ∈ F et z ∈ G. Supposons que x s’écrit de deux façons différentes x = y + z = y 0 + z 0 avec y, y 0 ∈ F et z, z 0 ∈ G. Alors y − y 0 = z 0 − z ∈ F ∩ G = {0}. Ce qui imlpique y = y 0 et z = z 0 . Définition 4.9. Deux sous-espaces vectoriels d’un K-e.v. E vérifiant les conditions équivalentes i) et ii) du théorème 4.8 sont dits supplémentaires dans E. On dit également que E est somme directe de F et G et on écrit : E = F ⊕ G. Exemple : Soit E = R2 , e1 = (1, 0), e2 = (0, 1) et a = (1, 1). Soit F = {αe1 /α ∈ R} = vect(e1 ), G = {αe2 /α ∈ R} = vect(e2 ), H = {αa/α ∈ R} = vect(a), on a R2 = F ⊕ G = F ⊕ H. Conséqence : F ⊕ G = F ⊕ H n’implique pas que G = H! Généralisation 53 Définition 4.10. On dit que le K-espace vectoriel E est somme directe des s.e.v. PnF1 , , ..., Fn si tout vecteur x ∈ E s’écrit de manière unique : x = x1 + x2 + ... + xn = i=1 xi avec xi ∈ Fi , 1 ≤ i ≤ n. On écrit alors : E = F1 ⊕ F2 ⊕ ... ⊕ Fn = ⊕ni=1 Fi . Exemple. Soit E = R3 , e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1). Soit F1 = {αe1 /α ∈ R} = vect(e1 ), F2 = {αe2 /α ∈ R} = vect(e2 ), F3 = {αe3 /α ∈ R} = vect(e3 ), on a R3 = F1 ⊕ F2 ⊕ F3 . Proposition 4.11. Soient E un K-espace vectoriel, n ∈ N∗ , et n sous-espaces vectoriels F1 ,...,Fn . Alors, on a l’équivalence : Pn E = i=1 Fi et E = ⊕ni=1 Fi ⇐⇒ Pn ( i=1 xi = 0, xi ∈ Fi 1 ≤ i ≤ n) =⇒ (x1 = ... = xn = 0). P est immédiate. Preuve. =⇒) L’égalité E = ni=1 FiP Soit, pour 1 ≤ i ≤ n, xi ∈ Fi tel que ni=1 xi = 0 = 0 + ... + 0. L’unicité de l’écriture implique xi P = 0, ∀i = 1, ..., n. n ⇐=) L’existencePde l’écriture Pn x =0 i=1 xi est évidente. n Supposons x =P i=1 xi = i=1 xi . Ceci implique ni=1 (xi − x0i ) = 0 avec (xi − x0i ) ∈ Fi , ∀i = 1, ..., n. L’hypothèse implique xi − x0i = 0 ∀i = 1, ..., n. D’où xi = x0i , ∀i = 1, ..., n. Ceci donne l’unicité de l’écriture. 4.3 4.3.1 Applications linéaires Généralités Définition 4.12. Soit E et F deux K-espaces vectoriels et soit f une application de E dans F . On dit que f est une application linéaire de E dans F si ∀x, y ∈ E, ∀λ ∈ K : f (x + λy) = f (x) + λf (y). Remarques : 1) Si f est une application linéaire de E dans F , on a f (0) = 0. 2) Pour tout x ∈ E, on a f (−x) = −f (x). Exemples : 1) Soit E et F deux K-e.v. L’application f : E −→ F x −→ 0F est linéaire. 54 2) Soit ψ : F(R, R) −→ F f −→ f (x0 ), x0 ∈ R ψ est une application linéaire. Exercice 4.13. f est une application linéaire si, et seulement si ∀(λ1 , ..., λn ) ∈ Kn , ∀(x1 , ..., xn ) ∈ En n n X X f( λi xi ) = λi f (xi ). i=1 i=1 (Indication : Raisonner par récurrence.) Définition 4.14. Soit E et F deux K-espaces vectoriels et soit f une application linéaire de E dans F . • Si E = F , f s’appelle un endomorphisme de E. • Si E = K, f s’appelle une forme linéaire sur E. • Si f est une bijection de E sur F, f s’appelle un isomorphisme de E sur F . Un isomorphisme de E sur E s’appelle aussi automorphisme de E. Proposition 4.15. Si f est un isomorphisme de E sur F , l’application réciproque f −1 est un isomorphisme de F sur E, appelé isomorphisme réciproque de f . Preuve. Puisque f est une bijection de E dans F , alors f −1 est une bijection de F dans E. Il nous suffit de montrer que f −1 est linéaire. Soient x0 et y 0 ∈ F et λ ∈ K ; soit x = f −1 (x0 ), y = f −1 (y 0 ). On a f (x + λy) = f (x) + λf (y) = x0 + λy 0 Donc f −1 (x0 + λy 0 ) = x + λy = f −1 (x0 ) + λf −1 (y 0 ). Définition 4.16. Deux K-espaces vectoriels sont dits isomorphes, s’il existe un isomorphisme de l’un dans l’autre ; on écrit E ' F. Exemples. 1. Soit E un K− espace vectoriel quelconque, l’application identique IdE de E, définie par IdE (x) = x pour tout x ∈ E est un automorphisme. 2. Si E = K[X], Soit f : E −→ E P −→ P 0 f est un endomorphisme. 3. Si E = Kn et F = {P ∈ K[X]/P = 0 ou do P ≤ n}. f: E −→ F (a1 , ..., an ) −→ a0 + a1 X + ... + an X n . f est un isomorphisme. 4. Soit a ∈ R, b ∈ R, a < b et E = C([a, b], R). L’application : ϕ : E −→ R Rb f −→ ϕ(f ) = a f (t)dt est une forme linéaire sur E. 55 4.3.2 Image et noyau d’une application linéaire Théorème 4.17. Soit E et F deux K−espaces vectoriels et soit f une application linéaire de E dans F . 1) L’image par f d’un sous-espace vectoriel de E est un sous-espace vectoriel de F . 2) L’image réciproque par f d’un sous-espace de F est un sous-espace vectoriel de E. Preuve. 1) Soit E 0 un sous-espace vectoriel de E et soit f (E 0 ) = {y ∈ F/∃x ∈ E 0 tel que y = f (x)}. On a : 0 ∈ E 0 et 0 = f (0) ∈ f (E 0 ). Si y, y 0 ∈ f (E 0 ) et λ ∈ K, il existe x, x0 ∈ E 0 tels que y = f (x) et y 0 = f (x0 ) et puisque E 0 est sous-espace vectriel de E, donc x + λx0 ∈ E 0 . Alors y + λy 0 = f (x) + f (x0 ) = f (x + λx0 ) ∈ f (E 0 ). 2) Soit F 0 un sous-espace vectoriel de F et soit : f −1 (F 0 ) = {x ∈ E/f (x) ∈ F 0 } On a f (0) = 0 ∈ F 0 et donc 0 ∈ f −1 (F 0 ). Si x, x0 ∈ f −1 (F 0 ) et λ ∈ K, on a f (x + λx0 ) = f (x) + λf (x0 ) ∈ F 0 et donc x + λx0 ∈ f −1 (F 0 ). Définition 4.18. Soit E et F deux K−espaces vectoriels et soit f une application linéaire de E dans F . - Le sous-espace vectoriel f (E) de F est appelé l’image de f et noté Im(f ). - Le sous-espace vectoriel f −1 ({0}) = {x ∈ E/f (x) = 0} de E est appelé le noyau de f et noté Ker(f ). Théorème 4.19. Soit E et F deux K−espaces vectoriels et soit f une application linéaire de E dans F . (1) f injective si, et seulement si ker(f ) = {0}. (2) Soit n ∈ N∗ et soit x1 , ..., xn n vecteurs de E. L’image par f du sous-espace engendré par (x1 , ..., xn ) est le sous-espace vectoriel de F engendré par (f (x1 ), ..., f (xn )) ; c’est à dire : f (vect(x1 , ..., xn )) = vect(f (x1 ), ..., f (xn )). Preuve. (1) Si f est injective et si x ∈ ker(f ), on a f (x) = 0 = f (0), donc x = 0. Si ker(f ) = {0} et si f (x) = f (y), on a f (x−y) = f (x)−f (y) = 0, d’où x−y ∈ ker(f ) = {0}, et donc x = y. (2) Il découle immédiatement de la propriété : n ∀(λ1 , ..., λn ) ∈ K , n n X X f( λi xi ) = λi f (xi ). i=1 i=1 Remarque : Les isomorphismes de E dans F sont les applications linéaires f de E sur F telles que Ker(f ) = {0} et Im(f ) = F . 4.4 4.4.1 Opérations sur les applications linéaires Structure d’espace vectoriel de LK (E, F ) 56 Soit E et F deux K-espaces vectoriels. L’ensemble des applications linéaires de E dans F est noté LK (E, F ) ou simplement L(E, F ). Lorsque E = F , on note LK (E) au lieu de LK (E, E). LK (E, F ) est un sous espace vectoriel de (F(E, F ), +, .) et donc LK (E, F ) a une structure de K-e.v. 4.4.2 Composition des applications linéaires Proposition 4.20. Soit E , F et H trois K-espaces vectoriels. Si f ∈ LK (E, F ) et g ∈ LK (F, H). Alors gof ∈ LK (E, H). Preuve. Exercice Remarques : 1. La loi o n’est pas commutative dans LK (E, F ). Par exemple si E = F = R2 et si f (x, y) = (y, 0), g(x, y) = (x, 0) pour (x, y) ∈ E. On a f, g ∈ LK (E, F ), f og(x, y) = (0, 0) et gof (x, y) = (y, 0), donc f og 6= gof 2. Si 0 désigne l’application nulle de E dans E et si f ∈ L(E) et g ∈ L(E), alors f og = 0 n’implique pas f = 0 ou g = 0 ; prenez l’exemple précédent. 4.4.3 Le groupe linéaire (GL(E), o) GL(E) est l’ensemble des automorphismes de E. Si f et g sont deux automorphismes de E, alors , d’après ce qui précède, f og est un automorphisme de E. GL(E) muni de la loi de composition des applications est un groupe, appelé groupe linéaire de E. Remarques : GL(E) n’est pas commutatif. Par exemple, si E = R2 et si f (x, y) = (x, x + y), g(x, y) = (x + y, y) pour (x, y) ∈ E. On a f, g ∈ GL(E)), f og(x, y) = (x + y, x + 2y) et gof (x, y) = (2x + y, x + y), donc f og 6= gof 4.5 Indépendance linéaire Définition 4.21. Soit n ∈ N∗ et soit n vecteurs x1 , x2 , ..., xn de E. On dit que la suite (x1 , ..., xn ) est libre, ou encore que x1 , ..., xn sont linéairement indépendantes si λ1 x1 + λ2 x2 + ... + λn xn = n X λi xi = 0 =⇒ λ1 = ... = λn = 0. i=1 Dans le cas contraire on dit que la suite (x1 , ..., xn ) est liée. Exemples. 1. La suite (x) est libre ssi x 6= 0. En effet ; si x 6= 0, λx = 0 implique λ = 0, donc (x) est libre. Si x = 0, 1.x = 0 et (x) est liée. 2. Si E = R3 , V1 = (1, 1, 0), V2 = (0, 1, 1) et V3 = (1, −1, −2). On a V1 − 2V2 − V3 = 0E . 57 Donc la suite (V1 , V2 , V3 ) est liée. Par contre (V1 , V2 ) est libre car λV1 + βV2 = (0, 0, 0) implique λ = β = 0. Proposition 4.22. Soit n ≥ 2. La suite (x1 , ..., xn ) est liée si et seulement si il existe k, 1 ≤ k ≤ n et des αi ∈ K, 1 ≤ i ≤ n, i 6= k tels que xk = n X αi xi . i=1,i6=k Preuve.P Si la suite (x1 , ..., xn ) est liée, il existe des scalaires λi , 1 ≤ i P ≤ n non tous nuls n tels que i=1 λi xi = 0. Soit k, 1 ≤ k ≤ n tel que λk 6= 0. Alors xk = ni=1,i6=k αi xi , avec i αi = −λ 6= k. λk si 1 ≤ i ≤ n , i P P P Réciproquement, si xk = ni=1,i6=k αi xi , on a xk − ni=1,i6=k αi xi = 0, soit ni=1 λi xi = 0 avec λk = 1 6= 0, et la suite (x1 , ..., xn ) est liée. Théorème 4.23. Soit n ≥ 2 et soit (x1 , ..., xn ) une suite de n vecteurs de E avec x1 6= 0. La suite (x1 , ..., xn ) est liée si et seulement si, il existe k, 2 ≤ k ≤ n, tel que xk soit combinaison linéaire des vecteurs x1 , ..., xk−1 qui le précède dans la suite (x1 , ..., xn ). Preuve. =⇒)P Si la suite (x1 , ..., xn ) est liée, il existe des scalaires λi , 1 ≤ i ≤ n, non tous nuls, tels que ni=1 λi xi = 0. Soit k le plus grand indice j, 1 ≤ j ≤ n tel que λj 6= 0. On Pk a k 6= 1, car sinon λ1 x1 = 0 avec x1 6= 0 et λ1 6= 0, donc k ≥ 2 et i=1 xi = 0. D’où Pk−1 −λi xk = i=1 αi xi avec αi = λk , pour 1 ≤ i ≤ k − 1. P Pn ⇐=) S’il existe k ≥ 2, tel que xk = k−1 i=1 αi xi , alors i=1 λi xi = 0 avec λk = 1 6= 0. La suite (x1 , ..., xn ) est donc liée. Proposition 4.24. 1. Toute suite extraite d’une suite libre est une suite libre. 2. S’il existe une suite liée extraite de la suite (x1 , ..., xn ) alors la suite (x1 , ..., xn ) est liée. Preuve. 1. Soit (x1 , ..., xn ) une suitePlibre et soit (xk1 , ..., xkp ) une suite P extraite de la suite p (x1 , ..., xn ). Supposons que j=1 λkj xkj = 0. Alors, on a aussi, ni=1 αi xi = 0 avec / {k1 , ..., kp }. Comme la suite αkj = λkj si 1 ≤ j ≤ p et αi = 0 pour 1 ≤ i ≤ n, i ∈ (x1 , ..., xn ) est libre, donc αi = 0, 1 ≤ i ≤ n, d’où λkj = 0, 1 ≤ j ≤ p et la suite (xk1 , ..., xkp ) est libre. 2. C’est une conséquence immédiate de 1.). Remarques. 1. Une suite libre ne peut contenir le vecteur 0 . 2. Soit x1 , ..., xn une suite libre alors xi 6= xj , ∀i 6= j. 3. Une suite extraite d’une suite liée peut être libre. Par exemple, (x, x) et (x) avec x 6= 0. Théorème 4.25. Soit n ∈ N et soit (x1 , ..., xn ) une suite libre de E. 1. Pour que le vecteur x ∈ vect(x1 , ..., xn ), il faut et il suffit que la suite (x1 , ..., xn , x) soit liée. 2. Si x ∈ vect(x1 , ..., xn ), x s’écrit de manière unique x= n X αi xi , αi ∈ K. i=1 Preuve. 1.) Puisque la suite (x1 , ..., xn ) est libre, x1 6= 0. D’après le théorème 4.23, aucun des vecteurs xj , 1 ≤ j ≤ n n’est combinaison linéaire de ceux qui le précèdent dans la suite 58 (x1 , ..., xn ). Alors, d’après le théorème 4.23 : x ∈ vect(x1 , ..., xn ) ⇐⇒ x est combinaison linéaire des x1 , ..., xn ⇐⇒ la suite (x1 , ..., xn , x) est liée. 2. ) Soit x ∈ vect(x1 , ..., xn ) et supposons que x= n X αi xi = i=1 Alors, Pn i=1 (αi n X βi xi i=1 − βi )xi = 0, d’où αi = βi pour 1 ≤ i ≤ n (car la suite (x1 , ..., xn )) est libre). Proposition 4.26. Soit E et F deux K−espaces vectoriels et f ∈ L(E, F ). Soit n ∈ N∗ et (x1 , ..., xn ) une suite de vecteurs de E. 1. Si la suite (x1 , ..., xn ) de E est liée, la suite (f (x1 ), ..., f (xn )) est liée 2. Si la suite (f (x1 ), ..., f (xn )) de F est libre, la suite (x1 , ..., xn ) est une suite libre de E. Preuve. Immédiate. Les idées clefs du chapitre : • Espace vectoriel et sous-espace vectoriel. • Suite libre et suite génératrice. • Application linéaire, endomorphisme, isomorphisme, automorphisme. • Noyau et image d’une application linéaire. 59 4.6 Exercices Exercice 1. Les ensembles sont-ils munis d’une structure d’espace vectoriel ? 1) F([0, 1], R) ensemble des applications de [0, 1] dans R. 2) F(R, [0, 1]) ensemble des applications de R dans [0, 1]. 3) {(x, y, z) ∈ R3 , tel que 2x + 3y − z = 0}. 4) L’ensemble des suites convergentes dans R. Exercice 2. Dans E = F(R, R), quels sont, parmi les sous ensembles suivants, ceux qui sont des sousespaces vectoriels de E : a) {f ∈ E : f (1) = 2f (0)} ; b) {f ∈ E : f (1) − f (0) = 1}; c) {f ∈ E : f (x) = f (x − a) pour x ∈ R}, ( a ∈ R fixé). Exercice 3. Soit F et G deux sous-espaces vectoriels d’un K−espace vectoriel E. Montrer que : {x ∈ E : ∃y ∈ F, ∃z ∈ G tels que x = y + z} est le plus petit (pour l’inclusion) sous-espace de E contenant F ∪ G. Exercice 4. a) Soit F et G deux sous-espaces de E, montrer que F ∪ G est un sous-espace vectoriel de E si et seulement, si F ⊂ G ou G ⊂ F . b) Vérifier que toutes combinaison linéaire finie d’éléments de F ∪ G peut s’ecrire sous forme x + y, avec x dans F et y dans G. c) Dans le cas b) précédent, l’écriture x + y est-elle unique ? ( On pourra considérer par exemple le cas où F = G). d) que valent F + {0} et F + E ? e) Vérifier que F + G = G + F . f ) Soient F , G et H trois sous-espaces vectoriels d’un même K-espace-vectoriel E. Donner un exemple tel que F + G = F + H et tel que G 6= H, (donc F + G = F + H n’implique pas G = H !) Exercice 5. Montrer que si tout élément x d’un espace vectoriel E se décompose de manière unique sous la forme y + z avec y dans F et z dans G, alors F et G sont supplémentaires. Autrement dit la somme E = F + G est directe. Exercice 6. Soit le R-espace vectoriel E = F(R, R).Démontrer que l’ensemble P des fonctions paires de E et l’ensemble I des fonctions impaires de E sont deux sous-espaces supplémentaires. Exercice 7. Si E = F ⊕ G, pour tout x de E, on note respectivement p1 (x) et p2 (x) les éléments de l’unique décomposition de x en y ∈ F et z ∈ G (c’est-à-dire : y = p1 (x) et z = p2 (x)). Montrer qu’alors p1 et p2 sont deux applications linéaires de E dans E, et que l’on a : p1 + p2 = IdE , p21 = p1 , p22 = p2 , p1 op2 = p2 op1 = 0. 60 Ainsi que : Ker(p1 ) = G, Im(p1 ) = F, ker(p2 ) = F, Im(p2 ) = G. Exercice 8. Soient f1 et f2 les fonctions définies sur [−1, 1] par : ∀x ∈] − 1, 1[, f1 (x) = 1 1 et f2 (x) = . x−1 x+1 1)Montrer que les fonctions f1 et f2 sont linéairement indépendantes. 2) Montrer que la fonction f :] − 1, 1[−→ R, x −→ x22−1 , appartient au sous-espace vectoriel engendré par f1 et f2 . Exercice 9. Soient e1 = (1, 1, 0) et e2 = (0, 1, 1) deux vecteurs de R3 . 1) Montrer que e1 et e2 forment une partie libre de R3 . 2) Déterminer le réel α pour que le vecteur (2, 1, α) appartienne au sous-espace vectoriel engendré par e1 et par e2 . Exercice 10. Soit E un K−espace vectoriel. I-1. I) Soit F et G deux sous-espaces vectoriels supplémentairesdans E. On définit l’application f : E −→ Ede la manıère suivante si x ∈ E, x = y + z, y ∈ F , z ∈ G, alors f (x) = y. Vérifier que f est un endomorphisme de E tel que f 2 = f , (f 2 = f of ). Déterminer Ker(f ) et Im (f ). f est appelé laprojection de F parallèlement à G. I-2. Soit f un endomorphisme de E tel que f 2 = f . Démontrer que que E = Im(f ) ⊕ Kef (f ) et que f est la projection sur Im(f ) parallèlemnt à Ker(f ). II) Soit E = R2 et f : E −→ E définie par f (x, y) = (x − y, y − x) II-1. Vérifier que f est un endomorphisme de E. Déterminer Ker(f ) et Im(f ). II-2. Démontrer que E = Ker(f ) ⊕ Im(f ). II-3. A t-on f 2 = f. 61 Chapitre 5 ESPACES VECTORIELS DE DIMENSION FINIE Dans tout ce chapitre K = R ou C. 5.1 5.1.1 Définition d’un espace vectoriel de dimension finie. Bases. Espace vectoriel engendré par une suite finie. Base Définition 5.1. Soit E un K−e.v. On dit que la suite (a1 , ..., an ) de E est une suite génératrice de E, si le sous espace vect(a1 , ..., an ) est égal à E, c’est à dire si tout vecteur de E est une combinaison linéaire (C.L.) de a1 , ..., an . On dit que la suite (e1 , ..., en ) est une base de E si elle est libre et génératrice de E. On dit que la dimension de E est finie, s’il existe une suite génératrice finie de E. Dans le cas contraire, E est dit de dimension infinie. Proposition 5.2. Pour que la suite (e1 , ..., en ) de vecteurs de E soit une base de E, il faut et il suffit que tout vecteur x de E s’écrit de manière unique : (1) x = α1 e1 + ... + αn en , αi ∈ K, 1 ≤ i ≤ n. Preuve. =⇒) Il résulte du théorème 4.25, 2) ⇐=) Puisque tout x s’écrit sous la forme (1), (e1 , ..., en ) est une suite génératrice de E. D’autre part, si α1 e1 + α2 e2 + ... + αn en = 0 avec αi ∈ K, 1 ≤ i ≤ n, l’égalité e1 + ... + en = 0e1 + ...0en = 0 implique, d’après l’unicité de l’écriture (1), α1 = ... = αn = 0. Donc la suite (e1 , ..., en ) est libre. Ainsi, la suite (e1 , ..., en ) est une base de E. Définition 5.3. Si la suite (e1 , ..., en ) est une base de E et si x ∈ E, l’écriture (1) est la décomposition de x et les scalaires α1 , ..., αn sont les coordonnées ou les composantes de x dans la base (e1 , ..., en ). 62 Exemples. 1. Soit n ∈ N∗ , soit E = Kn . On considère les vecteurs e1 = (1, 0, ..., 0), e2 = (0, 1, 0, 0, ..., 0), ...,en = (0, ..., 0, 1). Pour tout vecteur x = (α1 , ..., αn ) ∈ E, on a x= n X α i ei , i=1 donc (e1 , ..., en ) est P une suite génératrice de E et E et de dimension finie. De plus l’égalité ni=1 αi ei = 0 s’écrit (α1 , ..., αn ) = 0Rn et implique α1 = ... = αn = 0. La suite (e1 , ..., en ) est libre, c’est une base de E. On appelle cette base la base canonique de Kn . 2. K est un K− espace vectoriel ( cas précédent avec n = 1). 3. Soit n ∈ N et soit Kn [X] le K− e.v. Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n}. La suite {1, X, ..., X n } est une base de Kn [X], appelée la base canonique de Kn [X]. 4. C est un R−e.v. de dimension finie ; (1, i) est une base de C, puisque tout z ∈ C s’écrit de manière unique : z = α + iβ, α, β ∈ R. 5.1.2 Existence de bases Théorème 5.4. Soit E un K− e.v., non nul. Si (a1 , ..., ap ) est une suite génératrice de E, alors E admet une base, extraite de la suite (a1 , ..., ap ). Donc : tout espace vectoriel, non nul, de dimension finie, admet au moins une base. Preuve. Puisque E 6= {0}, les vecteurs ai ne sont pas tous nuls. Si ak 6= 0, la suite (ak ) est libre. Il existe donc au moins une suite libre extraite de (a1 , ..., ap ). Le nombre d’éléments d’une suite libre extraite de (a1 , ..., ap ) est majoré par p. Soit n, 1 ≤ n ≤ p, le nombre maximum d’éléments d’une suite libre extraite de (a1 , ..., ap ) et soit (ai1 , ..., ain ) une telle suite. Pour tout k, 1 ≤ k ≤ p, la suite (ai1 , ..., ain , ak ) est liée et d’après le théorème 4.25 chapitre 4., ak ∈ vect(ai1 , ..., ain ). On a donc : E = vect(a1 , ..., ap ) ⊆ vect(ai1 , ..., ain ) ⊆ E, et par suite E = vect(ai1 , ..., ain ). Ainsi (ai1 , ..., ain ) est une suite libre et génératrice de E ; c’est une base de E. 5.2 5.2.1 Dimension d’un espace vectoriel de dimension finie Le théorème de la dimension Proposition 5.5. Dans un espace vectoriel engendré par n vecteurs, toute suite de n + 1 vecteurs est liée. Preuve. Exercice. (Indication : Raisonner par récurrence sur n) . 63 Théorème 5.6. ( de la dimension ). Dans un K−espace vectoriel E, non nul, de dimension finie, toutes les bases ont le même nombre d’éléments. Preuve. Soit (e1 , ..., en ) et (e01 , ..., e0p ) deux bases de E. On peut supposer n ≤ p. Si n < p, c’est à dire n + 1 ≤ p. On applique la proposition 5.5 à la suite (e1 , ..., en ) et aux vecteurs e01 , ..., e0n+1 . La suite (e01 , ..., e0n+1 ) est liée et donc aussi la suite (e01 , ..., e0p ). Ceci est absurde puisque (e01 , ..., e0p ) est une base. Donc n = p. Définition 5.7. Soit E un K−espace vectoriel, non nul, de dimension finie. Le nombre n d’éléments de toute base de E est appelé la dimension de E et noté dimK (E) ou simplement dim(E). Par définition, la dimension d’un K− e.v. nul est égale à 0 ; c’est à dire : dim{0} = 0 Remarque 5.1. E 6= {0} ⇐⇒ dimE ≥ 1. Exemples 1. Soit Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n}. On a dimK (Kn [X]) = n + 1. 2. Si n ∈ N∗ , dimK (Kn ) = n, dimK (K) = 1 et dimR (C) = 2. Définition 5.8. Dans un K−espace vectoriel E, un sous-espace vectoriel de dimension 1 est appelé une droite vectorielle , et un sous-espace de dimension 2 est appelé un plan vectoriel . 5.2.2 Rang d’une suite finie de vecteurs Définition 5.9. Soit x1 , ..., xp , p vecteurs d’un K− e. v. E. On appelle rang de la suite (x1 , ..., xp ) et on note rg(x1 , ..., xp ), la dimension du sous-espace vectoriel vect(x1 , ..., xp ). Proposition 5.10. Soit (x1 , ..., xp ) une suite de vecteurs de E. Alors, 1. 0 ≤ rg(x1 , ..., xp ) ≤ p et on a rg(x1 , ..., xp ) = 0 ⇐⇒ x1 = ...xp = 0. 2. rg(x1 , ..., xp ) est égal au nombre maximum d’éléments d’une suite libre extraite de la suite (x1 , ..., xp ). En particulier, on a rg(x1 , ..., xp ) = p ⇐⇒ (x1 , ..., xp ) est libre. 3. Si rg(x1 , ..., xp ) = r, toute suite libre de r vecteurs extraite de la suite (x1 , ..., xp ) est une base de vect(x1 , ..., xp ). Preuve. Même démonstration que celle du théorème 5.4. Recherche pratique du rang d’une suite (x1 , ..., xp ) de vecteurs non tous nuls et d’une base du sous-espace vectoriel vect(x1 , ..., xp ) : Soit i1 le plus petit entier k , 1 ≤ k ≤ p, tel que xk 6= 0. Ensuite, s’il existe k, i1 < k ≤ p et tel que (xi1 , xk ) soit libre, soit i2 le plus petit entier k vérifiant ces conditions. Puis, s’il existe k, i2 < k ≤ p et tel que (xi1 , xi2 , xk ) soit libre, soit i3 le plus petit entier k vérifiant ces conditions. Et ainsi de suite ... on obtient finalement une suite libre (xi1 , xi2 , ..., xir ) extraite de la suite x1 , ..., xp telle que pour tout k, 1 ≤ k ≤ p, la suite (xi1 , xi2 , ..., xir , xk ) soit liée. Alors, d’après le théorème 4.25 chp. 4, xk ∈ vect(xi1 , xi2 , ..., xir ), pour tout k, 1 ≤ k ≤ p. D’où vect(x1 , ..., xp ) = vect(xi1 , xi2 , ..., xir ). 64 Il en résulte que (xi1 , xi2 , ..., xir ) est une base de vect(x1 , ..., xp ) et rg(x1 , ..., xp ) = r. Exemple Soit E = K[X]. Soit la suite (1, X, 1 + X, 1 + X 3 , X − X 3 ). On a : * La suite (1, X) est libre. * La suite (1, X, 1 + X) est liée. * La suite (1, X, 1 + X 3 ) est libre. * La suite (1, X, 1 + X 3 ), X − X 3 est liée. Donc rg(1, X, 1 + X, X 3 , X − X 3 ) = 3 et (1, X, 1 + X 3 ) est une base de vect(1, X, 1 + X, 1 + X 3, X − X 3) Remarque 5.2. Si rg(x1 , ..., xp ) = r, une suite extraite de (x1 , ..., xp ) ayant r vecteurs peut être liée, dans l’exemple précédent r = 3 et (1, X, 1 + X) ainsi que (1 + X, 1 + X 3 , X − X 3 ) sont liées. Par contre (1, X, X − X 3 ) est libre et donc il peut y avoir plusieurs suites libres extraites de la suite (x1 , ..., xp ), ayant r vecteurs. 5.2.3 Espace vectoriel de dimension finie donnée n Théorème 5.11. Soit E un K−espace vectoriel de dimension finie n. 1. Toute suite libre a au plus n vecteurs. Toute suite libre de n vecteurs est une base de E. 2. Toute suite génératrice a au moins n vecteurs. Toute suite génératrice de n vecteurs est une base de E. Preuve. 1) Soit (e1 , ..., en ) une base de E. D’après la proposition 5.5, puisque E = vect(e1 , ..., en ), toute suite (x1 , ..., xn+1 ) est liée et donc toute suite (x1 , ..., xp ) avec p > n est liée. Soit maintenant (x1 , ..., xn ) une suite libre de E. Pour tout vecteur x ∈ E, la suite (x1 , ..., xn , x) est liée. D’après théorème 4.25 chap. 4, x ∈ V ect(x1 , ..., xn ). Ainsi, la suite (x1 , ..., xn ) est une base de E. 2) Soit (x1 , ..., xp ) une suite génératrice de E. Le rang de cette suite est n = dimE. Donc, d’après la proposition 5.10, 1) n ≤ p. Soit (x1 , ..., xn ) une suite génératrice de E. On a rg(x1 , ..., xn ) = n. D’apès la proposition 5.10, 2), la suite (x1 , ..., xn ) est libre. C’est une base de E. Remarque. (Très importante en pratique). Si dimK (E) = n, n ≥ 1. Pour prouver qu’une suite (x1 , ..., xn ) de n vecteurs de E est une base de E, il suffit de prouver l’une des deux conditions suivantes : 1. la suite (x1 , ..., xn ) est libre. 2. la suite (x1 , ..., xn ) est génératrice. 5.3 Sous-espaces d’un espace vectoriel de dimension finie Proposition 5.12. Soit E un K-espace vectoriel de dimension finie n, et F un sous-espace vectoriel de E. Alors : 1. F est de dimension finie et dimF ≤ dimE. 65 2. Si dimF = dimE, on a E = F. Preuve. Si F = {0}, c’est évident. Soit F 6= {0}, donc E 6= {0} et dimE > 0. 1) Toute suite libre de F est une suite libre de E. Cette suite a au plus n éléments (théorème 5.4,1) ). Soit p le nombre maximum d’éléments d’une suite libre de F . On a 0 < p ≤ n. Soit (x1 , ..., xp ) une suite libre de F , et soit G = vect(x1 , ..., xp ). Soit x ∈ F . La suite (x1 , ..., xp , x) est liée, donc x ∈ G d’après le théorème 4.25 ch. 4 ; on a donc F ⊆ G, donc F = G et (x1 , ..., xp ) est une suite génératrice de F . Par suite (x1 , ..., xp ) est une base de F et on a dimF = p ≤ n = dimE. 2) Si dimF = dimE, toute base de F est une suite libre de n vecteurs de E, donc une base de E( d’après le théorème 5.4,1). Ce qui implique F = E. Corollaire 5.13. Soit E un K-e.v. et F et G deux sous-espaces vectoriels de dimension finie, alors : F ⊆ G et dimF = dimG =⇒ F = G. Il suffit d’appliquer la proposition 5.12, 2), en remplaçant E par G. Proposition 5.14. Soit E un K-espace vectoriel de dimension finie. Pour des sous-espaces vectoriels F et G de E, les deux assertions suivantes sont équivalentes : (1) E = F ⊕ G (2) F ∩ G = {0} et dim E+ dim G=dim E Preuve. Si F = {0} ou G = {0} c’est évident. Si F 6= {0} et G 6= {0}, soit (a1 , ..., ap ) et (b1 , ..., bq ) deux bases de F et G respectivement. (1) =⇒ (2) Il suffit de montrer que {a1 , ..., ap , b1 , ..., bq } est une base de E. (2) =⇒ (1) F ∩ G = {0} implique que {a1 , ..., ap , b1 , ..., bq } est libre, puisque p + q = dimE, c’est une base de E. P P Pour tout x ∈ E, x = pi=1 αi ai + qi=1 βi bi = y + z ; avec y ∈ F et z ∈ G. Donc F + G = E. Par conséquent, E = F ⊕ G. Définition 5.15. Dans un espace vectoriel de dimension n > 0, on appelle hyperplan vectoriel tout sous-espace vectoriel de dimension n − 1. Un hyperplan vectoriel est donc un sous-espace vectoriel dont les supplémentaires sont des droites vectorielles. 5.4 Applications linéaires d’un K-e.v. de dimension finie dans un K e. v. Proposition 5.16. Soit E et F deux K-espaces vectoriels. E étant de dimension finie n ≥ 1. Soit (e1 , ..., en ) une base de E et a1 ,...,an n vecteurs de F . Il existe une application linéaire f de E dans F et une seule telle que f (ei ) = ai , 1 ≤ i ≤ n. Preuve. P Existence : Pour tout x ∈ E, on a x = ni=1 αi ei , αi ∈ K, les αi sont uniques. L’application f : E −→ F Pn x −→ i=1 αi ai 66 est une application linéaire de E dans F telle que f (ei ) = ai , pour tout i, 1 ≤ i ≤ n. Unicité : Supposons qu’il existe une P autre application g telle que g(ei ) = ai . Soit x ∈ E, ∃!αi ∈ K, 1 ≤ i ≤ n, x = ni=1 αi ei . Puisque f est une application linéaire, on a : X X X f (x) = αi f (ei ) = αi ai = αi g(ei ) = g(x). i i i Ceci étant vrai pour tout x ∈ E. Donc f = g. D’où l’unicité. Théorème 5.17. Soit E et F deux K-espaces vectoriels. E étant de dimension finie n ≥ 1. Soit (e1 , ..., en ) une base de E et f ∈ L(E, F ). Alors, 1. f est injective ⇐⇒ (f (e1 ), ..., f (en )) est une suite libre dans F . 2. f est surjective ⇐⇒ (f (e1 ), ..., f (en )) est une suite génératrice de F . 3. f est un isomorphisme ⇐⇒ (f (e1 ), ..., f (en )) est une base de F . Preuve. Voir TD. Corollaire 5.18. 1. Soit E un K−espace vectoriel de dimension finie et f un isomorphisme de E sur un K− espace vectoriel F . Alors F est de dimensin finie et on a dimE = dimF. 2. Deux K−espaces vectoriels de dimension finie tels que dimE = dimF sont isomorphes. En particuler, tout K-espace vectoriel de dimension n est isomorphe à Kn . Preuve. 1) C’est évident si E = {0}. Si dimE ≥ 1, le résultat découle de théorème 5.17,3). 2) Le résultat est évidente si E = F = {0}. Si dimE = dimF ≥ 1. Soit (e1 , ..., en ) une base de E et (f1 , ..., fn ) une base de F . D’après la proposition 5.16, il existe une application linéaire unique f de E dans F telle que f (ei ) = fi , pour 1 ≤ i ≤ n. D’après le théorème 5.17, 3) f est un isomorphisme. Théorème 5.19. (Théorème noyau-image ou encore théorème du rang) Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit f ∈ L(E, F ). Alors Im(f ) est un sous-espace vectoriel de dimension finie de F et on a : dimKerf + dimImf = dimE. Preuve. Soit E 0 un sous-espace vectoriel de E tel que E 0 ⊕ Kerf = E. Soit ϕ la restriction de f à E 0 . ϕ est une application linéaire comme la restriction d’une application linéaire à un s.e.v. ϕ ∈ L(E 0 , Imf ). Montrons que ϕ est un isomorphisme de E 0 sur Imf . 1) ϕ est injective : Soit x ∈ Kerϕ. Donc x ∈ E 0 et f (x) = ϕ(x) = 0. D’où x ∈ E 0 ∩ Kerf = {0}, donc x = 0. Par suite Kerϕ = {0}. 2) ϕ est surjective : Soit y ∈ Imf . Alors il existe x ∈ E tel que f (x) = y. Puisque E = E 0 ⊕ Kerf, il existe x1 ∈ E 0 et x2 ∈ Kerf tel que x = x1 + x2 . On a f (x) = f (x1 ) + f (x2 ) = f (x1 ) = ϕ(x1 ). D’où y = ϕ(x1 ) ∈ Imϕ. 67 Ceci montre la surjectivité de ϕ. Par suite, ϕ est un isomorphisme de E 0 sur Imf . Donc dimE 0 = dimImf. Or, E = E 0 ⊕ Kerf. Ce qui donne dimE = dimE 0 + Kerf = dimImf + dimKerf. Remarques : 1. Dans ce théorème F n’est pas supposé de dimension finie. 2. Le théorème noyau-image donne une relation entre les dimensions des sous-espaces kerf , Imf et dimE. Exercice . Soient E un espace vectoriel de dimension finie, et f un endomorphisme de E. 1) Montrer qu’on a toujours : dimE = dimKerf + dimImf. (Attention en général la somme Kerf + Imf n’est pas toujours directe !) 2) Comparer : a) Ker(f ) et Ker(f 2 ). b) Imf et Imf 2 . 3) Montrer que les propositions suivantes sont équivalentes : i) Kerf ⊕ Imf = E ; ii) Imf = Imf 2 ; iii) Kerf = Kerf 2 . iv) Kerf ∩ Imf = {0}. Définition 5.20. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit f ∈ L(E, F ). La dimension du sous-espace vectoriel Imf (= f (F )) est appelée le rang de f et on note rg(f ). Remarque : Si (e1 , ..., en ) est une base de E, puisque Imf = V ect(f (e1 ), ..., f (en )), on a rg(f ) = rg(f (e1 ), ..., f (en )). Corollaire 5.21. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit f ∈ L(E, F ). On a : 1. f est injective ⇐⇒ dimf (E) = dimE ⇐⇒ rg(f ) = dimE. 2. f est injective ⇐⇒ pour tout sous-espace vectoriel G de E, on a dimf (G) = dimG Preuve. 1) Conséquence immédiate du théorème noyau-image. 2) Si f est injective et si G est un sous-espace vectoriel de E, alors f /G est injective. D’après 1) dimfG (G) = dimG. D’où dimf (G) = dimG. La réciproque résulte de 1) avec G = E. Application du théorème noyau-image : 68 Proposition 5.22. ( Equation d’un hyperplan vectoriel) Soit E un K-espace vectoriel de dimension n ≥ 1. 1. Le noyau d’une forme linéaire f sur E, non nulle, est un hyperplan vectoriel. 2. Réciproquement : si H est un hyperplan de E, il existe au moins une forme linéaire sur E, non nulle, dont le noyau est H. Preuve. 1. Imf est un sous-espace vectoriel de K, puisque dimK (K) = 1, on a dimImf ≤ 1. Or f 6= 0, donc Imf 6= {0}. Par suite dimImf = 1. Finalement, dimKerf = dimE − dimImf = n − 1. 2. Si n = 1, H = {0} et toute forme linéaire sur E, non nulle, convient. Si n ≥ 2, soit (h1 , ..., hn−1 ) une base de H ; on la complète en une base (h1 , ..., hn−1 , a) de E. Soit f ∈ L(E, K) telle que f (hi ) = 0 pour tout i, 1 ≤ i ≤ n − 1, et f (a) 6= 0. On a H ⊆ Kerf. D’autre part, puisque f (a) 6= 0, on a f 6= 0 et d’après 1.) dimKerf = n − 1 = dimH. Il en résulte que H = Kerf. Les idées clefs du chapitre : • un espace vectoriel de type fini admet des bases (systm̀es libres générateurs) • deux bases ont le même cardinal : la dimension de l’espace vectoriel • dim(F + G) = dimF + dimG − dim(F ∩ G). • la somme F + G est directe ⇔ dim(F + G) = dimF + dimG. • rang d’une application linéaire • théorème du rang. ......................................................................... 69 Exercice 1. Dans l’espace vectoriel E = R3 , on considère les vecteurs a = (1, −1, 1), b = (1, 0, 1) et c = (1, −1, 1). 1) Écrire les vecteurs de la base canonique de E. 2) Démontrer que (a, b, c) est une base de E. 3) Quelles sont, dans cette base, les coordonnées du vecteur x = (x1 , x2 , x3 ) ? Exercice 2. Soient E et F deux K-espaces vectoriels, f ∈ L(E, F ). Montrer que les deux assertions suivantes sont équivalentes : (a) f est injective ; (b) pour toutes suite libre (x1 , x2 , ..., xn ) de vecteurs de E, (f (x1 ), ...., f (xn )) est une suite libre de vecteurs de F . Exercice 3. Soient E et F deux K-e.v..E étant de dimension finie n ≥ 0. Soit(e1 , e2 , ..., en ) une base de E et f ∈ L(E, F ). Démontrer qu’on a : 1) f est injective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite libre de F . 2) f est surjective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite génératrice de F . 3) f est isomorphisme ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une base de F . Exercice 4. Soit f un endomorphisme d’un espace vectoreil E. Montrer que si E est de dimension finie, les deux conditions suivantes sont équivalentes : (a) (∀x ∈ E) (∃n ∈ N) (f n (x) = 0). (b) (∃n ∈ N) (∀x ∈ E) (f n (x) = 0). (Remarque : un endomorphisme vérifiant (b) est dit nilpotent). Exercice 5. 1) Soit f l’application de R3 dans R3 définie par : f (x, y, z) = (x + y + z, x − y + 2z, x − 2y − z). a) Montrer que f est un endomorphisme de R3 . b) Quel est son noyau ? 2) Soit f ∈ L(R2 , R3 ) une application linéaire définie par f (x, y) = (x − y, y − x, 0). Déterminer une base de chacun des sous-espaces Im(f ) et Ker(f ). Exercice 6. Soit E un K-e.v. de dimension finie n et f un endomorphisme de E tel que il existe un vecteur u pour lequel (f k (u))1≤k≤n est une base de E. 1) Montrer que f est un automorphisme de E. 2) Montrer qu’il existe n scalaires λi tels que (f n + λn−1 f n−1 + ... + λ0 IdE )(u) = 0 3) En déduire que f n + λn−1 f n−1 + ... + λ0 IdE = 0 Exercice 7. Soient E et F deux K-e.v., non nuls, de dimensions respectives p et q. Soit (e1 , ..., ep ) une 70 base de E et (f1 , ..., fq ) une base de F. Démontrer que l’espace vectoriel E × F est de dimension finie. Donner une base de E × F . Quelle est la dimension de E × F ? Exercice 8. Soient E et F deux sous-espaces vectoriels d’un espace vectoriel E, et f : F × G −→ E, l’application définie par : f (x, y) = x + y. Montrer que : 1) f est une application linéaire surjective de E × F dans F + G, autrement dit f envoie E × F sur F + G, ou f (F × G) = F + G. 2) f est injective si et seulement, si F ∩ G = {0}. 3 Si F ∩ G = {0}, f est un isomorphisme de F × G sur F + G. Exercice 9. Soit E un K-espace vectoriel, F et G deux sous espaces vectoriels de dimension finie, de E. 1) Montrer que F + G et F ∩ G sont de dimension finie. 2) Soit H = F ∩ G et U un suplémentaire de H dans G. Montrer que F + G = F ⊕ U . 3) Déduire que : dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G). Exercice 10.On considère la suite (Pn )n∈N de polynômes de R[X] tels que ∀k ∈ N, deg(Pk ) = k. 10-1 Montrer que, pour tout n ∈ N, (Pk )0≤k≤n est une base de Rn [X]. 10-2 Déduire que (Pk )k∈N est une base de R[X]. 10-3 Donner un exemple d’endomorphisme surjectif et non injectif et un exemple d’endomorphisme injectif et non surjectif. 10-4 Soit f et g deux endomorphismes. On suppose que f og = IdE , que peut-on dire de f et g ? 71 Chapitre 6 MATRICES ET SYSTÈMES LINÉAIRES Dans tout ce chapitre K = R ou C 6.1 6.1.1 Généralités Définitions Soit deux entiers p ≥ 1, n ≥ 1 , on appelle matrice de type (p, n) ou (p, n)−matrice à coefficients dans K, un tableau rectangulaire à p lignes, n colonnes d’éléments de K. a1,1 a1,2 . . . a1,n a2,1 a2,2 . . . a2,n a= . .. .. .. . . ap,1 ap,2 . . . ap,n Les éléments ai,j de K , 1 ≤ i ≤ p et 1 ≤ j ≤ n, sont les coefficients de la matrice A. Pour représenter une matrice, on utilise la notation (ai,j )1≤i,≤p 1≤j≤n ou plus simplement (ai,j ) lorsqu’il n’y a pas de confusion. Exemple : K = R, p = 3, n = 2 √ 2 1 1 1 ∈ M3,2 (R). 4 2 0, 7 Egalité de deux matrices : Soit A = (ai,j ) ∈ Mn,p (K) et B(bi,j ) ∈ Mn0 ,p0 (K). Par définition A = B ⇐⇒ p = p0 , n = n0 et ai,j = bi,j , ∀1 ≤ i ≤ p, 1 ≤ j ≤ n. Vecteurs lignes et vecteurs colonnes : On appelle ieme vecteur ligne de la matrice A = (ai,j ) ∈ Mp,n (K), le vecteur ¢ ¡ ai,1 ai,2 . . . ai,n ∈ Kn . On appelle j eme vecteur colonne de la matrice A = (ai,j ) ∈ Mp,n (K), le vecteur a1,j a2,j .. ∈ Kp . . ap,j 72 Remarques : • Si n = p, la (n, n)−matrice A = (ai,j ) ∈ Mn,n (K) est appelée matrice carrée d’ordre n. On note Mn (K) au lieu de Mn,n (K). Soit A ∈ Mn (K) : a1,1 a1,2 . . . a1,n a2,1 a2,2 . . . a2,n A= . .. .. .. . . an,1 an,2 . . . an,n Les coefficients ai,i , 1 ≤ i ≤ n sont appelés les coefficients diagonaux de la matrice carrée A. Ils constituent la diagonale principale de A. • Une matrice carrée est dite triangulaire supérieure (resp. triangulaire inférieure) si tous ses coefficients situés au dessous (resp. au dessus) de la diagonale principale sont nuls. Une matrice triangulaire supérieure s’écrit : a1,1 a1,2 . . . a1,n 0 a2,2 . . . a2,n A= . .. . . 0 . 0 . . . 0 an,n Une matrice triangulaire inférieure s’écrit : a1,1 0 ... 0 .. a2,1 a2,2 0 . A= . . .. .. 0 an,1 an,2 . . . an,n Une matrice carrée est dite diagonale si tous ses coefficients autres que les coefficients diagonaux sont nuls, c’une matrice de la forme : a1,1 0 . . . 0 .. 0 a2,2 0 . A= . . . 0 0 0 . . . 0 an,n 6.1.2 Transposée d’une matrice Définition 6.1. Soit A = (ai,j ) ∈ Mp,n (K). On appelle transposée de la (p, n)-matrice A, et on note t A, la (n, p)−matrice (bi,j ) telle que bi,j = aj,i , 1 ≤ i ≤ n et 1 ≤ j ≤ p. En pratique, t A est déduite de A par échange des lignes et des colonnes. Remarques : 1. t (t A) = A, t (AB) = t B t A et t (A + B) = t A +t B. 2. L’application A −→t A est une bijection de Mp,n (K) sur Mp,n (K). Définition 6.2. Une matrice carrée A = (ai,j ) ∈ Mn (K) est dite symétrique si t A = A. Autrement dit, ai,j = aj,i ∀1 ≤ i, j ≤ n. 73 6.2 6.2.1 Opérations sur les matrices L’espace vectoriel Mp,n (K) Définition 6.3. On appelle somme des deux matrices A = (ai,j ) ∈ Mp,n (K) et B = (bi,j ) ∈ Mp,n (K), et on note A + B, la matrice C = (ci,j ) ∈ Mp,n (K) telle que ci,j = ai,j + bi,j , 1 ≤ i ≤ p, 1 ≤ j ≤ n Exemple : 1 0 A= 2 √ 2 3 5 6 i 1 2 , 5 j 0 5 B= 7 0 1 6 4 1 2 4 , 0 0 1 4 5 11 C= 9 10 √ 2 i+1 3 6 . 5 j Définition 6.4. On appelle produit de la matrice A = (ai,j ) ∈ Mp,n (K) par le scalaire λ ∈ K, et on note λA, la matrice A0 = (a0i,j ) ∈ Mp,n (K) telle que a0i,j = λai,j 1 ≤ i ≤ p, 1 ≤ j ≤ n Exemple : 1 1 −5 0 3 2 1 6 1 2 = 3 9 4 1 3 3 −i −i 0 0 3 −5 3 2 3 0 0 1 3 4 3 0 Théorème 6.5. L’ensemble Mp,n (K) muni de l’addition (A, B) −→ A + B et de la multiplication externe (λ, A) −→ λA, ayant K comme corps des scalaires, est un K-e.v. Preuve. L’élément nul de Mp,n (K) est la matrice dont tous les coefficients sont nuls, appelée matrice nulle, et notée par 0. L’opposé de A = (ai,j ) est la matrice −A = (−ai,j ). Les autres axiomes d’un K−e.v. sont laissés en exercice. 6.2.2 Base canonique et dimension de Mp,n (K) pour 1 ≤ i ≤ p, 1 ≤ j ≤ n, la matrice élémentaire Ei,j ∈ Mp,n (K) est la (p, n)−matrice dont le coefficient situé à l’intersection de la ieme ligne et de la j eme colonne est égal à 1 et dont tous les autres coefficients sont nuls. Proposition 6.6. La suite (E1,1 , E1,2 , ..., E2,1 , ..., Ep,n ) est une base de Mp,n (K) appelée base canonique de Mp,n (K). Donc dimMp,n (K) = np. Preuve. A Ecrire.................. 6.2.3 Multiplication des matrices Définition 6.7. On appelle produit de la (n, p)−matrice A = (ai,j ) ∈ Mp,n (K) par la (n, q)matrice B = (bi,j ) ∈ Mn,q (K), et on note AB, la (p, q)−matrice C = (ci,j ) ∈ Mp,q (K) telle que n X ci,j = ai,k bk,j 1 ≤ i ≤ p, 1 ≤ j ≤ n. k=1 74 Exemple : 1 3 2 0 A = 0 −1 −3 −1 ∈ M3,4 (R), −2 0 1 2 1 0 −2 −1 B= 0 2 1 3 −5 1 AB = 1 −8 . 0 8 Remarques : 1. La multiplication des matrices est associative et distributive par rapport à l’addition. 2. Si A ∈ Mp,n (K) et B ∈ Mn,q (K), on a t (AB) = t B t A. (Attention à l’ordre !) 6.2.4 Rang d’une matrice Définition 6.8. Soit A = (ai,j ) ∈ Mp,n (K). On appelle rang de la matrice A, et on note rg(A), le rang de la suite des vecteurs colonnes. D’une part, on a rgA ≤ n. D’autre part, les vecteurs colonnes de A sont dans Kp , donc rgA ≤ p. D’où : rgA ≤ min(n, p). Exemple : Remarque : Soit E un K−espace vectoriel de dimension p > 0. B = (e1 , ..., ep ) une base P de E et soit les n vecteurs xj = pi=1 ai,j ei , 1 ≤ j ≤ n. Alors le rang de la suite (x1 , ..., x − n) est égal au rang de la (p, n)−matrice A = (ai,j ) ∈ Mp,n (K) (dont la jeme ) colonne est constituée par les coordonnées de xj dans la base B. 6.3 Matrice d’une application linéaire Soit E et F deux K-e.v. non nuls de dimensions respectives n et p. Soit B = (e1 , ..., en ) une base de E et B0 = (f1 , ..., fp ) une base de F et soit ϕ une application linéaire de E dans F . On sait que ϕ est déterminée par les images des vecteurs de la base B. Posons : p X ϕ(ej ) = ai,j fi , 1 ≤ j ≤ n. i=1 Définition 6.9. On appelle matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases B = (e1 , ..., en ) de E et B 0 = (f1 , ..., fp ) de F , la (p, n)−matrice A = (ai,j ) dont la jeme colonne : a1,j a2,j .. . ap,j est constituée par les coordonnées du vecteur ϕ(ej ) dans la base B0 = (f1 , ..., fp ). Autrement dit : ϕ(e1 ) ϕ(e2 ) . . . ϕ(en ) 75 A= a1,1 a1,2 . . . a1,n a2,1 a2,2 . . . a2,n .. .. .. . . . ap,1 ap,2 . . . ap,n f1 f2 .. . fp L’application ϕ : E −→ F est déterminée par sa matrice A dans les bases B et B 0 . Exemples : Soit n ∈ N et soit le R−espace vectoriel En = {P ∈ R[X]/P = 0 ou degP ≤ n}. 1. Soit ϕ ∈ L(E3 , E2 ) définie par ϕ(P ) = P 0 . Alors la matrice de ϕ dans les bases canoniques de E3 et de E2 est : 0 1 0 0 Mϕ = 0 0 2 0 ∈ M3,4 (R). 0 0 0 3 2. Soit ϕ ∈ L(E3 , E3 ) définie par ϕ(P ) niques de E3 est : 0 0 Mϕ = 0 0 = P 0 . Alors la matrice de ϕ dans la base cano1 0 0 0 0 2 0 0 0 0 ∈ M4 (R). 3 0 3. Soit f ∈ L(R3 ) définie par : f (e1 ) = e1 + 3e2 f (2) = e2 f (e3 ) = e3 avec B = (e1 , e2 , e3 ) est la base canonique de R3 . 1 0 0 M at(f, B) = 3 1 0 ∈ M3 (R). 0 0 1 Remarques : 1. La matrice d’une application linéaire ϕ : E −→ F dans les bases B de E et B0 de F dépend évidemment des bases choisies dans E et F . 2. Si A et B sont les matrices respectives des applications ϕ ∈ L(E, F ) et ψ ∈ L(E, F ), dans les bases B et B 0 , la matrice de ϕ + ψ dans les bases B et B0 est A + B. 3. Si A est la matrice de ϕ ∈ L(E, F ) dans les bases B et B 0 , et si λ ∈ K, alors la matrice de l’application linéaire λϕ est λA. 4. Si B est la matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases B = (e1 , ..., eq ) et B0 = (f1 , ..., fn ), et si A est la matrice de l’application linéaire ψ ∈ L(F, G), dans les bases B0 et B00 = (g1 , ..., gp ), alors la matrice de ψoϕ dans les bases B et B00 est le produit AB. En effet, on a n X ϕ(ej ) = bk,j fk k=1 pour 1 ≤ j ≤ q. Et pour 1 ≤ k ≤ n, on a ψ(fk ) = p X i=1 76 ai,k gi . Donc, pour 1 ≤ j ≤ q, on a P P P P P ψoϕ(ej ) = nk=1 bk,j ψ(fk ) = nk=1 bk,j ( pi=1 ai,k gi ) = nk=1 pi=1 (bk,j ai,k )gi = Pn Pp Pn i=1 ( k=1 ai,k bk,j )gi = Pp i=1 ci,j gi avec ci,j = k=1 ai,k bk,j pour 1 ≤ i ≤ p et 1 ≤ j ≤ q. Donc la matrice C de l’application linéaire ψoϕ est égale à AB. Proposition 6.10. Les bases B = (e1 , ..., en ) et B 0 = (f1 , ..., fp ) étant fixées. Désignons par Mϕ la matrice de ϕ ∈ L(E, F ) dans les bases B et B0 . Alors l’application : J : L(E, F ) −→ Mp,n (K) ϕ −→ Mϕ est un isomorphisme. Preuve. J est injective : car Mϕ = Mψ implique ϕ(ej ) = ψ(ej ) pour 1 ≤ j ≤ n et donc ϕ = ψ. J est surjective : car si A = (ai,j ) ∈ Mp,n (K), soit ϕ ∈ L(E, F ) définie par ϕ(ej ) = p X ai,j fi , 1 ≤ j ≤ n. i=1 Alors Mϕ = A. Donc J est surjective. De plus, J est clairement linéaire d’après la remarque précédente. Théorème 6.11. Soit E et F deux K−e.v. non nuls, de dimensions respectives n et p et soit ϕ ∈ L(E, F ). Si A est la matrice de ϕ dans les bases B = (e1 , ..., en )de E et B 0 = (f1 , ..., fp ) de F , le rang de ϕ est égal au rang de A. Preuve. On a rgϕ = dimϕ(E) = dim vect(ϕ(e1 ), ..., ϕ(en )). Donc rgϕ = rg(ϕ(e1 ), ..., ϕ(en )) = rgA. D’où rgϕ = rgA 6.4 Matrices carrées inversibles Définition 6.12. Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle que AB = BA = In (In est la matrice unité d’ordre n ). Une telle matrice B si elle existe est unique. B est alors appelée l’inverse de A et notée A−1 . Proposition 6.13. 1. Si A ∈ Mn (K) et B ∈ Mn (K) sont inversibles, alors AB est inversible et on (AB)−1 = B −1 A−1 . 2. Si A est inversible, alors t A est inversible et on a (t A)−1 = t (A−1 ). Preuve. 1. A inversible =⇒ ∃ A−1 telle que AA−1 = A−1 A = In . B inversible =⇒ ∃ B −1 telle que BB −1 = B −1 B = In . (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In . (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In . Donc AB est inversible et (AB)−1 = B −1 A−1 . 2. A inversible =⇒ ∃ A−1 telle que AA−1 = A−1 A = In . (t A)t (A−1 ) = t (A−1 A) = t In = In . ( t A−1 t A) = t (AA−1 ) = t In = In . Donc t A est inversible et on a (t A)−1 = t (A−1 ). 77 Théorème 6.14. Soit A ∈ Mn (K), E et F deux K−e. v. non nuls de dimension n. B une base de E et B 0 une base de F . Soit ϕ ∈ L(E, F ), de matrice A dans les bases B et B0 . Les propositions suivantes sont équivalentes : 1. Il existe B ∈ Mn (K) telle que BA = In . 2. Il existe C ∈ Mn (K) telle que AC = In 3. ϕ est un isomorphisme de E sur F . 4. A est inversible. Preuve. (1) =⇒ (3) Soit g ∈ L(F, E) de matrice B dans les bases B0 et B. goϕ ∈ L(E) et Mgoϕ = BA = In . Donc goϕ = IdE . Soit x ∈ Kerϕ, x = goϕ(x) = g(ϕ(x)) = g(0) = 0. Donc Kerϕ = {0}. D’où ϕ est injective. D’où ϕ est un isomorphisme de E sur F . (2) =⇒ (3) Soit h ∈ L(F, E) de matrice C dans B0 et B. ϕoh ∈ L(F ) et Mϕoh = AC = In . Donc ϕoh = IdF . Soit y ∈ F , on a y = (ϕoh)(y) = ϕ(h(y).) Donc F ⊆ Imϕ, ce qui implique que ϕ est surjective. D’où ϕ est un isomorphisme de E sur F . (3) =⇒ (4). Soit A0 la matrice de ϕ−1 dans les bases B0 et B. On a ϕ−1 oϕ = In et Mϕ−1 oϕ = A0 A = In . De même ϕoϕ−1 = IdF et Mϕoϕ−1 = AA0 = In . Donc A est inversible. (4) =⇒ (1) et (4) =⇒ (2) sont évidentes. Corollaire 6.15. Soit A ∈ Mn (K). Les propositions suivantes sont équivalentes : 1. A est inversible. 2. rg A=n. 3. Les vecteurs colonnes de A constituent une base de Kn . Preuve. Soit ϕ ∈ L(Kn ) de matrice A dans la base canonique de Kn . (1) =⇒ (2)) On a : rgA = rg(ϕ) = dim vect(ϕ(e1 ), ..., ϕ(en )) = dimF = n. (2) =⇒ (3)) La suite (ϕ(e1 ), ..., ϕ(en )) est libre et dimF = n, donc (ϕ(e1 ), ..., ϕ(en )) est une base de F. (3) =⇒ (1) L’image d’une base par ϕ est une base. Donc ϕ est un isomorphisme. Par suite A est inversible. 6.5 Changement de base Soit E un K−e.v. non nul de dimension n. Soit B = (e1 , ..., en ) une base de E et B 0 = une autre base de E. On a (e01 , ..., e0n ) e0j = n X pi,j ei , i=1 78 1 ≤ j ≤ n. Posons P = p1,1 p2,1 .. . pn,1 p1,2 . . . p1,n p2,2 . . . p2,n .. .. . . pn,2 . . . pn,n ∈ Mn (K). Le rang de la matrice P = (pi,j ) ∈ Mn (K) est égal au rang de la suite (e01 , ..., e0n ). Donc rgP = n et P est inversible. Définition 6.16. La matrice P = (pi,j ) ∈ Mn (K) dont la j eme colonne est constituée par les coordonnées de e0j dans la base B = (e1 , ..., en ) est appelée matrice de passage de la base B = (e1 , ..., en ) à la base B0 = (e01 , ..., e0n ). C’est une matrice inversible. 6.5.1 Action d’un changement de base sur les coordonnées d’un vecteur Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ) deux bases d’un K−e.v. E de dimension n. Soit x ∈ E, on a : n n X X x= xi ei = x0j e0j . i=1 j=1 Associons à ces deux décompositions les matrices colonnes : 0 x1 x1 x2 x0 2 X = (x)B = . et X 0 = (x)B0 = . .. .. ∈ Mn,1 (K). x0n xn 0 Soit P = (pP i,j ) ∈ Mn (K) la matrice de passage de B à B . n 0 1 ≤ j ≤ n. On a ej = i=1 pi,j ei , On a n n n n X n n X X X X X 0 0 0 0 x= xj ej = xj pi,j ei = ( xj pi,j )ei = xi ei j=1 D’où, ∀1 ≤ i ≤ n, on xi = X= Pn j=1 0 j=1 pi,j xj . Pn p x0 Pnj=1 1,j 0j j=1 p2,j xj = .. Pn . 0 xn j=1 pn,j xj x1 x2 .. . i=1 i=1 j=1 i=1 Soit sous forme matricielle : = p1,1 p2,1 .. . p1,2 p2,2 .. . . . . p1,n . . . p2,n .. . pn,1 pn,2 . . . pn,n x01 x02 .. . = P X 0. x0n Donc (x)B = P (x)B0 . Proposition 6.17. Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ) deux bases d’un K−e.v. E et P la matrice de passage de B à B0 . Alors la matrice de passage de B0 à B est la matrice P −1 . Preuve. Pour tout x ∈ E, (x)B = P (x)B0 . P étant inversible, donc (x)B0 = P −1 (x)B . Par suite P −1 est la matrice de passage de B0 à B. 79 6.5.2 Action d’un changement de base sur la matrice d’une application linéaire Proposition 6.18. Soit E et F deux K−e.v., non nuls, de dimensions respectives n et p. Soit ϕ ∈ L(E, F ). Soit A la matrice de ϕ dans les bases B de E et B1 de F . Soit A0 la matrice de ϕ dans les bases B 0 de E et B10 de F . Soit P la matrice de passage de B à B0 et Q la matrice de passage de B1 à B10 , on a A0 = Q−1 AP. Preuve. Soit x ∈ E et y = ϕ(x). On a (y)B1 = A(x)B et (y)B10 = A0 (x)B0 . Or (y)B1 = Q(y)B10 et (x)B = P (x)B0 . Donc : (y)B10 = Q−1 (y)B1 = Q−1 A(x)B = Q−1 AP (x)B0 = A0 (x)B0 D’où : A0 = Q−1 AP. Définition 6.19. Deux matrices (p, n)−matrices , A ∈ Mp,n (K) et B ∈ Mp,n (K) sont dites équivalentes s’il existe deux matrices carrées R ∈ Mp (K) et S ∈ Mn (K) telles que : B = RAS. Définition 6.20. Deux matrices carrées, d’ordre n, A ∈ Mn (K) et B ∈ Mn (K) sont dites semblables s’il existe une matrice carrée inversible P ∈ Mn (K) telle que B = P −1 AP. 6.6 6.6.1 Systèmes linéaires Définitions Soit p et n deux entiers ≥ 1. On appelle système linéaire de coefficients dans K, un ensemble d’équations : a1,1 x1 +a1,2 x2 + . . . +a1,n xn a2,1 x1 a2,2 x2 + . . . a2,n xn S= .. .. . . ap,1 x1 ap,2 x2 + . . . ap,n xn p équations à n inconnues à = b1 = b2 .. . = bp • Les éléments ai,j , 1 ≤ i ≤ p et 1 ≤ j ≤ n, appartiennent à K et sont appelés les coefficients de (S). • Les éléments bi , 1 ≤ i ≤ p, appartiennent à K et sont appelés seconds membres de (S). Les coefficients et les seconds membres sont donnés. • Les éléments xj , 1 ≤ j ≤ n, appartiennent à K et sont appelés les inconnues de (S). eme équation de (S). • L’équationsai,1 x1 +ai,2 x2 +...+ai,n xn =bi est appelée i a1,j xj a2,j xj • Le vecteur est appelé j eme colonne de (S). .. . ap,j xj • Une solution de (S) est un vecteur (x1 , ..., xn ) ∈ Kn vérifiant toutes les équations de (S). 80 Discuter et résoudre (S) c’est trouver toutes les solutions de (S). • Deux systèmes sont dits équivalents s’ils ont le même ensemble de solutions. (S) est dit compatible s’il admet au moins une solution. Dans le cas contraire (S) est dit incompatible (ou impossible). • Le système (S) s’écrit en abrégé : n X (S) ai,j xj = bi , 1 ≤ i ≤ p. j=1 6.6.2 Interprétation matricielle d’un système linéaire : Soit A i,j ) ∈ Mp,n (K), A est appelée la matrice du systéme (S). = (a b1 b2 Soit b = . ∈ Mp,1 (K), b est appelé le vecteur second membre de (S). .. b p x1 x2 Soit X = . .. ∈ Mn,1 (K), X est appelé inconnue de (S). xn Le système (S) s’écrit matriciellement : AX = b. (1) Résoudre (S), c’est trouver tous les vecteurs vérifiant (1). 6.6.3 Rang d’un système linéaire Définition 6.21. On appelle rang du système (S), le rang r de la matrice A de (S) et on notre rg (S). Exemple : Soit (S) le système linéaire de 4 équations à réels : 2x +2z = x +2y −z = (S) 4x −y +5z = 7x +8y −z = La matrice de (S) est 3 inconnues x, y, z à coefficients 3 1 7 9 2 0 2 1 2 −1 A= 4 −1 5 ∈ M4,3 (R). 7 8 −1 On a la suite (c1 , c2 ) est libre et c3 = c1 − c2 . Donc rg(S) = rg(A) = 2. Remarque : Un système est dit de Cramer si n = p = r. Autrement dit, si sa matrice est carrée et inversible. Un système de Cramer admet toujours une solution unique (X = A−1 b) car sa matrice A est 81 inversible. Cas particulier : systèmes de Cramer triangulaires. Soit un système (T ) de n équations à n inconnues dont la matrice est triangulaire supèrieure avec des coefficients diagonaux tous non nuls. On montre facilement (exercice) que rg A = n. Donc (T ) est un système de Cramer et admet une solution unique. +... +a1,n xn = b1 a1,1 x1 +a1,2 x2 a2,2 x2 +... +a2,n xn = b2 . .. (T ) an−1,n−1 xn−1 +an−1,n xn = bn−1 an,n xn = bn Le système (T ) est facile résoudre. En effet, on calcule de la façon suivante : P P bi − nj=i+1 ai,j xj b1 − nj=2 a1,j xj bn−1 − an−1,n xn bn xn = , xn−1 = , ..., xi = , ..., x1 = an,n an−1,n−1 ai,j a1,1 6.7 Méthode de pivot de Gauss Définition 6.22. Un système linéaire : (S) n X ai,j xj = bi , 1 ≤ i ≤ p, j=1 est dit échelonné ou en échelon, s’il existe un entier q, 1 ≤ q ≤ p et q ≤ n tel que : pour tout q < i ≤ p, 1 ≤ j ≤ n,on a ai,j = 0. pour tout 1 ≤ i ≤ q, 1 ≤ j ≤ i, on a ai,i 6= 0 et ai,j = 0. Donc(S) est échelonné si la matrice de(S) a la forme suivante dite échelonnée : a1,1 ∗ ... ∗ 0 a2,2 .. .. . . ... 0 aq,q ∗ ... ∗ A= 0 chaque étoile est un coefficient quelconque. 0 ... ... ... . . . ... 0 .. .. . . 0 ... ... ... . . . ... 0 Théorème 6.23. : Soit (S) un système linéaire échelonné : (S) n X ai,j xj = bi , 1 ≤ i ≤ p. j=1 Avec les notations précédentes , le rang de (S) est r=q . Le système est compatible si, et seulement si bq+1 = . . . = bq = 0, et dans ce cas, les solutions de (S) sont les vecteurs (x1 , ..., xq , xq+1 , ..., xn ) où xq+1 , . . . , xn sont des éléments quelconques de K et (x1 , . . . , xq ) la solution du système de Cramer triangulaire : (T ) q X j=1 ai,j xj = bi − n X ai,j xj 1 ≤ i ≤ q. j=q+1 x1 , ..., xq sont appelés les inconnuses principales et xq+n , ..., xn sont appelées les inconnues non principales. 82 Preuve. Puisque les p-q dernières lignes de la matrice A sont nulles , on a rg A ≤ q. Puisque les q premières colonnes de A forment une suite libre on a rgA ≥ q. Donc r = rgA = q. S’il exsiste i, q + 1 ≤ i ≤ p tel que bi 6= 0 alors la ieme équation de (S) s’écrit : 0x1 + . . . + 0xn = bi = 0, impossible et le système est donc incompatible. Soit bq+1 = . . . = bp = 0. Le sysème (S) est équivalente au système : (T ) q X ai,j xj = bi − j=1 n X ai,j xj 1 ≤ i ≤ q. j=q+1 avec xq+1 , ..., xn sont des éléments quelconques fixés dans K. le système (T) est de Cramer , donc il admet une solution unique (x1 , ..., xq ). D’où pour tout xq+1 , ..., xn quelconques (mais fixés) dans K, (x1 , ..., xq , xq+1 ..., xn ) est une solution du système (S). Exemple Faire l’exercice 3 série N 7. Définition 6.24. On appelle opération élémentaire sur (S) chacune des opérations suivantes : (1) permuter deux colonnes de (S). (2) permuter deux équations de (S). (3) ajouter membre à membre à une équation, une combinaison linéaire des autres équations. (4) multiplier les deux membre d’une équation par un même scalaire non nul. On rappelle que deux systèmes linéaires sont dits équivalents, s’ils ont le même ensemble de solutions. Théorème 6.25. (S) étant un système linéaire , toute opération élémentaire sur (S) transforme (S) en un système linéaire équivalent et de même rang. Preuve. L’addition dans K est commutative, l’opération (1) transforme (S) en un système équivalent. L’ordre des équations n’intervient pas dans l’ensemble des solutions : l’opération (2) transforme (S) en un système équivalent. Soit λ ∈ K, h et k ∈ {1, ..., p}, h 6= k, et soit (S 0 )le système suivant déduit de (S) : ½ Pn a x = bi , 1 ≤ i ≤ p, i 6= k, 0 Pnj=1 i,j j (S ) j=1 (ak,j + λah,j )xj = bk + λbh . Il est clair que si (x1 , ..., xn ) est solution de (S), (x1 , ..., xn ) est aussi solution de (S 0 ). Comme on transforme (S 0 ) en (S) par une opération de même type que celle qui nous fait passer de (S) à (S 0 ), toute solution de (S 0 ) est aussi solution de (S). L’opération qui consiste à ajouter membre à membre à la k eme équation, une combinaison linéaire des autres équations, est une suite finie d’opérations du type précédent, donc elle transforme (S) en un système linéaire équivalent. Enfin il est évident que l’opération (4) transforme (S) en un système linéaire équivalent. 83 6.8 Algorithme du pivot de Gauss : Théorème 6.26. : Soit (S) un système linéaire de p équations à n inconnues (S) n X ai,j xj = bi , 1 ≤ i ≤ p. j=1 Soit A la matrice du système (S), si A 6= 0, il existe une suite finie d’opérations élémentaires qui transforment (S) en un système échelonné. Preuve. a1,1 a1,2 . . . a1,n a2,1 a2,2 . . . a2,n A= . .. .. . . . . . ap,1 ap,2 . . . ap,n A 6= 0, il existe donc i0 , j0 , 1 ≤ i0 ≤ p et 1 ≤ j0 ≤ n tel que ai0 ,j0 6= 0. En permutant au besoin, les équations 1 et i0 et les colonnes 1 et j0 , on se ramène à un système équivalent et de même rang : (S 0 ) n X a0j,i x0j = b0i , 1≤i≤p avec a01,1 = ai0 ,j0 . j=1 (attention : si j0 6= 1, x01 = xj0 et x0j0 = x1 ) On ajoute alors membre à membre la ieme équation, pour 2 ≤ i ≤ p, le produit de la première a0 équation par − a0i,1 . On obtient alors un système équivalent et de même rang. 1,1 n X (S”) a”j,i x0j = b”i , 1 ≤ i ≤ p, j=1 où a”1,1 = a01,1 et a”i,1 = 0, La matrice de (S”) s’écrit : 2 ≤ i ≤ p. A” = a”1,1 ∗ . . . ∗ 0 .. . A”1 0 avec A”1 ∈ Mp−1,n−1 (K). On passe à l’étape suivante en travaillant maintenant avec A”1 . Exemple : = −1 x−y 3x + 3z = 3 2x + y + 3z = 4 L’écriture matricielle du système 1 3 2 est : −1 x −1 0 0 3 y = 3 . 4 z 1 3 84 On utilise la méthode de pivot de Gauss en n’oubliant 1 −1 0 −1 1 3 0 3 | 3 =⇒ 0 2 1 3 4 0 1 −1 0 −1 0 3 3 | 6 0 0 0 0 pas de traı̂ter b. −1 0 −1 3 3 | 6 3 3 6 Le rang de (S) est égal à r = 2. On prend x et y comme inconnues principales et z comme inconnue non principale. S = {(x, y, z) = (1 − z, 2 − z, z)/z ∈ R} Récapitulatif. Quelques applications de la méthode du pivot de Gauss : A. Comment déterminer le rang d’une matrice A. D’après le théorème noyau-image : rg(A) = n − dimKer(A) (où n désigne bien le nombre de colonnes de A, c’est-à-dire la dimension de l’espace de départ de l’application linéaire assouciée). Donc il suffit de déterminer le noyau de A, c’est-à-dire d’expliciter suffisamment les vecteurs X solutions de AX = 0 pour trouver la dimension de cet espace, et d’en déduire le rang. B. Noyau de f . Soit f ∈ L(Rn , Rp ). La résolution du système linéaire homogème f (X) = 0 fournit Ker(f ). Ker(f ) = {X ∈ Rn /f (X) = 0.} Exemple : Soit f ∈ L(R4 , R3 ) dont la matrice dans les base canoniques de R4 et R3 est 1 1 −3 4 A = 1 2 −5 2 . −1 1 −1 −8 Si X = (x, y, z, t) ∈ R4 , AX = 0 s’écrit : x + y − 3z + 4t = 0 x + 2y − 5z + 2t = 0 (S) −x + y − z − 8t 0. Système qui a été considéré en exercice 13. C. Image de f . On cherche les Y ∈ Rp pour lesquels l’équation f (X) = Y , où l’inconnue est X, a au moins une solution. Si A est la matrice de f dans les bases canoniques de Rn et Rp , on cherche les Y ∈ Rp pour lesquels le système AX = Y , où l’inconnue est X, est compatible. 85 Compléments Sur les matrices par blocs. Produit des matrices par blocs : Soient A ∈ Mm+q,n+p (K) et B ∈ Mn+p,r+s (K) deux matrices que l’on ”décompose ” de la manière suivante : µ ¶ A1 A2 A= A3 A4 où A1 ∈ Mm,n (K), A2 ∈ Mm,p (K), A3 ∈ Mq,n (K) et A4 ∈ Mq,p (K). ¶ µ B1 B2 B= B3 B4 où B1 ∈ Mn,r (K), B2 ∈ Mn,s (K), B3 ∈ Mp,r (K) et B4 ∈ Mp,s (K). Alors on peut calculer le produit AB de la manière suivante : ¶ µ A1 B1 + A2 B3 A1 B2 + A2 B4 ∈ Mm+q,r+s (K) AB = A3 B1 + A4 B3 A3 B2 + A4 B4 On peut procéder de même quel que soit le nombre de blocs, à condition que : - le nombre de colonnes de blocs de A soit égal au nombre de lignes de blocs de B (ici 2 et 2). - le nombre de lignes et de colonnes de chaque bloc soient en adéquation pour tous les sous-produits. Généralisation : Soient A = (AIK ) et B = (BKJ ) deux matrices décomposées par blocs telles que la décompositions correspond à l’indice K soit la même pour A et B. Alors AB = C se décompose par blocs et on a X CIJ = AIK BKJ . K Ceci est une généralisation de la multiplication habituelle des matrices. ........................................................................................ 86 6.9 Exercices : Les matrices Exercice 1. Un fabricant de composantes électriques vend deux produits différents à trois clients. Les deux produits sont fabriqués dans deux usines différentes. Les coûts de transport de chaque produit, pour chaque client, sont indiqués dans le schéma suivant : 1) Présentez les informations contenues dans le schéma sous forme d’une matrices A de format 2 × 3, où aij représente le coût de transport pour expédier le produit i au client j. 2) Quelle information la deuxième ligne de la matrice contient-elle ? 3) Quelle information la troisième colonne de la matrice contient-elle ? 4) Quelle information a12 donne-elle ? Exercice 2. 1) Calculer les produits AB et BA quand il existent dans le cas suivant : A = (3 5 − 1 − 2) et B = t (−1 0 1 2). 2) Dans M4 (C) considérons les matrices : α 1 0 1 α 0 0 0 0 α 0 2 1 α 0 0 A= 0 0 β 3 et B = 0 0 β 1 0 0 0 1 0 0 0 β Calculer A2 , AB, ABA, t (AB), t At B et B 3 . Exercice 3. a) Calculer Am µ , m ∈ N, pour A1 = 0 1 0 0 ¶ µ puis pour A2 = 1 1 0 1 ¶ . b) Calculer om et I m . c) Vérifier les propriétés (λA)m = λm Am ; (A + B)2 = A2 + AB + BA + B 2 . Exercice 4. a) Développer (A + B)3 . b) Développer (A + B + c)2 . c) Développer (A + I)3 . d) D’une manière générale, Développer (A + I)n . Déduire (A1 +P I)n = (nA1 + I). ∗ k ( Indication : Si AB = BA on a pour tout k ∈ N : (A + B) = ki=0 Cki Ak−i B i .) Exercice 5. On désigne par E l’ensemble des matrices de la forme a c b M (a, b, c) = b a + c b + c c b a+c où a, b, c ∈ Q. 1) Montrer que toute matrice E s’écrit de manière unique sous la forme aI + bJ + cK où I désigne la matrice unité de M3 (Q) et J, K deux matrices de M3 (Q) indépendantes de a, b, c. 87 2) En déduire que E est un sous-espace vectoriel sur Q. Quelle est sa dimension ? 3) Calculer J2 , J.K, K 2 , J 3 , J + I. 2 −3 −4 3 1 5 4) Soit A = −1 0 −1 ∈ M4,3 (Q). 0 2 4 Trouver le rang des matrices suivantes A et t A. Exercice 6. Soit B = (e1 , e2 , e3 ) la base canonique de R3 . On considère l’endomorphisme de R3 défini par : f (e1 ) = − 21 e1 + 12 e2 + 12 e3 f (e2 ) = −e1 + e3 f (e3 ) = − 21 e1 − 12 e2 + 12 e3 1) 2) 3) 4) a) b) c) 5) 6) Déterminer la matrice de f dans la base B. Quel est le rang de cette matrice ? Déterminer ker(f ) et sa dimension. Déterminer Im(f ) et sa dimension. Soient f1 = (1, −1, 1), f2 = (−1, 1, 1) et f3 = (1, 1, −1). Calculer f (f2 ) et f (f3 ). Déduire que (f2 , f3 ) est une base de Im(f ). Montrer que B 0 = (f1 , f2 , f3 ) est une base de R3 . Montrer que R3 = ker(f ) ⊕ Im(f ). Déterminer la matrice de f dans la base B 0 . Déterminer la matrice de passage P de la base B 0 à la base B. Exercice 7. Soit E un K−espaces vectoriel, non nul, de dimension finie, et soit ϕ ∈ L(E). Soient B et B 0 deux bases dans E. Soit A la matrice de ϕ dans la base B de E et A0 la matrice de ϕ dans la base B 0 de E. Soit P la matrice de passage de B à B 0 . 1) Montrer que A0 = P −1 AP. 2) Pour tout k ∈ N, A0k = P −1 Ak P . Exercice1 8. (Polynôme minimal d’un endomorphisme) Deux matrices carrées d’ordre n, A ∈ Mn (K) et B ∈ Mn (K) sont semblables s’il existe une matrice carrée inversible P ∈ Mn (K) telle que B = P −1 AP. Soient A et B deux matrices semblables de Mn (K) , non nulles. 1) Démontrer que pour tout p de N, Ap et B p sont semblables. 2) En déduire que si h est un polynôme de K[X], h(A) et h(B) sont semblables. 3) a) Démontrer que pour tout M non nul de Mn (K) il existe un polynôme unitaire unique PM de (K[X])∗ tel que : i) PM (M ) = 0 ii) ∀Q ∈ K[X], Q(M ) = 0 ⇒ PM (X) divise Q(X). PM (X) est le polynôme minimal de M . b) Etablir que PA = PB . c) Démontrer qu’un élément non nul M de Mn (K) est inversible si le terme constant de PM est non nul. d) Soit M un élément non nul idempotent (M 2 = M ) de M(K). Déterminer PM . Exercice 9. 88 On considère l’application f de R3 dans R2 définie par : µ ¶ x 2x − y − z y f = . −x + 2y − z z 1.) Montrer que f est linéaire et écrire sa matrice A dans les bases canoniques. 2.) Déterminer le rang de f et les dimensions de Im f et Ker f . L’application f est-elle injective, surjective, bijective ? 3.) Déterminer un vecteur V qui engendre Ker f et dont la première coordonnée vaut 1. 4.) (e1 , e2 , e3 ) désignant la base canonique de R3 , montrer que B1 = (e1 , e2 , V ) est une base de R3 et écrire la matrice de passage Q de la base canonique à B1 . 5.) On note U1 = f (e1 ), U2 = f (e2 ). Montrer que B2 = (U1 , U2 ) est une base de R2 et écrire la matrice de passage P de la base canonique à B2 . 0 6.) Écrire la matrice A de l’application linéaire f dans les bases B1 et B2 (sans utiliser P et Q). 0 7.) Vérifier en utilisant la formule du changement de base reliant A, A , P et Q. 8.) Ecrire la matrice transposée t A de A. On note désormais g : R2 → R3 l’application linéaire définie par g(X) = t AX. 9.) Déterminer le rang de g et les dimensions de Im g et Ker g. L’application g est-elle injective, surjective, bijective ? 10.) Déterminer pour f og, puis pour gof , le rang, la dimension de l’image et la dimension du noyau. L’application f og est-elle injective, surjective, bijective ? Même question pour gof . 11.) Déduire des questions 2.), 9.) et 10.) les identités : Ker(gof ) = Kerf , Ker(f og) = Kerg, Im(gof ) = Img, Im(f og) = Imf . Exercice 10. Ecrire sous forme canonique, puis sous forme matricielle, les systèmes : x + 1 = −y − z ½ 0 = x + y + z + t y−1= 2z − x z+t= z−2 2= x−y ; ; z= 2 − x + 3y x−y = −1 4= t−z −y + 3 = z + 2x. Exercice 11. A l’aide des transformatons élémentaires sur les lignes, déterminer une matrice triangulaire A0 équivalente à : 1 1 1 A = 1 2 3 . 1 3 4 2) Résoudre le système linéaire (S) AX = 0. Exercice1 12. Discuter et résoudre de Gauss : x +2y 2x +3y (S1 ) 3x +4y 4x +y les systèmes linéaires suivants, En utilisant l’algorithme d’élimination +3z +4t = 11 +4z +t = 12 +z +2t = 13 +2z +3t = 14. x +3y +5z −2t −7u = 3 3x +y +z −2t −u = 1 ; (S2 ) 2x −y −3z +7t +5u = 2 4x −2y −5z +7t +8u = λ. 89 où λ est un paramètre réel. Exercice 13. Soit le sous-espace vectoriel F de R4 constitué des (x, y, z, t) ∈ R4 solutions du système (S) à 3 équations : x + y − 3z + 4t = 0 x + 2y − 5z + 2t = 0 (S) −x + y − z − 8t 0. 1) Quelle est la dimension de F ? 2) Trouver une base de F. Exercice 14. On considère le système linéaire (S) à coefficients complexes : 2x + 2y − z − t = −1 x + y − 2z − 2t = −4 (S) x + y + 4z + 4t = 10. Soit f ∈ L(C4 , C3 ) l’application linéaire associée à (S). 1) Déterminer rg(f ) et une base de Im(f ). 2) Montrer que (S) est compatible et en donner une solution. 3) Donner une base de ker(f ) et en déduire toutes les solutions. Exercice 15.(Exemples d’applications des systèmes linéaires ) A. Deux camionnettes livrent du sable sur un chantier de travaux publics. La première livre deux tonnes à chaque voyage, l’autre livre trois tonnes. Une fois livrée la quantité commandée, un des chauffeurs dit à l’autre : ” on a fait à nous deux trente voyages et on a livré autant chacun”. Combien chaque camion a t-il fait de voyage ? B. Si un train augmente sa vitesse de 10Km/h sur un trajet, il gagne 40 min. S’il diminue sa vitesse de 10Km/h, il perd 1h. Quelle est la longueur du trajet ? Exercice 16. On considère le système linéaire à coefficients réels : x +y +z =0 (b + c)x +(a + c)y +(a + b)z = 0 bcx +acy +abz =0 où a, b et c sont des nombres réels donnés. Discuter (suivant les valeurs des paramètres a, b, c) et résoudre ce système. 1 Les exercices 8 et 12 constituent le sujet d’un devoir libre à rendre au plus tard le 04 avril ... 90 Chapitre 7 DÉTERMINANTS Comme d’habitude, K = R ou Q ou C. 7.1 Le groupe symétrique Sn Définition 7.1. Soit n un entier ≥ 1 et soit J = {1, 2, ..., n}. Une permutation de J est une application bijective de J sur lui-même. On note l’ensemble des permutations de J par Sn et un élément σ de Sn par : µ ¶ 1 2 ... n σ= σ(1) σ(2) ... σ(n) Le nonmbre de permutation de J est n! Exemple 7.1. µ σ= 1 2 3 4 4 2 1 3 ¶ ∈ S4 . σ est la permutation de J = {1, 2, 3, 4} qui à 1 fait correspondre 4, 2 fait correspondre 2, 3 fait correspondre 1 et à 4 fait correspondre 3. Remarque 7.1. 1. La composée de deux permutations de J est une permutation de J. L’ensemble Sn muni de la loi interne (σ, σ 0 ) −→ σoσ 0 est un groupe, appelé groupe symétrique d’ordre n. 2. Si n = 1 , S1 est réduit à l’application {1}. µ identique ¶ de J = µ ¶ 1 2 1 2 3. Si n = 2, S2 = {IJ , τ } avec IJ = et τ = . Le groupe S2 est 1 2 2 1 commutatif. 4. Si n ≥ 3, on considère µ ¶ µ ¶ 1 2 3 4 ... n 1 2 3 4 ... n 0 σ= , σ = 3 2 4 1 ... n 1 3 2 4 ... n On a (σoσ 0 (1) = 3) et (σ 0 oσ(1) = 2) ; donc σoσ 0 6= σ 0 oσ, et le groupe Sn n’est pas commutatif. Définition 7.2. Pour n ≥ 2, on appelle transposition de J = {1, 2, ..., n} une permutation de J qui échange deux éléments i et j de J et qui laisse fixe les autres éléments de J, c’est à dire une permutation notée τi,j telle que τi,j (i) = j, τi,j (j) = i et τi,j (k) = k si k 6= i et k 6= j. Exemple 7.2. µ τ3,4 = 1 2 3 4 5 6 1 2 4 3 5 6 91 ¶ ∈ S6 . Remarque 7.2. On a τi,j = τj,i et τi,j oτi,j = IJ . Théorème 7.3. Pour n ≥ 2, tout élément de Sn est égal à un produit de transpositions. Preuve. Soit σ ∈ Sn On raisonne par récurrence sur l’entier q = n − p, où p est le nombre déléments de J laissés fixes par σ. Si q = n − p = 0 , alors σ = IJ = τ1,2 oτ1,2 . Supposons la propriété vraie pour n − p < q et soit σ ∈ Sn laissant fixes p = n − q éléments de J (p < n). Il existe i ∈ J tel que σ(i) = j 6= i et on a σ(j) 6= σ(i) = j. Soit σ 0 = τi,j oσ. les points de J laissés fixes par σ sont aussi laissés fixes par σ 0 et en outre, σ 0 laisse i fixe (σ 0 (i) = i). Par suite le nombre p0 de points de J laissés fixes par σ 0 vérifie p0 > p et donc n − p0 < n − p = q. D’après l’hypothèse de récurrence, σ 0 est un produit de transpositions et σ = τi,j oσ 0 est aussi un produit de transpositions. Exemple 7.3. µ ¶ 1 2 3 σ= ∈ S3 . σ = τ1,2 oτ2,3 . 2 3 1 Soit n ≥ 2 et σ ∈ Sn . Si 1 ≤ i < j ≤ n, on a σ(i) 6= σ(j) et donc σ(i) < σ(j) ou σ(i) > σ(j). Définition 7.4. Si i < j et σ(i) > σ(j), on dit que σ(i) et σ(j) présentent une inversion. Définition 7.5. Si Nσ désigne le nombre d’inversions de la suite (σ(1), . . . , σ(n)), on appelle signature de la permutation σ ∈ Sn , et on note ε(σ), le nombre ε(σ) = (−1)Nσ ∈ {1, −1}. σ est dite paire si ε(σ) = 1, et impaire si ε(σ) = −1 Remarque 7.3. On a aussi Y σ(j) − σ(i) ε(σ) = j−i 1≤i<j≤n En effet, puisque ε(σ) est une permutation de {1, . . . , n}, chaque expression j−i du dénominateur se trouve au signe prés au numérateur une fois exactement et le dénominateur ayant autant de facteurs que le numérateur. D’autre part, le nombre de signe - est égal au nombre d’inversions dans la suite (σ(1), . . . , σ(n)). Exemple 7.4. µ ¶ 1 2 3 4 5 σ= ∈ S5 . 5 1 4 3 2 Les inverssion de σ sont : 5 et 1, 5 et 4 , 5 et 3, 5 et 2, 4 et 3, 4 et 2, 3 et 2. Donc Nσ = 7 et ε(σ) = −1. σ est impaire. Proposition 7.6. Toute transposition est une permutation impaire Preuve. Soit τi,j avec i < j. µ ¶ 1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n σ = τi,j = ∈ Sn . 1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n On a Nσ j − i + (j − i − 1) = 2(j − i) − 1 = et ε(σ) = −1. Théorème 7.7. Soit n ≥ 1. Quelle que soient σ ∈ Sn et σ 0 ∈ Sn , on a ε(σoσ 0 ) = ε(σ)ε(σ 0 ) et ε(σ −1 ) = ε(σ) Preuve. Le cas n = 1 est évident. Soit n ≥ 2. On a : Y σoσ 0 (j) − σoσ 0 (i) Y σoσ 0 (j) − σoσ 0 (i) Y σ 0 (j) − σ 0 (i) ε(σoσ 0 ) = = j−i σ 0 (j) − σ 0 (i) j−i 1≤i<j≤n Q σoσ 0 (j)−σoσ 0 (i) 1≤i<j≤n Q 1≤i<j≤n Or, 1≤i<j≤n σ0 (j)−σ0 (i) = 1≤h<k≤n σ(k)−σ(h) et donc ε(σoσ 0 ) = ε(σ)ε(σ 0 ). k−h En appliquant le resultat précédent à σ 0 = σ −1 , on a 1 = ε(Id) = ε(σoσ 0 ) = ε(σ −1 ).ε(σ) et donc ε(σ −1 ) = ε(σ) 92 Corollaire 7.8. Pour n ≥ 2, σ ∈ Sn est paire si et seulement si σ est égale au produit d’un nombre pair de transpositions. Preuve. La preuve résulte du Théorème 1 et de la proposition précédente. 7.2 Formes miltilinéaires alternées Soit E un K-e.v. et n ∈ N∗ . On pose E n = E × . . . × E (n fois). Définition 7.9. On appelle forme n−linéaire (ou forme multilinéaire à n variables) sur E, une application f : E n −→ K telle que, pour chaque j, 1 ≤ j ≤ n, et pour toute suite (x1 , . . . , xj−1 , xj+1 , . . . , xn ) de n − 1 vecteurs de E, l’application fj : E −→ K définie par f (x1 , . . . , xj−1 , x, xj+1 , . . . , xn ) soit linéaire. Remarque 7.4. 1. Si n = 1, on retrouve la notion de forme linéaire. 2. Si n = 2 on a la notion de forme bilinéaire. 3. Si n = 3 on a la notion de forme trilinéaire, etc... Exemple 7.5. a. Soit E = C([0, 1], R) et soit l’application φ : E × E −→ R R1 (f, g) −→ f (x)g(x)dx 0 φ est une forme bilinéaire sur E. b. Soit E = Rp (p ∈ N∗ ) et f P : E 2 −→ R définie par si x = (x1 , . . . , xp ) ∈ E et y = (y1 , . . . , yp ) ∈ E, f (x, y) = pi=1 xi yi . f est une forme bilinéaire sur E. Définition 7.10. Pour n ≥ 2, une forme n−linéaire sur E est dite alternée, si pour toute suite (x1 , . . . , xn ) ∈ E n ayant deux vecteurs égaux xi et xj avec i 6= j, on a f (x1 , . . . , xn ) = 0. Exemple 7.6. Soit E = R2 et f : E 2 −→ R définie par si x = (x1 , x2 ) ∈ E et y = (y1 , y2 ) ∈ E, f (x, y) = x1 y2 − x2 y1 . f est une forme bilinéaire alternée sur E. Proposition 7.11. Soit f une forme n−linéaire alternée sur E, alors f est antisymétrique ; c’est à dire que pour toute suite (x1 , . . . , xn ) ∈ E n , f (x1 , . . . , xn ) est changé en son opposé quand on intervertit deux vecteurs xi et xj , i 6= j. Autrement dit, si τ = τi,j , on a f (xτ (1) , . . . , xτ (n) ) = −f (x1 , . . . , xn ). Preuve. On a f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xn ) = 0 car f est alternée. En développant par n−linéarité on a : f (x1 , . . . , xi , . . . , xi , . . . , xn ) + f (x1 , . . . , xi , . . . , xj , . . . , xn )+ f (x1 , . . . , xj , . . . , xi , . . . , xn ) + f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0 En utilisant encore le fait que f est alternée, on obtient : f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ). D’où f (xτ (1) , . . . , xτ (i) , . . . , xτ (j) , . . . , xτ (n) = −f (x1 , . . . , xi , . . . , xi , . . . , xn ), avec τ = τi,j . Théorème 7.12. Soit f une forme n−linéaire alternée sur E. Soit (x1 , . . . , xn ) une suite de n vecteurs de E. Si la suite (x1 , . . . , xn ) est liée, alors f (x1 , . . . , xn ) = 0. 93 Preuve. Soit (x1 , . . . , xn ) une suite liée. L’un P au moins des vecteurs xi est combinaison linéaire des autres vecteurs de la suite : xi = j6=i λj xj ; alors : f (x1 , . . . , xn ) = f (x1 , . . . , X λj xj , . . . , xn ) = j6=i X λj f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0 j6=i Corollaire 7.13. Soit f une forme n−linéaire alternée sur E. Soit (x1 , . . . , xn ) une suite de n vecteurs de E. On ne change pas la valeur de f (x1 , . . . , xn ) si l’on ajoute à l’un des vecteurs xi une combinaison linéaire des autres vecteurs de la suite. Théorème 7.14. Soit f une forme n−linéaire alternée, sur un K−e.v. E de dimension finie n. Soit (e1 , . . . , en ) une base de E. P 1. Soit (x1 , . . . , xn ) une suite de n vecteurs de E, xj = ni=1 ai,j ei , 1 ≤ j ≤ n. Alors à ! X f (x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n f (e1 , . . . , en ). σ∈Sn 2. Pour tout λ ∈ K, il existe une forme n−linéaire alternée sur E, et une seule, telle que f (e1 , . . . , en ) = λ. Preuve. Admis. 7.3 Déterminant d’une suite de vecteurs dans une base Définition 7.15. Soit E un K−e.v. de dimension finie n ≥ 1. Si B = (e1 , ..., en ) une base de E, l’unique forme n−linéaire alternée f sur E telle que f (e1 , ...en ) = 1 est appelée le déterminant dans la base B et noté détB . Soit (x1 , ..., xn ) une suite de n−vecteurs de E. Le scalaire P détB (x1 , ..., xn ) est appelé le déterminant de la suite (x1 , ..., xn ) dans la base B. 1 ≤ j ≤ n, Si xj = ni=1 ai,j ei , X detB (x1 , ..., xn ) = ε(σ)aσ(1),1 ...aσ(n),n σ∈Sn car détB (e1 , ..., en )=détB (B) = 1. Remarque 7.5. Si n = 1 B = (e1 ) ∀λ ∈ K détB (λe1 ) = λ. Proposition 7.16. Soit B = (e1 , ..., en ) et B0 = (e01 , ..., e0n ) deux bases de E. Alors : 1. Pour tout (x1 , ..., xn ) ∈ E n , detB (x1 , ..., xn ) = detB (B 0 )detB0 (x1 , ..., xn ). 2. detB0 (B)detB (B0 ) = 1 Preuve. 1. Soit α = detB (B0 ) et soit g : E n −→ K définie par : si (x1 , ..., xn ) ∈ E n , g(x1 , ..., xn ) = αdetB0 (x1 , ...xn ). g est une forme n-linéaire alternée sur E et de plus g(B 0 ) = α. De même detB est une forme n-linéaire alternée sur E et detB (B0 ) = α. D’après le théorème 7.14 : g = detB . 2. D’après 1.) on a ∀(x1 , ..., xn ) ∈ E n detB = detB (B0 )detB0 (x1 , ..., xn ) pour (x1 , ..., xn ) = B = (e1 , ..., en ), on a 1 = detB (B) = detB (B 0 )detB0 (B). 94 7.4 Déterminant d’une matrice carrée Définition 7.17. Soit A = ai,j ∈ M(K). On appelle déterminant de A et on note det(A), le determinant de la suite (C1 , ..., Cn ) de ses vecteurs colonnes dans la base canonique de Kn . Le déterminant de A = ai,j ∈ M(K) est aussi noté : ¯ ¯ ¯ a1,1 a1,2 . . . a1,n ¯ ¯ ¯ ¯ a2,1 a2,2 . . . a2,n ¯ ¯ ¯ ou encore |ai,j |. ¯ .. .. .. .. ¯ ¯ . . . . ¯¯ ¯ ¯ an,1 an,2 . . . an,n ¯ P On a donc detA = σ∈Sn ε(σ)aσ(1),1 ...aσ(n),n . Exemple 7.7. 1. Soit I la matrice unité d’ordre n, ses vecteurs colonnes sont les vecteurs de la base canonique de Kn , donc µdetIn = det(e¶1 , ..., en ) = 1. a1,1 a1,2 2. Si n = 2 donc A est de la forme A = et S2 = {id, τ1,2 }. a2,1 a2,2 det(A) = a1,1 a2,2 − a1,2 a2,1 . a13 a23 et S3 = {id, τ1,2 , τ1,3 , τ2,3 , τ1 , τ2 } avec a33 a11 a12 3. Si n = 3, A = a21 a22 a31 a32 µ σ1 = 1 2 3 2 3 1 ¶ µ et σ2 = 1 2 3 3 1 2 ¶ ε(σ1 ) = ε(σ2 ) = 1. det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a21 a12 a33 − a31 a22 a13 a11 a32 a23 . 4. Déterminant d’une matrice triangulaire : soit A = (ai,j ) ∈ M(K) une matrice triangulaire supérieure (resp. inférieure) det(A) = a11 ...ann = n Y aii . i=1 Voir série d’exercice N o .8. 7.5 Propriétés et calcul des déterminants Soit A = (ai , j) ∈ M(K) et ∆ = |ai,j | = detA, on pose C1 , ..., Cn les colonnes de A. Théorème 7.18. On a les résultats suivants : 1. ∆ = detB (C1 , ..., Cn ) dépend linéairement de chaque Ci . (B base canonique de Kn ) 2. Si Ci = Cj avec i 6= j, alors ∆ = 0. 3. Si σ ∈ Sn , detB (Cσ(1) , ..., Cσ(n) ) = ε(σ)∆. 4. On ne modifie pas la valeur de ∆ en ajoutant à une colonne une combinaison linéaire des autres colonnes. Preuve. Le théorème 7.18 découle du fait que le déterminant est une forme multiléaire alternée. Corollaire 7.19. Soit A = ai,j ∈ M(K) et λ ∈ K ; on a det(λA) = λn detA Théorème 7.20. Le déterminant d’une matrice carrée est égal au déterminant de sa matrice transposée. 95 Preuve. Soit A = (ai , j) ∈ M(K). On a At = (bi,j ) avec bi,j = aj,i , 1 ≤ i ≤ n, 1 ≤ j ≤ n, et X detAt = ε(σ)bσ(1),1 ...bσ(n),n . σ∈Sn Or ε(σ)bσ(1),1 ...bσ(n),n = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) (car ε(σ) = ε(σ 0 ) et si i = σ(j) on a j = σ −1 (i).) Ainsi : X X detAt = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) = ε(σ −1 )aσ−1 (1),1 ...aσ−1 (n),n . σ∈Sn σ∈Sn L’application ϕ : Sn −→ sn définie par ϕ(σ) == σ −1 est une bijection, donc X detAt = ε(ρ)aρ(1),1 ...aρ(n),n = detA. ρ∈Sn Remarque 7.6. Les résultats du théorème 7.18 s’étendent aux lignes de la matrice A. Définition 7.21. Soit A = (ai,j ) ∈ M(K)n ≥ 2 et le déterminant ∆ = detA = |ai,j |. On appelle mineur du coefficient ai,j le déterminant ∆i,j de la matrice Ai,j obtenue en supprimant, dans A, la ième ligne et la jème colonne. Théorème 7.22. Soit ∆ = |ai,j | un déterminant d’ordre n ≥ n, à coefficients dans K, et ∆i,j le mineur de ai,j , 1 ≤ i ≤ n, 1 ≤ j ≤ n. P 1. Quel que soit l’indice j, 1 ≤ j ≤ n, on a ∆ = ni=1 (−1)i+j ∆i,j ai,j (c’est le développement de ∆ par rapport à la jème colonne). P 2. Quel que soit l’indice i, 1 ≤ i ≤ n, on a ∆ = nj=1 (−1)i+j ∆i,j ai,j (c’est le développement de ∆ par rapport à la ième ligne). Preuve. D’après le théorème 7.20 il suffit de prouver le premier point. Soit B = (e1 , ..., en ) la base canonique de Kn . P Première étape : Soit v1 , ..., vn−1 , n−1 vecteurs de Kn avec vj = ni=1 bi,j ei , 1 ≤ j ≤ n−1. Posons bn,n = 1 et bi,n = 0 pour 1 ≤ i ≤ n − 1, (b1,n , ..., bn,n sont les coordonnées du vecteur en de la base B). On a X detB (v1 , ..., vn−1 , en ) = ε(σ)bσ(1),1 ...bσ(n),n . σ∈Sn Si σ(n) 6= n, on a bσ(n),n = 0. Si σ(n) = n, la restriction de σ à {1, ..., n − 1} est un élément σ 0 de Sn−1 et on a : ε(σ)bσ(1),1 ...bσ(n),n = ε(σ 0 )bσ0 (1),1 ...bσ0 (n−1),n−1 . Enfin, tout σ 0 ∈ Sn−1 est la restriction à {1,...,n-1} d’un seul σ ∈ Sn , et d’un seul, tel que σ(n) = n. On a donc X detB (v1 , v2 , ...., vn−1 , en ) = ε(σ 0 )bσ0 (1),1 ...bσ0 (n−1),n−1 . σ∈Sn−1 a1,k Deuxième étape : Soit C1 , C2 , ..., Cn les vecteurs colonnes de la matrice A : ck = ... an,k pour 1 ≤ k ≤ n. 96 On a : det(A) = det(C1 , . . . , n X ai,j ei , . . . , Cn ) = i=1 n X ai,j detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . Cn ). i=1 Or on a par échange de colonnes. detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . Cn ) = (−1)n − jdetB (C1 , . . . , Cj−1 , Cj+1 , . . . Cn , ei ), par suite, par échange de la ième ligne et de la nème, on obtient : 0 0 detB (C1 , . . . , Cj−1 , Cj+1 , . . . Cn , ei ) = (−1)n−i detB (C10 , . . . , Cj−1 , Cj+1 , . . . Cn0 , en ), où a1,k .. . ai−1,k Ck0 = ai−1,k , .. . an,k ai,k 1 ≤ k ≤ n, k 6= j. Donc : 0 0 detB (C1 , ..., Cj−1 , ei , Cj+1 , ..., Cn ) = (−1)n−j+n−i detB (C10 , ..., Cj−1 , Cj+1 , ..., Cn0 , en ) D’une part, on a (−1)n−j+n−i = (−1)i+j , d’autre part, en appliquant l’étape 1) à la suite (v1 , ...vn−1 = (C10 , ..., Cn−1 ), nous obtenons : detB (C1 , ..., Cj−1 , ei , Cj+1 , ..., Cn ) = (−1)i+j ∆i,j . D’où finalement : detA = n X (−1)i+j ai,j ∆i,j . i=1 7.6 Applications des déterminants 7.6.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension n Théorème 7.23. Soit E un K- e.v. de dimension finie n ≥ 1 et B = (e1 , e2 , ..., en ) une base de E. Pour que la suite (x1 , ..., xn ) ∈ E n soit libre, il faut et il suffit que detB (x1 , ..., xn ) 6= 0. Preuve. C.S. Supposons que (x1 , ..., xn ) soit liée, alors, puisque detB est une forme multilinéaire alérnée, on a (d’après section I) detB (x1 , ..., xn ) = 0. C.N. La suite (x1 , ..., xn ) est libre dans E et contient n vecteurs, donc c’est une base de E qu’on note B 0 . D’après la proposition 7.16 detB0 (B).detB (B 0 ) = 1. Donc detB (B0 ) = detB (x1 , ..., xn ) 6= 0. Corollaire 7.24. Si A ∈ Mn (K), on a rg(A) = n ⇐⇒ detA 6= 0. 97 7.6.2 Déterminant d’un endomorphisme Théorème 7.25. et Définition Soit E un K−espace vectoriel de dimension n ≥ 1. Soit ϕ ∈ L(E). Il existe une constante Cϕ ∈ K, et une seule, telle que pour toute base B = (e1 , ..., en ) de E et toute suite (x1 , ..., xn ) ∈ E n , on ait detB (ϕ(x1 ), ..., ϕ(xn )) = Cϕ detB (x1 , ..., xn ). La constante Cϕ est appelée le déterminant de l’endomorphisme ϕ et se note detϕ. Preuve. Unicité : Soit Cϕ et Cϕ0 ∈ K telles que pour toute suite (x1 , ..., xn ) ∈ E n , on ait detB (ϕ(x1 , ..., xn )) = Cϕ detB (x1 , ..., xn ) = Cϕ0 detB (x1 , ..., xn ). En particulier pour (x1 , ..., xn ) = (e1 , ..., en ), on a detB (ϕ(e1 , ..., en )) = Cϕ detB (e1 , ..., en ) = Cϕ0 detB (e1 , ..., en ) = Cϕ = Cϕ0 . D’où l’unicité. Existence : Soit B = (e1 , e2 , ..., en ) une base fixée dans E. Posons α = detB (ϕ(e1 ), ..., ϕ(en )). Soit f et g deux applications de E n dans K définies par : f (x1 , ..., xn ) = detB (x1 , ..., xn ) = detB (ϕ(x1 , ..., ϕ(xn ))) et g(x1 , ...xn ) = αdetB (x1 , ..., xn ). f et g sont deux formes multilinéiares alternées. De plus, f (e1 , ..., en ) = detB (ϕ(e1 ), ..., ϕ(en )) = α, et g(e1 , ..., en )) = αdetB (e1 , ..., en ) = α D’après le théorème 7.14 on a f = g. Donc : ∀(x1 , ..., xn ) ∈ E n , detB (ϕ(x1 ), ..., ϕ(xn )) = αdetB (x1 , ..., xn ). On prend Cϕ = α. Indépendance de la base de E : Soit B 0 une base quelconque de E. D’après la proposition 7.16, on a : detB (ϕ(x1 ), ..., ϕ(xn )) = detB (B0 )detB0 (ϕ(x1 ), ..., ϕ(xn )) et detB (ϕ(x1 ), ..., ϕ(xn )) = αdetB (x1 , ..., xn ) = αdetB (B0 )detB0 (x1 , ..., xn ). En simplifiant par detB (B 0 ) 6= 0. On obtient : detB0 (ϕ(x1 ), ..., ϕ(xn )) = αdetB0 (x1 , ..., xn ). Ce qui termine la preuve. 98 Remarque 7.7. 1. Le déterminant d’un endomorphisme ne dépend pas de la base de E. 2. Soit E un K−e.v. de dimension n et ϕ ∈ L(E). Si B = (e1 , ..., en ) est une base de E et si A est la matrice de ϕ dans la base B, on a detϕ = detB (ϕ(e1 ), ..., ϕ(en )) = detA. Théorème 7.26. Soit E un K−e.v. de dimension n ≥ 1. 1. Si ϕ ∈ L(E) et ψ ∈ L(E), alors det(ϕoψ) = detϕ.detψ 2. Soit ϕ ∈ L(E), on a : ϕ est un automorphisme de E ssi detϕ 6= 0. 1 Si ϕ ∈ L(E) est un automorphisme de E, alors : detϕ−1 = detϕ . Preuve. 1. detϕoψ = detB (ϕoψ(e1 ), ..., ϕoψ(en )) detB (ϕ(ψ(e1 )), ..., ϕ(ψ(en ))) = detϕdetB (ψ(e1 ), ..., ψ(en )) = detϕ .detψ. 2. Soit ϕ ∈ L(E) un automorphisme de E. Donc (ϕ(e1 ), ..., ϕ(en )) est une base de E. Par suite, detB (ϕ(e1 ), ..., ϕ(en )) 6= 0. ϕ ∈ L(E) automorphisme de E ⇐⇒ det(ϕoϕ−1 ) = detϕ.detϕ−1 = detIE = 1. Donc 1 detϕ−1 = detϕ Corollaire 7.27. 1. Soit A ∈ Mn (K) et B ∈ Mn (K), on a : det(AB) = detA.detB. 2. Soit A ∈ Mn (K), A est inversible ssi detA 6= 0. 1 . Si A ∈ Mn (K) est inversible, alors detA−1 = detA 7.6.3 Calcul de l’inverse d’une matrice carrée inversible Définition 7.28. Soient A = (ai,j ) ∈ Mn (K) , ∆i,j le mineur de ai,j et bi,j = (−1)i+j ∆i,j le cofacteur de ai,j , 1 ≤ i ≤ n , 1 ≤ j ≤ n. La matrice B = (bi,j ) ∈ Mn (K) est appelée la comatrice de A et on note B = comA. Théorème 7.29. Soit A(ai,j ) ∈ Mn (K) et B sa comatrice. 1. On a B t .A = A.B t = (detA).In . 1 2. Si A est inversible : A−1 = detA Bt. Preuve. Voir TD. 7.6.4 Calcul du rang d’une matrice Définition 7.30. A = (ai,j ) ∈ Mp,n (K) et soit k un entier tel que 1 ≤ k ≤ inf {p, n}. On appelle déterminant d’ordre k extrait de A, le déterminant de toute matrice carrée obtenue en supprimant dans A, p − k lignes et n − k colonnes, c’est à dire tout déterminant de la forme : ¯ ¯ ¯ ai1 ,j1 ai1 ,j2 . . . ai1 ,j ¯ k ¯ ¯ ¯ ai ,j ai ,j . . . ai ,j ¯ 2 2 2 k ¯ ¯ 2 1 ¯ .. .. .. .. ¯ ¯ . . . . ¯¯ ¯ ¯ ai ,j ai ,j . . . ai ,j ¯ k 1 k 2 k k où 1 ≤ i1 < i2 < ... < ik ≤ p et 1 ≤ j1 < j2 < ... < jk ≤ n. 99 Théorème 7.31. Soit A = (ai,j ) ∈ Mp,n (K) et soit ρ le plus grand entier k ≤ inf {p, n} tel qu’il existe un déterminant non nul, d’ordre k, extrait de A. Alors rg(A) = ρ. Preuve. Laissée en exercice. ............................................................................. 100 7.7 Exercices Exercice 1. On note ε(σ) la signature de σ ∈ Sn (n ∈ N∗ ). 1) Montrer que ε(Id) = 1. 2) Montrer que pour toute transposition τ ∈ Sn , ε(τ ) = −1. 3)Calculer explicitement ε(σ) pour µ σ de S2¶. 1 2 3 4) Soit σ ∈ S3 définie par σ = . Montrer que σ peut s’écrire comme la composé 2 3 1 de deux tranposition bien choisies. En déduire ε(σ). 5) calculer σoσ pour σ de 4) et calculer ε(σoσ). En déduire explicitement ε(σ) pour toute σ de S3 . Exercice 2. Soit E un K-espace vectoriel, f une forme trilinéaire altérnée sur E, et e1 , e2 , e3 trois vecteurs de E. Calculer f (2e1 − 3e2 , e2 + 2e3 , e1 − 2e2 + 4e3 ) , en fonction de f (e1 , e2 , e3 ). Exercice 3. 1) Calculer le déterminant à coefficients réels ¯ ¯ ¯ 2 3 1 ¯ ¯ ¯ ¯ 2 7 8 ¯. ¯ ¯ ¯ 5 5 0 ¯ 2) Soit E un K−espace vectoriel de dimension 3. B = (e1 , e2 , e3 ) une base de E, (a, b, c) ∈ K3 et les vecteurs x = ae1 + be2 + ce3 , y = be1 + ce2 + ae3 , z = ce1 + ae2 + be3 . Calculer detB (x, y, z). 3) Soient B et B0 deux bases d’un K−espace vectoriel E de dimension finie ≥ 1, et soit P la matrice de passage de B à B 0 . Montrer que detB (B 0 ) = det(P ) Exercice 4. Soit f une forme linéaire sur l’espace vectoriel produit E × E. 1) Démontrer que si f est aussi une forme bilinéaire sur E, Alors f est nulle. 2) Soit ϕ et ψ deux formes linéaires sur E, et soit l’application g : E × E −→ K définie par g(x, y) = ϕ(x)ψ(y), pour tout (x, y) ∈ E × E. Vérifier que g est une forme bilinéaire sur E. Dans quels cas est-elle altérnée ? Exercice 5. Soit A = (ai,j ) ∈ Mn (R) telle que ai,j = 0 pour i > j. 1) Montrer que det(A) = a1,1 a2,2 ...an,n = n Y ai,i . i=1 2) Déduire que si B = bi,j ∈ Mn (R) telle que bi,j = 0 pour i < j, alors : det(B) = b1,1 b2,2 ...bn,n = n Y i=1 Exercice 6. 101 bi,i . Montrer que si (a, b, c) ∈ R3 , ¯ ¯ 1 1 1 ¯ ¯ a b c ¯ ¯ b+c c+a a+b ¯ ¯ ¯ ¯ = 0. ¯ ¯ Exercice 7. 1) Calculer le déterminant, pour tout n ∈ N∗ . ¯ ¯ a a a ... a ¯ ¯ a a + x1 a ... . ¯ ¯ a a a + x ... . 2 ¯ . . . . ∆n+1 (x1 , x2 , ..., xn ) = ¯¯ . ¯ . . . . . ¯ ¯ . . . . . ¯ ¯ a ... . . a + xn 2)Etablir l’égalité : ¯ ¯ a + x1 a ... a ¯ ¯ a a + x ... . 2 ¯ ¯ . . ¯ ¯ . . ¯ ¯ . . ¯ ¯ a ... ... a + xn Exercice 8. En utilisant des déterminants extraits, a A= a −b ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ = x1 x2 ...xn (1 + a + ... + a ). ¯ x1 xn ¯ ¯ ¯ ¯ trouver le rang de la matrice : b a 1 2b 3a 2 ∈ M3,4 (R). −a 2b b Exercice 9. 1 −1 1 1) Soit B = 1 −1 −1 . Montrer que B est inversible et calculer B −1 . −1 −1 −1 2) Soit a un nombre réel, calculer l’inverse de la matrice : µ ¶ cosa −sina C= . sina cosa Exercice 10. On considère les endomorphisme fa de R4 , dépendant d’un paramètre réel a, dont les matrices Aa dans la base canonique sont données par : 1 a 1 a a 1 a 1 Aa = 1 a 1 a ∈ M4 (R). a 1 a 1 1) Quel est le rang de Aa et de fa ? (Discuter suivant les valeurs de a). En déduire le déterminant de Aa . 102 Exercice 11. −m 0 1 On considère les matrices Am = 2 m 1 ∈ M3 (R). 1 1 2 1) Calculer le déterminant de Am . Déduire le rang de Am . 2) Si fm est l’endomorphisme de matrice Am dans une base de E ; pour quelles valeurs de −1 . m, fm est-il un automorphisme ? déterminer dans ce cas la matrice de fm Exercice 12. Soit a, b, c des réels non nuls, deux à deux distincts. En utilisant les formules de Cramer, résoudrele système : a x+y+z = ax + by + cz = ab x y z 1 a + b + c Exercice 13. Soit n un élément de N∗ , supérieur ou égal 2. Soient a1 , ..., an n éléments de R , Calculer le déterminant de Vandermonde : ¯ ¯ ¯ 1 a1 a21 ... a1n−1 ¯ ¯ ¯ ¯ 1 a2 a22 ... an−1 ¯ 2 ¯ ¯ ¯ . . ¯ . . . ¯ Vn = V (a1 , ..., an ) = ¯¯ . . . ¯¯ ¯ . . ¯ . . . . . ¯¯ ¯ ¯ 1 a a2 ... an−1 ¯ n n n Q (Indication : montrer par recurrence sur l’entier n que V (a1 , ..., an ) = 1≤i<j≤n (aj − ai )). Exercice 14. Soit s une permutation de {1, 2, ..., n} où n ∈ N∗ . Soit u l’endomorphisme de Rn défini par : u(ei ) = es(i) où B = {ei /1 ≤ i ≤ n} est la base canonique de R. 1. Calculer det(u). 2. Montrer que u est inversible et déterminer det(u−1 ). 103 Chapitre 8 RÉDUCTION DES ENDOMORPHISMES 8.1 Introduction Soit E un K− espace vectoriel et f un endomorphisme de E. Dans ce chapitre, l’objectif est de chercher des bases de E dans lesquelles la matrice de l’endomorphisme f soit la plus simple possible comme par exemple une matrice diagonale. Le problème consiste à : 1- Caractériser les endomorphismes diagonalisables 2- Déterminer, si elles existent, les bases dans lesquelles la matrice de f est diagonale. Remarque 8.1. L’intérêt de travailler avec des matrices diagonales est la réalisation possible de certains calculs comme par exemple : dét Mf , Mfk , k ∈ N, etc... 8.2 Vecteurs propres et valeurs propres d’un endomorphismes : Définition 8.1. Soient E un K − e.v. quelconque et f ∈ Lk (E). On dit que λ ∈ K est une valeur propre de f , s’il existe x ∈ E avec x 6= 0, tel que f (x) = λ.x. Dans ce cas x s’appelle un vecteur propre associé à la valeur propre λ. Remarque : 1. Le scalaire λ (qui dépend de x) est unique ; en effet, f (x) = λx = λ0 x, implique (λ − λ0 )x = 0 et donc, puisque x 6= 0, λ = λ0 . 2. Si λ ∈ K est une valeur propre de f , un vecteur propre associé à λ n’est pas unique. En effet, si x est un vecteur propre associé à λ, et si α ∈ K, α 6= 0, αx est aussi vecteur propre associé à λ. car f (αx) = αf (x) = αλx = λ(αx). Proposition 8.2. λ ∈ K est une valeur propre de f si, et seulement si Ker(f − λId) 6= {0}. Autrement dit (f − λId) n’est pas injective. Preuve. λ ∈ K est une valeur propre ⇐⇒ ∃x 6= 0 tel que f (x) = λx ⇐⇒ f (x) − λId(x) = 0 ⇐⇒ x ∈ Ker(f − λId) ⇐⇒ Ker(f − λId) 6= {0}. 104 Définition 8.3. Si λ ∈ K est une valeur propre de f , Ker(f − λId) est appelé le sous-espace propre de f associé à la valeur propre λ. On note Eλ = Ker(f − λId). Exemple Soit E = C[x] et f ∈ Lk (E) définie par : f: C[x] −→ C[x] . P −→ P 0 Montrons que λ = 0 est la seule valeur propre de f et déterminons E0 . Si P ∈ C, P 6= 0, on a P 0 = 0 et f (P ) = 0 ; donc λ = 0 est valeur propre de f . De plus f (P ) = 0 implique P ∈ C. Donc Ker(f ) = C. Si λ 6= 0 et P 6= 0, on a λP 6= 0. On a do (λP ) = do P . Or P 0 = 0 ou do P = do P − 1. Donc f (P ) 6= λP . La seule valeur propre de f est donc λ = 0 et le sous espace propre associé à la valeur propre λ = 0 est Ker(f ) = C. Dans toute la suite E est un K- e.v. de dimension finie. Proposition 8.4. Soient f un endomorphisme de Eet λ1 , λ2 , ..., et λm des valeurs propres deux à deux distinctes de f . Alors la somme Eλ1 + Eλ2 + ... + Eλm est direte. Preuve. A ecrire........... 8.2.1 Calcul des valeurs propres. Polynôme caractéristique Définition 8.5. On appelle polynôme caractéristique de l’endomorphisme f , et on note Pf (X) (ou Pf ), le polynôme Pf (X) = det(f − λId) = det(A − λIn ), où A est la matrice de f dans une base quelconque de E. Proposition 8.6. λ ∈ K une valeur propre de f si, et seulemnt si det(f − λId) = 0. Preuve. D’après la proposition 8.2, λ ∈ K est valeur propre de f si et seulement si l’endomorphisme f − λId n’est pas injectif, ce qui équivaut, E étant de dimension finie, à f − λId n’est pas automorphisme. Cette dernière condition équivaut à det(f − λId) = 0. Théorème 8.7. Soit f un endomorphisme d’un K-e.v. E de dimension finie. Les valeurs propres de f sont les racines, dans K, du polynôme caractéristique Pf . Preuve. Si A est la matrice de f dans une base B et si λ ∈ K, on a det(f − λId) = det(A − λIn ) = Pf (λ). D’après la proposition 8.6, λ est valeur propre de f si et seulement si Pf (λ) = 0. Définition 8.8. Si λ est racine , dans K, du polynôme caractéristique Pf (X), de multiplicité α ≥ 1, l’entier α est appelé la multiplicité de la valeur propre λ. - Si α = 1, la valeur propre λ est dite simple ; - si α = 2, la valeur propre λ est dite double, etc... Remarque : 1. Le polynôme caractéristique de l’endomorphisme f est un polynôme à coefficients dans K, de degré n = dimE (voir EX.1 série N o 9) 105 2. Il résulte de la remarque précédente et des propriétés des polynômes que l’endomorphisme f admet au plus n valeurs propres distinctes, et s’il admet des valeurs propres multiples, la somme de leurs multiplicités est inférieure ou égale à n. 3. Si K = C, l’endomorphisme f admet, d’après le théorème de d’Alembert, au moins une valeur propre. D’après le théorème de factorisation dans C[X], on a : Pf (X) = (λ1 − X)α1 ...(λp − X)αp , où les λi sont des nombres complexes deux à deux distinctes et les αi des entiers supérieurs ou égaux à 1. les valeurs propres de f sont λ1 ...λp , de multiplicités α1 ...αp , et on a α1 + ... + αp = do Pf (X) = n = dimE Attention : Ceci est faux si K = Q ou R. Si E est un (Q ou R)-espace vectoriel de dimension finie n ≥ 2, f n’admet pas nécessairement de valeur propre. Exemple : Soit f l’endomorphisme du R-espace vectriel R2 , dont la matrice dans la base canonique est : µ ¶ 0 −1 A= . 1 0 On a : ¯ ¯ −X −1 Pf (X) = det(A − XI2 ) = ¯¯ 1 −X ¯ ¯ ¯ = X 2 + 1. ¯ f n’admet pas de valeur propre. Considérons l’endomorphisme g du C-espace vectoriel C2 dont la matrice dans la base canonique est cette même matrice A. On a Pg (X) = X 2 + 1 = (X − i)(X + i) et g admet les valeurs propres simples i et −i. Remarque : Une fois les valeurs propres calculées, on détermine les vecteurs propres en résolvant le système linéaire homogène suivant : x1 0 .. .. (A − λIn ) . = . . xn 0 où (x1 , . . . , xn ) est un vecteur propre associé à la valeur propre λ. En effet, X v. p. ⇐⇒ X 6= 0 et X ∈ ker(A − λIn ). Exemple : −4 0 −2 Soit la matrice A = 0 1 0 . 5 1 3 Cherchons les valeurs propres de A. ¯ ¯ ¯ −4 − λ 0 −2 ¯¯ ¯ 0 1−λ 0 ¯¯ det(A − λId) = ¯¯ ¯ 5 1 3−λ ¯ = (−4 − λ)(1 − λ)(3 − λ) + 10(1 − λ) = (λ − 1)2 (λ + 2). 106 On a deux valeurs propres λ = 1 qui est une valeur propre double et λ = −2 une valeur propre simple. Touvons l’ensemble des vecteurs propre de A. Cela revient à résoudre le système linéaire x1 (A − λI)X = 0 où x = ... xn Pour λ = 1, cherchons E1 : ½ −5x + 0y − 2z = 0 y=0 0x + 0y + 0z = 0 ⇐⇒ (A − I)X = 0 ⇐⇒ 5x + y + 2z = 0 5x + y + 2z = 0 Donc E1 = {(x, 0, −5 −5 x)/x ∈ R} = {x(1, 0, )}. 2 2 V1 = (1, 0, −5 2 ) engendre E1 donc dimE1 = 1. Pour λ = −2, cherchons E−2 : ½ −2x − 2z = 0 y=0 3y = 0 (A + 2I)x = 0 ⇐⇒ ⇐⇒ x+z =0 5x + y + 5z = 0 Donc E2 = {(x, 0, −x)/x ∈ R} = {x(1, 0, 1)/x ∈ R}. V2 = (1, 0, 1) engendre E−2 , donc dimE−2 = 1. 8.2.2 Sous-espaces propres Théorème 8.9. : Soit f un endomorphisme d’un K-espace vectoriel E de dimension n ≥ 1 et soit A la matrice de f dans une base B de E. Alors dimK Eλ = dim ker(f − λI) = n − r où r désigne le rang de la matrice (A − λIn). Démonstration : On a d’après le théorème noyau-image : dim Ker(f − λI) = n − dim Im(f − λI) = n − rg(f − λI) = n − rg(A − λIn ) = n − r Théorème 8.10. : Soit f un endomorphisme d’un K-espace vectoriel de dimension finie n ≥ 1, et soit λ une valeur propre de f , de multiplicité α. Alors, on a : dimK Eλ ≤ α Démonstration : On a λ est racine de multiplicité α de Pf , donc il existe Q ∈ K[X] tel que : Pf (X) = (X − λ)α Q(X) et Q(λ) 6= 0. Soit p = dimK Eλ . ∗ Montrons que Eλ est stable par f (i.e. f (Eλ ) ⊆ Eλ ). Soit y = f (x), où x ∈ Eλ donc f (y) = f (f (x)) = f (λx) = λf (x) = λy, donc y ∈ Eλ . Soit g la restriction de f à Eλ i.e. g = f /Eλ , alors g ∈ LK (Eλ ). Soit (e1 , . . . , ep ) une base de Eλ . On a ∀x ∈ Eλ f (x) = λx. 107 D’où M at(g, (e1 , ..., ep )) = λ 0 .. . 0 λ λ − X 0 ... 0 .. . . .. .. 0 . Donc Pg (x) = .. .. .. . . . 0 0 ... 0 λ − X On sait d’après T.D. que Pg /Pf par suite, = (−1)p (x − λ)p (X − λ)p /(X − λ)α .Q Q(λ) 6= 0, donc Q et (X − λ)p sont premiers entre eux, donc d’après le théorème de Gauss (X − λ)p divise (X − λ)α et par suite p ≤ α. Corollaire : Soit f un endomorphisme d’un K-espace vectoriel de dimension finie. Si λ est valeur propre simple de f , on a dim Eλ = 1. 8.3 Diagonalisation On suppose que E est un K-espace vectoriel de dimension finie n ≥ 1. 8.4 Généralités Définition 8.11. Soit f un endomorphisme de E. On dit que f est diagonalisable s’il existe une base de E dans laquelle la matrice de f est diagonale. Proposition 8.12. Pour que f soit diagonalisable, il faut et il suffit qu’il existe une base de E constituée de vecteurs propres de f . Alors la matrice de f dans une telle base est une matrice diagonale dont les coefficients diagonaux sont les valeurs propres de f , chacune étant écrite un nombre de fois égal à sa multiplicité. Démonstration. Si f est diagonalisable, soit B 0 = (e01 , . . . , e0n ) une base de E dans laquelle la matrice D de f est diagonale : µ1 0 . . . 0 . 0 . . . . . . .. , µi ∈ K, 1 ≤ i ≤ n. D= . . . . . . . . . 0 0 . . . 0 µn Alors, pour 1 ≤ i ≤ n, on a f (e0i ) = µi e0i , et e0i , qui non nul, est un vecteur propre de f associé à la valeur propre µi . On a Pf (X) = det(D − XIn ) = (µ1 − X)...(µn − X), et les coefficients µi sont les valeurs propres de f . En groupant les facteurs du premier degré égaux, on a Pf (X) = (λ1 − X)α1 ...(λp − X)αp . Réciproquement, s’il existe une base B0 = (e01 , . . . , e0n ) de E constituée de vecteurs propres de f , on a f (e0i ) = µi e0i , 1 ≤ i ≤ n, et la matrice de f dans la base B0 est la matrice diagonale 108 ci-dessus. Définition 8.13. Soit A ∈ Mn (K). On dit que A est diagonalisable sur K, si elle est semblable, dans Mn (K), à une matrice diagonale, c’est-à-dire s’il existe une matrice P ∈ Mn (K), inversible, telle que la matrice P −1 AP soit diagonale. 8.5 Caractérisation des endomorphismes diagonalisables Théorème 8.14. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie n ≥ 1, admettant des valeurs propres. Soit λ1 , ..., λp , toutes les valeurs propres distinctes de f , et soit Ei = Ker(f − λi I) le sous-espace propre associé à la valeur propre λi . Alors les assertions suivantes sont équivalentes : (a) P f est diagonalisable ; p (b) dim Ei = n(= dim E) ; i=1L (c) E = pi=1 Ei . Démonstration. P L Posons F = pi=1PEi . D’après la proposition 8.4, F = pi=1 Ei . D’après le théorème ? du chapitre ?, dim F = pi=1 dim Ei et si Bi0 est une base de Ei , 1 ≤ i ≤ p, (B0 , ..., Bp0 ) est une base de F . (a) =⇒ (b). f étant diagonalisable, soit B 0 = (e01 , ..., e0n ) une base de E constituée de vecteurs propres de f . Pour 1 ≤ j ≤ n, on a e0j ∈ ∪pi=1 Ei ⊂ F d’où E ⊂ F et E = F . Alors : p X dim Ei = dim F = dim E = n Pp i=1 L (b) =⇒ (c). i=1 dim Ei = n implique dim F = dim E et donc E = F = pi=1 Ei . (c) =⇒ (a). Bi0 étant une base de Ei , 1 ≤ i ≤ p, B 0 = (B10 , ..., Bp0 ) est une base de E = F et c’est une base de E constituée de vecteurs propres de f . Donc f est diagonalisable. corollaire. Si f admet n valeurs propres distinctes, où dim E = n, alors f est diagonalisable. Démonstration. On a d’après le corollaire, dim Ei = 1, Donc p X 1≤i≤n dim Ei = n i=1 Par suite f est diagonalisable. Remarque 8.2. Ce corollaire donne une condition suffisante pour qu’un endomorphisme soit diagonalisable. Cette condition n’est pas nécessaire comme le montre l’exemple suivante : soit l’homothétie vectorielle f : x −→ λx ; f est diagonalisable, sa matrice dans n’importe quelle base étant λIn . Cependant, Pf (X) = det(λIn − XIn ) = (λ − X)n et λ est valeur propre de f de multiplicité n. Théorème 8.15. Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E). Pour que f soit diagonalisable il faut et il suffit : 109 (1) Pf est scindé sur K i.e. Pf (X) = (λ1 − X)α1 ....(λp − X)αp , où les λi sont des éléments ( deux à deux disticts) de K. (2) dimK Eλ i = αi , 1 ≤ i ≤ p. Preuve. Voir Exercice 5. Pratique de la diagonalisation Pour diagonaliser une matrice ou un endomorphisme, on procède comme suit : A- Recherche des valeurs propres On calcule Pf (X) = dét (f − XId) puis on cherche les racines de ce polynôme. Ce sont les valeurs propres. Pour une matrice A, on calcule dét(A − XIn ). On essayera, autant que possible, de calculer Pf en factorisant dét (A − XIn ) ; si Pf ne vérifie pas la condition (1) du théorème 5, i.e. Pf n’est pas scindé sur K, alors f n’est pas diagonalisable. B- Recherche des sous-espaces propres Supposons que Pf est scindé sur K. Pour chaque valeur propre λ trouvée, on résout le système (A − λIn )V = 0. La résolution, faite par une méthode ou une autre, nous donne l’ensemble des vecteurs V solutions et nous donne ainsi une base du sous-espace propre Eλ associà λ. On détermine la dimension de chaque sous-espace propre Eλ = ker(f − λId). On a dimEλ = n − rg(A − λIn ). Alors, si la condition (2) du théorème 5 est également réalisée, f est diagonalisable. On se place dans ce cas pour la suite. Diagonaliser f , c’est trouver une base B 0 de E dans laquelle la matrice de f est diagonalisable. C- Recherche d’une base de vecteurs propres Dans chaque Eλ i , on détermine une base Bi0 pour 1 ≤ i ≤ p ; alors, puisque E = ⊕pi=1 Eλ i , B0 = (B10 , ..., Bp0 ) est une base constituée de vecteurs propres de f et dans cette base B 0 , la matrice de f une matrice diagonale D. ♣ On obtient la matrice D en mettant sur la diagonale les valeurs propres de f . Chaque valeur propre apparait un nombre de fois égal à sa multiplicité. ♣ La matrice de passage s’obtient en mettant en colonne les vecteurs propres trouvés. (Attention Il faut respecter le même ordre des valeurs propres mises dans D). ♣ Les matrices A et D sont liées par la relation : D = P −1 AP ⇔ A = P DP −1 . 110 Exemple Diagonaliser la matrice suivante : 8 0 9 A = −3 −1 −3 −6 0 −7 ¯ ¯ ¯ 8−X ¯ 0 9 ¯ ¯ ¯ ¯ = −(X − 2)(X + 1)2 . −1 − X −3 det(M − XI) = ¯ −3 ¯ ¯ −6 0 −7 − X ¯ Les valeurs propres sont -1 valeur propre double, et 2 valeur propre simple. * Sous-espace propre associé à la valeur propre -1. On résout le système : 0 9x +9z = −3x +0y+ −3z = 0 ⇔ x + z = 0. (A + I)V = 0 ⇔ −6x +0y+ −6z = 0 On prend x comme inconnue principale, y et z comme inconnues non principales. Alors si y = 1 et z = 0 on obtient comme solution f1 = (0, 1, 0) et si y = 0 et z = 1 on obtient f2 = (−1, 0, 1). Or dim E−1 = 2 donc la suite (f1 , f2 ) est une base de E−1 . * Sous-espace propre associé à la valeur propre 2. On résout le système : ½ +9z = 0 6x x = −3 2 z −3x + − 3y+ −3z = 0 ⇔ (A − 2I)V = 0 ⇔ 1 y = 2z −6x +0y+ −9z = 0 D’où, en prenant x et y comme inconnues principales et z comme inconnue non principale E2 = {( −3 1 −3 1 z, z, z)/z ∈ R} = vect(( , , 1)). 2 2 2 2 les trois vecteurs trouvés forment notre base de vecteurs propres. 8.6 Trigonalisation Définition 8.16. Soit f un endomorphisme de E et A ∈ Mn (K). 1. On dit que f est trigonalisable, s’il existe une base de E dans laquelle la matrice de f est triangulaire. Trigonaliser f , c’est trouver une base de E dans laquelle la matrice de f est triangulaire. 2. On dit que A est trigonalisable sur K, si elle est semblable, dans Mn (K), à une matrice triangulaire, c’est-à-dire s’il existe une matrice P ∈ Mn (K), inversible, telle que la matrice P −1 AP soit triangulaire. Trigonaliser A sur K, c’est trouver une matrice P ∈ Mn (K), inversible, telle que la matrice P −1 AP soit triangulaire. Théorème 8.17. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie n ≥ 1. Pour que f soit trigonalisable, il faut et il suffit que le polynôme caractéristique de f soit décomposable en produit de facteurs du premier degré Pf (X) = (λ1 − X)α1 ...(λP − X)αP , où les λi sont des éléments (deux à deux ) distincts de K. Preuve. A écrire... 111 Théorème 8.18. (théorème de Cayley-Hamilton) Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie n ≥ 1. on a Pf (f ) = 0, où Pf est le polynôme caractéristique f . Preuve. Voir exercice 7. 112 8.7 Exercices Exercice 1. Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E). Soit λ une valeur propre de f , on pose Eλ = Ker(f − λI) le sous-espace propre associé à la valeur propre λ. 1) Montrer que le polynôme caractéristique Pf (X) =dét(f − XI) de f ne dépend pas de la base choisie dans E. 2) Montrer que Pf est un polynôme à coefficients dans K de degré n. Calculer a0 et an . 3) Démontrer que deux matrices carrées semblables de Mn (K) ont même polynôme caractéristique. La réciproque est-elle vraie ? 4) Déduire que deux matrices semlables ont les mêmes valeurs propres. 5) Soit la matrice : −4 0 −2 A= 0 1 0 5 1 3 5.1 Calculer les valeurs propres de A. 5.2 Déterminer une base de chacun des sous espaces propres de A. Exercice 2. Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E). 1) Montrer que Eλ est stable par f . 2) Soit M ∈ Mn (K) une matrice carré de la forme : µ ¶ A C M= 0 B avec A ∈ Mp (K) , B ∈ Mn−p (K) et C ∈ Mp,n−p (K). Montrer par récurrence que detM = detA.detB. 3) Soient g la restriction de f à Eλ . Montrer que g ∈ LK (Eλ ). 4) Déduire que Pg divise Pf . Exercice 3. Soient A et B deux matrices de Mn (K) , avec K = C et n ∈ N∗ . 1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que : PA−1 (λ) = (−λ)n 1 PA ( ), det(A) λ où PA est le polynôme caractéristique de A. 2) On appelle spectre de A l’ensemble des valeurs propres de A. Démontrer l’équivalence suivante : PA (B) est inversible ⇔ Sp(A) ∩ Sp(B) = ∅. Exercice 4. Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit 113 d’autre part A la matrice carrée de taille n 1 1 . A= . . 1 dont tous les coefficients sont égaux à 1 : 1 ... ... 1 1 ... ... 1 . . . . . . 1 ... ... 1 On désigne par f l’endomorphisme de E dont la matrice dans la base B est A. 1) Soit u le vecteur u = e1 +e2 +...+en . Montrer que Im(f )=Vect(u). Quelle est la dimension de Ker(f ) ? 2) Trouver les valeurs propres et leurs sous-espaces associés de f . 3) Déduire qu ’il existe une base B 0 de E telle que la matrice de f dans B0 soit A0 , avec 0 0 ... 0 0 0 0 ... 0 0 . . . . 0 A = . . . . 0 0 ... 0 0 0 0 ... 0 n 4) Etablir que (A0 )k = nk−1 A0 pour tout k ∈ N∗ . En déduire Ak pour tout k ∈ N∗ . Exercice 5. Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E). Montrer que f est diagonalisable si et seulement, si (1) Pf est scindé sur K i.e. Pf (X) = (λ1 − X)α1 ....(λp − X)αp , (2) dimK Eλ i = αi , 1 ≤ i ≤ p. Application : Soit E un C-espace vectoriel et f un endomorphisme de E représenté par la matrice : a 0 b M = 0 a+b 0 b 0 a sur une base donnée B = (e1 , e2 , e3 ) de E. Déterminer les valeurs propres et sous-espace propres associés de M . En conclure si elle est ou non diagonalisable. Exercice 6. Discuter selon le paramètre m la diagonalisation de la matrice suivante dans M3 (R) 1 m 1 A = 0 1 1 . 0 0 −1 Exercice 7. On se propose de démontrer le résultat suivant : 114 Soit E un C− espace vectoriel de dimension finie = n ≥ 1. Alors pour tout endomorphisme f de E on a Pf (f ) = 0, où Pf est le polynôme caractéristique f . 1) Montrer qu’il existe une base B = (b1 , ..., bn ) dans laquelle la matrice de f triangulaire supérieure ; i.e. M (f, B) = ti,j avec ∀i ∈ {1, ..., n} tii = λi et ∀(i, j) ∈ {1, ..., n}2 , i > j entraı̂ne tij = 0. 2)Pour tout i ∈ {1, ..., n} on pose : ui = λi Id − f et Ui = (λ1 Id − f )o(λ2 Id − f )o...o(λi Id − f ). Montrer que pour tout j ∈ {1, ..., i} : Ui (bj ) = 0. 3) Déduire que pour tout j ∈ {1, ..., n} Ui (bj ) = 0. 4) Conclure. 5) Application : 5.1) Soient E un K− espace vectoriel de dimension finie n ≥ 1 et f ∈ L(E). Montrer que pour tout p ∈ N, on a f p ∈ V ect(IdE , f, f 2 , ..., f n−1 ). 5.2) Soit 2 0 4 A = 3 −4 12 ∈ M3 (R). 1 −2 5 Ecrire Ap , pour tout p ∈ N comme combinaison linéaire de I3 , A et A2 . Exercice 8. Soient E un K− espace vectoriel de dimension fini n ≥ 1 et f un endomorphisme de E. On dit que f est nilpotent, s’il existe un entier m ≥ 1 tel que f m = 0. 1) Soit f un endomorphisme nilpotent. Montrer qu’il existe un entier q ≥ 1 tel que f q = 0 et f q−1 6= 0. Cet entier q est appelé indice de nilopotence de f . 2) Montrer que rg(f ) ≤ n − 1. 3) Soit x ∈ E tel que f q−1 (x) 6= 0, prouver que (x, f (x), ..., f q−1 (x)) est libre. En déduire que q ≤ n. 4) Etablir l’équivalence suivante : f nilpotent ⇔ f n = 0. 5) Montrer que si f est nilpotent d’indice n, alors il existe une base B de E telle que : 0 1 0 ... ... 0 . 1 . . . 1 . M (f, B) = . . 0 . 1 0 ... ... ... . 0 6) Application : Soit −2 −1 2 A = −15 −6 11 ∈ M3 (R). −14 −6 11 115 6.1) Calculer le polynôme caractéristique PA de A. A est -il diagonalisable ? 6.2) Prouver qu’il existe λ ∈ R tel que A − λI3 soit nilpotente. 6.3) En déduire qu’il existe une matrice P inversible telle que 1 1 0 P −1 AP == 0 1 1 ∈ M3 (R). 0 0 1 Exercice 9. Chercher les valeurs propres et les sous espaces propres associés aux applications classiques : a- Les homothéties λId b- Les projecteurs c’est-à-dire les endomorphismes f non nuls de Rn , différents de l’identité de Rn et tels que f 2 = f . c- E = R2 et f la rotation d’angle π2 i.e. l’application linéaire définie par : f ((x, y)) = (−y, x). d- E = R3 et f est la symertie orthogonale par rapport au plan P d’équation x + y + z = 0. Exercice 10. (Application de la diagonalisation) 1) Calculer M n , où M est une matrice carrée : Soit 0 1 0 M = 1 0 1 1 1 1 Calculer M n , n ∈ N∗ , par diagonalisation. 2) Application aux suites récurrentes : On considère deux suites (un )n∈N et (vn )n∈N de nombres complexes telles que pour tout entier naturel n on ait : ½ un+1 = −10un − 28vn vn+1 = 6un + 16vn . Calculer un et vn en fonction de u0 v0 et n. 116 Chapitre 9 Examens de l’année universitaire 2005-2006 Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi Epreuve d’algèbre I Examen de 18 octobre ... Durée du sujet : 1H :30min Responsable : Lakhel E. Horaire : 9h :00-10h :30. Devoir surveillé N 1. Les trois exercices sont indépendants Justifier toutes vos réponses. Exercice 1. Soient A, B , C, ∆ et P des polynômes de K[X], n ∈ N∗ , x1 , x2 , ..., xn ∈ K deux à deux distincts. 1) Montrer que x1 racine de P ⇐⇒ (X − x1 )/P. Q 2) Déduire que si x1 , x2 , ..., xn sont des zéros de P , alors ni=1 (X − xi )/P. 3) Enoncer et démontrer le théorème de Gauss. 4) Montrer que si C divise A + B et A − B alors C divise A et B. A B 5) Montrer que si ∆ 6= 0 et ∆ =pgcd (A, B) alors les polynômes Q1 = ∆ et Q2 = ∆ sont premiers entre eux. Exercice 2. On considère le polynôme P (X) = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16. 1) Montrer que -2 est un zéro d’ordre 3 de P . 2) Montrer que √j est une racine de P , et en déduire que j 2 (= j) est une racine de P , où 2iπ 3 j = e 3 = −1+i . 2 3) Factoriser P (X) dans C[X] et dans R[X]. Exercice 3. 117 1) Soit n un entier naturel non nul. Quelle est la multiplicité pn de la racine 1 dans le polynôme Pn (X) = X 2n+1 − (2n + 1)X n+1 + (2n + 1)X n − 1? 2) On note Qn (X) le quotient de Pn (X) par (X − 1)3 . Montrer que Pn+1 (X) − XPn (X) = (X − 1)3 (1 + X + ... + X n )2 . 3) Quelle relation en déduit-on pour les polynômes Qn ? 4) Calculer Qn pour n = 1, 2, 3, 4. Quelle hypothèse peut-on faire sur la forme générale de Qn . 5) Montrer que (1 + X + ... + X n )2 = 1 + 2X + 3X 2 + ... + (n + 1)X n + nX n+1 + ... + 2X 2n−1 + X 2n . 6) On pose an = 1 + 2 + ... + (n + 1) = (n+1)(n+2) . Déduire de ce qui précède par récurrence 2 que Qn (X) = a0 + a1 X + ... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 X 2n−2 . Barême approximatif : Exercice 1 : 5 points ; Exercice 2 : 5 points, Exercice 3 : 10 points. 118 Corrigé du devoir surveillé N o 1 Exercice 1. 1) ⇒) Si P est divisible par X − xi , on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X], tel que P (x) = (x − xi )Q(x). Par suite : P (xi ) = 0. ⇐) Soit xi une racine de P . Faisons la division euclidienne de P par X − xi . Le reste R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a donc P (x) = (x − xi )Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0 puisque P (xi ) = 0 : P est donc bien divisible par X − xi . 2) On a d’une part, pour tout i ∈ {1, ..., n} xi est zéro de P , donc (X − xi )/P . D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − xi ) ∧ (X − xj ) = 1. Par conséquent, n Y (X − xi )/P. i=1 3) Le théorème de Gauss affirme que : Si A, B et C sont trois polynômes et si C est premier avec B et divise AB, alors C divise A. En effet, C divise AB ⇒ ∃Q ∈ K[X] tel que AB = QC(∗) C ∧ B = 1 ⇒ ∃U, V ∈ K[X] tels que U B + V C = 1 (**). Multiplions (**) par A, on obtient : U AB + V AC = A. D’après (*), on peut remplacer AB par QC : (U Q + V A)C = A. D’où C divise A. 4) On a C divise A + B ⇒ ∃Q1 ∈ K[X] tel que A + B = Q1 C (***). On a aussi C divise A − B ⇒ ∃Q2 ∈ K[X] tel que A − B = Q2 C (4*). En faisant la somme de (***) et (4*), on obtient : 1 A = (Q1 + Q2 )C, 2 donc C divise A. Et en faisant la différence de (***) et (4*), on aura 1 B = (Q1 − Q2 )C 2 donc C divise B. 5) Soit D = pgcd(Q1 , Q2 ) On a D divise Q1 ⇒ ∃R1 ∈ K[X] tel que Q1 = DR1 . De même, on a D divise Q2 ⇒ ∃R2 ∈ K[X] tel que Q2 = DR2 . Mais A = Q1 ∆ = D∆R1 , 119 d’où D∆ divise A. On a aussi, B = Q2 ∆ = D∆R2 , d’où D∆ divise B. Par conséquent D∆ divise ∆ = pgcd(A, B). Donc il existe S ∈ K tel que ∆ = SD∆ ; d’où DS = 1. Ce qui entraı̂ne que D est une constante de K i.e. Q1 et Q2 sont premiers entre eux. Exercice 2. 1) On a P (X) = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16. Après le calcul, on trouve 0 000 P (−2) = P (−2) = P 00 (−2) = 0 et P (−2) = 72 6= 0. Donc −2 est un zźro d’orde 3 de P . 2) Ona P (j) = j 6 + 5j 5 + 5j 4 − 12j 3 − 32j 2 − 32j − 16 = 1 + 5j 2 + 5j − 12 − 32j 2 − 16 ( carj 3 = 1, j 4 = j = −27(1 + j + j) = 0. et j 5 = j 2 = j.) D’autre part P est un polynôme à coefficients réels, de plus j est racine de P donc j est aussi racine de P . 3) Fractorisons P dans C[X] : en faisant la division euclidienne de P par (X + 2)3 = X 3 + 6X 2 + 12X + 8. On trouve X 3 − X 2 − X − 2. En divison X 3 − X 2 − X − 2. par (X − j)(X − j) = X 2 + X + 1 on trouve la factorisation de P dans C[C] P = (X − j)(X − j)(X − 2)(X + 2)3 . En groupant les termes conjugués, on obtient la factorisation de P dans R[X] : P = (X 2 + X + 1)(X − 2)(X + 2)3 . Exercice 3. 1) On a tout dabord Pn (1) = 0, puis 0 Pn (X) = (2n+1)X 2n −(2n+1)(n+1)X n +(2n+1)nX n−1 = (2n+1)[X 2n −(n+1)X n +nX n−1 ], 0 00 donc Pn (1) = 0. On a ensuite Pn (X) = (2n + 1)[2nX 2n−1 − n(n + 1)X n−1 + n(n − 1)X n−2 ], 00 donc Pn (1) = 0. (Le résultat reste vrai si n = 1, car le coefficient de X n−2 est nul dans ce cas). On a enfin Pn(3) (X) = (2n + 1)[2n(2n − 1)X 2n−2 − n(n + 1)(n − 1)X n−2 + n(n − 1)(n − 2)X n−3 ], donc Pn(3) (1) = (2n + 1)[2n(2n − 1) − n(n + 1)(n − 1) + n(n − 1)(n − 2)] = (2n + 1)(n2 + n) 6= 0. (Le résultat reste vrai si n = 1 et n = 2, car le coefficient de X n−2 est nul dans ces deux cas). 120 Donc 1 est racine triple de Pn (X), c’est-à-dire pn = 3. 2) On a Pn+1 (X) − XPn (X) = X 2n+3 − (2n + 3)X n+2 + (2n + 3)X n+1 − 1 −(X 2n+1 − (2n + 1)X n+1 + (2n − 1)X n − 1) = (X − 1)X 2n+2 − 2(X − 1)X n+1 + X − 1 = (X − 1)(X 2n+2 − 2X n+1 + 1) = (X − 1)(X n+1 − 1)2 . Donc en utilisant la relation X n+1 − 1 = (X − 1)(1 + X + + X n ), on trouve : Pn+1 (X) − XPn (X) = (X − 1)3 (1 + X + + X n )2 , 3) Puisque Pn+1 = (X − 1)3 Qn+1 et Pn = (X − 1)3 Qn , on en déduit Qn+1 (X) − XQn (X) = (1 + X + + X n )2 . 4) Remarquons que P1 (X) = X 3 − 3X 2 + 3X − 1 = (X − 1)3 , donc Q1 (X) = 1. En appliquant la relation obtenue dans la question 2) on obtient alors Q2 (X) = XQ1 (X) + (1 + X)2 = X 2 + 3X + 1, puis Q3 (X) = XQ2 (X) + (1 + X + X 2 )2 = X 4 + 3X 3 + 6X 2 + 3X + 1, et enfin Q4 (X) = XQ3 (X) + (1 + X + X 2 + X 3 )2 = X 6 + 3X 5 + 6X 4 + 10X 3 + 6X 2 + 3X + 1. On voit donc s’introduire une suite de nombres a0 , a1 , a2 , .... tels que Qn (X) = a0 + a1 X + .... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 x2n−2 . On peut remarquer également que an + (n + 2) = an+1 en partant de a0 = 1, et donc que an = 1 + 2 + ... + (n + 1) = (n + 1)(n + 2) . 2 5) Dans le développement de (1 + X + ... + X n )(1 + X + ... + X n ), le coefficient de X k est le nombre de façons d’écrire X k sous la forme X p X k−p , avec 0 ≤ p ≤ n et 0 ≤ k − p ≤ n. La dernière condition s’écrit encore k − n ≤ p ≤ k. Il y a deux cas possibles : Si 0 ≤ k ≤ n, alors 0 ≤ p ≤ k, et lon a k + 1 dćompositions possibles. 121 Si n ≤ k ≤ 2n, alors k − n ≤ p ≤ n, et l’on a 2n − k + 1 décompositions possibles. Donc on a bien (1 + X + + X n )2 = 1 + 2X + 3X 2 + + (n + 1)X n + nX n+1 + + 2X 2n−1 + X 2n . 6) La propriété est vraie à l’ordre 1, puisque Q0 (X) = a0 = 1. Supposons la propriété vraie à lordre n. Alors : Qn+1 (X) = XQn (X) + (1 + X + ... + X n )2 = X(a0 + a1 X + .... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 x2n−2 )+ 1 + 2X + 3X 2 + .... + (n + 1)X n + nX n+1 + .... + 2X 2n−1 + X 2n = 1 + (a0 + 2)X + .... + (an−1 + n + 1)X n + (an−2 + n)X n+1 + .... + (a0 + 2)X 2n−1 + X 2n . Mais, si k ≥ 1, on a ak−1 + k + 1 = ak+1 d’où Qn+1 (X) = a0 + a1 X + ... + an X n + an−1 X n+1 + ... + a1 X 2n−1 + a0 x2n . 122 Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi Devoir surveillé N 2. EPREUVE D’ALGEBRE Examen de 29 novembre 2005. Durée du sujet : 1h :30min Responsable : Lakhel El Hassan Horaire : 10h :30-12h :00. Exercice 1. Soit P un polynôme de C[X] de degré au moins 1 et r un entier strictement positif. 1) Montrer que le reste de la division euclidienne de P par (X − a) est P (a). 2) Trouver le reste et le quotient de la division euclidienne du polynôme X 2r − 1 par X + 1 (réfléchir ou calculer, il faut choisir). On note α1 , α2 , ..., αp les racines distinctes de P et k1 , k2 , ..., kp leurs ordres de multiplicités. 0 3) Montrer que la décomposition en éléments simples de la fraction rationnelle PP est 0 kp k1 k2 P = + + ... + . P X − α1 X − α2 X − αp 4) Application : décomposer en élélents simples dans C(X) la fraction rationnelle : X n−1 , Xn − 1 n ∈ N∗ . Exercice 2. Décomposer en éléments simples dans K(X) les fractions : 1 a) F1 = X(X+1)(X+2)...(X+n) (K = R); b) F2 = c) F3 = X8 (K = R); (X 2 −X+1)3 X 2n (K = C). (X 2 +1)n Problème . Etant donné deux polynômes A et B de R[X], le théorème de Bezout affirme que A et B sont premiers entre eux dans R[X] si et seulement si il existe un couple (U, V ) de polynômes de R[X] tel que AU + BV = 1. On suppose que A et B sont premiers entre eux. 1) Montrer que, si les couples (U1 , V1 ) et (U2 , V2 ) vérifient le théorème de Bezout pour A et B, alors : - le polynôme V1 − V2 est divisible par A, - le polynôme U1 − U2 est divisible par B. 2) Montrer que il existe un unique couple (U0 , V0 ) vérifiant : (i) AU0 + BV0 = 1 (ii) deg(U0 ) < deg(B) (iii) deg(V0 ) < deg(A). 3) Trouver, en fonction de (U0 , V0 ), tous les couples (U, V ) de R[X] tels que AU +BV = 1. 4) Que pensez-vous de ce problème si l’équation à résoudre est AU + BV = C où C est un polynôme quelconque de R[X]. 123 Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi Devoir surveillé N 3. EPREUVE D’ALGEBRE Examen de 26 janvier ... Durée du sujet : 1h :30min Responsable : Lakhel El Hassan Horaire : 10h :30-12h :00. Problème 1. Soit E un K-espace vectoriel de dimension finie. I. Soit F un K-espace vectoriel de dimension quelconque et f : E −→ F une application linéaire. 1) Montrer que l’image d’une suite génératrice de E est une suite génératrice de Im(f ). 2) Montrer que f est un isomorphisme si et seulement si l’image d’une base de E est une base de F . 3) En déduire que si F est de dimension finie et f : E −→ F est un isomorphisme. Alors dimK E = dimK F. 4) Montrer que si F1 et F2 sont deux sous-espaces vectoriels de E tels que E = F1 ⊕ F2 , alors dimK E = dimK F1 + dimK F2 . (Indication : utiliser une base B1 de F1 et une base B2 de F2 et montrer que B1 ∪B2 = B est une base de E). II. On suppose que g est un endomorphisme de E c’est-à-dire : g ∈ LK (E). 5) Montrer que les propriétés suivantes sont équivalentes : i) E = Ker(g) ⊕ Im(g), ii) Ker(g 2 ) = ker(g), iii) Im(g 2 ) = Im(g). III. Application : Soit I l’endomorphisme identique de E. On appelle projecteur de E tout endomorphisme p de E tel que p2 = p. 6. Démontrer l’équivalence des propositions suivantes où p est un endomorphisme de E : i. p est un projecteur, ii. I − p est un projecteur, iii. p(I − p) = (I − p)p = 0. 7. Déduire que si p est un projecteur, E =∈ (p) ⊕ ker(p) 8. Soit E = R2 . L’endomorphisme f de E est défini par : f ((x, y)) = (x − y, y − x) ((x, y) ∈ R2 ) Déterminer l’image et le noyau de f . f est-il un projecteur ? 124 Exercice 2. On prend E = R[X]. Soit f : R[X] −→ R[X] la ”multiplication par X ” définie par f (P (X)) = XP (X). a- Montrer que f est une application linéaire de E dans E. b- Déterminer Ker(f ) et Im(f ). d- Déduire que R[X] est de dimension infinie. Barême approximatif : Problème 1. 15 points : partie I : 4 pts + partie II : 4 pts ; Partie III : 7 pts ; Exercice 2. : 5 points. 125 Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi Devoir surveillé N o 5. EPREUVE D’ALGEBRE LINÉAIRE Examen de 17 avril 2006. Durée du sujet : 1h :30min Responsable : Lakhel El Hassan Horaire : 8h :30-10h :00. Problème 4 g: R → R3 x −2x −2y −2z x − y + 2z − t x y 2x +2y +3z 7→ y 7→ y−t z 4x +2y +4z y−z+t z t 3x +y +4z 1. Montrer que f et g sont des applications linéaires dont on donnera les matrices relativement aux bases canoniques. On notera A la matrice de f et B la matrice de g. 2. Écrire par rapport aux bases canoniques la matrice C de f og puis la matrice D de gof en fonction de A et B. 3. Pour tout λ ∈ R, on considère la fonction P (λ) = det(D − λI3 ) où I3 désigne la matrice identité de l’espace des matrices carrées 3 × 3. Après avoir vérifié que D = 1 −1 −1 −1 1 −1 , montrer que 1 1 3 Soient f: R3 → R4 et P (λ) = (2 − λ)2 (1 − λ). 4. Pour tout λ ∈ R, on pose Eλ = Ker(gof − λId3 ) où Id3 désigne l’identité de l’espace R3 . Déduire dela question précédente que Eλ 6= {0} si etseulement si λ = 1 ou 2. 1 1 1 5. Soient V1 = 1 , V2 = −1 , et V3 = 0 . Montrer que (V1 ) est une −1 0 −1 base de E1 et que (V2 , V3 ) est une base de E2 . 6. Soit P la matrice du système B = (V1 , V2 , V3 ). Calculer det(P ) et en déduire que B est une base de R3 . 7. Ecrire la matrice D0 de gof dans la base B = (V1 , V2 , V3 ) (au départ et à l’arrivée) sans calculer P −1 . Exprimer D en fonction de D0 , P et P −1 . 8. On note Mn la matrice de (gof )n = (gof )o...o(gof ) dans les bases canoniques (au {z } | n f ois départ et à l’arrivée). Exprimer Mn en fonction de D0 , P et P −1 . 9. Calculer P −1 puis la matrice Mn . 10. Déduire de la question 8) une expression de la matrice de (gof )n = (gof )o...o(gof ) | {z } n f ois dans les bases canoniques (au départ et à l’arrivée) en fonction de A, B et D. 11. Montrer que Kerg ⊂ Ker(f og). Sans calculer le rang de g , dire pourquoi dim(Kerg) 6= 0. En déduire que Ker(f og) 6= {0}. 12. Pour tout λ ∈ R , on pose Fλ = Ker(f og − λId4 ) où Id4 est l’application identité de R4 . Montrer que f (Eλ ) ⊂ Fλ . 13. Montrer que f (V1 ) 6= 0 et que (f (V2 ), f (V3 )) est libre. En déduire que dimf (E1 ) = 1, dimf (E2 ) = 2 puis que dim(F0 ) ≥ 1, dim(F1 ) ≥ 1 et dim(F2 ) ≥ 2. 126 14. Montrer que F1 ∩ F2 = {0}, puis exprimer dim(F1 + F2 ) en fonction de dim(F1 ) et dim(F2 ). 15. De même, montrer que F0 ∩ (F1 + F2 ) = {0}, puis en déduire que dim(F0 + F1 + F2 ) = dim(F0 ) + dim(F1 ) + dim(F2 ). 16. Déduire de la question précédente et de la question 13) que F0 + F1 + F2 = R4 . Quelle est la valeur de dim(F0 ), dim(F1 ) et dim(F2 ) ? 17. À partir de la relation F0 + F1 + F2 = R4 , montrer que Fλ 6= {0} si et seulement si λ = 0, 1 ou 2. Exercice .(facultatif ) Soit n un élément de N∗ , supérieur ou égal 2. Soient a1 , ..., an n éléments de R , Calculer le déterminant de Vandermonde : ¯ ¯ ¯ 1 a1 a21 ... an−1 ¯ 1 ¯ ¯ ¯ 1 a2 a22 ... an−1 ¯ 2 ¯ ¯ ¯ . . . . . ¯¯ ¯ Vn = V (a1 , ..., an ) = ¯ . . . ¯¯ ¯ . . ¯ . . . . . ¯¯ ¯ ¯ 1 a a2 ... an−1 ¯ n n n Q (Indication : montrer par recurrence sur l’entier n que V (a1 , ..., an ) = 1≤i<j≤n (aj − ai ) ). 127 Université Cadi Ayyad Ecole Nationale des Sciences Appliquées Safi Devoir surveillé N 6. Durée du sujet : 1H :30min Responsable : Lakhel El Hassan Horaire : 9h :00-10h :30. EPREUVE D’ALGEBRE linéaire Examen de 11 avril ... Exercice 1. Soient A et B deux matrices de Mn (K) , avec K = R ou C et n ∈ N∗ . 1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que : PA−1 (λ) = (−λ)n 1 PA ( ), det(A) λ où PA est le polynôme caractéristique de A. 2) On appelle spectre de A l’ensemble des valeurs propres de A. Démontrer l’équivalence suivante : PA (B) est inversible ⇔ Sp(A) ∩ Sp(B) = ∅. Exercice 2. Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit d’autre part A la matrice carrée de taille n dont tous les coefficients sont égaux à 1 : 1 1 ... ... 1 1 1 ... ... 1 . . . A= . . . . . . 1 1 ... ... 1 On désigne par f l’endomorphisme de E dont la matrice dans la base B est A. 1) Soit u le vecteur u = e1 +e2 +...+en . Montrer que Im(f )=Vect(u). Quelle est la dimension de Ker(f ) ? 2) Trouver les valeurs propres et leurs sous-espaces associés de f . 3) Déduire qu ’il existe une base B 0 de E telle que la matrice de f dans B0 soit A0 , avec 0 0 ... 0 0 0 0 ... 0 0 . . . . 0 A = . . . . 0 0 ... 0 0 0 0 ... 0 n 4) Etablir que (A0 )k = nk−1 A0 pour tout k ∈ N∗ . En déduire Ak pour tout k ∈ N∗ . PROBLÈME : ( MATRICES STOCHASTIQUES1 ) On note B = (e1 , e2 , ..., en ) la base canonique de l’espace vectoriel E = Kn (où n ≥ 2 et 128 K = R ou C). On se propose d’étudier l’ensemble des valeurs propres des matrices stochastiques d’ordre n. Une matrice S = (sij )i,j∈{1,2,...,n} ∈ Mn (R) est dite stochastique si et seulement si ∀i, j sij ∈ R + et ∀i n X sij = si1 + si2 + ... + sin = 1. j=1 On note Sn (R) l’ensemble des matrices stochastiques de Mn (R). Ces matrices sont stables par le produit. Dans la suite, on désigne par f un endomorphisme de E = Rn dont la matrice S = (sij ) est stochastique. 1) V1 le vecteur de E dont les composantes dans la base B sont toutes égales a 1. Montrer qu’une matrice M de Mn (R) à coefficients réels positifs ou nuls est stochastique si et seulement si M V1 = V1 . 2) Déduire que 1 est une valeur propre de f . 3) Soit λ une valeur propre de f autre que 1. Montrer que |λ| ≤ 1. (Indication : Pour tout vecteur x = (x1 , x2 , ..., xn ) de E = Rn , on convient de noter : |x| = max(|x1 |, |x2 |, ..., |xn |). pour x ∈ Rn , montrer que |f (x)| ≤ |x|. Puis conclure). 4) Montrer que Ker(f − Id) ⊕ Im(f − Id) = Rn . 5) Montrer que Im(f − Id) est stable par f . Etablir que tout sous-espace propre Eλ de f associé à une valeur propre λ autre que 1 est inclus dans Im(f − Id). On suppose désormais que l’endomorphisme f est diagonalisable. 6) Montrer que la somme directe des sous-espaces propres associés aux valeurs propres de f autre que 1 est égale à Im(f − Id). 7) On complète une base (v1 , v2 , ..., vp ) de E1 = Ker(f − Id) en une base B0 = (v1 , v2 , ..., vn ) de vecteurs propres de f . On note λ1 , λ2 , ..., λn les valeurs propres de f rangées par modules décroissants (1 = |λ1 | = ... = |λp | ≥ |λp+1 | ≥ ... ≥ |λn |), associées à ces vecteurs propres v1 , v2 , ..., vn . Soit D la matrice de f dans la base B 0 . Prouver que la suite de matrices (S k ) converge si est seulement si la suite (Dk ) converge. Déduire que la suite (S k ) est convergente. (Pour une suite de matrices (Ak )k∈N , on dit que limk−→+∞ Ak = A , si , en notant : Ak = (k) (k) (aij ), on a : ∀i, j, limk−→+∞ aij = aij ). 8) Application : 1 3 A= 0 0 1 3 1 2 0 1 3 1 2 . 1 Barême approximatif : Exercice 1 : 4 points ; Exercice 2 : 6 points, Problème : 10 points. 1 Ces matrices jouent un rôle important, notament en calcul de probabilités. 129