Université de Nice 2012-13 SL2SF Algèbre 2 Vecteurs propres et valeurs propres. On travaille sur le corps R des réels. On pourrait également utiliser le corps des complexes C. La plupart des résultats sont en fait valables sur un corps quelconque. Un résultat essentiel du cours de première année est le suivant : on considère un système linéaire homogène (i.e. sans second membre) de p équations à n inconnues a1,1 x1 + . . . + a1,n xn = 0 .. . ap,1 x1 + . . . + ap,n xn = 0. La matrice p × n de coefficients ai,j pour i de 1 à p et j de 1 à n est la matrice du système. On la désigne par A. On échelonne les lignes de la matrice A. Le rang des lignes de A est le nombre de pivots obtenu dans la procédure d’échelonnage. Il ne dépend pas du procédé choisi. C’est le nombre de variables liées du système. On l’appelle le rang du système (ou rang des lignes de A). L’espace des solutions du système a pour dimension le nombre de variables libres et, bien sûr, le nombre de variables est égal à la somme du nombre de variables liées et du nombre de variables libres. C’est la première forme du théorème du rang. 1. Applications linéaires Dans tout ce paragraphe, on considère deux espaces vectoriels E et F sur R et une application f : E −→ F . Pour les définitions aller au paragraphe 10. 1.1. Matrice d’une application linéaire. On suppose ici que E et F sont de dimension finie. On note n la dimension de E et p la dimension de F . On se donne des bases B = (~e1 , . . . , ~en ) de E et C = (~1 , . . . ,~p ) de F . On considère une application linéaire f : E −→ F . La matrice de f dans les bases (B, C) est un tableau à p lignes et n colonnes. Sur la j-ème colonne on dispose les coordonnées dans la base C de l’image par f du j-ème vecteur de B, de sorte que le coefficient ai,j de la matrice, situé sur la ligne de numéro i et la colonne de numéro j est la i-ème coordonnée du vecteur f (~ej ). On note Mp,n (R) l’ensemble des matrices à p lignes et n colonnes. Aux opérations sur les applications linéaires, correspondent les opérations sur les matrices : produit par un scalaire, somme, produit de matrices. Noter que le produit AB de deux matrices n’a de sens que si le nombre de lignes de B est égal au nombre de colonnes de A. La matrice AB a alors le nombre de lignes de A et le nombre de colonnes de B. En particulier, si A est dans Mp,n (R) et X une matrice colonne de Mn,1 (R), alors le produit AX est une matrice colonne de Mp,1 (R). 2 Comment disposer le produit de deux matrices : ci-dessous le calcul du coefficient ci,j du produit AB. Il ne fait intervenir que la i-ème ligne de A et la j-ème colonne de B. b1,j b2,j . .. bn,j .. . ai,1 ai,2 . . . ai,n . . . c i,j ci,j = ai,1 b1,j + ai,2 b2,j + . . . + ai,n bn,j n X = ai,` b`,j . `=1 1.1.1. Exercice. . On considère un entier n, n ≥ 2, deux entiers i et j, 1 ≤ i 6= j ≤ n, une matrice carrée Li,j (λ) de taille n × n dont les coefficients diagonaux sont tous égaux à 1, dont le coefficient `i,j vaut λ et dont tous les autres coefficients sont nuls. On considère également une matrice A à n lignes et p colonnes. On désigne par Li la ligne de numéro i, pour i de 1 à n. Montrer que le produit Li,j (λ)A est une matrice A0 qui a les mêmes lignes que A sauf la ligne de numéro i qui vaut Li + λLj . / 1.1.2. Exercice. . Montrer que Mp,n (R) est un espace vectoriel sur R. En donner une base. Quelle est sa dimension ? Montrer que Mn,n (R), que l’on notera désormais Mn (R), est stable par la multiplication des matrices. Montrer que ce produit n’est pas commutatif si n > 1. / Comment calculer avec la matrice de f ? Notons A la matrice de f dans les bases (B, C). Un vecteur ~x de E est un élément de ker f si f (~x) = ~0. Ses coordonnées (x1 , . . . , xn ) dans B sont solutions du système linéaire homogène de matrice A. Ce système a p équations à n inconnues. Il a pour rang le rang de A (nombre de variables liées) et l’ensemble de ses solutions est de dimension d − rg(A) (nombre de variables libres). On a donc dim ker f = dim E − rg(A). Comme le sousespace ker f est indépendant de la base choisie, le rang de la matrice de f dans une base B ne dépend pas du choix de cette base. Un vecteur ~y de F est un élément de Im(f ) s’il existe un vecteur ~x de E tel que f (~x) = ~y . Le sous-espace vectoriel Imf est engendré par les images des vecteurs de B. Sa dimension est le rang des colonnes de A. On démontre que le rang des colonnes de A est égal au rang des lignes de A. 1.2. Théorème (du rang). On considère une application linéaire f : E −→ F entre deux espaces vectoriels de dimension finie sur R. Le rang de f est égal à la dimension de Im(f ) et on a la formule dim ker f = dim E − dim Im(f ). 2. Vecteurs propres et valeurs propres d’une application linéaire Dans tout ce paragraphe, on considère un entier d, un espace vectoriel E de dimension d sur R et une application linéaire f : E −→ E. 2.1. Définition. On dit qu’un vecteur ~v de E est un vecteur propre de f si – ~v n’est pas nul – f (~v ) est un vecteur proportionnel à ~v . Lorsque ~v est un vecteur propre de f , le coefficient de proportionnalité de f (~v ) sur ~v est la valeur propre associée à ~v . 3 Si ~v est un vecteur propre de f , il existe un scalaire λ tel que f (~v ) = λ~v . On dit que ~v est un vecteur propre de f de valeur propre λ. 2.1.1. Exemple. On considère l’application g : R2 −→ R2 dont la matrice dans la base canonique de R2 est la suivante 1 6 A := 5 2 et les deux vecteurs ~u := 3 −2 et ~v := 6 −5 On vérifie que g(~u) = −9 11 et g(~v ) := −24 20 . On en déduit que ~u n’est pas un vecteur propre de g, tandis que ~v est un vecteur propre de valeur propre −4. 2.1.2. Exemple. [plus général : on ne suppose pas que E est de dimension finie] On considère l’espace vectoriel des polynômes d’une variable à coefficients réels noté R[X] et l’application dérivation D : R[X] −→ R[X] P 7−→ P 0 . Un vecteur propre de P est un polynôme non nul P dont la dérivée P 0 lui est proportionnelle. Si le degré de P est au moins 1, alors la dérivée P 0 est de degré strictement inférieur et ne peut donc pas être proportionnelle à P . Si P est de degré 0, c’est une constante non nulle et sa dérivée est nulle. On voit donc que les seuls vecteurs propres de D sont les constantes non nulles, tous associés à la seule valeur propre 0. Noter qu’une base de R[X] est la famille des monômes (1, X, X 2 , . . .) qui est infinie dénombrable. L’espace vectoriel R[X] n’est donc pas de dimension finie. 2.2. Définition. On considère une valeur propre λ de l’application f . Le sous-espace propre de f associé à λ est l’ensemble des vecteurs de E solutions du système linéaire f (~v ) = λ~v . C’est un sous-espace vectoriel de E. On le note Eλ (f ). Comme λ est une valeur propre de f , le sous-espace Eλ (f ) contient au moins un vecteur non nul. Il est donc de dimension strictement positive. L’ensemble des vecteurs propres de f de valeur propre λ est l’ensemble des vecteurs non nuls de Eλ (f ). On remarque que le système linéaire f (~v ) = λ~v s’écrit (f − λId)(~v ) = ~0. 2.2.1. Exemple. On considère l’application g : R3 −→ R3 dont la matrice dans la base canonique de R3 est la suivante 4 −1 6 1 6 . A := 2 2 −1 8 4 Le scalaire 2 est une valeur propre de g. En effet, l’application g − 2Id a pour matrice 2 −1 6 A − 2I3 = 2 −1 6 2 −1 6 qui est de rang 1. Le système linéaire g(~v ) − 2~v = ~0 se réduit à la seule équation 2v1 − v2 + 6v3 = 0. Ses solutions forment un sous-espace vectoriel E2 (g) de dimension 2 dans R3 dont une base est 1 −3 2 , 0 . 0 1 2.3. Théorème. On considère un scalaire λ. Les assertions suivantes sont équivalentes (1) λ est une valeur propre de f . (2) Il existe un vecteur propre de f de valeur propre λ. (3) Le système linéaire (f − λId)(~v ) = ~0 a au moins une solution non nulle (on dit aussi non triviale, puisque le vecteur nul est toujours solution). (4) Le noyau de f − λId n’est pas réduit au seul vecteur nul. (5) Le rang de f − λId n’est pas maximum (autrement dit strictement inférieur à la dimension d de E. La seule chose qui ne découle pas des définitions est l’équivalence de (3) et (4). C’est le théorème du rang, appliqué à f − λId qui fournit la réponse, puisque dim ker(f − λId) + rg(f − λId) = d. 2.3.1. Exemple. Cherchons à déterminer toutes les valeurs propres de l’application g étudiée dans l’exemple 2.1.1. On considère la matrice de g − λId 1−λ 6 . A − λI2 := 5 2−λ Elle n’est pas de rang maximum si et seulement si les deux lignes sont proportionnelles, autrement dit si (1 − λ)(2 − λ) = 30. Les valeurs convenables de λ sont les solutions de l’équation du second degré λ2 − 3λ − 28 = 0. Ces solutions sont −4 et 7. Calculons le sous-espace propre E−4 (g). C’est l’ensemble des solutions du système de matrice A − (−4)I2 . Cette matrice est de rang 1, donc E−4 (g) est une droite vectorielle engendrée par un de ses vecteurs non nul, par exemple ~v trouvé en 2.1.1. Pour le calcul de E7 (g), on résout le système de matrice A − 7I2 qui est également de rang 1. Le sous-espace propre E7 (g) est une droite vectorielle engendrée par un de ses vecteurs non nul, par exemple w ~ de coordonnées (1, 1). On constate que la famille (~v , w) ~ est une base de R2 formée de vecteurs propres de g. Dans le cas général le calcul du déterminant fournit un critère pour décider qu’une matrice carrée est de rang maximum ou pas. 5 2.4. Systèmes dynamiques linéaires discrets. 2.4.1. Exemple. (Voir D. Lay, Algèbre linéaire et applications). On fait des statistiques sur une population de chouettes : l’année n, les populations des femelles poussins, jeunes et adultes, sont désignées respectivement par xn , yn et zn . On établit expérimentalement les relations suivantes : xn+1 = 0, 33zn (taux de fertilité des adultes), yn+1 = 0, 18xn (capacité à nicher) et zn+1 = 0, 71yn + 0, 99zn (les adultes de l’année n + 1 sont ceux de l’année n qui ont survécu et les jeunes de l’année n qui sont devenus adultes). On souhaite prévoir l’évolution de la population de chouettes adultes à long terme si les paramètres de fécondité, survie, etc. restent les mêmes. Si on traite (xn , yn , zn ) comme un vecteur de R3 on voit que xn+1 0 0 0, 33 xn yn+1 = 0, 18 0 yn . 0 zn+1 0 0, 71 0, 99 zn Le problème revient à calculer les puissances de 0 A := 0, 18 0 la matrice 0 0, 33 . 0 0 0, 71 0, 99 2.4.2. Exemple. L’exemple le plus célèbre est sans doute celui de Fibonacci (voir Wikipedia : comparer les articles en anglais et en français). On étudie les suites données par leurs deux premiers termes u0 , u1 et pour n ≥ 0 par la formule de récurrence un+2 = un+1 + un . On fait une réduction classique mais importante. On considère le vecteur un Un = un+1 qui est donc défini par U0 = u0 u1 et, pour n ≥ 0, Un+1 = Il s’agit alors d’étudier les puissances de la matrice 0 1 F := . 1 1 On reviendra sur ces exemples plus tard. 0 1 1 1 Un . Université de Nice 2012-13 SL2SF Algèbre 2 Déterminants. Une parenthèse dans le monde des permutations d’un ensemble fini. On fixe un entier naturel n et on considère l’ensemble {1, 2, . . . , n} des n premiers entiers. On peut les considérer en eux-mêmes ou comme les numéros d’un ensemble fini à n éléments. 3. Permutations 3.1. Une permutation est une bijection de l’ensemble {1, 2, . . . , n} sur lui-même. Une telle permutation est donc une application σ : {1, 2, . . . , n} −→ {1, 2, . . . , n} qui a une application réciproque notée σ −1 . L’ensemble de ces bijections forme un groupe pour la composition des applications, appelé groupe symétrique et noté Sn . Le groupe Sn a n! éléments (le démontrer par récurrence). La notation traditionnelle est la suivante : une permutation σ de Sn est notée 1 2 ... n . σ(1) σ(2) . . . σ(n) Par exemple la notation (3.1.1) τ := 1 2 3 4 5 5 1 4 3 2 désigne la permutation de S5 telle que τ (1) = 5, τ (2) = 1, τ (3) = 4, τ (4) = 3 et τ (5) = 2. Pour cette permutation particulière, les transformés successifs de 1 sont 5 = τ (1), 2 = τ (5), 1 = τ (5), 5 = τ (1)... 3.2. Cycles. On appelle cycle de longueur p une permutation de Sp telle que l’ensemble des transformés successifs de 1 (et donc de tout élément) est l’ensemble {1, 2, . . . , p} tout entier. Un tel cycle est caractérisé par la liste des transformés successifs de 1. Par exemple la permutation 1 2 3 4 5 σ := 5 3 4 1 2 est un cycle de longueur 5. La liste des transformés successifs de 1 est (1, 5, 2, 3, 4). La liste des transformés successifs de 2 est (2, 3, 4, 1, 5). Elle caractérise la même permutation (on voit que c’est la liste circulaire qui caractérise la permutation). Plus généralement, on appelle cycle de longueur p de Sn (p ≤ n) une permutation qui induit un cycle sur un sous-ensemble à p éléments de {1, 2, . . . , n} et qui laisse les autres éléments fixes. Par exemple, la permutation 1 2 3 4 5 5 1 3 4 2 est un cycle de longueur 3 que nous noterons à l’aide de la liste des transformés successifs de 1, à savoir (1, 5, 2). De même la la permutation 1 2 3 4 5 1 2 4 3 5 7 est un cycle de longueur 2 que nous noterons (3, 4). On remarque encore que (4, 3) désigne le même cycle. On constate que les deux cycles (1, 5, 2) et (3, 4) commutent et que leur produit est égal à la permutation τ décrite en (3.1.1). On considère une permutation σ dans Sn . Partant d’un élément de {1, 2, . . . , n}, par exemple 1, on considère ses transformés successifs par σ : 1, σ(1), σ(σ(1))... Cette suite d’entiers entre 1 et n est forcément périodique. Supposons que σ i (1) = σ j (1) avec i < j. Puisque σ est bijective c’est donc que σ j−i (1) = 1. On voit donc que la période de la suite des images successives de 1 est le plus petit des entiers ` pour lesquels σ ` (1) = 1. Notons le c. La donnée de la liste (1, σ(1), . . . , σ c−1 (1)) permet de connaı̂tre les images par σ de tous les termes de la liste : 1 7−→ σ(1) 7−→ . . . 7−→ σ c−1 (1) 7−→ 1. Si on prend un élément de l’ensemble {1, 2, . . . , n} qui n’est pas dans la liste, on est sûr que ses images successives ne sont pas non plus dans la liste. On peut donc recommencer le même processus jusqu’à épuisement de l’ensemble {1, 2, . . . , n}. On a alors obtenu un nombre fini de listes à supports disjoints (c’est-à-dire qu’un élément de {1, 2, . . . , n} figure dans une liste et une seule). La réunion des supports est {1, 2, . . . , n}. On a démontré : 3.3. Théorème. Toute permutation σ de Sn se décompose en un produit de cycles à supports disjoints. Noter que deux cycles à supports disjoints commutent toujours. La décomposition de la permutation τ de la formule (3.1.1) en cycles à supports disjoints est (1, 5, 2)(3, 4). La décomposition est unique (même si la façon de l’écrire ne l’est pas). 3.4. Signature. On considère une permutation σ de Sn . Une inversion est une paire {i, j} telle que σ(i) et σ(j) ne sont pas dans le même ordre que i et j. Le nombre d’inversions de σ est le nombre de telles paires. Un cycle de longueur p a p − 1 inversions. 3.5. Définition. On appelle signature de la permutation σ le nombre (−1)I(σ) où I(σ) est le nombre d’inversions de σ. On la note (σ). La signature vaut donc 1 ou −1 suivant que I(σ) est pair ou impair. Un cycle de longueur p est de signature (−1)p−1 . L’intérêt de la notion de signature est dans le résultat suivant : 3.6. Théorème. La signature d’un produit de permutations est le produit des signatures. Démonstration. Considérons deux permutations σ et σ 0 de Sn . Une paire {i, j} est une inversion pour la composée σ 0 ◦ σ si et seulement si une et une seule des assertions suivantes est vraie – {i, j} est une inversion pour σ et {σ(i), σ(j)} n’est pas une inversion pour σ 0 . – {i, j} n’est pas une inversion pour σ et {σ(i), σ(j)} est une inversion pour σ 0 . On considère les deux ensembles suivants : – L’ensemble J des inversions de σ. – L’ensemble J 0 des paires {i, j} pour lesquelles {σ(i), σ(j)} est une inversion pour σ 0 . Le nombre d’éléments du premier est I(σ) et le nombre d’éléments du second est I(σ 0 ). Une inversion de σ 0 ◦ σ est un élément de J ∪ J 0 qui n’est pas dans l’intersection J ∩ J 0 , c’est-à-dire un élément de la différence symétrique J M J 0 . La parité du nombre d’éléments de J M J 0 est la somme des parités du nombre d’éléments de J et du nombre d’éléments de J 0 (cf. fonction booléenne ou exclusif ). La signature de la permutation τ décrite en (3.1.1) est −1 puisque elle est le produit des cycles (1, 5, 2) et (3, 4) de longueur 3 et 2. 8 4. Déterminant d’une matrice carrée On considère une matrice carrée A de Mn (R). Le coefficient de A situé sur la i-ème ligne et la j-ème colonne est noté ai,j pour i et j de 1 à n. On donne une définition récursive du déterminant : c’est le scalaire donné par la formule suivante n X det A := (−1)1+j a1,j ∆1,j j=1 où ∆1,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la première ligne et la j-ème colonne de A. Reste à préciser ce qu’est le déterminant d’une matrice 1 × 1 : c’est la valeur de son unique coefficient. Pour l’anecdote : on convient que le déterminant d’une matrice 0 × 0 vaut 1. Conséquence : Le déterminant d’une matrice triangulaire est égal au produit des coefficients diagonaux de la matrice. On appelle cette manière de calculer le déterminant : développement par rapport à la première ligne. On constate (par récurrence !) que det A est une somme de termes qui sont les produits d’une liste de n coefficients de A affectés d’un signe + ou −. Les listes sont obtenues en choisissant un terme dans chaque ligne et un dans chaque colonne. Reste à calculer le signe : 4.1. Théorème. Le déterminant de A est donné par la formule (non récursive) suivante : det A = X (σ)a1,σ(1) a2,σ(2) . . . an,σ(n) . σ∈Sn En conséquence, le déterminant de A peut se calculer en développant par rapport à la i-ème ligne : n X det A = (−1)i+j ai,j ∆i,j , j=1 ou par rapport à la j-ème colonne : n X det A = (−1)i+j ai,j ∆i,j i=1 où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la i-ème ligne et la j-ème colonne de A. Prendre garde à la fausse similitude entre les formules. Dans l’une l’indice de ligne est fixé, alors que dans l’autre c’est l’indice de colonne. 4.2. Corollaire. Une matrice de Mn (R) et sa transposée ont même déterminant. Les exemples de petite taille : pour une matrice de M2 (R), on trouve a b a b = ad − bc. det = c d c d 9 Pour les matrices de M3 (R), en developpant par rapport à la première ligne a b c a b c det d e f = d e f g h i g h i e f d f d e − b = a g i + c g h = aei − af h − bdi + bf g + cdh − ceg. h i On retrouve bien qu’il y a 3! = 6 termes dans le développement, 3 avec le signe + et 3 avec le signe −. Attention aux analogies trop faciles ! Dans le développement du déterminant d’une matrice 4 × 4 A dans M4 (R) il y a 4! = 24 termes. Par exemple, il y a un terme en a1,1 a2,3 a3,4 a4,2 affecté du signe +, car la permutation 1 2 3 4 1 3 4 2 est le cycle (2, 3, 4) et a pour signature +1. 4.3. Multilinéarité. On se donne deux matrices A0 et A00 dans Mn (R). On suppose que les lignes de A0 et de A00 sont les mêmes, sauf la i-ème. On appelle A la matrice qui a les mêmes lignes que A0 sauf la i-ème qui est la somme de la i-ème ligne de A0 et de la i-ème ligne de A00 . Alors : det(A) = det(A0 ) + det(A00 ). On se donne maintenant une matrice A dans Mn (R) et un scalaire λ. On appelle A0 la matrice qui a les mêmes lignes que A sauf la i-ème qui est le produit de la i-ème ligne de A par le scalaire λ. Alors : det(A0 ) = λ det(A). Démonstration. On développe tous les déterminants par rapport à la ligne de numéro i. 4.4. Transformations permises. On rappelle les opérations permises sur les lignes d’une matrice (1) Ajouter à une ligne un multiple d’une autre ligne. (2) Multiplier une ligne par un scalaire non nul. (3) Echanger deux lignes. 4.5. Lemme. Le déterminant d’une matrice A de Mn (R) qui a deux lignes proportionnelles est nul. Démonstration. Par récurrence sur n. Si n = 2 c’est facile. Si n > 2, et que les lignes de numéro i et j sont proportionnelles, on développe par rapport à une ligne de numéro k (k 6= i, k 6= j) et les matrices obtenues en oubliant la ligne de numéro k et une colonne ont encore deux lignes proportionnelles. 4.6. Lemme. On considère une matrice A de Mn (R) et une matrice A0 obtenue à partir de A par une transformation de type (1). On a alors det A0 = det A. Démonstration. On considère un scalaire λ et la matrice A0 obtenue en ajoutant à la i-ème ligne de A le produit de la j-ème par λ. Désignons par A00 la matrice obtenue en remplaçant la i-ème ligne de A par la j-ème. Par multilinéarité on a det A0 = det A + λ det A00 et par le lemme 4.5 on a det A00 = 0. 10 On résume les résultats obtenus dans le théorème suivant : 4.7. Théorème. On considère une matrice A de Mn (R). (1) Une matrice A0 obtenue à partir de A par une transformation permise de type (1) a même déterminant que A. (2) Une matrice A0 obtenue à partir de A en multipliant une ligne par un scalaire λ a pour déterminant det A0 = λ det A. (3) Une matrice A0 obtenue à partir de A en permutant deux lignes a pour déterminant det A0 = − det A. Remarque : Les formules analogues obtenues en transposant sont vraies : dans les énoncés cidessus on peut remplacer ligne par colonne. Le théorème ci-dessus est un outil essentiel pour le calcul pratique des déterminants. Démonstration. On a déjà démontré les points (1) et (2) du théorème. Pour le point (3), on peut revenir à la formule non récursive du théorème 4.1 ou procéder par récurrence de manière similaire à la preuve du lemme 4.5. Attention ! Si A est une matrice de Mn (R) et λ un scalaire, alors det λA = (λ)n det A. 4.8. Corollaire. On considère une matrice A de Mn (R). Alors det A 6= 0 si et seulement si A est de rang maximum autrement dit si et seulement si A est inversible dans Mn (R). Démonstration. On sait (voir cours L1) que l’on peut trouver une matrice A0 équivalente à A (donc de même rang) et à lignes échelonnées en effectuant des transformations permises de type (1) et (2). La matrice A0 est de rang n si et seulement si elle est triangulaire supérieure avec des coefficients diagonaux tous égaux à 1. 4.9. Déterminant d’un produit de matrices. 4.10. Théorème. On considère deux matrices A et B dans Mn (R). On a det AB = det A det B. Démonstration. À l’exercice 7 de la feuille 2, on montre que si A0 est une matrice équivalente obtenue à partir de A par une transformation de type (1), alors on peut construire une matrice triangulaire T telle que A0 = T A. On voit que det T = 1 et que det A0 = det A, donc on a bien dans ce cas det T A = det T det A. De manière analogue, lorsque A0 est une matrice équivalente obtenue à partir de A par une transformation de type (2), alors on peut construire une matrice diagonale D (avec tous les coefficients diagonaux égaux à 1 sauf l’un d’entre eux égal à λ) telle que A0 = DA. On voit que det D = λ et que det A0 = λ det A, donc on a bien dans ce cas det DA = det D det A. Le théorème ?? montre que toute matrice A de Mn (R) est un produit de matrices associées à des transformation de type (1) ou (2). Multiplier à gauche par A, c’est donc multiplier successivement par de telles matrices. Si A = L1 . . . Lk , on a det(AB) = det(L1 ) . . . det(Lk ) det B Pour B = In on trouve det A = det(L1 ) . . . det(Lk ) det In ce qui donne la formule attendue. 4.11. Corollaire. Soit A une matrice inversible dans Mn (R). Alors det(A−1 ) = (det A)−1 . Démonstration. On a AA−1 = In et det In = 1 d’où det A det(A−1 ) = 1 ce qui montre le résultat. 11 4.12. Calcul de l’inverse. On considère une matrice A de Mn (R). Le coefficient de A situé sur la i-ème ligne et la j-ème colonne est noté ai,j pour i et j de 1 à n. On appelle cofacteur Ci,j la quantité (−1)i+j ∆i,j où où ∆i,j est le déterminant de la matrice (n − 1) × (n − 1) obtenue en oubliant la première ligne et la j-ème colonne de A. Avec ces notations, le développement de det A par rapport à la ligne de numéro i s’écrit n X det A = ai,j Ci,j . j=1 On appelle matrice des cofacteurs de A (ou comatrice de A) la matrice dont le coefficient situé sur la i-ème ligne et la j-ème colonne est Ci,j . On la note c(A). 4.13. Théorème. On considère une matrice A de Mn (R) et la matrice de ses cofacteurs c(A). Alors (det A)In = A tc(A) = tc(A) A. En particulier, si det A est inversible, A est aussi inversible et on a A−1 = (det A)−1 tc(A). Démonstration. On calcule le coefficient du produit des matrices A tc(A) situé à la ligne numéro i et à la colonne numéro j. Il vaut : n X Ai,k Cj,k . k=1 Lorsque i = j on trouve det A. Lorsque i 6= j, on trouve le développement du déterminant de la matrice obtenue en remplaçant la ligne numéro j de A par la ligne numéro i. Mais, puisque i 6= j la matrice ainsi obtenue a deux lignes qui sont égales. Son déterminant est donc nul. Remarque : Le calcul du déterminant d’une matrice de Mn (R) ne fait intervenir que les opérations d’addition et de multiplication dans R sans jamais faire intervenir de calcul d’inverse. De même le calcul du produit de deux matrices ne fait intervenir que ces mêmes opérations. On peut donc considérer des matrices à coefficients complexes, entiers, polynômes ou plus généralement à coefficients dans un anneau commutatif unitaire. Leur déterminant est bien défini et c’est un complexe, un entier, un polynôme ou un élément de l’anneau commutatif unitaire considéré. Le produit de deux telles matrices sera encore du même type et le théorème 4.10 valide. Le théorème 4.13 s’étend donc, avec la même preuve, de la manière suivante : Soit A une matrice à coefficients entiers (resp. polynômes) qui a un inverse à coefficients entiers (resp. polynômes). Alors son déterminant est inversible dans les entiers (resp. polynômes). Il vaut donc 1 ou −1 (resp. il est un polynôme constant non nul) Réciproquement si det A est inversible dans les entiers (resp. les polynômes) alors A a un inverse a coefficients entiers (resp. polynômes). Par exemple, la matrice a coefficients entiers 3 −1 2 1 a un déterminant égal à 5. Elle est inversible dans M2 (R), mais on peut affirmer que son inverse n’est pas à coefficients entiers. 4.13.1. Exercice. . On considère un système linéaire homogène de n−1 équations à n inconnues. On suppose qu’il est de rang maximum n − 1. Montrer que l’espace des solutions est une droite vectorielle. 12 On désigne par A la matrice du système. Montrer qu’une base de cette droite est donnée par le vecteur de coordonnées ∆1 , . . . , ∆n où ∆i est le déterminant de la matrice n − 1 × n − 1 obtenue en oubliant la i-ème colonne de A. Application : On donne deux plans de R3 d’équations respectives 3x − 5y + −z = 0 et x − 2y + 9z = 0. Déterminer une base de leur intersection. / 4.14. Polynôme caractéristique d’une matrice carrée. Le théorème qui suit est simplement une traduction de la définition. On utilise la propriété fondamentale du déterminant. 4.15. Théorème. On considère une matrice A dans Mn (R) et un scalaire λ dans R. Les propriétés suivantes sont équivalentes : (1) λ est valeur propre de A (2) La matrice A − λIn n’est pas de rang maximum. (3) Le déterminant det(A − λIn ) est nul. Étant donnée une matrice A dans Mn (R), on considère la matrice A − T In à coefficients polynômes en T . Comme le calcul du déterminant ne fait intervenir que des multiplications et des additions, il est possible de calculer le déterminant d’une matrice de Mn (R[T ]). C’est un polynôme de R[T ]. 4.16. Définition. On considère une matrice A dans Mn (R) et la matrice A−T In dans Mn (R[T ]). Le déterminant det(A − T In ) est un polynôme à coefficients dans R qu’on appelle le polynôme caractéristique de A. Ses racines dans R sont les valeurs propres de A dans R. Considérons une matrice A triangulaire dans Mn (R) et désignons par λ1 , . . . , λn ses coefficients diagonaux. Alors, A − T In est aussi triangulaire et son déterminant est le produit de ses éléments diagonaux λ1 − T, . . . , λn − T . On en déduit que les valeurs propres de la matrice triangulaire A, comptées avec multiplicité, sont ses éléments diagonaux. Université de Nice 2012-13 SL2SF Algèbre 2 Changements de variables. 5. Changement de base 5.1. On considère un corps K et un espace vectoriel E de dimension finie sur K muni d’une base B := (e1 , . . . , en ). Un vecteur x de E a pour coordonnées (x1 , x2 , . . . , xn ) dans la base B. Cela veut dire qu’il se décompose en x = x1 e1 + . . . xn en . Pour ne pas confondre scalaires et vecteurs on peut mettre des flèches sur ces derniers : l’écriture devient ~x = x1~e1 + . . . xn~en . On se donne une autre base B 0 := (~1 , . . . ,~n ) de E. On va l’appeler la nouvelle base et on va appeler B l’ancienne base. Comment se donner les vecteurs de la famille B 0 ? Par leurs coordonnées dans la base B. Pour j de 1 à n, chacun des ~ej a une décomposition unique sur la base B (5.1.1) ~j = P1,j ~e1 + . . . Pn,j ~en . Ainsi, Pi,j est la i-ème coordonnée du vecteur ~j dans la base B. On inscrit ces coordonnées dans une matrice de Mn (K). Ainsi la j-ème colonne de cette matrice est la liste (P1,j , . . . , Pn,j ) des coordonnées de ~j dans la base B. On appelle la matrice P matrice de passage de la base B à la base B 0 . Si ~x est un vecteur de E, on note X la matrice colonne de ses coordonnées dans la base B et X 0 la matrice colonne des coordonnées de ~x dans la base B 0 . En partant de ~x = x01~1 + . . . x0n~n et en substituant dans cette formule l’expression (5.1.1) des vecteurs de B 0 dans la base B, on trouve ! ! n n n n n X X X X X ~x = x01~1 + . . . x0n~n = x0i~i = x0i Pk,i~ek = Pk,i x0i ~ek . i=1 i=1 k=1 k=1 i=1 On en déduit la décomposition de ~x dans la base B. Comme cette décomposition est unique, on en P déduit que xk = ni=1 Pk,i x0i pour k de 1 à n. Autrement dit, la matrice colonne X est le produit de la matrice P par la matrice X 0 : X = P X 0. On obtient le slogan suivant : la matrice de passage de l’ancienne base B à la nouvelle base B 0 a pour coefficients les coordonnées des vecteurs de la nouvelle base dans l’ancienne et elle permet de calculer les anciennes coordonnées d’un vecteur au moyen des nouvelles. 5.2. Théorème. On considère un corps K et un espace vectoriel E de dimension finie sur K muni d’une base B := (~e1 , . . . , ~en ). (1) Étant donnée une base B 0 de E, la matrice de passage P de B à B 0 est une matrice inversible : son rang est n et son déterminant est non nul. La matrice de passage de B 0 à B est P −1 . (2) Réciproquement, on considère une matrice inversible P dans Mn (K). Il existe une unique base B 0 de E telle que P est la matrice de passage de B à B 0 . 14 Démonstration. (1) Désignons par P 0 la matrice de passage de B 0 à B. Si ~x est un vecteur de E, on note X la matrice colonne de ses coordonnées dans la base B et X 0 la matrice colonne des coordonnées de ~x dans la base B 0 . On a donc X = P X 0 et X 0 = P 0 X d’où X = P P 0 X. En prenant successivement pour ~x les vecteurs de la base B, on en déduit les égalités suivantes : n X 0 Pi,j Pj,k = 0 si i 6= k j=1 =1 si i = k qui prouvent que le produit de matrices P P 0 est égal à In . (2) Pour j de 1 à n, on considère le vecteur ~j dont les coordonnées dans la base B sont les coefficients de la j-ème colonne Pn de P . Montrons que la famille (~1 , . . . ,~n ) est libre. Considérons une combinaison linéaire j=1 λj~j . La matrice colonne de ses coordonnées dans la base B est la P combinaison linéaire nj=1 λj Pj des colonnes de P . Comme P est de rang n, une telle combinaison linéaire est nulle si et seulement si tous les λj sont nuls. 5.3. Déterminant d’une famille de vecteurs. On considère un corps K et un espace vectoriel E de dimension finie sur K muni d’une base B. On considère d’autre part une famille de n vecteurs (~v1 , . . . , ~vn ) de E et la matrice M de leurs coordonnées dans la base B. Le coefficient Mi,j de M situé à la ligne numéro i et à la colonne numéro j est donc égal à la i-ème coordonnée du vecteur vj dans la base B. On appelle déterminant de la famille (~v1 , . . . , ~vn ) dans la base B le déterminant de la matrice M . On le note detB (~v1 , . . . , ~vn ). Ce déterminant dépend de la famille (~v1 , . . . , ~vn ) et de la base B. On se donne une base B 0 de E et la matrice de passage P de B à B 0 . On désigne par M 0 la matrice des coordonnées des vecteurs de la famille (~v1 , . . . , ~vn ) dans la base B 0 . Pour j de 1 à n, on note Vj (resp. Vj0 ) la matrice colonne des coordonnées de ~vj dans la base B (resp. B 0 ). On a Vj = P Vj0 pour j de 1 à n. La règle de calcul du produit de matrices donne M = P M 0 et en passant aux déterminants det(~v1 , . . . , ~vn ) = det P det (~v1 , . . . , ~vn ). 0 B B On voit donc que le déterminant de la famille de vecteurs (~v1 , . . . , ~vn ) dans la base B dépend de la base B dans lequel on le calcule. En revanche, il est nul dans une base si et seulement s’il est nul dans toutes les bases. 5.4. Aires. On travaille dans R2 , muni du produit scalaire qui fait de la base canonique B0 une base orthonormée. Si ~u et ~v sont deux vecteurs et B une base orthonormée, on note U et V les matrices colonnes des coordonnées de ~u et ~v dans la base B. Alors, le produit scalaire h~u | ~v i se calcule par la formule suivante h~u | ~v i = u1 v1 + u2 v2 . Pour une matrice P de M2 (R) les propriétés suivantes sont équivalentes : (1) P est la matrice de passage d’une base orthonormée à une autre base orthonormée. (2) La transposée tP est l’inverse de P . Démonstration. Dire que le produit tP P vaut I2 , c’est dire que les relations suivantes sont vérifiées : 2 2 2 2 = P1,2 + P2,2 = 1, P1,1 + P2,1 P1,1 P1,2 + P2,1 P2,2 = 0. 15 Lorsqu’une matrice P de M2 (R) vérifie l’une des propriétés ci-dessus, on dit qu’elle est orthogonale. Les matrices orthogonales de M2 (R) forment un groupe pour la multiplication des matrices, noté O(2, R). C’est un sous-groupe du groupe des matrices inversibles GL2 (R). 5.5. Théorème. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une base orthonormée et deux vecteurs ~u et ~v dans R2 . On choisit comme aire unité celle du carré construit sur les vecteurs de B0 . L’aire du parallélogramme déterminé par ~u et ~v est égale à la valeur absolue du déterminant detB0 (~u, ~v ). Si B est une autre base orthonormée, la valeur absolue du déterminant detB (~u, ~v ) est égale à l’aire du parallélogramme construit sur ~u et ~v . Démonstration. On remarque d’abord que detB (~u, ~v ) = det P detB0 (~u, ~v ) où P est la matrice de passage de B0 à B. Comme cette matrice est orthogonale, son déterminant vaut 1 ou -1 et les deux déterminants detB (~u, ~v ) et detB0 (~u, ~v ) ont même valeur absolue. Pour calculer cette valeur absolue il suffit donc de choisir une base orthonormée. On note que si ~u et ~v sont colinéaires, alors detB0 (~u, ~v ) = 0. Supposons qu’ils ne sont pas colinéaires. On choisit une base orthormée (~e1 , ~e2 ) avec ~e1 colinéaire à ~u (par exemple ~u/k~uk). On décompose v sur la base (~e1 , ~e2 ) en ~v = v1~e1 +v2~e2 . Comme e1 est colinéaire à u on a (propriétés du déterminant, voir paragraphes 10.8 et 4.4) det(~u, ~v ) = det(~u, v1~e1 + v2~e2 ) = det(~u, v1~e1 ) + det(~u, v2~e2 ) = det(~u, v2~e2 ). B B B B B Comme ~u est colinéaire à ~e1 , la matrice des coordonnées dans la base B des vecteurs ~u et v2~e2 est u1 0 0 v2 où u1 est la coordonnée de ~u sur ~e1 . Le déterminant de cette matrice a pour valeur absolue |u1 | |v2 |. Mais |u1 | est la longueur du vecteur u (la base du parallélogramme) et |v2 | est la longueur de la projection de ~v sur la direction perpendiculaire à ~u (la hauteur). C’est donc bien l’aire d’un rectangle qui a même base et même hauteur que le parallélogramme construit sur ~u et ~v lorsqu’on prend comme unité l’aire du carré construit sur les deux vecteurs d’une base orthonormée. 5.6. Corollaire. On considère R2 muni du produit scalaire qui fait de la base canonique B0 une base orthonormée et deux vecteurs ~u et ~v dans R2 . On appelle α l’angle (~u, ~v ). On a alors, pour toute base orthonormée B, | det(~u, ~v )| = kukkvk| sin α| B 5.7. Volumes. De manière similaire à ce qui précède, on démontre : 5.8. Théorème. On considère R3 muni du produit scalaire qui fait de la base canonique B0 une base orthonormée et trois vecteurs ~u, ~v et w ~ dans R3 . On choisit comme volume unité celui du cube construit sur les vecteurs de B0 . Le volume du parallélépipède déterminé par ~u, ~v et w ~ est égal, pour toute base orthonormée B, à la valeur absolue du déterminant detB (~u, ~v , w). ~ Démonstration. La preuve est similaire. On remarque d’abord que si ~u, ~v , w ~ sont coplanaires alors le volume et le déterminant sont tous les deux nuls. On les suppose alors non coplanaires et on choisit une base orthonormée B = (~e1 , ~e2 , ~e3 ) obtenue en complétant une base orthonormée 16 C := (~e1 , ~e2 ) du plan engendré par ~u et ~v . En décomposant w ~ en w ~0 + w ~ 00 où w ~ 00 est colinéaire à ~e3 00 on obtient que w ~ = w3~e3 et ~ 0 + w~00 ) = det(~u, ~v , w~00 ). det(~u, ~v , w) ~ = det(~u, ~v , w B B B En développant ce dernier déterminant par rapport à la dernière colonne on trouve det(~u, ~v , w~00 ) = w3 det(~u, ~v ), B C ce qui est bien le produit de l’aire de la base par la hauteur du parallélépipède. 5.9. Applications linéaires et changements de base. On considère un corps K et deux espaces vectoriels E et F de dimensions finies p et n sur K. On se donne des bases B de E et C de F . Une application linéaire u : E −→ F est donnée par sa matrice dans les bases B et C (voir section ??). On note cette matrice A. C’est une matrice à n lignes et p colonnes dans Mn,p (K). On fixe une nouvelle base B 0 de E et une nouvelle base C 0 de F et on veut calculer la matrice de u dans les bases B 0 et C 0 . On note P la matrice de passage de B à B 0 et Q la matrice de passage de C à C 0 . Pour cela on considère un vecteur ~x de E et on note X (resp. X 0 ) la matrice colonne de ses coordonnées dans la base B (resp. B 0 ). On appelle ~y l’image u(~x) et on note Y (resp. Y 0 ) la matrice colonne de ses coordonnées dans la base B (resp. B 0 ). On a les égalités matricielles suivantes : Y = AX, X = P X 0, Y = QY 0 . On en déduit que pour tout ~x de E, on a Y 0 = Q−1 AP X 0 , ce qui montre que la matrice A0 de u dans les bases B 0 et C 0 est A0 = Q−1 AP. 5.10. Endomorphismes. On considère un corps K et un espace vectoriel E de dimension finie n sur K muni d’une base B. On appelle endomorphisme de E une application linéaire u : E −→ E. Une telle application est donnée par sa matrice dans la base B. On note cette matrice A. C’est une matrice carrée dans Mn (K). On fixe une nouvelle base B 0 de E et on note P la matrice de passage de B à B 0 . On note A0 la matrice de u dans la base B 0 . On a alors : A0 = P −1 AP. 5.11. Théorème. On considère un corps K, un espace vectoriel E de dimension finie n sur K et un endomorphisme u de E. On fixe une base B de E et on considère la matrice A de u dans B. Le déterminant det A ne dépend que de u et pas de la base utilisée pour le calculer. On l’appelle déterminant de u. De même, le polynôme caractéristique det(A−T In ) ne dépend que de u et ne dépend pas de la base utilisée pour le calculer. On l’appelle polynôme caractéristique de u. Ses racines sont les valeurs propres de u. Pour calculer le polynôme caractéristique d’un endomorphisme u, il suffit de calculer le polynôme caractéristique de la matrice de u dans une base B de E (n’importe quelle base convient). 5.12. Corollaire. Sous les hypothèses du théorème, on considère une valeur propre λ de u et l’espace propre associé, noté Eλ . La dimension de Eλ est majorée par la multiplicité de λ comme racine du polynôme caractéristique. 17 Démonstration. On considère une base (e1 , . . . , ed ) de Eλ que l’on complète en une base B = (e1 , . . . , ed , . . . , en ) de E. Dans la base B la matrice A de u est triangulaire par blocs : λId B A= 0 C où Id est la matrice unité de Mk (K) et C une matrice de Mn−d (K). La matrice A − T In s’écrit donc (λ − T )Id B A − T In = . 0 C − T In−d En développant son déterminant par rapport aux premières colonnes, on trouve det(A − T In ) = (λ − T )d det(C − T In−d ). On en déduit que (λ − T )d divise le polynôme caractéristique, donc que d est plus petit que la multiplicité de λ comme racine du polynôme caractéristique de u (définition de la multiplicité en 10.8). 5.13. Théorème. On considère un corps K, un espace vectoriel E de dimension finie n sur K et un endomorphisme u de E. On choisit des valeurs propres λ1 , . . . , λr de u distinctes deux à deux. On considère les espaces propres E1 , . . . , Er associés respectivement à λ1 , . . . , λr . Pour j de 1 à r, on se donne une base de Ei qu’on appelle Bi . La famille F obtenue en concaténant les Bi (i de 1 à r) est une famille libre. Démonstration. Supposons la conclusion du théorème fausse et considérons le premier indice s, s < r, tel que – la famille obtenue en concaténant B1 , B2 , . . . , Bs est une famille libre – la famille obtenue en concaténant B1 , B2 , . . . , Bs , Bs+1 est liée. Il existe alors au moins un vecteur ~x non nul de Es+1 qui est une somme ~x1 + ~x2 + . . . + ~xs avec ~xi dans Ei . Appliquons u à tous ces vecteurs : on a u(~x) = λs+1~x et u(~xi ) = λi~xi . On en déduit que ~x = ~x1 + . . . + ~xs λs+1~x = λ1~x1 + . . . + λs~xs . Par combinaison linéaire de ces deux égalités on obtient 0 = (λs+1 − λ1 )~x1 + . . . (λs+1 − λs )~xs . Or une telle combinaison linéaire a nécessairement tous ses termes nuls puisque la concaténation des B1 , B2 , . . . , Bs est une famille libre. Ceci entraı̂ne, puisque les λi sont deux à deux distincts, que les ~xi sont tous nuls. On obtient que ~x est nul aussi, ce qui contredit l’hypothèse. 5.14. Définition. Une matrice A de Mn (K) est diagonalisable s’il existe une base de Kn formée de vecteurs propres de A. Un endomorphisme u de E est diagonalisable s’il existe une base de E formée de vecteurs propres de u. L’endomorphisme u est diagonalisable si et seulement si sa matrice dans une base B de E est diagonalisable. Si A est diagonalisable, on a une base B 0 := (~1 , . . . ,~n ) de vecteurs propres de A. Notons (λ1 , . . . , λn ) les valeurs propres associées. Désignons par P la matrice de passage de la base canonique B0 à la base B 0 . La j-ème colonne de P a pour coefficients les coordonnées de ~j . On a donc AP = P D où D est la matrice diagonale diag(λ1 , . . . , λn ). On en déduit que D = P −1 AP . On dira que D est une matrice diagonale semblable à A. 18 Supposons u diagonalisable. On se donne une base B de E et la matrice A de u dans cette base. Désignons par B 0 une base formée de vecteurs propres et P la matrice de passage de B à B 0 . La matrice D de u dans la base B 0 est diagonale. Pour i de 1 à n, le i-ème coefficient sur la diagonale de D est la valeur propre associée au vecteur propre ~i . La formule de changement de base pour les endomorphismes (5.10) donne D = P −1 AP. 5.15. Théorème. Une matrice A de Mn (K) ayant n valeurs propres distinctes deux à deux est diagonalisable. C’est le cas lorsque le polynôme caractéristique a n racines simples. Démonstration. Désignons par λ1 , . . . , λn les valeurs propres de A. Pour i de 1 à n, on désigne par ~vi un vecteur propre associé à la valeur propre λi . Le théorème 5.13 montre que la famille (~v1 , . . . , ~vn ) est libre. Comme elle a n éléments, c’est une base de Kn . 6. Applications 6.1. Systèmes dynamiques linéaires discrets. Ce paragraphe fait suite aux exemples de 2.4. Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp (K), un vecteur U0 dans Kp et on considère la suite de vecteurs de premier terme U0 définie, pour n ≥ 0, par : Un+1 = AUn . Le problème est le suivant : quel est le comportement asymptotique de la suite de vecteurs (Un )n∈N quand n tend vers l’infini ? Comment ce comportement dépend-il du terme initial U0 ? Par comportement asymtotique on entend : la limite éventuelle, un équivalent, ou même un développement limité quand n tend vers l’infini. On dira que la suite (Un )n∈N de vecteurs de Kp a une limite L dans Kp si et seulement si, pour j de 1 à p, la suite de terme général Un,j (la j-ème coordonnée de Un ) a pour limite Lj dans K. Pour n entier, on a Un = An U0 . Etudier la suite de vecteurs (Un )n∈N revient à étudier la suite des images d’un vecteur U0 par les puissances de la matrice A. 6.1.1. Exemple. Considérons la matrice suivante : 0, 8 0, 2 A := . 0, 1 0, 9 Son polynôme caractéristique est T 2 − (1, 7)T + 0, 7 dont les racines sont 1 et 0, 7. Le vecteur W := (1, 1) est un vecteur propre associé à la valeur propre 1, tandis que le vecteur W := (−2, 1) est un vecteur propre associé à la valeur propre 0, 7. L’action de la matrice A sur ces deux vecteurs est simple. AV = V donc An V = V . D’autre part AW = (0, 7)W donc An W = (0, 7)n W . Pour n fixé, l’application V 7−→ An V est linéaire comme composée d’applications linéaires. Tout vecteur U0 de R2 se décompose sur la base (V, W ). Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient An U0 = αAn V + βAn W = αV + β(0, 7)n W. Quand n tend vers l’infini, (0, 7)n tend vers 0 et on en déduit que Un = An U0 tend vers αV . Cette limite ne dépend que de la décomposition de U0 dans la base (V, W ). Par exemple, si U0 = (1, 0), on a 1 1 U0 = − V − W. 4 4 La limite de la suite de premier terme (1, 0) est donc − 14 V = (− 14 , − 41 ). 19 6.1.2. Exemple. Considérons maintenant la matrice : 0, 8 0, 1 A := . 0, 1 0, 8 Son polynôme caractéristique est T 2 − (1, 6)T + 0, 63 dont les racines sont 0, 9 et 0, 7. Le vecteur V := (1, 1) est un vecteur propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1) est un vecteur propre associé à la valeur propre 0, 7. L’action de la matrice A sur ces deux vecteurs est la suivante : AV = (0, 9)V donc An V = (0, 9)n V . D’autre part AW = (0, 7)n W donc An W = (0, 7)n W . Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient An U0 = αAn V + βAn W = α(0, 9)n V + β(0, 7)n W. Quand n tend vers l’infini, (0, 7)n et (0, 9)n tendent vers 0 et on en déduit que Un = An U0 tend vers le vecteur nul. On peut être un peu plus précis et calculer par exemple la limite de la pente du vecteur Un dans la base (V, W ). Cette pente est infinie si β = 0 et sinon vaut n β(0, 7)n β 0, 7 = α(0, 9)n α 0, 9 qui tend vers 0 quand n tend vers l’infini. Comment interpréter ce résultat ? (1) Quand α = 0, c’est-à-dire quand U0 est colinéaire à W , le vecteur Un reste colinéaire à W . (2) Quand α 6= 0 (même s’il est très petit), la pente du vecteur Un dans la base (V, W ) tend vers 0. Le vecteur Un tend vers le vecteur nul et sa direction tend vers la direction de V . 20 6.1.3. Exemple. Considérer maintenant la matrice : 0, 9 0, 1 A := . 0, 11 0, 91 et expliquer le dessin obtenu ci-dessous. 21 6.2. Systèmes différentiels. À savoir avant de commencer. On considère un réel a, un réel y0 et l’équation différentielle y 0 = ay. Il existe une unique fonction t 7−→ y(t) dérivable sur R, telle que y 0 (t) = ay(t) pour tout t réel et y(0) = y0 . C’est la fonction définie sur R par t 7−→ y0 eat . De manière analogue, si a et y0 sont des complexes, il existe une unique fonction y de R dans C, dérivable, telle que y 0 (t) = ay(t) et y(0) = y0 . C’est la fonction t 7−→ y0 eat . Si σ et ω sont les parties réelles et imaginaires de a, alors on a : eat = e(σ+iω)t = eσt eiωt = eσt (cos ωt + i sin ωt). 6.2.1. Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp (K), un vecteur U0 dans Kp et on considère le système différentiel dU (6.2.1) = AU. dt Une solution du système différentiel 6.2.1 est une fonction U : R 7−→ Kp , c’est-à-dire un p-uplet de fonctions U := (u1 , . . . , up ) à valeurs dans K, telles que : Pp 0 u1 (t) = A1,1 u1 (t) + . . . + A1,p up (t) = j=1 A1,j uj (t) . . .. .. Pp 0 ui (t) = Ai,1 u1 (t) + . . . + Ai,p up (t) = j=1 Ai,j uj (t) .. .. . . P 0 p un (t) = An,1 u1 (t) + . . . + An,p up (t) = j=1 An,j uj (t). Une solution du système différentiel 6.2.1 de condition initiale U0 est une solution qui vérifie de plus U (0) = U0 . 6.3. Théorème. On désigne par K l’un des corps R ou C et par p un entier. On se donne une matrice A dans Mp (K), un vecteur U0 dans Kp et on considère le système différentiel dU = AU. dt Il existe une unique solution du système de condition initiale U0 . 6.3.1. Exemple. Considérons la matrice A de l’exemple 6.1.2. Le vecteur V := (1, 1) est un vecteur propre associé à la valeur propre 0, 9, tandis que le vecteur W := (−1, 1) est un vecteur propre associé à la valeur propre 0, 7. Considérons la fonction U : R −→ R2 t 7−→ e(0,9)t V. C’est une solution du système de condition initiale V . En effet, la valeur de U en 0 est V et la dérivée de U est la fonction t 7−→ (0, 9)e(0,9)t V . Or V est un vecteur propre de valeur propre (0, 9). On a donc (0, 9)V = AV et (0, 9)e(0,9)t V = A e(0,9)t V . De même, la fonction t 7−→ e(0,7)t W est une solution du système de condition initiale W . Pour un vecteur U0 se décomposant en U0 = αV + βW , on obtient une solution de condition initiale U0 en prenant U (t) = αe(0,9)t V + βe(0,7)t W . 22 Le théorème 6.3 affirme que c’est la seule. Vérifions-le ici. Soit Ũ une autre solution de condition initiale U0 . La fonction U − Ũ est une solution de condition initiale 0. Montrer l’unicité de la solution de condition initiale U0 revient donc à montrer que la fonction nulle est l’unique solution de condition initiale 0. Désignons par P la matrice de passage de la base canonique de R2 à la base (V, W ) formée de vecteurs propres de A et par D la matrice diagonale 0, 9 0 D := . 0 0, 7 On a alors A = P DP −1 . Considérons une solution U de condition initiale 0 et posons S = P −1 U . On a alors : dS d(P −1 U ) dU = = P −1 = P −1 AU = DP −1 U = DS. dt dt dt On en déduit que les fonctions coordonnées de S vérifient donc S10 (t) = (0, 9)S1 (t), S20 (t) = (0, 7)S2 (t), S1 (0) = 0 S2 (0) = 0. On est alors ramené à des équations différentielles linéaires d’ordre 1 à coefficients constants. La seule solution est la fonction nulle. Sur ce dessin, on a representé, pour diverses conditions initiales, l’ensemble des extrémités des vecteurs U (t) lorsque t varie de −10 à −5. Sur ce dessin, on a representé, pour les mêmes conditions initiales, l’ensemble des extrémités des vecteurs U (t) lorsque t varie de −10 à 10. 23 Quelle différence entre les deux dessins ? Considérer l’échelle. Pouvez-vous expliquer cette différence en étudiant la limite de la pente du vecteur U (t) quand t tend vers −∞ ou +∞ ? Voici un troisième dessin, qui représente, toujours pour les mêmes conditions initiales, l’ensemble des extrémités des vecteurs U (t) lorsque t varie de −10 à 5. 24 Note : Pour tout point du plan de coordonnées (x, y) on a representé par un vecteur d’origine x (x, y) la valeur de A . On peut vérifier que les courbes représentées sont tangentes en (x, y) y x au vecteur A . En effet, le vecteur de coordonnées (x0 (t), y 0 (t)) est le vecteur vitesse au point y de coordonnées (x(t), y(t)) le long de la courbe paramétrée t 7−→ (x(t), y(t)) tracée dans R2 . Si cette courbe paramétrée est une solution de l’équation différentielle, on a 0 x (t) x(t) =A . y 0 (t) y(t) 25 10. Définitions, commentaires 10.1. Espace vectoriel. On se donne un corps K et un ensemble E muni d’une addition notée +. On dit que E a une structure d’espace vectoriel sur K si (1) E est un groupe abélien pour la loi +. On note 0 l’élément neutre de cette loi. (2) Il existe une action de K sur E (appelée multiplication par un scalaire). Pour tout élément λ de K, et tout vecteur x de E, λx est un élément de E. Cette multiplication a les propriétés suivantes – pour x dans E on a 1x = x. – pour α et β dans K, et x dans E on a (α + β)x = αx + βx. – pour α et β dans K, et x dans E on a α(βx) = (αβ)x. (3) pour α dans K, x et y dans E, on a α(x + y) = αx + αy. 10.2. Sous-espace vectoriel. On considère un espace vectoriel E sur un corps K et un sousensemble F de E. On dit que F est un sous-espace vectoriel de E si F contient 0 et stable par combinaison linéaire. 10.3. Sous-espace vectoriel engendré. On considère un espace vectoriel E sur un corps K et une famille (v1 , . . . , vp ) de p vecteurs de E. Le sous-espace vectoriel engendré par la famille (v1 , . . . , vp ) est l’ensemble de toutes les combinaisons linéaires : λ1 v1 + . . . + λp vp pour λ1 , . . . , λp scalaires de K. Vérifier que c’est bien un sous-espace vectoriel de E. On le note Vect(v1 , . . . , vj ). On convient que la famille vide engendre le sous-espace réduit à 0. 10.4. Bases, dimension. On se donne un espace vectoriel E sur un corps K. Une famille B := (ei )i∈I de vecteurs de E est une base de E si tout vecteur x de E se décompose de manière unique comme combinaison linéaire finie d’éléments de B. Lorsque E, espace vectoriel sur K, peut être engendré par un ensemble fini, alors il possède une base finie et toutes ses bases ont le même nombre d’éléments. Ce nombre est appelé dimension de E. Lorsque E n’a aucune base finie, on dit que E est de dimension infinie. L’espace vectoriel K[X] des polynômes à coefficients dans K est dans ce dernier cas. On considère E espace vectoriel de dimension finie n sur K, avec une base B := (e1 , . . . , en ). Tout vecteur x de E a une décomposition unique n X x = α1 e1 + α2 e2 + . . . + αn en = αi e i . i=1 Par exemple, la seule façon d’écrire le vecteur nul est de prendre tous les coefficients égaux à 0. 10.5. Théorème de la base incomplète : On se donne un espace vectoriel E sur un corps K et une famille libre de vecteurs de E. On peut compléter cette famille en une base de E. 10.6. Application linéaire. On travaille sur un corps K. On se donne deux espaces vectoriels E et F sur K et une application f : E −→ F . On dit que f est K-linéaire (linéaire s’il n’y a pas d’ambiguı̈té) si (1) f est compatible avec l’addition : pour x et y vecteurs de E f (x + y) = f (x) + f (y). 26 (2) f est compatible avec la multiplication par un scalaire : pour x vecteur de E et λ scalaire f (λx) = λf (x). On appelle noyau de f , l’ensemble des solutions dans E de l’équation f (x) = 0. On le note ker f : ker f := {x ∈ E | f (x) = 0}. C’est un sous-espace vectoriel de E. On appelle image de f et on note f (E), le sous-ensemble des vecteurs de F qui ont au moins un antécédent : f (E) := {y ∈ F | ∃x ∈ E, y = f (x)}. C’est un sous-espace vectoriel de E. 10.7. Image inverse. On se donne une application f : E −→ E. L’image inverse d’une partie G de F est l’ensemble des antécédents des éléments de G, c’est-à-dire f −1 (G) := {x ∈ E | f (x) ∈ G}. On voit que f −1 (G) est une partie de E et non un élément. On considère alors E et F , espaces vectoriels sur K et f une application linéaire de E dans F . Lorsque G est réduit à l’élément 0 de F , l’image inverse f −1 (0) qui est alors le noyau de f , contient en général plus d’un élément de E. On voit donc que écrire f −1 (0) ne suppose pas que f est bijective, ou que l’application inverse de f existe. 10.8. Polynômes, racines. On considère un corps K et un polynôme P à coefficients dans K de degré d. Un tel polynôme a une écriture unique P (T ) = ad T d + ad−1 T d−1 + . . . + a0 avec ad 6= 0. On dit qu’un scalaire λ de K est une racine de P si P (λ) = 0 dans K, autrement dit si P (λ) = ad λd + ad−1 λd−1 + . . . + a0 = 0. Un théorème classique est le suivant : λ est racine de P si et seulement si T − λ divise P (T ) dans K[T ]. On désigne par r un entier. On dit que λ est racine de multiplicité r de P si et seulement si (T − λ)r divise P (T ) dans K[T ] et (T − λ)r+1 ne divise pas P (T ) dans K[T ]. On dit qu’un polynôme de K[T ] est scindé dans K[T ] s’il est produit dans K[T ] de facteurs de degré 1. Le théorème de d’Alembert-Gauss affirme que : un polynôme de degré d de C[T ] est scindé dans C[T ]. C’est-à-dire : il existe des entiers m1 , . . . , mk tels que m1 +. . .+mk = d et des complexes distincts deux à deux λ1 , . . . , λk , racines de P de multiplicités respectives m1 , . . . , mk . On a donc k Y P (T ) = ad (T − λi )mi . i=1 En particulier, un polynôme de degré non nul a au moins une racine complexe. 27 10.9. Produit scalaire euclidien. On considère un espace vectoriel E sur le corps des réels R. et une application E × E −→ R (x, y) 7−→ hx | yi qui, pour mériter le nom de produit scalaire euclidien, doit vérifier les propriétés suivantes : pour tous x et y de E, pour tout λ scalaire réel, on a (1) Elle est bilinéaire hx0 + x00 | yi hx | y 0 + y 00 i hλx | yi hx | λyi = = = = hx0 | yi + hx00 | yi hx | y 0 i + hx | y 00 i λhx | yi λhx | yi (2) Elle est symétrique. hx | yi = hy | xi (3) Elle est définie positive. hx | xi ≥ 0 et hx | xi = 0 =⇒ x = 0. 10.10. Norme. On considère un espace vectoriel E sur R. Une application E −→ R+ x 7−→ kxk est une norme si elle vérifie les axiomes suivants : (1) Homogénéité : pour λ scalaire et x vecteur, kλxk = |λ|kxk (2) Positivité stricte : pour x dans E, kxk ≥ 0 et kxk = 0 =⇒ x = 0. (3) Inégalité triangulaire : pour tous x et y vecteurs de E, kx + yk ≤ kxk + kyk. Un produit scalaire euclidien (voir 10.9) définit une norme, dite euclidienne. Pour x vecteur de E, on pose p kxk := hx | xi. Il existe cependant des normes qui ne proviennent pas d’un produit scalaire : par exemple sur l’espace vectoriel R2 on considère l’application R2 −→ R+ (x1 , x2 ) 7−→ sup |x1 |, |x2 | est une norme (le vérifier).