École des Mines de Douai — FIAASMathématiques Algèbre linéaire Algèbre linéaire : rappels et compléments F. Delacroix, École des Mines de Douai, 21 octobre 2010 Introduction Le présent polycopié est divisé en deux grandes parties : – un ensemble de rappels de notions et résultats fondamentaux d’algèbre linéaire vus en classe de mathématiques supérieures, – un cours plus détaillé sur la notion de déterminant, dont seuls les cas de la dimension 2 ou 3 sont au programme de certaines filières de mathématiques supérieures. Il n’est pas nécessaire à tout un chacun de comprendre tous les tenants et aboutissants de la théorie, notamment certaines démonstrations assez difficiles (signalées par (♠)). Il est en revanche capital de bien maîtriser toutes les notions de la première partie et les passages signalés par un symbole (F) dans la seconde partie. Ce poly ne fera pas l’objet d’un cours magistral mais deux séances de TD y seront consacrées. On trouvera davantage de développements dans n’importe quel ouvrage d’algèbre linéaire. Dans tout ce cours, K désigne un corps commutatif de caractéristique différente de 2 (c’est-à-dire pour lequel 1 + 1 6= 0), qui sera généralement R ou C. (♠) Remarque Il existe des corps de caractéristique 2, comme Z/2Z = {0, 1}... Première partie Rappels de mathématiques supérieures 1 Applications linéaires Définition 1 Soient E et F deux K-espaces vectoriels, f : E → F une application. On dit que • f est linéaire, ou que c’est un morphisme d’espaces vectoriels si ∀(x, y) ∈ E 2 , ∀λ ∈ K, f (x + λy) = f (x) + λf (y). Autrement dit, une telle application préserve les sommes de vecteurs et mutlipli1 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS cations de vecteur par scalaire et, plus généralement, les combinaisons linéaires. • f est un endomorphisme de E si f est une application linéaire de E dans lui-même (c’est-à-dire E = F ). • f est un isomorphisme si f est une application linéaire bijective. • f est un automorphisme si f est à la fois un isomorphisme et un endomorphisme. (♠) Remarque Prenons un peu de recul vis-à-vis de ce vocabulaire, déjà souvent rencontré. Le mot «morphisme» vient du grec «morphê» qui signifie «forme». La forme dont il est question ici est celle qui fait d’un ensemble particulier un espace vectoriel, c’est-àdire les opérations d’addition des vecteurs et de multiplication de vecteurs par scalaires. Dire qu’une application est un «morphisme d’espaces vectoriels» signifie donc qu’elle respecte cette «forme», c’est-à-dire ces deux opérations. Plus généralement, dès qu’une structure algébrique est donnée sur un ensemble, on a une notion de morphisme. On parle ainsi de morphisme de groupes, anneaux, corps, algèbres, espaces vectoriels, etc. Dans le cadre de la théorie des catégories, ce langage est poussé plus loin : une «catégorie» est formée d’«objets» et de «morphismes» (également appelés «flèches») entre ces objets (avec certaines conditions). Il y a par exemple la catégorie des groupes dont les morphismes sont les morphismes de groupes, mais aussi les espaces topologiques (ensembles munis d’une topologie) dont les morphismes sont les applications continues ! Citons également la catégorie des fibrés vectoriels, celle des variétés lisses (dont les morphismes sont les applications de classe C ∞ ). . . La somme, le produit par scalaire, la composée (si elle est définie), l’inverse (s’il existe) d’applications linéaires est linéaire. Les applications linéaires de E dans F forment un espace vectoriel noté L(E, F ). Lorsque E = F , on note cet espace L(E) ; il est alors muni par la composition des endomorphismes d’une structure de K-algèbre associative unitaire : la composition est associative, admet comme élément neutre l’identité de E, notée idE , et est compatible avec les lois de l’espace vectoriel. On note GL(E, F ) l’ensemble des isomorphismes de E sur F . Ce n’est pas un espace vectoriel. La notation GL(E) désigne l’ensemble des automorphismes de E, qui est muni d’une structure de groupe par la composition. Les espaces E et F sont dits isomorphes s’il existe un isomorphisme de E sur F . Définition 2 Étant donnée une application linéaire f : E → F , on définit : – le noyau de f par ker f = {x ∈ E, f (x) = 0} = f −1 ({0}), – l’image de f par Im f = {f (x), x ∈ E} = {y ∈ F, ∃x ∈ E, y = f (x)} = f (E). 2 École des Mines de Douai — FIAASMathématiques Algèbre linéaire Alors ker f est un sous-espace vectoriel de E et Im f est un sous-espace vectoriel de F ; et on a : (f injective) ⇐⇒ (ker f = {0}) ; (f surjective) ⇐⇒ (Im f = F ). 2 Familles libres, génératrices, bases ; dimension 2.1 Définitions Définition 3 Soit une famille (c’est-à-dire un ensemble ordonné) F de vecteurs d’un espace vectoriel E. Une combinaison linéaire de vecteurs de F est un vecteur x de E qui peut s’écrire x= m X λi e i i=1 où m ∈ N, λ1 , . . . , λm ∈ K et e1 , . . . , em ∈ F. Lorsque F est une famille finie (e1 , . . . , en ), une telle combinaison peut s’écrire n X λi ei i=1 (quitte à choisir certains scalaires nuls), mais il ne faut pas oublier qu’une combinaison linéaire est toujours une somme finie. Une telle combinaison linéaire est dite triviale si tous les scalaires λi sont nuls. Définition 4 Le sous-espace vectoriel engendré par F est le sous-espace vectoriel de E formé de toutes les combinaisons linéaires de vecteurs de F. C’est le plus petit (au sens de l’inclusion) sous-espace vectoriel de E contenant tous les vecteurs de F ; on le note Vect(F) (plus rarement hFi). Les définitions suivantes (ou plutôt leurs expressions quantifiées) sont énoncées dans le cas d’une famille finie F = (e1 , . . . , en ) mais se généralisent sans problème au cas d’une famille infinie de vecteurs de E au vu de la définition de combinaison linéaire ci-dessus. Définition 5 On dit que la famille F est : – libre si toute combinaison linéaire nulle de vecteurs de F est nécessairement triviale : n ∀(λ1 , . . . , λn ) ∈ K , n X ! λi ei = 0 =⇒ (λ1 = λ2 = · · · = λn = 0) i=1 (l’implication réciproque étant toujours vraie) ; – génératrice si Vect(F) = E, c’est-à-dire si tout vecteur de E peut s’écrire 3 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS comme combinaison linéaire de vecteurs de F : n ∀x ∈ E, ∃(λ1 , . . . , λn ) ∈ K , x= n X λi ei ; i=1 – une base de E si F est à la fois libre et génératrice. Alors tout vecteur x de E s’écrit de manière unique sous la forme x= n X λi ei i=1 avec (λ1 , . . . , λn ) ∈ Kn . Ce n-uplet de scalaires s’appelle les coordonnées de x dans la base F. Une famille non libre est dite liée. Deux (resp. trois) vecteurs formant une famille liée sont parfois dits colinéaires (resp. coplanaires). 2.2 Bases, dimensions Tout espace vectoriel E admet une base (en fait une infinité si E est infini — c’est le cas lorsque K = R ou C et E 6= {0}), et toutes les bases de E sont en bijection les unes avec les autres. En particulier, on dit que E est de dimension finie si E admet une base finie, et toutes les bases de E ont alors le même nombre d’éléments. Dans ce cas, ce nombre s’appelle la dimension de E et se note dimK E ou, lorsqu’aucune ambiguïté n’est à craindre quant à l’identité des scalaires, dim E. (♠) Remarque 1 Il existe une notion bien précise de dimension lorsque E est de dimension infinie, mais elle nécessite l’utilisation des cardinaux transfinis de Cantor. Exemple : dimR R[X] = ℵ0 (l’espace R[X] des polynômes à coefficients réels admet une base dénombrable : (X n )n∈N ). Par convention, l’espace vectoriel {0} est de dimension 0 et sa seule base est la famille vide. Si E est de dimension 1 (resp. 2), on dit aussi que E est une droite (resp. un plan). Si E est un espace vectoriel de dimension finie n, alors pour toute famille F de n vecteurs, (F est libre) ⇐⇒ (F est une base) ⇐⇒ (F est génératrice). Si E et F sont deux espaces vectoriels de même dimension finie et f : E → F est une application linéaire, (f est injective) ⇐⇒ (f est bijective) ⇐⇒ (f est surjective). Plus précisément, si E est un espace vectoriel de dimension finie, F un espace vectoriel et f : E → F une application linéaire, le rang de f est le nombre rg f = dim(Im f ). On a alors le. . . 4 École des Mines de Douai — FIAASMathématiques Algèbre linéaire Théorème 1 (Théorème du rang) Sous ces hypothèses, on a dim E = dim ker f + rg f. 3 Représentation matricielle des applications linéaires 3.1 Définitions, notations et premiers résultats Définition 6 Soient E et F deux K-espaces vectoriels de dimensions respectives n et p, f : E → F une application linéaire, BE = (e1 , . . . , en ) et BF = (f1 , . . . , fp ) des bases de E et F respectivement. La matrice de f relativement aux bases BE et BF est la matrice à p lignes et n colonnes à coefficients dans K dont la j ème colonne est constituée des coordonnées de f (ej ) dans la base BF . Cette matrice se note MatBE ,BF (f ). Alors le vecteur-colonne des coordonnées dans BF de l’image f (x) d’un vecteur x de E s’obtient en multipliant à droite la matrice MatBE ,BF (f ) par le vecteur-colonne des coordonnées de x dans BE . Les matrices à p lignes et n colonnes à coefficients dans K forment un espace vectoriel, noté Mp,n (K), de dimension np. Bien sûr, si f, g ∈ L(E, F ) et λ ∈ K, on a ( MatBE ,BF (f + g) = MatBE ,BF (f ) + MatBE ,BF (g) MatBE ,BF (λf ) = λ MatBE ,BF (f ). Réciproquement, étant donnée une matrice A ∈ Mp,n (K), il existe une unique application linéaire f ∈ L(E, F ) telle que MatBE ,BF (f ) = A. Autrement dit, l’application MatBE ,BF : L(E, F ) −−−→ Mp,n (K) f 7−−−→ MatBE ,BF (f ) est un isomorphisme d’espaces vectoriels. De plus, pour f ∈ L(E, F ) et g ∈ L(F, G) (où E, F , G sont trois K-espaces vectoriels de dimensions respectives n, p et q munis de bases BE , BF et BG ), on a également MatBE ,BG (g ◦ f ) = MatBF ,BG (g) MatBE ,BF (f ). Rappelons ici la formule définissant le produit matriciel : soient A = (aij ) 16i6p ∈ Mn,p (K) 16j6n et B = (bij ) 16i6n . Alors AB = (cij ) 16i6p avec 16j6q 16j6q ∀i ∈ {1, . . . , p}, ∀j ∈ {1, . . . , q}, cij = n X aik bkj . k=1 En particulier, lorsque n = p (matrices carrées), le produit de deux matrices de Mn (K) 5 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS est bien défini, admet pour élément neutre la matrice identité 1 0 In = 0 . .. 0 1 0 .. . 0 0 1 .. . ··· ··· ··· .. . 0 0 0 .. . 0 0 0 ··· 1 et l’isomorphisme d’espaces vectoriels MatBE : L(E) → Mn (K) est en réalité un isomorphisme de K-algèbres. En outre, (f est bijective) ⇐⇒ (MatBE ,BF (f ) est inversible) avec dans ce cas MatBF ,BE (f −1 ) = (MatBE ,BF (f ))−1 . Les matrices inversibles d’ordre n à coefficients dans K forment un groupe noté GL(n, K), ou encore GLn (K), et appelé groupe linéaire d’ordre n. 3.2 Changements de bases La formule de changement de bases peut être vue comme un cas particulier du fait précédent, lorsque l’application linéaire est composée avec l’application identité dont la matrice est écrite dans des bases de départ et d’arrivée distinctes. Rappelons que la matrice de passage d’une base B1 de E à une autre base B2 de E est la matrice carrée dont les colonnes sont constituées des coordonnées des vecteurs de B2 (« nouvelle base ») dans la base B1 (« ancienne base »). Une matrice de passage est toujours inversible. Soient E, F deux K-espaces vectoriels de dimension finie, B1 , B2 deux bases de E, C1 , C2 deux bases de F , f : E → F une application linéaire. On pose A = MatB1 ,C1 (f ) (matrice de f dans les « anciennes bases ») et B = MatB2 ,C2 (f ) (matrice de f dans les « nouvelles bases »). Alors on a B = Q−1 AP (1) où P est la matrice de passage de B1 à B2 et Q la matrice de passage de C1 à C2 . Des matrices vérifiant la relation (1) avec des matrices inversibles P ∈ GLn (K) et Q ∈ GLp (K) sont dites équivalentes. En particulier, dans le cas d’un endomorphisme f d’un espace vectoriel de dimension n muni de deux bases B1 et B2 , la formule de changement de bases s’écrit, P désignant la matrice de passage de B1 à B2 : B = P −1 AP. (2) Des matrices vérifiant la relation (2) sont dites semblables. Tout le problème de théorie de la réduction des endomorphismes est de trouver des bases dans lesquelles la matrice d’un endomorphisme donné est « sympathique », c’est-àdire diagonale ou, au pire, triangulaire. 4 Somme de sous-espaces vectoriels Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E. L’intersection F ∩ G est encore un sous-espace vectoriel de E, mais il n’en est pas de même de la 6 École des Mines de Douai — FIAASMathématiques Algèbre linéaire réunion F ∪ G (on démontre sans peine que F ∪ G est un sous-espace vectoriel de E si et seulement si F ⊂ G ou G ⊂ F ). On peut en revanche considérer le sous-espace vectoriel Vect(F ∪ G) de E engendré par cette réunion ; et on démontre que ce sous-espace vectoriel est exactement l’ensemble des vecteurs de E qui peuvent s’écrire sous forme de la somme d’un vecteur de F et d’un vecteur de G. On le note F + G et on le nomme somme de F et de G : F + G = {y + z, y ∈ F, z ∈ G} = {x ∈ E, ∃(y, z) ∈ F × G, x = y + z}. L’écriture d’un vecteur de F + G sous cette forme n’est en général pas unique. Elle l’est cependant lorsque la somme est directe, c’est-à-dire lorsque F ∩ G = {0}. On note alors cette somme F ⊕ G. Définition 7 Les sous-espaces vectoriels F et G sont dits supplémentaires s’ils sont en somme directe et si F ⊕ G = E. Dans ce cas, tout vecteur de E s’écrit de manière unique sous forme de somme d’un vecteur de F et d’un vecteur de G. Exemple 8 On considère l’espace vectoriel E = F(R, R) de toutes les fonctions R → R. On désigne par P et I les sous-espaces vectoriels de E constitués respectivement des fonctions paires et des fonctions impaires. Alors P et I sont supplémentaires. En effet, si f est à la fois paire et impaire, f est la fonction nulle ; on a donc P ∩ I = {0} : la somme est directe. De plus, si f ∈ E, on a f = g + h où g : x 7−→ f (x) + f (−x) 2 h : x 7−→ f (x) − f (−x) 2 avec g ∈ P et h ∈ I. Cette somme est donc égale à E tout entier. Supposons maintenant E de dimension finie. On montre alors, en utilisant le théorème de la base incomplète, que dim(F + G) = dim F + dim G − dim(F ∩ G). En particulier, lorsque la somme est directe, on a dim(F ⊕ G) = dim F + dim G. On montre aisément à l’aide de ces formules que, pour que F et G soient supplémentaires, on peut remplacer l’une des conditions F ∩ G = {0} ou F + G = E par dim F + dim G = dim E. 7 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Deuxième partie Déterminants 5 Applications multilinéaires Définition 9 Soient E et F deux K-espaces vectoriels, p ∈ N∗ . Une application f: E p −−−→ F (x1 , . . . , xp ) 7−−−→ f (x1 , . . . , xp ) est dite p-linéaire si elle est linéaire en chacune des variables x1 , . . . , xp , c’est-à-dire si toutes les applications partielles sont linéaires. Lorsque p = 0, on convient qu’une application linéaire est un vecteur (constant) de F . Lorsque F = K, on dit que f est une forme p-linéaire. Lorsque p = 2 ou p = 3, on parle d’applications bilinéaires ou trilinéaires respectivement. Le cas où p = 1 correspond aux applications linéaires. Exemple La multiplication dans K est une forme bilinéaire sur K. (♠) Proposition 2 Si f : E → F est une application p-linéaire, alors pour tout entier naturel n, tout n-uplet de vecteurs (e1 , . . . , en ) ∈ E p et tout np-uplet de scalaires (λ1,1 , λ1,2 , . . . , λ1,n , λ2,1 , . . . , λ2,n , . . . , λp,1 , . . . , λp,n ) ∈ Knp , on a f n X i=1 λ1,i ei , n X λ2,i ei , . . . , i=1 n X i=1 ! λp,i ei = X λ1,j1 λ2,j2 . . . λp,jp f (ej1 , ej2 , . . . , ejp ). (j1 ,...,jp )∈{1,...,n}p Preuve. Il suffit d’utiliser de façon récurrente la linéarité de f en chacune des variables. Corollaire 3 Une application p-linéaire est entièrement déterminée par ses valeurs sur les p-uplets formés à partir des vecteurs d’une base fixée de E. 6 6.1 Formes multilinéaires alternées Permutations Rappelons qu’une permutation de {1, . . . , n} est une bijection de {1, . . . , n} sur luimême. L’ensemble des permutations de {1, . . . , n} est noté Sn , et constitue un groupe (appelé « groupe symétrique d’ordre n ») pour la composition des bijections, dont le cardinal est n! (factorielle n). Une transposition est une permutation τ ∈ Sn qui échange deux éléments et laisse les autres inchangés. 8 École des Mines de Douai — FIAASMathématiques Algèbre linéaire Les transpositions engendrent le groupe Sn , c’est-à-dire que toute permutation σ peut s’écrire comme composée de transpositions σ = τ1 ◦ τ2 ◦ · · · ◦ τm . Cette écriture n’est pas unique mais on démontre que le nombre de transpositions dans une telle écriture a une parité fixe. La signature d’une permutation σ ∈ Sn est le nombre ε(σ) = (−1)m où m est le nombre de transpositions intervenant dans une écriture de σ comme composée de transpositions. Une propriété importante de la signature est que la signature d’une composée est le produit des signatures et que la signature d’un inverse est l’inverse de la signature : ( ∀(σ, σ 0 ) ∈ (Sn )2 , ε(σ ◦ σ 0 ) = ε(σ)ε(σ 0 ) ∀σ ∈ Sn , ε(σ −1 ) = ε(σ)−1 = ε(σ) autrement dit, la signature ε : Sn → {−1, 1} est un morphisme de groupes. 6.2 Applications multilinéaires symétriques, alternées Définition 10 Soient E, F deux K-espaces vectoriels, p ∈ N et f : E p → F une application p-linéaire. On dit que f est – symétrique si la valeur de f (x1 . . . , xp ) ne change pas si l’on modifie l’ordre des vecteurs x1 , . . . , xp : ∀(x1 , . . . , xp ) ∈ E p , ∀σ ∈ Sp , f (xσ(1) , xσ(2) , . . . , xσ(p) ) = f (x1 , . . . , xp ); – antisymétrique, ou alternée, si la valeur de f (x1 . . . , xp ), est multipliée par la signature de la permutation subie par les vecteurs x1 , . . . , xp : ∀(x1 , . . . , xp ) ∈ E p , ∀σ ∈ Sp , f (xσ(1) , xσ(2) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ). Remarquons que, puisque les transpositions engendrent le groupe Sn et d’après la propriété de la signature, il suffit de vérifier ces résultats pour les transpositions. Exemple 11 Lorsque p = 2, une application bilinéaire est – symétrique si ∀(x, y) ∈ E 2 , f (y, x) = f (x, y), – antisymétrique si ∀(x, y) ∈ E 2 , f (y, x) = −f (x, y). En effet, les seules permutations de l’ensemble {1, 2} sont l’identité (de signature 1) 2 et la transposition ( 12 7→ 7→ 1 ) (de signature −1). Si E est de dimension finie n, il résulte du corollaire 3 que, étant donnée une base (e1 , . . . , en ) de E, – une application p-linéaire symétrique est déterminée de manière unique par ses valeurs sur tous les p-uplets (ej1 , ej2 , . . . , ejp ) avec 1 6 j1 6 j2 6 · · · 6 jp 6 n ; et – une application p-linéaire alternée est déterminée de manière unique par ses valeurs sur tous les p-uplets (ej1 , ej2 , . . . , ejp ) avec 1 6 j1 < j2 < · · · < jp 6 n. 9 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Pour justifier ce dernier point, considérons une application p-linéaire alternée f et remarquons que si un p-uplet (x1 , . . . , xp ) ∈ E p a deux vecteurs identiques xi = xj (avec i 6= j, par exemple i < j), alors on a f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn ) = f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ). Or, en considérant la transposition échangeant i et j, on a aussi f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ) = −f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn ), d’où f (x1 , . . . , xn ) = 0. La réciproque de ce fait est d’ailleurs vraie, de sorte que l’on a la caractéristation suivante : Proposition 4 Une application p-linéaire f : E p → F est alternée si et seulement si ( i 6= j ∀(x1 , . . . , xp ) ∈ E , ∃(i, j) ∈ {1, . . . , p}, xi = xj p ! =⇒ ( f (x1 , . . . , xp ) = 0 ). De ce résultat et de la proposition 2 découle que l’image par une application p-linéaire alternée d’un p-uplet de vecteurs constituant une famille liée est nulle. 6.3 Formes multilinéaires alternées Dans toute la suite, on suppose que F = K, donc qu’il s’agit de formes linéaires symétriques ou alternées. Les formes p-linéaires symétriques sur E forment un K-espace vectoriel noté V p (E). Les formes p-linéaires alternées sur E forment un K-espace vectoriel noté Λp (E). Théorème 5 Si E est un K-espace vectoriel de dimension n, alors dim Λp (E) = C p n 0 si p ∈ {0, . . . , n} sinon. En particulier, Λn (E) est une droite vectorielle. 10 École des Mines de Douai — FIAASMathématiques Algèbre linéaire (♠) Preuve. Si p > n, un p-ulplet quelconque de vecteurs de E a au moins deux vecteurs linéairement dépendants. D’après un résultat précédent, son image par une application p-linéaire alternée f quelconque est donc nulle. On a donc f = 0 et Λp (E) = {0}. Si p = 0, Λ0 (E) s’identifie à K, qui est de dimension 1. On suppose dorénavant que 1 6 p 6 n. Soit (e1 , . . . , en ) une base de E, on note (e∗1 , . . . , e∗n ) la base duale. Rappelons que cela signifie que chaque e∗i est la forme linéaire sur E définie par e∗i (ej ) = δij = 0 si i 6= j 1 si i = j. Pour tout (i1 , . . . , ip ) ∈ {1, . . . , n}p tel que 1 6 i1 < · · · < ip 6 n, on note ei1 ...ip l’application p-linéaire alternée définie par : ∀(x1 , . . . , xp ) ∈ E p , ei1 ...ip (x1 , . . . , xp ) = e∗i1 (x1 )e∗i2 (x2 ) . . . e∗ip (xp ). On sait, en effet, d’après les résultats précédents que ceci définit de manière unique une forme p-linéaire alternée, la linéarité en chacune des variables étant une conséquence directe de celle des e∗ij . Montrons que la famille B = (ei1 ...ip )16i1 <···<ip 6n est une base de Λp (E). • Soit une famille de scalaires (λi1 ...ip )16i1 <···<ip 6n telle que X λi1 ...ip ei1 ...ip = 0. 16i1 <···<ip 6n Fixons (j1 , j2 , . . . , jp ) ∈ Np tel que 1 6 j1 < · · · < jp 6 n et considérons l’image du p-uplet de vecteurs (ej1 , . . . , ejp ) : X λi1 ...ip ei1 ...ip (ej1 , . . . , ejp ) = 0. 16i1 <···<ip 6n Or, par construction de ei1 ...ip , on a ei1 ...ip (ej1 , . . . , ejp ) = 1 si (i1 , . . . , ip ) = (j1 , . . . , jp ) 0 sinon ; l’égalité précédente se réduit donc à λj1 ,...,jp = 0 et ce pour tout (j1 , . . . , jp ) vérifiant la condition ci-dessus. Par conséquent la famille B est libre. • Montrons maintenant qu’elle est génératrice. Considérons une forme p-linéaire alternée f ∈ Λp (E) et posons : g= X f (ei1 , . . . , eip )ei1 ...ip . 16i1 <···<ip 6n 11 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Alors, pour tout (j1 , . . . , jp ) ∈ {1, . . . , n}p tel que 1 6 j1 < · · · < jp 6 n on a, de même que précédemment : g(ej1 , . . . , ejp ) = X f (ei1 , . . . , eip )ei1 ...ip (ej1 , . . . , ejp ) 16i1 <···<ip 6n = f (ej1 , . . . , ejp ) Les formes p-linéaires f et g coïncident sur les p-uplets extraits d’une base de E, elles sont donc égales. On a donc prouvé que f peut s’écrire comme combinaison linéaire des vecteurs de B, la famille B est donc génératrice. La famille B est ainsi une base de Λp (E) et comporte Cnp vecteurs (le nombre de suites strictement croissantes de p éléments de {1, . . . , n} correspond au nombre de parties à p éléments d’un ensemble à n éléments). On a donc bien prouvé que dim Λp (E) = Cnp . 7 Déterminant d’un système de vecteurs dans une base On considère maintenant un K-espace vectoriel E de dimension n muni d’une base B = (e1 , . . . , en ). Puisque, d’après le théorème 5, Λn (E) est de dimension 1, la définition suivante est justifiée. Définition 12 On appelle déterminant dans la base B l’unique forme n-linéaire alternée detB sur E telle que detB (e1 , . . . , en ) = 1. Théorème 6 Soit un n-uplet de vecteurs (x1 , . . . , xn ) ∈ E. Pour tout i ∈ {1, . . . , n}, on note ai1 , . . . , ain les coordonnées de xi dans la base B. On a detB (x1 , . . . , xn ) = X ε(σ)a1σ(1) a2σ(2) . . . anσ(n) . σ∈Sn (F) Théorème 7 Soit une famille de n vecteurs F = (f1 , . . . , fn ). Les assertions suivantes sont équivalentes : (1) F est libre, (2) F est génératrice, (3) F est une base de E, 12 École des Mines de Douai — FIAASMathématiques Algèbre linéaire (4) detB (f1 , . . . , fn ) 6= 0. Attention, le déterminant d’une famille de vecteurs dépend de la base dans laquelle il est calculé. 8 Déterminant d’une matrice carrée Soit n ∈ N∗ . Définition 13 Pour toute matrice A carrée d’ordre n de terme général (aij )16i,j6n a11 a12 a21 a22 A = a31 a32 . .. .. . an1 an2 a13 a23 a33 .. . an3 · · · a1n · · · a2n · · · a3n , .. .. . . · · · ann on appelle déterminant de A le scalaire det(A) = a 11 a21 a 31 . .. an1 a12 a13 a22 a23 a32 a33 .. .. . . an2 an3 · · · a1n · · · a2n X · · · a3n = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) . .. σ∈Sn .. . . · · · ann Rappelons que la transposée d’une matrice A = (aij )16i,j6n est la matrice t A = (aji )16i,j6n obtenue en permutant les rôles des lignes et colonnes. (F) Proposition 8 Pour toute matrice A ∈ Mn (K), on a det(A) = det(t A). Par conséquent, tout ce qui est énoncé ci-dessous concernant les colonnes d’une matrice est également valable pour ses lignes. La proposition suivante découle de ce que le déterminant de A est égal au déterminant dans la base canonique de Kn des vecteurs de Kn dont les coordonnées sont données par les colonnes de A (F) et du fait que le déterminant d’une famille de vecteurs dans une base est une forme n-linéaire alternée. (F) Proposition 9 1) Si on échange deux colonnes d’une matrice, son déterminant est multiplié par −1. 2) Si les colonnes d’une matrice sont liées, le déterminant est nul. C’est notamment le cas si la matrice possède deux colonnes identiques, ou encore une colonne nulle. 3) Si on multiplie une colonne d’une matrice par un scalaire λ, son déterminant est 13 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS multiplié par λ. 4) Si on multiplie la matrice par λ, son déterminant est multiplié par λn . Attention, en général det(A + B) 6= det A + det B. Exemple 14 (Matrices antisymétriques) Une matrice A ∈ Mn (K) est dite antisymétrique si t A = −A. Si n est impair, toute matrice antisymétrique est de déterminant nul : det(A) = det(−t A) = (−1)n det(t A) = − det(A). 9 Déterminant d’un produit de matrices Soit n ∈ N∗ . (F) Théorème 10 ∀A, B ∈ Mn (K), det(AB) = det A det B. On va utiliser le lemme suivant pour la démonstration de ce théorème. (♠) Lemme 11 Soient E un K-espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ), u un endomorphisme de E. Alors pour toute famille de vecteurs (x1 , . . . , xn ) ∈ E n , on a detB (u(x1 ), u(x2 ), . . . , u(xn )) = det(A) detB (x1 , . . . , xn ) où A = MatB (u). (♠) Preuve. Considérons l’application D: E n −−−→ K (x1 , . . . , xn ) 7−−−→ detB (u(x1 ), . . . , u(xn )) On cherche donc à démontrer que D(x1 , . . . , xn ) = det(A) detB (x1 , . . . , xn ). Montrons d’abord que D est une forme n-linéaire alternée sur E. Montrons la linéarité en la première variable, il en sera de même pour les autres. On a, pour x1 , x01 ∈ E, λ ∈ K et (x2 , . . . , xn ) ∈ E p−1 , en utilisant la linéarité de u et la multilinéarité de detB : D(λx1 + x01 , x2 , . . . , xn ) = detB (u(λx1 + x01 ), u(x2 ), . . . , (xn )) = detB (λu(x1 ) + u(x01 ), u(x2 ), . . . , u(xn )) = λ detB (u(x1 ), u(x2 ), . . . u(xn )) + detB (u(x01 ), u(x2 ), . . . , u(xn )) = λD(x1 , x2 , . . . , xn ) + D(x01 , x2 , . . . , xn ). 14 École des Mines de Douai — FIAASMathématiques Algèbre linéaire L’antisymétrie de D est immédiate : si xi = xj avec i 6= j, on a u(xi ) = u(xj ) donc detB (u(x1 ), . . . , u(xn )) = 0, c’est-à-dire D(x1 , . . . , xn ) = 0. Puisque l’espace vectoriel des formes n-linéaires alternées est de dimension 1 et que (detB ) en est une base, il existe un scalaire k ∈ K tel que D = k detB . En appliquant cette forme n-linéaire alternée au n-uplet (e1 , . . . , en ), on obtient : detB (u(e1 ), . . . , u(en )) = k. Or, u(e1 ), u(e2 ), . . . , u(en ) sont les vecteurs de E dont les coordonnées dans B forment la matrice A. On a donc k = det(A). (♠) Preuve [du théorème 10]. Soient E un K-espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ), u et v les endomorphismes de E de matrices respectives A et B dans la base B. On sait alors que MatB (u ◦ v) = AB. Soit (x1 , . . . , xn ) ∈ E n . Par le lemme 11 appliqué à l’endomorphisme u ◦ v, on a detB (u ◦ v(x1 ), u ◦ v(x2 ), . . . u ◦ v(xn )) = det(AB) detB (x1 , x2 , . . . , xn ). En posant, pour tout i ∈ {1, . . . , n}, yi = v(xi ) (on a alors u ◦ v(xi ) = u(yi )) et en appliquant le lemme 11 successivement aux endomorphismes u et v : ( detB (u(y1 ), u(y2 ), . . . , u(yn )) = det(A) detB (y1 , . . . , yn ) detB (y1 , . . . , yn ) = detB (v(x1 ), . . . , v(xn )) = det(B) detB (x1 , . . . , xn ) d’où, pour tout (x1 , . . . , xn ) ∈ E n : det(AB) detB (x1 , x2 , . . . , xn ) = det(A) det(B) detB (x1 , . . . , xn ). En particulier, on a le résultat voulu en prenant (x1 , x2 , . . . , xn ) = (e1 , e2 , . . . , en ). Une utilisation récurrente de ce théorème donne immédiatement le corollaire suivant. (F) Corollaire 12 Pour toute matrice carrée A ∈ Mn (K) et tout p ∈ N, on a : det(Ap ) = det(A)p . Exemple 15 (Racines carrées de −In ) Si n est impair, il n’existe aucune matrice de Mn (R) telle que A2 = −In . En effet, une telle relation entraînerait (det(A))2 = det(A2 ) = det(−In ) = (−1)n = −1 avec det(A) ∈ R, ce ! qui est impossible. Ce résultat est bien sûr faux si n est pair 0 −1 (considérer ) ou si A est à coefficients complexes. 1 0 15 Algèbre linéaire 10 10.1 MathématiquesÉcole des Mines de Douai — FIAAS Calcul d’un déterminant Développement selon une ligne ou une colonne On énonce la méthode de développement par rapport à une ligne mais, puisque det(A) = det(t A), cette méthode est aussi valable pour le développement selon une colonne. On considère une matrice carrée A = (aij )16i,j6n a11 a12 a21 a22 a 31 a32 = . .. .. . an1 an2 · · · a1n · · · a2n · · · a3n ∈ Mn (K). . . . .. . · · · ann a13 a23 a33 .. . an3 (F) Définition 16 Pour tout (i, j) ∈ {1, . . . , n}2 , on appelle mineur de aij le déterminant obtenu à partir de det(A) en supprimant la ième ligne et j ème colonne. Il s’agit donc du déterminant d’une matrice d’ordre n − 1. Le cofacteur de aij est le mineur de aij multiplié par (−1)i+j . On le note parfois Aij : a · · · a1,j−1 a1,j+1 · · · a1n 11 . .. .. .. . . . . . i+j Aij = (−1) ai−1,1 a i+1,1 . . . an1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n . · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n .. ... ... . · · · an,j−1 an,j+1 · · · ann (F) Théorème 13 (Développement selon une ligne) Soit A = (aij )16i,j6n ∈ Mn (K) une matrice carrée. On a, pour tout i ∈ {1, . . . , n} : det(A) = n X aij Aij = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain . j=1 (♠) Preuve. Par définition, on a det(A) = X ε(σ) σ∈Sn n Y aiσ(i) . i=1 Pour simplifier les notations, considérons un K-espace vectoriel E de dimension n muni d’une base B = (e1 , . . . , en ) et posons, pour tout i ∈ {1, . . . , n} : xi = n X j=1 16 aij ej , École des Mines de Douai — FIAASMathématiques Algèbre linéaire autrement dit, xi est le vecteur de E dont les coordonnées dans la base B sont données par la ième ligne de A. On a alors det(A) = detB (x1 , . . . , xn ). Puisque detB est linéaire en la ième variable, on a det(A) = detB (x1 , . . . , xi−1 , n X aij ej , xi+1 , . . . , xn ) j=1 = n X aij detB (x1 , . . . , xi−1 , ej , xi+1 , . . . , xn ) . j=1 {z | } ∆ij Et il ne reste plus qu’à montrer que ∆i,j (déterminant obtenu en remplaçant la ième ligne par une ligne ne contenant que des 0 sauf en j ème colonne où se trouve un 1) est égal au cofacteur Aij . On a ∆ij = detB (x1 , . . . , xi−1 , ej , xi+1 , . . . , xn ). Puisque detB est alternée, chaque échange de vecteurs correspond à une multiplication par −1. On amène le vecteur ej en première position en l’échangeant successivement avec ceux qui le précèdent : il y aura donc j − 1 échanges, correspondant à une multiplication par (−1)j−1 : ∆ij = (−1)j−1 detB (ej , x1 , . . . , xj−1 , xj+1 , . . . , xn ) = 0 a 11 . . . (−1)j−1 aj−1,1 aj+1,1 . . . a n1 ··· ··· 0 a1,i−1 .. . 1 a1i .. . 0 a1,i+1 .. . ··· ··· · · · aj−1,i−1 aj−1,i aj−1,i+1 · · · · · · aj+1,i−1 aj+1,i aj+1,i+1 · · · .. .. .. . . . · · · an,i−1 ani an,i+1 · · · aj−1,n aj+1,n .. . a 0 a1n .. . nn On déplace le 1 en première colonne en échangeant succesivement sa colonne avec celles qui la précèdent. Chaque échange correspond à une multiplication du déterminant par −1 et il y a i − 1 échanges : ∆ij = 1 a 1i . . . (−1)i+j−2 aj−1,i aj+1,i . . . a ni i+j = (−1) 0 a11 .. . ··· ··· 0 0 a1,i−1 .. . a1,i+1 .. . ··· ··· aj−1,1 · · · aj−1,i−1 aj−1,i+1 · · · aj+1,1 · · · aj+1,i−1 aj+1,i+1 · · · .. .. .. . . . an1 · · · an,i−1 an,i+1 · · · aj−1,n aj+1,n .. . a 0 a1n .. . nn detB (e1 , x01 , . . . , x0i−1 , x0i+1 , . . . , x0n ) où x01 , . . . , x0i−1 , x0i+1 , . . . , x0n sont les nouveaux « vecteurs lignes ». 17 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Si on renumérote les coefficients de cette matrice sous la forme a0ij (1 6 i, j 6 n) (pour i, j > 2, ce sont les coefficients intervenant dans le cofacteur Aij ), on obtient : ∆ij = (−1)i+j X ε(σ) σ∈Sn n Y a0kσ(k) . k=1 Or, dans ce produit, le premier facteur a01σ(1) est particulier : il vaut 1 si σ(1) = 1 et 0 sinon. Par conséquent, dans la somme, tous les termes obtenus pour σ tel que σ(1) 6= 1 sont nuls. La sommation peut donc porter sur toutes les permutations σ telles que σ(1) = 1. Autrement dit, 1 est fixé et les autres éléments de {1, . . . , n} peuvent être permutés arbitrairement. Cela correspond donc à une permutation d’un ensemble à n − 1 éléments : ∆ij = (−1)i+j X ε(σ) σ∈Sn−1 n Y a0 22 i+j .. (−1) . 0 an1 a0kσ(k) = k=2 · · · a02n . .. . .. = Aij . · · · a0nn On a donc bien la formule annoncée. (F) Remarque Le signe affecté au mineur dans l’expression du cofacteur correspond à une permutation selon les lignes ou colonnes : + − + − .. . − + − + .. . + − + − .. . − + − + .. . ··· · · · · · · . · · · .. . On peut notamment remarquer que tous les éléments diagonaux sont affectés d’un +. . . (F) Exemple 17 (Déterminant d’ordre 2) a c b = ad − bc. d Exemple 18 (Règle de Sarus) a d g b c e f d f d e e f = a − b + c = aei − ahf − bdi + bgf + cdh − cge. h i g i g h h i (F) Remarque Il ne faut pas abuser de la règle de Sarus. Non seulement elle est source d’erreurs de calculs, mais en plus elle ne favorise pas la factorisation là où elle serait souhaitable voire nécessaire (calculs de polynômes caractéristiques). Réservez-la aux cas numériques simples. 18 École des Mines de Douai — FIAASMathématiques 10.2 Algèbre linéaire Déterminant triangulaire (F) Proposition 14 Le déterminant d’une matrice triangulaire (supérieure, inférieure ou diagonale) est le produit des éléments de la diagonale. Preuve. Supposons, quitte à prendre la transposée, que la matrice est triangulaire supérieure (ce qui englobe le cas d’une matrice diagonale) : a11 a12 · · · a1n 0 a22 · · · a2n A= . . . .. . .. . . 0 0 · · · ann En développant par rapport à la première colonne, il vient : det(A) = a22 0 a11 .. . 0 a23 · · · a2n a33 a3n . .. .. . .. . · · · 0 ann qui est encore un déterminant triangulaire supérieur, mais d’ordre n − 1 cette fois. Une récurrence immédiate montre alors que det(A) = a11 a22 . . . ann . 10.3 Méthode de Gauss (F) Principe : La méthode de Gauss repose sur le fait qu’on ne change pas la valeur d’un déterminant en ajoutant à une ligne une combinaison linéaire des autres lignes. On utilise cette technique, combinée à des échanges éventuels de lignes (multiplication par −1 à chaque fois), ainsi que des multiplications d’une ligne par un scalaire non nul λ (mutliplication du déterminant par λ), de manière à faire apparaître un déterminant triangulaire (toujours possible) ou une autre forme de déterminant facile à calculer. C’est la méthode la plus utilisée pour résoudre des systèmes linéaires, et c’est généralement la plus efficace en termes de temps de calcul et de précision sur machine. (♠) Remarque L’opération élémentaire qui consiste à ajouter à une ligne Li d’une matrice une autre ligne λLj (avec j 6= i) correspond à la multiplication de la matrice à gauche (ou a droite si l’opération a lieu sur les colonnes) par une matrice inversible dite matrice de transvection du type In + λEij (Eij est la matrice « élémentaire » ne comportant que des 0 sauf en position (i, j) où se trouve un 1). On démontre que les matrices de transvection engendrent le groupe SLn (K) (spécial linéaire) des matrices de déterminant 1 : toute matrice de déterminant 1 est produit de matrices de transvection. 19 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Exemple 19 1 1 1 1 1 1 1 1 0 L ← L − L 2 3 4 2 2 1 = 3 6 10 L3 ← L3 − L1 0 4 10 20 L4 ← L4 − L1 0 = 1 3 1 1 2 3 1 1 1 2 3 =2 5 9 3 9 19 3 = 1 × 10 − 3 × 3 = 1. 10 Prenez l’habitude, comme ci-dessus, d’indiquer les opérations effectuées sur les lignes ou colonnes avant de les effectuer, cela permet une bien meilleure relecture et ménage le correcteur. Il peut également être intéressant, comme on l’a fait ci-dessus d’entourer le «pivot» à chaque étape, l’élément servant à «tuer» les autres de sa colonne via les opérations sur les lignes. 10.4 Déterminant triangulaire par blocs (F) Proposition 15 Soit une matrice A ∈ Mn (K) qui se présente sous la forme B1 B2 A= 0 B4 ! où les sous-matrices, appelées blocs, B1 , B2 , B4 ont des tailles compatibles : B1 ∈ Mp (K), B2 ∈ Mp,n−p (K) et B4 ∈ Mn−p (K). Alors det(A) = det(B1 ) det(B4 ). Bien entendu, cette proposition se généralise (par récurrence) dans le cas d’une décomposition de A à l’aide d’un nombre plus important de blocs. Exemple 20 2 1 0 0 0 11 3 −1 0 0 0 7 6 2 0 0 0 3 4 5 2 3 5 2 0 11 = 2 = (−2 − 3) × 2 × (5 − 4) = −10. 1 −1 2 1 5 2 2 1 Matrices inversibles Rappelons qu’une matrice carrée A ∈ Mn (K) est inversible si il existe une matrice B ∈ Mn (K) telle que AB = BA = In . 20 1 2 3 2 3 5 9 L2 ← L2 − 2L1 = 0 1 3 9 19 L3 ← L3 − 3L1 0 3 10 École des Mines de Douai — FIAASMathématiques 11.1 Algèbre linéaire Comatrice (F) Définition 21 La comatrice d’une matrice A = (aij )16i,j6n ∈ Mn (K) est la matrice de Mn (K), notée Com(A), égale à la transposée de la matrice des cofacteurs de A : A11 A21 A12 A22 Com(A) = .. .. . . A1n A2n · · · An1 · · · An2 .. ... . . · · · Ann Attention : pour certains auteurs, Com(A) est la matrice des cofacteurs de A (sans la transposition). (F) Théorème 16 (Théorème fondamental) Pour toute matrice A ∈ Mn (K), on a A Com(A) = Com(A)A = det(A)In . (♠) Preuve. Comme précédemment, notons aij le coefficient général de A et Aij son cofacteur. Le coefficient général de Com(A) est donc Aji . Par définition du produit matriciel, Com AA est la matrice de coefficient général bij défini par : bij = n X Aki akj = n X (−1)i+k akj det(Mki ) k=1 k=1 où Mki la matrice obtenue à partir de A par suppression de la k ème ligne et ième colonne (son déterminant est le mineur de aki ). Appelons A0 la matrice déduite de A en remplaçant la ième colonne par la j ème colonne ; et notons a0k` le coefficient général de A0 : a0k` = a k` akj si ` 6= i si ` = i Alors la formule précédente n’est autre que le développement de det(A0 ) selon la ième colonne : n bij = X (−1)i+k a0ki det(Mki ) = det(A0 ). k=1 0 Or, si i 6= j, la matrice A a deux colonnes identiques (les ième et j ème), donc son déterminant est nul. Par conséquent, bij = 0 si i 6= j : la matrice Com(A)A est une matrice diagonale. Si i = j, on a A0 = A et donc bii = det(A). On a donc bien Com AA = det(A)In . On prouve de la même façon que A Com(A) = det(A)In . 11.2 Caractérisation des matrices inversibles Le résultat suivant découle directement du théorème fondamental précédent (l’associativité du produit matriciel assure l’unicité de l’inverse d’une matrice). 21 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS (F) Corollaire 17 (Caractérisation des matrices inversibles) Une matrice carrée A ∈ Mn (K) est inversible si et seulement si son déterminant est non nul. Dans ce cas, 1 Com(A). A−1 = det(A) (F) Remarque Ce n’est pas, en général, la méthode à utiliser pour calculer l’inverse d’une matrice en dimension supérieure à 2. Il est en effet nécessaire, par cette méthode, de calculer 1 déterminant d’ordre n et n2 déterminants d’ordre n − 1 ! La méthode de Gauss est beaucoup plus indiquée pour déterminer l’inverse d’une matrice, s’il existe. L’intérêt de la formule de la comatrice est surtout théorique. (F) Proposition 18 Si A est une matrice inversible, det(A−1 ) = 1 . det(A) Preuve. Soit A une matrice inversible. On a AA−1 = I donc, d’après le théorème 10 : det(A) det(A−1 ) = det(I) = 1 (♠) Cette dernière propriété achève de prouver que le déterminant est un morphisme du groupe GL(n, K) dans le groupe K \ {0} (muni de la multiplication). Le noyau de ce morphisme de groupes, c’est-à-dire le sous-groupe des matrices de déterminant 1, est appelé groupe spécial linéaire et noté SL(n, K). Exemple 22 ! a b Soit A = telle que ad − bc 6= 0. Alors c d ! −1 A 12 1 d −b = . −c a ad − bc Déterminant d’un endomorphisme Proposition 19 Deux matrices semblables ont même déterminant. 22 École des Mines de Douai — FIAASMathématiques Algèbre linéaire Preuve. Soient A et B deux matrices semblables. Cela signifie qu’il existe une matrice P inversible telle que B = P −1 AP. Alors, par les propriétés du déterminant, on a det(B) = det(P −1 ) det(A) det(P ) = (det(P ))−1 det(A) det(P ) = det(A). Puisque cette formule correspond à la formule de changement de base dans l’expression de la matrice d’un endomorphisme d’un espace vectoriel, cette valeur ne dépend que de l’endomorphisme et pas de la base utilisée pour écrire sa matrice. Cela justifie donc la définition suivante. (F) Définition 23 Soient E un espace vectoriel de dimension finie, f un endomorphisme de E. On appelle déterminant de f , et on note det(f ) le déterminant de la matrice de f dans une base quelconque de E. Les propriétés suivantes se déduisent directement de celles du déterminant d’une matrice. (F) Proposition 20 Soit • • • E un K-espace vectoriel. ∀(f, g) ∈ L(E), det(f ◦ g) = det(f ) det(g), ∀f ∈ L(E), (f ∈ GL(E)) ⇐⇒ (det(f ) 6= 0), ∀f ∈ GL(E), det(f −1 ) = (det(f ))−1 . 23 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS Exercices Les exercices 3, 5, 7 et 8 sont à préparer. 13 Algèbre linéaire Exercice 1 : Unipotent d’ordre 3 Soient E un C-espace vectoriel et f ∈ L(E) un endomorphisme tel que f 3 = idE . Prouver que E = ker(f − idE ) ⊕ ker(f − j idE ) ⊕ ker(f − j 2 idE ). Exercice 2 : Somme et composée de projecteurs Soit E un R-espace vectoriel. Définition On appelle projecteur de E tout endomorphisme p de E tel que p ◦ p = p. Soient p et q deux projecteurs d’un R-espace vectoriel E. 1. Montrer que (p + q est un projecteur) ⇐⇒ (p ◦ q = q ◦ p = 0) et qu’alors ker(p + q) = ker p ∩ ker q Im(p + q) = Im p ⊕ Im q. 2. Donner une condition nécessaire et suffisante simple pour que p ◦ q soit un projecteur et montrer que sous cette condition on a ker(p ◦ q) = ker p ⊕ ker q Im(p ◦ q) = Im p ∩ Im q. Exercice 3 : Espaces de fonctions supplémentaires On note C 0 ([0, 1], R) le R-espace vectoriel des fonctions continues de [0, 1] → R. Déterminer un supplémentaire du sous-espace vectoriel F des fonctions de moyenne nulle : 0 F = f ∈ C ([0, 1], R), Exercice 4 : Hyperplans 24 Z 1 0 f (x) dx = 0 . École des Mines de Douai — FIAASMathématiques Algèbre linéaire Définition On appelle hyperplan d’un espace vectoriel E tout sous-espace vectoriel de codimension 1, c’est-à-dire admettant un supplémentaire de dimension 1. Montrer qu’une partie H de E est un hyperplan de E si et seulement si H est le noyau d’une forme linéaire non nulle. Exercice 5 : Espaces de polynômes supplémentaires On considère F = {P ∈ R3 [X], P (−1) = P (1) = 0} . 1. Montrer que F est un sous-espace vectoriel de R3 [X] et que F et R1 [X] sont supplémentaires dans R3 [X]. 2. On note p le projecteur sur R1 [X] parallèlement à F ; déterminer MatB (p) où B est la base canonique de R3 [X]. Exercice 6 : Interpolation de Lagrange Soient n ∈ N, (x0 , x1 , . . . , xn ) ∈ Rn+1 tel que x0 < x1 < · · · < xn , (y0 , . . . , yn ) ∈ Rn . On se propose de démontrer le théorème suivant : Théorème (Interpolation de Lagrange) Il existe un unique polynôme P ∈ Rn [X] dont le graphe passe par tous les points (xi , yi ) : ∀i ∈ {0, . . . , n}, P (xi ) = yi . Ce polynôme est alors appelé polynôme d’interpolation de Lagrange. Corollaire (Interpolation de Lagrange d’une fonction) Soient f une fonction définie sur un intervalle I, n ∈ N et (x0 , . . . , xn ) un (n + 1)-uplet strictement croissant d’éléments de I. Alors il existe un unique polynôme P ∈ Rn [X] coïncidant avec f en tous les xi : ∀i ∈ {0, . . . , n}, P (xi ) = f (xi ). 1. Première méthode 1.1 Montrer que, pour tout n ∈ N et tout (n + 1)-uplet strictement croissant de réels (x0 , . . . , xn ), l’application Φ(x0 ,...,xn ) : Rn [X] −−−→ Rn+1 P 7−−−→ (P (xi ))ni=0 est linéaire. Montrer que Φ(x0 ,...,xn ) est injective si et seulement si elle est surjective. 1.2 Montrer que Φ(x0 ,...,xn ) est injective. Conclure. 2. Deuxième méthode (x0 , . . . , xn ) étant fixé comme dans le théorème, on pose, pour 25 Algèbre linéaire MathématiquesÉcole des Mines de Douai — FIAAS tout i ∈ {0, . . . , n} : Li = n Y j=0 j6=i X − xj xi − xj Prouver que (L0 , . . . Ln ) est une base de Rn [X] ; conclure. 14 Déterminants Exercice 7 : Calculs de déterminants Calculer les déterminants suivants, en donnant le résultat sous forme factorisée : A= C= a − b − c 2b 2c a + b ab b + c bc c + a ca 2a 2a b−c−a 2b 2c c − a − b a2 + b2 b2 + c2 c2 + a2 B= D= (a + b)2 a2 b2 b + c 1 c + a 1 a + b 1 c2 c2 (b + c)2 a2 b2 (c + a)2 (1 + b2 )(1 + c2 ) (1 + c2 )(1 + a2 ) (1 + a2 )(1 + b2 ) Exercice 8 : Déterminant de Van Der Monde Pour tout n ∈ N∗ et tout (a1 , . . . , an ) ∈ Cn , on pose Vn (a1 , . . . , an ) = 1 1 j−1 det (ai )16i,j6n 1 ... 1 a1 a21 a2 a22 a3 a23 .. .. . . an a2n · · · a1n−1 · · · a2n−1 · · · a3n−1 , .. . · · · ann−1 appelé déterminant de Van Der Monde. On se propose de démontrer que Vn (a1 , . . . , an ) = Y (aj − ai ). 16i<j6n 1. Vérifier ce résultat pour n ∈ {1, 2, 3}. 2. En utilisant des opérations bien choisies sur les colonnes, montrer que, pour n > 2, Vn (a1 , . . . , an ) = (an − a1 )(an − a2 ) . . . (an − an−1 )Vn−1 (a1 , . . . , an−1 ). 3. Formaliser la récurrence et conclure. 26 École des Mines de Douai — FIAASMathématiques Algèbre linéaire Exercice 9 Soient x1 , . . . , xn ∈ C ; on considère le déterminant d’ordre n suivant : Wn (x1 , . . . , xn ) = 1 + x1 1 + x2 . . . 1 + xn 1 + x21 · · · 1 + xn1 1 + x22 · · · 1 + xn2 .. .. . . . 2 1 + xn · · · 1 + xnn 1. Montrer que P = X X X + x1 X + x21 · · · X + xn1 + x2 X + x22 · · · X + xn2 .. .. .. . . . 2 + xn X + xn · · · X + xnn est un polynôme de degré inférieur ou égal à 1. 2. Exprimer P (0) en fonction du déterminant de Van Der Monde Vn (x1 , . . . , xn ) (cf. exercice 8) et montrer (en utilisant des opérations sur les colonnes après avoir factorisé) que P (−1) = Vn (x1 , . . . , xn ) n Y (xi − 1). i=1 3. En déduire la valeur de W (x1 , . . . , xn ). Exercice 10 On considère le déterminant d’ordre n suivant : Dn = a c . . . c b · · · b . . . . .. . . . . .. .. . . b · · · c a 1. Calculer Dn lorsque b = c. 2. On suppose b 6= c. Montrer que le déterminant Dn (x) obtenu en ajoutant x à tous les éléments de Dn est un polynôme de degré 1 en x, et en déduire la valeur de Dn . Exercice 11 : Déterminant tridiagonal Pour (α, β) ∈ C2 , calculer les déterminants d’ordre n suivants : ∆n = α + β α 0 . .. . .. 0 β 0 ··· ··· .. .. .. . . . .. .. .. .. . . . . ... ... ... ... ... ... ... ··· ··· 0 α 0 β α + β 0 .. . .. . δn = 2 1 2 2 . . . 2 n 22 32 .. . ··· ··· n2 2 (n + 1) . .. . (n + 1)2 · · · (2n − 1)2 27