PSI-Pasteur 2015/16 Rappels et compléments d’algèbre linéaire 1 Définition 1 Un K-espace vectoriel ( K = R ou C ) est un ensemble E muni d’une loi de composition interne lui conférant une structure de groupe additif, et d’une loi de composition externe vérifiant les axiomes suivants : i) ∀ v ∈ E , 1 · v = v ii) ∀ (u, v) ∈ E × E , ∀ λ ∈ K , λ · (u + v) = λ · u + λ · v iii) ∀ (λ, µ) ∈ K × K , ∀ v ∈ E , (λ + µ) · v = λ · v + µ · v iv) ∀ (λ, µ) ∈ K × K , ∀ v ∈ E , λ · (µ · v) = (λ µ) · v Remarque 1 λ · v = 0E ⇐⇒ λ = 0K ou v = 0E Exemple 1 C (muni des opérations usuelles) est un R-espace vectoriel. Exemple 2 Kn et plus généralement, tout produit cartésien d’un nombre fini de K-ev. Exemple 3 K[X] et plus généralement, l’ensemble des applications d’un ensemble I dans K. Proposition 1 Un produit cartésien d’espaces de dimensions finies est de dimension finie, égale à la somme des dimensions de ces espaces. Définition 2 La somme d’une famille finie de sous-espaces (Ei )16i6q d’un espace E est l’image de l’application : E1 × · · · × Eq −→ E , (x1 , . . . , xq ) 7−→ x1 + · · · + xq . L Lorsque cette application est injective, on dit que la somme est P directe, on la note alors qi=1 Ei q tandis que dans le cas général la somme est simplement notée i=1 Ei . Remarque 2 La somme d’une famille finie de sous-espaces n’est autre que le sous-espace engendré par leur réunion. Par ailleurs, la somme de deux sous-espaces est directe si et seulement si leur intersection est réduite au vecteur nul ; mais cela n’est plus valable pour trois sous-espaces. Proposition 2 La dimension d’une somme de sous-espaces de dimensions finies est majorée par la somme des dimensions, avec égalité si et seulement si la somme est directe. Remarque 3 Si E est la somme directe de sous-espaces de dimensions finies, toute réunion de bases de ces sous-espaces constitue une base de E. Une telle base est dite adaptée à la somme directe. Inversement, si E est de dimension finie, tout fractionnement d’une base de E fournit une décomposition de E en somme directe. L Proposition 3 Si E = qi=1 Ei et si, pour tout i, ui est une application linéaire de Ei dans un espace vectoriel F , alors il existe une unique application linéaire u de E dans F telle que, pour tout i, ui soit la restriction de u à Ei . Lq Remarque 4 Si E = i=1 Ei et si B est une base adaptée, un endomorphisme stabilise chacun des Ei si et seulement si sa matrice dans la base B est diagonale par blocs. P P Définition 3 Pour P = nk=0 ak X k ∈ K[X] et u ∈ L (E) , on pose P (u) = nk=0 ak uk . Proposition 4 On a : (λP + µQ)(u) = λ P (u) + µ Q(u) et (P Q)(u) = P (u) ◦ Q(u) . Remarque 5 L’existence d’un polynôme annulateur de u permet de calculer, par division euclidienne, uk pour tout k ∈ N ; et même, par simple factorisation, u−1 si u est inversible. En outre, en dimension finie, un endomorphisme admet toujours un polynôme annulateur, car 2 si n est la dimension de l’espace E, (IdE , u, u2 , . . . , un ) est une famille liée. Définition 4 On dit que deux matrices carrées A et B sont semblables lorsqu’il existe une matrice inversible P telle que : B = P −1 AP . Proposition 5 Deux matrices carrées de même format sont semblables si et seulement si elles expriment un même endomorphisme dans deux bases différentes. PSI-Pasteur 2015/16 Rappels et compléments d’algèbre linéaire 2 Définition 5 On appelle trace d’une matrice carrée la somme de ses coefficients diagonaux. Proposition 6 Si A et B sont deux matrices de formats compatibles, tr(AB) = tr(BA) . Corollaire 1 Si deux matrices sont semblables alors elles ont la même trace. Cela permet, en dimension finie, de définir la trace d’un endomorphisme. Remarque 6 tr(E1,2 E2,1 E1,1 ) 6= tr(E1,2 E1,1 E2,1 ) Définition 6 On appelle forme linéaire sur un K-ev E toute application linéaire de E dans K. Définition 7 On appelle hyperplan d’un espace vectoriel tout sous-espace admettant pour supplémentaire une droite vectorielle. Proposition 7 Une partie d’un espace vectoriel est un hyperplan si et seulement si c’est le noyau d’une forme linéaire non nulle. Et deux formes linéaires non nulles définissent un même hyperplan si et seulement si elles sont proportionnelles. Théorème 1 Il existe une unique application f de Mn (K) dans K vérifiant : i) f (In ) = 1 ii) f est antisymétrique par rapport aux colonnes de sa variable. iii) f est linéaire par rapport à chacune des colonnes de sa variable. Définition 8 L’application ainsi définie est appelée déterminant. Le déterminant d’une famille de n vecteurs (e1 , e2 , . . . , en ) dans une base B d’un espace de dimension n est, par définition, detB (e1 , e2 , . . . , en ) = det(M ) où M est la matrice dont la j-ème colonne représente les coordonnées de ej dans B. Proposition 8 Le déterminant d’une matrice ayant deux colonnes égales est nul. Corollaire 2 i) Le déterminant est nul si les colonnes sont liées. ii) Il est inchangé en ajoutant à l’une des colonnes une combinaison linéaire des autres. Remarque 7 On peut alors calculer un déterminant en effectuant des opérations élémentaires sur les colonnes. Il s’ensuit, d’une part, que le déterminant d’une matrice triangulaire est le produit de ses coefficients diagonaux, et d’autre part, qu’une matrice est inversible si et seulement si son déterminant est non nul. Proposition 9 Le déterminant d’un produit est le produit des déterminants. Corollaire 3 Si deux matrices sont semblables alors elles ont le même déterminant. Cela permet, en dimension finie, de définir le déterminant d’un endomorphisme. Proposition 10 Le déterminant d’une matrice est égal à celui de sa transposée. Exemple 4 Déterminant d’une matrice triangulaire par blocs : A B Ip B A 0 Si A ∈ Mp (K) et C ∈ Mq (K) : det = det det = det(A) det(C) . 0 C 0 C 0 Iq Exemple 5 Déterminant de Vandermonde Théorème 2 Développement suivant une colonne : Pn i+j Pour A ∈ Mn (K) et 1 6 j 6 n , on a : det(A) = Ai,j ∆i,j où ∆i,j est le i=1 (−1) déterminant de la matrice obtenue en supprimant la i-ème ligne et la j-ème colonne de A.