cours

publicité
PSI-Pasteur 2015/16
Rappels et compléments d’algèbre linéaire
1
Définition 1 Un K-espace vectoriel ( K = R ou C ) est un ensemble E muni d’une loi de
composition interne lui conférant une structure de groupe additif, et d’une loi de composition
externe vérifiant les axiomes suivants : i) ∀ v ∈ E , 1 · v = v
ii) ∀ (u, v) ∈ E × E , ∀ λ ∈ K , λ · (u + v) = λ · u + λ · v
iii) ∀ (λ, µ) ∈ K × K , ∀ v ∈ E , (λ + µ) · v = λ · v + µ · v
iv) ∀ (λ, µ) ∈ K × K , ∀ v ∈ E , λ · (µ · v) = (λ µ) · v
Remarque 1 λ · v = 0E ⇐⇒ λ = 0K ou v = 0E
Exemple 1 C (muni des opérations usuelles) est un R-espace vectoriel.
Exemple 2 Kn et plus généralement, tout produit cartésien d’un nombre fini de K-ev.
Exemple 3 K[X] et plus généralement, l’ensemble des applications d’un ensemble I dans K.
Proposition 1 Un produit cartésien d’espaces de dimensions finies est de dimension finie, égale
à la somme des dimensions de ces espaces.
Définition 2 La somme d’une famille finie de sous-espaces (Ei )16i6q d’un espace E est l’image
de l’application : E1 × · · · × Eq −→ E , (x1 , . . . , xq ) 7−→ x1 + · · · + xq .
L
Lorsque cette application est injective, on dit que la somme est P
directe, on la note alors qi=1 Ei
q
tandis que dans le cas général la somme est simplement notée
i=1 Ei .
Remarque 2 La somme d’une famille finie de sous-espaces n’est autre que le sous-espace
engendré par leur réunion. Par ailleurs, la somme de deux sous-espaces est directe si et seulement
si leur intersection est réduite au vecteur nul ; mais cela n’est plus valable pour trois sous-espaces.
Proposition 2 La dimension d’une somme de sous-espaces de dimensions finies est majorée
par la somme des dimensions, avec égalité si et seulement si la somme est directe.
Remarque 3 Si E est la somme directe de sous-espaces de dimensions finies, toute réunion de
bases de ces sous-espaces constitue une base de E. Une telle base est dite adaptée à la somme
directe. Inversement, si E est de dimension finie, tout fractionnement d’une base de E fournit
une décomposition de E en somme directe.
L
Proposition 3 Si E = qi=1 Ei et si, pour tout i, ui est une application linéaire de Ei dans
un espace vectoriel F , alors il existe une unique application linéaire u de E dans F telle que,
pour tout i, ui soit la restriction de u à Ei .
Lq
Remarque 4 Si E =
i=1 Ei et si B est une base adaptée, un endomorphisme stabilise
chacun des Ei si et seulement si sa matrice dans la base B est diagonale par blocs.
P
P
Définition 3 Pour P = nk=0 ak X k ∈ K[X] et u ∈ L (E) , on pose P (u) = nk=0 ak uk .
Proposition 4 On a : (λP + µQ)(u) = λ P (u) + µ Q(u) et (P Q)(u) = P (u) ◦ Q(u) .
Remarque 5 L’existence d’un polynôme annulateur de u permet de calculer, par division
euclidienne, uk pour tout k ∈ N ; et même, par simple factorisation, u−1 si u est inversible.
En outre, en dimension finie, un endomorphisme admet toujours un polynôme annulateur, car
2
si n est la dimension de l’espace E, (IdE , u, u2 , . . . , un ) est une famille liée.
Définition 4 On dit que deux matrices carrées A et B sont semblables
lorsqu’il existe une matrice inversible P telle que : B = P −1 AP .
Proposition 5 Deux matrices carrées de même format sont semblables si et seulement si elles
expriment un même endomorphisme dans deux bases différentes.
PSI-Pasteur 2015/16
Rappels et compléments d’algèbre linéaire
2
Définition 5 On appelle trace d’une matrice carrée la somme de ses coefficients diagonaux.
Proposition 6 Si A et B sont deux matrices de formats compatibles, tr(AB) = tr(BA) .
Corollaire 1 Si deux matrices sont semblables alors elles ont la même trace.
Cela permet, en dimension finie, de définir la trace d’un endomorphisme.
Remarque 6 tr(E1,2 E2,1 E1,1 ) 6= tr(E1,2 E1,1 E2,1 )
Définition 6 On appelle forme linéaire sur un K-ev E toute application linéaire de E dans K.
Définition 7 On appelle hyperplan d’un espace vectoriel tout sous-espace admettant pour
supplémentaire une droite vectorielle.
Proposition 7 Une partie d’un espace vectoriel est un hyperplan si et seulement si c’est le
noyau d’une forme linéaire non nulle. Et deux formes linéaires non nulles définissent un même
hyperplan si et seulement si elles sont proportionnelles.
Théorème 1 Il existe une unique application f de Mn (K) dans K vérifiant : i) f (In ) = 1
ii) f est antisymétrique par rapport aux colonnes de sa variable.
iii) f est linéaire par rapport à chacune des colonnes de sa variable.
Définition 8 L’application ainsi définie est appelée déterminant.
Le déterminant d’une famille de n vecteurs (e1 , e2 , . . . , en ) dans une base B d’un espace de
dimension n est, par définition, detB (e1 , e2 , . . . , en ) = det(M ) où M est la matrice dont la
j-ème colonne représente les coordonnées de ej dans B.
Proposition 8 Le déterminant d’une matrice ayant deux colonnes égales est nul.
Corollaire 2
i) Le déterminant est nul si les colonnes sont liées.
ii) Il est inchangé en ajoutant à l’une des colonnes une combinaison linéaire des autres.
Remarque 7 On peut alors calculer un déterminant en effectuant des opérations élémentaires
sur les colonnes. Il s’ensuit, d’une part, que le déterminant d’une matrice triangulaire est le
produit de ses coefficients diagonaux, et d’autre part, qu’une matrice est inversible si et seulement
si son déterminant est non nul.
Proposition 9 Le déterminant d’un produit est le produit des déterminants.
Corollaire 3 Si deux matrices sont semblables alors elles ont le même déterminant.
Cela permet, en dimension finie, de définir le déterminant d’un endomorphisme.
Proposition 10 Le déterminant d’une matrice est égal à celui de sa transposée.
Exemple 4 Déterminant d’une matrice triangulaire par blocs :
A B
Ip B
A 0
Si A ∈ Mp (K) et C ∈ Mq (K) : det
= det
det
= det(A) det(C) .
0 C
0 C
0 Iq
Exemple 5 Déterminant de Vandermonde
Théorème 2 Développement suivant une colonne :
Pn
i+j
Pour A ∈ Mn (K) et 1 6 j 6 n , on a : det(A) =
Ai,j ∆i,j où ∆i,j est le
i=1 (−1)
déterminant de la matrice obtenue en supprimant la i-ème ligne et la j-ème colonne de A.
Téléchargement