Cours+TD+corrigé d`algèbre linéaire

publicité
1
MATHEMATIQUES GENERALES 2
Algebre linaire
Chapitre 1
Espace vectoriel
1
Premières définitions
Définition 1. on appelle espace vectoriel sur R ou R-espace vectoriel un ensemble E sur lequel on a défini deux lois de composition :
– Une loi interne dite addition, notée + (i.e. une application + : E ∗ E → E)
vérifiant :
– (x + y) + z = x + (y + z) pour tout x, y, z ∈ E
– x + y = y + x pour tout x, y ∈ E
– il existe un élément de E, noté 0E , dit neutre, tel que pour tout x ∈ E x+0E = x
– soit x ∈ E ; il existe (−x) élément de E dit opposé de x tel que x + (−x) = 0E
– une loi externe de domaine R (i.e. une application . : R ∗ E → E,(λ, x) → λx)
vérifiant :
– λ(µx) = (λµ)x pour tout λ, µ ∈ R et x ∈ E
– (λ + µ)x = λx + µx
– λ(x + y) = λx + λy
– 1.x = x
Les éléments de E sont appelés vecteurs et ceux de R scalaire.
Remarque : On peut remplacer dans la définition R par un corps quelconque. Dans
ce cours on notera K un tel corps et on pensera à K = R, C.
Exemple 1 : Modèle fondamental :
E = Rn = R × ... × R
3
4
Calcul matriciel
Exemple : n = 2. Alors E = R × R = {(x, y) : x ∈ R y ∈ R} est un R-espace
vectoriel :
on prend les applications :
E × E −→ E
((x1 , y1 ), (x2 , y2 )) −→ (x1 + x2 , y1 + y2 )
comme addition et
R × E −→ E
(λ, (x, y)) −→ (λx, λy)
come multiplication par un scalaire.
On a alors (0, 0) comme neutre et −(x, y) = (−x, −y).
Ici les 2-uplets sont les vecteurs et les réels les scalaires.
Exercice : vérifier les axiomes de la définition.
Interprétation géométrique :
Soit P = {vecteursdansleplan} :
Définition 2. • Une flèche dans le plan est un segment entre deux points A et B
orientés.
• Deux flèches sont équivalentes si elles ont mêmes direction, sens et longueurs.
• Les vecteurs du plan sont les classes d’équivalences des flèches.
Addition de vecteurs :
~ = AD
~ où AD
~ a le même sens et la même
Multiplication par un scalaire : λAB
direction que AB et la longueur multipliée par λ (si λ est positif).
Exemple 2 :
Soit E = Rn [X] = {f onctionspolynomescoef f icientdansRdedegr 6 n} = {P (X) =
a0 + a1 X + ... + an xn ai ∈ R} est un espace vectoriel sur R muni des lois :
(a0 + a1 X + ... + an xn ) + (b0 + b1 X + ... + bn xn ) := ((a0 + b0 ) + (a1 + b1 )X + ... + (an + bn )xn )
λ.(a0 + a1 X + ... + an xn ) := (λa0 + λa1 X + ... + λan xn )
Chapitre 1. Espace vectoriel
5
Fig. 1 – Addition de deux vecteurs
Plus généralement E = R[X] qui est l’ensemble des polynomes de tout degré à
coefficient dans R est un espace vectoriel sur R avec les lois :
X
X
X
(ak + bk )xk
bk xk :=
ak x k +
k
k
k
λ
X
k
ak x :=
k
X
λak xk
k
(Les sommes sont finies.)
Exemple 3 :
Soit F(R, R) ensemble des fonctions de R dans R. On munit cet ensembles des lois
suivantes :
– (f + g)(x) := f (x) + g(x)
– λ(f (x)) := λf (x)
Proposition 1.1. Soit E un espace vectoriel. Alors :
1. 0.x = 0E pour tout x ∈ E
2. λ.0E = 0E
3. λ.x = 0E implique λ = 0 ou x = 0E
4. (−1).x = −x pour tout x ∈ E
Démonstration. (1)
0.x = 0.x + 0E
= 0.x+x+(-x) définition de l’opposé
0E est le neutre de +
6
Calcul matriciel
= (0.x+x)+(-x) associativité de l’addition
= (0+1)x+(-x) (car 1.x = x et distributivité de . par rapport à +
) = x+(-x)
=0E
(2) Soit λ ∈ K.
λ.0E = λ(0.x) = (λ.0)x = 0.x = 0E
(3) Soient λ ∈ K et x ∈ E tels que λx = 0E .
Supposons que λ 6= 0. Montrons qu’alors x = 0E .
Si λ 6= 0 alors il existe λ1 ∈ K tel que λ. λ1 = 1. Alors ( λ1 )(λx) =
( λ1 )(λx) = ( λ1 λ)x = 1.x = x. Donc x = 0E .
1
0
λ E
= 0E et
(4) On a (−1).x = (−1)x + 0E = (−1)x + x + (−x) = ((−1) + 1)x + (−x) =
0.x + (−x) = (−x)
Simplification de notations : on notera par la suite 0E par 0 et x + (−y) = x − y.
Enfin “espace vectoriel” sera noté ev.
2
Sous-espace vectoriel
2.1
Définition
On identifie parmi les sous parties de E celles qui se comportent bien par rapport
aux opérations de E.
Définition 3. Soit E un K-ev et F une partie de E. On dit que F est un sous espace
vectoriel de E (ou sev) si :
– F 6= ∅
– F est stable par rapport à l’addition : x, y ∈ F => x + y ∈ F
– F est stable par rapport à la multiplication : λ ∈ K, x ∈ F => λ.x ∈ F
Conséquence : 0 est toujours dans F. En effet F non vide implique qu ’il existe
x ∈ F donc −x ∈ F . Par stabilité de l’addition x − x = 0E ∈ F .
Chapitre 1. Espace vectoriel
7
Proposition 1.2. F est un sev de E ssi :
– F 6= ∅
– x, y ∈ F λ, µ ∈ K alors λx + µy ∈ F
Quelques exemples :
1. {0} et E sont toujours des sev de E.
2. Rn [X] ⊂ R[X]
3. L’ensemble des fonctions dérivables et à dérivées continues de R dans R (C 1 (R, R))
est un sev de F(R, R).
4. Dans R2 les axes de coordonnées sont des sev de R2 : F = {(x, 0), x ∈ R} et
G = {(0, y), y ∈ R}.
5. En général, les droites vectorielles dans R2 sont de sev de R2 : c’est l’ensemble
suivant : Fv := {y ∈ E : il existe λ ∈ R tq y = λv}
Une partie quelconque F d’un espace vectoriel E n’est pas toujours un sous espace
vectoriel, par contre elle sera toujours inclue dans un sev de E. Enfin une partie
F d’un espace vectoriel E peut ne pas être un sous espace vectoriel de E mais être
un espace vectoriel (en changeant biensûr les lois d’addition et/ou de multiplication
par un scalaire).
2.2
Sous espace vectoriel engendré par une partie de E
On veut construire le plus petit sous espace vectoriel contenant une partie de E
donnée.
Définition 4. Soit {e1 , ..., en } une famille de n vecteurs dans E.
On dit que x ∈ E est une combinaison linéaire de {e1 , ..., en } s’il existe λ1 ,...,λn dans
K tels que x = λ1 e1 + ... + λn en .
Exemple :
Dans Rn , tout vecteur est combinaison linéaire de la base canonique : e1 = (1, 0, ..., 0), e2 =
(0, 1, ..., 0), ..., en = (0, ...0, 1). Alors x = (x1 , ..., xn ) = x1 e1 + ... + xn en .
notation : On note vect(e1 , ..., en ) = {{textx ∈ E : il existeλ1 , ..., λn ∈ Ktelsquex = λ1 e1 + ...λn en }
l’espace vectoriel engendré par les vecteurs {e1 , ..., en }.
8
Calcul matriciel
Théorème 1.3. vect(e1 , ..., en ) est un sev contenant {e1 , ...en }. C’est le plus petit
avec cette propiété. On l’appelle le sous espace vectoriel engendré par {e1 , ...en }.
Démonstration. Première partie
• {e1 , .., en } ⊂ vect(e1 , ...en ) en effet ei = 0e1 + ...0ei−1 , +1ei + 0ei+1 + ...0en pour
tout i = 1...n
• Stabilité par rapport à + :
soient x, y ∈ vect(e1 , ...en ). Alors il existe λ1 ,...,λn et µ1 ,...µn dans K tels que
x = λ1 e1 + ... + λn en et y = µ1 e1 + ... + µn en .
Alors x + y = (λ1 + µ1 )e1 + ... + (λn + µn )en ∈ vect(e1 , ...en ).
• Stabilité par rapport à . :
Soient x ∈ vect(e1 , ...en ) tel que x = λ1 e1 + ... + λn en et µ ∈ K.
Alors µx = µ(λ1 e1 + ... + λn en ) = µ(λ1 e1 ) + ... + µ(λn en ) = (µλ1 )e1 + ... + µλn )en ∈
vect(e1 , ...en ).
Deuxième partie : c’est le plus petit
On fait par récurrence :
Soit F un sous espace vectoriel de E contenant {e1 , ...en }.
Soit l’hypothèse de récurrence HR(k) : F contient les combinaisons linéaires de
{e1 , ...ek }.
HR(1) est vérifiée : e1 ∈ F implique λ.e1 ∈ F pour tout λ ∈ K (par stabilité par
rapport à la multiplication par un scalaire.
Soit 1 6 k 6 n − 1. Supposons que HR(k) est vraie et montrons qu’elle implique
HR(k + 1).
Par hypothèse F contient toutes les combinaisons linéaires de {e1 , ...ek }.
Soit x = (λ1 e1 + ... + λk ek ) + λk+1 ek+1 . Ces deux éléments (celui dans la parenthèse
et le second) sont dans F par HR et car ek+1 ∈ F , donc x est dans F comme somme
de deux vecteurs de F.
Exemples :
1. Dans le dernier exemple de sev, vect(e1 ) est une droite vectorielle.
2. Regardons vect(e1 , e2 ) dans Rn avec e1 et e2 deux vecteurs de Rn .
– si e1 ou e2 = 0 c’est une droite vectorielle.
– si e2 = λe1 vect(e1 , e2 ) = vect(e1 )
– sinon vect(e1 , e2 ) est un plan vectoriel.
Définition 5. Soit P une partie de E espace vectoriel. On pose vect(P ) = {x ∈
E : il existe e1 , ..., en ∈ P tel que x = λ1 e1 + ... + λn en } c’est à dire l’ensemble des
combinaisons linéaires des éléments de P . C’est le plus petit sev de E contenant P.
Chapitre 1. Espace vectoriel
2.3
9
Intersection et somme de deux sev
Définition 6. Soient F et G deux ensembles. Alors la somme F + G = {z : z =
x + y avec x ∈ F, y ∈ G}.
Proposition 1.4. Soient F et G deux sev d’un K-ev E. Alors :
1. F ∩ G est un sev de E.
2. F ∪ G n’est pas en général un sev de E. MaisF + G est un sev de E et c’est le
plus petit contenant F ∪ G.
3. Le complémentaire E-F n’est pas un sev de E.
Démonstration. (1) F ∩ G 6= ∅ car 0 ∈ F et 0 ∈ G, donc 0 ∈ F ∩ G
Soient x, y ∈ F ∩ G i.e. x, y ∈ F et x, y ∈ G. Alors x + y ∈ F et x + y ∈ G car F et
G sont des sev ; d’où x + y ∈ F ∩ G.
Soit λ ∈ K et x ∈ F ∩G. Alors λxF et λx ∈ G car F et G sev de E, donc λx ∈ F ∩G.
(2)Contre-exemple Dans R2 avec les lois classiques. Soit F l’axe de abscisses engendré par e1 et G l’axe des ordonnées engendré par e2 .
Fig. 2 – Addition de deux vecteurs
Alors F ∪ G est représenté par les deux axes de coordonnées mais e1 + e2 6∈ F ∪ G
car il engendre la première diagonale.
exercice : faites un dessin pour vous en convaincre
Par contre F + G est un sev de E :
- 0=0+0∈F +G
- Soient x1 , x2 ∈ F + G. Alors il existe y1 , y2 ∈ F et z1 , z2 ∈ G tels que x1 = y1 + z1
et x2 = y2 + z2 . Alors x1 + x2 = (y1 + y2 ) + (z1 + z2 ) ∈ F + G.(car F et g sont deux
sev) - Soit λ ∈ K et x = y + z ∈ F + G . Alors λx = λy + λz ∈ F + G (car F et G
sont deux sev de E).
C’est le plus petit contenant F ∪ G :
10
Calcul matriciel
Soit H un sev de E tel que F ∪ G ⊂ H. Soit x = y + z ∈ F + G. y ∈ F donc y ∈ H et
z ∈ G donc z ∈ H donc y + z ∈ H car H est stable par addition. Donc F + G ⊂ H.
(3) 0 6∈ E − F donc le complémentaire ne peut etre un sev de E.
Remarques :-L’union de deux sev n’est pas un espace vectoriel à cause de la non
stabilité par rapport à l’addition. D’où la définition de la somme de deux sev.
- On vient de voir que pour montrer qu’un ensemble n’est pas un sev il suffit d’exiber
un contre exemple, alors que pour montrer que l’on est en présence d’un ev il faut
montrer les propriétés pour tous les éléments.
Quelques propiétés de la somme de deux sous espaces vectoriels :
– associativité : Soient F,G et H trois sev d’un K-ev E. Alors (F + G) + H =
F + (G + H) = F + G + H
– commutativité : F+G=G+F sont le plus petit sev contenant F ∪ G = G ∪ F .
– élément neutre : Pour tout sev F on a : F + {0} = F
Attention
En général il n’exsite pas de sev tels que F + G = 0. De même F + G = F + H
n’implique pas G = H
exercice : trouver un contre exemple
Proposition 1.5. Soient P et Q deux parties de E. Alors vect(P ∪ Q) = vect(P ) +
vect(Q).
Démonstration. admise
2.4
Some directe. Supplémentaire
Définition 7. Soient F et G deux sev d’un K-ev E. On dit que F et G sont en
sommes directes si F ∩ G = {0}.
Notation : Si F et G sont en somme directe on note F + G = F ⊕ G.
Proposition 1.6. Soient F et G deux sev de E en somme directe. Alors F ⊕ G =
{x ∈ E : il existe un unique y ∈ F etz ∈ G tels que∆ x = y + z}
Chapitre 1. Espace vectoriel
11
Démonstration. Soit x ∈ F ⊕ G. Supposons que x = y1 + z1 = y2 + z2 et montrons
qu’alors y1 = y2 et z1 = z2 .
(y1 + z1 = y2 + z2 ) <=> (y1 − y2 = z2 − z1 ) et on a y1 − y2 ∈ F et z2 − z1 ∈ G. Or
F ∩ G = {0},donc y1 = y2 et z1 = z2 .
Définition 8. Soit F un sous espace vectoriel d’un K-ev E. G est un supplémentaire de F si E = F ⊕ G.
Remarques :
1. il y a deux conditions à vérifier : F ∩ G = {0} et F + G = E.
2. Attention : Il n’y a pas unicité du supplémentaire d’un sev donné.
3. Attention : G supplémentaire n’est pas le complémentaire de F dans E.
2.5
Dimension d’un espace vectoriel
On a tous, de façon intuitive, la notion de dimension : on a envie par exemple de dire
qu’une droite est de dimension 1 car il suffit d’un paramètre pour situé un point de
la droite, un plan de dimension 2 et l’espace K n de dimension n. Le problème auquel
on est confronté est d’arriver à définir la dimension d’un espace vectoriel de manière
intrinsèque, ie en ne faisant appel qu’aux opérations définissant les structures.
Bases
Définition 9.
1. Une famille de vecteurs {v1 , ..., vn } d’un K-ev E est dite génératrice si E = vect(v1 , ..., vn ), ie pour tout x ∈ E il existe λ1 ,...,λn ∈ K
x = λ1 e1 + ... + λn en .
2. La famille {e1 , ..., en } est libre ssi λ1 e1 + ... + λn en = 0 implique λ1 = ... =
λn = 0. On dit alors qu’il sont linéairement indépendants. Sinon on dit qu”ils
sont liés.
3. Une famille {e1 , ..., en } de vecteurs de E est une base si elle est à la fois libre
et génératrice.
Exemples :
(1) E = R2
– {(0, 0), (1, 0)} ni libre ni génératrice
12
–
–
–
–
–
Calcul matriciel
{(1, 0), (0, 1)} base
{(1, 1), (2, 2)} non base
{(0, 1), (1, 0), (1, 1)} génératrice mais pas libre
{(1, 0), (1, 0)} pas libre pas génératrice
{(1, 0), (1, 1)} base
(2) Dans R3 , les vecteurs v1 = (1, 2, 1) , v2 = (−1, 3, 1) et v3 = (−1, 13, 5) sont liés
car 2v1 + 3v2 − v3 = 0
Proposition 1.7. Soit {e1 , ..., en } une base de E. Soit x ∈ E. Alors il existe un
unique n-uplets (λ1 , ..., λn ) ∈ K n tel que x = λ1 e1 + ...λn en .
Définition 10. (λ1 , ..., λn ) sont les coordonnées de x dans {x1 , ..., xn }.
Démonstration. existence : {e1 , ..., en } génératrice implique qu’ il existe (λ1 , ..., λn ) ∈
K n tels que x = λ1 e1 + ...λn en .
unicit : x = λ1 e1 + ...λn en = µ1 e1 + ...µn en .Ceci implique que
(λ1 − µ1 )e1 + ... + (λn − µn )en = 0. Or {e1 , ..., en } est libre donc λi − µi = 0 pour
tout i = 1...n.
Proposition 1.8. (1) Soit {e1 , ..., en } une base de E. Soit {f1 , ..., fl } une autre famille de vecteurs de E tels que chaque ei est combinaison linéaire de {f1 , ..., fl }.
Alors la famille {f1 , ..., fl } est génératrice.
(2) a. Soit {e1 , ..., ek } une famille libre de E et ek+1 6∈ vect(e1 , ..., ek ). Alors {e1 , ..., ek+1 }
est encore libre.
b. Soit {f1 , ..., fk } une famille libre de F sev de E et {g1 , ..., gl } une famille libre de G
sev de E. On suppose que F et G sont en somme directes. Alors {f1 , ..., fk n, g1 , ..., gl }
est encore libre.
Démonstration. (1) On veut montre que vect(f1 , ..., fl ) = E.
Or pour tout i = 1...n on a ei ∈ vect(f1 , ..., fl ) donc {e1 , ..., ek } ⊂ vect(f1 , ..., fl ).
D’où vect(e1 , ..., en ) = E ⊂ vect(f1 , ..., fl ) ⊂ E car vect(e1 , ..., en ) est le plus petit
sous espace vectoriel de E contenant {e1 , ..., en }. D’où {f1 , ..., fl } est génératrice.
(2) a. {e1 , ..., ek+1 } est elle libre ?
Soient λ1 , ...λk+1 ∈ K tels que λ1 e1 + ... + λk+1 ek+1 = 0. On doit montrer que λi = 0
pour tout i.
k1
1
e1 + ... + λλk+1
ek = −ek+1 , c’ est faux par hypoSupposons que λk+1 6= 0. Alors λλk+1
thèse. Donc λk+1 = 0 et λ1 e1 + ... + λk ek = 0. Or la famille {e1 , ..., ek } est libre par
hyppothèse donc pour tout i = 1...k λi = 0.
b. laissé en exercice.
Chapitre 1. Espace vectoriel
Proposition 1.9.
13
1. x est une famile libre équivaut à x non nul.
2. Toute famille contenant une famille génératrice est génératrice.
3. Toute sous-famille d’une famille libre est libre.
4. Toute famille contenant une famille liée est liée.
5. Toute famille {v1 , ..., vp } dont l’un des deux vecteurs vi est nul est liée.
Essayez de vous convaincre de la véracité de la proposition ci-dessus en donnant la
preuve
Dimension
Dans cette sous section on se place en dimension finie c’est à dire quand il existe
une famille génératrice finie.
Théorème 1.10. Dans un K-ev E non égal au vecteur nul et de dimension finie, il
existe toujours des base.
Démonstration. admise
Théorème 1.11. Soit E 6= {0} un ev de dimension finie. Alors :
1. Toute famille génératrive de E a au moins autant d’éléments que n’importe
quelle famille libre de E
2. De toute famille génératrice on peut extraire une base.
3. (Théorème de la base incomplète) Toute famille libre peut etre complétée par
des vecteurs de E de manière à former une base.
Conséquences :
1. Deux bases données de E ont le même nombre d’éléments. Ce nombre est la
dimension de l’espace noté n = dimE.
2. Toute famille génératrice a au moins n éléments
3. Toute famille libre a au plus n éléments.
Démonstration. des conséquences :
(1) Soient {e1 , ..., ek } et {f1 , ..., fl } deux bases.
Alors {e1 , ..., ek } est génératrice et {f1 , ..., fl } est libre. Donc par le théorème précédent, l 6 k. Et inversement k 6 l.
14
Calcul matriciel
(2) Soient {e1 , ..., ek } génératrice et {f1 , ..., fl } base donc libre. Donc par théorème
k>l
(3) Soient {e1 , ..., ek } libre et {f1 , ..., fl } base donc génératrice. Donc l > k
Démonstration. Idée de la preuve du téorème : (1) Soient {e1 , ..., ek } génératrice et
{f1 , ..., fl } libre. A-t-on k > l ?
On suppose que l > k et on montre qu’alors k = l.
idée : substituer progressivement les fi aux ei tout en gardant la propriété d’etre
génératrice.
(2) Idée : Si la famille génératrice n’est pas une base alors elle n’est pas libre. On
montre qu’elle contient une famille génératrice plus petite.
(3) Idée : Montrer qu’une famille libre non génératrice est contenue dans une
famille libre plus grande.
Théorème 1.12.
... + dimEp .
1. Soient E1 , ...Ep des K-ev. Alors dim(E1 ×...×Ep ) = dimE1 +
2. Soit F un sev d’un ev E. Alors dimF 6 dimE. Si dimF = dimE alors F = E.
3. Soient F et G deux sev supplémentaires l’un de l’autre. Alors dimF + dimG =
dimE.
4. Soient F et G deux sous espaces vectoriels de E. Alors dim(F + G) + dim(F ∩
G) = dimF + dimG.
Démonstration. admise
Chapitre 2
Feuille Td 1
A : espaces vectoriels, sous espaces vectoriels
Exercice 1
Parmi les ensembles suivants reconnaitre ceux qui sont des sev de R2 ou R3 :
E1 = {(x, y, z) ∈ R3 /x + y = 0} E10 = {(x, y, z) ∈ R3 /xy = 0}
E2 = {(x, y) ∈ R2 /x2 + yx > 0} E20 = {(x, y, z) ∈ R3 /x2 + xy + y 2 > 0}
E3 = {f ∈ F(R, R)/f (1) = 0} E30 = {f ∈ F(R, R)/f (1) = 0}
Exercice 2
On munit R2 des lois :
E × E −→ E
((x1 , y1 ), (x2 , y2 )) −→ (x1 + x2 , y1 + y2 )
comme addition et
R × E −→ E
(λ, (x, y)) −→ (λx, 0)
15
16
Calcul matriciel
come multiplication par un scalaire.
E doté de ces lois est-il un espace vectoriel ?
Exercice 3
Définition 11. Une matrice carrée 2 × 2 est un tableau carré à deux lignes et deux
colonnes
A=
a11 a12
a21 a22
colonnes
= (aij )j=12
∈ M2 (K)
i=12 lignes
,ou K est un corps (pensez aux nombres réels ou aux complexes).
On munit M2 (R) des lois suivantes :
M2 (R) × M2 (R) −→ M2 (R)
j=12
j=12
(aij )i=12 , (bij )j=12
i=12 −→ (aij + bij )i=12
comme addition et
R × M2 (R) −→ M2 (R)
j=12
(λ, (aij )j=12
i=12 −→ (λaij )i=12
come multiplication par un scalaire.
Montrer que M2 (Rr) muni de ces lois est un espace vectoriel.
Exercice 4
Soit
a+b c
E = {A ∈ M2 (R)/A =
}
2c −b
1 a
F = {A ∈ M2 (R)/A =
}
0 b
Lequel de ces deux sous ensembles de M2 (R) sont des sev ?
Chapitre 2. Feuille Td 1
17
B :Somme et somme directe d’espaces vectoriels
Exercice 5
Montrer que les ensembles U = {(a, a, a)/a ∈ R} et V = {(α, β, γ) ∈ R3 /α + 2β +
3γ = 0} sont des sev de R3 et que R3 = U ⊕ V .
Exercice 6 : caractérisation de la somme directe de 3 sev
Soient U, V et W des sev d’un ev E vérifiant :
(1) : U ∩ V = {0} = (U + V ) ∩ W
1. Démontrer que : U ∩ V = {0} = U ∩ (V + W )
2. Montrer que (1) équivaut à : pour tout x dans U + V + W il existe un unique
(u, v, w) U × V × W tels que x = u + v + w
Exercice 7
Soient e1 = (0, 1, −2, 1), e2 = (1, 0, 2, −1), e3 = (3, 2, 2, −1) , e4 = (0, 0, 1, 0) et
e5 = (0, 0, 0, 1) des vecteurs de R4 . Les propositions suivantes sont elles vraies ou
fausses ? Justifier votre réponse.
1. vect(e1 , e2 , e3 ) = vect((1, 1, 0, 0), (−1, 1, −4, 2))
2. (1, 1, 0, 0) ∈ vect(e1 , e2 ) ∩ vect(e2 , e3 , e4 )
3. dimR (vect(e1 , e2 ) ∩ vect(e2 , e3 , e4)) = 1
4. vect(e1 , e2 ) + (e2 , e3 , e4 ) = R4
5. vect(e4 , e5 ) est un sous espace vectoriel supplementaire de vect(e1 , e2 , e4 ) dans
R4
Exercice 8
On considère les vecteurs v1 = (1, 0, 0, 1), v2 = (0, 0, 1, 0, v3 = (0, 1, 0, 0), v4 =
(0, 0, 0, 1) et v5 = (0, 1, 0, 1) dans R4 .
18
Calcul matriciel
1. vect(v1 , v2 ) et vect(v3 ) sont ils supplémentaires dans R4 ?
2. Même question pour vect(v1 , v3 , v4 ) et vect(v2 , v5 ).
Exercice 9
Soit E = M2 (R.
a 0
0 0
}
0 b
c d
}
E1 = {A ∈ M2 (R)/A =
et
E2 = {A ∈ M2 (R)/A =
Montrer que E1 et E2 sont deux sev de E et que E = E1 ⊕ E2 .
C : familles libres et génératrices. Base et dimension
Exercice 8
Soient les vecteurs v1 = (1 − i, i) et v2 = (2, −1 + i) dans C2.
1. Montrer que le système (v1 , v2 ) est R libre et lié.
2. Vérifier que le système S = (1, 0)(i, 0), (0, i), (0, i) est une base de C2 sur R et
donner les composantes des vecteurs v1 et v2 dans cette base.
Exercice 10
Montrer que dans R3 les vecteurs u1 = (2, 3, −1) et u2 = (1, −1, −2) engendrent le même sev que les vecteurs v1 = (3, 7, 0) et v2 (5, 0, −7).
Exercice 11
La famille {v1 , v2 , v3 } ∈ R3 avec v1 = (1, 1, −1) , v2 = (2, 1, 3) et v3 = (0, −1, 5)
est-elle libre ? Est-elle génératrice ? Quelle relation linéaire lie les vecteurs ?
Quel est l’espace qu’ils engendrent ?
Chapitre 2. Feuille Td 1
19
Exercice 12
Montrer que la famille (v1 , v2 ) où v1 = (1, 2) et v2 = (−1, 1) engendre R2 . Est
elle une base ?
Exercice 13
Dans R4 on considère l’ensemble E des vecteurs (x1 , x2 , x3 , x4 ) vérifiant x1 +
x2 , x3 , x4 = 0. L’ensemble E est il un sev de R4 ? Si oui, en donner une base.
Exercice 14*
Les familles suivantes sont elles libres ?
(a) v1 = (1, 0, 1), v2 = (0, 2, 2) et v3 = (3, 7, 1) dans R3
(b) v1 = (1, 0, 0), v2 = (0, 1, 1) et v3 = (1, 1, 1) dans R3
(c) v1 = (1, 2, 1, 2, 1), v2 = (2, 1, 2, 1, 2) , v3 = (1, 0, 1, 1, 0) et v4 = (0, 1, 0, 0, 1)
dans R5
(d) v1 = (2, 4, 3, −1, −2, 1), v2 = (1, 1, 2, 1, 3, 1) et v3 = (0, −1, 0, 3, 6, 2) dans
R6
Exercice 15*
on considère dans Rrn une famile de 4 vecteurs linéairement indépendants
(e1 , e2 , e3 , e4 ). Les familles suivantes sont elles libres ?
(a) (e1 , 2e2 , e3 )
(b) (e1 , e3 )
(c) (e1 , 2e1 + e4 , e4 )
(d) (3e1 + e3 , e3 , e2 + e3 )
(e) (2e1 + e2 , e1 − 3e2 , e4 , e2 − e1 )
Chapitre 3
Solutions de la feuille 1
A : espaces vectoriels, sous espaces vectoriels
Exercice 1
(1) E1 est un sev :
-E1 6= ∅ car (0, 0, 0) ∈ E1 (en effet 0 + 0 = 0).
-soient (x1 , x2 , x3 ) ∈ E1 i.e. x1 + x2 = 0 et (y1 , y2 , y3 ) ∈ E1 i.e. y1 + y2 = 0
Alors ((x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 ) ∈ E1 si (x1 + y1 ) +
(x2 + y2 ) = 0. Ceci est vrai car x1 + x2 = 0 et y1 + y2 = 0.
Donc E1 est stable par addition.
- Soit (x, y, z) ∈ E1 ie x + y = 0. Soit λ ∈ R.
Alors (λx, λy, λz) ∈ E1 car λx + λy = λ(x + y) = 0.
donc E1 reste stable par la multiplication par un scalaire.
(2) E2 n’est pas un sev :
en effet (1, −2) = (0, −2) + (1, 0) et on a (1, −2) 6∈ E2 car 1 − 2 < 0 et (0, −2)
et (1, 0) sont dans E2 . Donc l’addition n est pas stable.
21
22
Calcul matriciel
(3) E3 est un sev de l’ensemble des applications de R dans R. -E3 6= ∅ car
la fonction f qui est nulle partout appartient à E3 . -Soient f, g ∈ E3 . Alors
(f + g)(1) = f (1) + g(1) = 0 donc f + g ∈ E3 -Soit f ∈ e3 et λ ∈ R. Alors
(λf )(1) = λf (1) = 0. donc λf ∈ E3 .
(4) Par contre E30 n’est pas un sev. Soit f ∈ E30 . Alors f (0) + f (0) = 2 =
(f + f )(0) Donc f + f 6∈ E30 .
Exercice 2
L’addition définit sur R2 est l’usuelle. Donc il nous faut juste vérifier les
axiomes pour la multiplication par un scalaire.
Soient 1 ∈ R et (x, y) ∈ E. Alors i.(x, y) = (x, 0) 6= (x, y). Cet axiome n’étant
pas vérifier, R2 muni de ces lois n’est pas un ev.
Exercice 3
C’est bien un ev. L’élément neutre de l’addition est
0 0
0 0
et l’opposé de
a b
c d
−a −b
est
.
−c −d
(Les axiomes ne sont pas difficiles ici à vérifier.)
Exercice 4
Tout élément de E peut s’écrire sous la forme :
1 0
1 0
0 1
A=a
+b
+c
0 0
0 −1
2 0
avec a,b et c quelconques. Donc E est engendré par ces trois matrices , c’est bien un
sev de M2 (R).
Quant à F l’élément neutre de M2 (R) ne lui appartient pas. Donc F ne peut etre un
sev de M2 (R).
Chapitre 3. Solutions de la feuille 1
23
B :Somme et somme directe d’espaces vectoriels
Exercice 5
On montre d’abord que U et V sont des sev de R3 :
-(0, 0, 0) ∈ U donc U est non vide. De meme (0, 0, 0) ∈ V car 0 + 0 + 0 = 0 donc V
n’est pas vide.
-Stabilité pour l’addition :
Soient (a, a, a) ∈ U et (b, b, b) ∈ U , Alors (a + b, a + b, a + b) ∈ U . évident.
Soient (a, b, c) et (d, e, f ) dans V. Alors a + d + 2(b + e) + 3(c + f ) = a + 2b + 3c +
d + 2e + 3f = 0. Donc V est stable par addition.
-Stabilité par multiplication par un scalaire :
Soit λ ∈ R. Alors (λa, λa, λa) ∈ U .
Soit (a, b, c) ∈ V . Alors λa + λ2b + λ3c = λ(a + 2b + 3c) = 0. D’où la stabilité de V.
Maintenant il nous faut montrer que R3 = U ⊕ V , ie que U et V s’intersecte dans
l’élément neutre et que U et V engendre tout l’espace.
Soient (x, y, z) ∈ R3 . On veut monter qu’il existe (a, a, a) ∈ U et (b, c, d) ∈ V tels
que (x, y, z) = (a, a, a) + (b, c, d). On obtient le système suivant :

 x=a+b
y =a+c

z =a+d
qui est équivalent à

 b=x−a
c=y−a

d=z−a
et on a b + 2c + 3d = 0 = (x − a) + 2(y − a) + 3(z − a). D’ou a = 16 (x + 2y + 3z). Et
on trouve alors les expressions de b,c et d en x,y et z grace aux équations précédentes.
On vient de montrer que s’il existe une décomposition de (x, y, z) alors elle est
unique (car on n’a pas de choix sur a,b,c,d).Réciproquement Si pour (x, y, z) donnés
on choisit a,b,c,d tels que ci dessus alors (a, a, a) + (b, c, d) = (x, y, z).
24
Calcul matriciel
Exercice 7
On commence par donner des noms aux ensembles que l on va considérer (pour
raccoucir la rédaction).
Soient vect(e1 , e2 , e3 ) = A, B = vect((1, 1, 0, 0), (−1, 1, −4, 2)), C = vect(e1 , e2 ),
D = vect(e2 , e3 , e4 ) et E = vect(e4 , e5 ).
(a) Pour montrer l’égalité entre les deux epsaces on montre que BA puis que
dimB = dimA. Pour montrer l’ inclusion il sufiit de montrer que les générateurs de B sont dans A.
• (1, 1, 0, 0) ∈ A équivaut à dire que (1, 1, 0, 0) est une combinaison linéaire de (e1 , e2 , e3 ). Soient a, b, c ∈ R tels que (1, 1, 0, 0) = ae1 + be2 + ce3
(on suppose qu ils existent, si on aboutit a une contradiction cela voudra
dire que (1, 1, 0, 0) 6∈ A.) Ceci équivaut à :

1 = b + 3c

*


1 = a + 2c
1 = b + 3c
=>
0 = −2a + 2b + 2c
a=b+c



0=a−b−c
On peut prendre a = 1 = b, c = 0.
• De même (−1, 1, −4, 2) ∈ A équivaut à dire que (−1, 1, −4, 2) est une
combinaison linéaire de (e1 , e2 , e3 ). Soient a, b, c ∈ R tels que (−1, 1, −4, 2) =
ae1 + be2 + ce3 Ceci équivaut à :

−1 = b + 3c

*


1 = a + 2c
−1 = b + 3c
=>
−4
=
−2a
+
2b
+
2c
a
=b+c+2



2=a−b−c
On peut prendre a = 1 = −b, c = 0.
Donc B ⊂ A.
Or (e1 , e2 ) est libre et e3 = 2e1 + 3e2 donc dimA = 2. et dimB = 2 car
ces deux générateurs sont libres entre eux.
(b) dimA = 2 et (e1 , e2 ) ainsi que (e2 , e3 ) sont des familles libres donc A =
C ⊂ D d’où C ∩ D = A et on a déjà que (1, 1, 0, 0) ∈ A.
(c) C ∩ D = A et dimA = 2
Chapitre 3. Solutions de la feuille 1
25
(d) dim(C + D) = dimC + dimD − dim(C ∩ D) . Or dimC = 2 = dimA
donc dim(C + D) = dimD 6 3 car D a au plus 3 générateurs. Donc
dim(C + D) < dimR4 = 4 , il ne peut y avoir égalité entre les deux
ensembles.
(e) Calculons A ∩ E.
Soit z ∈ A ∩ E . Alors z est à la fois une combinaison linéaire des générateurs de A et de ceux de E. Donc il existe a, b, c, d, e ∈ tels que
z = ae1 + be2 + ce2 = 3 = de4 + ee5
. Ceci équivaut à :





b + 3c = 0
*
 b = −3c
a + 2c = 0
a = −2c
=>
−2a + 2b + 2c = d



e=0=d

a−b−c=e
donc z = 0 = A ∩ E.
On doit doit montrer que R4 = A+E. Il suffit de montrer que R4 ⊂ A+E
car dimR4 > dim(A + E). Soit (x, y, z, w)R4 . Soient a, b, c, d, e ∈ R tels
que (x, y, z, w) = ae1 + be2 + ce3 + de4 + ee5 (si il n y a pas de solutions
cela veut dire que l’on n’a pas l’inclusion souhaitée).
Cela équivaut à


x
=
b
+
3c
a = y − 2c


*




y = a + 2c
b = x − 3c
=>
z = −2a + 2b + 2c + d
d = z − 2x + 2y






w =a−b−c+e
e=w−y+x
Il existe une solution ( il y en a même plus). Donc on a bien l’inclusion.
Exercice 8
(a) dim(vect(v1 , v2 )+vect(v3 )) = dimvect(v1 , v2 )+dimvect(v3 )−dim(vect(v1 , v2 )∩
vect(v3 ))geq3 < 4 = dimR4 donc ils ne peuvent supplémentaires.
(b) v5 = v4 + v3 donc v5 ∈ vect(v1 , v3 , v4 ) ∩ vect(v2 , v5 ). Les deux sev ne sont
pas supplémentaires l’un de l’autre.
26
Calcul matriciel
Exercice 9
a 0
0 0
}
0 b
c d
}
E1 = {A ∈ M2 (R)/A =
est engendré par la matrice
1 0
0 0
et
E2 = {A ∈ M2 (R)/A =
est engendré par les matrices
0 1
0 0
0 0
,
et
0 0
1 0
0 1
Donc ce sont bien des sev de l’espace des matrices carrées 2 × 2.
0 0
E1 ∩ E2 =
}
0 0
.
Toute matrice 2 × 2 peuvent s’écrire comme somme de matrices de E1 et E2 (en effet
il n’y a pas de choix sur a,b,c,d pour que les matrices appartiennet à E1 ou E2 .).
D’où le résultat.
C : familles libres et génératrices. Base et dimension
Exercice 8
Remarque : C2 est un Rr ev de dimension 4 et un C ev de dimension 2.
1) Montrons que le système est R libre :
Soient a,b dans R et montrons que av1 + bv2 = (0, 0) implique a = b = 0 (c’est la
définition de “famille libre”).
av1 +bv2 = a(1−i, i)+b(2, −1+i) = (a−ia+2b, ai−b+ib) = (0, 0). Ceci équivaut à :
Chapitre 3. Solutions de la feuille 1
27
a + 2b − ia = 0 + i0
−b + i(a − b) = 0 + i0
on identifit la partie réelle et imaginaire :

a + 2b = 0



a=0
b=0



a+b=0
Donc a = b = 0.
Par contre si a et b sont complexes on obtient
a + 2b − ia = 0 + i0
−b + i(a − b) = 0 + i0
Mais cette fois on ne peut pas identifier les parties réelles et imaginaires. On doit
résoudre le système complexe. Les deux éqations sont équivalentes à b = 21 (1 − i)a.
Donc on peut choisir un a non nul tel que la premiere équation soit vérifier. Les
deux vecteurs sont liés.
2) On montre facilement que S est une famille génératrice de C2 (tous les éléments
de 2 peuvent s’écrire sous la forme a(1, 0) + b(i, 0) + c(0, 1) + d(0, i)) et que cette
famille est R libre (grace à l’identification partie réelle et imaginaire).
v1 = 1(1, 0) − 1(i, 0) + 0(0, 1) + 1(0, i) et v2 = 2(1, 0) + 0(i, 0) − 1(0, 1) + 1(0, i)
Exercice 9
Pour montrer que deux espaces sont les memes, en règle générale on montre les deux
inclusions.
1) vect(u1 , u2 ) ⊂ vect(v1 , v2 )
Pour montrer une telle inclusion il faut montrer que tout élément du premier espace
28
Calcul matriciel
appartient au deuxième. Donc on prend un élément quelconque x dans vec(u1 , u2 )
et on montre que x ∈ vect(v1 , v2 ).
Soit donc x ∈ vect(u1 , u2 ). x est combinaison linéaire de u1 et u2 , ie soient a, ∈ R
tels que x = au1 + bu2 . Si x était un élément de vect(v1 , v2 ) il existerait c et d réels
tels que x = cv1 + dv2 .
Alors au1 + bu2 = cv1 + dv2 i.e. a(2, 3, −1) + b(1, −1, −2) = c(3, 7, 0) + d(5, 0, −7). Il
nous faut montrer que le système que l’équation précédente engendre est résoluble.

 2a + b = 3c + 5d
3a − b = 7c

−a − 2b = −7d
La deuxième équation nous donne c = 71 (3a − b). La troisieme nous donne d =
1
(a + 2b). Pour que c et d conviennent , il faut que la premiere équation soit vérifier
7
et c’est le cas. D’ou l’inclusion.
2) vect(v1 , v2 ) ⊂ vect(u1 , u2 )
On procède de meme :cette fois grace au système obtenu précédemment on trouve
a et b en fonction de c et d.
Une deuxieme méthode consistait en une fois que l’on a 1), on montre que (u1 , u2 )
est libre, c’est donc une base d’un ev de dimension 2 d’ou l’égalité des espaces.
Exercice 10
1)libre ?
Soient a,b,c réels tels que av1 + bv2 + cv3 = 0 (1). rappel : la famille est libre ssi
la relation précédente (1) implique a = b = c = 0. Sinon elle est liée.
(1) équivaut à :


a + 2b = 0
a+b−c=0

−a + 3b + 5c = 0
<=>


a = −2b
c = −b

−2b − 3b + 5b = 0
Chapitre 3. Solutions de la feuille 1
29
Alors a = −2, b = 1 et c = −1 est solution de (1). Donc la famille n’est pas libre
(elle est donc liée).
2)génératrice ?
La famille comporte trois vecteurs de R3 , elle ne peut etre génératrice que si elle est
libre. N’étant pas libre elle ne peut etre génératrice.
Les vecteurs v1 et v2 forment une famille libre donc vect(v1 , v2 , v3 ) = vect(v1 , v2 ).
3)relation de dépendance
On a montré dans 1) que −2v1 + v2 − v3 = 0. De plus la famille formée par v1 et v2
est libre donc il n y a qu’une relation de dépendance :−2v1 + v2 − v3 = 0.
Exercice 11
Pour montrer que la famille (v1 , v2 ) engendre R2 , il faut montrer que tout élément
de R2 s’écrit comme un combinaison linéaire des vecteurs de cette famille. Soit
(x1 , x2 ) = x ∈ R2 . On doit montrer que le système suivant admet toujours une
solution (x étant donné) : x = av1 + bv2 , ce qui équivaut à :
a − b = x1
2a + b = x2
<=>
a = x1 + b
b = 13 (x2 − 2x1 )
Donc le système admet toujours une solution, donc la famille proposée engendre R2 .
Comme elle est composée de deux vecteurs, le théorème sur la dimension dit que
c’est une base.
remarque : il est parfois plus facile de montrer qu’une famille est libre plutot que
génératrice. Toujours grace au th sur la dimension on pouvait ici montrer que la
famille était libre, donc une base et donc génératrice.
30
Calcul matriciel
Exercice 12
Dans R4 , soient v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v4 = (2, 1, 1, 1), v4 = (−1, 0, −1, 2)
et v5 = (2, 3, 0, 1). On pose U le sev engendré par (v1 , v2 , v3 ) et V celui engendré par
(v4 , v5 ).
(a) Vérifier que le système (v1 , v2 , v3 , v4 ) est libre. (Comme il est formé de 4
vecteurs de R4 il en sera une base).
(b) En déduire la dimension de chacun des sous espaces U , V , U + V et U ∩ V .
(c) Déterminer une base du sev U ∩ V .
1) Soient a, b, c, d ∈ R tels que av1 + bv2 + cv3 + dv4 = 0. Cela équivaut à :

a + b + 2c − d = 0



2a + b + c = 0
3a
+b+c−d=0



4a + 3b + c + 2d = 0
La troisième ligne moins la deuxième donne a = d. Donc le système équivaut à :

a=d



b = 2c
2a
+
b+c=0



6a + 3b + c = 0
ce qui nous donne a = c = 0 donc b = d = 0.
La famille formée par les quatre premiers vecteurs est donc libre.
2) 1) implique que les trois premiers vecteurs sont libres eux aussi (car toute sous famille d’une famille libre est libre) et par hypothèse ils engendrent U donc dimU = 3.
La famille engendrée par (v4 , v5 ) est libre (facile) et engendre V donc dimV = 2.
De plus on a montré que vect(v1 , v2 , v3 , v4 ) = R4 donc vect(v1 , v2 , v3 , v4 , v5 ) = R4 .De
plus les trois premiers vecteurs engendrent U et les deux derniers engendrent V donc
les cinq vecteurs engendrent u + V . La dimension de U + V est donc 4. Finalement
dimU ∩ V = dimU + dimV − dimU + V = 1.
3) La dimension de U ∩ V égale 1 donc une base de U ∩ V sera formé d’un seul
vecteur. Soit (a, b, c, d) ∈ U ∩ V . Alors il existe x1 , x2 , x3 , y1 , y2 ∈ R tels que
(a, b, c, d) = x1 v1 + x2 v2 + x3 v3 = y1 v4 + y2 v5 . Il nous faut donc résoudre le système suivant à quatre équations et cinq inconnues (on va trouver la valeur de quatre
Chapitre 3. Solutions de la feuille 1
31
inconnues en fonction de la cinquième car la dimension de U ∩ V = 1) :

x1 + x2 + 2x3 + y1 − 2y2 = 0



2x1 + x2 + x3 − 3y2 = 0
3x1 + x2 + x3 + y1 = 0



4x1 + 3x2 + x3 − 2y1 − y2 = 0
<=>

x1 + x2 + 2x3 + y1 − 2y2 = 0



−x2 − 3x3 − 2y1 + y2 = 0
−2x2 − 5x3 − 2y1 + 6y2 = 0



−x2 − 7x3 − 6y1 + 7y2 = 0
<=>

x1 + x2 + 2x3 + y1 − 2y2 = 0



−x2 − 3x3 − 2y1 + y2 = 0
x3 + 2y1 + 4y2 = 0



−4x3 − 4y1 + 6y2 = 0
<=>

x1 + x2 + 2x3 + y1 − 2y2 = 0



−x2 − 3x3 − 2y1 + y2 = 0
x3 + 2y1 + 4y2 = 0



4y1 + 22y2 = 0
<=>

y + 2y2 = − 17
y
x1 = 9y2 − 14y2 − 11

2 2
2 2


x2 = −21y2 + 11y2 + y2 = −9y2
x3 = +11y2 − 4y2 = 7y2



y1 = − 11
y
2 2
Alors tout élément de U ∩V s’écrit sous la forme (a, b, c, d) = (− 17
y , 3y2 , − 11
y , −10y2 )
2 2
2 2
17
11
avec y2 sans contraintes, donc U ∩ V = vect(− 2 , 3, − 2 , −10).
Exercice 13
E est un espace vectoriel. Sa dimension est dimE = dimR4 − 1 = 3 (1 est le nombre
d’équation qui le définissent). Pour trouver une base il suffit de trouver trois éléments
libres de 4 qui vérifient l’équation. Prenons par exemple ((1, −1, 0, 0), (1, 0, −1, 0), (1, 0, 0, −1).
32
Calcul matriciel
Exercice 14
Pour montrer qu’une famille de vecteurs (v1 , ..., vn ) est libre il faut montrer que
l’unique solution de a1 v1 + ... + an vn = 0 (ici 0 est l’élément neutre de l’ev considéré)
est a1 = ... = an = 0 (ici c’est le scalaire 0).
(a) Soient a, b, c ∈ R tels que av1 + bv2 + cv3 = (0, 0, 0). Ceci équivaut à :
a(1, 0, 1) + b0, 2, 2) + c(3, 7, 1)
<=>


a + 3c = 0
2b + 7c = 0

a + 2b + c = 0
<=>

 a=0
b=0

c=0
Donc la famille est libre.
(b) On a directement que v3 = v1 + v2 . Donc la famille n’est pas libre.
(c) Soient a, b, c, di nR tels que av1 + bv2 + cv3 + dv4 = 0. Ceci équivaut à :

a + 2b + c = 0




 2a + b + d = 0
a + 2b + c = 0


2a + b + c = 0



a + 2b + d = 0
<=>


a=b
c = −3b

c=d
Donc (0, 0, 0, 0) n’est pas l’unique solution du système, donc la famille
n’est pas libre.
(d) On trouve que la famille est libre (ici il faut prendre 3 variables car il y a
trois vecteurs).
Chapitre 3. Solutions de la feuille 1
33
Exercice 15
Dans cet exercice on ne connait pas les valeurs des vecteurs (e1 , e2 , e3 , e4 ) mais on sait
qu’ils sont linéairement indépendants, c’est à die que si on a ae1 + be2 + ce3 + de4 = 0
ceci implique que a = b = c = d = 0.
(a) Une sous famille d’une famille libre est libre donc (e1 , e2 , e3 ) est libre.
Soient a, b, c, d ∈ R tels que ae1 + 2be2 + ce3 = 0 . Par ce qui précède cette
égalité équivaut à a = 2b = c = 0. Donc la famille est libre.
(b) (e1 , e3 ) est libre en tant que sous famille d’une famille libre.
(c) le deuxième vecteur est evidemment une combinaison linéaire des deux
autres donc la famille n’est pas libre.
(d) Soient a, b, c ∈ R tels que 3ae1 + ae3 + be3 + ce2 + ce3 = 0. cela équivaut
à 3ae1 + ce2 + (a + b + c)e3 = 0. Donc on a a = 0 = c = a + b + c car
la famille (e1 , e2 , e3 ) est libre.Cela donne a = b = c = 0. Donc la famille
donnée est libre.
(e) Soient a, b, c, di n tels que (2a + b − d)e1 + (a − 3b + d)e2 + ce4 = 0. Ceci
équivaut à d = 2a et b = a. (0, 0, 0) n’est pas l’unique solution du système
donc la famille n’est pas libre.
Chapitre 4
Interlude : le pivot de Gauss
On a vu dans ce chapitre que l’indépendance et la dépendance d’un système de
vecteurs revient fréquemment dans par exemple la détermination de base ou le calcul des dimensions... et ces problèmes se ramènent à l’étude de système linéaires
(cf. exercices). Comme annoncé dans l’introduction on va dans ce chapitre développer un outil appelé méthode du pivot ou d’élimination de Gauss pour étudier ces
systèmes. Les exemples donnés dans ce chapitre tiendront lieu d’exercices : à vous
de jouer.Pour vous entrainer, vous pouvez résoudre les exercices précédents avec la
méthode du pivot
1
Etude d’un système par la méthode du pivot
On appelle système d’équations linéaires un système du type :


 a11 x1 + ... + a1n xn = b1
..
.

 a x + ... + a x = b
p1 1
pn n
p
Les xi sont les inconnues et résoudre le système consiste à déterminer les xi qui
satisfont les équations du système.
Comme on l’a vu dans la pratique certaines opérations sont non seulement autorisées
mais surtout permettent de résoudre le système/
(a) changer l’ordre des équations ;
35
36
Calcul matriciel
(b) multiplier une équations par une constante élément de K (le corps tels que
aij ∈ K)
(c) ajouter à une ligne une combinaison linéaire des autres lignes.
Illustrons cela par quelques exemples :
Exemple 1 :

L1  2x + y − 2z + 3w = 1
L2
3x + 2y − z + 2w = 4

L3
3x + 3y + 3z − 3w = 5
On voit que les coefficients devant x sont tous non nuls. Si on multiplie la première
ligne par 3 et les suivantes par 2 alors le coefficient devant x sera à chaque fois 6.
Il suffira par exemple de soustraire la nouvelle ligne 1 aux deux autres pour faire
disparaitre dans celles-ci l’inconnues x. On fait maintenant la même chose avec les
y dans les deux dernières lignes et on obtient :(faites les étapes ! !)

L01  2x + y − 2z + 3w = 1
y + 4z − 5w = 5
L02
0 
L3
0=8
(Remarque : attention à la deuxième étape ne toucher plus à la ligne que vous avez
soustraite ! Pourquoi ?...)
Dans cet exemple on trouve 0 = 8 ce qui est évidemment faux, on dit alors que le
système est incompatible ou qu il n a pas de solutions.
Exemple 2 :

L1  x + 2y − z = 1
L2
2x + 3y + z = 2

L3
2 − 4y − 6z = 2
Après la même méthode décrite ci dessus on trouve :

 x + 2y − z = 1
−y + 3z = 0

z=1
Chapitre 4. Interlude : le pivot de Gauss
37
Et on peut remonter la valeur de z dans d’abord l’équation 2 puis dans la 1 pour
trouver les valeurs de x et y.
Comme on le voit la méthode consiste à choisir une inconnue dans la première équation avec un coefficient non nul, et à éliminer cette inconnue dans les équations
suivantes. Puis on renouvelle l’opération en “oubliant” la première équation. On dit
que l’on met le système sous forme échelonnée.
Exercez-vous sur les systèmes suivants :
1)

L1 
x + 2y − 3z = 4


L2
x + 3y + z = 11
L3 
2x + 5y − 4z = 13


L4
4x + 11y = 37
On trouve

x + 2y − 3z = 4



y + 4z = 7
2z = z



0=0
donc z = 1 ,y = 3 et x = 1.
2)

L1  x − 3y + 4z − 2w = 5
L2
x − y + 9z − w = 7

L3
x − 2y + 7z − 2w = 9
On trouve :

 x − 3y + 4z − 2w = 5
2y + 5z + w = 2

z−w =6
On voit que l’on peut exprimer toutes les solutions pour x,y,z en fonctions de w. L’ensemble des solutions s’écrit sous la forme :(x, y, z, w) = (−61−11λ, −14−3λ, 6+λ, λ).
Le système admet une infinité de solutions. On appelle les variables x,y,z les inconnues principales et w la variable libre (il peut y en avoir plusieurs).
38
Calcul matriciel
Remarquez que les échelonnements que vous trouvez dépendent de l’inconnue et de
la première équation que vous choisissez. Pour bien utiliser la méthode il faut préparer le système de manière à ce que les calculs ne soient pas trop lourds.
2
Systèmes homogènes
Les systèmes homogènes sont les systèmes de la forme :


 a11 x1 + ... + a1n xn = 0
..
.

 a x + ... + a x = 0
p1 1
pn n
Ces système on toujours une solution au moins : x1 = ... = xn = 0.
L’ensemble des solutions d’unsystème linéaire homogène à n inconnues et p équations
est un sous espace vectoriel de K n . Si le système sous forme échelonnée comporte k
équations l’espace des solutions est de dimension n − k. En particulier un système
homogène avec plus d’inconnues que d’équations admet des solutions non nulles.
Remarque : La dimensions de l’espace des solutions égale le nombre de variables
libres qui apparaissent dans le système sous forme échelonnée.
3
Applications
• Montrer que les vecteurs v1 = (1, −2, 3), v2 = (2, 3, −1) et v3 = (3, 2, 1)
forment une famille libre
Soient a, b, c ∈ R tels que av1 +bv2 +cv3 = 0. On doit montrer qu’alors a = b = c = 0
(cf. definition de systeme libre). Cela revient à résoudre :


a + 2b + 3c = 0
−2a + 3b + 2c = 0

−3a − b + c = 0
Résoudre le système par la méthode. On trouve bien a = b = c = 0.
Chapitre 4. Interlude : le pivot de Gauss
39
•Détermination des relations linéaires liant une famille de vecteurs
Déterminer les relations liant les vacteurs de R4 suivants :v1 = (1, 1, 0, 2),
v2 = (−1, 0, 2, 1), v3 = (0, 1, 2, 3) et v4 = (1, 3, 4, 8)
On veut trouver a,b,c,d réels tels que av1 + bv2 + cv3 + dv4 = 0 c’est à dire trouver
les solutions du système :

a−b +d=0



a + c + 3d = 0
2b + 2c + 4d = 0



2a + b + 3c + 8d = 0
Utilisez la méthode pour trouver :

a−b +d=0



b + c + 2d = 0
0=0



0=0
On trouve deux variables libres et deux inconnues principales. Les solutions sont de
la forme : (a, b, c, d) = (−λ − 3µ, −λ − 2µ, λ, µ). D’ou les relations puvent s’écrire
sous la forme (−λ − 3µ)v1 + (−λ − 2µ)v2 + λv3 + µv4 = 0.
On peut choisir λ = 1 et µ = 0 (et inversement) et on trouve les équations
v1 + v2 − v3 = 0 et 3v1 + 2v2 − v4 = 0 (toutes les autres équations seront combinaisons linéaires de celles ci. (Réfléchissez y bien).
• Soit v = (3, 9, −4, −2). Montrer que v ∈ vect(v1 , v2 , v3 ) où v1 = (1, −2, 0, 3),
v2 = (2, 3, 0, 1) et v3 = (2, −1, 2, 1). Déterminer les composantes de v sur
v1 , v2 , v3
On veut qu’il existe une solution à l’équation : av1 + bv2 + cv3 = v c’est à dire une
solution au système :

a + 2b + 2c = 3



−2a + 3b − c = 9
2c = −4



3a − b + c = −2
40
Calcul matriciel
(remarquez que cette fois le système n’est pas homogène et qu’il pourrait ne pas y
avoir de solutions).
On trouve ici a = 1, b = 3 et c = −2. Donc v appartient bien à l’espace engendr’é
par les trois vecteurs et on a v = v1 + 3v2 − 2v3 .
• La famille v1 = (1, 1, 1), v2 = (0, 1, 1) et v3 = (0, 1, −1) génère-t-elle R3 ?
On doit montrer que tout vecteur de R3 peut s’écrire comme combinaison linéaire
des trois vecteurs proposés, i.e. que le système (a, b, c) = ev1 + f v2 + gv3 admet au
moins une solution pour tout (a, b, c) ∈ R3 . On doit donc résoudre le système suivant
(en fonction de a,b,c) :

e=a

e+f +g =b

e+f −g =c
On trouve bien e, f, g en fonction de a, b, c (le faire ! !) d’où la réponse par l’affirmative.
•Trouver une base de E ∩ F où E et F sont des sev on renvoit l’étudiant à
l’exercice 12 de la première feuille.
• Equations d’un sous espace Il s’agit de trouver les équations satisfaites par les
vecteurs d’un espace engendrés par des vaecteurs donnés.
Déterminer les équations du sous espace F de R5 engendré par les vecteurs v1 = (1, 3, −2, 2, 3), v2 = (1, 4, −3, 4, 2), et v3 = (2, 3, −1, −2, 9).
Un élément de l’espace F est de la forme (x1 , x2 , x3 , x4 , x5 ) et il vérifie des équations
du type : ax1 + bx2 + cx3 + dx4 + ex5 = 0. Les vecteurs v1 , v2 et v3 vérifient en
particulier ces équations, donc on trouve le système :

 a + 3b − 2c + 2d + 3e = 0
a + 4b − 3c + 4d + 2e = 0

2a + 3b − c − 2d + 9e = 0
<On échelonne le système et on trouve deux inconnues principales et trois variables
libres. On trouve donc trois équations qui engendreront l’ensemble des équations
vérifiées par les vecteurs de f :
Chapitre 4. Interlude : le pivot de Gauss

 −x1 + x2 + x3 = 0
4x1 − 2x2 + x4 = 0

−6x1 + x2 + x5 = 0
41
Chapitre 5
Calcul matriciel
Dans ce chapitre on développe l’outil fondamental de ce cours. Sa signification apparaitra dans le chapitre suivant. Pour l’instant on va chercher à s’approprier cet
objet appelé matrice, i.e. on le définit ainsi que les opérations que l’on s’autorise
dessus.
1
1.1
Les matrices
Définitions
Définition 12. Une matrice est un tableau rectangulaire de nombres dans un corps
K(= R ou C) à m lignes et n colonnes. On note cet ensemble Mm,n (K). Un élément
de cet ensemble s’écrit :


a11 . . . a1n
 .




 = (aij )16i6m
A= .
16j6n

 .

am1 . . . amn
où aij ∈ K
Si m = n on dit que A est une matrice carrée et on note Mn,n (K) = Mn (K).
Définition 13. On appelle matrice identité In la matrice carrée de n lignes et n
colonnes suivante :
43
44
Calcul matriciel




In = 



1.2

1 0 . . . 0
0 1 0 . . 0 


.


.


.
0 . . . 0 1
Opérations sur les matrices
On munit l’ensemble des matrices Mm,n (K) des opérations suivantes :
l’addition :
+ : Mm,n × Mm,n → Mm,n
(aij ), (bij ) → (aii + bij )
la multiplication par un saclaire :
. : K × Mm,n → Mm,n
λ, (bij ) → (λbij )
Ces opérations font de (Mm,n , +, .) un espace vectoriel, de dimension mn.
Transposition des matrices
Définition 14. Soit A ∈ Mm,p (K). La transposée de A, notée t A, est un élément
de Mp,m (K) telle que a0 ij = aji .
Exemple
A=
Alors
1 2 3
4 5 6


1 4
t
A= 2 5 
3 6
Conjugaison hermitienne
Rappel : Soit z = a + ib ∈ C. Alors z = a − ib est le conjugué de z.
Chapitre 5. Calcul matriciel
45
Définition 15. Soit M ∈ Mm,n (C). On appelle conjugaison hermitienne de M la
matrice t M telle que a0ij = aji .
Trace d’une matrice carrée
Définition 16. Soit A ∈ Mn (K) une matrice carrée.
Sa trace, notée T r(A), est la somme de ses coefficients diagonnaux.
Exemple


1 2 3
A= 4 5 6 
1 1 1
alors T r(A) = 1 + 5 + 1 = 7.
1.3
Matrice lignes , Matrices colonnes
Soit M ∈ Mm,n (K).
Si m = 1 M est appelée matrice ligne.
Si n = 1 M est appelée matrice colonne.
2
Produit de matrices
En plus de l’addition et de la multiplication par un scalaire, on peut définir le produit
de deux matrices, mais qu’entre matrices d’un certain type.
Définition 17. On appelle produit de matrice l’application :
. : Mm,n × Mn,p → Mm,p
(aij ), (bmk ) → (cik )
où cik = ai1bik + ... + ain bnk .
Proposition 5.1. Le produit de matrice est associatif, i.e. (A.B).C = A.(B.C)
Le produit de matrice est distributif (par rapport à +), i.e. A.(B + C) = A.B + A.C.
46
Calcul matriciel
Remarques :
(a) Le produit n’est pas commutatif, i.e. A.B 6= B.A. (par exemple si A n’a
pas le même nombre de colonnes que B a de lignes)
(b) A.B = A.C n’implique pas que B = C, même si A 6= 0. (Exercice : contre
exemple ?)
(c) On peut avoir A.B = 0 sans que A ou B soit nulle.
Exemples :
(a) Pour les matrices carrées, le produit des matrices est une loi interne :
Mn × Mn −→ Mn . L’élément neutre est la matrice identité de taille n.
(b) Produit de matrice-vecteur
Soit A ∈ Mm,p (K) et



v=


v1
.
.
.
vp



 ∈ Mp,1


Alors A.v est defini et égale :

a11 v1 + ... + a1p vp

.


.
v=

.
am1 v1 + ... + amp vp



 ∈ Mm,1


Définition 18. Soit A ∈ Mn (K) une matrice carée de taille n. On dit que A est
inversible si il existe une matrice B ∈ Mn (K) telle que A.B = In
Proposition 5.2. (a) t (AB) =t B t A
(t A)−1 =t (A−1 )
3
Matrices particulières
Dans cette section, on va définir différents sous ensembles des matrices carrées A ∈
Mn (K).
Chapitre 5. Calcul matriciel
47
(b)
(a) Matrices symétriques et antisymétriques .
Définition 19. A est dite symétrique (resp. antisymétrique) si t A =
A(resp.(t A = −A).
(b) Matrices hermitiennes et antihermitiennes.
Définition 20. A ∈ Mn (C) est dite hermitienne (resp. antihermitienne)
si t A = A (resp. t A = −A).
(En particulier les matrices réelles symétriques sont hermitiennes.)
(c) Matrices normales.
Définition 21. A ∈ Mn (C) est dite normale si t AA = At A.
(d) Matrices idempotente.
Définition 22. A est idempotente si A2 = A.
(e) Matrices nilpotente.
Définition 23. A est dite nilpotente si il existe m ∈ N tel que Am = In .
(f) Matrices Orthogonale.
Définition 24. A ∈ Mn (R) est dite orthogonale si t AA = In .
(g) Matrices unitaire.
Définition 25. A ∈ Mn (C) est dite unitaire si t AA = In .
Chapitre 6
Feuille Td 2
On munit l’espace des matrices des lois usuelles qui en font un ev.
Exercice 1
Dans l’ensemble M2,3 (C) des matrices à deux lignes et 3 colonnes à coeficients complexes résoudre :
1 i 1−i
0 1 + i −i
−X =
2 −i
i
1 1−i i−1
Exercice 2
Déterminer dans M2 (C) les matrices X et Y vérifiant :
1 i
X +Y =
1 i
et
X −Y =
1 −i
−1 i
Exercice 3
Déterminer dans M2,3 (C) les matrices X, Y et Z telles que :
49
50
Calcul matriciel

4i
i
−
1
−i


iX + Y − iZ =


1
1 + 2i 

0

−1 − 5i 2
i
X − Y + iZ =
0
−1 −i 



7
1
−
2i
4+i


 X + Y + 2Z =
0
2i
1 − 2i
Exercice 4
Calculer les produits suivants lorsque cela est possible :
(a)
1 i
−i 0
0 0 0
0 0 0
1 i 0
i −1 2
(b)
0 0 0
0 0 0
(c)

1 1 1

1
 1 
1
(d)


1
 1 
1
1 1 1
(e)
1 i 0
i −1 2


1 i
 i −1 
0 2
(f)


1 i
 −i 1  1 i 0
i −1 2
0 2
Chapitre 6. Feuille Td 2
51
Exercice 5
Calculer


 


1 2 1
1 0
2 1 2
1 0
 2 1 2  0 1  −  1 2 3  0 0 
1 2 3
0 0
1 2 1
0 1
Exercice 6
On considère les matrices
et


0 0 1
T = 0 1 0 
1 0 0


1 −2 1
A =  2 −3 3 
1 4 −1
(a) Calculer T A et AT . Si X ∈ M3 (R), comment obtient on T X et XT à
partir de X ? Calculer T 2
(b) pour


1 0 0
E= 2 1 0 
0 0 1
Calculer EA et AE.omment obtient on EX et XE à partir de X ?
En déduire l’existence d’une seule matrice E −1 ∈ M3 (R) vérifiant EE −1 =
I3 = E −1 E.
Exercice 7
Soit A la matrice


1 0 2
 0 −1 1 
1 −2 0
Calculer A3 et vérifier que A3 − A − 4I = 0.
En déduire que A est inversible.
52
Calcul matriciel
Exercice 8
Soit


1 1 0
A= 0 1 1 
0 0 1
et soit B = A − I3 .
(a) Calculer B 2 , B 3 en déduire une formule de récurrence que l’on démontrera
pour B n , pour tout entier n.
(b) Développer (B + I3 )n par la formule du binôme et simplifier.
(c) En déduire An Pour tout entier n.
Exercice 9
Soit


2 1 1
A =  1 4 −1 
4 9 −1
(a) On note KA l’ensemble des vecteurs


x
X= y 
z
de R3 vérifiant


0
AX =  0 
0
Montre que KA est un sev de Rr3 et déterminer une base de KA .
(b) On pose

,

1
C1 = A  0 
0
 
0
C2 = A  1 
0
Chapitre 6. Feuille Td 2
53
et


0
C3 = A  0 
1
.
Le systéme (C1 , C2 , C3 ) est-il libre dans R3 ?
Déterminer une base du sev appelé Im(A) engendré par (C1 , C2 , C3 ).
(c) Déterminer l’espace vectoriel engendré par KA ∪ Im(A). Que peut-on dire
de KA ∩ Im(A) ?
Exercice 10 : Rang d’une matrice
Définition 26. On appelle rang d’une matrice la dimension de l’espace vectoriel
engendré par ses vecteurs colonnes.
(a) Calculer le rang des matrices




1 −1 3 5 1



2 0 −1 3 1
A=
et B = 


3 −1 2 8 2

1
2
3
−1 0 −1 

3 −1 2 

5
3
8 
1
1
2
Que remarque-t-on ?
(b) Calculer le rang des

1
 2

A1 = 
 1
 2
1



A3 = 


matrices suivantes.


1 2 1 1
1 0
 1 1
1 1 1 1 


 1 0
1 1 2 1 
,
A
=
2


 1 0
1 1 1 1 
1 1 1 2
1 0
1 1
0 2
1 1
2 1
1 −1
1
1
1
1
1
1
1
2
1
1
3
2
2
3
0



 ,





A4 = 


1 1
0 2
1 1
2 1
1 −1
0
0
1
0
0
0
0
0
1
0
1
1
1
1
1
1
0
0
0
1
1
1
2
1
1






2
2
2
3
0






Chapitre 7
Solutions de la feuille 2
Exercice 1
Le système
1 i 1−i
2 −i
i
−X =
0 1 + i −i
1 1−i i−1
équivaut à
X=
1 i 1−i
2 −i
i
−
0 1 + i −i
1 1−i i−1
=
1
−1
1
1 −2 + i 1
(On soustrait les coefficients des matrices termes à termes).
Exercice 2
Comme pour un système classique, on additionne les deux égalités (Alors l’inconnue
Y disparaitra). On obtient :
2 0
2X =
0 2i
C’est à dire :
X=
0 0
0 i
55
56
Calcul matriciel
On trouve Y en remplaçant la valeur de X dans une des deux équations :
0 i
Y =
1 0
Exercice 3
On résout :




−1 − 5i 2
i
X − Y + iZ =
−1 −i
0
7
1
−
2i
4
+
i
4i
i
−
1
−i


iX + Y − iZ =
 X + Y + 2Z =
0
2i
1 − 2i
0
1
1 + 2i
Ce système équivaut à

−1 − 5i 2
i


X − Y + iZ =


0
−1 −i



8 + 5i −1 − 2i
4
2Y + (2 − i)Z =
2i + 1 1 − i


0


5i
−
5
−i − 1 −i + 1


 (1 − i)Y + (−i + 1)Z =
0
1+i
2i
ce qui équivaut à















−1 − 5i 2
i
X − Y + iZ =
0
−1 −i
8 + 5i −1 − 2i
4
2Y + (2 − i)Z =
0
2i + 1 1 − i 1
1
(13
−
3i)
(−3
− i) 2(1 − i)
1
2
2
(3 + i)Z =
2
0
1
i+1
Maintenant qu’on a Z on remonte sa valeur dans les équations précédentes pour
avoir X et Y .
Exercice 4
On applique quand c’est possible la formule du cours : 1)
1 i
1 i 0
1+i∗i
i ∗ 1 + (−1)i
1∗0+i∗2
0 0 2i
=
=
−i 0
i −1 2
−i ∗ 1 + 0 ∗ i −i ∗ i + 0 ∗ (−1) −i ∗ 0 + 0 ∗ 2
−i 1 0
Chapitre 7. Solutions de la feuille 2
57
2) On ne peut faire le produit de deux matrices 2 × 3 (il faut que la première ait le
même nombre de colonnes que la seconde a de lignes).
3)

1 1 1

1
 1  = (1 + 1 + 1) = (3) ∈ M1
1
4)


1
 1 
1

1 1 1

1 1 1
= 1 1 1 
1 1 1
5)
1 i 0
i −1 2


1 i
0
0
 i −1  =
0 4
0 2
6)




1 i
0 0 2i
 −i 1  1 i 0 =  0 0 −2 
i −1 2
0 2
2i −2 4
Exercice 5


 

 
 
 

1 2 1
1 0
2 1 2
1 0
1 2
2 2
−1 0
 2 1 2   0 1 − 1 2 3   0 0  =  2 1 − 1 3  =  1 −2 
1 2 3
0 0
1 2 1
0 1
1 2
1 1
0
1
Exercice 6
1)On obtient des matrices 3 × 3 :


1 4 −1
T A =  2 −3 3 
1 −2 1
58
Calcul matriciel
et


1 −2 1
AT =  3 −3 2 
−1 4 1
Soit


a b c
X= e f g 
h i j
Alors


h i j
TX =  e f g 
a b c
et


c b a
XT =  g f e 
j i h
Et donc T 2


1 0 0
= 0 1 0 
0 0 1
2)


1 −2 1
EA =  4 −7 5 
1 4 −1


−3 −2 1
AE =  −1 −3 3 
9
4 −1
Soit


a b c
X= e f g 
h i j
Alors






0 0 0
0 0 0
a
b
c
EX = (Id3 + 2 0 0 )X = X+ 2 0 0  X =  e + 2a f + 2b g + 2c 
0 0 0
0 0 0
h
i
j
Chapitre 7. Solutions de la feuille 2
59
et



 

0 0 0
0 0 0
a + 2b b c
XE = X(Id3 +  2 0 0 ) = X + X  2 0 0  =  e + 2f f g 
0 0 0
0 0 0
h + 2i i j
On a deux choix pour montrer que E est inversible :
solution 1 On résout XE = Id et on trouve


1 0 0
 −2 1 0 
0 0 1
et on vérifie que cela donne bien EX = Id. solution 2 On utilise la relation trouvée
pour multiplier par E :
on a


0 0 0
E = I3 +  2 0 0 
0 0 0
et


0 0 0
E2 = E +  2 0 0  E
0 0 0
On additionne et on obtient :


0 0 0
E 2 −  2 0 0  (I3 + E) = I3
0 0 0
<=>




0 0 0
0 0 0
E 2 −  2 0 0  (2E −  2 0 0 ) = I3
0 0 0
0 0 0
Or
2
0 0 0
 2 0 0  = 03
0 0 0

D’où




0 0 0
0 0 0
E 2 − 2  2 0 0  E = E(E − 2  2 0 0 ) = I3
0 0 0
0 0 0
60
Calcul matriciel
c’est à dire que E est inversible et d’inverse

1 0
 −2 1
0 0
:

0
0 
1
Exercice 7


1 0 2
A =  0 −1 1 
1 −2 0
donc


3 −4 2
A2 =  1 −1 −1 
1 2
0
et


5 0 2
A3 =  0 3 1 
1 −2 4
Alors on obtient :

 
 
 

5 0 2
1 0 2
4 0 0
0 0 0
A3 − A − 4I =  0 3 1  −  0 −1 1  −  0 4 0  =  0 0 0 
1 −2 4
1 −2 0
0 0 4
0 0 0
Alors en réécrivant l’équation précédente on a A(A2 − Id3 ) = 4Id3 c’est à dire
A(( 14 )(A2 − Id3 )) = Id3 . Donc A est inversible, son inverse étant : A−1 = ( 41 )(A2 −
Id3 ).
Exercice 8
(a) On trouve


0 0 1
B2 =  0 0 0 
0 0 0
Chapitre 7. Solutions de la feuille 2
et
61


0 0 0
B3 =  0 0 0 
0 0 0
Pour tout n > 3 B n = 0.
k k n−k
, où Cnk sont les coefficients binomiaux.
(b) (B + I3 )n =k=n
k=0 Cn B I3
n
Or pour tout n > 3 B = 0, donc on garde dans la somme les trois premiers éléments :


1 n n(n − 1)

n
(B + I3 )n = I3 + nB + n(n − 1)B 2 = An =  0 1
0 0
1
Exercice 9


2 1 1
A =  1 4 −1 
4 9 −1
i. KA est non vide, en effet le vecteur nul lui appartient.
Soient X et Y dans KA . Alors X + Y ∈ KA :en effet A(X + Y ) =
AX + AY = 0 + 0 = 0 (c’est un abus de notation , ici
 
0

0 
0=
0
)
Soit λ ∈ R et X ∈ KA . Alors A(λX) = λ(AX) = 0. (Par définition
KA est dans R3 .) KA est un sev de R3 .
Soit


x
X= y 
z
dans KA . Alors

   
2 1 1
x
0
AX =  1 4 −1   y  =  0 
4 9 −1
z
0
62
Calcul matriciel
Pour trouver une base de KA , on doit donc résoudre le système suivant :

 2x + y + z = 0
x + 4y − z = 0

4x + 9y − z = 0
<=>

 x + 4y − z = 0
−7y + 3z = 0

−7y + 3z = 0
Donc on trouve une infinité de solutions qui s’écrivent toutes de la
λ, 37 λ, λ) = λ( −5
, 3 , 1) avec λ ∈ R. Cela équiforme : (x, y, z) = ( −5
7
7 7
vaut à dire que le vecteur ( −5
, 3 , 1) engendre KA .
7 7
ii. On a


 


2
1
1
C1 =  1  , C2 =  4  et C3 =  −1 
4
9
−1
C1 , C2 , C3 libre ? Soient x, y, z ∈ R tels que xC1 + yC2 + zC3 = 0 (1).
Rappel : la famille est libre ssi ((1) => x = y = z = 0)
Cela revient à résoudre le système :

 2x + y + z = 0
x + 4y − z = 0

4x + 9y − z = 0
On vient de voir que ce système a des solutions non nulles : la famille
n’est pas libre.
(On verra plus tard que l’on pouvait conclure directement : en effet on a dimR3 = dimKA + dim(Im(A)) et ici dimKA = 1 donc
dim(Im(A)) = 2.)
Grace à la résolution du systéme précédent on a : C3 = 71 (5C1 − 3C2 ).
De plus on a C1 , C2 libre donc forme une base de Im(A).
iii. L’espace vectoriel engendré par KA ∪ ImA est l’espace somme : KA +
ImA .De plus si BK et BIm sont les bases respectives de KA et ImA ,
Alors BK ∪ BIm engendre la somme. Pour avoir une base il faut extraire de la famille précédente la plus grande famille libre. Dans cet
Chapitre 7. Solutions de la feuille 2
63
exercice, on montre que les vecteurs formant les deux bases sont libres
et donc que dim(KA + ImA ) = 3 et KA + ImA = R3 .
Pour l’intersection on la calcule avec le pivot de Gauss :
Soit x ∈ KA ∩ ImA . Alors x = λ(−5, 3, 7) = δ1 C1 + δ2 C2 . On résout :
λ(−5, 3, 7) − δ1 C1 − δ2 C2 = 0 (remarque on retrouve le même système
que précédemment donc on a λ = δ1 = δ2 = 0.i.e. KA = (0, 0, 0).
Exercice 10
1) Cet exercice est une illustration de rgA = rg t A.
Soient v1 , ..., v5 les vecteurs colonnes de la matrice A. On va déterminer le nombre d’équations qui lient les vecteurs (c’est le nombre
de variables libres dans le système échelonné de Gauss, cf. Pivot de
Gauss).
Soient a, b, c, d, e, ∈ R tels que av1 + bv2 + cv3 + dv4 + ev5 = 0. Cela
équivaut à :

 a − b + 3c + 5d + e = 0
2a − c + 3d + e

3a − b + 2c + 8d + 2e = 0
<=> au système échelonné suivant
a − b + 3c + 5d + e = 0
2b − 7c − 7d − e = 0
Il y a deux équations liant les 5 variables donc le système a 3 variables
libres. On a donc 3 équations indépendantes qui lient 5 vecteurs : l’espace vectoriel engendré par ces vecteurs et de dimension 2, donc la
matrice est de rang 2.
Remarque : pour trouver les équations liant les vecteurs on trouve
d’abord les générateurs de l’espace S des solutions du système échelonné. Ici il faut décider des valeurs de c, d, e pour avoir toutes les solutions donc un système générateur pour S est ((1, 7, 1, 0, 0), (−3, 7, 0, 2, 0), (−1, 1, 0, 0, 2))
(on écrit a, b en fonctions des autres variables). Alors les équations liant
les vecteurs sont :
v1 + 7v2 + v3 = 0
64
Calcul matriciel
−3v1 + 7v2 + 2v4 = 0
−v1 + v2 + 2v5 = 0
.
Attention : l’espace S et l’espace vect(v1 , ..., v5 ) sont deux chose
différentes !
Par la même méthode on montre que rgB = 2 (et on a t A = B).
2) Pour calculer le rang d’une matrice, il existe une “méthode de Gauss
pour les matrices”. Elle consiste à mettre des 0 dans la matrice en se
servant d’un pivot. On va en voir un exemple avec la première matrice.
Les flèches entre les matrices indiquent que l’on applique la méthode
et n’est en aucun cas un égalité entre les matrices.




1 1 2 1 1
1 1
2
1
1
 2 1 1 1 1 
 0 −1 −3 −1 −1 




 →  0 0 −1 1

1
1
1
2
1
0
A1 = 




 2 1 1 1 1 
 0 −1 −3 −1 −1 
1 1 1 1 2
0 0 −1 0
1
On a soustrait la première ligne aux 4 autres (avec un coefficient 2
pour les 2ieme te 4ieme lignes). Maintenant on garde les deux premières lignes et on applique la même méthode pour échelonner la
matrice :




1 1
2
1
1
1 1
2
1
1
 0 −1 −3 −1 −1 
 0 −1 −3 −1 −1 





0 
0 
→

 0 0 −1 1
 →  0 0 −1 1
 0 0
 0 0
0
0
0 
0 −1 1 
0 0 −1 0
1
0 0
0
0
0
La matrice est échelonnée et a 4 lignes indépendantes donc rgA1 = 4.
De même on trouve rgA4 = rgA3 = 5 et rgA2 = 4 (sous réserve d’
erreurs de calculs). Vous pouvez retrouver ces résultats en utilisant la
méthode de 1) (c’est un bon entrainement pour résoudre des systèmes).
Chapitre 8
Applications linéaires :
première partie
Maintenant que l’on a nommé les ensembles sur lequels on veut travailler, i.e. les espaces vectoriels, on veut définir les applications entre
ces ensembles et qui “conservent” la structure de ceux-ci. De telles applications s’appellent applications linéaires.
1
1.1
Définition et propiétés générales
Définition
Définition 27. Soient E et F deux ev sur un même corps K et u :
E → F une application. On dit que f est linéaire si :
A. u(v + w) = u(v) + u(w) pour tout v, w ∈ E.
B. u(λv) = λu(v) pour tout v ∈ E et λ ∈ K.
L’ensemble des applications linéaires de E dans F est noté L(E, F ).
Conséquences :
A. u(0E ) = 0F .
B. u(−x) = −u(x)
Démonstration. On a u(0E ) = u(0E + 0E ) = u(0E ) + u(0E ) donc
u(0E ) = 0F .
65
66
Calcul matriciel
De même u(−x) = u(0 − x) = u(−x + x − x) = u(−x) + u(−x) + u(x)
et donc u(−x) = −u(x).
Exemples :
A.
u : R[X] → R[X]
P → P0
l’application dérivée.En effet soient P, Q ∈ R[X] et λ ∈ R. Alors
u(P + Q) = (P + Q)0 = P 0 + Q0 = u(P ) + u(Q) et u(λP ) = (λP )0 =
λP 0 = λu(P ).
B.
u : C 1 (R, R) → R
f → f (0)
C.
u : E1 ⊕ E2 → E1
(x, y) → x
la projection sur le premier facteur.
Définition 28.A. On appelle endomorphisme de E un application
linéaire de E dans E. L’ensemble des endomorphismes est noté
End(E).
B. On appelle isomorphisme de E dans F une application linéaire de E
dans F qui est une bijection.
C. Soit E un K-ev. On appelle forme linéaire une application f : E →
K.
Rappels : Une application bijective est un application à la fois injective et surjective. u est injective ssi (si x, y ∈ E sont tels que
u(x) = u(y) alors x=y) et u surjective équivaut à “ pour tout y ∈ F
il existe x ∈ E tel que y = u(x)”
Chapitre 8. Applications linéaires : première partie
67
2 Comportement des applications linéaires
par rapport à un sev
Proposition 8.1. Soient E et F deux espaces vectoriels sur un même
corps K. Soit u : E → F une application linéaire. Soient E’ un sev de
E et F’un sev de F.
Alors u(E 0 ) est un sev de F et u−1 (F 0 ) = {x ∈ E : u(x) ∈ F 0 } est un
sev de E.
Définition 29. On appelle u(E) l’image de u et on la note Im(u).
Sa dimension est appelé rang de u et est noté dim(Im(u)) = rg(u).
Le sev u−1 ({0}) = {x ∈ E : u(x) = 0} est appelé noyau de u et est
noté Ker(u) (de kernel)
(Remarque : on ne suppose pas u inversible, la définition de u−1 (F 0 )
est ensembliste.)
Démonstration.A. • u(E 0 ) 6= ∅ car u(0) = 0 et 0 ∈ E 0 .
• Soit y0 , y2 ∈ u(E 0 ) et λ, µ ∈ K. Alors (par définition) il existe
x1 , x2 ∈ E 0 tels que y1 = u(x1 ) et y2 = u(x2 ).
λy1 + µy2 = λu(x1 ) + µu(x2 ) = u(λx1 + µx2 ) ∈ u(E 0 )
B. • u(0) = 0 et 0 ∈ F 0 donc 0 ∈ u−1 (F 0 ).
• Soient y1 , y2 ∈ u−1 (F 0 ) et λ, µ ∈ K.
Alors u(λy1 + µy2 ) = λu(y1 ) + µu(y2 ) ∈ F 0
Proposition 8.2. Soit u : E → F un application linéaire.Alors
A. u est injective ssi Ker(u) = {0}.
B. u est surjective ssi Im(u) = F .
Démonstration.A. =>)Supposons u injective.
Soit x ∈ ker(u) (on veut montrer que x = 0). Par définition on a
u(x) = 0 = u(0) et u est injective donc x = 0.
<=)On suppose que ker(u) = 0. Soient x, y ∈ E tels que u(x) =
u(y). Alors, comme u est linéaire, on a u(x − y) = o, c’est-à-dire
x − y ∈ ker(u). Donc par hypothèse x = y.
B. u surjective <=> pour tout y ∈ F il existe x ∈ E tel que y = u(x).
Ceci équivaut à ce que u(E) = F , i.e. Im(u) = F .
68
Calcul matriciel
Exemples :
A. Soit
D : R[X] → R[X]
P → P0
l’application dérivée.
Alors Ker(D) = {P ∈ R[X] : P = a ∈ R} l’ensemble des fonctions constantes car seules les constantes ont des dérivées nulles et
Im(u) = R[X] car tout polynome a une primitive polynomiale, donc
tout élément de l’espace dérivé a au moins un antécédant.
B.
u : C 1 (R, R) → R
f → f (0)
Alors Ker(u) = {f : R → R : f (0) = 0} et Im(u) = R.
C.
f : R3 → R3


x0 = x + y − z
y 0 = 2x + y − 3z
(x, y, z) → (x , y , z ) =
 0
z = 3x + 2y − 4z
0
0
0
Alors Ker(f ) = {(x, y, z) ∈ R3 :

 0=x+y−z
0 = 2x + y − 3z

0 = 3x + 2y − 4z
}
On trouve que {x = 2λ, y = −λ, z = λ} donne l’ensemble des
solutions, i.e. Ker(f ) = {(x, y, z) : x = 2λ, y = −λ, z = λ} =
{(2λ, −λ, λ tel que λ ∈ R} = vect(2, −1, 1).
Quelle est l’image de f ?
(x0 , y 0 , z 0 ) ∈ Im(f ) <=> il existe (x, y, z) ∈ R3 tq

 x0 = x + y − z
y 0 = 2x + y − 3z
 0
z = 3x + 2y − 4z
Chapitre 8. Applications linéaires : première partie
69
<=> il existe (x, y, z) ∈ R3 tq

 x0 = x + y − z
y 0 − 2x0 = −y − z
 0
z − 3x0 = −y − z
<=> il existe (x, y, z) ∈ R3 tq

 x0 = x + y − z
−y 0 + 2x0 = y + z
 0
z − x0 − y 0 = 0
3 Comportement des applications linéaires
par rapport aux dimensions
Proposition 8.3. Soit u : E → F linéaire (E et F K-ev de dimension
finie).
A. u injective implique dimF > dimE
u injective et dimE = dimF implique u bijective.
B. u surjective implique dimE > dimF .
u surjective et dimE = dimF implique u bijective.
En d’autres termes :Soit {vi }i une famille de vecteurs de E.
A. u injective et {vi }i libre implique {f (vi )}i libre dans F.
B. u surjective et {vi }i génératrice implique {f (vi )}i génératrice de F.
Démonstration. (1) On suppose u injective. Soit n = dimE et {e1 , ..., en }
une base. On montre que {u(e1 ), ..., u(en )} est libre dans F.
Soient λ1 , ..., λn ∈ K tels que λ1 u(e1 ) + ... + λn u(en ) = 0.
Alors u(λ1 (e1 ) + ... + λn (en )) = 0 car u est linéaire.
Donc λ1 (e1 ) + ... + λn (en ) = 0 car u est injective.
Et finallement λ1 = ... = λn = 0 car {e1 , ..., en } est une base.
70
Calcul matriciel
D’où n = dimE 6 dimF .
On suppose u injective et dimE = dimF = n. On vient de montrer
que {u(e1 ), ..., u(en )} est libre dans F, et comme elle a n éléments
c’est une base de F. Or {u(e1 ), ..., u(en )} ⊂ Im(u) par définition donc
F = vect(u(e1 ), ..., u(en )) ⊂ Im(u) ⊂ F . L’application u est donc
surjective, et par suite bijective. (2) exercice
Théorème 8.4. Théorème du rang
Soit u : E → F linéaire , E et F deux K-ev de dimension finie.
Alors dimE = dim(Ker(u)) + rg(u).
Démonstration. • Si u est bijective alors Ker(u) = 0 et dim(E) =
dim(Im(u)) = dimF = rg(u).
• u non bijective. On veut se ramener au cas précédent.
Ker(u) ⊂ E est un sev de E. Il existe E’ sev de E tel que E =
E 0 ⊕ Ker(u).
Soit
v : E 0 → Im(u)
x → u(x)
la restriction de u à E’.
Proposition 8.5. L’application v est bijective.
Démonstration. v est surjective : Soit y ∈ Im(u). Il existe z ∈ E tel
que u(z) = y. Or E = E 0 ⊕ Ker(u) donc il existe z1 ∈ E 0 , z2 ∈ Ker(u)
tel que z = z1 + z2 . Et on a u(z) = u(z1 ) + u(z2 ) = u(z1 ) = y. Donc y
est bien l’image d’un élément z1 de E’.
v est injective : v et linéaire donc il faut montrer que Ker(v) = {0}.Soit
x ∈ Ker(v) c’est-à-dire v(x) = 0 = u(x). Donc en fait x ∈ Ker(v). Or
Ker(u) ∩ E 0 = {0} donc x = 0.
Alors on a dimE 0 = rg(u) et donc dimE = dimE 0 + dimKer(u) =
rg(u) + dimKer(u).
Chapitre 8. Applications linéaires : première partie
4
71
Opération sur les applications linéaires
Addition : u, v ∈ L(E, F ) alors u + v ∈ L(E, F ) .
Multiplication par un scalaire : soit λ ∈ K, alors λu ∈ L(E, F )
L(E, F ) muni des lois précédentes est un espace vectoriel.
On peut définir une opération supplémentaire sur les applications linéaires :
Composition : soient u ∈ L(E, F ) et v ∈ L(F, G) alors vou ∈
L(E, G). C’est un loi interne sur End(E).
Question : ça ne vous rappelle rien ?...
5
Applications linéaires et matrices
Soient E et F deux K-ev de dimension respective n et p. Soit f : E → F
une application linéaire. Soient {e1 , ..., en } et {f1 , ..., fp } des bases de
E et F.
On écrit les images des éléments de la base de E dans la base de F :
f (e1 ) = a11 f1 + ... + ap1 fp
f (e2 ) = a12 f1 + ... + ap2 fp
..
.
f (en ) = a1n f1 + ... + apn fp
Définition 30. On appelle matrice de f dans les bases {e1 , ..., en }
et {f1 , ..., fp } la matrice notée M (f )ei fj ∈ Mp,n (K) dont les colonnes
sont les composantes des vecteurs f (e1 ), ..., f (en ) :


a11 . . . a1n
 .




 = (aij )16i6m
M (f )ei fj =  .
16j6n

 .

ap1 . . . apn
La matrice associée à f dépend des bases de E et F. Quand f : E → E
, on peut choisir la même base.
72
Calcul matriciel
Proposition 8.6. Soient E et F deux K-ev de dimension finie n et p,
{e1 , ..., en } et {f1 , ..., fp } des bases. Alors l’application M : L(E, F ) →
Mp,n qui à une application associe sa matrice dans une base donnée
est un isomorphisme d’espace vectoriel, i.e. M (f + g) = M (f ) + M (g)
, M (λf ) = λM (f ) et M est bijective.
En particulier dimL(E, F ) = np = dimMp,n .
Exemples :
A. E = R2 , f la projection sur la première bissectrice parallèlement à
la seconde bissectrice ; {e1 , e2 } étant la base canonique on a f (e1 ) =
Fig. 1 – Addition de deux vecteurs
f (e2 ) = 21 (e1 + e2 ) = g donc
M (f )ei ,ei
1
=
2
1 1
1 1
B. Soit f : R2 → R2 symétrie par rapport à l’axe des abcisses, parallèlement à l’axe des ordonnées.
Alors f (e1 ) = e1 et f (e2 ) = −e2 donc :
1 0
M (f )ei ,ei =
0 −1
Chapitre 8. Applications linéaires : première partie
73
C. Soit f : R2 → R2 rotation de centre 0 et d’angle θ.(cf figure suivante)
Fig. 2 – rotation d’angle θ
Alors f (e1 ) = cos(θ)e1 +sin(θ)e2 etf (e2 ) = −sin(θ)e1 +cos(θ)e2 .Donc
la matrice dans la base canonique est :
cos(θ) −sin(θ)
M (f )ei ,ei =
sin(θ) cos(θ)
D. Soit f : E → K une forme linéaire, i.e. f (ei ) ∈ K . Alors M (f ) =
(f (e1 ), ..., f (en )) ∈ M1,n .
74
Calcul matriciel
5.1
Image d’un vecteur
Les vecteurs sont représentés par les matrices colonnes.
Définition 31. Soit E un espace vectoriel de dimension n, {e1 , ..., en }
une base de E et x = x1 e1 + ... + xn en . On appelle matrice de x dans
la base {e1 , ..., en } la matrice colonne des composantes de x dans la
base {e1 , ..., en } :


x1


M (x)ei =  ... 
xn
Remarque : cela correspond à la matrice de
f :K → E
λ → λx
Proposition 8.7. Soient E et F deux ev, {e1 , ..., en } et {f1 , ..., fp } des
bases de E et F.
Pour tout f ∈ L(E, F ) et pour tout x ∈ E on a M (f (x))fi =
M (f )ei fi M (x)ei .
Démonstration. Soit

M (f )ei fj


=


a11 . . . a1n
.
.
.
ap1 . . . apn






Pp
c’est à dire f (ei ) = a1i f1 + ... + api
f
=
p
j=1 aji fjP
Pn
Pp
n
On
(x) = f (x1 e1 +...+x
n en ) =
k=1 xk f (ek ) =
k=1 xk
j=1 ajk fj =
Pp a fP
P
n
p
j=1
k=1 (xk ajk )fj =
j=1 yj fj .
Donc


y1


M (f (x))fj =  ... 
yp
avec yj =
Pn
k=1 (xk ajk ).
Chapitre 8. Applications linéaires : première partie
75
D’autre part



M (f )ei fj M (x)ei = 


a11 . . . a1n
.
.
.
ap1 . . . apn



 
×


 
x1
..  = 
.  
xn

y1
.. 
. 
yp
Proposition 8.8. La matrice associée à la composition de deux applications est le produit des matrices correspondantes : M (f og) =
M (f )M (g)
Proposition 8.9. Soit u : E → F une application linéaire entre deux
K-ev. Soient {e1 , ..., en } et {f1 , ..., fp } des bases de E et F. Soit A =
M (u)ei ,fj .
Alors A est inversible ssi u est bijective. On a alors M (u−1 )fj ei = A−1 .
Exemple de calcul de l’inverse d’une matrice :
Soit
1 2
A=
1 3
.
Soient
x1
X=
x2
et
Y =
y1
y2
tels que
y1
y2
=
1 2
1 3
×
x1
x2
et on veut trouver M telle que
x1
y1
=M×
x2
y2
(1) <=>
y1 = x1 + 2x2
y2 = x1 + 3x2
76
Calcul matriciel
On résout et on trouve :
x1 = 3y1 − 2y2
y2 = −y1 + y2
Donc
M =A
5.2
−1
=
3 −2
−1 1
Changement de base
On a vu que la matrice correspondant à un application linéaire u :
E → F dépend des bases choisies de E et F. On veut voir ce qu’il
advient lorsque l’on change ces bases.
Définition 32. Matrice de passage
Soit E un K-ev de dimension n, e et e0 bases de E. Alors la matrice
de passage de la base e dans la base e0 est la matrice correspondant à
e0i = a1i e1 + ... + ani en c’est à dire à l’application identité
Id : Ee0 → Ee
e0i → e0i = ai1 e1 + ... + ain en
Remarque : c’est bien l’application identité ; dans l’espace de départ on
écrit e0i dans la base (e’), et dans l’espace d’arrivée on écrit ce même
élément dans la base (e).
Cette matrice s’écrit :

P (Id)e→e0


=


a11 . . . a1n
.
.
.
an1 . . . ann






Cette matrice est inversible (car l’application identité est bijective).
Exemple : On considère R2 avec pour bases : e = ((1, 0), (0, 1)) et
e0 = ((1, 1), (1, 2)). (Vérifier que ce sont bien des bases).
Alors on a
Chapitre 8. Applications linéaires : première partie
77
Id : Ee0 → Ee
(1, 1) → (1, 0) + (0, 1)
(1, 2) → (1, 0) + 2(0, 1)
D’où
P (Id)e→e0 =
1 1
1 2
De même on a
Id : Ee → Ee0
(1, 0) → 2(1, 1) − (1, 2)
(1, 2) → −(1, 1) + (1, 2)
D’où
P (Id)e→e0 =
2 −1
−1 1
Proposition 8.10. Soit E un K-ev, e et e0 deux bases. Soit x ∈ E, P
la matrice de passage de e vers e0 , X la matrice de x dans e et X 0 la
matrice de x dans e0 .
Alors X 0 = AX.
Démonstration. Soit e = (e1 , e2 , ..., en ) et e0 = (e01 , ..., e0n ).
P (Id)e→e0 est définie par :e0i = ai1 e1 + ... + ain en .
x = x0 1 e0 1 + ... + x0 n e0 n
= x0 1 (a11 e1 + ... + a1n en )(+... + x0 n (an1 e1 + ... + ann en )
= e1 (a11 x0 1 + ... + an1 x0 n ) + ... + en (a1n x0 1 + ... + ann x0 n )
= x1 e1 + ... + xn en
D’où






x1
a11 x0 1 + ... + an1 x0 n

 ..  

.
..
 . =
=


xn
a1n x0 1 + ... + ann x0 n
a11 . . . a1n
.
.
.
an1 . . . ann



 
×



x0 1
.. 
. 
x0 n
78
Calcul matriciel
Proposition 8.11. Soit u : E → F un application linéaire.
soient e et e0 des bases de E et f et f 0 deux bases de F .
Soit A = M (f )ei fj et A0 = M (f )0 ei f 0 j .
Alors A0 = P (Id)−1
f →f 0 AP (Id)e→e0 .
Corollaire 8.12. Soit u : E → E un endomorphisme.
Alors (sous les mêmes notations que précédemment) on a A0 = P (Id)−1
e→e0 AP (Id)e→e0 .
Définition 33. Deux matrices A et A’ carrées n × n sont dites semblables s’il existe une matrice P de même taille, inversible telle que
A0 = P −1 AP .
Rang d’un vecteur :
On avait défini le rang d’une application linéaire u : E → F par
la dimension de l’image de u : rg(u) = dim(Im(u)). Les matrices
représentant des applications linéaires, on définit de la même manière
le rang d’une matrice (cf feuille2, exo 10) :
Définition 34. Soit A ∈ Mm,n . on appelle A1 , ..., An les vecteurs
colonnes de A.
Alors rg(A) = dim(vect(A1 , ..., An ).
Remarquez que cette définition est bien cohérente : en effet on a


e0 1


u(ei ) =t Ai  ... 
e0 n
et vect(u(e1 )..., u(en )) = Im(u).
Dernière remarque : les matrices inversibles (donc carrée) correspondent
aux isomorphismes, donc le rang est maximal (= n).
Chapitre 9
Feuille Td 3
1
Définition
Exercice 1
Déterminer si les applications fi suivantes (de Ei dans Fi ) sont linéaires :
f1 : (x, y) ∈ R2 7→ (2x+y, x−y) ∈ R2 , f2 : (x, y, z) ∈ R3 7→ (xy, x, y) ∈ R3
f3 : (x, y, z) ∈ R3 7→ (2x + y + z, y − z, x + y) ∈ R3
f4 : P ∈ R[X] 7→ P 0 ∈ R[X], f5 : P ∈ R3 [X] 7→ P 0 ∈ R3 [X]
f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3 , f7 : P ∈ R[X] 7→ P −(X−2)P 0 ∈ R[X].
Exercice 2
Soit E un espace vectoriel de dimension n et ϕ une application linéaire
de E dans lui-même telle que ϕn = 0 et ϕn−1 6= 0. Soit x ∈ E tel que
ϕn−1 (x) 6= 0. Montrer que la famille {x, . . . , ϕn−1 (x)} est une base de
E.
Indication Prendre une combinaison linéaire nulle et l’évaluer par
ϕn−1 .
79
80
Calcul matriciel
2
Image et noyau
Exercice 3
E1 et E2 étant deux sous-espaces vectoriels de dimensions finies d’un
espace vectoriel E, on définit l’application f : E1 × E2 → E par
f (x1 , x2 ) = x1 + x2 .
A. Montrer que f est linéaire.
B. Déterminer le noyau et l’image de f .
C. Appliquer le théorème du rang.
Indication
Faire un dessin de l’image et du noyau pour f : R × R −→ R.
Exercice 4
Soient E un espace vectoriel et ϕ une application linéaire de E dans E.
On suppose que Ker (ϕ) ∩ Im (ϕ) = {0}. Montrer que, si x 6∈ Ker (ϕ)
alors, pour tout n ∈ N : ϕn (x) 6= 0.
Exercice 5 : Soient la matrice :


1 1 1 3
 1 2 0 2 

A=
 0 2 0 −1 
0 1 1 0
et l’application linéaire ϕ :4 −→4 définie par ϕ(X) = AX.
(a) Déterminer le noyau de ϕ et en donner une base.
(b) Quel est le rang de l’application ϕ ?
(c) Déterminer une base de l’image de ϕ.
Exercice 6
Soient E un espace vectoriel de dimension n et f une application linéaire de E dans lui-même. Montrer que les deux assertions qui suivent
sont équivalentes :
Chapitre 9. Feuille Td 3
81
A. Ker(f ) = im(f ).
B. f 2 = 0 et n = 2 rg(f ).
Exercice 7
Donner des exemples d’applications linéaires de R2 dans R2 vérifiant :
A. Ker(f ) = im(f ).
B. Ker(f ) inclus strictement dans im(f ).
C. im(f ) inclus strictement dans Ker(f ).
3
Injectivité, surjectivité, isomorphie
Exercice 8
Soit E un espace vectoriel de dimension 3, {e1 , e2 , e3 } une base de E,
et λ un paramètre réel.

 ϕ(e1 ) = e1 + e2
ϕ(e2 ) = e1 − e2
Démontrer que la donnée de
définit une ap
ϕ(e3 ) = e1 + λe3
plication linéaire ϕ de E dans E. Écrire le transformé du vecteur
x = α1 e1 + α2 e2 + α3 e3 . Comment choisir λ pour que ϕ soit injective ?
surjective ?
Exercice 9
Pour les applications linéaires trouvées à l’exercice 1, déterminer ker(fi )
et Im (fi ), en déduire si fi est injective, surjective, bijective.
Exercice 10 :
Soient la matrice :


0 1 1
A= i 0 1 
1 i 0
et l’application linéaire f : C 3 −→ C 3 définie par f (X) = AX.
82
Calcul matriciel
(a) L’application f est-elle injective ? surjective ?
(b) Déterminer une base de Imf et une base de Kerf .
4 Matrice d’une application linéaire dans
une base
Exercice 11 :
Ecrire les matrices des applications linéaires suivantes dans les bases
proposées.
A. ϕ :3 −→3 définie par ϕ(x, y, z) = (2x + z, x + y, y − 2z) dans la base
canonique de 3 .
B. ψ : C 2 −→ C 2 définie par ψ(z, w) = ((1 + i)z − iw, w + 2iz) dans la
base canonique de C 2
C. On note (e1 , e2 e3 , e4 ) la base canonique de 4 . Soit f :4 −→4 l’application linéaire définie par f (e1 ) = e1 + e2 , f (e2 ) = e2 + e3 ,
f (e3 ) = e3 + e4 et f (e4 ) = e4 + e1 . Quelle est la matrice de f
dans la base (e4 , e3 , e2 , e1 ) ? Dans la base canonique de 4 ?
Exercice 12 :
On note (e1 , e2 , e3 ) la base canonique de 3 .
Soit l’application linéaire ϕ :3 −→3 définie par :
1
1
ϕ(e1 ) = e1 − e3
2
2
1
1
ϕ(e2 ) = e1 + e2 + e3
2
2
1
1
ϕ(e3 ) = −e1 − e2 − e3
2
2
1. (a) Déterminer l’image par ϕ d’un vecteur x = λe1 + µe2 + νe3 de
3
.
(b) Ecrire la matrice de ϕ dans la base canonique de 3
2. (a) Déterminer une base de Kerϕ.
Chapitre 9. Feuille Td 3
83
(b) Quel est le rang de ϕ ? Montrer que la famille {f1 = e1 + e2 , f2 =
e1 + e3 } est une base de Imϕ.
(c) Soit f3 = e2 + e3 . Montrer que la famille (f1 , f2 , f3 ) est une base
de 3 . Ecrire la décomposition des vecteurs ϕ(f1 ), ϕ(f2 ) et ϕ(f3 ) dans
la base (f1 , f2 , f3 ). En déduire la décomposition d’un vecteur x =
αf1 + βf2 + γf3 ∈3 dans la base (f1 , f2 , f3 ).
(d) Ecrire la matrice de ϕ dans la base (f1 , f2 , f3 ).
5
Changement de base
Exercice 13 :
Donner les matrices de passage de la base B à la base B 0 dans chacun
des cas suivants.
A. Dans 3 , B est la base canonique et B 0 = ((0, 1, 1), (1, −1, 1), (1, 1, 0)).
B. Dans 3 , B = ((1, 0, 0), (1, 1, 0), (1, 1, 1)) et B 0 est la base canonique
de 3 .
C. Dans C 3 , B est la base canonique et B 0 = ((1+i, 1−i, 0), (0, 0, 2i), (−i, 1, 2i)).
Exercice 14 :
Soitf l’endomorphisme
de 3 dont la matrice dans la base canonique

1 0 1
est  2 0 2 .
−1 0 −1
(a) Montrer que f ◦ f = 0 et en déduire que Imf ⊂ Kerf . Déterminer
Kerf et en donner une base.
(b) Montrer que la famille (e1 − e3 , e2 , e1 ) est une base de 3 et écrire la
matrice de f dans cette base.
Chapitre 10
Solutions de la feuille 3
Exercice 1
Soitf1 : (x, y) ∈ R2 7→ (2x + y, x − y) ∈ R2
Soient z1 = (x1 , y1 ) et z2 = (x2 , y2 ) dans R2 .
Alors f1 (z1 + z2 ) = f1 ((x1 + x2 , y1 + y2 )) = (2(x1 + x2 ) + (y1 + y2 ), (x1 +
x2 ) − (y1 + y2 .
Or on est maintenant dans R2 , donc on a
f1 (z1 + z2 ) = (2x1 + y1 , x1 − y1 ) + (2x2 + y2 , x2 − y2 ) = f1 (z1 ) + f1 (z2 )
.
Soient z = (x, y) ∈ R2 et λ ∈ R. Alors
f1 (λz) = (f1 ((λx, λy)) = (2λx + λy, λx−) = λf1 (z)
.
Donc f1 est linéaire.
Soit
f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3
. Soient P, Q ∈ R3 [X]. Alors
f6 (P + Q) = ((P + Q)(−1), (P + Q)(0), (P + Q)(1)
85
86
Calcul matriciel
On a donc
f6 (P +Q) = (P (−1)+Q(−1), P (0)+Q(0), P (1)+Q(1)) = (P (−1), P (0), P (1))+(Q(−1), Q(
= f6 (P ) + f6 (Q)
.
Soient P ∈ R3 [X] et λ ∈ R (l’espace des polynomes à coefficients réels
est un R-espace vectoriel).
f6 (λP ) = ((λP )(−1), (λP )(0), (λP )(1)) = λ(P (−1), P (0), P (1))
Donc f6 est linéaire.
On montre de même que f3 , f4 , f5 , f7 sont linéaires. Par contre f2 n’est
pas linéaire, en effet par exemple f (1, 1, 0) + f (1, 1, 0) n’est pas égal à
f (2, 2, 0).
Exercice 2
Montrons que la famille {x, . . . , ϕn−1 (x)} est libre. Soient λ0 , . . . , λn−1 ∈
tels que λ0 x + · · · + λn−1 ϕn−1 (x) = 0. Alors : ϕn−1 (λ0 x + · · · +
λn−1 ϕn−1 (x)) = 0. Mais comme de plus ϕn = 0, on a l’égalité ϕn−1 (λ0 x+
· · · + λn−1 ϕn−1 (x)) = ϕn−1 (λ0 x) + ϕn (λ1 x + · · · + λn−1 ϕn−2 (x)) =
λ0 ϕn−1 (x). Comme ϕn−1 (x) 6= 0 on obtient λ0 = 0.
En calculant ensuite ϕn−2 (λ1 ϕ(x) + · · · + λn−1 ϕn−1 (x)) on obtient
λ1 = 0 puis, de proche en proche, λn−1 = · · · = λ0 = 0. La famille {x, . . . , ϕn−1 (x)} est donc libre. Elle compte n vecteurs. Comme
dim (E) = n elle est libre maximale et forme donc une base de E.
Exercice 3
A. ...
B. Par définition de f et ce qu’est la somme de deux sous-espaces
vectoriels, l’image est
f = E1 + E2 .
Chapitre 10. Solutions de la feuille 3
87
Pour le noyau :
Ker f = {(x1 , x2 ) | f (x1 , x2 ) = 0}
= {(x1 , x2 ) | x1 + x2 = 0}
Mais on peut aller un peu plus loin. En effet un élément (x1 , x2 ) ∈
Ker f , vérifie x1 ∈ E1 , x2 ∈ E2 et x1 = −x2 . Donc x1 ∈ E2 . Donc
x1 ∈ E1 ∩ E2 . Réciproquement si x ∈ E1 ∩ E2 , alors (x, −x) ∈ Ker f .
Donc
Ker f = {(x, −x) | x ∈ E1 ∩ E2 }.
De plus par l’application x 7→ (x, −x), Ker f est isomorphe à E1 ∩E2 .
C. Le théorème du rang s’écrit :
dim Ker f + dim f = dim(E1 × E2 ).
Compte tenu de l’isomorphisme entre Ker f et E1 ∩ E2 on obtient :
dim(E1 ∩ E2 ) + dim(E1 + E2 ) = dim(E1 × E2 ).
Mais dim(E1 × E2 ) = dim E1 + dim E2 , donc on retrouve ce que l’on
appelle quelques fois le théorème des quatre dimensions :
dim(E1 + E2 ) = dim E1 + dim E2 − dim(E1 ∩ E2 ).
Exercice 4
Montrons ceci par récurence : Pour n = 1, l’assertion est triviale :
x∈
/ ker ϕ ⇒ ϕ(x) 6= 0. Supposons que si x ∈
/ ker ϕ alors ϕn−1 (x) 6=
0, (n > 2). Fixons x ∈
/ ker ϕ, Alors par hypothèses de récurrence
ϕn−1 (x) 6= 0, mais ϕn−1 (x) = ϕ(ϕn−2 (x)) ∈ ϕ donc ϕn−1 (x) ∈
/ ker ϕ
n−1
n
grâce à l’hypothèse sur ϕ. Ainsi ϕ(ϕ (x)) 6= 0, soit ϕ (x) 6= 0. Ce
qui termine la récurrence.
Exercice 5
Soient la matrice :

1
 1
A=
 0
0
1
2
2
1

1 3
0 2 

0 −1 
1 0
88
Calcul matriciel
et l’application linéaire ϕ : R4 −→ R4 définie par ϕ(X) = AX.
Cela signifie que


1 1 1 3
 1 2 0 2 
Θ
ϕ((x, y, z, w)) = 
 0 2 0 −1  t(x, y, z, w)
0 1 1 0
.
A. Ker(φ) = Ker(A) = {(x, y, z, w) ∈ R4 /AΘ
t(x, y, z, w)}. on doit donc
résoudre le système suivant :
x + y + z + 3w = 0
x + 2y + +2w = 0
2y − z = 0
y+z =0
On trouve Ker(φ) = {w(−6, 1, −1, 2)/w ∈ R}.
B. Par le théorème du rang, on a dimR4 = rgφ + dimKer(φ). D’où
rgφ = 4 − 1 = 3
C. L’image de φ est engendr par les vecteurs colonnes de la matrice A
associée à φ. Or le rang de φ est 3 donc trois des vecteurs colonnes
sont libres et une seule équation lie tous les vecteurs colonnes. On
détermine cette équation en échelonnant la matrice Θ
tA. On trouve
1
1
v4 − 3v1 + v2 − v3
2
2
. Les trois premiers vecteurs colonnes engendrent Imφ.
Exercice 6
(i) ⇒ (ii) Supposons
f (x) ∈ ker f , cela
d’après la formule
dim imf = f , ainsi
ker f = imf . Soit x ∈ E, alors f (x) ∈ f donc
entraine f (f (x)) = 0 ; donc f 2 = 0. De plus
du rang dim ker f + f = n, mais dim ker f =
2f = n.
Chapitre 10. Solutions de la feuille 3
89
(ii) ⇒ (i) Si f 2 = 0 alors imf ⊂ ker f car pour y ∈ imf il existe x
tel que y = f (x) et f (y) = f 2 (x) = 0. De plus si 2f = n alors par
la formule Du rang dim ker f = f c’est-à-dire dim ker f = dim imf .
Nous savons donc que f est inclus dans ker f mais ces espaces sont
de même de dimension donc sont égaux : ker f = f .
Exercice 7
A. Par exemple f (x, y) = (0, x) alors Ker f = f = {0} × R = {(0, y) |
y ∈ R}.
B. Par exemple l’identité : f (x, y) = (x, y). En fait un petit exercice est
de montrer que les seules applications possibles sont les applications
bijectives (c’est très particulier aux applications de R2 dans R2 ).
C. L’application nulle : f (x, y) = (0, 0). Exercice : c’est la seule possible !
Exercice 8
A. Comment est définie φ à partir de la définition sur les éléments
de la base ? Pour x ∈ E alors x s’écrit dans la base {e1 , e2 , e3 },
x = α1 e1 + α2 e2 + α3 e3 . Et φ est définie sur E par la formule
φ(x) = α1 φ(e1 ) + α2 φ(e2 ) + α3 φ(e3 ).
Soit ici :
φ(x) = (α1 + α2 + α3 )e1 + (α1 − α2 ) + λα3 e3 .
Cette définition rend automatiquement φ linéaire (vérifiez-le si vous
n’êtes pas convaincus !).
B. On cherche à savoir si φ est injective. Soit x ∈ E tel que φ(x) = 0
donc (α1 + α2 + α3 )e1 + (α1 − α2 ) + λα3 e3 = 0. Comme {e1 , e2 , e3 }
est une base alors tous les coefficients sont nuls :
α1 + α2 + α3 = 0,
α1 − α2 = 0,
λα3 = 0.
Si λ 6= 0 alors en resolvant le système on obtient α1 = 0, α2 = 0,
α3 = 0. Donc x = 0 et φ est injective.
90
Calcul matriciel
Si λ = 0, alors φ n’est pas injective, en resolvant le même système
on obtient des solutions non triviales, par exemple α1 = 1, α2 = 1,
α3 = −2. Donc pour x = e1 + e2 − 2e3 on obtient φ(x) = 0.
C. On peut soit faire des calcul soit appliquer la formule du rang. Examinons cette deuxième méthode. φ est surjective si et seulement si
la dimension de φ est égal à la dimension de l’espace d’arrivée (ici
E de dimension 3). Or on a une formule pour dim φ :
dim Ker φ + dim φ = dim E.
Si λ 6= 0, φ est injective donc Ker φ = {0} est de dimension 0. Donc
dim φ = 3 et φ est surjective.
Si λ = 0 alors φ n’est pas injective donc Ker φ est de dimension au
moins 1 (en fait 1 exactement), donc dim φ 6 2. Donc φ n’est pas
surjective.
On remarque que φ est injective si et seulement si elle est surjective.
Ce qui est un résultat du cours pour les applications ayant l’espace
de départ et d’arrivée de même dimension (finie).
Exercice 9
iv. f1 : R2 → R2 . Les dimensions de l’espace de départ et d’arrivée sont
les mêmes donc par le théorème du rang f1 injective équivaut à f1
surjective qui équivaut à f1 bijective (cf cours). Calculons le noyau de
f1 .
kerf1 = {(x, y) ∈ R2 /f1 (x, y) = (0, 0)} = {(x, y)/x = y et 3x = 0}
Donc f1 est injective (resp. surjective, resp. bijective) si et seulement
si a 6= −2.
v. f2 n’est pas linéaire.
vi. De même il faut juste voir l’injectivité de f3 . Or ker(f3 ) = {z(−1, 1, 1)/z ∈
R}. Donc f3 n’est pas injective (ni surjective ni bijective).
vii. Dans ce cas les dimensions sont infinies donc on ne peut utiliser le
théorème du rang. Kerf4 = {p ∈ R[X]/P 0 = 0} . c’est l’ensemble
des polynomes constants. Donc elle n’est pas injective (f4 (1) = 0).
Par contre elle est surjective car tout polynome admet une primitive
polynomiale (ie pour tout P ∈ R[X] il existe Q ∈ R[X] tel que Q0 =
P ), donc tout élément de l’espace d ’arrivée a un antécédent.
Chapitre 10. Solutions de la feuille 3
91
viii. Pour f5 on trouve de la même manière qu’elle n’est pas injective.
Elle n’est pas surjective non plus car les espaces vectoriels sont les
polynomes de degré au plus trois et les primitives d’un polynome de
degré 3 est de degré4. (on pouvait ici utiliser le théorème du rang). est
linéaire. f5 est surjective mais pas injective.
ix. kerf6 = {ax3 +bx2 +cx+d/(−a+b−c+d, d, a+b+c+d) = (0, 0, 0)} =
{ax3 − cx} = vect(x3 , x). Donc f6 n’est pas injective. Les dimensions
sont différentes donc f6 pourrait etre surjective..f6 est surjective car
on peut toujours trouver un polynome en fixant trois de ses valeurs.
x. f7 est surjective mais pas injective.
Exercice 10
(a) On commence par calculer le noyau de φ.
Kerφ = {(x, y, z) ∈ C3 /A(x, y, z) = (0, 0, 0)} = {(x, y, z) ∈ C3 /y+z = 0, ix+z = 0, x+iy = 0}
. D’ou
kerφ = {(x, y, z) ∈ C3 /x = iz, y = −z}
. Donc
kerφ = vect{(i, −1, 1)}
L’application φ n’est pas injective. Par le théorème du rang, elle n’est pas
surjective.
Remarque : Ici on considère C3 en tant que C espace vectoriel il est donc
de dimension trois et dimker(φ) = 1
(b) On a déjà le vecteur de base du noyau. Par le théorème du rang
la dimension de l’image est 2. or les vecteurs colonnes de A engendrent
Im(φ).Donc il suffit de prendre deux vecteurs colonnes indépendants pour
avoir une base. Par exemple
Im(φ) = vect{(0, i, 1), (1, 0, i)}
.
92
Calcul matriciel
Exercice 11
1. Soient e1 , e2 , e3 la base canonique de R3 . Alors les vecteurs colonnes
représentent φ(e1 ), φ(e2 ), φ(e3 ) écrits dans la base canonique de R3 . On a :
φ(e1 ) = φ((1, 0, 0)) = (2, 1, 0) = 2e1 + e2
φ(e2 ) = (0, 1, 1) = e2 + e3
φ(e3 ) = (1, 0, −2) = e1 − 2e3
Donc la matrice de φ dans la base canonique de R3 (cela veut dire que les
espaces de départ et d arrivée ont la même base. quand ce n’est pas le cas
on le précisera) est :


2 0 1
M (φ) =  1 1 0 
0 1 −2
2) La base canonique de C2 en tant que C esace vectoriel est (1, 0), (0, 1)
(tout élément de C2 s’écrit sous la forme z(1, 0) + w(0, 1) = (z, w) avec
z, w ∈ C. On a :
ψ(e1 ) = (1 + i, 2i)
ψ(e2 ) = (−i, 1)
Donc
M (ψ) =
1 + i −i
2i
1
3) On suppose que (e4 , e3 , e2 , e1 ) est la base des epsaces de départ et d’arrivée. Alors
– f (e4 ) = e4 + e1
– f (e3 ) = e4 + e3
– f (e2 ) = e3 + e2
– f (e1 ) = e2 + e1
Alors

0
 0
M (f ) = 
 1
1
0
1
1
0
1
1
0
0

1
0 

0 
1
Chapitre 10. Solutions de la feuille 3
Dans la base canonique on obtient :

1
 1
M (f ) = 
 0
0
93
0
1
1
0
0
0
1
1

1
0 

0 
1
Exercice 12
i. (a) φ(x) = λφ(e1 ) + µφ(e2 ) + νφ(e3 ) car φ est linéaire. En regroupant
les termes on obtient :
1
1
1
1
1
1
φ(x) = ( λ + µ − ν)e1 + ( µ − ν)e2 + (− λ + µ − ν)e3
2
2
2
2
2
2
(b) On a

 1
1 −1
2
M (φ) =  0 12 − 12 
− 12 12 − 12
ii. (a) Kerφ = {(x, y, z) ∈ R3 /M (φ)(x, y, z) = (0, 0, 0)} On résout le
système et on trouve :
kerφ = {(x, y, z)/y = z, x = 0} = vect{(0, 1, 1)}
(b) Par le théorème du rang on a rgM (φ) = 2. On a de plus φ(2e1 +
4e2 + 2e3 ) = 3e1 + e2 = f1 et φ(2e1 + e2 + e3 ) = e1 − e3 = f2 et
f1 , f2 sont des vecteurs linéairement indépendants d’ou ils engendrent
Im(φ). (Il ne fallait pas oublier de vérifier que f1 et f2 appartenaient
à Im(φ)).
(c) Les trois vecteurs f1 , f2 , f3 sont linéairement indépendant et froment un sous espace vectoriel de dimension 3 donc forment une base
de R3 . On a :
φ(f1 ) = φ(3e1 + e2 ) = 3φ(e1 ) + φ(e2 )
car φ est linéaire. D’ou
1
5
φ(f1 ) = e1 + e2 − e3
2
2
Or on veut écrire la matrice dans la nouvelle base donc il faut écrire
les images des nouveaux vecteurs de bases dans ces nouveaux vecteurs
de base. On trouve :
1
φ(f1 ) = f1 + f2
2
94
Calcul matriciel
. De même on trouve :
1
φ(f2 ) = f1
2
et
φ(f3 ) = 0
car f3 est dans le noyau.
D’où

1
2
1
2

0
M (φ) =  1 0 0 
0 0 0
Exercice 13
La matrice de passage de la base B dans la base B 0 est la matrice de l’application linéaire identité Id : (E, B 0 ) → (E, B). Donc pour l’obtenir il
suffit d’exprimer les vecteurs de la base B 0 dans la base B.
i.


0 1 1
 1 −1 1 
1 1 0
ii.


1 −1 0
 0 1 −1 
0 0
1
iii.


1 + i 0 −i
 1−i 0 1 
0
2i 2i
Exercice 14
i. il suffit de calculer le carré de la matrice et on trouve la matrice nulle.
Soit x ∈ Im(f ).Alors il existe y ∈ R3 tel que f (y) = x (par définition).
Mais on vient de montrer que f of (y) = 0 = f (x). D’ou x ∈ Ker(f ).
D’ou l’inclusion.
ker(f ) = {(x, y, z) ∈ R3 : A(x, y, z) = (0, 0, 0)}
Chapitre 10. Solutions de la feuille 3
95
Donc
ker(f ) = {(x, y, z) : x + z = 0, 2x + 2z = 0, −x − z = 0}
Les trois équations sont proportionnelles et on trouve :
ker(f ) = vect{(1, 0, −1), (0, 1, 0)}
Attention ici on voit que y n’intervient pas dans les équations, cela
veut dire que le noyau de f contient l’axe des y.
ii. On verifie facilement que vect{(e1 − e3 , e2 , e1 )} = vect{(e1 , e2 , e3 )}
donc la dimension de cet espace est 3 , il est formeé de trois vecteurs
qui forment donc une base.
On doit écrire l’image des trois vecteurs de la nouvelle base par f dans
cette meme base.
– f (e1 − e3 ) = f (e1 ) − f (e3 ) = (1, 2, −1) − (1, 2, −1) = (0, 0, 0)
– f (e2 ) = (0, 0, 0)
– f (e1 ) = (1, 2, −1)
Alors la matrice représentant f est


0 0 1
 0 0 2 
0 0 −1
Chapitre 11
Déterminant et inversion des
matrices
Comme on l’a vu jusque là, beaucoup de problèmes d’algèbre linéaire
comme savoir si une famille est libre ou non, ou une matrice est ou non
inversible, se ramènent à résoudre des systèmes d’équations linéaires. On
voudrait pouvoir trouver une solution à ces problèmes sans avoir à résoudre
explicitement les sytèmes, puis trouver des solutions facilement. C’est dans
ce cadre que nous allons introduire la notion de déterminants.Nous allons
nous restreindre pour les exemples aux matrices 2×2 ou 3×3, bien que les
calculs se généralisent par récurrence aux dimensions supérieures. Ensuite
nous donneront les applications pour calculer l’inverse d’une matrice, ou
à la théorie du rang.
1
1.1
Les déterminants
Définition
On commence par la définition classique du déterminant comme forme
multilinéaire alternée. Puis on donnera une définition sous forme d’une
formule de calculs qui se généralise par récurrence. C’est cette dernière
définition qu’il vous faut retenir pour l’instant.
Définition 35. On appelle forme multilinéaire alternée une application
97
98
Calcul matriciel
δ : Rp × ...Rp −→ R telle que :
n
δ(c1 , ..., ci + c0i , ..., cn ) = δ(c1 , ..., ci , ..., cn ) + δ(c1 , ..., c0i , ..., cn ) 1 6 i 6(11.1)
δ(c1 , ..., λci , ..., cn ) = λδ(c1 , ..., ci , ..., cn(11.2)
)
X
si ci =
aj cj alors δ(c1 , ..., ci , ..., cn ) =(11.3)
0
j6=i
Remarque :
i. multilinéaire veut donc dire linéaire par rapport aux facteurs.
ii. si on permute deux facteurs ci avec cj par exemple alors
δ(c1 , ..., ci , ..., cj ..., cn ) = −δ(c1 , ..., cj , ..., ci , ..., cn )
.
Théorème 11.1. Les formes multilinéaires alternées sur un espace vectoriel E de dimension n sont toutes proportionnelles à une certaine forme
.
admis
Définition 36. On définit le déterminant d’une matrice A n × n , notée det(A), comme étant l’unique forme multilineaire alternée telle que
det(In ) = 1.
Détermination de cette forme en dimension 2
Définition 37. Une application δ : Rp × Rp −→ R est appelée forme
bilinéaire alternée si elle vérifie les identités suivantes :
δ(u + u0 , v) = δ(u, v) + δ(u0 , v)
δ(λu, v) = λδ(u, v)
δ(v, u) = −δ(u, v)
on vérifie aisemment que cela implique :
(11.4)
(11.5)
(11.6)
Chapitre 11. Déterminant et inversion des matrices
δ(u, v + v 0 ) = δ(u, v) + δ(u, v 0 )
δ(u, λv) = λδ(u, v)
δ(0, u) = δ(u, 0) = 0
δ(u, u) = 0
δ(u + λv, v) = δ(u, v) = δ(u, λu + v)
99
(11.7)
(11.8)
(11.9)
(11.10)
(11.11)
Soit E un R-espace vectoriel de dimension 2 et f : E × E −→ R une forme
multilinéaire alternée. Soit B = (e1 , e2 ) une base de E.Alors tout élément
de E se décompose dans cette base :
xj = xj1 e1 + xj2 e2
On a par multilinéarité et alternance :
f (x1 , x2 ) = f (x11 e1 + x12 e2 , x21 e1 + x22 e2 = (x11 x22 − x12 x21 )f (e1 , e2 )
Si on pose f (e1 , e2 ) = 1 alors detB (x1 , x2 ) = x11 x22 − x12 x21
E de dimension 3
Soit B = (e1 , e2 , e3 ) une base de E. Alors
xi = xi1 e1 + xi2 e2 + xi3 e3
. et on trouve
f (x1 , x2 , x3 ) = (a11 (a22 a33 −a32 a23 )+a12 (−a21 a33 +a31 a23 )+a13 (a21 a32 −a22 a31 )f (e1 , e2 , e3 )
Si on pose f (e1 , e2 , e3 ) = 1 alors on définit detB (x1 , x2 , x3 ) = (a22 a33 −
a32 a23 ) + a12 (−a21 a33 + a31 a23 ) + a13 (a21 a32 − a22 a31
On peut définir les déterminants de la même manière pour des éléments
d’ un espace vectoriel de dimension n, mais nous ne le ferons pas ici.
100
Calcul matriciel
1.2
Déterminant d’une matrice
Définition 38. Soit A = (a) une matrice (1 × 1). On pose det(A) = a.
Soit
A=
a11 a12
a21 a22
On pose det(A) = a11 a22 − a12 a21 .
Soit


a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
On pose det(A) = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a22 ) + a13 (a21 a32 −
a31 a22 ).
Cette définition se généralise de la façon suivante :
Définition 39. Soit



A=


a11 . . . a1n
.
.
.
an1 . . . ann






On définit par récurrence une application det : Mn (K) → K de la manière
suivante :
– si n = 1 A = a et det(A) = a
– si n > 1 notons Aij la matrice obtenue en supprimant la ieme ligne et
la jieme colonne à A (on a donc une matrice de dimension n − 1). Alors
on pose
detA = a11 detA11 + ... + (−1)k+1 a1k detA1k + ... + (−1)n+1 a1n detA1n
On le note en général :
det(A) = a11 . . . a1n
.
.
.
an1 . . . ann
Chapitre 11. Déterminant et inversion des matrices
101
Remarque : on retrouve bien les formules de (1.1), les colonnes de la matrice jouant le role des vecteurs ci . On vérifie facilement que c’est bien une
forme bilinéaire alternée par rapport aux colonnes.
1.3 Déterminants de la transposée d’une matrice, du
produit d’une matrice et d’un endomorphisme
Les théorèmes qui suivent sont faciles à démontrer en petite dimension
(mais fastidieux à écrire). Pour les preuves, vous pouvez vous réferrer au
livre de Joseph Grifone ou bien m’écrire.
Théorème 11.2. det(t A) = det(A) ∀A ∈ Mn (K).
Cela nous donne le corollaire suivant :
Corollaire 11.3. Règle de dualité Toutes les propiétés des déterminants
relatives aux colonnes peuvent être affirmées pour les lignes.
On a par exemple les propriétés suivante :
Théorème 11.4. le déterminant est une fonction multilinéaire et alternée
de chaque ligne.
Cela implique les propriétés suivantes (qui sont les mêmes pour les colonnes) qui nous faciliteront le calcul des déterminants :
i. si la matrice a deux lignes égalent, le déterminant est nul.
ii. si on échange deux lignes de la matrice, le déterminant change de signe.
iii. Le déterminant est non nul si et seulement si les vecteurs lignes sont
indépendants.
iv. Si on ajoute à une ligne une combinaison linéaire des autres lignes, le
déterminant ne change pas.
Calcul des déterminants Grâce aux propriétés précédentes, le calcul
des déterminants est rendu plus simple :
i. On choisit si on développe par rapport aux lignes ou aux colonnes.
102
Calcul matriciel
ii. On permute (en n’oubliant pas de changer de signe le déterminant)
les lignes (resp. les colonnes) pour rendre les calculs faciles.
iii. En ajoutant ou soustrayant à une ligne des combinaisons linéaires
des autres lignes (comme avec Gauss) on transforme la première ligne
(resp. colonne) de la matrice de sorte qu’elle ait un maximum de 0.
iv. En multipliant une colonne par un scalaire le déterminant est multiplié
par le même scalaire.
Exemple Quel est le déterminant de

6

5
A=
4
la matrice suivante ?

3 2
2 2 
2 2
On remarque que la dernière colonne comporte que des 2 donc en soutrayant la première ligne aux deux autres on obtient facilement des 0.
2 3
2 3 6 6 3 2 6 det(A) = 5 2 2 = − 2 2 5 = − 0 −1 −1 0 −1 −2 2 2 4 4 2 2 On développe par
rapportà la première colonne :
−1 −1 = −2 × (−1 ∗ −2 − (−1 ∗ −1)) = −2
det(A) = −2 × −1 −2 Théorème 11.5. det(AB)=det(A)det(B) ∀A, B ∈ Mn (K)
Encore une fois la preuve en dimension 2ou 3 est facile : il suffit d’un
coté de développer les déterminant de deux matrices quelconques (mais
de même dimension) puis de les multiplier en développant complètement
le rpoduit, et d’un autre coté multiplier les deux matrices et calculer le
déterminant du produit.
Cela nous donne le corollaire très important suivant :
Corollaire 11.6. Une matrice A ∈ Mn est inversible ssi det(A) 6= 0 et on
1
a det(A−1 ) = det(A)
.
Cela vient du fait que det(In ) = 1 et qu’on ne peut jamais diviser par 0.
Chapitre 11. Déterminant et inversion des matrices
103
Corollaire 11.7. si A et A’ sont semblables alors det(A) = det(A0 ).
Démonstration. Les matrices A et A’ sont semblables donc il existe une
1
det(A)det(P ) =
matrice inversible telle que A0 = P −1 AP . Alors det(A0 ) = det(P
)
det(A).
Ce corollaire nous permet de définir le déterminant d’un endomorphisme
d’un espace vectoriel E (en effet les matrices d’un même endomorphisme
sont semblables entre elles donc le déterminant ne dépendra pas de la base
de E choisie).
Définition 40. Soit E un espace vectoriel de dimension finie et f un
endomorphisme de E. on appelle déterminant de f le déterminant de la
matrice qui représente f dans une base quelconque de E.
2
Inversion des matrices
Ainsi qu’on l’a vu dans la section précédente, calculer le déterminant suffit
à décider si une matrice est inversible ou non. On peut calculer l’inverse
d’une matrice en résolvant un sytème à autant d’inconnues que d’équations (cf exemple dans le chapitre précédent). Mais en fait on peut le faire
plus “rapidement” (c’est surtout vrai à partir de la dimension 3).
Définition 41. Soit A ∈ Mn .
i. bij = (−1)i+j det(Aij est appelé cofacteur de A d’indice ij.
ii. On appelle comatrice de A ∈ Mn la matrice Com(A) dont les coefficients sont les cofacteurs : Com(A) = (bij )16j6n
16i6n .
Théorème 11.8. Soit A ∈ Mn . Alors
i. t Com(A)A = At Com(A) = det(A)In
ii. Si A est inversible, on a :
t Com(A)
det(A)
t Com(A)
det(A)
.A = A.
.
exercice : faire la preuve pour n = 2, 3.
t Com(A)
det(A)
= In . Donc A−1 =
104
Calcul matriciel
3 Application du déterminant à la théorie du
rang
3.1
Bases
Théorème 11.9. Soit E un espace vectoriel de dimension n. Soient {vi , ..., vn }
une famille de n vecteurs de E. Soit A la matrice dont les vecteurs colonnes sont constitués des vecteurs vi écrits dans une base de E.
les vecteurs {v1 ..., vn } forment une base de e ssi det(A) =6= 0.
3.2
Famille libre
Théorème 11.10. Soient {e1 , ..., ek } une famille de k vecteurs d’un espace
vectoriel E de dimension n et A ∈ Mnk la matrice dont les colonnes sont
constituées des composantes des k vecteurs.
la famille des k vecteurs ssi on peut extraire de A un mineur d’ordre k.
(Un mineur est une sous matrice(k) de la matrice A).
Exemple
 



1
0
1
 2 
 1 
 5 
 
 






 forment une
9
Les vecteurs v1 =  3  , v2 =  2  , v3 = 


 3 
 4 
 −2 
5
0
0
5
famille libre de R car dans la matrice associée on a un mineur de rang 3 :




A=


1
2
3
3
5
0 1
1 5
2 9
4 −2
0 0






3.3 Appartenance d’un vecteur à l’espace engendré
par une famille
Définition 42. Soit A une matrice et b un mineur d’ordre k extrait de
A. On appelle bordant de b tout mineur d’ordre k + 1 extrait de A dont
b est un mineur extrait.
Chapitre 11. Déterminant et inversion des matrices
105
Théorème 11.11. Soit {v1 , ..., vk } k vecteurs linéairement indépendants
et A ∈ Mnk la matrice associée. Soit b un mineur d’ordre k non nul extrait
de A.
Pour qu’un vecteur w appartienne à vect(v1 , ..., vk ), il faut et il suffit que
tous les bordants de b dans la matrice C = |v1 , ..., vn , w| soient nuls.
(En effet on vient de voir que k vecteurs étaient linéairement indépendant
ssi il existait un mineur d’ordre k non nul. Donc ils sont liés ssi tous les
mineurs d’ordre k sont nuls.)
3.4
Détermination du rang
Théorème 11.12. Soit A ∈ Mpn . Le rang de A est k ssi on peut extraire
de A un mineur b d’ordre k non nul et tous les bordants de b dans A sont
nuls.
Autre manière de chercher le rang d’une matrice :
Théorème 11.13. Le rang d’une matrice A est l’ordre maximal des mineurs non nuls extraits de A.
Chapitre 12
Feuille Td 4
Exercice 1
Soit A un endomorphisme d’ev de dimension finie. Montrer que les conditions sont équivalentes :
i. detA 6= 0
ii. A est injectif
iii. A est surjectif
iv. A est bijectif
v. Ker(A) = {0}
Exercice 2
Soient a = (a1 , a − 2) et b = (b1 , b2 ) des vecteurs de R2 . Montrer que l’aire
du parallélogramme
engendré par a et b est égale au déterminant de la
a1 b 1
matrice
. Démontrer l’énoncé analogue dans R3 sur le volume
a2 b 2
d’un parallélotope engendré par trois vecteurs.
Exercice 3
Calculer les déterminants suivants :
4 −3 5 0
x
z
3 −2 8 , −x 0 y 1 −7 −5 −z −y 0 107
1 x x2
1 y y2
1 z z2
108
Calcul matriciel
1 1
1
1
1 −1 1
1
1 1 −1 1
1 1
1 −1
,
, 6 −5 8
4
9
7
5
2
7
5
3
7
−4 8 −8 −3
Exercice 4
Calculer les inverses des matrices suivantes :


1 x z
a b
2 1


0 1 y
(
a 6= 0
0 1
1 1
0 0 1


2 7 3
 3 9 4 
1 5 3
Exercice 5

1
 2
Soient B = 
 1
1
 
2
 4 
 
 2 
2
1 0
1 1
1 0
3 −2


1
x1


1 
x2
; X = 
 x3
0 
1
x4



1

 
 ; C1 =  0  et C2 =

 1 
1
i. Calculer le rang de B.
ii. Déterminer les solutions de BX = C1
iii. Déterminer les solutions de BX = C2
Exercice 6
Les vecteurs v1 = (1, 0, 0, 2, 5), v2 = (0, 0, 1, 4, 7), v3 = (0, 1, 0, 3, 4) et
v4 = (2, −3, 4, 11, 12) sont-ils indépendants dans R5 ?
Exercice 7
Pour quelles valeurs de λ et µ les vecteurs (2, µ, 1), (λ, 0, 1), (µ, λ, 0) forment
ils une base de R3 .
Chapitre 12. Feuille Td 4
109
Exercice 8
Soit A ∈ Mn (K) et λ ∈ K.
Montrer l’équivalence :
∃u ∈ Rn \Au = λu <=> λ est racine de p(x) = det(A − xIn )
Exercice 9
Calculer le déterminant de la matrice qui représente dans la base canonique de R3 la projectio f sur le plan x − y + 5z = 0 parallèlement à
la droite x = y = z suivie de laprojection g sur le plan x + y + z = 0
parallèlement à la droite x = y = −5z.
Exercice 10
Pour quelles valeurs de a ∈ R

1
 1
1
la matrice

1 1
2 4  ∈ M3 (R)
3 a
est-elle inversible ? Calculer dans ce cas son inverse.
1
Déterminants et inversion
Exercice 5 : Calculer les déterminants
1 0 2
1
2 3
, 3 4 5 , 3
−1 4
5 6 7
5
suivants :
0 6 4 15 ,
6 21
1 0 0
2 3 5
4 1 3
Exercice 6 : Lesquels des déterminants suivants sont nuls ?
2
4 1 3
−1 −2 1 0
,
0
0 2 2
3
6 2 5
9 9
8
25 75 −30 ,
5 15 −6 1 0 −1 0
0 −1 1 0
0 0 −1 1
1 −1 −1 1
110
Calcul matriciel
Exercice 13 : Soit ϕ ∈ End(3 ), défini par l’image par ϕ d’une base
= {e1 , e2 , e3 } :
ϕ(e1 ) = e1 +2e2 +2e3 ,
ϕ(e2 ) = 3e1 +4e2 +6e3 ,
ϕ(e3 ) = 5e1 +62 +9e3 .
Expliciter la matrice M (ϕ) de ϕ dans la base . M (ϕ) est elle inversible ?
Si oui, l’inverser, et en déduire l’action de ϕ−1 dans la base .
Chapitre 13
Solutions de la feuille 4
Exercice 1
On montre d’abord que
kerA = {o} <=> Ainjectif <=> Asurjectif <=> Abijectif
.
Rappel : On a dimE = dim(Ker(A)) + rgA.
• A injective <=> KerA = {0}.
Soit x ∈ E tel que x ∈ KerA. Alors A(x) = 0 = A(0). Comme A est
injective x = 0.
Supposons Ker(A) = 0. Soient x, y ∈ E tels que A(x) = A(y). Alors on a
A(x − y) = 0 (car A est linéaire), donc x − y ∈ Ker(A) et donc x − y = 0.
• A surjective <=> Im(A) = E <=> Ker(A) = 0
La première équivalence est vraie par définition.
Ker(A) = 0 <=> dimKer(A) = 0 <=> dim(Im(A)) = dimE <=>
Im(A) = E.
111
112
Calcul matriciel
Cela nous donne directement la dernière équivalence.
• A bijectve <=> det(A) 6= 0
Soient (e1 , ..., en ) une base de E.
Si A est bijective alors (A(e1 ), ..., A(en )) forme une base de E (car l’image
d’une base par un isomorphisme est une base). Donc det(A(e1 ), ..., A(en )) 6=
0 car (A(e1 ), ..., A(en )) n’est pas liée. On a aussi det(e1 , ..., en ) 6= 0.
Rappel : soit f un endomorphisme, alors det(f (e1 ), ..., f (en )) = det(f )det(e1 , ..., en )
d’où det(A) 6= 0.
Réciproquement, si det(A) 6= 0, comme det(e1 , ..., en ) 6= 0, on a det(A(e1 ), ..., A(en )) 6=
0.
Exercice 2
Soit A le parallélogramme engendré par (a, b). Soit A l’aire de A. Alors
A = ||a|| ∗ h où ||a|| est la longueur du vecteur a. Or h = ||b||sin(α) Donc
A = ||a|| ∗ h = ||a||||b||sin(α).
D’autre part on a (rappel) ||a ∧ b|| = ||a||||b||sin(α).
3
Ecrivons
pouvoir faire le produit vectoriel). On a

 R (pour
 aet b dans
b1
a1
a =  a2  et b =  b2 .
0
0

 

0
0
=
.
0
0
Alors a ∧ b = 
a1 b 2 − a2 b 1
det(a, b)
donc ||a ∧ b|| = |det(a, b)|.
(On pouvait aussi montrer que l’aire était une forme bilinéaire alternée
telle que l’aire engendrée par (e1 , e2 ) égalait 1. Alors par une proposition
du cours l’aire est égale au déterminant.
Chapitre 13. Solutions de la feuille 4
113
Soit a, b, c trois vecteurs de R3 et soit V le volume du parallélotope engendré par ces trois vecteurs. Alors V = Aire(a, b) ∗ p où p est la profondeur
par rapport au plan (a, b), c’est à dire la projection de c sur la drtoie pera∧b
. Alors
pendiculaire à (a, b). le vecteur unitaire de cette droite est u = ||a∧b||
(rappel) p = |c.u| (le produit scalaire entre ces deux vecteurs). Finalement
V = Aire(a, b) ∗ p = ||a ∧ b|| ∗ |c.
Or
a∧b
= |c.a ∧ b|
||a ∧ b||

 
 

a1
b1
a2 b 3 − a3 b 2
a ∧ b =  a2  ∧  b 2  =  a3 b 1 − a1 b 3 
a3
b3
a1 b 2 − a2 b 1
et
c.a ∧ b = c1 (a2 b3 − a3 b2 ) + c2 (a3 b1 − a1 b3 ) + c3 (a1 b2 − a2 b1 )
donc le volume égale


c 1 a1 b 1
det  c2 a2 b2  = |det(c, a, b)| = |det(a, b, c)|
c 3 a3 b 3
Exercice 3
Pour trouver les déterminants sans trop faire de calculs, on “met “ le plus
de 0 possible dans la matrice (c est à dire que l’on ajoute des combinaisons linéaires à un ligne des autres lignes (resp. aux colonnes) avant de
développer.
4 −3 5
3 −2 8
1 −7 −5
0 6
2
= 0 19 23
1 −7 −5
1 1
1
1
1 −1 1
1
1 1 −1 1
1 1
1 −1
=
= 1 ∗ (6 ∗ 23 − 19 ∗ 2) = 138 − 38 = 100
1 0
0
0
1 −2 0
0
1 0 −2 0
1 0
0 −2
−2 0
0
= 1 ∗ 0 −2 0
0
0 −2
= −8
114
Calcul matriciel
0
x z −x 0 y = −x −x y
−z 0
−z −y 0 +z
0
x
z
−x 0
−z −y
= −x(yz) + z(xy) = 0
De manière générale si une matrice est antisymétrique alors son déterminant sera nul.
1 x x2
1 y y2
1 z z2
1
x
x2
= 0 y − x (y − x)(y + x)
0 z − x (z − x)(z + x)
= 1 ∗ ((y − x)(z − x)(z + x) − (z − x)(y − x)(y + x)) = (y − x)(z − x)(z − y)
6 3 8
4 6 3 −4 4 9 12 5
2 9 12 −13 2 =
=
7 8 3
7 7 8 −11 7 −4 0 −8 −3 −4 0
0 −3 3 −4 4 6 3 −4 = −(−4) 12 −13 2 − 3 9 12 −13 8 −11 7 7 8 −11 6 3 −4 0
3 −4 Or 9 12 −13 = −15 12 −13 = −3(15 ∗ 11 − 9 ∗ 13) − 4(−15 ∗
7 8 −11 −9 8 −11 8 + 9 ∗ 12) = −96 3 −4 4 3
0
4 et 12 −13 2 = 12 −113 2 = 3 ∗ (−11 ∗ 7 + 4 ∗ 2) + 4(−4 ∗ 12 +
8 −11 7 8
−4 7 8 ∗ 11) = −47
Alors le déterminant demandé est 100.
6 −5 8
4
9
7
5
2
7
5
3
7
−4 8 −8 −3
Exercice 4
La première méthode que l’on a vu pour inverser une matrice était de
résoudre un système A.(x1 , ..., xn ) = (x01 ..., x0n ) avec invonnues x1 , ..., xn .
Chapitre 13. Solutions de la feuille 4
115
t
1
com(A). On commence bien sur
Ici on va utiliser la formule A−1 = det(A)
par caluler les déterminant pour vérifier qu ils sont non nuls.
a b
• A1 =
et a 6= 0
0 1
On a det(A1 ) = a 6= 0 donc on peut inverser. On commence par les cofacteurs :
cof11 (A1 ) = (−1)1+1 det(1) = 1
cof12 (A1 ) = (−1)1+2 det(0) = 0
cof21 (A1 ) = (−1)2+1 det(b) = −b
cof22 (A1 ) = (−1)2+2 det(a) = 4
Alors
t
com(A1 ) =
1 −b
0 a
et donc
A


1 x z
• A2 =  0 1 y 
0 0 1
−1
=
1
a
0
1
−b
a
a
116
Calcul matriciel
detA2 = 1 donc on peut inverser. Les cofacteurs sont :
1 y
1+1
cof11 (A1 ) = (−1) det(
)=1
0 1
0 y
1+2
cof12 (A1 ) = (−1) det(
)) = 0
0 1
0 1
1+3
cof13 (A1 ) = (−1) det(
)) = 0
0 0
x z
2+1
cof21 (A1 ) = (−1) det(
)) = −x
0 1
1 z
2+2
cof22 (A1 ) = (−1) det(
)) = 1
0 1
1 x
2+3
cof23 (A1 ) = (−1) det(
)) = 0
0 0
x z
3+1
cof31 (A1 ) = (−1) det(
)) = xy − z
1 y
1 z
3+2
cof32 (A1 ) = (−1) det(
)) = −y
0 y
1 x
3+3
cof33 (A1 ) = (−1) det(
)) = 1
0 1
Alors

A−1
2
• A3 =
2 1
1 1

1 −x xy − z
−y 
= 0 1
0 0
1
On a det(A3 ) = 2 − 1 = 1 donc on peut inverser.
1 −1
−1
A3 =
−1 2


2 7 3
• A4 =  3 9 4 
1 5 3
Chapitre 13. Solutions de la feuille 4
117

On a det(A3 ) = −3 et A−1
4

−7 2 −1
 5 −1 −1 .
= −1
3
−2 1 −3
Exercice 5

1
 2
B=
 1
1
1 0
1 1
1 0
3 −2

1
1 

0 
1
1)Le rang de B est le plus grand déterminant non nul que l’on peut ex 1 1 = −1 6= 0 donc rg(B) > 2.
traire. On a 2 1 On cherche maintenant un mineur d’ordre 3 :
1 0 1 1 1 1 = −1 6= 0 donc rg(B) > 3.
1 0 0 Or det(B) = 0 donc rg(B) = 3.
2) Comme det(B) = 0 on ne peut pas inverser la matrice pour trouver la
solution directement. On n a pas d’unicité non plus.
BX = C1 équivaut au système :

x1 + x2 + x4 = 1



2x1 + x2 + x3 + x4 = 0
x1 + x2 = 0



x1 + 3x2 − 2x3 + x4 = 1
ce qui équivaut à :




x2 = −x1
x4 = 1
x1 + x3 = −1



−2x1 − 2x3 = 0
Le système n’est pas compatible donc il n’y a pas de solutions.
118
Calcul matriciel
3) BX = C2 équivaut au système :

x1 + x2 + x4 = 2



2x1 + x2 + x3 + x4 = 4
x1 + x2 = 2



x1 + 3x2 − 2x3 + x4 = 2
ce qui équivaut à :

x2 + x1 = 2



x4 = 0
x1 + x3 = 2



2x2 − 2x3 = 0
i.e.l’ensemble des solutions est l’ensemble des quadruplets (x1 , x2 , x3 , x4 )
tels que x2 = x3 = 2 − x1 et x4 = 0.
Exercice 6
Les quatre vecteurs v1 = (1, 0, 0, 2, 5), v2 = (0, 0, 1, 4, 7), v3 = (0, 1, 0, 3, 4)
et v4 = (2, −3, 4, 11, 12) sont indépendants ssi on peut extraire un mineur
de rang 4 de la matrice A dont les colonnes sont ces vecteurs (ssi rg(A) =
4).


1 0 0 2
 0 0 1 −3 



A=
 0 1 0 4 
 2 4 3 11 
5 7 4 12
Or
1
0
0
2
0
0
1
4
0 2 1 −3 = −8
0 4 3 11 donc la famille est libre.
Exercice 7
Les vecteurs (2, µ, 1), (λ, 0, 1), (µ, λ, 0) forment une base de R3 si et seulement si ils forment une famille libre (en effet on a trois vecteurs donc si ils
Chapitre 13. Solutions de la feuille 4
119
sont libres il engendrent un sev de R3 de dimension 3, donc par théormèe,
ils engendrent tout l’espace. ) donc si et seulement si det 6= 0.
Calculons ce déterminant :
2 λ µ 2 λ−2 µ µ 0 λ = µ −µ λ = λ(λ − 2) + µ2
1 1 0 1
0
0 La famille est libre ssi λ(λ − 2) + µ2 6= 0
Exercice 8
λ racine de p(x) = det(A−xIn ) <=> à det(A−λIn ) = 0 <=> A−λIn n’est
pas bijective, en particuler elle n’est pas injective <=> Ker(A − λIn ) 6= 0
<=> il existe u 6= 0 tel que (A − λIn )(u) = 0. ceci équivaut bien sur à ce
qu’ il existe u 6= 0 tel que Au = λu.
Exercice 9
On veut le déterminant de l’application composée gof . La matrice associée
à cette application est le produit des matrices associees à f et g respectivement : Mgof = Mg ∗ Mf et le déterminant le produit des deux.
Or l’application f est une projection sur un plan parallélement à une
droite. En particulier tous les points situés sur cette droite seront tous
envoyés sur (0, 0, 0). Donc l’application n’est pas injective, ce qui implique que son déterminant est nul. (C’est le même argument pour g)
donc det(Mgof = 0.
Exercice 10
Pour que la matrice A soit inversible il faut que son déterminant soit non
nul. on va donc calculer ce déterminant :
1 1 1
det(A) = 1 2 4
1 3 a
1 1
1
= 0 1
3
0 2 a−1
=a−1−6=a−7
120
Calcul matriciel
Donc si a 6= 7 la matrice est inversible.
Pour calculer l’inverse on calcule d’abord

2a − 12
Com(A) =  3 − a
2
Alors
la comatrice :

4−a 1
a − 1 −2 
−3
1

A−1

2a − 12 3 − a 2
1 
4 − a a − 1 −3 
=
a−7
1
−2
1
Exercice 11
2 3
−1 4 = 2 ∗ 4 + 3 = 11
1 0 2 1 0 2
3 4 5 = 0 4 −1 = −6
0 6 −3
5 6 7
Pour la troisième matrice, on remarque que la troisième colonne vaut
trois fois la troisieme colonne de la deuxieme matrice et que le reste est
identique, alors le déterminant est multiplié par trois :
1 0 6 3 4 15 = −18
5 6 21
1 0 0
2 3 5 = 9 − 5 = 4
4 1 3
Exercice 12
Les trois déterminant sont nuls car :
i. La deuxième colonne vaut deux fois la première colonne
Chapitre 13. Solutions de la feuille 4
121
ii. la deuxième ligne vaut 5 fois la troisième ligne
iii. la dernière ligne est la somme de toutes les lignes.
Exercice 13
La matrice représentant ϕ dans la base = {e1 , e2 , e3 } est telle que ses
colonnes sont l image des vecteurs de base exprimés dans la base de l’espace
d arrivée (qui est la même que celle de départ dans ce cas ci). On obtient
alors :


1 3 5
2 4 6
2 6 9
Pour montrer que ϕ est inversible il suffit de montrer que le déterminant
de la matrice représentant cette application est non nul. On a :
1 3 5
2 4 6 = 2
2 6 9
donc ϕ est inversible. On calcule son inverse en utilisant la formule avec
les cofacteurs et on trouve :


3
−1
0
2
M (φ)−1 = −3 − 12 2 
2
0 −1
Alors l’action de ϕ−1 est
– ϕ−1 (e1 ) = −3e2 + 2e3
ϕ−1 (e2 ) = 32 e1 − 21 e2
– ϕ−1 (e3 ) = −e1 + 2e2 − e3
Chapitre 14
Résolution d’équations
différentielles
On va maintenant appliquer la théorie du calcul matriciel à la résolution
des systèmes d’équations différentielles. Avant cela il nous faut un petit
peu plus de théorie : la diagonalisation des matrices. Diagonaliser les
matrices rendra la résolution des sytèmes linéaires beaucoup plus facile ;
mais on ne peut pas toujours le faire. On va donc dans un premier temps
caractériser les matrices diagonalisables puis trouver les bases dans lesquelles leur matrice semblable est diagonale. C’est une des parties les plus
importantes de ce chapitre, bien plus que les applications, il est très important de vous entrainer à le faire.
(remarque : la diagonalisation des matrices fait partie de ce que l’on appelle “réduction des endomorphismes” qui comprend aussi la trigonalisation, mais que nous ne verrons pas ici.)
1
Diagonalisation
Le problème est le suivant. Etant donné un endomorphisme f on lui associe
une matrice MB (f ) écrite dans une certaine base B ; on voudrait trouver
une base B 0 dans laquelle la matrice de f (semblable à MB (f ) ) est la
plus simple possible (c’est à dire diagonale). Une telle base n’existe pas
toujours.
123
124
Calcul matriciel
1.1
Vecteur propre - valeur propre
Soit
u : E −→ E
x −→ Ax
un endomorphisme (avec A la matrice de u dans une base b). On veut
trouver une base b0 telle que A = P DP −1 où D est diagonale et représente
u dans la base b0 , P est la matrice de passage de b vers b0 .(On aura aussi
D = P −1 AP ).
si D est diagonale , cela implique que u(e0i ) = λi e0i pour tout e0i ∈ b0 (λi
est le ième coefficient de la diagonale de D).Aurement dit on veut trouver
une base b0 dont tous les vecteurs ont des images par u proportionnels à
eux-mêmes.
Définition 43. i. Soit u : E −→ E linéaire , avec E de dimension n.
On dira que x 6= 0 tel que u(x) = λx est un vecteur propre de u
pour la valeur propre λ.
ii. Soit λ une valeur propre de u. On pose Eλ = {vecteur propre pourλ}∪
{0}.Eλ est le sous espace propre associé à λ. C’est un sev de E.
iii. On dit que u est diagonalisable si u possède une base de vecteurs
propres.
On conserve ces définitions pour une matrice (toute matrice A est asociée
à un endomorphisme
u : E −→ E
x −→ Ax
).
Théorème 14.1. Soit u : E → E linéaire.
Soit P (x) = det(u − xIE ). C’est un polynome de degré la dimension de E
dont les racines sont précisemment les valeurs propres de u.
Chapitre 14. Résolution d’équations différentielles
125
Définition 44. Ce polynome P (x) est appelé le polynome caractéristique
de u (ou de A matrice).
Alors on a par définition :
Proposition 14.2. L’espace propre associé à une valeur propre λ est
défini par :
Eλ = Ker(u − λIdE )
C’est une conséquence du théorème précédent.
a b
Exemple 1 : dim(E) = 2 , A =
c d
a−x
b = x2 − (a + d)x + ad − bc =
Alors det(A − xI2 ) = c
d−x x2 − T r(A)x + det(A) où T r(A) est la trace de A, c’est à dire la somme
des coefficients diagonnaux de A.
Exemple 1 :
A=
−2 1
1 −2
Alors P (x) = x2 + 4x + 3. Les racines de P sont −1 et −3. Ce sont aussi
les valeurs propres de A.
Attention , la recherche des racines dépend du corps dans lequel
vous les cherchez : x2 + 1 n’a pas de racines dans R mais en a
deux dans C.
On va rechercher maintenant les vecteurs propres associés aux valeurs
propres :
λ = −1 :
E−1 = Ker(A + I2
) = {(x, y)/A(x, y) = −(x, y)}
−x + y = 0
on doit résoudre :
x−y =0
On a deux fois la même équation.
126
Calcul matriciel
Donc E−1 = {(x, y)/x = y} = vect((1, 1)).
λ = −3 :
E−3 = Ker(A + 3I2 ) = {(x, y)/A(x, y) = −3(x, y)}
on
doit résoudre :
x+y =0
x+y =0
On a deux fois la même équation.
Donc E−3 = {(x, y)/x = −y} = vect((1, −1)).
Alors dans cet exemple,
−1 0
1 1
D=
et P =
0 −3
1 −1
(l’ordre des valeurs propres dans la matrice diagonale est déterminé par
l’ordre des vecteurs propres dans b0 .
Définition 45. Pour un endomorphisme f : E → E, on considère l’ensemble
A(f ) = {P ∈ K[X] : P (f ) = 0}
des polynomes annulant f pour E de dimension finie . Il existe un unique
polynome unitaire mf tel que A(f ) est l’ensemble des multiples de mf . Ce
polynome mf est le polynome minimal de f
Théorème 14.3. Cayley-Hamilton Soit f un endomorphisme d’un espace vectoriel de dimension finie sur un corps K. Alors Pf (f ) = 0.
En d’autres termes le polynome minimal divise le polynome caractéristique.
1.2
caractérisation des endomorphismes diagonalisables
Dans l’exemple un fois que l’on a calculer les valeurs propres on savait la
matrice diagnalisable car les valeurs propres étaient distinctes. Ce n’est
pas toujours le cas.
Définition 46. Soit λ une valeur propre de u : E → E linéaire.
On appelle multiplicité de λ sa multiplicité en tant que racine du polynome
caractéristique, i.e. la plus grande puissance n telle que (x−λ)n divise p(x).
Chapitre 14. Résolution d’équations différentielles
127
Théorème 14.4. Soit f un endomorphisme de E.f est diagonalisable ssi :
i. P (x) est scindé dans K (i.e. on peut l’écrire comme produit de (x−λ) :
P (x) = (−1)n (x − λ1 )α1 ...(x − λp )αp avec λi ∈ K et α1 + ... + αp = n)
ii. Pour chaque valeur propre λi de multiplicité αi on a dim(Eλi ) = αi .
Exemple :


−1 1
0
A =  0 −1 1 
1
0 −1
Le polynome caractéristique associé à A est P (x) = −x(x2 + 3x + 3).
Dans R ce polynome n’est pas scindé (i.e. x2 + 3x + 3 n’a pas de racines
réelles) donc A n’est pas diagonalisable dans R. Mais elle l’est dans C
(tout polynome à coefficient réels est scindé dans C).On a :
0
DA =  0
0

0√
−3+ 3i
2
0
0
0√


−3− 3i
2
Remarque : une valeur propre peut être nulle, mais jamais une vecteur
propre : une famille de vecteurs contenant un vecteur nul ne peut être
libre donc ne peut être une base.
Théorème 14.5. Une matrice carrée A est diagonalisable si et seulement
si son polynome minimal est scindé et ses racines sont deux à deux distinctes.
-cf exercice 2,1)
2
Application de la diagonalisation
On va appliquer la diagonalisation tout d’abord au calcul des la puissance
d’une matrice puis à la résolution de système d’équations différentielles
linéaires.
128
Calcul matriciel
2.1
Calcul de la puissance d’une matrice
Soit A ∈ Mn (K). Supposons que A est diagonalisable. Il existe alors une
matrice diagonale D et un matrice inversible P telles que D = P −1 AP ,
ou de manière équivalente A = P DP −1 . Alors
Ak = P Dk P −1
(on remplace A par sa valeur k fois , et P −1 P = In ).
Or la matrice D est diagonale donc sa puissance kime est facile à calculer :




λ1 0
0
λk1 0
0
 0 λ2
 0 λk
0 
0 
2




k
D =  ..
alors
D
=

 ..

 .

 .

k
0
0 λn
0
0 λn
On n’a plus qu’à appliquer la formule pour retrouver Ak .
2.2 Résolution des système d’équations différentielles
linéaires à coefficient constants
On veut résoudre le système suivant :

0

 x1 = a11 x1 + ... + a1n xn
..
.

 x0 = a x + ... + a x
n1 1
nn n
n
avec aij ∈ K(= R ou C) et xi dérivables.
On écrit le système sous forme matricielle :


x1


X 0 = AX o X =  ... 
xn
On suppose A digonalisable donc il existe une matrice diagonale D et un
matrice inversible P telles que D = P −1 AP , ou de manière équivalente
A = P DP −1 .La matrice P est la matrice de changement de base de la
base b vers la base v = (v1 , ..., vn ) où les vi sont les vecteurs propres de
Chapitre 14. Résolution d’équations différentielles
129
A. On peut appliquer ce même changement de base aux vecteurs X et X 0
pour les exprimés dans la nouvelle base formée des vecteurs propres. Soit
Y = P −1 X alors Y 0 = P −1 X 0 et on a
Y 0 = P −1 AX = P −1 AP P −1 X = DY
. Ce système est facile à intégrer car D est diagonale.
Ainsi pour résoudre un système différentiel à coefficients constants on commence par diagonaliser la matrice, puis on intègre le système “diagonal”.
Enfin grâce aux matrices inversibles on écrit les solutions dans la base de
départ.
3 Résolution des systèmes d’équations linéaires,
systèmes de Cramer
3.1
Soit
existence et unicité des solutions
(
a11 x1 + ... + a1n xn = b1
..
.am1 x1 + ... + amn xn = bm
un système à résoudre où les (aij ) et bk sont les données et xj les inconnues.
On peut reécrire ce système sous forme marticielle :
AX = B avec A = (aij ).
Théorème 14.6. i. le système a des solutions ssi B et lié aux vecteurs
colonnes de A A1 , ..., An
ii. Il y a unicité des solutions ssi A1 , ..., An forment une famille libre
conséquences directes :
i. si n > m la famille A1 , ..., An n’est pas libre dans Rm , il n’y a jamais
unicité des solutions.
ii. si m > n si A est fixé, il existera toujours des second membres B pour
lequel il n’y aura pas de solutions.
Corollaire 14.7. si m = n et si A est inversible alors il y a existence et
unicité des solutions du système AX = B.
130
Calcul matriciel
La preuve est facile.
Définition 47. Un tel système est dit de Cramer.
Théorème 14.8. Soit AX = B un système linéaire d’équations linéaires
. Soit X0 une solution particulière de ce système. Alors toutes les autres
solutions s’écriront X0 +Y avec Y solution de AX = 0 (le système hoogène
associé).
Démonstration. on suppose que l’on a une solution X0 telle que AX0 = B.
Soit X une autre solution. Alors AX = AX0 ce qui équivaut à A(X−X0 ) =
0. Donc Y = X − X0 est une solution du système homogène associé .
Corollaire 14.9. Soit AX = B un système et X0 une solution. Alors
l’ensemble des solutions de ce système est de la forme X0 + F où F est un
sous espace vectoriel de Rn de dimension n − rg(A).
3.2
Résolution théorique
Soit
(
a11 x1 + ... + a1n xn = b1
..
.am1 x1 + ... + amn xn = bm
un système à résoudre où les (aij ) et bk sont les données et xj les inconnues.
a)m = n : système de Cramer
On suppose A inversible donc de déterminant non nul. Jusqu’ici pour résoudre untel système on pouvait soit utiliser le pivot de Gauss soit inverser
la matrice A (ce qui revient à beaucoup de calculs si la matrice est grande).
Dans cette section on présente une troisième manière de résoudre un tel
système : il existe des formules directes pour calculer les xi ce sont les
formules de Cramer. On a :
2 ,...,An ))
– x1 = det((B,A
det(A)
..
.
Chapitre 14. Résolution d’équations différentielles
131
1 ,A2 ,...,B))
– xn = det((Adet(A)
sont les solutions du système.
b) Cas général
On résoud en trois étapes :
i. On calcule le rang r de A. On sait alors que l’on peut extraire de A
une matrice carrée inversible de taille r. On extrait cette matrice (en
permutant les équations et/ou les inconnues du système)
ii. On vérifie que le système est compatible (i.e. il faut que les solutions
du système de Cramer soit aussi solution des autres équations).
Pour avoir des solutions il faut et il suffit que B soit dans l’espace
engendré par (A1 , ..., Ar ) (colonnes de la matrice modifiée).
iii. On résout le système principal de Cramer.
On fera des exemples dans les exercices.
Chapitre 15
Feuille Td 5
A : Diagonalisation
Exercice 1
Calculer les polynomes caractéristique et minimal des endomorphismes
représentées par les matrices qui suivent. Calculer les vecteurs propres et
sous espaces propres quand cela est possible. Donner la matrice de passage
P telle que D = P −1 AP où D est diagonale (quand cela est possible.


−4 0
ii.  0 1
5 1
iii.
1

0
i.
−2

−2
0 
3
2
1
−5 −2

0 2
1 3 
2 0
K=RouC
Exercice 2
Soit
A=
i. Diagonaliser A.
ii. Calculer Ak
133
1 −1
2 4
134
Calcul matriciel
Exercice 3
Soit le système
dx
=x
dt
dy
= 2x
dt
−y
+ 4y
i. Ecrire le système sous forme matricielle.
ii. Diagonaliser la matrice trouvée en 1).
iii. Résoudre le système.
B :Résolutions de système linéaire par les déterminants
Exercice 4
Soit le système

 2x − 5y + 2z = 7
x + 2y − 4z = 3

3x − 4y − 6z = 5
i. Montrer que c’est un système de Cramer.
ii. Le résoudre grace aux formules de Cramer
Exercice 5
Eventuellement résoudre le système suivant :

x−y−z =1



2x + 2y − 3z = 0
x + 2y − z = 0



4x + 3y − 5z = 1
Téléchargement