Telechargé par zakaria ber

cours algebre 2 s2

publicité
Cours Algèbre
Mhamed ELHODAIBI
17 février 2020
2
Table des matières
1 Espaces vectoriels
1.1
Espaces vectoriels . . . . . . . . . . . . . . . . . .
1.1.1 Espaces vectoriels . . . . . . . . . . . . . .
1.1.2 Sous-espace vectoriel . . . . . . . . . . . . .
1.1.3 Familles libres, famille génératrices et bases
1.2 Applications linéaires . . . . . . . . . . . . . . . . .
1.2.1 Applications linéaires . . . . . . . . . . . .
1.2.2 Rang d'une application linéaire . . . . . . .
2 Matrices
2.1
Matrices . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Matrices . . . . . . . . . . . . . . . . . . .
2.1.2 Opérations sur les matrices de même type .
2.1.3 Matrice d'une application linéaire . . . . . .
2.2 Produit de matrices . . . . . . . . . . . . . . . . .
2.2.1 Produit de matrices . . . . . . . . . . . . .
2.2.2 Transposée d'une matrice . . . . . . . . . .
2.2.3 Matrices inversibles et changement de bases
3
Déterminants
3.1 Déterminants . . . . . . . . . . . . . . . .
3.1.1 Déterminant d'une matrice carrée .
3.1.2 Déterminant d'un endomorphisme :
3.1.3 Calcul de déterminants . . . . . .
3.1.4 Applications . . . . . . . . . . . . .
4 Systèmes linéaires
4.1 Systèmes linéaires . . . . .
4.1.1 Système linéaire . .
4.1.2 Système de Cramer
4.2 Système quelconque . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
. 5
. 5
. 7
. 9
. 12
. 12
. 13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
16
17
18
18
20
21
25
25
25
27
27
29
33
33
33
34
35
5
Diagonalisation de matrices
5.1 valeurs et vecteurs propres . . . .
5.2 Diagonalisation . . . . . . . . . .
5.2.1 Polynôme caractéristique
5.2.2 Diagonalisation . . . . . .
.
.
.
.
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
38
38
40
Chapitre 1
Espaces vectoriels
1.1
Espaces vectoriels
1.1.1
Espaces vectoriels
Une loi interne sur un ensemble E est une application de E × E −→ E . Dans ce cours
elle sera notée (+), appelée l'addition.
Une loi externe du corps R sur un ensemble E est une application R × E −→ E . Dans
ce cours elle sera notée (.), appelée la multiplication extérieure.
Un espace vectoriel sur R est un ensemble E muni d'une loi interne + et d'une loi
externe . tels que :
1. Associativité : (∀(x, y, z) ∈ E 3 ) , x + (y + z) = (x + y) + z .
2. Commutativité : (∀(x, y) ∈ E 2 ), x + y = y + x.
3. Élément neutre, noté 0E : (∀x ∈ E) x + 0E = x.
4. Symétrique : (∀x ∈ E), (∃y ∈ E) tel que x + y = 0. (y est unique, on écrit y = −x)
5. (∀x ∈ E) 1.x = x.
6. (∀x ∈ E) (∀(α, β) ∈ R2 ) α.(β.x) = (α β).x.
7. (∀x ∈ E) (∀(α, β) ∈ R2 ) (α + β).x = α.x + β.x.
8. (∀(x, y) ∈ E 2 ) (∀α ∈ R) α.(x + y) = α.x + α.y .
Comme, on étudiera seulement les espaces vectoriels sur R, on dira seulement espace
vectoriel au lieu d'espace vectoriel sur R. Le choix de l'addition sera naturel, ainsi que
celui de la loi externe.
Le premier exemple est l'ensemble R, muni naturellement de + (est la loi
interne) et × ( est la loi externe).
Exemple 1.2 E = R , où n est un entier naturel strictement positif. Un élément de R
s'écrit (x , . . . , x ) ou (y , . . . , y ) ou (x , . . . , x )... L'addition :
Exemple 1.1
n
1
n
n
1
n
0
1
0
n
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
5
La multiplication externe est :
α.(x1 , . . . , xn ) = (α x1 , . . . , α xn )
Exemple 1.3 E = Rn [X] l'ensemble des polynômes de degrés inférieurs ou égal à n (le
polynôme nul compris). P ∈ E, sécrit :
P = a0 + a1 X + · · · + an X n
Si on écrit Q = b
0
+ b1 X + · · · + bn X n
, alors l'addition est dénie par :
P + Q = (a0 + b0 ) + (a1 + b1 ) X + · · · + (an + bn ) X n
Par exemple :
(1 + X − X 2 ) + (2 − X + 3X 2 ) = 3 + 2X 2
La multiplication extérieure sur E est dénie par :
α.P = (α a0 ) + (α a1 ) X + · · · + (α an ) X n
Par exemple :
3.(1 − X + 2X 2 ) = 3 − 3X + 6X 2
Soit E = F(X, R) l'ensemble des applications d'un ensemble X vers l'ensemble R. Soient f et g dans F(X, R) alors l'application f + g est dénie par :
Exemple 1.4
(∀x ∈ X)
et λ.f par :
((f + g)(x) = f (x) + g(x))
(∀x ∈ X)
Par exemple si X = R, f (x) = e
x
+1
((λ.f )(x) = λ f (x))
et g(x) = 2xe alors :
x
(f + g)(x) = (2x + 1) ex + 1
et :
(3.f )(x) = 3 ex + 3
alors (E, +, .) est un espace vectoriel.
Exemple 1.5 L'ensemble c des suites de nombres reels,( une suite sera notée (u )...),
On a :
n
et
(un ) + (vn ) = (un + vn )
λ.(un ) = (λ un )
Alors (c, +, .) est un espace vectoriel.
6
Soit (E, +, .) un espace vectoriel, alors pour tout (x, y) ∈ E et (α, β) ∈
:
1. α.(x − y) = α.x − α.y,
2. (α − β).x = α.x − β.x,
3. (−1).x = −x,
4. (−α).x = α.(−x) = −(α.x),
5. α.x = 0 si et seulement si α = 0 ou x = 0 .
Proposition 1.1
R2
2
E
E
On va dénir le produit d'espaces vectoriels.
Soient (E , . . . , E ) n espaces vectoriels, alors l'ensemble E = E
· · · × E , muni des deux lois suivantes :
Proposition 1.2
1
n
1
×
n
(∀((x1 , . . . , xn ), (y1 , . . . , yn )) ∈ (E1 ×· · ·×En )2 )
(x1 , . . . , xn )+(y1 , . . . , yn ) = (x1 +y1 , . . . , xn +yn )
et
(∀α ∈ R)
(∀(x1 , . . . , xn ) ∈ E1 × · · · × En )
α.(x1 , . . . , xn ) = (α.x1 , . . . , α.xn )
est un espace vectoriel, appelé espace produit.
Exemple 1.6 E = R = R × · · · × R, n fois.
n
1.1.2
Sous-espace vectoriel
Soient E un espace vectoriel et F une partie non vide de E alors F est un sous-espace
vectoriel de E si et seulement si F est un espace vectoriel pour la structure induite, i.e
l'addition est une loi interne sur F et . est une loi externe sur F et (F, +, .) est un espace
vectoriel.
Proposition 1.3
ment si :
1. F 6= ∅,
2. (∀(α, β) ∈ R )
2
un sous-ensemble F de E est un sous-espace vectoriel de E si et seule(∀(x, y) ∈ F 2 )
:
α.x + β.y ∈ F
cette proposition est équivalente à :
Proposition 1.4 un sous-ensemble F de E est un sous-espace vectoriel de E si et seulement si :
1. F 6= ∅,
2. (∀(x, y) ∈ F ) (x + y ∈ F ),
3.∀α ∈ R) (∀x ∈ F ) (α.x ∈ F ).
2
7
Les sous-espaces triviaux de E sont E lui même et {0 }.
Exemple 1.8 Si R[X] est l'ensemble des polynômes alors R[X] est un sous-espace vectoriel de F(R, R) et R [X] est un sous-espace vectoriel de R[X].
Exemple 1.9 Soit E = R , on pose :
Exemple 1.7
E
n
3
V = {(x, y, z) ∈ E/ x − 2y + 3z = 0}
On a (0, 0, 0) ∈ V , car 0 − 2 × 0 + 3 × 0 = 0, d'où V est non vide.
Soit u = (x, y, z) ∈ V et v = (x , y , z ) ∈ V alors x − 2y + 3z = 0 et x − 2y + 3z = 0.
Pour (α, β) ∈ R , on a :
0
0
0
0
0
0
2
α.u + β.v = (α x + β x0 , α y + β y 0 , α z + β z 0 ) = (x”, y”, z”)
et on a :
x” − 2y” + 3z” = α (x − 2y + 3z) + β (x − 2y + 3z ) = 0
Ainsi α.u + β.v ∈ V et V est un sous-espace vectoriel de E. Par contre, si :
0
0
0
V 0 = {(x, y, z) ∈ E/ x − 2y + 3z = 1}
alors (0, 0, 0) 6∈ V , d'où V n'est pas un sous-espace vectoriel de E.
0
0
Comme contre exemple, on considère aussi E = R2 [X] et :
V = {P = a + b2 X + c X 2 ∈ E/ (a, b, c) ∈ E}
Alors P = 1 + X + X 2 ∈ V et −P = −1 − X − X 2 6∈ V , car b2 = −1 n'a pas de solution
dans R. Ainsi V n'est pas un sous-espace vectoriel de E .
Proposition 1.5 Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de E
alors F ∩ G est un sous-espace vectoriel de E.
La preuve n'est pas dicile. 0E ∈ F et 0E ∈ G, d'où 0E ∈ F ∩ G et F ∩ G est non vide.
(∀(α, β) ∈ R2 ) (∀(x, y) ∈ (F ∩ G)2 ), on a :
α.x + β.y ∈ F
α.x + β.y ∈ G
d'où,(∀(α, β) ∈ R2 ) (∀(x, y) ∈ (F ∩ G)2 ) :
α.x + β.y ∈ F ∩ G
et F ∩ G est un sous-espace vectoriel de E . De même si (F1 , . . . , Fp ) est une famille de
sous-espaces vectoriels de E alors F1 ∩ · · · ∩ Fp est un sous-espace vectoriel de E .
Pour nir ce paragraphe, on dénit aussi la somme de deux sous-espaces vectoriels de
E , voir même plusieurs.
8
Soient E un espace vectoriel, F et G deux sous-espaces vectoriels de
E , on pose :
F + G = {x + y ∈ E/ x ∈ F et y ∈ G}
alors F + G est un sous-espace vectoriel de E
Proposition 1.6
La preuve n'est pas dicile. 0E ∈ F et 0E ∈ G, d'où 0E = 0E + 0E ∈ F + G et F + G est
non vide.
On a (∀(α, β) ∈ R2 ) (∀(x, x0 ) ∈ F 2 ) et ∀(y, y 0 ) ∈ G2 ) :
α.(x + y) + β.(x0 + y 0 ) = (α.x + β.x0 ) + (α.y + β.y 0 ) ∈ F + G
d'où F + G est un sous-espace vectoriel de E .
Si F ∩ G = {0} alors on a une somme directe et on écrit F + G = F ⊕ G.
1.1.3
Familles libres, famille génératrices et bases
Familles libres :
Un élément d'un espace vectoriel E est appelé vecteur ( (1, 2, 3) est un vecteur de R3
et X 4 est un vecteur de R4 [X] ou de R5 [X] ou de R[X] ou de F(X, R).)
Une famille de vecteurs d'un espace vectoriel E est la donnée d'un nombre p de vecteurs
(u1 , u2 , . . . , up ) de E , où p est un entier naturel non nul.
Soient u = (1, 2, 3), v = ( , , ) et w = (0, 0, 1) alors (u, v, w) est une
famille de E = R .
Exemple 1.11 P = 1, P = 1 + X et P = 1 − X + 3X est une famille de vecteurs de
R [X] ou de R [X],... ou de R[X]...
Exemple 1.10
1 5 π
3 7 6
3
1
2
2
2
3
3
Si on considère une famille de vecteurs (u1 , u2 , . . . , up ), une combinaison linéaire de ces
vecteurs est un vecteur x ∈ E qui s'écrit :
x = α1 u1 + · · · + αp up
où (α1 , . . . , αp ) ∈ Rp . Le sous-espace engendré par la famille (u1 , u2 , . . . , up ) est l'ensemble de toutes les combinaisons linéaires de ces vecteurs. Ce sous-espace est noté
< u1 , u2 , . . . , up >, on a :
< u1 , u2 , . . . , up >= {α1 u1 + · · · + αp up ∈ E/ (α1 , . . . , αp ) ∈ Rp }
Une famille (u , . . . , u ) de vecteurs de E est dite famille libre (ou vecteurs linéairement indépendants) si et seulement si :
Dénition 1.1
1
p
α1 u1 + · · · + αp up = 0E ⇒ α1 = . . . = αp = 0
c'est à dire que 0 s'écrit d'une manière unique.
E
9
Toute famille qui n'est pas libre est dite famille liée(ou vecteurs linéairement dépendants).
Exemple 1.12
Soient E = R , u = (1, 2, 3), v = (1, 0, −1) et w = (3, 2, 0). On écrit :
3
α.u + β.v + γ.w = (0, 0, 0)
d'où le système :

 α + β + 3γ = 0
2α + 2γ = 0

3α − β
= 0
Par élémination de α dans les équations (2) et (3), on obtient le système :

 α + β + 3γ = 0
−2β − 4γ = 0

−4β − 9γ = 0
Par élémination de β dans l équation (3), on obtient le système :

 α + β + 3γ = 0
β + 2γ
= 0

−γ
= 0
d'où γ = 0, puis β = 0 et α = 0. Ainsi la famille (u, v, w) est une famille libre. Mais si
on prend u = u, v = v et w = (3, 2, 1) alors par éléminations successives, on obtient le
système nal :

0
0
0
 α + β + 3γ = 0
β + 2γ
= 0

0
= 0
Ainsi, on choisit γ = 1, β = −2 et α = −1 et la famille (u , v , w ) n'est pas libre.
0
0
0
Familles génératrices et bases :
Dénition 1.2 Une famille (u1 , u2 , . . . , up ) de vecteurs de E
est dite famille génératrice
si et seulement si tout vecteur x ∈ E est combinaison linéaire de la famille de vecteurs
(u , u , . . . , u ), i.e il existe (α , . . . , α ) ∈ R tel que :
1
2
p
1
p
p
x = α1 u1 + · · · + αp up
Ce qui est équivalent à dire que le sous-espace engendré par la famille (u1 , . . . , up ) est E ,
i.e :
< u1 , . . . , up >= E
Une famille (u , . . . , u ) de vecteurs de E est dite une base de E si et
seulement si la famille (u , . . . , u ) est à la fois libre et génératrice.
Dénition 1.3
1
1
n
n
Dans ce cas pour tout x ∈ E , il existe un unique n-uplet (α1 , . . . , αn ) ∈ Rn tel que :
x = α1 u1 + · · · + αn un
10
Si une famille de vecteurs (u , . . . , u ) de E est une base de E alors
toute base de E a n éléments. Le nombre n est appelé la dimension de E, on écrit :
Proposition 1.7
1
n
dim E = n
Ainsi toute famille qui n'a pas n éléments n'est pas une base.
Pour les exemples, on commence par les bases canoniques.
1. E = R , la base canonique est e = (0, . . . , 0, 1, 0, . . . , 0) pour i ∈
{2, . . . , n − 1} (1 sur le rang i), e = (1, 0, . . . , 0) et e = (0, . . . , 0, 1).
2. E = R [X] alors la base canonique est (1, X, . . . , X ).
Exemple 1.13
n
i
1
n
n
n
Ainsi dim Rn = n et dim Rn [X] = n + 1. Ainsi on construit une autre base de Rn [X],
comme suit (P0 , . . . , Pn ) telle que do Pk = k. Par exemple (3, 1 + X, 1 + 3X − 4X 2 ) est une
base de R2 [X].
En général, on dénit le rang d'une famille (u1 , . . . , up ), par :
rg(u1 , . . . , up ) = dim < u1 , . . . , up >
on verra le rang d'une matrice.
Soit E un espace vectoriel de dimension n alors la famille (u , . . . , u )
est une base de E si et seulement si c'est une famille libre si et seulement si c'est une
famille génératrice.
Proposition 1.8
1
n
Pour nir ce paraghraphe, on va énoncer le théorème de la base incomplète.
Soit E un espace vectoriel de dimension n, si (u , . . . , u ) est une famille
libre alors p ≤ n et si p < n alors il existe des vecteurs (u , . . . , u ) tels que (u , . . . , u )
est une base de E.
Théorème 1.1
1
p+1
p
n
1
n
Ainsi toute famille de n + 1 vecteurs et plus est une famille liée. Pour compléter une
famille libre, on doit connaître une base, comme la base canonique et rajouter un vecteur
de cette base. Si la nouvelle famille de p + 1 vecteurs est libre, alors on garde le vecteur
qu'on a ajouté et on rajoute un deuxième. Ainsi à chaque fois qu'on rajoute un vecteur
de la base à la famille qu'on a élargi, si la nouvelle famille est libre on le garde, sinon on
l'enléve jusqu'à obtenir n vecteurs linéairement indépendants.
Soient E = R , u = (1, 0, 1, 1) et u = (1, 1, 1, 1) alors (u , u ) est une
famille libre. On a (u , u , e ) est une famille libre, mais (u , u , e , e ) est une famille liée
car e = −u + u . La famille (u , u , e , e ) est libre, ainsi c'est une base de E.
Exemple 1.14
4
1
2
1
2
1
2
1
2
1
1
1
2
1
3
On verra d'autres méthodes.
11
2
1
2
2
1.2
Applications linéaires
1.2.1
Applications linéaires
Il est util de dénir l'application qui preserve la structure d'espace vectoriel.
Soient E et F deux espaces vectoriels et f : E −→ F une application. On
dit que f est une application linéaire si et seulement si pour tout (x, y) ∈ E et α ∈ R :
f (x + y) = f (x) + f (y) et f (α.x) = α.f (x)
Dénition 1.4
2
On note L(E, F ) l'ensemble des applications linéaires de E dans F , appelé l'ensemble des
homomorphismes et si E = F on le note seulement L(E) et est appelé l'ensemble des
endomorphismes.
1. L'application x −→ o est l'application linéaire nulle.
2. Si f : E −→ F est linéaire alors f (0 ) = 0 , f (−x) = −f (x) et f (α.x + β.y) =
α.f (x) + β.f (y) pour tout (x, y) ∈ E et (α, β) ∈ R .
3. On dénit les applications linéaires f + g et λ.f , pour (f, g) ∈ (L(E, F )) par :
(∀x ∈ E)
(f + g)(x) = f (x) + g(x) et (λ.f )(x) = λ.f (x)
Alors (L(E, F ), +, .) est un espace vectoriel.
Exemple 1.15 Soit l'application :
Remarque 1.1
F
E
F
2
2
2
f : R3
−→ R2
(x, y, z) −→ (x + 2y − z, y − z)
alors f est linéaire.
Exemple 1.16 Sur E = R [X], on dénit l'endomorphisme :
n
f (P ) = P 0
où P est la dérivée de P . On a P = 0 ou d P = d P − 1 ≤ n.
Exemple 1.17 Si E = E × E est un espace produit alors on dénit la projection p
par :
0
0
1
de même pour p , par :
o
0
o
2
p1 : E1 × E2 −→ E1
(x1 , x2 ) −→ x1
2
p2 : E1 × E2 −→ E2
(x1 , x2 ) −→ x2
alors p et p sont des homomorphismes.
1
2
12
1
Si f : E −→ F est une application linéaire alors, on dénit le noyau de f par :
Ker(f ) = {x ∈ E/ f (x) = 0F }
et l'image de f par :
Im(f ) = f (E) = {f (x) ∈ F/ x ∈ E}
Soient E, F deux espaces vectoriels et f ∈ L(E, F ) alors :
Ker(f ) est un sous-espace vectoriel de E.
Im(f ) est un sous-espace vectoriel de F .
f est injective si et seulement si Ker(f ) = {0 } et f est surjective si et seulement
si Im(f ) = F .
Proposition 1.9
E
Si f ∈ L(E, F ) est bijective alors on dit que f est un isomorphisme et tout endomorphisme
bijectif est appelé automorphisme.
Soient E, F et G trois espaces vectoriels alors :
si f ∈ L(E, F ) et g ∈ L(F, G) alors gof ∈ L(E, G).
si f ∈ L(E, F ) est un isomorphisme alors f ∈ L(F, E) et est un isomorphisme,
avec f est l'application inverse de f .
Proposition 1.10
−1
−1
1.2.2
Rang d'une application linéaire
Si f ∈ L(E, F ) est une application linéaire alors le rang de f , noté rg(f ) est par
dénition :
rg(f ) = dim(Im(f ))
Soient E et F deux espaces vectoriels et f ∈ L(E, F ). Si (e , . . . , e )
est une base de E alors :
Proposition 1.11
1
n
Im(f ) =< f (e1 ), . . . , f (en ) >
réciproquement f est bien déterminée par la donnée de la famille (f (e ), . . . , f (e )).
1
n
La preuve est evidente. Si x = α1 e1 + · · · + αn en alors :
f (x) = α1 f (e1 ) + · · · + αn f (en )
Théorème 1.2 (Théorème du rang)
. Si dim E = n alors :
L(E, F )
Soient E et F deux espaces vectoriels et f ∈
dim(Ker(f )) + rg(f ) = n
Comme corollaire, on a le résultat suivant.
Soient E et F deux espaces vectoriels et f ∈ L(E, F ). Si dim E =
alors f est un isomorphisme si et seulement si f est injective si et seulement si est surjective.
Corollaire 1.1
dim F = n
f
13
Comme exemple :
f (x, y, z) = (x − y, x − z)
Calculer le rang de f . On a E = R3 , d'où dim E = 3. Cherchons Ker(f )
Ker(f ) = {(x, y, z) ∈ E/ x − y = x − z = 0}
d'où (x, y, z) = (x, x, x) = x.(1, 1, 1), Ainsi :
Ker(f ) =< (1, 1, 1) >
d'où dim Ker(f ) = 1, d'où :
rg(f ) = 3 − 1 = 2
14
Chapitre 2
Matrices
2.1
2.1.1
Matrices
Matrices
Pour dénir une matrice, on a besoin de deux entiers n et m, où n est le nombre de
lignes et m le nombre de colonnes. Sur chaque ligne, on a m nombres reels (ou complexes).
Ainsi une matrice M à n lignes et m colonnes s'écrit :

a11 . . . a1m
.. . .
. .

M =

.. 
1≤i≤n
.  = (aij )1≤j≤m
an1 . . . anm
Par exemple la première ligne est (a11 a12 . . . a1m ) et le nombre aij est sur la iime -ligne et
la j ime -colonne. On dit aussi que la matrice A est de type (n, m).
L'ensemble de ces matrices sera noté Mn,m (R) et si n = m, on écrit Mn,n (R) = Mn (R).
Matrices particulières :
1. Matrice ligne :(a1 . . . am )
2. Matrice colonne :


a1
 .. 
 . 
an
3. Matrice diagonale A ∈ Mn (R) telle que aij = 0 pour i 6= j , i.e :


0
0 
. . . .. 
. 
 = Diag(a1 , . . . , an )

...
0 
. . . 0 an
a1 0 . . .
 0 a2 0
 .
.

A =  .. 0 . .
 . . .
..
 .. ..
0
0
...
...
15
4. Matrice triangulaire supérieure A ∈ Mn (R) telle que aij = 0 pour i > j , i.e :

a11 a12 . . . a1n
 0 a22 . . . a2n

A =  .. . . . .
.
 .
.
. ..
0 . . . 0 ann





5. Matrice triangulaire inférieure A ∈ Mn (R) telle que aij = 0 pour i < j , i.e :



A=

a11
0
a21 a22
..
.
..
.
an1 an2
...
0

.. 
. 
...
...

0 
. . . ann
6. Matrice nulle aij = 0 pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , m}.
7. Matrice identité, c'est la matrice diagonale telle que a1 = a2 = . . . = an = 1.
2.1.2
Opérations sur les matrices de même type
On commence par les opérations sur Mn,m (R). Si A = (aij ) 1≤i≤n , B == (bij ) 1≤i≤n
1≤j≤m
1≤j≤m
et λ ∈ R, alors on dénit A + B et λ A par :
et λ A = (λ aij ) 1≤i≤n
A + B = (aij + bij ) 1≤i≤n
1≤j≤m
1≤j≤m
L'ensemble M (R) munit de l'addition et la multiplication extérieure
est un espace vectoriel de dimension n m.
Proposition 2.1
n,m
Preuve : On dénit pour (k, l) ∈ {1, . . . , n} × {1, . . . , m}, la matrice élémentaire Ekl =
(ekl
ij ) 1≤i≤n avec :
1≤j≤m
k l
ekl
ij = δi δj
où δij = 0 si i 6= j et 1 si i = j (Ce qu'on appelle symbole de Kronecker). C'est à dire que
kl
les ekl
ij sont tous nuls sauf ekl = 1. Ainsi :
A = (aij ) 1≤i≤n =
1≤j≤m
n X
m
X
aij Eij
i=1 j=1
et (Eij ) 1≤i≤n est la base canonique de Mn,m (R).
1≤j≤m
Exemple 2.1
Pour n = 2, m = 3, A =
A+B =
3 4 0
6 1 5
1 2 −3
1 0 4
et
2 2 3
B=
5 1 1
5 10 −15
t 5A =
5 0 20
e
16
on a :
2.1.3
Matrice d'une application linéaire
Soient E et F deux espaces vectoriels de dimension respectivement m et n. On munit
E de la base B = (e1 , . . . , em ) et F de la base B 0 = (e01 , . . . , e0n ). Soit f ∈ L(E, F ), on a :
f (ej ) = a1j e01 + · · · + aij e0i + · · · + anj e0n
On associe à f la matrice !
M (f, B, B 0 ) = (aij ) 1≤i≤n
1≤j≤m
0
Pour B et B deux bases xes, la matrice M (f, B, B ) est unique et si A ∈ Mn,m (R), alors
il existe une unique application linéaire g ∈ L(E, F ) telle que A = M (g, B, B 0 ). Donnons
un exemple. Soient E = R3 muni de sa base canonique et de même pour F = R2 .
Considèrons l'application : f (x, y, z) = (2x + 3y − z, 2y + z), on a :
0
f (e1 ) = f ((1, 0, 0)) = (2, 0) = 2.f1 + 0.f2
ainsi a11 = 2 et a21 = 0. et :
0
M (f, B, B ) =
2 3 −1
0 2 1
Si E = F et B 0 = B , on écrit M (f, B) au lieu de M (f, B, B). M (f, B) est la matrice
associée à f dans la base B . Si, on prend f = idE et B une base de E alors M (idE , B) =
In = Diag(1, . . . , 1).
Dans cet exemple, on considère une application linéaire f ∈ L(E, F ) et
on munit E des bases B et B et F des bases B et B alors les matrices M (f, B, B ) et
M (f, B , B ) ne sont pas identiques. Si on considère f (x, y, z) = (2x + 3y − z, 2y + z) et
B = (u , u , u ), avec u = (1, 0, 1), u = (0, 1, 1) et u = (1, 1, 1) alors :
Exemple 2.2
0
1
1
1
1
0
1
2
3
1
2
0
M (f, B1 , B ) =
0
1
= (f2 , f1 )
3
f (u1 ) = (5, 0) f (u2 ) = (2, 3) f (u3 ) = (4, 3)
alors :
Si B
0
0
1
alors :
5 2 4
0 3 3
M (f, B1 , B10 )
=
6= M (f, B, B 0 )
0 3 3
5 2 4
En conclusion, si on eectue un changement de base dans E ou dans F ou dans les deux
alors on obtient une nouvelle matrice. Contrairement, une matrice peut présenter deux
applications linéaires dans des bases diérentes.
Soient E et F deux espaces vectoriels sur R de dimension respectivement m et n. Si B est une base de E et B une base de F alors l'application :
Proposition 2.2
0
M : L(E, F ) −→
Mn,m
f
−→ M (f, B, B 0 )
est un isomorphisme d'espaces vectoriel. En particulier dim(L(E, F )) = n m
17
Preuve : Il est evident que :
M (α.f + β.g, B, B 0 ) = α.M (f, B, B 0 ) + β.M (g, B, B 0 )
d'où M est linéaire et elle est bijective. Ainsi M est un isomorphisme d'espaces vectoriels.
2.2
2.2.1
Produit de matrices
Produit de matrices
Avant de parler du produit de deux matrices, on va rappeler la composée de deux
applications linéaires. Soient E , F et G trois espaces vectoriels de dimension respectives
m, p et n. Considèrons B , B 0 et B” trois bases respectives de E , F et G. Soit
B = M (f, B, B 0 ),
A = M (g, B 0 , B”) et C = M (gof, B, B”)
Alors C est appelée la matrice produit de A par B, on écrit C = AB. Si :
et B = (bkj ) 1≤k≤p
A = (aik ) 1≤i≤n
1≤k≤p
1≤j≤m
Si B = (e1 , . . . , em ), B 0 = (e01 , . . . , e0p ) et B” = (e”1 , . . . , e”n ), alors :
f (ej ) =
p
X
bkj e0k
k=1
et
g(e0k )
n
X
=
aik e”i
i=1
Ainsi :
gof (ej ) = g(f (ej )) =
p
X
bkj g(e0k ) =
k=1
p
X
bkj
n
X
i=1
k=1
aik e”i =
p
n X
X
(
bkj aik )e”i
i=1 k=1
Si :
C = (cij ) 1≤i≤n
1≤j≤m
alors :
cij =
p
X
aik bkj
k=1
une matrice de type (n, p) sera multipliée par une matrice de type (p, m)
et le produit est une matrice de type (n, m). Comme exemple une matrice de type (1, n)
(uniligne) multipliée par une matrice (n, 1) unicolonne donne une matrice (1, 1) :


b


(a . . . a )  ..  = (a b + · · · + a b )
Remarque 2.1
1
1
n
1 1
bn
18
n n
et on a :



..
b1




 (a1 . . . an ) = 
bn
une autre remarque.
Remarque 2.2 m = n = p,
BA
.. .. .. ..
b1 a1 . . . b1 an
et A .
n



bn a1 . . . bn an
c'est à dire (A, B)
2
. Alors, on peut dénir AB,
∈ Mn (R)
Sur M (R), la multiplication est associative, distributive à gauche
et à droite par rapport à l'addition et I est l'élément neutre de la multiplication, i.e
∀(A, B, C) ∈ M (R) :
1. (AB)C = A(BC).
2. A(B + C) = AB + AC.
3. (A + B)C = AC + BC.
4. I A = A I = A.
Preuve : Pour les applications linéaires, on a :
1. ho(gof ) = (hog)of .
2. ho(f + g) = hof + hog et (h + g)of = hof + gof .
3. f oid = id of = f .
Remarque 2.3 1. Le produit n'est pas commutatif, en eet :
0 1
1 1
0 1
1 1
0 1
1 1
=
et 1 0 0 1 = 1 1
0 1
1 0
1 0
2. L'èquation AX = 0 n'implique pas dans M (R) que A = 0 ou X = 0. En eet :
Proposition 2.3
n
n
3
n
n
n
E
E
n
1 −1
−1 1
3 4
3 4
=
0 0
0 0
On a associé à f ∈ L(E, F ) la matrice A = M (f, B, B 0 ), où B = (e1 , . . . , em ) et B 0 =
(e01 , . . . , e0n ) sont respectivement des bases de E et F . On a pour tout (x, y) ∈ E × F :
x = x1 e1 + · · · + xm em
On pose :

x1
et y = y1 e01 + · · · + yn e0n



X =  ... 
xm

y1

. 
et Y = 
 .. 
yn
19
Soient E et F deux espaces vectoriels de dimension respectivement m
et n. Considèrons f ∈ L(E, F ) de matrice A = M (f, B, B ) = (a ) , où B =
(e , . . . , e ) et B = (e , . . . , e ) sont respectivement des bases de E et F , alors y = f (x)
s'écrit matriciellement :
Y = AX
Plus précisement :
X
Proposition 2.4
1
m
0
0
0
n
0
1
ij 1≤i≤n
1≤j≤m
m
yi =
aij xj
j=1
Par exemple si :
A=
2 1 1
1 2 1
alors Y = AX s'écrit :
y1
y2
=
ou
2 1 1
1 2 1


x1
 x2  = 2x1 + x2 + x3
x1 + 2x2 + x3
x3
y1 = 2x1 + x2 + x3
y2 = x1 + 2x2 + x3
 
0
 .. 
Ainsi x ∈ Ker(f ) si et seulement si AX =  .  i.e X ∈ Ker(A). On déduit aussi que :
0
dim Ker(A) + rg(A) = n
où rg(A), le rang de A est le rang des vecteurs colonnes de cette matrice. Evidement
Ker(A) = Ker(f ) et rg(A) = rg(f ).
2.2.2
Transposée d'une matrice
On dénit aussi pour A = (aij ) 1≤i≤n ∈ Mn,m (R), sa transposée t A ∈ Mm,n (R) par :
1≤j≤m
t
A == (aji )1≤i≤m
1≤j≤n
ceci nous permet de dénir pour f ∈ L(E, F ) l'application t f ∈ L(F, E). Si A =
M (f, B, B 0 ) = (aij ) 1≤i≤n , où B = (e1 , . . . , em ) et B 0 = (e01 , . . . , e0n ) sont respectivement
1≤j≤m
des bases de E et F , alors M (t f, B 0 , B) =t A.
Exemple 2.3

2
2 −5 −1 0

−5
t
1 1
0
2 =
 −1
5 6 −9 −13
0


20

1 5
1 6 

0 −9 
2 −13
Sur Mn (R), une matrice A est dite symétrique si t A = A et est dite anti-symétrique si
t
A = −A.
Soit A = (a ) ∈ M (R) alors :
1. A est une matrice de tyne (m, n). Il sut d'échanger les lignes de la matrice A et
dans le même ordre en colonnes de la matrice A ou les colonnes en lignes.
2. ( A) = A.
3. (A + B) = A + B, avec B = (b ) ∈ M (R).
4. (λ A) = λ A, avec λ ∈ R.
5. (AB) = B A, avec B = (b ) ∈ M (R).
6. rg( A) = rg(A).
Proposition 2.6 L'application suivante :
Proposition 2.5
ij 1≤i≤n
1≤j≤m
n,m
t
t
t t
t
t
t
t
ij 1≤i≤n
1≤j≤m
n,m
t
t
t
t
ij 1≤i≤m
1≤j≤p
m,p
t
T : Mn,m (R) −→ Mm,n (R)
t
A
−→
A
est un isomorphisme d'espaces vectoriels.
Preuve : D'après 3 et 4 de la proposition 2.5 T est linéaire. Comme Mn,m (R) et Mm,n (R)
ont la même dimension mn, il sut d'étalir que la transposèe de la matrice nulle est la
matrice nulle, ce qui est le cas, d'où Ker(T ) = {0} et T est injective, i.e isomorphisme.
Soit A ∈ M (R) alors :
1. La matrice A + A est une matrice symétrique.
2. La matrice A − A est une matrice anti-symétrique.
3. La matrice A = M + N avec M matrice symétrique et N matrice anti-symétrique
et on a :
1
1
M = (A + A) et N = (A − A)
2
2
4. les matrices A A et AA sont symétriques.
Proposition 2.7
n
t
t
t
t
2.2.3
t
t
Matrices inversibles et changement de bases
Matrices inversibles
Une matrice A ∈ Mn (R) est dite inversible s'il existe une matrice B ∈ Mn (R) telle
que :
AB = BA = In
On note B = A . Soient f ∈ L(E, F ) et A = M (f, B, B 0 ), où B = (e1 , . . . , em ) et
B 0 = (e01 , . . . , e0n ) sont respectivement des bases de E et F , alors A est inversible si et
seulement si f est un isomorphisme et
−1
M (f −1 , B 0 , B) = A−1
dans ce cas m = dim E = dim F = n.
21
Soit A ∈ M (R), alors on a équivalence :
1. A est inversible.
 
 
0
0
 . 
 . 
2. Si X ∈ M (R) et AX =  .  alors X =  . .
0
0
3. (∀Y ∈ M (R)) (∃X ∈ M (R)) tels que Y = AX .
4. Il existe B ∈ M (R) tel que AB = I (nécessairement B = A ).
5. Il existe C ∈ M (R) tel que CA = I (nécessairement C = A ).
Proposition 2.9 Soient (A, B) ∈ M (R) deux matrices inversibles alors AB est inversible et
(AB) = B A
On a aussi :
Proposition 2.8
n
n,1
n,1
n,1
n
n
n
n
−1
−1
2
n
−1
−1
−1
(t A)−1 =t (A−1 )
Matrices de passage
Pour nir ce chapitre, on va étudier un changement de base, avant tout on va dénir
la matrice de passage. Si E est un espace vectoriel de dimension n et si B = (e1 , . . . , en )
et B 0 = (e01 , . . . , e0n ) sont deux bases de E , on dénit la matrice de passage de B à B 0 par :
PBB 0 = M (idE , B, B 0 ) = (pij ) 1≤i≤n
1≤j≤n
Car, on peut écrire :
e0j
=
n
X
pij ei
i=1
et si on écrit :
ej =
n
X
p0ij e0i
i=1
alors :
−1
PB 0 B = M (idE , B 0 , B) = (p0ij ) 1≤i≤n = PBB
0
1≤j≤n
Exemple 2.4
0
B =
(e01 , e02 , e03 )
Soit E = R , munit de la base canonique B = (e , e , e ) et de la base
telle que e = (1, 0, 1), e = (0, 1, 1) et e = (1, 1, 0), on a :
3
1
0
1
0
2
0
3

PBB 0
Il faut, donc trouver P . On a :

1 0 1
= 0 1 1 
1 1 0
B0B
 e01 = e1 + +e3
e0 =
e2 + e3
 20
e3 =
e1 + e2
22
2
3
On a, par exemple e
2
= e03 − e1
et e
3
= e01 − e1
, ainsi :
e02 = e01 + e03 − 2e1
d'où :

 e1 = 21 e01 − 21 e02 + 12 e03
e2 = − 21 e01 + 12 e02 + 21 e03

e3 = 12 e01 + 21 e02 − 12 e03
d'où, aussi :

PB 0 B = 
1
2
1
−2
1
2
− 12
1
2
1
2
1
2
1
2
− 12


Un autre exemple, où on connait PB0 B et puis on détermine PBB0 .
Exemple 2.5
que :
Soit E = R , munit de deux bases B = (e , e , e ) et B = (e , e , e ) telles
e = e + e + e , e = e + e et e = e
3
1
Alors :
1
0
1
0
2
0
3
0
3
0
3
3
0
1
0
2
0
3
0
3

PB 0 B
On a e
0
2
2
2
0
3
= e3
,d'où e
0
2
= e2 − e3
et e

1 0 0
= 1 1 0 
1 1 1
et
0
1
= e1 − e2


1
0 0
1 0 
PBB 0 =  −1
0 −1 1
Changement de bases
Soient f ∈ L(E, F ) et A = M (f, B1 , B10 ), où B1 et B10 sont respectivement des bases
de E et F . Soit aussi B2 et B20 respectivement des bases de E et F et B = M (f, B2 , B20 ).
On pose :
P = M (idE , B1 , B2 ) et Q = M (idF , B10 , B20 )
d'où P signie qu'on écrit B2 dans B1 , i.e P est la matrice de l'endomorphisme :
id
E
(E, B2 ) −→
(E, B1 )
Alors pour les homomorphismes, on a le diagramme commutatif :
f
(E, B1 ) −→
(F, B10 )
idE ↓↑ idE
idF ↓↑ idF
(E, B2 )
f
−→
23
(F, B20 )
ce qui se traduit en matrice par :
A
(E, B1 ) −→ (F, B10 )
P −1 ↓↑ P
Q−1 ↓↑ Q
B
(E, B2 ) −→ (F, B20 )
d'où :
B = Q−1 AP
On dit alors que A et B sont équivalentes.
Si, en particulier E = F , B1 = B10 et B2 = B20 alors :
B = P −1 AP
et on dit alors que A et B sont semblables. Pour l'exemple voir TD.
24
Chapitre 3
Déterminants
3.1
3.1.1
Déterminants
Déterminant d'une matrice carrée
Cette notion se dénit par reccurence. Si A = (a11 ) alors on associe à A le nombre
det(A) = a11
On associe aussi à A ∈ M2 (R), le nombre :
det(A) = a11 a22 − a12 a21 =
a11 a12
a21 a22
Pour la reccurence, on dénit la matrice Ai,j , c'est la matrice associée à A où on enleve
de A la ligne i et la colonne j . Ainsi la matrice Ai,j est une matrice carrée d'ordre n − 1.
Dénition 3.1
rence par :
Pour n ≥ 3, on associe à A ∈ M (R) le déterminant, dénis par reccun
n
X
(−1)1+j a1j det(A1,j )
det(A) =
j=1
Maintenant, on dévellope par rapport à la première ligne. Par exemple, si n = 3 et
A = (aij ) 1≤i≤3 , alors on a :
1≤j≤3
det(A) = a11
a22 a23
a32 a33
− a12
a21 a23
a31 a33
+ a13
a21 a22
a31 a32
Pour la suite, on pose :
Aij = det(Ai,j )
Ce coecient est appelé le mineur de aij et la matrice :
co(A) = ((−1)i+j Aij ) 1≤i≤n
1≤j≤n
est appelée la matrice des co-facteurs de A, ou la comatrice de A.
25
On peut aussi, calculer le déterminant de A, en dévellopant par rapport
ligne ou la j colonne. On a :
Proposition 3.1
à la i
ime
ime
n
P
det(A) =
(−1)k+j akj Akj
k=1
n
P
=
(−1)i+k aik Aik
k=1
L'intêret de cette proposition est de choisir la ligne ou la colonne qui
permet le calcul rapide du déterminant. Il s'ensuit que pour une matrice diagonale A =
diag(a , . . . , a ), on a en devellopant par rapport à la première ligne :
Remarque 3.1
1
n
det(A) = a1 det(A11 )
et par reccurence :
det(A) = a1 · · · an
Pour une matrice triangulaire supérieure, on dévellope par rapport à la première colonne.
On obtient par reccurence :
det(A) = a11 · · · ann
et pour une matrice triangulaire inférieure, on dévellope par rapport à la première ligne.
On obtient par reccurence :
det(A) = a11 · · · ann
D'où det(I ) = 1.
Exemple 3.1 On considère la matrice :
n


1 2 3
A= 0 1 0 
1 1 1
On a :
det(A) = 1.
1 0
0 0
0 1
−2
+3
1 1
1 1
1 1
= 1 − 0 − 3 = −2
Si on développe par rapport à la deuxième ligne, on a :
det(A) = 1.
Proposition 3.2
1 3
1 1
= 1 − 3 = −2
Soient (A, B) ∈ M (R) , alors on a :
n
2
det(AB) = det(A) det(B)
et
det(t A) = det(A)
26
Corollaire 3.1
Si A ∈ M (R) est une matrice inversible alors :
n
det(A−1 ) =
1
det(A)
Preuve : On a AA−1 = In , d'où :
det(AA−1 ) = det(In ) = 1
ainsi
1 = det(AA−1 ) = det(A) det(A−1 )
d'où le résultat. Aussi si A = M (f, B), où f est un endomorphisme de E de base B . Alors
f est un isomorphisme si et seulement si det(A) 6= 0.
3.1.2
Déterminant d'un endomorphisme :
Deux matrices semblables ont le même déterminant, en eet :
B = P −1 AP
et
det(B) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = det(A)
Ceci, nous permet de dénir pour une base B de E , le déterminant de f par :
det(f ) = det(M (f, B))
car pour deux bases B et B 0 de E , les matrices M (f, B) et M (f, B 0 ) sont semblables.
3.1.3
Calcul de déterminants
Soit E un espace vectoriel de dimension n. Si B = (e1 , . . . , en ) est une base de E alors
pour une famille (x1 , . . . , xn ) de vecteurs de E , on a :
xj =
n
X
aij ei
i=1
On pose :
A = (aij ) 1≤i≤n
1≤j≤n
et on dénit :
det(x1 , . . . , xn ) = det(A)
B
Pour une base B , la matrice associée à la famille (x1 , . . . , xn ) n'est pas semblable à A.
Ainsi ce déterminant dépend de la base choisie.
0
27
Pour le calcul du déterminant d'une matrice carrée A = (aij ) 1≤i≤n , On va écrire A en
1≤j≤n
fonction des vecteurs colonnes ou vecteurs lignes de cette matrice. Ainsi :
A = (C1 · · · Cj · · · Cn )
ou :

L1

.. 
. 



A=



Li 
.. 
. 
Ln
Soit A = (a ) une matrice carrée.
1. Si une ligne ou une colonne est nulle alors det(A) = 0.
2. Si C = C + C” alors :
Proposition 3.3
1
ij 1≤i≤n
1≤j≤n
0
1
1
det(C1 · · · Cj · · · Cn ) = det(C10 · · · Cj · · · Cn ) + det(C”1 · · · Cj · · · Cn )
de même pour toute colonne et toute ligne.
3. Si on remplace C par λC alors :
1
1
det(λC1 · · · Cj · · · Cn ) = λ det(C1 · · · Cj · · · Cn )
de même pour toute colonne et toute ligne.
4. Si C = α C + · · · + α C + · · · + α C alors :
1
2
2
i
i
n
n
det(C1 · · · Cj · · · Cn ) = 0
de même pour toute colonne et toute ligne.
5. si on permute deux lignes ou deux colonnes alors on a, par exemple :
det(C2 C1 · · · Cj · · · Cn ) = − det(C1 · · · Cj · · · Cn )
6. Enn si on rajoute à une colonne, une combinaison linéaire des autres colonnes
ou à une ligne une combinaison linéaire des autres lignes alors le déterminant ne
change pas de valeur.
Exemple 3.2 Calculons :
det(A) =
1
1
1
0
−1 1
0 −1
28
3
2
1
1
4
4
3
3
On remplace L par L
2
2
− L1
et L par L
3
det(A) =
+ L1
3
, on obtient :
1 1
3 4
0 −1 −1 0
0 2
4 7
0 −1 1 3
Dans le déterminant 3, 3, on remplace L par L
2
det(A) =
3.1.4
−1 −1 0
0
2 7
0
2 3
=−
=
2
−1 −1 0
2
4 7
−1 1 3
+ 2L1
2 7
2 3
et L par L
3
3
− L1
, on obtient :
= −(6 − 14) = 8
Applications
Matrices inversibles
On considère A = (aij ) 1≤i≤n une matrice carrée, alors on associe à A la matrice A∗ ,
1≤j≤n
appelée la matrice adjointe de A ;
A∗ = (bij ) 1≤i≤n
1≤j≤n
avec :
bij = (−1)i+j Aji
où Aij est le mineur de aij , coecient de la matrice A.
Proposition 3.4
Soit A ∈ M (R) alors :
n
AA∗ = A∗ A = det(A)In
Ainsi si A n'est pas inversible alors A est un diviseur de 0, car AA∗ = A∗ A = 0.
Corollaire 3.2
Soit A ∈ M (R) une matrice inversible, alors :
n
A−1 =
1
A∗
det(A)
Preuve : Comme A est inversible alors det(A) 6= 0, d'où :
A∗ = A∗ AA−1 = det(A)A−1
d'où l'égalité.
Exemple 3.3
Soit la matrice :

1 2 3
A= 2 4 5 
0 1 1

29
On a :
det(A) = 1.(4 − 5) − 2.(2 − 3) = −1 + 2 = 1
Ainsi A est inversible. Comme :


−1 1 −2
1 
A∗ =  −2 1
2 −1 0
Enn

A−1

−1 1 −2
1
1 
=
A∗ = A∗ =  −2 1
det(A)
2 −1 0
Calcul du rang
Dans cette partie, on verra comment calculer le rang d'une matrice ou d'une famille
de vecteurs. On écrit :

A = (aij ) 1≤i≤n
1≤j≤m



= (C1 · · · Cj · · · Cm ) = 


L1

.. 
. 

Li 
.. 
. 
Ln
On a rg(A) = rg(C1 · · · Cj · · · Cm ) = rg((L1 · · · Li · · · Ln ). La méthode du pivot de Gauss
assure que le rang reste le même si on eectue les mêmes opérations de la proposition 3.3,
même à une constante multiplicative (non nulle) près ou échanger deux lignes (resp deux
colonnes) entre elles. On obtient à la n une matrice qu'on sait calculer le rang, cette
matrice s'écrit :
A1 A2
A3 A4
avec A1 une matrice carrée triangulaire supérieure inversible, A2 matrice de type (r, m−r),
A3 matrice nulle de type (n − r, r) et A4 matrice nulle de type (n − r, m − r). Le rang de
A est r.
Avant de parler d'exemples, le rang d'une famille de vecteurs est le rang de la matrice
qu'ils constituent, comme vecteurs colonnes ou comme vecteurs lignes.
Considèrons le système (u , u , u , u , u ) dénis comme les vecteurs colonnnes de la matrice :


Exemple 3.4
1
2
3
4
5
1 −1 1 −1 1
 1 1 −1 −1 −1 


 1 1
1 −1 0 
1 −1 −1 1
2
30
Cette matrice est équivalente à :


1 −1 1 −1 1
 0 2 −2 0 −2 


 0 2
0
0 −1 
0 0 −2 2
1
puis à :


1 −1 1 −1 1
 0 2 −2 0 −2 


 0 0
2
0
1 
0 0 −2 2
1
enn à :


1 −1 1 −1 1
 0 2 −2 0 −2 


 0 0
2
0
1 
0 0
0
2
2
On a :


1 −1 1 −1
 0 2 −2 0 

A1 = 
 0 0
2
0 
0 0
0
2
et le rang est 4.
Exemple 3.5 Considèrons la matrice :


a 2 −1 b
A =  3 0 1 −4 
5 4 −1 2
déterminer selon (a, b) ∈ R le rang de la matrice A. Déjà A est équivalente à la matrice :
2

et équivalente à :

3 0
1
−4
 0 12
−8
26 
0 6 −3 − a 4a + 3b


3 0
1
−4
 0 12

−8
26
0 0 −2 + 2a 26 − 8a − 6b
Si a 6= 1, le rang de A est 3, car :


3 0
1

−8
A1 =  0 12
0 0 −2 + 2a
31
Si a = 1 et b 6= 3 alors rg(A) = 3 car :


3 0
−4
26 
A1 =  0 12
0 0 16 − 6b
Si a = 1 et b = 3, alors rg(A) = 2, car :
A1 =
3 0
0 12
32
Chapitre 4
Systèmes linéaires
4.1
4.1.1
Systèmes linéaires
Système linéaire
Un système linéaire (S) à n équations et m inconnues, s'écrit :

a11 x1 + · · · + a1m xm = b1



..
.. ..


.
. .

ai1 x1 + · · · + aim xm = bi


..
.. ..


.
. .


an1 x1 + · · · + anm xm = bn
On associe á ce systéme les trois matrices :
A = (aij ) 1≤i≤n
1≤j≤m
puis :

x1



X =  ... 
xm

b1

. 
et B = 
 .. 
bn
Ainsi le système (S) s'écrit :
AX = B
Résoudre un système (S) signie, trouver l'ensemble de toutes les solutions de (S). Cet
ensemble, peut être vide, un singleton ou une innité de solutions. Ce système s'écrit :
B = x1 C 1 + · · · + xm C m
avec A = (C1 . . . Cm ).
33
4.1.2
Système de Cramer
Déjà m = n et A est inversible, ainsi les colonnes de la matrice forment une base et il
existe un unique n-uplet (α1 , . . . , αn ) ∈ Rn tel que :
B = α1 C1 + · · · + αj Cj + · · · + αn Cn
d'où la solution du système (S) est (x1 , . . . , xn ) = (α1 , . . . , αn ). Calculons α1 . On a :
det(B, C2 , . . . , Cn ) = det(α1 C1 + · · · + αj Cj + · · · + αn Cn , C2 , . . . , Cn )
n
P
=
αj det(Cj , C2 , . . . , Cn )
j=1
= α1 det(C1 , . . . , Cn )
= α1 det(A)
Ainsi :
x1 =
det(B, C2 , . . . , Cn )
det(A)
Pour obtenir xj on remplace Cj par B , ainsi :
xj =
Exemple 4.1
Soit le système :
det(C1 , . . . , Cj−1 , B, . . . , Cn )
det(A)

 x+y+z = 1
x−y+z = 2

x+y−z = 3
Ce système est-il de Cramer? le résoudre.On a :
∆=
1 1
1
1 −1 1
1 1 −1
=
Donc le système est de Cramer, et
∆1 =
et
1 1
1
2 −1 1
3 1 −1
=
1 1
1
0 −3 −1
0 −2 −4
∆3 =
Ainsi :
1 1
1
0 −2 0
0 0 −2
= 10 ∆2 =
1 1 1
1 −1 2
1 1 3
=
34
1 1 1
1 2 1
1 3 −1
1 1 1
0 −2 1
0 0 2
5 −1
S = {( ,
, −1)}
2 2
=4
= −4
=
1 1 1
0 1 0
0 2 −2
= −2
4.2
Système quelconque
En général, on a 3 cas, le cas d'un système de Cramer, puis deux autres cas, cas où
n 6= m et cas où n = m et le rang du système (S) est strictement inférieur à n.
Ces deux cas se traitent de la même façon. La matrice du système est :
A = (aij ) 1≤i≤n
1≤j≤m
on a aussi A = (C1 . . . Cm ). On dénit la matrice (AB), la matrice où on ajoute à A une
dérnière colonne, c'est la colonne B . D'où :
(AB) = (C1 . . . Cm B)
Théorème 4.1
Le système (S) admet des solutions si et seulement si rg((AB)) = rg(A).
Preuve On a rg((AB)) ≥ rg(A) et rg((AB)) > rg(A) si et seulement si B n'est pas
combinaison linéaire des colonnes (C1 , . . . , Cm ) et par contraposée, on a le résultat.
Maintenant, on va préciser la méthode de résoudre un système et déduire son rang et
l'ensemble des solutions. Théoriquement, de la matrice A, on peut construire des matrices
de type (p, p) où p ≤ min(n, m). On considère r le plus grand des entiers p tel qu'il
existe une matrice de type (p, p) inversible (ou de déterminant non nul.). Ainsi le rang du
système est r. Si par exemple :
Ar = (aij ) 1≤i≤r
1≤j≤r
alors le système va s'écrire :

a11 x1 + · · · + a1r xr



..


.



ar1 x1 + · · · + arr xr
0




..


.


0
= b1 − a1(r+1) xr+1 − · · · − a1m xm
..
.
..
.
= br − ar(r+1) xr+1 − · · · − arm xm
=
b0r+1
..
.
..
.
b0n
=
Si b0r+1 = . . . = b0n = 0 alors pour trouver une solution du système, il sut de déterminer
(x1 , . . . , xr ) en fonction de (xr+1 , . . . , xm ). Sinon, l'ensemble des solutions est vide.
Exemple 4.2
Après résolution, on a :




3x1 + 3x2 − 2x3
− x5
−x1 − x2 + x3 + 3x4 + x5
2x1 + 2x2 − x3 + 2x4 + 2x5



x3 + 8x4 + 4x5

x1 + x2
+ 13x5



x3 + 20x5
x4 − 2x5



0
35
=
=
=
=
=
=
=
=
0
0
0
0
0
0
0
0
On choisit (x , x , x ) comme variables et (x , x ) comme paramétres et :
1
3
4
2
5
S = {(−x2 − 13x5 , x2 , −20x5 , 2x5 , x5 ) ∈ R5 / (x2 , x3 ) ∈ R2 }
Exemple 4.3
Résoudre le système :
On obtient le système :
Ainsi :
Exemple 4.4

x +y
=



+y +z
=
+z +t =



x
+t =
1
2
3
4

x +y



+y +z
+z +t



0
1
2
3
2
=
=
=
=
S=∅
Discuter le système :

 x − y + az = a
x + ay − z = −1

x+y+z = 2
d'où :
d'où aussi :

+az
= a
 x −y
+2y
+(1 − a)z
= −1 − a

+(1 + a)y +(−1 − a)z = −1 − a

= a
 x −y +az
+2y +(1 − a)z
= −1 − a

2
+(−a + 2a + 3)z = −a2 + 3a + 4
Comme l'équation a − 2a − 3 = 0 a pour solutions a = −1 et a = 3 alors, la solution est
unique si a 6= −1 et a 6= 3. Si a = −1, on obtient 0 = 2 et si a = 3, on obtient 0 = 4,
d'où pour a = −1 ou a = 3 , l'ensemble des solutions est vide.
2
36
Chapitre 5
Diagonalisation de matrices
On va changer le corps de base, au lieu de dénir un espace vectoriel sur R, on va
considérer les espaces vectoriels sur C. ( c'est toujours les huit axiomes, sauf on remplace
R par C).
5.1
valeurs et vecteurs propres
Soient E un espace vectoriel sur C et f ∈ L(E) un endomorphisme. On dit que
x ∈ E/{0} est un vecteur propre si et seulement s'il existe λ ∈ C tel que f (x) = λ.x. Ceci
nous ramène à dénir une valeur propre. Un scalaire λ ∈ C est une valeur propre si et
seulement s'il existe x ∈ E/{0} tel que f (x) = λ.x. On note :
Eλ = Ker(f − λ.idE ) = {x ∈ E/ f (x) = λ.x}
Si B = (e1 , . . . , en ) est une base de E et A = M (f, B) = (aij )1≤i,j≤n ( les coecients sont
dans C) alors x = x1 e1 + · · · + xn en est un vecteur propre associé à la valeur propre λ si
et seulement si :
AX = λX
où :

x1



X =  ... 
xn
bien evidement les coecients de x1 à xn sont des nombres complexes. On va donner deux
exemples.
Soit E = R et f (x, y, z) = (x, x + 2y, 3z), il est evident que :
f ((0, 1, 0)) = (0, 2, 0) = 2(0, 1, 0) et f ((0, 0, 1)) = (0, 0, 3) = 3(0, 0, 1)
Ainsi (0, 1, 0) est un vecteur propre associé à la valeur propre 2 et (0, 0, 1) est un vecteur
propre associé à la valeur propre 3.
Exemple 5.1
3
37
Exemple 5.2
Au lieu de considérer unendomorphisme,
on considérera sa matrice :

1 1 −1

2 3 −4 
A=
0 2 −1
Soit :

Alors :
d'où 1 est une valeur propre de A.

1
X= 1 
1
AX = X
Par la suite, on ne considérera que des matrices carrées à coecients complexes.
Soient A une matrice carrée et λ un nombre complexe alors, on a :
1. E est un sous-espace vectoriel.
2. λ est une valeur propre si et seulement si E 6= {0}.
3. Si λ et λ sont deux valeurs propres distinctes et X ∈ M (C) et X ∈ M (C)
deux vecteurs propres non nuls respectivement de λ et λ alors X et X sont
indépendants. De même pour p valeurs propres distinctes.
Proposition 5.1
λ
λ
1
2
1
n,1
1
2
2
1
n,1
2
Comme conséquence, on a le corollaire suivant.
Si (λ , . . . , λ ) sont des valeurs propres distinctes alors E
est une somme directe.
Corollaire 5.1
1
p
λ1
+ · · · + E λp
On verra la conséquence de ce corollaire dans la diagonalisation.
5.2
Diagonalisation
5.2.1
Polynôme caractéristique
Soit A une matrice carrée d'ordre n, on appelle polynôme caractéristique de A, le
polynôme :
PA (λ) = det(A − λIn )
c'est un polynôme de degré n.
Exemple 5.3
Soit :
alors :
PA (λ) =
2−λ
2
2
1
2−λ
0
1
0
2−λ


2 2 2
A= 1 2 0 
1 0 2
= (2 − λ)3 − 2(2 − λ) + 2(−(2 − λ)) = −λ3 + 6λ2 − 8λ
38
Soient A ∈ M (C) et λ ∈ C alors on a équivalence :
1. λ est une valeur propre de A.
2. A − λI n'est pas injectif.
3. P (λ) = 0.
Proposition 5.2
n
n
A
Ainsi pour chercher les valeurs propres de A, il sut de déterminer les racines du polynôme
caractéristique PA .
Dans l'exemple précédent, on a :
PA (λ) = −λ3 + 6λ2 − 8λ = −λ(λ2 − 6λ + 8) = −λ(λ − 2)(λ − 4)
Ainsi les valeurs propres de A sont 0, 2 et 4.
Comme C est un corps clos alors, le polynôme caractéristique PA de A s'écrit :
PA (λ) = (−1)n
p
Y
(λ − λj )mj
j=1
où (λ1 , . . . , λp ) sont les p racines de PA et (m1 , . . . , mp ) sont les multiplicités respectives
de (λ1 , . . . , λp ). Ainsi, les valeurs propres de A sont (λ1 , . . . , λp ). On a :
m1 + · · · + mp = n
Exemple 5.4
Soit :
alors :


2 2 2
A= 1 2 0 
1 0 2
PA (λ) = −λ3 + 6λ2 − 8λ = −λ(λ − 2)(λ − 4)
Ainsi les valeurs propres de A sont 0, 2 et 4. Elles sont toutes de multiplicités 1.
Pour nir ce paragraphe, on énonce le théorème de Cayley-Hamilton. Pour un polynôme
P = a0 + a1 X + · · · + am X m ,on pose :
P (A) = a0 In + a1 A + · · · + am Am
Théorème 5.1
alors on a :
Soit A une matrice carrée d'ordre n et P son polynôme caractéristique
où 0 est la matrice nulle d'ordre n.
A
PA (A) = 0
39
5.2.2
Diagonalisation
Diagonalisation
On va commencer par dénir une matrice diagonalisable. Une matrice carrée A d'ordre
n est dite diagonalisable si et seulement s'il existe une matrice diagonale D d'ordre n et
une matrice inversible P d'ordre n telles que :
A = P −1 DP
avec :
D = Diag(λ1 , . . . , λ1 , . . . , . . . , λp , . . . , λp )
avec λ1 répétée m1 fois jusqu'à λp répétée mp fois.
Exemple 5.5
Soit :
alors :


2 2 2
A= 1 2 0 
1 0 2
D = Diag(0, 2, 4)
Soit A une matrice carrée d'ordre n alors on a équivalence :
1. A est diagonalisable.
2. A admet une base de vecteurs propres.
3. Si λ est une valeur propre de A de multiplicité m alors dim(E ) = m .
Proposition 5.3
j
j
λj
j
Comme application, on a le corollaire suivant.
Soit A une matrice carrée d'ordre n, si (λ , . . . , λ ) sont ses valeurs
propres alors A est diagonalisable si et seumement si Q(A) = 0, où :
Corollaire 5.2
1
p
p
Y
Q(λ) =
(λ − λj )
j=1
Corollaire 5.3 Soit A une matrice carrée telle que ses valeurs propres sont simples (i.e
elles sont toutes de multiplicité 1) alors A est diagonalisable.
On va donner un exemple où, on détermine une matrice diagonalisable, la matrice D et
la matrice P .
Exemple 5.6
Soit la matrice :


0 2 −3
A =  −1 3 −3 
−1 2 −2
40
alors :
PA (λ) =
d'où :
−λ
2
−3
−1 3 − λ
−3
−1
2
−2 − λ
=
−λ
2
−λ − 1
−1 3 − λ −λ − 1
−1
2
−λ − 1
−λ + 1
0
1
0
1−λ 1
PA (λ) = −(λ + 1)
0
0
1
−λ
2
1
= −(λ + 1) −1 3 − λ 1
−1
2
1
= −(λ + 1)(1 − λ)2
On conclut que λ = −1 est valeur propre simple et λ = 1 est valeur propre double.
Cherchons une base de E et E .
Pour λ = −1 : On cherche à résoudre le système AX = −X , on obtient :
−1
1


2y
−3z = −x
−x +3y −3z = −y

x +2y −2z = −z
ceci est équivalent à x = y = z, Ainsi une base de E est :
−1


1
V1 =  1 
1
Pour λ = 1 : On cherche à résoudre le système AX = X , on obtient :


2y
−3z = x
−x +3y −3z = y

x +2y −2z = z
ceci est équivalent à x = 2y − 3z, Ainsi une base de E est :
1


2
V2 =  1 
0
et


−3
V3 =  0 
1
Si
D = Diag(−1, 1, 1)
alors


1 2 −3
P = 1 1 0 
1 0 1
41
Application :
1. Suites vectorielles réccurentes : Tout d'abord , on a pour une suite vectorielle
Xm ∈ Mn,1 (R) :
Xm+1 = AXm
avec A ∈ Mn (R). La solution est :
Xm = A m X0
donnons des applications pour n = 2 et n = 3 , soit à trouver les suites qui vérient :
um+1 = 3um + vm
vm+1 = um + 3vm
On associe à ce syst eme réccurent la matrice :
A=
3 1
1 3
Pour calculer les puissances de cette matrice, on va la diagonaliser. On a :
det(A − λI) =
3−λ
1
1
3−λ
= (3 − λ)2 − 1 = (2 − λ)(4 − λ)
on
déterminerdeux
va vecteurs propres associés respectivement à 2 et 4, V1 =
1
1
et V2 =
. Ainsi :
−1
1
P =
et :
P
Enn :
m
A =P
et :
−1
−1
1
=
2
1 1
−1 1
1
diag(2 , 4 )P =
2
m
m
1 −1
1 1
2m + 4m −2m + 4m
−2m + 4m 2m + 4m
um = 21 ( (2m + 4m )u0
+ (−2m + 4m )v0 )
1
m
m
vm = 2 ( (−2 + 4 )u0 + (2m + 4m )v0 )
Pour n = 3, on considère le système réccurent suivant :

2vm − 3wm
 um+1 =
vm+1 = −um + 3vm − 3wm

wm+1 = −um + 2vm − 2wm
42
La matrice associée à ce système est :


0 2 −3
A =  −1 3 −3 
−1 2 −2
On a :
D = Diag(−1, 1, 1)
et


1 2 −3
P = 1 1 0 
1 0 1
on détermine P −1 en utilisant la comatrice :

P −1

1 −2 3
1
=  −1 4 −3 
2
−1 2 −1
D'où :


(−1)m + 1
2(−1)m − 2 −3(−1)m + 3
1
Am = P −1 Diag((−1)m , 1, 1)P =  −(−1)m + 1 −2(−1)m + 4 3(−1)m − 3 
2
−(−1)m + 1 −2(−1)m + 2 3(−1)m − 1
et

+ (2(−1)m − 2)2v0 + (−3(−1)m + 3)w0 )
 um = 12 ( ((−1)m + 1)u0
vm = 21 ( (−(−1)m + 1)u0 + (−2(−1)m + 4)v0 + (3(−1)m − 3)w0 )

wm = 12 ( (−(−1)m + 1)u0 + (−2(−1)m + 2)v0 + ((−1)m − 1)w0 )
2. Système linéaire homogène :
On dénit la matrice carrée eA , pour A matrice carrée d'ordre n, par :
+∞
X
1 k
e =
A
k!
k=0
A
On sait calculer cette matrice dans les deux cas suivants.Premier cas , où la matrice
A est nilpotente (nécessairement An = 0). Dans ce cas :
n−1
X
1 k
e =
A
k!
k=0
A
L'autre cas est le cas des matrices diagonalisables. On a :
A = P −1 DP
43
où :
D = diag(λ1 , . . . , λn )
où les λk sont les valeurs propres ( une valeur propre peut se répeter plusieurs fois).
On a :
eA = P −1 eD P
où :
eD = diag(eλ1 , . . . , eλn )
Maintenant , on peut résoudre un système diérentiel du premier ordre homogène
. Ce système s'écrit matriciellement :
X 0 (t) = AX(t)
La solution est :
X(t) = etA X(0)
Donnons un exemple pratique.Si la matrice associée à ce système est :


0 2 −3
A =  −1 3 −3 
−1 2 −2
Alors :

e−t + et
2e−t − 2et −3e−t + 3et
1
= P −1 Diag(e−t , et , et )P =  −e−t + et −2e−t + 4et 3e−t − 3et 
2
−e−t + et −2e−t + 2et −3e−t − et

etA
et

+(2e−t − 2et )y0
+(−3e−t + 3et )z0 )
 x(t) = 21 ( (e−t + et )x0
1
−t
t
−t
t
y(t) = 2 ( (−e + e )x0 +(−2e + 4e )y0 +(3e−t − 3et )z0 )

+(−2e−t + 2et )y0 +(−3e−t − et )z0 )
z(t) = 21 ( (e−t + et )x0
44
Téléchargement