Telechargé par Sabri Yassire

complement alg lin

publicité
Complément d’ algèbre linéaire
PSI
Plan
1 Produit et Somme d’ espaces vectoriels
1.1 Produit d’ espaces vectoriels . . . . . . .
1.2 Somme d’ espaces vectoriels . . . . . .
1.2.1 Définition . . . . . . . . . . . . . .
1.2.2
Somme directe - sous espaces
supplémentaires . . . . . . . . . .
1.2.3 Cas de la dimension finie . . . .
1.2.4 Applications linéaires et décomposition en somme directe . . . .
1
1
2
2
2 Formes linéaires - Hyperplans
2.1 Formes Linéaires . . . . . . . . . . . . .
2.2 Hyperplans . . . . . . . . . . . . . . . . .
2.3 Équation d’un hyperplan . . . . . . . . .
2.4 Détermination pratiques de l’équation
d’un hyperplan . . . . . . . . . . . . . . .
2.5 Exercices . . . . . . . . . . . . . . . . . . .
15
15
16
16
17
19
20
8
3 Matrices et endomorphismes
3.1 Matrices définies par blocs . . . . . . . .
3.2 Matrice semblables . . . . . . . . . . . .
3.3 Trace d’une matrice . . . . . . . . . . . .
3.4 Trace d’un endomorphisme . . . . . . .
3.5 Polynômes d’ une matrice ,d’un endomorphisme . . . . . . . . . . . . . . . . . . . .
11
11
12
14
4 Sous espaces stables
4.1 Définition . . . . . . . . . . . . . . . . . .
4.2 Décomposition en somme directe de sous
espace stables . . . . . . . . . . . . . . . .
21
21
3
5
20
22
∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
Dans tout ce chapitre K désigne R ou C.
1
Produit et Somme d’ espaces vectoriels
1.1
Produit d’ espaces vectoriels
Soient E 1 , . . . , E n des espace vectoriels sur K . On pose
E=
n
Y
E i = {( x1 , ..., xn ) / ∀ i ∈ [[1, n]] x i ∈ E i } .
i =1
pour u = ( x1 , . . . , xn ) ∈ E , v = ( y1 , . . . , yn ) ∈ E et λ ∈ K on définit u + v et λv par :
u + v = ( x1 + y1 , . . . , xn + yn )
λv = (λ y1 , . . . , λ yn ) to
Théorème 1.1. E =
n
Y
E i est un espace vectoriels sur K
i =1
Si de plus chaque E i est de dimension finie alors E est aussi de dimension finie et on :a
dim E =
n
X
dim E i
i =1
Remarque 1.1. Si ( e 1 , . . . , e n ) est une base de E et ( f 1 , . . . , f p ) est une base de F alors ,
¡
¢
( e 1 , 0), . . . , ( e n , 0), (0, f 1 ), . . . , (0, f p )
est une base E × F
Remarque 1.2. Lorsque E 1 = ... = E n = E alors l’espace vectoriel
dimension finie alors dim E n = n dim E
www.laminehoucin.blogspot.com
n
Y
E i est noté E n . Si E est de
i =1
page:1/ 22
Complément d’ algèbre linéaire
PSI
1.2
Somme d’ espaces vectoriels
1.2.1
Définition
Définition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E .
On appelle somme des espaces vectoriels E 1 , E 2 , . . . , E n le sous espace vectoriel de de E
¯
©
ª
E 1 + E 2 + · · · + E n = x1 + x2 + · · · + xn ¯ ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n
On le note également
n
X
E i.
k=1
Proposition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E .
Alors
n
X
•
E i est un sous-espace vectoriel de E.
•
k=1
n
X
E i est le plus petit sous espace vectoriel de E qui contient
n
[
E i . On ecrit alors
i =1
k=1
n
X
Ã
E i = Vect
n
[
!
Ei
i =1
i =1
Preuven:
•
X
E i est l’image de l’application linéaire
k=1
ϕ : E1 × E2 × · · · × E n
( x1 , x2 , . . . , x n )
Ce qui montre que
n
X
−→
7−→
E
x1 + x2 + · · · + x n
E i est bien un sous-espace vectoriel de E .
k=1
• En prenant x j = 0 pour tout j 6= i on constate que
n
X
E i contient chacun des E i . Ainsi
i =1
∀ j ∈ [[1, n]]
Ej ⊂
n
X
Ei
i =1
• Si un sous espace vectoriel F contient tous les E i , il contient tous les vecteurs de la forme x1 + x2 + · · · + xn où
n
n
X
X
x i ∈ E i , donc F contient
E i . Ainsi
E i est le plus petit sous espace vectoriel de E qui contient tous les
E i et on écrit
i =1
i =1
n
X
i =1
Ã
E i = Vect
n
[
!
Ei
i =1
Attention 1.1. On rappelle que l’union d’espaces vectoriels n’est pas, en générale, un espace vectoriel .
www.laminehoucin.blogspot.com
page:2/ 22
Complément d’ algèbre linéaire
PSI
Proposition
1.2
(associativité
et
commutativité). Soient
sous-espaces vectoriels d’un K -espaces vectoriel E . On a pour 1 ≤ p < n :
n
X
Ei =
i =1
p
X
n
X
Ei +
i =1
Ei
E1, E2, . . . , E n
des
(associativité)
i = p+1
et
n
X
Ei =
n
X
Ei +
Ei
(Commutativité)
i =1
i = p+1
i =1
p
X
Exemples 1.1.
1. R3 = Vect(1, 0, 0) + Vect(0, 1, 0) + Vect(0, 0, 1)
En effet ∀ ( x, y, z) ∈ R3 , ( x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
| {z } | {z } | {z }
∈Vect(1,0,0)
∈Vect(0,0,1)
∈Vect(0,1,0)
2
2. R = Vect(1, 0) + Vect(0, 1) + Vect(1, 1)
En effet ∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1)
| {z }
| {z }
| {z }
∈Vect(1,0)
∈Vect(0,1)
∈Vect(1,1)
Remarquons qu’on a aussi la décomposition ( x, y) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1)
| {z } |
| {z }
{z
}
∈Vect(1,0)
∈Vect(0,1)
∈Vect(1,1)
3
3. Dans E = R , le plan d’équation ( x = 0) et celui d’équation ( y = 0) vérifient R3 = P1 + P2 . En
effet ∀ ( x, y, z) ∈ R3 , (0, y, z) + ( x, 0, 0) = ( x, y, z).
| {z } | {z }
4.
1.2.2
∈P2
∈P1
+
M n (K) = Tn + D n + Tn−
Somme directe - sous espaces supplémentaires
Définition 1.2. On dit que les sous-espaces E 1 , E 2 , . . . , E n sont en somme directe, (ou encore que
p
X
la somme
E i est directe) si pour tout ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n
i =1
x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0
la somme est alors notée
n
X
E i = E1 ⊕ E2 ⊕ · · · ⊕ E n =
i =1
Propriétés 1.1. Si la somme
J 6= ;
www.laminehoucin.blogspot.com
p
X
i =1
E i est directe alors
n
M
Ei
i =1
X
E i est directe pour tout J ⊂ [[1, n]] et
i∈ J
page:3/ 22
Complément d’ algèbre linéaire
PSI
Proposition 1.3. La somme
p
X
E i est directe si et seulement si l’application
i =1
n
X
ϕ : E 1 × E 2 × · · · × E n −→
Ei
i =1
( x1 , x2 , . . . , xn )
7−→ x1 + x2 + · · · + xn
est un isomorphisme.
Preuve :
Remarquons d’abord que que par définition de la somme
E i , l’application ϕ est une application
i =1
linéaire surjective donc :
ϕ isomorphisme
p
X
ϕ injective
ker ϕ = {0}
∀ ( x1 , x2 , . . . , x n ) ∈ E 1 × E 2 × · · · × E n ,
x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0
p
X
E i est directe
⇔
⇔
⇔
⇔
i =1
Proposition 1.4. La somme
p
X
E i est directe si et seulement si tout vecteur x de
i =1
compose de manière unique sous la forme x =
E i se dé-
i =1
x i avec ( x1 , x2 , ..., xn ) ∈ E 1 × E 2 × . . . × E n . En
i =1
d’autre termes :
∀x ∈
n
X
p
X
p
X
E i , ∃ ! ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n , x = x1 + x2 + . . . + xn
i =1
Preuve :
Conséquence directe de l’isomorphisme ϕ dans la proposition précédente.
Exemple 1.1. la somme Vect(1, 0) + Vect(0, 1) + Vect(1, 1) n’est pas directe puisqu’on a pas unicité
de la décomposition
∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1)
| {z }
| {z }
| {z } |
| {z }
| {z }
{z
}
∈Vect(1,0)
Proposition 1.5. Si la somme
∈Vect(0,1)
n
X
∈Vect(1,1)
∈Vect(1,0)
∈Vect(0,1)
∈Vect(1,1)
E i est directe alors
i =1
∀ i ∈ [[1, n]] ; E i ∩
n
M
E j = {0}
j =1; j 6= i
Notamment pour tout j 6= i
E i ∩ E j = {0}
www.laminehoucin.blogspot.com
page:4/ 22
Complément d’ algèbre linéaire
PSI
Preuve :
n
M
• Soit x ∈ E i ∩
E j donc x ∈ E i et x = x1 + ...x i−1 + x i+1 + ... + xn avec x i ∈ E i , en faisant passer x de l’autre
j =1; j 6= i
cotée de l’égalité on obtient
x1 + ...x i−1 + (− x) + x i+1 + ... + xn = 0
|{z}
∈E i
Or la somme
n
X
E i est directe donc x et tous les x i sont nuls.
i =1
n
M
• Si j 6= i alors E i ∩ E j ⊂ E i ∩
E k = {0}.
k=1; k6= i
La réciproque est fausse pour n ≥ 3 est vrais pour n = 2
Attention 1.2.
Exemple 1.2. Considérons l’exemple R2 = Vect(1, 0) + Vect(0, 1) + Vect(1, 1). La somme n’est pas
directe mais
Vect(1, 0) ∩ Vect(0, 1) = Vect(1, 0) ∩ Vect(1, 1) = Vect(0, 1) ∩ Vect(1, 1) = {0}
1.2.3
Cas de la dimension finie
Proposition 1.6. Si les sous-espaces vectoriels E 1 , ..., E r sont de dimensions finies alors
p
X
Ei
i =1
est de dimension finie et on a
Ã
dim
n
X
i =1
!
Ei ≤
n
X
dim E i
i =1
avec égalité si et seulement si la somme est directe ; c’est à dire :
Ã
!
n
n
n
X
X
X
E i est directe
dim
Ei =
dim E i ⇔ la somme
i =1
Preuve :
i =1
i =1
Considérons l’application linéaire surjective ϕ : E 1 × E 2 × · · · × E n
−→
n
X
Ei
i =1
( x1 , x2 , . . . , xn )
7−→
x1 + x2 + · · · + xn
• La formule du rang appliquée à ϕ donne
Ã
!
Ã
!
Ã
!
n
n
n
n
X
Y
Y
X
dim
E i = dim
E i − dim ker ϕ ≤ dim
Ei =
dim E
i =1
i =1
i =1
i =1
• Si laà somme
! est directe alors, daprès la proposition 1.3, ϕ est bijective. D’où dim(E 1 × E 2 × · · · × E n ) =
n
n
X
X
dim
E i . Mais dim(E 1 × E 2 × · · · × E n ) =
dim E i , d’où le résultat.
i =1
i =1
n
X
• Réciproquement l’application ϕ est, par définition de
E i , surjective.
i =1
Ã
!
Ã
!
n
n
n
X
X
X
Si dim
Ei =
dim E i , alors dim(E 1 × E 2 × · · · × E n ) = dim
E i , par suite ϕ est un isomorphisme et
i =1
i =1
donc la somme est directe.
www.laminehoucin.blogspot.com
i =1
page:5/ 22
Complément d’ algèbre linéaire
PSI
Ã
1. Si la somme n’est pas directe, dim
Remarque 1.3.
n
X
!
Ei <
i =1
n
X
dim E i .
i =1
2. On rappelle à ce propos la formule de Grassmann
dim(F + G ) = dim F + dim G − dim F ∩ G
Proposition 1.7. Soient E de dimension finie et E 1 , E 2 , . . . , E n des sous-espaces vectoriels .
( i)
E=
n
M
Ei

n
X



dim E i
 dim E =
i =1
( ii )
⇐⇒
n
X



E i est directe

i =1
⇐⇒ ( iii )
i =1
Preuve :
n
M
i =1
n
X



E
=
Ei

i =1
Ã
n
X

n
X



dim E i
 dim E =
n
X
!
n
X
E i alors la somme
E i est directe et dim E = dim
Ei =
dim E i .
i =1
i =1
i =1
à i=1 !
n
n
n
X
X
X
( ii ) ⇒ ( iii ) Supposons ( ii ), donc dim
Ei =
dim E i = dim E et comme
E i est un sous-espace vectoriel de
( i ) ⇒ ( ii ) Si E =
E , on en déduit E =
n
X
i =1
Ã
( iii ) ⇒ ( i ) Supposons ( iii ), donc dim
n
X
E i on conclut que E =
i =1
i =1
Ei.
i =1
on a E =
i =1
n
X
i =1
n
M
!
n
X
Ei =
i =1
dim E i ce qui assure que la somme
n
X
E i est directe et puisqu’
i =1
Ei
i =1
Pour deux espaces, le théorème devient
Corollaire 1.1.½ Soient E de dimension finie et½ F,G deux sous-espaces vectoriels de E .
F ∩ G = {0}
F +G = E
E = F ⊕ G ⇐⇒
⇐⇒
.
dim E = dim F + dim G
dim E = dim F + dim G
Exemples 1.2.
1. K4 [ X ] = Vect(1 + X , X 3 ) ⊕ Vect(1 + X 2 ) ⊕ Vect( X 4 − X , 1).
En effet, la relation
λ1 (1 + X ) + λ2 X 3 + λ3 (1 + X 2 ) + λ4 ( X 4 − X ) + λ5 = 0
entraîne λ1 = λ2 = λ3 = λ4 = λ5 = 0 (en regardant les termes dominants.) La somme est
donc directe.
De plus dim K4 [ X ] = dim Vect(1 + X , X 3 ) + dim Vect(1 + X 2 ) + dim Vect( X 4 − X , 1)
2. Dans l’exemple de la page 3, on avait R3 = P1 + P2 mais la somme n’est pas directe car
dim P1 + dim P2 = 4 > dim R3 .
www.laminehoucin.blogspot.com
page:6/ 22
Complément d’ algèbre linéaire
PSI
3. F = Vect λ(1, 0, 0) → et G = Vect λ(0, −1, 1), (0, 1, 1) →.
On a F ∩ G = {0} et dim F + dim G = 3. D’où F ⊕ G = R3 .
4. Dans C[ X ], soit (P i ) i∈[[0,n]] une famille de polynômes tels que ∀ i ∈ [[0, n]] , deg P i = i .
Cn [ X ] =
n
M
Vect P i
i =0
est directe.
En effet pour tout (λ1 , . . . λn ) ∈ Cn+1 la relation λ0 P0 + · · · + λn P n = 0 donne en considérant
tour à tour les termes de plus haut degré (ce qui revient à faire une récurrence) λn = λn−1 =
. . . = λ0 = 0.
n
X
dim Vect(P i ).
De plus dim Cn [ X ] =
i =0
5. Le sous-espace vectoriel des matrices symétriques et celui des matrices antisymétriques
sont supplémentaires dans Mn (K).
En effet S n (K ) ∩ An (K ) = {0} (puisque si A ∈ S n (K ) ∩ An (K ), A = t A = − A d’où A = 0).
n( n − 1) n( n + 1)
De plus, dim An (K ) + dim S n (K ) =
+
= n2 = dim Mn (K)
2
2
Théorème 1.2 (base adaptée a une somme directe). Soit E un espace vectoriel de dimension finie
q
M
tel que E =
E i.
i =1
Si pour tout i de [[1, q]], β i désigne une base de E i , et β =
l’appelle base adaptée a la décomposition E =
q
M
n
[
β i alors β est une base de E . On
i =1
E i.
i =1
Preuve :
Comme la somme est directe on a les β i sont deux à deux disjoints et donc
dim E =
q
X
dim E i =
i =1
q
X
Card β i = Card β
i =1
Il suffit alors de montrer que β est génératrice. Or, pour x ∈ E , il existe ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n tel que
x = x1 + x2 + · · · +, xn . De plus ∀ i ∈ [[1, n]] , x i ∈ E i = Vect(β i ) ⊂ Vect(β), d’où par sommation x ∈ Vect(β).
Exemple 1.3. Pour a ∈ K , la base (1, X − a, . . . , ( X − a)n ) de K n [ X ) est adaptée à la décomposition
n
n
M
M
¡
¢
¡ ¢
K n[X ] =
Vect ( X − a)k . Elle ne l’est pas pour la décomposition K n [ X ] =
Vect X k
i =0
k=0
Réciproquement
Théorème 1.3. Soit E un espace vectoriel de dimension finie et de base B .
Si (B1 , ..., B q ) est une partition de B et E i = Vect(B i ) pour i = 1, ..., q alors
E=
q
M
Ei
i =1
B est donc une base adaptée à cette dernière décomposition.
www.laminehoucin.blogspot.com
page:7/ 22
Complément d’ algèbre linéaire
PSI
Preuve :
Posons B i = ( e(1i) , ..., e(ni)i ). Tout vecteur x ∈ E s’écrit sous la forme x =
q X
ni
X
i =1 k=1
|
conséquence E =
D’autre part
q
X
x(ki) e(ki) donc x ∈
{z
∈E i
q
X
E i par
i =1
}
Ei.
i =1
dim E = Card B =
q
X
Card B i =
i =1
Donc
E=
q
M
q
X
dim E i
i =1
Ei
i =1
Exemple 1.4. β = ( e 1 , e 2 , . . . , e n ) est une base de E si et seulement si E =
Par exemple, Kn [ X ] =
n
M
n
M
Vect( e i ).
i =1
³ ´
Vect X i et R3 = Vect(1, 0, 0) ⊕ Vect(0, 1, 0) ⊕ Vect(0, 0, 1).
i =0
Dans le cade des bases adaptée on a la définition suivante :
Définition 1.3 (base adaptée a un sous espace vectoriel). Soit E de dimension finie et F un
sous-espace vectoriel de E . On dit qu’une base de E est adaptée à F si ses premiers éléments
forment une base de F
Exemple 1.5. Dans E = R3 , on considère F l’hyperplan d’équation x + y + z = 0. Une base de E
adaptée à F est
base de E
z¡
}|
{¢
(1, −1, 0), (−1, 0, 1), (1, 0, 0)
|
{z
}
base de F
1.2.4
Applications linéaires et décomposition en somme directe
Théorème 1.4. On suppose E =
n
M
E i et on considère pour i ∈ [[1, q]] l’application u i ∈ L(E i , F )
i =1
∃ ! u ∈ L(E, F ) tel que ∀ i ∈ [[1, n]] , u |E i = u i .
u est définie sur E par
∀( x1 , x2 , · · · , xn ) ∈
n
Y
E i,
u( x1 + x2 + · · · + xn ) = u 1 ( x1 ) + u 2 ( x2 ) + · · · + u n ( xn ).
i =1
Remarque 1.4. Autrement dit, ce théorème pourrait se résumer à l’assertion :
Pour définir une application linéaire sur E il suffit de la définir sur chaque E i
www.laminehoucin.blogspot.com
page:8/ 22
Complément d’ algèbre linéaire
PSI
Preuve :
Procédons par analyse et synthèse
Analyse : Supposons qu’un tel u existe.
n
X
x i où ( x1 , x2 , . . . , x q ) ∈ E 1 × E 2 × · · · × E q
Soit x ∈ E , on a alors x =
i =1Ã
!
n
n
n
X
X
X
On a par linéarité u( x) = u
xi =
u( x i ) =
u i ( x i ).
i =1
i =1
i =1
u, s’il existe, est alors déterminé de façon unique sous la forme u( x) =
Synthèse : Tout élément x de E s’écrit de façon unique x =
u i ( x i ).
i =1
x i . En posant u( x) =
i =1
une application de E dans F qui vérifie :
— u |E = u i pour tout i de [[1, n]]
i
n
X
— u est linéaire : soient deux vecteurs x =
x i et y =
i =1
et deux scalaires α et β. On a :
Ã
u(α x + β y)
n
X
q
X
=
u α
n
X
=
xi + β
=
n
X
yi
i =1
α
u i (xi ) + β
i =1
=
!
yi où ( x1 , x2 , . . . , x q ), ( y1 , y2 , . . . , yq ) ∈ E 1 × E 2 × · · · × E n


n
X


= u  α x i + β yi 
{z }
i =1 |
∈E i
u i (α x i + β yi )
i =1
n
X
u i ( x i ), on définit alors
i =1
i =1
i =1
n
X
n
X
q
X
par définition de u
n
X
u i ( yi ).
( u i est linéaire )
i =1
α u( x) + β u( y).
Remarque 1.5. Si β = ( e 1 , e 2 , . . . , e n ) est une base de E et en posant E i = Vect( e i ), on retrouve
qu’une application linéaire est entièrement déterminée par l’image d’une base.
Définition 1.4. On suppose E =
n
M
E i , pour i ∈ [[1, n]] on définit l’application linéaire
i =1
Pi :
x=
E
n
X
−→ E
xk 7−→ x i
k=1
La famille (P1 , . . . , P n ) s’appelle la famille des projecteurs associée à la décomposition E =
n
M
Ei
i =1
www.laminehoucin.blogspot.com
page:9/ 22
Complément d’ algèbre linéaire
PSI
Propriétés 1.2. Soit (P1 , . . . , P n ) la famille des projecteurs associée à la décomposition E =
n
M
E i.
i =1
Alors pour tout i ∈ [[1, n]] on a
1. P i est un projecteur de E
n
M
2. I mP i = E i et ker P i =
Ek
k=1, k6= i
n
M
3. P i est la projection sur E i parallèlement à
Ek.
k=1, k6= i
4.
n
X
Pk = I dE
k=1
5. Si u ∈ (E, F ) alors
u=
n
X
u ◦ Pk
k=1
Théorème 1.5. Si u ∈ (E, F ) et G est un supplémentaire de ker u dans E alors u induit un
isomorphisme de G sur Im u.
Preuve :
½
Notons v :
G
x
−→
7−→
Im u
u ( x)
• v est linéaire.
• v est injective, en effet :
Si x ∈ ker v alors x ∈ G et u( x) = 0, donc x ∈ G ∩ ker u.
Or G est ker u sont supplémentaire donc G ∩ ker u = {0} par suite x = 0 et v injective.
• v est surjective, en effet :
soit y ∈ Im u alors il existe x ∈ E tel que y = u( x). Or E = ker u ⊕ G donc il exit (a, b) ∈ ker u × G tel que x = a + b.
Par suite y = u(a) + u( b) = u( b) = v( b). Ainsi
|{z}
=0
∀ y ∈ Im( u), ∃ b ∈ G ;
y = v( b )
ce qui assure que v est surjective.
• On conclut alors v est un isomorphisme de G dans Im u.
Corollaire 1.2 (Formule du rang). Si u ∈ L (E, F ) avec E de dimension finie alors u est de rang
fini et
rg u + dim ker u = dim E
Preuve :
Soit G un supplémentaire de ker u dans E , le théorème précédent assure que G est isomorphe à
I mu et puisque G est de dimension finie (Car c’est un sous espace d’un espace de dimension finie) on a I mu est de
dimension finie et
dim Im u = dim G
D’autre part on a E = G ⊕ ker u donc
dim E
www.laminehoucin.blogspot.com
=
dim G + dim ker u
=
dim Im u + dim ker u
=
rg u + dim ker u
page:10/ 22
Complément d’ algèbre linéaire
PSI
2
Formes linéaires - Hyperplans
2.1
Formes Linéaires
Définition 2.1. Soit E un K -espace vectoriel .
1. Une formes linéaire sur E est une application linéaire de E dans K
2. On appelle espace dual de E l’espace vectoriel E ∗ = L (E, K ). C’est l’ensemble des formes
linéaires sur E .
Remarque 2.1. On rappelle qu’en dimension finie dim E = dim E ∗
Proposition 2.1. Une forme linéaire non nulle sur E est toujours surjective
Preuve :
Soi f une forme linéaire non nulle sur E , puisque Im f est un sous espace vectoriel de K on a
1 ≤ dim Im f ≤ 1
donc dim Im f = 1 = dim K par suite Im f = K et f surjective.
Remarque 2.2. En particulier si ϕ ∈ E ∗ est une forme linéaire non nulle sur E alors
∃ u ∈ E \{0};
ϕ( u) = 1
Théorème 2.1. Soient f et g deux formes linéaire sur un un K-espace vectoriel E telles que :
ker( g) ⊂ ker( f )
Alors il existe α ∈ K tel que :
f = α.g
Preuve :
• Si g est nulle alors E = ker( g) ⊂ ker( f ) ⊂ E par suite E = ker( f ) et f nulle.
• Si g est non nulle, on procède par analyse synthèse :
Analyse :
Si α existe alors nécessairement α = f ( u) où u ∈ E tel que g( u) = 1 et en remarquant que g( x)
est un scalaire
f = α.g deviens pour tout x ∈ E ;
f ( x − g( x) u) = 0.
Synthèse :
Soit alors u ∈ E tel que g( u) = 1 et posons α = f ( u) ; on a pour tout x ∈ E :
g ( x − g ( x) u ) = g ( x) − g ( x) g ( u ) = g ( x) − g ( x) = 0
Donc
x − g( x) u ∈ ker g ⊂ ker f Par suite f ( x − g( x) u) = 0 qui deviens par linéarité f ( x) = f ( u) g( x) = α.g( x)
Toute forme linéaire non nulle sur E est de rang 1, donc surjective.
Si E est de dimension finie, E ∗ l’est aussi et
dim E ∗ = dim E K = dim E
www.laminehoucin.blogspot.com
page:11/ 22
Complément d’ algèbre linéaire
PSI
Exemples 2.1. 1. Les formes linéaires sur Kn sont du type
ϕ : X = ( x1 , ..., xn ) ∈ Kn 7→ a 1 x1 + · · · + a n xn
En effet :
Soit C la base canonique de Kn , la matrice de ϕ dans C est de la forme
A = Mat C ϕ = (a 1 , ..., a n ) avec a i = ϕ( e i )
donc


x1
 . 
ϕ( X ) = A t X = (a 1 , ..., a n )  ..  = a 1 x1 + · · · + a n xn
xn
2. Soit I un intervalle de R et a, b ∈ I alors
δa : f 7→ f (a),
I : f 7→
b
Z
f;
a
D a : f 7→ f 0 (a)
sont des formes linéaires sur, respectivement, C ( I, R), C ( I, R) et C 1 ( I, R).
n
X
x j e j on pose
3. Si E est de dimension finie n, si B = ( e 1 , ..., e n ) une base de E. Pour x =
j =1
ϕ j ( x) : x j
On définit ainsi n formes linéaires sur E ; on les appelle les formes linéaires coordonnées. De plus
(ϕ1 , ..., ϕn ) est une base de E ∗ appelée base duale de B
En effet : (ϕ1 , ..., ϕn ) est de cardinale n = dim E ∗ donc il suffit de montrer qu’elle est libre, pour
ça, soient λ1 , ..., λn ∈ K tels que
λ1 ϕ1 + ... + λn ϕn = 0. En composant avec e j en remarquant que
ϕ i ( e j ) = δ i j on obtient λ j = 0, ceci étant pour tout j ∈ [[1, n]] donc notre famille est bien libre.
2.2
Hyperplans
E un K -espace vectoriel
• On appelle droite de E tout sous espace de dimension 1
• On appelle Plan de E tout sous espace de dimension 2
Définition 2.2. On appelle hyperplan de E , tout sous-espace vectoriel qui est supplémentaire
d’une droite vectorielle. En d’autre termes Il existe un vecteur non nul u de E tel que
E = H ⊕ Vect( u)
Proposition 2.2. Si dim E = n et H sous-espace vectoriel de E alors
H hyperplan de E ⇔ dim H = n − 1
Preuve :
=⇒: Si H est supplémentaire d’une droite D alors dim H = dim E − dim D = n − 1.
www.laminehoucin.blogspot.com
page:12/ 22
Complément d’ algèbre linéaire
PSI
⇐=: Soit ( e 1 , . . . e n−1 ) une base de H . D’après le théorème de la base incomplète, il existe un vecteur e n tel que
( e 1 , . . . e n ) soit une base de E . D = Vect( e n ) est une droite vectorielle supplémentaire de H .
Exemples 2.2. 1. En dimension 3, les hyperplans sont les plans vectoriels, ce qui justifie la
nomination en dimension quelconque.
2. En dimension 2, les hyperplans sont les droites vectorielles.
Propriétés 2.1. Soit H est un hyperplan de E . Alors
1.
∀ u ∈ E \ H,
H ⊕ K.u = E
2. Si F est un sous espace vectoriel contenant H alors ou bien H = F ou bien F = E
Remarque 2.3. La première propriété nous donne le droit de choisir la droite D supplémentaire
à H sous la forme D = Vect( u) avec u ∈ E \ H
La deuxième montre que les hyperplans sont les sous espaces maximaux parmi les sous espaces
strictes de E.
Proposition 2.3. Soit H un sous-espace vectoriel de E . Les propositions sont équivalentes :
1. H est un hyperplan de E .
2. il existe une forme linéaire ϕ non nulle tel que H = ker ϕ
Preuve :
1 =⇒ 2 : Supposons que H est un hyperplan de E, il existe un vecteur non nul u de E tel que E = H ⊕ Vect( u). Soit
l’application
f : E = H ⊕ Vect( u) →
K
x = h + λu
7−→ λ
Alors f est une forme linéaire sur E , non nulle (puisque f ( u) = 1) telle que ker( f ) = H
2 =⇒ 1 : Supposons qu’il existe une forme linéaire ϕ non nulle tel que H = ker ϕ. Soit u ∈ E \{0} tel que ϕ( u) = 1 .
Montrons que E = ker ϕ ⊕ K.u
• x ∈ ker ϕ ∩ K.u ⇔
½
donc ker ϕ ∩ K.u = {0}
x = λ u /λ ∈ K
ϕ( x) = 0
½
⇔
x = λ u /λ ∈ K
⇔
λ=0
x=0
• Pour x ∈ E posons x1 = x − ϕ( x) u et x2 = ϕ( x) u Alors x = x1 + x2 et x2 ∈ K.u et x1 ∈ ker ϕ car ϕ( x1 ) = ϕ( x) −
ϕ( x)ϕ( u) = 0
Donc E = ker ϕ + K.u
Exemples 2.3. 1. L’ensemble H des polynômes s’annulant en a ∈ K est un hyperplan de K [ X ].
Il suffit de considérer ϕ(P ) = P (a)
©
ª
2. ( x1 , x2 , . . . , xn ) ∈ K n | a 1 x1 + a 2 x2 + · · · + a n xn = 0 est un hyperplan de K n .
www.laminehoucin.blogspot.com
page:13/ 22
Complément d’ algèbre linéaire
PSI
2.3
Équation d’un hyperplan
Proposition 2.4. On suppose dim E = n < +∞. Si l’on note ( x1 , x2 , . . . , xn ) les coordonnées d’un
vecteur x de E relativement à une base β, alors H est un hyperplan de E si et seulement si il
existe (a 1 , a 2 , . . . , a n ) ∈ K n \{0} tel que :
x ∈ H ⇐⇒
n
X
a i xi = 0
i =1
n
X
a i x i = 0 s’appelle équation de l’hyperplan H relativement à β.
i =1
En dimension finie, la matrice d’une forme linéaire ϕ relativement à β pour E et (1) pour K est
(a 1 a 2 . . . a n ). On a alors en notant H = ker ϕ.
Preuve :

x1
n
X
 . 
a i xi = 0
x ∈ H ⇐⇒ f ( x) = 0 ⇐⇒ (a 1 a 2 . . . a n ).  ..  = 0 ⇐⇒
i =1
xn

Remarque 2.4. Si H est un hyperplan déquation
n
X
a i x i = 0 alors H est le noyau de la forme
i =1
lineaire
f:
x=
E
n
X
→
x i e i 7−→
i =1
n
X
K
a i xi
i =1
Exemples 2.4. 1. On retrouve qu’une droite vectorielle du plan admet une équation du type
ax + b y = 0
2. On retrouve qu’un plan vectoriel de l’espace admet une équation du type ax + b y + cz = 0
©
ª
3. P ∈ R2 [ X ] | P (a) = 0 ) est un hyperplan de R2 [ X ] d’équation x + a y + a2 z = 0 dans la base
canonique (1, X , X 2 ).
Proposition
2.5. Deux
équations
linéaires
si et seulement si elles sont proportionnelles
définissent
le
même
hyperplan
Preuve :
Si (a 1 , a 2 . . . , a n ) = λ( b 1 , b 2 . . . , b n ) où λ 6= 0, alors
n
X
a i x i = 0 ⇐⇒
i =1
n
X
b i xi = 0
i =1
donc les équation représente bien le même hyperplan (on divise par λ).
n
n
X
X
Réciproquement : Soient
a i x i = 0 et
b i x i = 0 deux équations de H et f , g ∈ E ∗ \{0} où (a 1 . . . a n ) est une
i =1
i =1
matrice de f et ( b 1 . . . b n ) est une matrice de g. alors ker f = ker g = H et d’ après le théorème 2.1 on a f = λ g donc
les équations sont proportionnelles
www.laminehoucin.blogspot.com
page:14/ 22
Complément d’ algèbre linéaire
PSI
2.4
Détermination pratiques de l’équation d’un hyperplan
Proposition 2.6. Soit H un hyperplan dont une base est ( e 1 , . . . , e n−1 ).
x ∈ H ⇐⇒ detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0
Preuve :
Si x ∈ H alors ( x, e 1 , e 2 , . . . , e n−1 ) est liée d’où det( x, e 1 , e 2 , . . . , e n−1 ) = 0.
β
Réciproquement, si detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0 alors( x, e 1 , e 2 , . . . , e n−1 ) est liée.
Mais ( e 1 , e 2 , . . . , e n−1 ) est libre, donc Vect( x, e 1 , e 2 , . . . , e n−1 ) = Vect( e 1 , e 2 , . . . , e n−1 ).
Ainsi x ∈ Vect( e 1 , e 2 , . . . , e n−1 ) = H .
Remarque 2.5. On retrouve les équation de droites dans le plan et de plan dans l’espace :
−
1. Soit A de coordonnées (a, b) dans un repère cartésien R = (Ω, β) et →
u de coordonnées ( u 1 , u 2 )
dans β. Alors une équation cartésienne de la droite affine passant par A et dont un vecteur
−
directeur est →
u est :
¯
¯
¯ x − a u1 ¯
¯
¯
¯ y − b u2 ¯ = 0
−
−v , deux vecteurs
2. Soit A de coordonnées (a, b, c) dans un repère cartésien R = (Ω, β) et →
u ,→
libres de coordonnées respective dans β ( u 1 , u 2 , u 3 ) et (v1 , v2 , v3 ).
Alors une équation cartésienne
de l’unique plan affine passant par A et dont un couple de
¡→
¢
−
→
−
vecteur directeur est u , v est :
¯
¯
¯ x − a u 1 v1 ¯
¯
¯
¯ y − b u 2 v2 ¯ = 0
¯
¯
¯z− c u v ¯
3
3
2.5
Exercices
Exercice 1. trouver une équation de l’hyperplan H engendré par
(1, 0, 0, 0, 0), (1, 1, 0, 0, 0), (1, 1, 1, 0, 0), (1, 1, 1, 1, 0).
Déterminer une forme linéaire dont il est le noyaux.
Exercice 2. Montrer que deux équations d’un même hyperplan sont proportionnelles
Exercice 3. dim E = n .
1. Soient H, H 0 deux hyperplans distincts de E .
(a) montrer que H + H 0 = E
(b) Déduire que dimH ∩ H 0 = n − 2
2. Réciproquement soit F un sous espace de E de dimension n − 2 . Montrer qu ’il existe H, H 0
deux hyperplans distincts de E tels que F = H ∩ H 0
Exercice 4. 1. Si e est un vecteur non nul de E. Montrer qu’il existe une forme linéaire sur
E qui vaut 1 en e.
\
2. En déduire que
ker ϕ = {0E }
ϕ∈E ∗
www.laminehoucin.blogspot.com
page:15/ 22
Complément d’ algèbre linéaire
PSI
3
Matrices et endomorphismes
3.1
Matrices définies par blocs
µ
A B
Toute matrice M ∈ M np (K) peut s’écrire comme matrices de blocs sous la forme M =
C D
où A ∈ M q,l (K ), B ∈ M q,p−l (K ), C ∈ Mn− q,l (K ) et D ∈ Mn− q,n−l (K ).
¶
Si B = 0 ou C = 0 on dit que A est triangulaire par blocs.
Si B = 0 et C = 0 on dit que A est diagonale par blocs.
Proposition 3.1. Sous réserve que les opérations soient bien définies, on a
µ
µ
¶ µ 0
¶ µ
¶
A B
A B0
A + A 0 B + B0
+ 0
=
C D
C D0
C + C0 D + D0
¶ µ 0
¶ µ
¶
A B
A B0
A A 0 + BC 0 AB0 + BD 0
× 0
=
C D
C D0
C A 0 + DC 0 CB0 + DD 0
Corollaire 3.1. Le produit lorsqu’il existe de matrices triangulaires supérieures (respectivement
inférieures) par blocs est encore triangulaire supérieure (respectivement inférieure) par blocs.
Corollaire 3.2. Soit A ∈ Mn (K), B ∈ M p (K ) et C ∈ Mn,p (K ) on a
µ
det
Preuve :
µ
Soit M =
A
C
0
D
¶
µ
¶
C
A 0n,p
= det
= det A × det B
B
C
B
A
0 p,n
¶
Posons
A0 =
µ
A
0
0
Iq
¶
, C0 =
µ
Ip
C
0
Iq
¶
et
B0 =
µ
Ip
0
0
B
¶
On vérifie par calcul directe que
M = A 0 C 0 B0
0
0
D’où
det M = det A × det C × det B0 .
0
Or C est triangulaire donc son déterminant vaut 1 (produit des éléments diagonaux). De plus, en développant A 0
par rapport à sa dernière colonne, il vient
µ
¶
A
0
0
det A = det
.
0 I q−1
En réitérant, on obtient det A 0 = det A . De même, on a det B0 = det B, d’où le résultat.
µ
¶
A C
Attention 3.1. En générale det
6 det A det D − det B det C
=
B D
www.laminehoucin.blogspot.com
page:16/ 22
Complément d’ algèbre linéaire
PSI
¯
¯1
¯
¯2
¯
¯
Exemple 3.1. ¯0
¯
¯0
¯
¯0
3.2
1 5
6
3 4 −2
0 1
0
0 8
3
0 −9 2
¯
3¯¯
¯
¯
¯ ¯ 1 0 0¯
0¯¯ ¯¯
¯
¯ 1 1¯¯ ¯¯
0¯ = ¯¯
× ¯ 8 3 0¯¯ = 6
¯
¯ 2 3 ¯
0¯
−9 2 2¯
¯
2¯
Matrice semblables
Définition 3.1. Soient A, B ∈ Mn (K). On dit que A est semblable à B s’il existe P ∈ Gl n (K ) tel que
B = P −1 AP
Proposition 3.2. Soit E un espace vectoriel de dimension finie n
• Si u est un endomorphisme E et si B et B 0 sont deux bases de E , les matrices MatB ( u) et
MatB0 ( u) sont semblables.
• Réciproquement, si A et A 0 sont deux matrices semblables, il existe un endomorphisme f de E
et deux bases B et B 0 de E telles que
A = MatB ( u)
A 0 = MatB0 ( u)
et
Ainsi :
Deux matrices sont semblables si et seulement si elles représentent un même
endomorphisme dans des bases différentes.
Preuve :
• Notons P la matrice de passage de la base B à la base B 0 .D’après la formule de changement de bases pour un
endomorphisme , on a :
MatB0 ( u) = P −1 MatB ( u)P
• Réciproquement, si A et A 0 sont deux matrices semblables,il existe une matrice inversible P ∈ GL n (K) telle
que A 0 = P −1 AP.
Soit B = ( e 1 , ..., e n ) une base de E. L’isomorphisme
L(E )
f
M n (K)
MatB ( f )
−→
7−→
assure l’existence d’un endomorphisme f de E tel que Mat f = A et l’existence d’un automorphisme φ de E tel que
Mat φ = P.
B
B
(φ est bijective car sa matrice P est inversible).
Posons
B0 = φ(B) = (φ( e 1 ), ..., φ( e n )) = ( e01 , ..., e0n )
| {z }
| {z }
e01
e0n
Alors, B0 est une base de E (car φ est bijective donc transforme une base en une base )
Dans la suite on va montrer que Mat f = A 0 . Pour cela posons Mat f = (λ i j ) donc
B0
B0
∀ j ∈ [[1, n]] ,
f ( e0j ) =
n
X
λ i j e0i
i =1
En composant avec φ−1 et en remarquant que φ( e i ) = e0i on a
∀ j ∈ [[1, n]] ,
φ−1 ◦ f ◦ φ( e j ) =
n
X
λi j e i
i =1
www.laminehoucin.blogspot.com
page:17/ 22
Complément d’ algèbre linéaire
PSI
ce qui assure que
Mat φ−1 ◦ f ◦ φ = (λ i j ) = Mat f
B0
B
Or
Mat φ−1 ◦ f ◦ φ = Mat φ−1 Mat f Mat φ = P −1 AP = A 0
B
donc
B
B
B
0
Mat f = A .
B0
¶
µ
¶
2 −1
1 0
Exercice 5. Montrer que A =
et B =
sont semblables.
1 0
1 1
µ
Solution : Soit f canoniquement associé à A dans R2 .
Analyse : On cherche donc une base ( e 1 , e 2 ) de R2 telle que Matβ f = B. Par définition de Matβ f , ils doivent
vérifier :
f (e1) = e1 + e2
et
f (e2) = e2
En posant e 1 = (a, b) et e 2 = ( c, d ), on aboutit à deux systèmes
½
½
a−b−c =0
a−b−d =0
et
c−d =0
c=c
Ce qui équivaut à
½
a−b−c =0
c=d
ou encore (a, b, c, d ) = ( b + d, b, d, d ) = b(1, 1, 0, 0) + d (1, 0, 1, 1)
Synthèse : En considérant par exemple, b = 0 et d = 1, on obtient que e 1 = (1, 0) et e 2 = (1, 1) est bien une base
(donc conviennent puisque les calculs précédents sont des équivalences).
Remarque 3.1. La relation ∼ definie sur M n (K) par
« A ∼ B ⇐⇒ A est semblable à B »
est une relation d’équivalencem,
c’est à dire
1. La relation est réflexive : ∀ A ∈ Mn (K), A ∼ A,
2. La relation est symétrique :
puisque B = P
−1
(considérer P = I n ).
2
∀ ( A, B) ∈ Mn (K), A ∼
¡ −1 ¢−1 ¡ −1 ¢
−1
AP ⇐⇒ A = PBP
= P
B ⇐⇒ B ∼ A
A P
3
3. La relation est transitive : ∀ ( A, B, C ) ∈ Mn (K), A ∼ B et B ∼ C =⇒ A ∼ C
puisque B = P −1 AP et C = Q −1 BQ =⇒ C = Q −1 P −1 APQ = (PQ )−1 A (PQ )
On appelle alors classe de similitude d’une matrice A l’ensemble des matrices semblables
A c’est à dire
©
ª
M ∈ Mn (K), | ∃ P ∈ GL n (K ), M = P −1 AP
www.laminehoucin.blogspot.com
page:18/ 22
Complément d’ algèbre linéaire
PSI
3.3
Trace d’une matrice
¡
¢
Définition 3.2. Soit A = a i, j 1≤ i, j≤n ∈ Mn (K).
On appelle trace de la matrice A la somme de ses éléments diagonaux
n
X
tr( A ) =
c’est à dire
a k,k .
k=1
Notation 3.1. On note T r l’application
M n (K) −→
K
A
7−→ tr( A )
Tr :
a b

Exemple 3.2. tr d e
g h
p
p
n X
X
X
Rappel :
a i, j =

i =1 j =1

c
f = a+e+i
i
n
X
a i, j
j =1 i =1
« la somme de la somme des lignes est égale à la somme de la somme des colonnes »
1. ∀ A ∈ Mnp (K), tr( t A ) = tr( A ).
Proposition 3.3.
2. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), ∀λ ∈ K
tr( A + λB) = tr( A ) + λ tr(B).
3. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), tr( AB) = tr(BA ).
4. ∀ A ∈ Mn (K), ∀ P ∈ GL n (K ), tr(P −1 AP ) = tr( A ). (Deux matrices semblables ont la même
trace)
Preuve :
¡
¢
¡
¢
A = a i, j i, j , B = b i, j i, j
1. A et t A ont la même diagonale donc ont la même trace.
2. Soit λ, µ ∈ K ,
tr(λ A + µB) =
n
X
(λa k,k + µ b k,k ) = λ
k=1
k=1
n
X
¡
¢
3. Notons AB = c i, j 1≤ i≤n avec c i, j =
a i,k b k, j
1≤ j ≤ n
n
X
et
a k,k + µ
n
X
n
X
¡
¢
BA = d i, j 1≤ i≤n avec d i, j =
b i,k a k, j
1≤ j ≤ n
k=1
tr( AB)
=
=
=
=
=
b k,k = λ tr( A ) + µ tr(B)
k=1
k=1
n
X
c ii
i =1
n X
n
X
i =1 k=1
n X
n
X
k=1 i =1
n X
n
X
a ik b ki
a ki b ik
( i ←→ k)
b ik a ki
(permutation de sommes )
i =1 k=1
n
X
d ii
i =1
=
www.laminehoucin.blogspot.com
tr(BA )
page:19/ 22
Complément d’ algèbre linéaire
PSI
4. Soit P ∈ Gl n (K ) et A ∈ Mn (K). On a en utilisant la relation précédente
¡
¢
¡
¢
¡
¢
tr(P −1 AP ) = tr P −1 ( AP ) = tr ( AP )P −1 = tr A (PP −1 ) = tr( AI n ) = tr A
Corollaire 3.3. L’application T r : A 7→ tr( A ) est une forme linéaire sur M n (K)
Remarque 3.2. T r est surjective et son noyau est l’ hyperplan de M n (K) donné par
{ A ∈ M n (K) / tr( A ) = 0}
Corollaire 3.4. Soit f ∈ L(E ) et soit A = Matβ f et B = Matβ0 f . On a tr B = tr A
Preuve :
3.4
β0
B = P −1 AP avec P = Pβ
Trace d’un endomorphisme
Définition 3.3. Soit f ∈ L(E ).le nombre tr(Mat f ) ne dépend pas de la base B choisie sur E On
B
l’appelle trace de f et on le note tr( f ).
Ainsi
La trace d’un endomorphisme et la trace de sa matrice relativement à une
base quelconque de E .
Proposition 3.4. Soit f un projecteur de rang r alors
tr( f ) = r
Preuve :
puisque f un projecteur de rang r alors E = ker f ⊕ Im f et dim Im f = r . Soit ( e 1 , . . . , e r ) une base de
Im f et ( e r+1 , . . . , e n ) une base de ker f alors la famille B = ( e 1 , . . . , e n ) est une base de E dans laquelle
µ
¶
Ir 0
Mat f =
0 0
B
Par suite tr f = Mat f = tr I r = r.
B
3.5
Polynômes d’ une matrice ,d’un endomorphisme
E un K−espace vectoriel
Définition 3.4. Soient A ∈ M N (K) une matrice carrée d’ordre n , f ∈ L(E ) une endomorphisme de E et P =
m
X
ak X k
k=0
un polynôme.
• On définit P ( A ) et P ( f ) par :
P ( A) =
m
X
ak Ak
k=0
P( f ) =
m
X
ak f k
k=0
• On dit que P est un polynôme annulateur de A (Resp de f ) si P ( A ) = 0 (Resp : P ( f ) = 0 )
www.laminehoucin.blogspot.com
page:20/ 22
Complément d’ algèbre linéaire
PSI
Proposition 3.5. Soient A ∈ M N (K) et f ∈ L(E ). Alors pour tous P,Q ∈ K[ X ] et λ ∈ K ona
(P + λQ )( A ) = P ( A ) + λQ ( A );
(PQ )( A ) = P ( A )Q ( A )

Exercice 6.
On pose
2
A= 2
−1
−2
−3
2
(P + λQ )( f ) = P ( f ) + λQ ( f )
(PQ )( f ) = P ( f )Q ( f )

1
2
0
1. Montrer que P = ( X − 1)( X + 3) est un polynôme annulateur de A
2. Montrer que A est inversibles et déterminer A −1 en fonction de A
3. Déterminer A n pour n ∈ N
Solution : 1. On vérifie que ( A − I 3 )( A + 3 I 3 ) = 0
(∗)
1
1
2. De (∗) ona A 2 + 2 A − 3 I 3 = 0 donc ( A + 2 I 3 ) A = I 3 donc A inversible et A −1 = ( A + 2 I 3 )
3
3
3. En effectuant la division euclidienne de X n sur le polynôme annulateur P on a
X n = QP + ax + b
en remplaçant par les racines 1 et -3 de P on obtient
½
a+b =1
−3a + b = (−3)n
qui donne a =
4
4.1
1 − (−3)n
3 + (−3)n
et b = 1 − b =
et en remplaçant par A on obtient A n = aA + bI 3
4
4
Sous espaces stables
Définition
Définition 4.1. Soit f ∈ L(E ) et F un sous-espace vectoriel de E .
On dit que F est stable par f si f (F ) ⊂ F .
Exemples 4.1. 1. E et {0} sont stables pour tout endomorphisme de E .
2. Une homothétie stabilise tous les sous-espaces vectoriels de E . La réciproque est d’ailleurs vraie (et constitue
un exercice classique.)
3. ker f et Im f sont stables par f .
Exercice 7.
Exercice 8.
Soit f : R[ X ] → R[ X ]; f (P ) = X P 0 + ( X 2 + 1)P 00 . Montrer que Rn [ X ] est stable par f
1. Montrer que l’intersection de sous espaces stables est un sous espace stable
2. Montrer que la somme de sous espaces stables est un sous espace stable
Exercice 9.
Soient f , g deux endomorphismes qui commutent . montrer que ker f et Im f sont stable par g
Proposition 4.1. Soient f , g deux endomorphismes qui commutent . Alors ker P ( f ) et ImP ( f ) sont stable par Q ( g)
pour tout P,Q ∈ K[ X ]
Définition 4.2. Si F est stable par f alors f F définie de F dans F par ∀ x ∈ F, f F ( x) = f ( x) est un endomorphisme de
F appelé endomorphisme induit par f sur F .
Attention 4.1. la restriction d’un endomorphisme à un sous-espace vectoriel F n’induit pas forcément un endomorphisme de F . Il faut absolument que f (F ) ⊂ F .
www.laminehoucin.blogspot.com
page:21/ 22
Complément d’ algèbre linéaire
PSI
Définition 4.3. Soit F un sous espace stricte d’un espace vectoriel de dimension finie E . On appelle base de E
adaptée à F toute base de E de la forme ( e 1 , ..., e p , ..., e n ) où ( e 1 , ..., e p ) est une base de F
Proposition 4.2. On suppose E de dimension finie. Soit F un sous-espace vectoriel stricte de E et soit β une base
adaptée à F .
µ
¶
A
B
F est stable par f si et seulement si Matβ f est triangulaire supérieure par blocs du type Matβ f =
où
0n− p,p C
p = dim F .
Preuve :
Soit β = ( e 1 , e 2 , . . . e n ) une base adaptée à F avec ( e 1 , e 2 , . . . e p ) base de F .
F est stable par F si et seulement si ∀ i ∈ [[1, p]] , f ( e i ) ∈ F = Vect( e 1 , e 2 , . . . e p ), ce qui équivaut à dire que sa
matrice est
µ
¶
A
B
Matβ f =
0n− p,p C
Remarque 4.1. — A représente alors la matrice de f |F dans ( e 1 , . . . , e p ).
— Comme A et C sont des matrices carrées, il vient alors det f = det
µ A det C . ¶
A 0 p,n− p
— En remplaçant l’ordre de la base, on obtient la matrice Matβ f =
B
C
4.2
Décomposition en somme directe de sous espace stables
µ
Si F et G sont stables par f et E = F ⊕ G , on a dans une base adaptée Matβ f =
suppose que l’on a la décomposition E =
i ∈ [[1, p]] , dim E i = n i .
q
M
A
O
¶
O
Plus généralement,
B
E i et soit β une base adaptée à cette décomposition. On pose pour
i =1
Théorème 4.1. Soit β une base adaptée à une base E =
q
M
Ei.
i =1
Les E i sont stables par f si et seulement si Matβ f est diagonale par blocs.
Plus précisément, on aura


M1


M2



M =




Mq
où chaque M i ∈ Mn i (K ) représente la matrice de l’endomorphisme induit par E i .
Remarque 4.2. Sous les notations du théorème précédent, on a alors det M =
q
Y
det M i .
i =1
www.laminehoucin.blogspot.com
page:22/ 22
Téléchargement