pdf

publicité
Correction Partielle du TD3
Exercice 5
1. On se donne des scalaires (λ1 , ...λn ) ∈ Kn et µ ∈ K tels que
n
X
λi ui + µv = 0.
k=1
Supposons d'abord que µ soit non nul on peut alors écrire
v=
n
X
−λk
k=1
µ
uk ∈ Vect(u1 , ..., un ),
ce qui est contraire aux hypothèses. Mais alors comme µ = 0 on a
n
X
λi ui = 0,
i=1
et par liberté de la famille u1 , ..., un on en déduit
λ1 = λ2 = ... = λn = 0.
Au nal la famille u1 , ..., un , v est donc bien libre.
2. Comme on veut montrer une égalité ensembliste, on va procéder par double inclusion. On commence par
se donner u ∈ Vect(v1 , v2 ). Par dénition on a alors
∃(λ1 , λ2 ) ∈ K2 ,
u = λ1 v1 + λ2 v2 .
Mais on peut alors écrire
u = (λ1 − λ2 )v1 + λ2 (v1 + v2 ) ∈ Vect(v1 , v1 + v2 ).
On a donc bien Vect(v1 , v2 ) ∈ Vect(v1 , v1 + v2 ). Réciroquement on considère u ∈ Vect(v1 , v1 + v2 ) on a
donc
∃(λ1 , λ2 ) ∈ K2 ,
u = λ1 v1 + λ2 (v1 + v2 ).
Mais on écrit alors
u = (λ1 + λ2 )v1 + λ2 v2 ∈ Vect(v1 , v2 ).
On a donc Vect(v1 , v1 + v2 ) ⊂ Vect(v1 , v2 ).
1
Exercice 11
Dans tout l'exercice u et v sont des endomorphismes d'un K espace vectoriel E .
1. Soit x ∈ ker(u) ∩ ker(v) alors on a
u(x) = v(x) = 0 et donc (u + v)(x) = u(x) + v(x) = 0 + 0 = 0,
et donc x ∈ ker(u + v). On en déduit donc ker(u) ∩ ker(v) ⊂ ker(u + v).
Pour constater que l'inclusion réciproque est fausse en générale, on considère le cas où u est l'identité de
E et v = −u il est clair que
ker(v) = ker(u) = {0} ⇒ ker(u) ∩ ker(v) = {0},
alors que ker(u + v) = ker(0) = E .
2. Soit y ∈ Im(u + v) on sait alors
∃x ∈ E,
y = (u + v)(x) = u(x) + v(x) ∈ Im(u) + Im(v).
On voit donc que Im(u + v) ⊂ Im(u) + Im(v).
Pour constater que l'inclusion réciproque est fausse en générale, on considère le cas où u est l'identité de
E et v = −u il est clair que
Im(u + v) = Im(0) = {0} 6⊂ E = Im(u) + Im(v).
3. Si x ∈ ker u on a alors
u2 (x) = u(u(x)) = u(0) = 0,
et donc x ∈ ker(u2 ). Finalement ker(u) ⊂ ker(u2 ).
Si pour E = R2 on appelle u l'endomorphisme dont la matrice dans la base canonique est
0 1
,
0 0
alors on a clairement comme u 6= 0 et u2 = 0
E = ker(u2 ) 6⊂ ker(u).
4. Si yIm(u2 ) on sait
∃x ∈ E,
y = u2 (x) = u(u(x)) ∈ Im(u),
et donc Im(u2 ) ⊂ Im(u).
Pour constater que l'inclusion réciproque est fausse en générale on considère la cas suivant. Si pour E = R2
on appelle u l'endomorphisme dont la matrice dans la base canonique est
0 1
,
0 0
alors on a clairement comme u 6= 0 et u2 = 0 et donc
Im(u) 6⊂ {0} = Im(u2 ).
2
Exercice 14
On se donne u et v deux endomorphismes qui commutent.
1. Soit y ∈ Im(u) alors
∃x ∈ E,
y = u(x),
on en déduit
v(y) = v(u(x)) = v ◦ u(x) = u ◦ v(x) = u(v(x)) ∈ Im(u),
on voit donc bien que Im(u) est stable par v .
Soit x ∈ ker(u) alors
0 = v(0) = v(u(x)) = v ◦ u(x) = u ◦ v(x) = u(v(x)),
et donc v(x) ∈ ker(u). On a bien ker(u) stable par v .
2. Soit y ∈ Im(u) alors
∃x ∈ E,
y = u(x).
Grâce à l'hypothèse on a
∃(a, b) ∈ ker(u) × ker(v),
x = a + b.
Mais alors
v(y) = v(u(x)) = v◦u(x) = v◦u(a+b) = v◦u(a)+v◦u(b) = v(u(a))+u◦v(b) = v(0)+u(v(b)) = 0+u(0) = 0.
donc y ∈ ker(v) et on peut conclure
Im(u) ⊂ ker(v).
Par symétrie des hypothèses par rapport à u et v on a aussi
Im(v) ⊂ ker(u).
3. Si E est de dimension nie on a
dim(E) = dim(ker(u) ⊕ ker(v)) = dim(ker(u)) + dim(ker(v)).
Le théorème du rang assure
dim(E) = dim(Im(u)) + dim(ker(u)) = dim(Im(v)) + dim(ker(v)).
On en déduit alors facilement
dim(Im(u) = dim(ker(v)), et dim(Im(v)) = dim(ker(u)),
et vues les inclusions de la question précédentes on peut conclure
ker(u) = Im(v),
3
ker(v) = Im(u).
Exercice 15
1. On a tout de suite f ◦ pu = pu ◦ f . Donc
f (u) = f ◦ pu (u) = pu ◦ f (u) = pu (f (u) ∈ Vect(u),
et comme u était quelconque non nul on en déduit
∀u ∈ E ∗ ,
∃λu ∈ K,
f (u) = λu u.
2. Si v est non colinéaire à u on a en particulier v et u + v non nuls donc en utilisant la question précédente
λu+v (u + v) = f (u + v) = f (u) + f (v) = λu u + λv v,
on peut alors écrire
(λu+v − λu )u + (λu+v − λv )v = 0,
et par liberté de la famille (u, v) on en déduit
λu = λu+v = λv .
3. Si maintenant on a µ ∈ K∗ alors
λµu (µu) = f (µu) = µf (u) = µλu u = λu (µu),
et comme µu 6= 0 on a alors
λµu = λu .
4. Soit e un vecteur non nul de E on a alors d'après les questions précédentes
∀x ∈ E ∗ ,
f (x) = λe x,
et l'égalité étant triviale pour x = 0 on en déduit f = λe Id. Finalement la réciproque est évidente et donc
on conclut :
Les endomorphismes de E qui commutent avec tous les autres sont exactement les homothéties.
4
Exercice 23
1. Faux. Par exemple si E = R2 et F = {(x, y) ∈ E : x = y} on voit
(1, 0) + (0, 1) = (1, 1) ∈ F,
mais clairement (1, 0) 6∈ F et (0, 1) 6∈ F .
2. Faux, Faux, Vrai. Car pour les deux premières
0v1 + v2 + (−1)v2 = 0,
Pour la troisième la matrice
0v1 + 0v2 + v4 = 0.


4 2 1
0 3 2
0 0 1
est trivialement inversible or les colonnes sont v3 , v2 et v1 dont il s'agit bien d'une famille libre.
3. Faux. Dans E = R2 on prend les vecteurs u = (1, 0), v = (0, 1), w = (1, 1) il est facile de voir que (u, v)
(u, w) et (v, w) sont des familles libres alors que la famille
u + v − w = 0 ⇒ (u, v, w) liée.
4. Faux. Dans E = R3 on prend F = Vect(e1 ), G = Vect(e2 ) et H = Vect(e1 , e2 ) on a alors
F + H = H = G + H,
et F 6= G.
5. Vrai. En utilisant le théorème de la base incomplète on peut se donner (f1 , ..., fn ) une base de F ,
g1 , ..., gm une base de G et h1 , ..., hp une base de H . Les sommes directes nous disent tout d'abord
que f1 , ..., fn , h1 , ..., hp et g1 , ..., gm , h1 , ..., hp sont des bases de E donc
n + p = dim(E) = m + p ⇒ n = m.
On considère l'unique endomorphisme de E tel que
∀i ∈ J1, nK,
u(fi ) = gi ,
∀j ∈ J1, pK,
u(hj ) = hj .
Comme u envoit une base sur une base il s'agit d'un isomorphisme de E et comme u envoit une base de
F sur une base de G la restriction de u à F est un isomorphime sur G.
6. Faux. On prend E = R2 , F = Vect(e1 ) et G = Vect(e2 ) on a alors
e1 , e2 ∈ F ∪ G, mais e1 + e2 6∈ F ∪ G.
7. Vrai. Soient x, y ∈
T
i∈I (Ei )
et λ ∈ K un scalaire alors
∀i ∈ I,
et donc x + λy ∈
T
x, y ∈ Ei ⇒ x + λy ∈ Ei ,
i∈I (Ei ).
8. Faux. N'import quel isomorphisme u (en particulier l'identité) de E vérie
ker(u) = {0},
Im(u) = E,
et donc
ker(u) ⊕ Im(u) = E.
5
9. Faux. Si u = Id et v = −u on a
Im(u + v) = {0} =
6 E = Im(u) + Im(v).
10. Vrai. Si z ∈ u(G + H) on a
∃(x, y) ∈ G × H,
z = u(x + y) = u(x) + u(y) ∈ u(G) + u(H),
et donc u(G + H) ⊂ u(G) + u(H). Réciproquement si z ∈ u(G) + u(H) on sait
∃(a, b) ∈ u(G) × u(H),
z = u(a) + u(b),
puis
∃(x, y) ∈ G × H,
a = u(x),
b = u(y),
mais alors
z = u(x) + u(y) = u(x + y) ∈ u(G + H),
et donc u(G) + u(H) ⊂ u(G + H).
11. Vrai. Supposons d'abord u ◦ v = 0 et prenons y ∈ Im(v) alors
∃x ∈ E,
y = v(x),
mais alors
u(y) = u(v(x)) = u ◦ v(x) = 0 ⇒ y ∈ ker(u),
et donc Im(v) ⊂ ker(u).
Réciproquement si Im(v) ⊂ ker(u) on a
∀x ∈ E,
v(x) ∈ Im(v) ⇒ v(x) ∈ ker(u) ⇒ u ◦ v(x) = u(v(x)) = 0.
12. Vrai. Le théorème du rang assure
dim(ker(u)) = dim(E) − dim(Im(u)) ≥ dim(E) − dim(F ) > 0,
donc ker(u) 6= {0} et u ne peut être injectif.
13. Faux. L'application nulle n'est pas surjectif dès que F 6= {0}.
14. Vrai. Tout d'abord on voit que si y ∈ Im(u ◦ v) alors
∃x ∈ E,
y = u ◦ v(x) = u(v(x)) ∈ Im(u),
et donc Im(u ◦ v) ⊂ Im(u) donc dim(Im(u ◦ v)) ≤ dim(Im(u)), ce qui est bien rang(u ◦ v) ≤ rang(u).
Pour l'autre inégalité on voit que pour x ∈ ker(v) on a
u ◦ v(x) = u(v(x)) = u(0) = 0 ⇒ x ∈ ker(u ◦ v),
et donc ker(v) ⊂ ker(u ◦ v) mais alors
dim(ker(v)) ≤ dim(ker(u ◦ v)),
et le théorème du rang assure
rang(v) = dim(E) − dim(ker(v)) ≥ dim(E) − dim(ker(u◦)) = rang(u ◦ v).
6
15. Faux. Si E = R2 , F = Vect(e1 ) et u la restriction de l'identité de E à F . On constate alors
(2, 0) ∈ F ⇒ v(2, 0) = (2, 0),
(1, ±1) 6∈ F ⇒ v(1, ±1) = (0, 0),
mais comme (1, 1) + (1, −1) = (2, 0) alors que
v(1, 1) + v(1, −1) = (0, 0) + (0, 0) = (0, 0) 6= (2, 0),
on en déduit que v n'est pas linéaire.
16. Vrai. E étant de dimension nie on peut trouver grâce au théorème de la base incomplète une base
(f1 , ..., fn ) de E telle que f1 , ..., fp est une base de F . On peut alors dénir u comme l'unique application
linéaire de E telle que
(
v(ei ) si i ≤ p,
∀i ∈ J1, nK,
u(ei ) =
0
sinon.
On rappelle au passage que l'on peut donner une formule pour u par
∀x ∈ E,
u(x) =
p
X
v(fi )fi∗ (x).
i=1
17. Faux. On a
1 0
0 0
1 0
=
+
0 1
0 1
0 0
18. Vrai. Si on se donne un vecteur X de R2n et qu'on appelle x le vecteur de ses n premières coordonnées et
y le vecteur de ses n dernière coordonnées (on écrira alors X = Co(x, y). On voit que
(
Ax + Cy = 0
By = 0
M X = 0,
.
Mais alors si A et B sont inversibles By = 0 implique y = 0 et alors
Ax = Ax + Cy = 0 ⇒ x = 0,
et donc X à toutes ses coordonnées nulles donc X = 0 et M est inversible.
Réciproquement si M est inversible on prend x quelconque et y nul on a donc
(
Ax + C0 = Ax = 0,
Ax = 0 ⇒
B0 = 0,
⇒ M Co(x, 0) = 0 ⇒ C(x, 0) = 0 ⇒ x = 0,
on en déduit donc A inversible. Pour y quelconque et x = −A−1 Cy on a alors
(
A(−A−1 Cy) + Cy = 0
By = 0 ⇒
By = 0
⇒ M Co(−A−1 Cy, y) = 0 ⇒ y = 0,
et donc B inversible.
19. Faux. On dénit
A=
1 0
,
0 0
B=
0 1
,
0 0
et on constate
AB = B 6= 0,
7
BA = 0.
20. Vrai. Pour un scalaire λ ∈ K, on voit que si M = (mi,j )1≤i,j≤n est la matrice telle que
2
∀(i, j) ∈ J1, nK ,
mi,j


λ
= 1


0
si i = 1 = j
si i = j 6= 1,
sinon
on a clairement det(M ) = λ.
21. Faux. Si A est la matrice ayant des 1 sur tous les coecients diagonaux sauf le premier et des 0 partout
ailleurs. On a Com(A) 6= 0 car au moins le coecient de coordonnées 1, 1 vaut 1 et est donc non nul. Mais
la matrice n'étant pas inversible on a
A0n = 0n A = 0n = det(A)In .
(Le résultat est par contre vrai si A est supposée inversible car on peut simpler par A dans AB =
det(A)In = ACom(A)
8
Téléchargement