Correction Partielle du TD3 Exercice 5 1. On se donne des scalaires (λ1 , ...λn ) ∈ Kn et µ ∈ K tels que n X λi ui + µv = 0. k=1 Supposons d'abord que µ soit non nul on peut alors écrire v= n X −λk k=1 µ uk ∈ Vect(u1 , ..., un ), ce qui est contraire aux hypothèses. Mais alors comme µ = 0 on a n X λi ui = 0, i=1 et par liberté de la famille u1 , ..., un on en déduit λ1 = λ2 = ... = λn = 0. Au nal la famille u1 , ..., un , v est donc bien libre. 2. Comme on veut montrer une égalité ensembliste, on va procéder par double inclusion. On commence par se donner u ∈ Vect(v1 , v2 ). Par dénition on a alors ∃(λ1 , λ2 ) ∈ K2 , u = λ1 v1 + λ2 v2 . Mais on peut alors écrire u = (λ1 − λ2 )v1 + λ2 (v1 + v2 ) ∈ Vect(v1 , v1 + v2 ). On a donc bien Vect(v1 , v2 ) ∈ Vect(v1 , v1 + v2 ). Réciroquement on considère u ∈ Vect(v1 , v1 + v2 ) on a donc ∃(λ1 , λ2 ) ∈ K2 , u = λ1 v1 + λ2 (v1 + v2 ). Mais on écrit alors u = (λ1 + λ2 )v1 + λ2 v2 ∈ Vect(v1 , v2 ). On a donc Vect(v1 , v1 + v2 ) ⊂ Vect(v1 , v2 ). 1 Exercice 11 Dans tout l'exercice u et v sont des endomorphismes d'un K espace vectoriel E . 1. Soit x ∈ ker(u) ∩ ker(v) alors on a u(x) = v(x) = 0 et donc (u + v)(x) = u(x) + v(x) = 0 + 0 = 0, et donc x ∈ ker(u + v). On en déduit donc ker(u) ∩ ker(v) ⊂ ker(u + v). Pour constater que l'inclusion réciproque est fausse en générale, on considère le cas où u est l'identité de E et v = −u il est clair que ker(v) = ker(u) = {0} ⇒ ker(u) ∩ ker(v) = {0}, alors que ker(u + v) = ker(0) = E . 2. Soit y ∈ Im(u + v) on sait alors ∃x ∈ E, y = (u + v)(x) = u(x) + v(x) ∈ Im(u) + Im(v). On voit donc que Im(u + v) ⊂ Im(u) + Im(v). Pour constater que l'inclusion réciproque est fausse en générale, on considère le cas où u est l'identité de E et v = −u il est clair que Im(u + v) = Im(0) = {0} 6⊂ E = Im(u) + Im(v). 3. Si x ∈ ker u on a alors u2 (x) = u(u(x)) = u(0) = 0, et donc x ∈ ker(u2 ). Finalement ker(u) ⊂ ker(u2 ). Si pour E = R2 on appelle u l'endomorphisme dont la matrice dans la base canonique est 0 1 , 0 0 alors on a clairement comme u 6= 0 et u2 = 0 E = ker(u2 ) 6⊂ ker(u). 4. Si yIm(u2 ) on sait ∃x ∈ E, y = u2 (x) = u(u(x)) ∈ Im(u), et donc Im(u2 ) ⊂ Im(u). Pour constater que l'inclusion réciproque est fausse en générale on considère la cas suivant. Si pour E = R2 on appelle u l'endomorphisme dont la matrice dans la base canonique est 0 1 , 0 0 alors on a clairement comme u 6= 0 et u2 = 0 et donc Im(u) 6⊂ {0} = Im(u2 ). 2 Exercice 14 On se donne u et v deux endomorphismes qui commutent. 1. Soit y ∈ Im(u) alors ∃x ∈ E, y = u(x), on en déduit v(y) = v(u(x)) = v ◦ u(x) = u ◦ v(x) = u(v(x)) ∈ Im(u), on voit donc bien que Im(u) est stable par v . Soit x ∈ ker(u) alors 0 = v(0) = v(u(x)) = v ◦ u(x) = u ◦ v(x) = u(v(x)), et donc v(x) ∈ ker(u). On a bien ker(u) stable par v . 2. Soit y ∈ Im(u) alors ∃x ∈ E, y = u(x). Grâce à l'hypothèse on a ∃(a, b) ∈ ker(u) × ker(v), x = a + b. Mais alors v(y) = v(u(x)) = v◦u(x) = v◦u(a+b) = v◦u(a)+v◦u(b) = v(u(a))+u◦v(b) = v(0)+u(v(b)) = 0+u(0) = 0. donc y ∈ ker(v) et on peut conclure Im(u) ⊂ ker(v). Par symétrie des hypothèses par rapport à u et v on a aussi Im(v) ⊂ ker(u). 3. Si E est de dimension nie on a dim(E) = dim(ker(u) ⊕ ker(v)) = dim(ker(u)) + dim(ker(v)). Le théorème du rang assure dim(E) = dim(Im(u)) + dim(ker(u)) = dim(Im(v)) + dim(ker(v)). On en déduit alors facilement dim(Im(u) = dim(ker(v)), et dim(Im(v)) = dim(ker(u)), et vues les inclusions de la question précédentes on peut conclure ker(u) = Im(v), 3 ker(v) = Im(u). Exercice 15 1. On a tout de suite f ◦ pu = pu ◦ f . Donc f (u) = f ◦ pu (u) = pu ◦ f (u) = pu (f (u) ∈ Vect(u), et comme u était quelconque non nul on en déduit ∀u ∈ E ∗ , ∃λu ∈ K, f (u) = λu u. 2. Si v est non colinéaire à u on a en particulier v et u + v non nuls donc en utilisant la question précédente λu+v (u + v) = f (u + v) = f (u) + f (v) = λu u + λv v, on peut alors écrire (λu+v − λu )u + (λu+v − λv )v = 0, et par liberté de la famille (u, v) on en déduit λu = λu+v = λv . 3. Si maintenant on a µ ∈ K∗ alors λµu (µu) = f (µu) = µf (u) = µλu u = λu (µu), et comme µu 6= 0 on a alors λµu = λu . 4. Soit e un vecteur non nul de E on a alors d'après les questions précédentes ∀x ∈ E ∗ , f (x) = λe x, et l'égalité étant triviale pour x = 0 on en déduit f = λe Id. Finalement la réciproque est évidente et donc on conclut : Les endomorphismes de E qui commutent avec tous les autres sont exactement les homothéties. 4 Exercice 23 1. Faux. Par exemple si E = R2 et F = {(x, y) ∈ E : x = y} on voit (1, 0) + (0, 1) = (1, 1) ∈ F, mais clairement (1, 0) 6∈ F et (0, 1) 6∈ F . 2. Faux, Faux, Vrai. Car pour les deux premières 0v1 + v2 + (−1)v2 = 0, Pour la troisième la matrice 0v1 + 0v2 + v4 = 0. 4 2 1 0 3 2 0 0 1 est trivialement inversible or les colonnes sont v3 , v2 et v1 dont il s'agit bien d'une famille libre. 3. Faux. Dans E = R2 on prend les vecteurs u = (1, 0), v = (0, 1), w = (1, 1) il est facile de voir que (u, v) (u, w) et (v, w) sont des familles libres alors que la famille u + v − w = 0 ⇒ (u, v, w) liée. 4. Faux. Dans E = R3 on prend F = Vect(e1 ), G = Vect(e2 ) et H = Vect(e1 , e2 ) on a alors F + H = H = G + H, et F 6= G. 5. Vrai. En utilisant le théorème de la base incomplète on peut se donner (f1 , ..., fn ) une base de F , g1 , ..., gm une base de G et h1 , ..., hp une base de H . Les sommes directes nous disent tout d'abord que f1 , ..., fn , h1 , ..., hp et g1 , ..., gm , h1 , ..., hp sont des bases de E donc n + p = dim(E) = m + p ⇒ n = m. On considère l'unique endomorphisme de E tel que ∀i ∈ J1, nK, u(fi ) = gi , ∀j ∈ J1, pK, u(hj ) = hj . Comme u envoit une base sur une base il s'agit d'un isomorphisme de E et comme u envoit une base de F sur une base de G la restriction de u à F est un isomorphime sur G. 6. Faux. On prend E = R2 , F = Vect(e1 ) et G = Vect(e2 ) on a alors e1 , e2 ∈ F ∪ G, mais e1 + e2 6∈ F ∪ G. 7. Vrai. Soient x, y ∈ T i∈I (Ei ) et λ ∈ K un scalaire alors ∀i ∈ I, et donc x + λy ∈ T x, y ∈ Ei ⇒ x + λy ∈ Ei , i∈I (Ei ). 8. Faux. N'import quel isomorphisme u (en particulier l'identité) de E vérie ker(u) = {0}, Im(u) = E, et donc ker(u) ⊕ Im(u) = E. 5 9. Faux. Si u = Id et v = −u on a Im(u + v) = {0} = 6 E = Im(u) + Im(v). 10. Vrai. Si z ∈ u(G + H) on a ∃(x, y) ∈ G × H, z = u(x + y) = u(x) + u(y) ∈ u(G) + u(H), et donc u(G + H) ⊂ u(G) + u(H). Réciproquement si z ∈ u(G) + u(H) on sait ∃(a, b) ∈ u(G) × u(H), z = u(a) + u(b), puis ∃(x, y) ∈ G × H, a = u(x), b = u(y), mais alors z = u(x) + u(y) = u(x + y) ∈ u(G + H), et donc u(G) + u(H) ⊂ u(G + H). 11. Vrai. Supposons d'abord u ◦ v = 0 et prenons y ∈ Im(v) alors ∃x ∈ E, y = v(x), mais alors u(y) = u(v(x)) = u ◦ v(x) = 0 ⇒ y ∈ ker(u), et donc Im(v) ⊂ ker(u). Réciproquement si Im(v) ⊂ ker(u) on a ∀x ∈ E, v(x) ∈ Im(v) ⇒ v(x) ∈ ker(u) ⇒ u ◦ v(x) = u(v(x)) = 0. 12. Vrai. Le théorème du rang assure dim(ker(u)) = dim(E) − dim(Im(u)) ≥ dim(E) − dim(F ) > 0, donc ker(u) 6= {0} et u ne peut être injectif. 13. Faux. L'application nulle n'est pas surjectif dès que F 6= {0}. 14. Vrai. Tout d'abord on voit que si y ∈ Im(u ◦ v) alors ∃x ∈ E, y = u ◦ v(x) = u(v(x)) ∈ Im(u), et donc Im(u ◦ v) ⊂ Im(u) donc dim(Im(u ◦ v)) ≤ dim(Im(u)), ce qui est bien rang(u ◦ v) ≤ rang(u). Pour l'autre inégalité on voit que pour x ∈ ker(v) on a u ◦ v(x) = u(v(x)) = u(0) = 0 ⇒ x ∈ ker(u ◦ v), et donc ker(v) ⊂ ker(u ◦ v) mais alors dim(ker(v)) ≤ dim(ker(u ◦ v)), et le théorème du rang assure rang(v) = dim(E) − dim(ker(v)) ≥ dim(E) − dim(ker(u◦)) = rang(u ◦ v). 6 15. Faux. Si E = R2 , F = Vect(e1 ) et u la restriction de l'identité de E à F . On constate alors (2, 0) ∈ F ⇒ v(2, 0) = (2, 0), (1, ±1) 6∈ F ⇒ v(1, ±1) = (0, 0), mais comme (1, 1) + (1, −1) = (2, 0) alors que v(1, 1) + v(1, −1) = (0, 0) + (0, 0) = (0, 0) 6= (2, 0), on en déduit que v n'est pas linéaire. 16. Vrai. E étant de dimension nie on peut trouver grâce au théorème de la base incomplète une base (f1 , ..., fn ) de E telle que f1 , ..., fp est une base de F . On peut alors dénir u comme l'unique application linéaire de E telle que ( v(ei ) si i ≤ p, ∀i ∈ J1, nK, u(ei ) = 0 sinon. On rappelle au passage que l'on peut donner une formule pour u par ∀x ∈ E, u(x) = p X v(fi )fi∗ (x). i=1 17. Faux. On a 1 0 0 0 1 0 = + 0 1 0 1 0 0 18. Vrai. Si on se donne un vecteur X de R2n et qu'on appelle x le vecteur de ses n premières coordonnées et y le vecteur de ses n dernière coordonnées (on écrira alors X = Co(x, y). On voit que ( Ax + Cy = 0 By = 0 M X = 0, . Mais alors si A et B sont inversibles By = 0 implique y = 0 et alors Ax = Ax + Cy = 0 ⇒ x = 0, et donc X à toutes ses coordonnées nulles donc X = 0 et M est inversible. Réciproquement si M est inversible on prend x quelconque et y nul on a donc ( Ax + C0 = Ax = 0, Ax = 0 ⇒ B0 = 0, ⇒ M Co(x, 0) = 0 ⇒ C(x, 0) = 0 ⇒ x = 0, on en déduit donc A inversible. Pour y quelconque et x = −A−1 Cy on a alors ( A(−A−1 Cy) + Cy = 0 By = 0 ⇒ By = 0 ⇒ M Co(−A−1 Cy, y) = 0 ⇒ y = 0, et donc B inversible. 19. Faux. On dénit A= 1 0 , 0 0 B= 0 1 , 0 0 et on constate AB = B 6= 0, 7 BA = 0. 20. Vrai. Pour un scalaire λ ∈ K, on voit que si M = (mi,j )1≤i,j≤n est la matrice telle que 2 ∀(i, j) ∈ J1, nK , mi,j λ = 1 0 si i = 1 = j si i = j 6= 1, sinon on a clairement det(M ) = λ. 21. Faux. Si A est la matrice ayant des 1 sur tous les coecients diagonaux sauf le premier et des 0 partout ailleurs. On a Com(A) 6= 0 car au moins le coecient de coordonnées 1, 1 vaut 1 et est donc non nul. Mais la matrice n'étant pas inversible on a A0n = 0n A = 0n = det(A)In . (Le résultat est par contre vrai si A est supposée inversible car on peut simpler par A dans AB = det(A)In = ACom(A) 8