UE 6-3 Algèbre, Semestre 6, année 2016-2017 Correction de l’examen final Exercice 1 : 1. On remarque que u3 = e1 + e2 − 2e3 , u2 = e2 − e3 , u1 + u2 = 2e3 . On a donc trouvé une forme échelonnée pour la famille (u1 , u2 , u3 ). On en déduit que c’est une base de R3 . Notons (e∗1 , e∗2 , e∗3 ) la base duale de la base canonique de R3 . On voit immédiatement que, si on pose u∗3 = e∗1 on a u∗3 (u1 ) = u∗3 (u2 ) = 0 et u∗3 (u3 ) = 1. Pour trouver u∗1 et u∗2 , remarquons que, si on prend 1 u∗1 = αe∗1 + e∗2 + 2 1 ∗ ∗ ∗ u2 = βe1 + e2 − 2 1 ∗ e , 2 3 1 ∗ e , 2 3 on a immédiatement u∗1 (u1 ) = 1, u∗1 (u2 ) = 0 et u∗2 (u1 ) = 0, u∗2 (u2 ) = 1. On trouve les constantes α et β en imposant que u∗1 (u3 ) = u∗2 (u3 ) = 0. Ces deux conditions nous donnent α = 1/2 et β = −3/2. 2. Les vecteurs u1 et u2 sont linéairement indépendants. Ils engendrent donc un espace de dimension 2, autrement dit un hyperplan dans R3 . Cet hyperplan est le noyau d’une forme linéaire. Or, u1 , u2 ∈ Ker(u∗3 ) donc F = Vect(u1 , u2 ) ∈ Ker(u∗3 ). Comme F et Ker(u∗3 ) sont tous deux de dimension 2, les deux espaces sont égaux : F = Ker(u∗3 ). 3. L’application φ : R3 → R2 définie par φ(x) = (u∗1 (x), u∗2 (x)) est linéaire et surjective : φ(u1 ) = (1, 0) et φ(u2 ) = (0, 1) forment une base de R2 . En utilisant le théorème du rang, on a donc dim(Ker(φ)) = dim(R3 ) − 1 dim(R2 ) = 3 − 2 = 1. Or u3 ∈ Ker(φ) donc, comme G = Vect(u3 ) est de dimension 1, on a G = Ker(φ) : \ G = Vect(u3 ) = Ker(φ) = Ker(u∗1 ) Ker(u∗2 ). Exercice 2 : 1. φ√2 est un morphisme d’anneaux. Son noyau est donc un idéal de Q[X]. Comme Q[X] est principal, Ker(φ√2 ) = (P0 ) avec P0 ∈ Q[X]. Nous allons montrer que (à multiplication près par un élément de Q∗ ), P0 = X 2 − 2. En effet, on a clairement que X 2 − 2 ∈ Ker(φ√2 ). Donc P0 |(X 2 − 2). Si X 2 − 2 était réductible dans Q[X], il admettrait un diviseur de degré 1 dans Q[X], ce qui impliquerait que X 2 − 2 admet √ une racine dans Q, ce qui est impossible car ses racines sont ± 2 et aucune n’est dans Q. Comme P0 |(X 2 − 2), on a donc que P0 est constant ou associé à X 2 −2. La première option est impossible P0 6= 0 √ car P0 |(X 2 − 2) et si P0 = λ 6= 0, P0 ( 2) = λ 6= 0. On a donc montré que P0 est associé à X 2 − 2 donc qu’on peut prendre P0 = X 2 − 2 (car ils engendrent le même idéal) : Ker(φ√2 ) = (X 2 − 2). 2. Ceci découle en fait d’un résultat plus général : Dans un anneau principal A, si I est un idéal premier non nul, I est maximal. Ici, soit J un idéal de Q[X] tel que (P0 ) ⊂ J ⊂ Q[X]. Il existe Q ∈ Q[X] , Q 6= 0 tel que J = (Q). Comme P0 ∈ J, on a Q|P0 . Comme P0 est irréductible, ceci ne laisse que deux possibilités : soit Q est asocié à P0 , auquel cas J = (P0 ), soit Q est une unité et J = (Q) = Q[X]. Ceci montre que √ (P0 ) est maximal. L’anneau Q[ 2] = Im(φ√2 est donc un corps. √ 3. Soit x ∈ Q[ 2]. Il existe, par définition, un polynôme P ∈ Q[X] tel que √ x = P ( 2). Effectuons la division euclidienne de P par P0 = X 2 − 2: P = (X 2 − 2)Q + R avec R = bX + a, (a, b) ∈ Q2 , un polynôme de degré 1 et Q ∈ Q[X]. On a alors √ √ √ √ x = P ( 2) = 0 × Q( 2) + R( 2) = a + b 2. 4. On voit facilement que l’application x 7→ x satisfait x + y = x+y pour √ tous x, y ∈ Q[ 2]. (elle est même Q-linéaire). Pour montrer qu’on a √ xy = xy pour tous x, y ∈ Q[ 2], écrivons √ √ x = a + b 2, y = a0 + b0 2. 2 On a alors √ xy = (aa0 + 2bb0 ) + (ab0 + ba0 ) 2 √ xy = (aa0 + 2bb0 ) − (ab0 + ba0 ) 2 √ √ xy = (a − b 2)(a0 − b0 2) √ = (aa0 − 2bb0 ) + (ab0 + ba0 ) 2. Et donc xy = xy. On a clairement √ √ 1 = 1 + 0 2 = 1 − 0 2 = 1. Donc x 7→ x est un morphisme d’anneaux dont l’image est clairement √ contenue dans Q[ 2]. Remarquons au passage que x = x donc cette application est une involution. En particulier, elle est bijective. √ √ 5. Si x ∈ Q, on a x = x + 0 2 = x − 0 2 = x. Notons P = an X n + . . . + a1 X + a0 ∈ Q[X]. On a P (α) = 0 donc 0 = P (α) = an α n + . . . + a1 α + a0 = an α n + . . . + a1 α + a0 = an α n + . . . + a1 α + a0 = P (α), ce qui montre que α est aussi une racine de P . 6. On procède comme pour les nombres complexes. On a √ √ √ √ (1 + 2)(1 + 2) = (1 + 2)(1 − 2) = 1 − 2 = −1. Donc √ 1 (1 + 2) √ √ = = 2 − 1. −1 1+ 2 En identifiant, on trouve a = −1 et b = 1. Exercice 3 : Première partie 3 1. Procédons comme suggéré par l’indication. χAα (x) = det(Aα − xI3 ) −1 − x 0 α + 1 = 1 −2 − x 0 −1 1 α − x −1 − x 0 α + 1 = −1 − x −2 − x (C1 ← C1 + C2 ) 0 0 1 α − x 1 0 α + 1 = −(1 + x) 1 −2 − x 0 0 1 α − x 1 0 α + 1 = −(1 + x) 0 −1 − x −1 − x (L2 ← L2 − L1 + L3 ) 0 1 α−x −1 − x −1 − x = −(1 + x) 1 α−x 1 2 1 = (1 + x) 1 α − x = (1 + x)2 (α − 1 − x). 2. Les racines du polynômes caractéristique sont donc −1 (double) et α − 1 (simple) si α 6= 0. Et si α = 0, −1 est racine triple de χAα . 3. Tout d’abord si α 6= 0, la racine α − 1 ne pose pas de problème car elle est simple. Regardons ce qu’il se passe pour l’espace propre E−1 . On résout x x Aα y = − y , z z On étudie donc le système ( (α + 1)z = 0 −x + (α + 1)z = −x (α + 1)z = 0 x − 2y = −y ⇔ x=y ⇔ x=y −x + y + αz = −z −x + y + (α + 1)z = 0 Si α 6= −1, on voit que z = 0 et donc E−1 1 = Vect 1 0 4 est de dimension 1 donc toujours inférieure à la multiplicité de −1 dans χAα . Aα n’est pas diagonalisable. Si α = −1, par contre, 0 1 E−1 = Vect 1 , 0 . 0 1 est de dimension 2 égale à la multiplicité de −1 dans χAα . Et donc, dans ce cas (et dans ce cas uniquement) Aα est diagonalisable. 4. Si α = −1, Aα est diagonalisable. Son polynôme minimal est donc scindé à racines simples et ses racines sont les valeurs propres de Aα : ΠA−1 = (X + 1)(X + 2). Si α 6∈ {0, −1}, Aα est non-diagonalisable donc son polynôme minimal n’est pas à racines simples. Comme il divise le polynôme caractéristique (théorème de Cayley-Hamilton) et qu’il doit admettre chaque valeur propre de Aα comme racine, ceci ne laisse qu’une seule possibilité, qu’il soit égal (au signe près) au polynôme caractéristique : ΠAα = (X + 1)2 (X − α + 1). Traitons finalement le cas α = 0. On a, de la même manière que ce qui précède, (X +1)|ΠA0 et ΠA0 |χA0 (X) = (X +1)3 . On ne peut pas avoir ΠA0 = X + 1 car A0 n’est pas diagonalisable. On vérifie également que (A0 + I3 )2 6= 0 (cf. seconde partie) donc ΠA0 6= (X + 1)2 , ce qui ne laisse que la possibilité ΠA0 = (X + 1)3 . Seconde partie 1. L’espace propre de A a été déterminé dans la question 3 de la première partie. L’espace caractéristique N−1 correspondant à la valeur propre −1 est de dimension 3 (= la multiplicité de la racine −1 dans le polynôme caractéristique), ceci ne laisse que la possibilité N−1 = R3 . 5 2. On a 0 0 1 A + I3 = 1 −1 0 −1 1 1 −1 1 1 (A + I3 )2 = −1 1 1 0 0 0 0 0 0 (A + I3 )3 = 0 0 0 0 0 0 3. On voit immédiatement que (A + I3 )2 est de rang 1 et que 1 1 2 Ker(A + I3 ) = Vect 1 , 0 . 0 1 On vérifie −1 1 1 0 1 (A + I3 )2 e3 = −1 1 1 0 = 1 6= 0 0 0 0 1 0 donc e3 6∈ Ker(A + I3 )2 . 4. On a (A + I3 )u1 = (A + I3 )2 u2 = (A + I3 )3 u3 = 0u3 = 0. Donc, Au1 = (A + I3 )u1 − I3 u1 = 0 − u1 = −u1 , Au2 = (A + I3 )u2 − I3 u2 = u1 − u2 , Au3 = (A + I3 )u3 − I3 u3 = u2 − u3 . La matrice B de f dans la base (u1 , u2 , u3 ) est donc −1 1 0 B = 0 −1 1 . 0 0 −1 6 5. On voit que −1 0 0 0 B = 0 −1 0 + 0 0 0 −1 0 {z } | | :=D 1 0 0 1 . 0 0 {z } :=N La matrice D = −I3 est diagonalisable (elle est même diagonale) et N est nilpotente, c’est la matrice A + I3 écrite dans la base (u1 , u2 , u3 ). En particulier, N n = 0 pour tout n ≥ 3. On a clairement que D et N commutent. Donc B = D + N est la décomposition de Dunford de B. 6. Pour calculer exp(tB), écrivons exp(tB) = exp(tD) exp(tN ) ! ∞ ! ∞ X X 1 1 n n = (tD) (tN ) n! n! n=0 n=0 ! 2 ! ∞ n X 1 X (−t) n I (tN )n = n! 3 n! n=0 n=0 ! ∞ n X (−t) 1 2 = I3 I3 + tN + (tN ) n! 2 n=0 0 1 0 0 0 1 2 t = e−t I3 I3 + t 0 0 1 + 0 0 0 2 0 0 0 0 0 0 1 t t2 /2 −t = e 0 1 t . 0 0 1 où, dans la première égalité, on a utilisé le fait que pour deux matrices M et N qui commutent exp(M + N ) = exp(M ) exp(N ). Exercice 4 : 1. Soit λ ∈ C une valeur propre de N . Notons X 6= 0 un vecteur propre associé : N X = λX. Puisque N m = 0, on a 0 = N m X = λm X. Comme X 6= 0, cela impose λm = 0 donc λ = 0. La seule valeur propre de N est donc λ = 0. Pour une matrice N quelconque, si λ1 , . . . , λn désignent les valeurs propres de N (comptées avec multiplicité), le polynôme caractéristique de N est χN (X) = (λ1 − X) · · · (λn − X). 7 Ici, comme N est nilpotente, la seule valeur propre est 0 de multiplicité n: χN (X) = (0 − X)n = (−1)n X n . Le polynôme minimal de N divise X m par définition de m (car N m = 0). Or les seuls diviseurs de X m sont (à une unité près) les X k , 1 ≤ k ≤ m, et par définition de m, on a N k 6= 0 pour tout k < m. Finalement µN (X) = X m . 2. Soit M ∈ Mn (R) une matrice carrée. S’il existe une matrice inversible P telle que T = P M P −1 soit triangulaire supérieure et dont les coefficients sur la diagonale sont λ1 , . . . , λn , on a χM (X) = χT (X) = (λ1 − X) · · · (λn − X). Le polynôme caractéristique de M est donc scindé sur R. Or, si ! 0 1 M= , 1 0 χM (X) = X 2 + 1 n’est pas scindé sur R : M n’est pas trigonalisable. 3. Si A et N commutent, elles sont trigonalisables dans une même base. Le déterminant étant indépendant par changement de base, on peut considérer A et N triangulaires supérieures. N étant nilpotente, elle n’a que des zéros sur sa diagonale. Le déterminant d’une matrice triangulaire supérieure étant le produit de ses éléments diagonaux, on en déduit det(A + N ) = det(A). Exercice 5 : 1. Montrons, par contraposée, que (e1 , . . . , ek , v) liée ⇔ v ∈ Vect(e1 , . . . , ek ). Le sens ⇐ est trivial. Dans l’autre sens, soient λ1 , . . . , λk , µ ∈ K non tous nuls tels que λ1 e1 + · · · + λk ek + µv = 0. Si µ = 0, on a λ1 e1 + · · · + λk ek = 0 avec les λi non tous nuls ce qui est impossible car la famille (e1 , . . . , ek ) est libre. Donc µ 6= 0 et on peut écrire λ1 λk v= − e1 + · · · + − ek ∈ Vect(e1 , . . . , ek ). µ µ 8 2. Une famille à un vecteur A1 est libre ssi A1 6= 0. Une récurrence simple en utilisant ce qui précède montre que, pour tout k ∈ N∗ , une famille de k vecteurs A1 , . . . , Ak est libre si et seulement si A1 6= 0 et si pour tout i = 2, . . . , k, Ai 6∈ Vect(A1 , . . . , Ai−1 ). Le résultat de la question est juste le cas particulier k = n. 3. F2p = Fp × Fp est le produit cartésien de deux ensembles à p éléments. Il a donc p2 éléments. 4. Si u 6= 0, l’application λ 7→ λu est un isomorphisme entre Fp et Vect(u). En particulier, Vect(u) a p éléments et F2p \ Vect(u) a p2 − p éléments. 5. En utilisant ce qui précède, une metrice A est inversible si A1 6= 0 et si A2 6∈ Vect(A1 ). Il y a p2 − 1 choix possibles pour A1 , puis, A1 étant choisi, p2 − p choix possibles pour A2 . On a donc #GL2 (Fp ) = (p2 − 1)(p2 − p). 6. En généralisant ce qui précède, si A1 , . . . , Ak sont k vecteurs linéairement indépendants, Vect(A1 , . . . , Ak ) est isomorphe à Fkp et compte donc pk éléments. D’où # Fnp \ Vect(A1 , . . . , Ak ) = pn − pk . On a donc, pour construire une matrice inversible • pn choix pour A1 , • (A1 étant choisi) pn − p choix pour A2 • (A1 , A2 étant choisis) pn − p2 choix pour A2 • ... On voit donc #GLn (Fp ) = n−1 Y k=0 9 (pn − pk ).