pdf

publicité
UE 6-3 Algèbre, Semestre 6, année 2016-2017
Correction de l’examen final
Exercice 1 :
1. On remarque que
u3 = e1 + e2 − 2e3 ,
u2 =
e2 − e3 ,
u1 + u2 =
2e3 .
On a donc trouvé une forme échelonnée pour la famille (u1 , u2 , u3 ). On
en déduit que c’est une base de R3 . Notons (e∗1 , e∗2 , e∗3 ) la base duale
de la base canonique de R3 . On voit immédiatement que, si on pose
u∗3 = e∗1
on a u∗3 (u1 ) = u∗3 (u2 ) = 0 et u∗3 (u3 ) = 1. Pour trouver u∗1 et u∗2 ,
remarquons que, si on prend
1
u∗1 = αe∗1 + e∗2 +
2
1 ∗
∗
∗
u2 = βe1 + e2 −
2
1 ∗
e ,
2 3
1 ∗
e ,
2 3
on a immédiatement u∗1 (u1 ) = 1, u∗1 (u2 ) = 0 et u∗2 (u1 ) = 0, u∗2 (u2 ) = 1.
On trouve les constantes α et β en imposant que u∗1 (u3 ) = u∗2 (u3 ) = 0.
Ces deux conditions nous donnent α = 1/2 et β = −3/2.
2. Les vecteurs u1 et u2 sont linéairement indépendants. Ils engendrent
donc un espace de dimension 2, autrement dit un hyperplan dans R3 .
Cet hyperplan est le noyau d’une forme linéaire. Or, u1 , u2 ∈ Ker(u∗3 )
donc F = Vect(u1 , u2 ) ∈ Ker(u∗3 ). Comme F et Ker(u∗3 ) sont tous
deux de dimension 2, les deux espaces sont égaux :
F = Ker(u∗3 ).
3. L’application φ : R3 → R2 définie par φ(x) = (u∗1 (x), u∗2 (x)) est linéaire
et surjective : φ(u1 ) = (1, 0) et φ(u2 ) = (0, 1) forment une base de R2 .
En utilisant le théorème du rang, on a donc dim(Ker(φ)) = dim(R3 ) −
1
dim(R2 ) = 3 − 2 = 1. Or u3 ∈ Ker(φ) donc, comme G = Vect(u3 ) est
de dimension 1, on a G = Ker(φ) :
\
G = Vect(u3 ) = Ker(φ) = Ker(u∗1 ) Ker(u∗2 ).
Exercice 2 :
1. φ√2 est un morphisme d’anneaux. Son noyau est donc un idéal de
Q[X]. Comme Q[X] est principal, Ker(φ√2 ) = (P0 ) avec P0 ∈ Q[X].
Nous allons montrer que (à multiplication près par un élément de Q∗ ),
P0 = X 2 − 2. En effet, on a clairement que X 2 − 2 ∈ Ker(φ√2 ). Donc
P0 |(X 2 − 2). Si X 2 − 2 était réductible dans Q[X], il admettrait un
diviseur de degré 1 dans Q[X], ce qui impliquerait que X 2 − 2 admet
√
une racine dans Q, ce qui est impossible car ses racines sont ± 2
et aucune n’est dans Q. Comme P0 |(X 2 − 2), on a donc que P0 est
constant ou associé à X 2 −2. La première option est impossible P0 6= 0
√
car P0 |(X 2 − 2) et si P0 = λ 6= 0, P0 ( 2) = λ 6= 0. On a donc montré
que P0 est associé à X 2 − 2 donc qu’on peut prendre P0 = X 2 − 2 (car
ils engendrent le même idéal) :
Ker(φ√2 ) = (X 2 − 2).
2. Ceci découle en fait d’un résultat plus général : Dans un anneau principal A, si I est un idéal premier non nul, I est maximal. Ici, soit J un
idéal de Q[X] tel que (P0 ) ⊂ J ⊂ Q[X]. Il existe Q ∈ Q[X] , Q 6= 0 tel
que J = (Q). Comme P0 ∈ J, on a Q|P0 . Comme P0 est irréductible,
ceci ne laisse que deux possibilités : soit Q est asocié à P0 , auquel cas
J = (P0 ), soit Q est une unité et J = (Q) = Q[X]. Ceci montre que
√
(P0 ) est maximal. L’anneau Q[ 2] = Im(φ√2 est donc un corps.
√
3. Soit x ∈ Q[ 2]. Il existe, par définition, un polynôme P ∈ Q[X] tel que
√
x = P ( 2). Effectuons la division euclidienne de P par P0 = X 2 − 2:
P = (X 2 − 2)Q + R
avec R = bX + a, (a, b) ∈ Q2 , un polynôme de degré 1 et Q ∈ Q[X].
On a alors
√
√
√
√
x = P ( 2) = 0 × Q( 2) + R( 2) = a + b 2.
4. On voit facilement que l’application x 7→ x satisfait x + y = x+y pour
√
tous x, y ∈ Q[ 2]. (elle est même Q-linéaire). Pour montrer qu’on a
√
xy = xy pour tous x, y ∈ Q[ 2], écrivons
√
√
x = a + b 2, y = a0 + b0 2.
2
On a alors
√
xy = (aa0 + 2bb0 ) + (ab0 + ba0 ) 2
√
xy = (aa0 + 2bb0 ) − (ab0 + ba0 ) 2
√
√
xy = (a − b 2)(a0 − b0 2)
√
= (aa0 − 2bb0 ) + (ab0 + ba0 ) 2.
Et donc xy = xy. On a clairement
√
√
1 = 1 + 0 2 = 1 − 0 2 = 1.
Donc x 7→ x est un morphisme d’anneaux dont l’image est clairement
√
contenue dans Q[ 2]. Remarquons au passage que x = x donc cette
application est une involution. En particulier, elle est bijective.
√
√
5. Si x ∈ Q, on a x = x + 0 2 = x − 0 2 = x. Notons P = an X n +
. . . + a1 X + a0 ∈ Q[X]. On a P (α) = 0 donc
0 = P (α)
= an α n + . . . + a1 α + a0
= an α n + . . . + a1 α + a0
= an α n + . . . + a1 α + a0
= P (α),
ce qui montre que α est aussi une racine de P .
6. On procède comme pour les nombres complexes. On a
√
√
√
√
(1 + 2)(1 + 2) = (1 + 2)(1 − 2) = 1 − 2 = −1.
Donc
√
1
(1 + 2) √
√ =
= 2 − 1.
−1
1+ 2
En identifiant, on trouve a = −1 et b = 1.
Exercice 3 :
Première partie
3
1. Procédons comme suggéré par l’indication.
χAα (x) = det(Aα − xI3 )
−1 − x
0
α + 1 = 1
−2 − x
0 −1
1
α − x
−1 − x
0
α + 1 = −1 − x −2 − x
(C1 ← C1 + C2 )
0 0
1
α − x
1
0
α
+
1
= −(1 + x) 1 −2 − x
0 0
1
α − x
1
0
α + 1 = −(1 + x) 0 −1 − x −1 − x
(L2 ← L2 − L1 + L3 )
0
1
α−x −1 − x −1 − x
= −(1 + x) 1
α−x 1 2 1
= (1 + x) 1 α − x
= (1 + x)2 (α − 1 − x).
2. Les racines du polynômes caractéristique sont donc −1 (double) et
α − 1 (simple) si α 6= 0. Et si α = 0, −1 est racine triple de χAα .
3. Tout d’abord si α 6= 0, la racine α − 1 ne pose pas de problème car
elle est simple. Regardons ce qu’il se passe pour l’espace propre E−1 .
On résout
 
 
x
x
 
 
Aα  y  = −  y  ,
z
z
On étudie donc le système


(
(α + 1)z = 0


 −x + (α + 1)z = −x

(α + 1)z = 0
x − 2y = −y ⇔
x=y ⇔


x=y


−x + y + αz = −z
−x + y + (α + 1)z = 0
Si α 6= −1, on voit que z = 0 et donc
E−1
 
1
 
= Vect 1
0
4
est de dimension 1 donc toujours inférieure à la multiplicité de −1
dans χAα . Aα n’est pas diagonalisable.
Si α = −1, par contre,
   

0 
 1

   
E−1 = Vect 1 , 0 .


 0
1 
est de dimension 2 égale à la multiplicité de −1 dans χAα . Et donc,
dans ce cas (et dans ce cas uniquement) Aα est diagonalisable.
4. Si α = −1, Aα est diagonalisable. Son polynôme minimal est donc
scindé à racines simples et ses racines sont les valeurs propres de Aα :
ΠA−1 = (X + 1)(X + 2).
Si α 6∈ {0, −1}, Aα est non-diagonalisable donc son polynôme minimal n’est pas à racines simples. Comme il divise le polynôme caractéristique (théorème de Cayley-Hamilton) et qu’il doit admettre
chaque valeur propre de Aα comme racine, ceci ne laisse qu’une seule
possibilité, qu’il soit égal (au signe près) au polynôme caractéristique
: ΠAα = (X + 1)2 (X − α + 1).
Traitons finalement le cas α = 0. On a, de la même manière que ce qui
précède, (X +1)|ΠA0 et ΠA0 |χA0 (X) = (X +1)3 . On ne peut pas avoir
ΠA0 = X + 1 car A0 n’est pas diagonalisable. On vérifie également
que (A0 + I3 )2 6= 0 (cf. seconde partie) donc ΠA0 6= (X + 1)2 , ce qui
ne laisse que la possibilité ΠA0 = (X + 1)3 .
Seconde partie
1. L’espace propre de A a été déterminé dans la question 3 de la première
partie. L’espace caractéristique N−1 correspondant à la valeur propre −1 est de dimension 3 (= la multiplicité de la racine −1 dans le
polynôme caractéristique), ceci ne laisse que la possibilité N−1 = R3 .
5
2. On a


0
0 1


A + I3 =  1 −1 0
−1 1 1


−1 1 1


(A + I3 )2 = −1 1 1
0 0 0


0 0 0


(A + I3 )3 = 0 0 0
0 0 0
3. On voit immédiatement que (A + I3 )2 est de rang 1 et que
   

1 
 1

   
2
Ker(A + I3 ) = Vect 1 , 0 .


 0
1 
On vérifie

   
−1 1 1
0
1

   
(A + I3 )2 e3 = −1 1 1 0 = 1 6= 0
0 0 0
1
0
donc e3 6∈ Ker(A + I3 )2 .
4. On a
(A + I3 )u1 = (A + I3 )2 u2 = (A + I3 )3 u3 = 0u3 = 0.
Donc,
Au1 = (A + I3 )u1 − I3 u1 = 0 − u1 = −u1 ,
Au2 = (A + I3 )u2 − I3 u2 = u1 − u2 ,
Au3 = (A + I3 )u3 − I3 u3 = u2 − u3 .
La matrice B de f dans la base (u1 , u2 , u3 ) est donc


−1 1
0


B =  0 −1 1  .
0
0 −1
6
5. On voit que

 
−1 0
0
0

 
B =  0 −1 0  + 0
0
0 −1
0
{z
} |
|
:=D

1 0

0 1 .
0 0
{z
}
:=N
La matrice D = −I3 est diagonalisable (elle est même diagonale) et N
est nilpotente, c’est la matrice A + I3 écrite dans la base (u1 , u2 , u3 ).
En particulier, N n = 0 pour tout n ≥ 3. On a clairement que D et N
commutent. Donc B = D + N est la décomposition de Dunford de B.
6. Pour calculer exp(tB), écrivons
exp(tB) = exp(tD) exp(tN )
! ∞
!
∞
X
X 1
1
n
n
=
(tD)
(tN )
n!
n!
n=0
n=0
! 2
!
∞
n
X 1
X
(−t) n
I
(tN )n
=
n! 3
n!
n=0
n=0
!
∞
n
X (−t)
1
2
=
I3
I3 + tN + (tN )
n!
2
n=0





0 1 0
0 0 1
2


 t 

= e−t I3 I3 + t 0 0 1 + 0 0 0
2
0 0 0
0 0 0


1 t t2 /2

−t 
= e 0 1
t .
0 0
1
où, dans la première égalité, on a utilisé le fait que pour deux matrices
M et N qui commutent exp(M + N ) = exp(M ) exp(N ).
Exercice 4 :
1. Soit λ ∈ C une valeur propre de N . Notons X 6= 0 un vecteur propre
associé : N X = λX. Puisque N m = 0, on a 0 = N m X = λm X.
Comme X 6= 0, cela impose λm = 0 donc λ = 0. La seule valeur
propre de N est donc λ = 0.
Pour une matrice N quelconque, si λ1 , . . . , λn désignent les valeurs
propres de N (comptées avec multiplicité), le polynôme caractéristique
de N est
χN (X) = (λ1 − X) · · · (λn − X).
7
Ici, comme N est nilpotente, la seule valeur propre est 0 de multiplicité
n:
χN (X) = (0 − X)n = (−1)n X n .
Le polynôme minimal de N divise X m par définition de m (car N m =
0). Or les seuls diviseurs de X m sont (à une unité près) les X k , 1 ≤ k ≤
m, et par définition de m, on a N k 6= 0 pour tout k < m. Finalement
µN (X) = X m .
2. Soit M ∈ Mn (R) une matrice carrée. S’il existe une matrice inversible
P telle que T = P M P −1 soit triangulaire supérieure et dont les coefficients sur la diagonale sont λ1 , . . . , λn , on a
χM (X) = χT (X) = (λ1 − X) · · · (λn − X).
Le polynôme caractéristique de M est donc scindé sur R. Or, si
!
0 1
M=
,
1 0
χM (X) = X 2 + 1 n’est pas scindé sur R : M n’est pas trigonalisable.
3. Si A et N commutent, elles sont trigonalisables dans une même base.
Le déterminant étant indépendant par changement de base, on peut
considérer A et N triangulaires supérieures. N étant nilpotente, elle
n’a que des zéros sur sa diagonale. Le déterminant d’une matrice
triangulaire supérieure étant le produit de ses éléments diagonaux, on
en déduit det(A + N ) = det(A).
Exercice 5 :
1. Montrons, par contraposée, que (e1 , . . . , ek , v) liée ⇔ v ∈ Vect(e1 , . . . , ek ).
Le sens ⇐ est trivial. Dans l’autre sens, soient λ1 , . . . , λk , µ ∈ K non
tous nuls tels que
λ1 e1 + · · · + λk ek + µv = 0.
Si µ = 0, on a λ1 e1 + · · · + λk ek = 0 avec les λi non tous nuls ce qui
est impossible car la famille (e1 , . . . , ek ) est libre. Donc µ 6= 0 et on
peut écrire
λ1
λk
v= −
e1 + · · · + −
ek ∈ Vect(e1 , . . . , ek ).
µ
µ
8
2. Une famille à un vecteur A1 est libre ssi A1 6= 0. Une récurrence simple
en utilisant ce qui précède montre que, pour tout k ∈ N∗ , une famille
de k vecteurs A1 , . . . , Ak est libre si et seulement si A1 6= 0 et si pour
tout i = 2, . . . , k, Ai 6∈ Vect(A1 , . . . , Ai−1 ). Le résultat de la question
est juste le cas particulier k = n.
3. F2p = Fp × Fp est le produit cartésien de deux ensembles à p éléments.
Il a donc p2 éléments.
4. Si u 6= 0, l’application λ 7→ λu est un isomorphisme entre Fp et
Vect(u). En particulier, Vect(u) a p éléments et F2p \ Vect(u) a p2 − p
éléments.
5. En utilisant ce qui précède, une metrice A est inversible si A1 6= 0 et
si A2 6∈ Vect(A1 ). Il y a p2 − 1 choix possibles pour A1 , puis, A1 étant
choisi, p2 − p choix possibles pour A2 . On a donc
#GL2 (Fp ) = (p2 − 1)(p2 − p).
6. En généralisant ce qui précède, si A1 , . . . , Ak sont k vecteurs linéairement
indépendants, Vect(A1 , . . . , Ak ) est isomorphe à Fkp et compte donc pk
éléments. D’où # Fnp \ Vect(A1 , . . . , Ak ) = pn − pk . On a donc, pour
construire une matrice inversible
• pn choix pour A1 ,
• (A1 étant choisi) pn − p choix pour A2
• (A1 , A2 étant choisis) pn − p2 choix pour A2
• ...
On voit donc
#GLn (Fp ) =
n−1
Y
k=0
9
(pn − pk ).
Téléchargement