Corrigé

publicité
Devoir à la Maison no 12
MP 933 & 934
Corrigé
Racines carrées de matrices
CCP MP 2005 Maths 2
I
DÉTERMINATION DE Rac(A) DANS QUELQUES EXEMPLES
Exemple 1 : Cas où A possède n valeurs propres distinctes
1. On peut par exemple (après géométrisation) prendre une famille de vecteurs propres associés aux n valeurs propres.
Puisque ces valeurs propres sont distinctes, cette famille est libre, donc constitue une base de l’espace de travail...
Mais le plus rapide consiste probablement à dire que le polynôme caractéristique possède n racines distinctes, donc
est scindé à racines simples1.
A est diagonalisable dans Mn (R)
Si R2 = A = PDP−1 , alors (P−1 RP)2 = P−1 R2 P = P−1 · PDP−1 · P = D. La réciproque est du même tonneau (on
doit même pouvoir accepter des équivalences, dans ce contexte...).
R2 = A si et seulement si (P−1 RP)2 = D
2.
a. On a S2 = D, donc SD = S · S2 = S3 = S2 · S = DS.
DS = SD
b. Le contexte pousse visiblement à une solution matricielle plutôt que géométrique (les sous-espaces propres de
telle application sont stables par telle autre application; etc...)
Calculons donc, pour 1 6 i, j 6 n, les coefficients (i, j) des matrices en jeu. D’une part, (DS)i,j = λi Si,j ,
et d’autre part (SD)i,j = λj Si,j . Lorsque i 6= j, l’égalité λi Si,j = λj Si,j , ou encore (λi − λj )Si,j = 0 impose
(puisque λi 6= λj ) : Si,j = 0.
S est diagonale
c. Bien entendu, S2 = diag(s21 , . . . , s2n ) = D = diag(λ1 , . . . , λn ), et donc :
s2i = λi pour tout i ∈ [ 1 ; n]].
d. Si l’un des λi est strictement négatif, la question précédente conduit à une contradiction.
Si A possède une valeur propre strictement négative, alors Rac(A) = ∅.
e. Supposons que tous les valeurs propres λi sont positives ou nulles.
Les questions
précédentes nous disent que si
√
√
S est une racine carrée de D, alors S est de la forme diag(ε1 λ1 , . . . , εn λn ), avec (ε1 , . . . , εn ) ∈ {−1, 1}n. La
réciproque est évidente (mais il faut bien sûr la montrer).
√
√
Rac(D) = diag(ε1 λ1 , . . . , εn λn ) ; (ε1 , . . . , εn ) ∈ {−1, 1}n
3. D’après la question 1, R est dans Rac(A) si et seulement si P−1 RP est dans Rac(D), ou encore : R = PSP−1 , avec
S ∈ Rac(D) :
√
√
Rac(A) = P diag(ε1 λ1 , . . . , εn λn )P−1 ; (ε1 , . . . , εn ) ∈ {−1, 1}n
Si les λi sont tous strictement positifs, Rac(D) possède 2n éléments, donc Rac(A) aussi (l’application M 7→ PMP−1
est injective). Si l’un des λi est nul, il est alors unique (les λi sont distincts deux à deux), et D possède alors,
comme A, 2n−1 racines.
A possède 2n racine si A est inversible, et 2n−1 sinon.
1
C’est un théorème du cours ; bien entendu, si l’on veut le démontrer... on prend une famille de vecteurs propres, et on démontre qu’elle
est libre comme dit précédemment !
jeudi  février  —  pluviôse 
/home/walter/LaTeX/MP/Annee/2013/DM-2013/DM12.tex
Devoir à la Maison no 12 (Corrigé)

Mathématiques, MP 933 & 934
4. Rappel : les calculatrices sont interdites... Pour le calcul du polynôme caractéristique dét(A − XI), l’opéraition
élémentaire L3 ← L3 + L2 suivie de la factorisation par −X dans la dernière ligne suivie de2 l’opération élémentaire
C2 ← C2 − C3 conduit à
dét(A − XI) = −X ((11 − X)(6 − X) − 50) = −X(X2 − 17X + 16) = −X(X − 1)(X − 16),
donc A est diagonalisable comme prévu3. On cherche des vecteurs propres X1 , X2 , X3 associés respectivement aux
valeurs propres 0, 1 et 16 (pensons à respecter l’ordre, ce qui est imposé par l’énoncé).
 
0
Tout d’abord, les deux dernières colonnes sont opposés; ce qui nous donne un habitant du noyau : X1 = 1 fera
1 


1
10 −5 5
l’affaire. Ensuite, A − I = −5 2 −3, et la combinaison de colonnes C1 = −C2 + C3 nous donne X2 =  1 
5 −3 2
−1
 
−2
dans le noyau. Pour X3 , il suffit de prendre X1 ∧ X2 , c’est-à-dire X3 =  1 .
−1




0 1 −2
0 0 0
Si on pose P = 1 1 1 , on a alors P−1 AP = 0 1 0 . Il reste à appliquer ce qui précède pour déterminer
1 1 −1
0 0 16
les 4 habitants de Rac(A) :
 




0 1 −2
0 0
0


En prenant P = 1 1 1 , on a Rac(A) = P 0 ε1
0  P−1 ; (ε1 , ε2 ) ∈ {−1, 1}2


1 1 −1
0 0 4ε2
Petites vérifications avec Maple:
➠ A:=<<11,-5,5>|<-5,3,-3>|<5,-3,3>>:
Eigenvectors(A)
➠ P:=%[2]:
➠ P**(-1).A.P;
➠ Di:=DiagonalMatrix([0,1,-4]):
➠ R:=P.Di.P**(-1);
➠ R**2;
5.
  
0
0
 1  , 1
16
1

−1 2
−1 −1
1
1

0 0
0 1
0 0

7
−
 3


 5

 3

 5
−
3

0
0
16
5
3
−
1
3
1
3


5
3


1 

3 

1
−
3
−

11 −5 5
−5 3 −3
5 −3 3
R)
Exemple 2 : Cas où A est la matrice nulle de Mn (R
a. La relation f ◦ f = 0 se traduit (il y a équivalence) :
Im(f ) ⊂ Ker(f )
On a alors rg(f ) 6 dim(Ker f ). Inégalité qui, après application du théorème du rang (de la formule...) se traduit
rg(f ) 6 n − rg(f ), et donc :
rg(f ) 6
2
3
n
·
2
Vous ne suivez pas le calcul de tête ? Ben c’est normal. Papier ; crayon...
A est symétrique réelle donc orthodiagonalisable.
Racines carrées de matrices
DM12.tex
Devoir à la Maison no 12 (Corrigé)

Mathématiques, MP 933 & 934
b. L’auteur du sujet voulait probablement noter ui un vecteur tel que f (ui ) = ei ...
La famille B est de rang n; il suffit donc d’établir sa liberté. Partons donc d’une combinaison linéaire nulle de
ces vecteurs, et montrons qu’elle est triviale.
La relation λ1 e1 + · · · + λn−r en−r + µ1 u1 + · · · + µr ur = 0 devient, après avoir appliqué f (en se souvenant que
les ei sont dans le noyau de f ) : µ1 f (u1 ) + · · · + µr f (ur ) = 0, soit µ1 e1 + · · · + µr er = 0. Puisque (e1 , . . . , er ) est
libre, les µi sont nuls. Ainsi, λ1 e1 + · · · + λn−r en−r = 0. Or (e1 , . . . , en−r ) est libre, donc les λi sont également
nuls : c’est gagné.
La famille B est une base de Rn .
Chaque ei est envoyé sur 0 par f , et chaque ui sur ei , d’où

0
mat(f, B) = 0
0
6.
la matrice de f dans B, écrite par blocs :

0 Ir
0 0
0 0
a. D’après la question précédente, si R est une racine carrée de la matrice nulle, alors R est semblable à une
matrice Mr .
Mais réciproquement, M2r = 0 (calcul par bloc), donc toute matrice semblable à une matrice Mr est une racine
carrée de la matrice nulle.
S −1
Rac(0) est la réunion des classes de similitude des Mr : Rac(0) =
P Mr P ; P ∈ GLn (R) .
r6n/2
b. Ici, r vaut 0, 1 ou 2 :
Dans M4 (R), Rac(0) est l’ensemble des matrices semblables à M1 ou M2 , ainsi que la matrice nulle.
R)
Exemple 3 : Cas où A est la matrice nulle de Mn (R
7.
a. Pfff... par exemple via le déterminant.
Rac(I) ⊂ GLn (R)
b. Puisque R2 = I, le polynôme X2 − 1 = (X − 1)(X + 1) est annulateur scindé à racine simple, donc :
R est semblable à une matrice diagonale comportant des 1 et −1 sur la diagonale.
Le cours de première année confirme : (l’application linéaire canoniquement associée à) R est une symétrie.
8. La question précédente nous as donné une condition nécessaire... qui s’avère clairement suffisante.
Rac(In ) est constitué des matrices semblables à des matrices de la forme diag(±1, ±1, . . . , ±1).
Exemple 4 : Cas où A est une matrice symétrique réelle
9. Les matrices symétriques réelles sont certes diagonalisables, mais leurs valeurs propres ne sont pas forcément positives
ou nulles, condition nécessaire pour posséder une racine carrée... si les valeurs propres sont distinctes (question 2.d)
La matrice symétrique réelle diag(−1, 2, 3, . . . , n) ne posséde pas de racine carrée.
Le « si les valeurs propres sont distinctes » s’oublietrès facilement...
et conduit à un massacre : voir le rapport du
−1 0
jury. Notamment, ceux qui pensent que la matrice
est un contre-exemple ont tout faux. En effet,
0 −1
2 0 −1
−1 0
=
.
1 0
0 −1
10. Soit A symétrique réelle positive.
Tout d’abord, ses valeurs propres sont des réels positifs4 : on le voit en considérant un vecteur propre X associé à
2
une valeur propre λ, alors t XAX = λ kXk > 0 donc λ > 0.
Le théorème spectral
matrice P ∈ On (R) telle que P−1 AP = diag(λ1 , . . . , λn ), avec les λi > 0. Posons
√ fournit
√ une −1
alors R = P diag( λ1 , . . . , λn )P .
4
C’est bien connu, mais ce n’est pas dans la définition de la positivité, et ce n’est pas strictement explicité dans le programme MP ; sur
une épreuve de type CCP, notamment, il vaut mieux le redémontrer, ça prend deux lignes.
Racines carrées de matrices
DM12.tex
Devoir à la Maison no 12 (Corrigé)

Mathématiques, MP 933 & 934
Bien évidemment, R2 = A. Ensuite, puisque P est orthogonale, R est symétrique5. Enfin, les valeurs propres µi =
de R sont positives, donc R l’est aussi6
√
λi
Toute matrice réelle symétrique positive possède une racine carrée symétrique réelle positive.
II
ÉTUDE TOPOLOGIQUE DE Rac(A)
11. Soit A ∈ Mn (R) ; pour montrer que Rac(A) est fermé, on peut par exemple dire que l’application
Φ : Mn (R) −→ Mn (R),
M 7−→ M2
est continue7 et que Rac(A) = Φ−1 {A} . Puisque {A} est fermé8, on en déduit que
Rac(A) est fermé.
12.
a. Ça alors,
S2q = In .
Puisque cet exemple est qualifié d’« instructif », instruisons-nous, notons que N(Sq ) > q pour tout q ∈ N et
concluons que (Sq )q>0 n’est pas bornée, donc notamment que
Rac(I2 ) n’est pas bornée.
b. Posons maintenant

1
q


S′q = 


0
−1
(0)
pour tout entier q. De la même façon, S′q 2 = In donc
(0)
1
..
.







1
Rac(In ) n’est pas bornée.
c. Par l’absurde.
2
◮ Supposons qu’il existe une norme k·k surmultiplicative. On aurait, notamment, kIn k > kSq k pour
tout q ∈ N. Or, par équivalence des normes en dimension finie, puisque N(Sq ) −−−→ +∞, on a également
kSq k −−−→ +∞, et donc kIn k = +∞... § ◭
q→∞
q→∞
Il n’existe pas de norme « surmultiplicative sur GLn (R) ».
5
Pas convaincu ? Vous ne le serez pas tant que vous n’aurez pas fait le calcul vous-même de t R.
C’est à nouveau un point qu’il faudrait prouver, mais regardez, ça ne prend pas 5 minutes : on écrit t XRX = t X′ diag(µ1 , . . . , µn )X′ ,
 ′
x1
n
P
 
avec X′ = P−1 X =  ... , et ainsi : t XRX =
µi x′2
i > 0.
i=1
x′n
7
À peu près évident, non ? Les suspicieux/prudent pourront préciser : « Chaque coefficient de Φ(M) s’obtient à l’aide de sommes/produits
finis des coefficients de M.
8
Comme tous les singletons qui se respectent, c’est une boule fermée de rayon nul...
6
Racines carrées de matrices
DM12.tex
Devoir à la Maison no 12 (Corrigé)

Mathématiques, MP 933 & 934
III ZÉROS DE FONCTIONS POLYNOMIALES.
APPLICATION À LA DÉTERMINATION DE L’INTÉRIEUR DE Rac(A)
13.
a. Euh... c’est immédiat :
B∞ (a ; r) =
n
Y
k=1
[ ak − r ; ak + r ].
◦
z }| { ◦
b. On a F ∩ G ⊂ F, donc F ∩ G ⊂ F = ∅.
9
Si F et G sont d’intérieur vide, alors F ∩ G l’est aussi.
a. Soit P un polynôme tel que Z(P) est infini, alors P est le polynôme nul10
14.
Seul le polynôme nul vérifie Card Z(P) = ∞.
b. Ah, un dessin...
x2
Z(Q)
Z(P)
−2
−1
1
2
x1
Ces ensembles sont évidemment infinis.
15. C’est la question fine du sujet11
a. Montrons par récurrence sur p ∈ N∗ la propriété
P(p) :
« Si P ∈ Γp et s’il existe des parties infinies I1 , I2 , . . . , Ip telles que
p
Y
k=1
Ik ⊂ Z(P), alors P = 0. »
• La propriété P (1) a été démontrée à la question 14.a.
• Soit p ∈ N et supposons les propriétés P (1), . . . , P (p) démontrées. Montrons maintenant P(p+1).
Soient P ∈ Γp+1 et I1 , I2 , . . . , Ip+1 des parties infinies de R.
❏ Soit (a1 , a2 , . . . , ap+1 ) ∈ R p+1 . Fixons momentanément un réel A ∈ I1 (voir la figure 1 page 6). Le
polynôme
Q := (x2 , . . . , xp+1 ) 7−→ P(A, x2 , . . . , xp+1 )
est élément de Γp , et s’annule sur I2 × · · · × Ip+1 . D’après la proposition P(p), c’est donc la fonction
polynomiale nulle, c’est-à-dire que
∀(x2 , . . . , xp+1 ) ∈ Rp
P(A, x2 , . . . , xp+1 ) = 0.
Notamment, on peut le faire en xk = ak pour k = 2, . . . , p + 1 : P(A, a2 , . . . , ap+1 ) = 0. Ceci étant vrai pour
tout choix de A ∈ I1 , on a donc montré
∀A ∈ I1
9
◦
P(A, a2 , . . . , ap+1 ) = 0.
◦
La propriété générale est : si A ⊂ B, alors A ⊂ B...
10
« Justifier »... certes. Est-ce suffisant ? Faut-il encore enfoncer le clou et expliquer qu’un polynôme de degré n > 0 possède précisément
n racines dans C en comptant l’ordre de multiplicité ?...
11
Pour mémoire, on avait besoin de ça, implicitement, dans une première question d’un sujet de l’X. Le jury s’était montré bizarrement
assez peu satisfait du résultat...
Racines carrées de matrices
DM12.tex
Devoir à la Maison no 12 (Corrigé)

Mathématiques, MP 933 & 934
La fonction polynomiale R : x 7→ P(x, a2 , . . . , ap+1 ) = 0 s’annule donc sur I1 , donc (question 14.a ou
proposition P(1)...) c’est la fonction nulle :
∀x ∈ R
P(x, a2 , . . . , ap+1 ) = 0.
En particulier, P(a1 , a2 , . . . , ap+1 ) = 0. ❏
On a donc montré que P est nul en tout point, c’est le polynôme nul. On conclut à la véracité de P(p + 1).
• Le principe de récurrence permet de conclure que P(p) est vrai pour tout entier p ∈ N∗ .
y
y
y
I2
I2
I2
a2
a2
a2
a1
I1
x
a1
A
x
I1
a1
x
Fig. 1 — Démonstration de la proposition P(2). • À gauche : le polynôme P est nul sur la partie grise I1 × I2 .
• Au milieu : il est nul sur la droite {A} × R, et ce pour tout A ∈ I2 . • À droite : puisque P est nul sur
la partir grise I1 × R, il est nul sur la droite R × {a2 }, et donc en (a1 , a2 ).
Remarque 1 On voit que, pour affirmer qu’un polynôme à plusieurs variables est nul, on a une condition suffisante, mais assez
forte : la fonction polynomiale associée s’annule sur un produit cartésien d’ensembles infinis. Est-ce qu’on ne pourrait pas supposer
plus simplement qu’elle s’annule sur un ensemble infini ?
Eh bien non, et c’est ce que l’on a montré dans la question 14.b. Dans cet exemple, Z(P) ou Z(Q) sont infinis, mais pour une valeur
fixée de x1 , il n’y a qu’un nombre fini de solutions à l’équation P(x1 , y) = 0 d’inconnue y.
b. Soit A une partie d’intérieur non vide de Rp sur laquelle P s’annule. Il existe donc une boule ouverte B∞ (a ; r)
incluse dans A, c’est-à-dire un produit d’intervalle ouverts. La question précédente montre alors que P est nulle.
c. Immmédiat :
Si P n’est pas la fonction nulle, on en déduit que Z(P) est d’intérieur vide.
16.
2
2
a. On peut bêtement écrire que Rac(A) = M ∈ Rn ; M2 − A = 0 . Maintenant, si (i, j) ∈ [ 1 ; n]] , le coefficient
2
2
d’indice ℓ :=(i, j) de M est un polynôme Qℓ en les n variables m1,1 , . . . , mn,n . Si l’on pose
Pℓ := Qℓ − ai,j ,
M est dans Rac(A) si et seulement si Pℓ (M) = 0 pour ℓ = 1, . . . , n2 .
2
Rac(A) =
n
\
Z(Pℓ ).
ℓ=1
b. Comme les polynômes Pℓ sont non nuls, la question 15. permet de conclure que Z(Pℓ ) est d’intérieur vide pour
tout ℓ ∈ {1, . . . , n2 }, donc (question 12.b),
Rac(A) est d’intérieur vide.
Racines carrées de matrices
DM12.tex
Mathématiques 2
Monsieur DE SAINT JULIEN Arnaud
Le sujet traitait de racines carrées de matrices. Il était constitué de trois parties que l’on
pouvait traiter de manière indépendante, même s’il valait mieux faire les questions dans
l’ordre, afin de garder en tête le fil conducteur du problème.
Le problème était bien construit, détaillé et progressif, il n’a posé aucun problème de
compréhension aux candidats. Il n’était ni difficile, ni long. Une quantité non négligeable
d’étudiants a traité toutes les questions.
Les thèmes mis en jeu étaient des fondamentaux du programme :
- algèbre linéaire (calcul matriciel, réduction…),
- algèbre bilinéaire (théorème spectral, matrice définie positive…),
- topologie (parties fermées, bornées, intérieurs…),
- polynômes à une et plusieurs indéterminées.
Appréciation générale des copies
Les résultats des candidats sont extrêmement contrastés. On a constaté un nombre élevé de
très bonnes copies mais aussi, une quantité importante de très mauvaises, loin du niveau
attendu pour des élèves de filière MP.
Cette hétérogénéité se retrouve aussi dans le soin et la qualité de rédaction apportés aux
copies.
Des erreurs de logique ont été fréquemment rencontrées. Les candidats ne doivent pas
confondre « si » et « si et seulement si ». De nombreuses réciproques ont été oubliées.
Le calcul n’est plus très bien maîtrisé, même par de bons candidats.
Globalement, le cours est bien connu.
La moyenne de l’épreuve est élevée, elle est de 10,11.
L’écart type vaut 4,21 ; lui aussi est important.
Ce sujet a très bien joué son rôle pour les concours communs polytechniques : il a permis de
bien classer les candidats.
Remarques détaillées par question
Partie I
Exemple 1
1. La justification « diagonalisable car polynôme caractéristique scindé à racines simples »
est évidemment suffisante.
2. a. Question simple, bien traitée dans l’ensemble malgré quelques réponses farfelues.
-7-
b. Pas mal d’erreurs. La plus importante est : « une matrice qui commute avec une matrice
diagonale est diagonale », ce qui bien sûr est faux puisque toute matrice commute avec
l’identité et que la plupart des matrices ne sont pas diagonales !
Certains ont dit que les sous espaces propres de D étaient stables par S, sans préciser
qu’ils étaient de dimension 1, ce qui permettait effectivement de conclure.
c. Facile et bien traitée.
d. Certains ont répondu que Rac( A) ⊂ M n (^) , sans conclure à l’absurdité.
e. Beaucoup ont oublié la réciproque.
3. Pas mal d’erreurs de dénombrement dans le nombre de racines carrées. De plus, la grande
majorité des candidats n’a pas réalisé que 0 ne pouvait être (si elle l’était) que valeur
propre simple.
4. La question calculatoire du problème n’a pas été traitée ou mal traitée par beaucoup de
candidats y compris les bons !
Exemple 2
5. a. Assez bien traitée
b. De nombreuses erreurs. Voici les plus graves :
- la réunion de 2 familles libres est encore une famille libre
- Im f est un supplémentaire de Ker f .
6. a. Question assez mal traitée avec des réponses souvent non justifiées. La réciproque est
très souvent oubliée.
La matrice nulle est parfois oubliée. Les candidats n’ont pas forcément réalisé que cette
fois-ci (contrairement au premier exemple), la matrice de passage n’était pas fixée mais
décrivait tout GLn (\) . Rac(0) est donc la réunion de plusieurs classes de similitudes
non bornées (à part celle de la matrice nulle).
b. L’exemple numérique a été bien traité par ceux qui avaient réussi la question
précédente.
Exemple 3
7. a. Réussie par quasiment tous les candidats.
b. Question peu réussie, où il suffisait de remarquer que X 2 − 1 était un polynôme
annulateur scindé à racines simples.
8. Oubli fréquent de la réciproque. Assez souvent, les candidats à défaut de le montrer, ont
deviné la réponse.
Exemple 4
9. Question très rarement bien traitée. Très souvent, on a eu des réponses fausses du type :
« une matrice qui admet une valeur propre strictement négative n’admet pas de racine
carrée ». Il fallait absolument préciser à spectre simple, sinon c’est faux.
-8-
2
 0 −1 
Par exemple, 
 = − I 2 , ce qui prouve qu’une matrice à spectre négatif peut
1 0 
admettre des racines carrées (ici la racine carrée est une matrice de rotation d’angle
10.
π
2
).
La plupart des candidats savent qu’une matrice symétrique réelle est diagonalisable. Le
fait que ce soit en base orthonormale est rarement utilisé pour prouver la symétrie des
racines carrées.
Partie II
11.
Des fortunes assez diverses à cette question. Il fallait absolument évoquer la continuité
de M 6 M 2 . Certains pensent bien à l’image réciproque, d’autres ont utilisé la
caractérisation séquentielle.
12.a. Pas de problème pour le petit calcul. En revanche, beaucoup ont dit que Rac( I 2 ) était
non borné car infini ! C’est une horreur !
b. Certains ne traitent ici que le cas n = 3 . D’autres exhibent bien une suite de racines
carrées de la matrice unité pour n quelconque, mais ont des problèmes avec le caractère
borné.
c. On trouve ici parfois d’excellentes justifications. Les candidats pensent souvent à
l’équivalence des normes en dimension finie. La plupart pensent à utiliser la question
précédente. Une erreur fréquente était d’écrire que N était surmultiplicative ou que
I n = 1 , confondant ainsi N et
.
Partie III
13.a. Question très simple qui, pourtant, a posé des problèmes avec un grand nombre de
réponses farfelues!
b. Question pas toujours abordée qui lorsqu’elle était traitée, était assez bien réussie.
14.a. Question très simple qui a confirmé que beaucoup de candidats ne sont pas vigilants aux
« si et seulement si ». Il fallait au moins dire qu’un polynôme non nul n’avait qu’un
nombre fini de racines.
b. Beaucoup de bonnes réponses, malgré de rares erreurs dans les graphiques.
15.a. C’est la question la plus délicate du problème. Rares ont été les réponses correctement
rédigées pour l’hérédité. Le passage de p + 1 variables à p variables demandait
beaucoup de soins, notamment pour expliciter les coefficients du nouveau polynôme.
b. Les étudiants savent qu’ils doivent utiliser ici les questions 13.a et 15.a, mais ne
l’expriment pas toujours bien.
c. Assez souvent réussie.
16.a. Un certain nombre de candidats n’ont pas vraiment compris ce qu’il fallait faire et
écrivent l’ensemble Rac( A) sans faire intervenir les coefficients des matrices. Dans
certaines copies plus détaillées, on découvre avec étonnement que le coefficient (i, j )
de la matrice M 2 serait mi2, j au lieu de
∑m
i,k
mk , j .
k
-9-
Enfin, beaucoup n’écrivent pas explicitement les polynômes, et on ne discerne pas
vraiment quelles en sont les variables.
b. Les candidats bien plongés dans la partie ont souvent donné la bonne réponse. Il fallait
tout de même justifier la non nullité des polynômes.
Résumé des erreurs les plus importantes
• Une matrice qui commute avec une matrice diagonale n’est pas forcément diagonale, ni
même diagonalisable !
En effet, toute matrice commute avec l’identité, pourtant la plupart des matrices ne sont
pas diagonales et il existe des matrices non diagonalisables!
• La réunion de 2 familles libres n’est pas forcément une famille libre !
Par exemple, dans \[ X ] , F1 = {1, X } et F2 = {1 + X } sont deux familles libres mais leur
réunion {1, X ,1 + X } n’est évidemment pas une famille libre.
• Im f n’est pas forcément un supplémentaire de Ker f , ne pas confondre avec le théorème
du rang qui relie uniquement les dimensions de l’image et du noyau. En fait, si E est de
dimension finie, on a l’équivalence suivante :
( E = Ker f ⊕ Im f ) ⇔ ( Im f = Im f 2 ) ⇔ ( Ker f = Ker f 2 ) .
• Une partie infinie d’un espace vectoriel normé peut être une partie bornée !
Quelques exemples pour illustrer. Le segment [ 0,1] est une partie infinie de \ , mais elle
est bornée. De même, il existe une infinité de matrices orthogonales, pourtant On (\ ) est
bornée (utiliser, par exemple, la norme euclidienne A 6 Tr ( t AA ) ).
____________
- 10 -
Téléchargement