Sommaire algèbre

publicité
Sommaire de cours : algèbre générale et linéaire
Partie I : Algèbre générale
Section A : Sous-structures
• Pour vérifier qu’une partie B est une sous-structure algébrique d’un groupe, anneau, corps, algèbre A, on vérifie que B
est non vide, stable par les lois définies sur A, et par passage à l’inverse (opposé pour un groupe additif ou anneau).
• Une intersection de sous-structures est une sous-structure ; la sous-structure engendrée par une partie C est l’intersection
des sous-structures contenant C.
• Pour vérifier que B est la sous-structure engendrée par C, on établit que B est une sous-structure contenant C, puis que
toute sous-structure contenant C contient aussi B.
• On dit qu’une relation d’équivalence R sur un ensemble E est compatible avec une loi . si et seulement si : ∀(x, x0 , y, y 0 ) ∈
E 4 , si xRy et x0 Ry 0 , alors x.x0 Ry.y 0 . Dans ce cas, on peut définir la loi quotient dans l’ensemble E/R des classes d’équivalence
pour R.
Section B : Groupes
• Le sous-groupe engendré par x est {xn , n ∈ Z} [ou {n.x, n ∈ Z} si la loi est additive], et dit monogène. Ou bien il est infini
et isomorphe à (Z, +) ; ou bien il est fini, de cardinal n0 = ω(x) (ordre de x), et isomorphe à (Z/n0 Z,+) (groupe cyclique).
Dans ce dernier cas, n0 est le plus petit entier naturel non nul tel que xn = e, et xn = e si et seulement si n0 |n.
•
Tout groupe d’ordre (i.e. de cardinal ) p premier est cyclique, et isomorphe à Z/pZ.
• Théorème de Lagrange (H.P.) : Le cardinal d’un sous-groupe divise le cardinal d’un groupe fini G ; en particulier,
tout élément a un ordre qui divise n =card(G), et ∀x ∈ G, xn = e [n.x = 0 si la loi est additive].
• (H.P.) Un sous-groupe additif de R est ou bien monogène (de la forme aZ = {na, n ∈ Z}), ou bien dense dans R. Par
exemple, si α est irrationnel, αZ + Z = {nα + m, (n, m) ∈ Z2 } est dense dans R.
• Revoir le groupe des racines n-ièmes de l’unité (isomorphe à Z/nZ), le groupe Sn des permutations d’un ensemble à n
éléments (cardSn = n!), le groupe alterné, la signature, le sous-groupe des isométries du plan ou de l’espace laissant une
figure globalement invariante...
Section C : Anneaux
•
Une partie I d’un anneau commutatif A est un idéal de A si et seulement si :
(i) I est un sous-groupe de (A, +), et
(ii) ∀(x, a) ∈ I × A, x.a ∈ I.
• On dit qu’un idéal I de A est principal si et seulement si ∃x ∈ A, I = x.A = {x.a, a ∈ A} ; on dit que A est un anneau
principal si et seulement si tous ses idéaux sont principaux.
• Si un idéal I contient un élément inversible, alors I = A. Les seuls idéaux d’un corps K sont {0} et K. Z et K[X] sont
des anneaux principaux (cela provient de l’existence d’une division euclidienne). Le noyau d’un morphisme d’anneau est un
idéal.
• Dans un anneau intègre, on dit que a|b si et seulement si ∃c ∈ A, b = ac.
•
La caractéristique d’un anneau A est :
(i) 0 si ∀n ∈ Z∗ , n.1A 6= 0
(ii) le plus petit entier naturel non nul n tel que n.1A = 0 sinon.
Si A est intègre (en particulier si c’est un corps), sa caractéristique est 0 ou un nombre premier. La caractéristique de Z/nZ
est n.
• L’ensemble des inversibles pour × de l’anneau (Z/nZ, +, ×) est l’ensemble des {k, k ∧ n = 1} ; c’est aussi l’ensemble des
générateurs additifs du groupe (Z/nZ, +).
L’anneau (Z/nZ, +, ×) est intègre si et seulement n est premier si et seulement si cet anneau est un corps.
Section D : Arithmétique
•P Dans un anneau principal (en particulier Z et T
K[X]), on peut définir le p.g.c.d. de (ai )i∈I : c’est un générateur de l’idéal
ai A, et leur p.p.c.m. : c’est un générateur de i∈I ai A. On dispose des :
i∈I
Théorème de P
Bézout : Les (ai )i∈I sont premiers entre eux dans leur ensemble si et seulement si il existe (bi )i∈I , presque
nulle, telle que
ai bi = 1A .
i∈I
Théorème de Gauss : Si a|bc et a ∧ b = 1, alors a|c.
• Théorème de Fermat (H.P.) : Si p est un nombre premier, alors pour tout a ∈ Z premier avec p, on a : p|ap−1 − 1
(généralement, p|ap − a).
•
Théorème Chinois : Si n ∧ m = 1, alors les anneaux Z/nmZ et Z/nZ × Z/mZ sont isomorphes.
• Indicatrice d’Euler : Soit n ∈ N, n > 2 ; on définit ϕ(n) comme le nombre de générateurs du groupe additif (Z/nZ, +) ;
c’est aussi le nombre d’entiers naturels 6 n et premiers avec n. On a :
(i) Si n ∧ m = 1, alors ϕ(nm) = ϕ(n)ϕ(m)
Q αi
(ii) Si n =
pi est la décomposition en produit de facteurs premiers de n (les pi étant premiers distincts, et les αi > 1),
16i6r
alors
ϕ(n) = n
Q
16i6r
(iii) (H.P.) n =
P
(1 − p1 ).
i
ϕ(d).
d|n
Section E : Polynômes
• Revoir l’arithmétique polynômiale (décomposition en produits d’irréductibles sur R[X] et C[X] : théorème de D’Alembert0
Q
P
mi
Gauss), les décompositions en éléments simples (par ex. si P = a
(X − λi )mi , où a 6= 0, alors PP =
), les
X−λ
16i6r
16i6r
i
polynômes de plusieurs variables (en particulier, degré total ou partiel, homogénéité) les polynômes de Tchebytchev...
• Polynômes de Lagrange Soit (a1 , ..., an ) ∈ K n deux à deux distincts ; alors il existe une unique famille (Li )i∈I de
polynômes de degré n − 1 telle que ∀(i, j) ∈ {1, ..., n}2 , Li (aj ) = δi,j . On a :
Q X−aj
,
(i) ∀i ∈ {1, .., n}, Li =
a −a
j6=i
i
j
(ii) (L1 , ..., Ln ) forme une base de Kn−1 [X],
P
(iii) ∀(b1 , ...bn ) ∈ K n , il existe un unique polynôme P de degré 6 n − 1 tel que ∀i ∈ {1, ..., n}, P (ai ) = bi , et P =
bi Li .
16i6n
• Polynôme minimal (H.P.) : Soit une K-algèbre A ; pour tout élément a ∈ A, on peut considérer le morphisme
d’algèbres ψa : K[X] → A défini par :
∀P = α0 + ... + αn X n ∈ K[X], ψa (P ) = P (a) = α0 1A + ... + αn an . L’image K[a] de ψa est la sous-algèbre de A engendrée
par a ; son noyau est un idéal de K[X]. Il vient :
(i) Ou bien ψa est injectif, et K[a] est isomorphe à K[X],
(ii) Ou bien ψa n’est pas injectif, et il existe un unique polynôme unitaire, noté Πa tel que Ker(ψa ) = Πa .K[X]. Dans
ce cas, Πa s’appelle le polynôme minimal de a, caractérisé par : ∀P ∈ K[X], P (a) = 0 si et seulement si Πa |P , et on a
dimK K[a] = do Πa .
Le deuxième cas se produit si et seulement si dimK K[a] < +∞ : par exemple, un endomorphisme en dim. finie (ici, A = L(E))
ou une matrice carrée. Si A est intègre, Πa est irréductible sur K[X] : c’est le cas pour les nombres algébriques.
Partie II : Algèbre linéaire
Section A : Familles, dimension
• Une famille est libre si et seulement si toutes ses sous-familles finies le sont. Pour montrer qu’une famille infinie est libre,
on peut raisonner par l’absurde et considérer une sous-famille finie liée de cardinal minimal, puis montrer qu’il existe une
sous-famille liée de cardinal strictement inférieur.
• Théorème de la base incomplète : Soit une famile génératrice (xi )i∈I de E, et (aj )j∈J une famille libre ; alors on
peut compléter (aj )j∈J en une base de E en ajoutant certains vecteurs de la famille (xi )i∈I .
• Une famille
P (finie) (Ei )i∈I de sous-espaces d’un K-espace vectoriel E est en somme directe si et seulement si ∀(xi )i∈I ∈
(Ei )i∈I , si
xi = 0 alors ∀i ∈ I, xi = 0.
i∈I
• Un K-espace vectoriel est de dimension infinie si et seulement si il admet une famille libre infinie. Ex : dans K N , la
famille de suites (Un )n∈N , où ∀n ∈ N, Un = (δn,p )p∈N .
• Les familles échelonnées en coordonnées (et qui ne contiennent pas 0) sont libres. Ex :
échelonnées en degré.
• Rappelons que :
T
(i) dim(F + G) = dim(F )+ dim(G)− dim(F G) (formule de Grassmann) ;
(ii) En dim. quelconque, si u ∈ L(E, F ), tout supplémentaire du noyau est isomorphe à
(iii) Si dim(E) < +∞, et u ∈ L(E, F ), alors dim(E) = rg(u) + dimKer(u) (Théorème
(iv) Si dim(E) < +∞ et u ∈ L(E), alors u est injectif si et seulement si u est surjectif
seulement si u est inversible à droite si et seulement si u est inversible à gauche ;
(v) dim(E × F ) = dim(E)+ dim(F )
(vi) dimL(E, F ) = dim(E)×dim(F ).
(vii) Dans un espace de dim. finie, les (Ei )i∈I sont en somme directe si et seulement si
les familles de polynômes
l’image.
du rang) ;
si et seulement si u est bijectif si et
dim(
P
i∈I
Ei ) =
P
dim(Ei ).
i∈I
(viii) En dim. finie, tout sous-espace admet (au moins) un supplémentaire qui n’est généralement pas unique. C’est vrai
aussi en dim. quelconque, en admettant l’axiome du choix, et deux supplémentaires d’un même sous-espace sont isomorphes.
•
Le rang d’une matrice (non nécessairement carrée) est la taille maximale d’une sous-matrice carrée inversible.
Section B : L(E)
•
(H.P., à savoir redémontrer) Si un endomorphisme u ∈ L(E) vérifie : ∀x ∈ E, (u(x), x) est lié, alors u est une homothétie.
•
(H.P.) Si un endomorphisme commute avec tous les autres, c’est une homothétie (la réciproque est vraie, et imédiate).
• En dim. finie, le groupe linéaire GL(E) (groupe pour o des automorphismes de E) est engendré par les transvections
et dilatations ; précisément, toute matrice carrée inversible est produit de matrices de transvections et d’une (au plus)
dilatation.
• Un endomorphisme u est un projecteur si et seulement si u2 = u ;
dim(Ker(u − id)). u est une symétrie si et seulement si u2 = id.
en dim. finie, on a alors :
rg(u) = tr(u) =
Section C : Dualité
•
On appelle dual d’un K-espace vectoriel E, l’espace vectoriel E ∗ = L(E, K) des formes linéaires sur E.
• On appelle hyperplan H de E tout sous-espace qui admet comme supplémentaire une droite de E ; alors ∀x ∈ E \ H, K.x
est un supplémentaire de H dans E.
• Un sous-espace H de E est un hyperplan de E si et seulement si c’est le noyau d’une forme linéaire non nulle ϕ. Alors
les autres formes linéaires dont H est le noyau sont de la forme λϕ, λ ∈ K ∗ .
• En dim. finie, si B = (e1 , .., en ) est une base de E, il existe une unique base B ∗ = (e∗1 , ..., e∗n ) de E ∗ , dite base duale de
B, telle que ∀(i, j) ∈ {1, ..., n}2 , e∗i (ej ) = δi,j .
Réciproquement, pour toute base B∗ de E ∗ , il existe une unique base de E, dite antéduale de B∗ , dont B∗ est la base duale.
• En dim. finie, tout sous-espace F de codim. p peut être décrit comme intersection de p hyperplans, et dans une base fixée
par un système (non unique ! ) de p équations cartésiennes indépendantes.
On obtient un système d’équations paramétriques de F (ce qui revient à en exhiber une famille génératrice) en résolvant le
système linéaire des équations cartésiennes.
Réciproquement, on obtient un système d’équations cartésiennes de F à partir d’un système paramétrique en ”éliminant”
les paramètres, c’est-à-dire en écrivant les conditions de compatibilité du système paramétrique.
Section D : Matrices
• Revoir les matrices élémentaires, les opérations élémentaires (décrites en termes de produit matriciel), la structure de
l’ensemble des matrices symétriques, l’expression du produit scalaire canonique en termes matriciels...
• L’ensemble des matrices carrées triangulaires supérieures (resp. inférieures, diagonales) forme une sous-algèbre de Mn (K) ;
les coefficients diagonaux du produit de deux telles matrices sont les produits des coefficients diagonaux, et les coeff. diagonaux
d’un polynôme P (A) en A sont les P (ai,i ).
Le déterminant d’une telle matrice est le produit de ses coefficients diagonaux ; elle est inversible si et seulement si ses
coefficients diagonaux sont tous non nuls ; alors son inverse est encore triangulaire supérieure (resp...).
• Revoir les règles du produit par blocs (on fait comme si les blocs étaient des coefficients, à la réserve près qu’a priori les
blocs ne commutent pas), le calcul des puissances d’une matrice triangulaire à coeff. diagonaux nuls (donc nilpotente), d’une
matrice de permutation circulaire, l’utilisation du binôme en cas de commutation, l’utilisation d’un polynôme annulateur
non nul (il en existe, cf. supra) pour calculer les puissances ou l’inverse...
• Une matrice carrée ∈ Mn (K) est diagonale par blocs si et seulement si K n peut se décomposer en somme directe de
sous-espaces stables par l’endomorphisme u canoniquement associé ; triangulaire supérieure par blocs si et seulement si il
existe un sous-espace non trivial stable par u ; triangulaire supérieure si et seulement si il existe une base (e1 , ..., en ) de K n
telle que : ∀i ∈ {1, ..., n}, Vect(e1 , ..., ei ) est stable par u.
• La trace d’une matrice carrée est la somme de ses coefficients diagonaux ; la trace est une forme linéaire sur Mn (K),
mais elle n’est pas multiplicative.
On a toujours :
∀(A, B) ∈ Mn,p (K) × Mp,n (K), tr(AB) = tr(BA).
En particulier, deux matrices semblables ont même trace : il s’agit donc d’un invariant de similitude, ce qui permet de définir
la trace d’un endomorphisme en dim. finie. comme celle d’une matrice qui le représente dans une base quelconque
• Changement de base : Soit E un K-espace vectoriel de dim. n. Si P ∈ GLn (K) est la matrice de passage de B à B 0
(c’est-à-dire que les colonnes de P sont les coordonnées des vecteurs de B 0 - nouvelle base - dans B - ancienne base) ; soit
x ∈ E de coordonnées X (vecteur colonne) dans B (resp. X 0 dans B0 ) ; on a :
X = P.X 0
• Deux matrices (non nécessairement carrées ! ) (A, B) ∈ Mn,p (K) sont dites équivalentes si et seulement si ∃(P, Q) ∈
GLp (K) × GLn (K), B = Q−1 AP . Cela équivaut à ce qu’elles représentent la même application linéaire dans des bases
différentes (au départ et à l’arrivée), et à ce qu’elles aient même rang r ; alors elles sont équivalents à Jn,p,r .
• Deux matrices (A, A0 ) ∈ Mn (K) sont dites semblables sur K si et seulement si ∃P ∈ Gln (K), A0 = P −1 AP. [Si A est la
matrice de u dans B, et P est la matrice de passage de B à B0 , alors A0 est la matrice de u dans B0 ].
• Pour vérifier que deux matrices A et A0 sont semblables, on considère u ∈ L(K n ) canoniquement associé à A, et on
cherche une base de K n dans laquelle la matrice de u est A0 .
• (H.P., à savoir redémontrer) Deux matrices réelles semblables sur C (c’est-à-dire avec une matrice de passage complexe)
sont semblables sur R.
•
La seule matrice semblable à une matrice scalaire (i.e. λIn ) est elle-même.
• Savoir calculer l’inverse d’une matrice à l’aide du pivot de Gauss (en résolvant AX = Y ). La formule A.t com(A) =
dét(A)In , vraie pour une matrice à coefficients dans un anneau commutatif, possède une vertu essentiellement théorique :
elle permet de caractériser, par exemple, les matrices inversibles dans Mn (Z) (ce sont celles de dét 1 ou −1).
• Un déterminant triangulaire par blocs est égal au produit des déterminants des blocs diagonaux. Savoir retrouver le
déterminant de Vandermonde, de Cauchy (H.P.), le déterminant circulant (cf. réduction des endomorphismes)...
•
(H.P.) Pour les E.N.S. ou l’X, avoir quelques notions sur les réseaux de Zn et leurs Z-bases.
Partie III : Réduction des endomorphismes
Section A : Eléments propres
• Soit E un K-espace vectoriel, et u ∈ L(E) (resp. M ∈ Mn (K)) ; on dit que λ ∈ K est valeur propre de u (resp. M ) si
et seulement si Ker(u − λid) 6= {0E } si et seulement si ∃x ∈ E \ {0E }, u(x) = λx (resp. ∃X ∈ Mn,1 (K) \ {0}, M.X = λX) :
on dit alors que x (resp. X) est vecteur propre associé à λ.
• Le spectre de u (resp. spectre sur K de M ) est l’ensemble des valeurs propres (resp. des valeurs propres ∈ K), noté Sp(u)
(resp. SpK (M )). En dim. finie, c’est {λ ∈ K, dét(u − λid) = 0}.
• Si λ ∈ Sp(u) (resp. SpK (M )), on appelle sous-espace propre associé à λ : Eλ = {x ∈ E, u(x) = λx} = Ker (u − λid)
(resp. {X ∈ Mn,1 (K), M.X = λX).
Rem : Un vecteur propre est toujours non nul, et le sous-espace propre Eλ (6= {0E }) est l’ensemble des vecteurs propres
asociés à λ, auxquels s’adjoint 0E .
Pour une matrice carrée, on précisera soigneusement sur quel corps (Q, R ou C, par exemple) on recherche son spectre.
• Propriétés générales : En dim. quelconque, on a :
(i) Des sous-espaces propres associés à des valeurs propres distinctes sont en somme directe.
(ii) Si P
u(x) = λx, alors ∀P ∈ K[X], (P (u))(x) = P (λ).x et Sp(P (u)) = {P (λ), λ ∈ Sp(u)}. (Rappelons que si
P =
αk X k , alors P (u) = α0 .id + ... + αm um ∈ L(E)).
06k6m
(iii) Si P est un polynôme annulateur non nul de u, les valeurs propres de u figurent parmi les racines de P .
(iii) (H.P.) Si Πu est le polynôme minimal de u (Πu existe toujours en dim. finie), alors Sp(u) est exactement l’ensemble
des racines de Πu .
(iv) Si deux endomorphismes u et v commutent, alors ∀P ∈ K[X], Ker(P (u)) et Im(P (u)) sont stables par v ; en particulier
(pour P = X − λ), tout sous-espace propre de u est stable par v.
(v) La seule valeur propre d’une homothétie est son rapport ; la seule valeur propre d’un endomorphisme nilpotent est 0.
(vi) Les valeurs propres d’une matrice triangulaire (ou diagonale) sont ses coefficients diagonaux.
(vii) Tout endomorphisme d’un C-espace vectoriel de dim. finie admet au moins une valeur propre (et donc un vecteur
propre associé) ; toute matrice carrée complexe admet au moins une valeur propre complexe.
(viii) Si K = R et dim(E) est impaire, tout endomorphisme de E admet au moins une valeur propre réelle (voir les limites
en +/ − ∞ du p.c.).
(ix) En dim. finie n, un endomorphisme admet au plus n valeurs propres distinctes.
(x) Si un sous-espace F est stable par u, alors Sp(uF ) ⊂ Sp(u), et le polynôme minimal de uF divise celui de u (s’il existe).
• LemmeLdes noyaux : Soit E un K-espace vectoriel, u ∈ L(E), (P, Q) ∈ K[X]2 ; si P ∧ Q = 1, alors Ker(P Q(u)) =
Ker(P (u))
Ker(Q(u)).
Q
Il s’ensuit que si P =
Piαi est la décomposition en produit de puissances de polynômes irréductibles d’un polynôme
16i6r
L
annulateur P de u, alors E = Ker(P (u)) = 16i6r Ker(Piαi (u)).
Section B : Polynôme caractéristique
• On considère dans cette section E un K-espace vectoriel de dim. finie n et u ∈ L(E), B une base fixée de E, et M ∈ Mn (K)
la matrice de u dans B.
On définit le polynôme caractéristique de u : χu (X) = χM (X) = dét(XIn − M ) (déterminant d’une matrice à coefficients
dans l’anneau K[X]).
• Propriétés du p.c. : On a :
(i) Les racines (∈ K) de χu = χM sont exactement les valeurs propres de u (resp. de M sur K).
(ii) do (χu ) = n = dim(E) ; son coefficient dominant est 1, et si χu = a0 + ... + an−1 X n−1 + X n , alors an−1 = − tr(u), et
a0 = (−1)n dét(u).
(iii) Si A et A0 sont semblables, alors χA = χ0A (la réciproque est fausse ! Il existe des matrices qui ont même polynôme
caractéristique, et qui ne sont pas semblables : cf. 0 et une matrice nilpotente).
(iv) χA = χt A .
Q
(v) Si A est triangulaire supérieure (a fortiori diagonale), de coefficients diagonaux (ai,i )16i6n , alors χA (X) =
(X −ai,i ).
16i6n
n
(vi) Le polynôme caractéristique de l’homothétie de rapport λ est (en dim. n) (X − λ) ; d’un endomorphisme nilpotent :
X n.
(vii) Si n = 2, χM = X 2 − tr(M )X+ dét(M ).
(viii) Si F est un sous-espace stable par u, alors χuF divise χu ; Si F = Eλ = Ker(u − λid), alors χuF = (X − λ)dim(F ) .
Q
L
χui (et Πu
(ix) Si E = 16i6r Ei est somme directe de sous-espaces stables par u, alors, en notant ui = uEi : χu =
16i6r
et le p.p.c.m. des Πui (H.P.)).
• Multiplicité : Pour λ ∈ Sp(u), je note nλ la dimension de Eλ , et mλ la multiplicité de λ en tant que racine de χu
(c’est-à-dire que (X − λ)mλ |χu , mais χu n’est pas divisible par (X − λ)mλ +1 ). On a :
(i) 1 6 nλ 6 mλ ;
(ii) Si mλ = 1 (λ est donc racine simple du p.c.), alors dim(Eλ ) = 1.
• (H.P.) Si P ∈ K[X] \ {0}, on lui associe la matrice-compagnon de P , dont le polynôme caractéristique vaut P ainsi que
le polynôme minimal, et les sous-espaces propres sont de dimension 1.
Section C : Diagonalisation
• On dit que u ∈ L(E) (resp. M ∈ Mn (K)) est diagonalisable (resp. sur K) si et seulement si
L
(i) E = λ∈Sp(u) Eλ (E est la somme directe des sous-espaces propres),
si et seulement si (ii) il existe une base de vecteurs propres,
si et seulement si (iii) (en dim. finie) il existe une base de E dans laquelle la matrice de u est diagonale (resp. M est semblable
à une matrice diagonale).
• Théorème (Diagonalisabilité avec le p.c.) : en dim. finie, u est diagonalisable (resp. M sur K) si et seulement si χu
(resp. χM ) est scindé sur K, et ∀λ ∈ Sp(u), nλ = mλ . En particulier, si χu (resp. χM ) est scindé à racines simples sur K,
alors u (resp. M ) est diagonalisable (sur K), et les sous-espaces propres sont de dim. 1.
• Théorème (Diagonalisabilité avec un polynôme annulateur) : u est diagonalisable (resp. M sur K) si et seulement si
il admet un polynôme annulateur (non nul) scindé à racines simples (sur K) si et seulement si son polynôme minimal est
scindé à racines simples (sur K).
•
Les symétries, projections, affinités sont diagonalisables, mais pas les nilpotents non nuls.
•
Toute restriction d’un endomorphisme diagonalisable à un sous-espace stable est encore diagonalisable.
• Si u est diagonalisable, les projecteurs spectraux (sur un sous-espace propre parallèlement à la somme directe des autres)
sont des polynômes en u.
•
Pour diagonaliser effectivement, on évalue les valeurs propres, et on recherche une base de chaque sous-espace propre.
Section D : Trigonalisation
• On dit que u ∈ L(E) (resp. M ∈ Mn (K)) est trigonalisable (sur K) si et seulement s’il existe une base de E dans laquelle
la matrice de u est triangulaire supérieure (resp. M est semblable sur K à une matrice triangulaire supérieure). Le premier
vecteur d’une telle base est alors vecteur propre, et en inversant l’ordre des vecteurs de base, on obtient une base dans laquelle
la matrice de u est triangulaire inférieure.
• Théorème (Caractérisation de la trigonalisibilité) : u (resp. M ) est trigonalisable (sur K) si et seulement si χu est scindé
sur K si et seulement si u admet un polnôme annulateur scindé sur K.
• Tout endomorphisme u d’un C-espace vectoriel de dim. finie est trigonalisable ; la trace de u est la somme de ses valeurs
propres écrites avec leur multiplicité (dans χu ), et le déterminant en est le produit.
• Un endomorphisme u est nilpotent si et seulement si son p.c. est X n ; u est donc trigonalisable (et sa seule valeur propre
est 0). Si le corps de base est C, on a l’équivalence : u nilpotent si et seulement si χu = X n si et seulement si SpC (u) = {0}.
• Pour trigonaliser effectivement u, on recherche d’abord une valeur propre λ et une base du sous-espace propre associé
Eλ ; puis on forme un supplémentaire F de Eλ (a priori, F n’est pas stable par u ! ) et on forme la matrice de l’endomorphisme
v de F défini par : v(x) = p(u(x)), où p est le projecteur sur F parallèlement à Eλ . On procède alors par récurrence, en
recherchant un sous-espace propre (⊂ F )de v...
• Savoir réduire les matrices de SL2 (R) (i.e. les matrices 2 − 2 réelles de déterminant 1 : les deux valeurs propres sur C sont
inverses...), les matrices de ”faible rang” (0 est valeur propre de multiplicité m0 > n− rg((M )), les matrices de permutation...
Section E : Compléments
• Théorème de Cayley-Hamilton (au programme) : En dim. finie, le polynôme caractéristique est un polynôme
annulateur ; en d’autres termes : χu (u) = 0, et Πu |χu . On en déduit en particulier que do (Πu ) 6 n.
Q
• Sous-espaces caractéristiques (H.P., de peu) : Si χu =
Piαi est la décomposition de χu en produit de puissances
16i6r
L
αi
de Cayley-Hamilton et du
de facteurs irréductibles distincts, alors E =
16i6r Ker(Pi (u)) (cela découle du théorème
L
lemme des noyaux). En particulier, si K = C, les Pi sont de la forme X − λi , et E = 16i6r Ker(u − λi )αi (sous-espaces
caractéristiques, stables par u, dont la somme directe vaut E).
• Décomposition de Dunford (H.P.) : Si le corps de base est C, tout endomorphisme peut s’écrire de manière unique
u = d + n, où d est diagonalisable, n nilpotent, et d et n commutent. De plus, d et n sont des polynômes en u. (L’existence
se déduit de la décomposition de l’espace en somme directe des sous-espaces caractéristiques, et du fait que le projecteur sur
un tel sous-espace parallèlement à la somme directe des autres est un polynôme en u).
• (H.P.) Soit E un K-espace vectoriel de dimension n ; un endomorphisme u ∈ L(E) est dit cyclique lorsqu’il existe x ∈ E
tel que B = (uk (x))06k6n−1 est une base de E. Cela équivaut à χu = Πu , et au fait que la matrice de u dans B est la
matrice-compagnon de χu .
C’est le cas, par exemple, des endomorphismes diagonalisables possédant n valeurs propres distinctes, et des endomorphismes
nilpotents d’indice n.
• (H.P., à savoir redémontrer) Le commutant d’un endomorphisme u est C(u) = {v ∈ L(E), u ◦ v = v ◦ u}. C’est une
sous-algèbre de L(E) contenant K[u] = {P (u), P ∈ K[X]} (rappelons que dim K[u] = do Πu ).
P 2
ni .
Si u est diagonalisable, de valeurs propres distinctes λ1 , ..., λp de multiplicités resp. n1 , ..., np , alors dim C(u) =
16i6p
• (H.P.) Si (ui )i∈I est une famille d’endomorphismes diagonalisables qui commutent deux à deux, alors il existe une base
de vecteurs propres communs à tous les (ui )i∈I , c’est-à-dire dans laquelle les matrices des (ui )i∈I sont toutes diagonales on dit que cette famille est co-diagonalisable (raisonner par récurrence sur la dimension de l’espace, en distinguant le cas où
tous les ui sont des homothéties, et le cas où au moins un n’est pas une homothétie).
Partie IV : Algèbre bilinéaire
Section A : Formes quadratiques/hermitiennes
N.B. : Dans toutes cette partie, E désigne un K-espace vectoriel ; je note sous ”resp.” tout ce qui concerne le cas K = C.
Pour A ∈ Mn,p (K), A∗ désigne t A (transposée de la conjuguée de A, égale à t A lorsque K = R).
• Connaı̂tre la définition d’une forme bilinéaire symétrique Φ (resp. sesquilinéaire hermitienne), de la forme quadratique
(resp. hermitienne) q associée : q(x) = Φ(x, x), et les identités de ”polarisation” :
(i) Pour x ∈ E fixé, y → Φ(x, y) est une forme linéaire ; pour y fixé, x → Φ(x, y) aussi (resp. est semi-linéaire).
(ii) ∀x ∈ E, Φ(x, 0) = Φ(0, x) = 0 et q(0) = 0.
(iii) ∀(λ, x) ∈ K × E, q(λx) = λ2 q(x) (resp. |λ|2 q(x)).
(iv) ∀(x, y) ∈ E 2 , q(x + y) = q(x) + q(y) + 2Φ(x, y) (resp. q(x) + q(y) + 2ReΦ(x, y)).
(v) q(x + y) + q(x − y) = 2[q(x) + q(y)] (identité du parallélogramme, vraie aussi pour K = C).
(vi) Φ(x, y) = 21 [q(x + y) − q(x) − q(y)] = 14 [q(x + y) − q(x − y)] (resp. 21 [q(x + y) − q(x) − q(y)] + 2i [q(x − iy) − q(x) − q(y)]).
• Revoir les définitions d’une forme quadratique (resp. hermitienne) positive, définiePpositive, d’un produit scalaire,
du
P
produit scalaire canonique sur K n : ∀(X, Y ) ∈ Mn,1 (K)2 , (X|Y ) =t X.Y =t Y.X =
xi yi (resp. t X.Y =
xi .yi ).
16i6n
16i6n
Connaı̂tre les exemples classiques d’un produit scalaire défini par une intégrale (produit scalaire ”à poids”, par exemple sur
l’espace des polynômes...).
• Orthogonalité : On dit que deux vecteurs x et y sont orthogonaux (pour Φ) si et seulement si Φ(x, y) = 0 (de même
pour un vecteur et une partie ou pour deux parties : tout vecteur de l’une est orhogonal à tout vecteur de l’autre). On note,
pour A ⊂ E, A⊥ = {x ∈ E, ∀a ∈ A, Φ(x, a) = 0}. On a toujours :
(i) {0}⊥ = E
(ii) ∀A ⊂ E, A⊥ est un sous-espace de E, et A⊥ = (VectA)⊥ .
(iii) Si A ⊂ B, alors B ⊥ ⊂ A⊥ .
(iv) A ⊂ (A⊥ )⊥ .
(v) A et B sont orthogonales si et seulement si A ⊂ B ⊥ si et seulement si B ⊂ A⊥ .
T
(vi) Si F et G sont deux sous-espaces de E : (F + G)⊥ = F ⊥ G⊥ .
(vii) Si x et y sont orthogonaux, alors q(x + y) = q(x) + q(y) (Pythagore).
• Noyau, cône isotrope : On appelle noyau de q le sous-espace Ker(q) = {x ∈ E, ∀y ∈ E, Φ(x, y) = 0} ; cône isotrope
de q : Cq = {x ∈ E, q(x) = 0} (a priori, Cq n’est pas un sous-espace). On a toujours Ker(q) ⊂ Cq . On dit que q est non
dégénérée si et seulement si Ker(q) = {0} (c’est-à-dire que le seul vecteur orthogonal à tout l’espace est 0, ou E ⊥ = {0}).
Si E est de dim. finie n, on définit de plus le rang de q : rg(q) = n− dim(Kerq).
• Expression dans une base : Si E est de dim. finie n, soit B = (e1 , ..., en ) une base de E. On définit la matrice de
q (ou Φ) dans la base B : A = (Φ(ei , ej ))16i,j6n = (ai,j)16i,j6n . A est symétrique réelle (resp. hermitienne complexe, i.e.
A∗ =t A = A).
Si (x, y) ∈ E 2 ont pour colonnes de coordonnées dans B : X = (xi )16i6n , Y = (yi )16i6n , alors :
P
P
Φ(x, y) =
ai,j xi yj =t X.A.Y (resp.
ai,j xi yj = X ∗ .A.Y ), et
16i,j6n
q(x) =
P
16i,j6n
ai,j xi xj =
P
16i6n
16i,j6n
ai,i x2i
+2
P
16i<j6n
P
ai,j xi xj =t X.A.X (resp.
ai,j xi xj = X ∗ .A.X).
16i,j6n
Réciproquement, étant donnée une matrice symétrique réelle (resp. hermitienne complexe) A, on peut lui associer une forme
quadratique q sur K n définie par l’écriture précédente.
•
q est non dégénérée si et seulement si A est inversible, et rq(q) = rg(A).
• Une base B de E est orthogonale pour Φ si et seulement si la matrice A de q dans B est diagonale ; orthonormée si et
seulement si A = In (Φ est alors un produit scalaire).
• Changement de base Soient B et B 0 deux bases de E, P ∈ Gln (K) la matrice de passage de B à B0 , A la matrice de q
dans B (resp. A0 dans B 0 ) ; on a :
A0 = P ∗ AP.
(On dit alors que A et A0 sont congruentes.)
• Inégalités de Cauchy-Schwarz et de Minkowski : Soit q une forme quadratique (resp. hermitienne) positive sur
E ; on a, ∀(x, y) ∈ E 2 :
p
p
|Φ(x, y)| 6 q(x) q(y) (C.S.),
p
p
p
q(x + y) 6 q(x) + q(y) (M).
Si de plus q est définie positive, on a égalité dans Cauchy-Schwarz si et seulement si les deux vecteurs sont liés, et dans
Minkowski si et seulement s’ils sont situés sur une même demi-droite réelle (i.e. x = 0 ou ∃λ ∈ R+, y = λx). Ex : Ecrire
(C.S.) et (M) avec le produit scalaire canonique sur K n .
Section B : Produit scalaire
p
• Soit, dans tout ce qui suit, Φ un produit scalaire (réel ou complexe) ; on pose kxk = q(x) : c’est une norme sur E, et on
dit que (E, k.k) est un espace préhilbertien réel (resp. complexe). On dit qu’un vecteur est unitaire ou normé si et seulement
s’il est de norme 1 (il existe, pour K = R, deux vecteurs unitaires colinéaires à x 6= 0, et une infinité pour K = C).
•
ku(x)k
Norme d’un endomorphisme : Si u ∈ Lc (E) est un endomorphisme continu, on a : |||u||| = supx6=0 kxk
=
|(u(x)|y)|
supx6=0,y6=0 kxk.kyk (où |||.||| désigne la norme subordonnée à la norme euclidienne k.k).
• Familles orthogonales, orthonormales : On dit qu’une famille (xi )i∈I de vecteurs de E est orthogonale si et seulement
si pour i 6= j, (xi |xj ) = 0 ; orthormale si de plus tous les xi sont unitaires (i.e. ∀(i, j) ∈ I 2 , (xi |xj ) = δi,j ). Si tous les vecteurs
sont non nuls, une famille orthogonale est libre.
• Procédé de Gram-Schmidt : Soit une famille libre (x1 , ..., xp ) de vecteurs de E, et ∀i ∈ {1, ..., p}, Fi = Vect(x1 , ..., xi ) ;
alors il existe une unique base orthogonale (f1 , ..., fp ) de Fp , telle que la matrice de passage P de (x1 , ..., xp ) à (f1 , ..., fp )
soit triangulaire supérieure avec des coefficients diagonaux égaux à 1 ; on obtient les fi par récurrence (et par conditions
i−1
P
(f |x )
αi,j fj , soit αi,j = − j i2
nécessaires) en les définissant de proche en proche par : f1 = x1 et ∀i ∈ {2, ..., p}, fi = xi +
j=1
(ce qui consiste à expliciter P
−1
kfj k
).
On peut alors, en normalisant les fi , obtenir une unique base orthonormée (e1 , ..., ep ) de Fp telle que la matrice de passage
de (x1 , ..., xp ) à (e1 , ..., ep ) soit triangulaire supérieure avec des coefficients diagonaux > 0.
De même en partant d’une famille libre dénombrable (si la dimension de E le permet, par exemple dans K[X]).
•
Bases orthonormées : Si E est de dim. finie, il existe des bases orthonormées de E. Soit B = (e1 , ..., en ) l’une d’elles,
n
n
P
P
alors ∀(x, y) ∈ E 2 , si x =
xi ei , y =
yi ei :
i=1
i=1
(i) ∀i ∈ {1, ..., n}, xi = (ei |x),
n
n
P
P
(ii) kxk2 =
|xi |2 =
|(ei |x)|2 ,
i=1
n
P
(iii) (x|y) =
i=1
xi yi =
i=1
n
P
(x|ei )(ei |y).
i=1
T
• Supplémentaire orthogonalL
: Soit F un sous-espace de E ; on a toujours F F ⊥ = {0} (F et F ⊥ sont en somme
directe orthogonale). Si de plus F
F ⊥ = E, on dit que F admet un supplémentaire orthogonal (d’ailleurs unique, puisque
⊥
⊥ ⊥
c’est F ) ; on a alors (F ) = F , et on peut définir pF et sF , projecteur et symérie orthogonale sur et par rapport à F .
Rappelons que par définition, s’il existe, pF (x) est l’unique vecteur de F tel que x − pF (x) ∈ F ⊥ .
•
Théorème (caractérisation par la distance) : F admet un supplémentaire orthogonal si et seulement si
∀x ∈ E, ∃!y ∈ F, kx − yk = d(x, F ) (alors y = pF (x)).
• Cas d’un sous-espace de dim. finie : Si F est un sous-espace de dim. finie de E, alors F admet un supplémentaire
orthogonal, et si (e1 , ..., ep ) est une base orthonormée de F , on a :
p
n
P
P
∀x ∈ E, pF (x) =
(ei |x)ei , et d(x, F )2 = kxk2 − kpF (x)k2 = kxk2 −
|(ei |x)|2 .
i=1
•
i=1
Inégalité de Bessel : Si (ei )i∈I est une famille orthonormée, alors pour toute partie finie J ⊂ I et tout x ∈ E, on a :
P
|(ei |x)|2 6 kxk2 .
i∈J
• (H.P.) Revoir le théorème de projection sur un convexe fermé dans un espace de Hilbert (préhilbertien complet, en
particulier en dim. finie) ; pour l’X et les E.N.S., voir la théorie des espaces de Hilbert (isométrie canonique avec le dual
topologique...)
Section C : Espaces euclidiens/hermitiens
• On appelle espace euclidien (resp. hermitien) tout espace préhilbertien réel (reps. complexe) de dim. finie. Dans tout ce
qui suit, E désigne un tel espace. (Par exemple, K n muni du produit scalaire canonique ; notons que l’existence d’une
base orthonormée permet de se ramener à cette situation).
•
Propriétés générales :
(i) Il existe des bases orthonormées de E.
(ii) Tout sous-espace F admet un supplémentaire orthogonal, dim(F ⊥ ) = dim(E)− dim(F ), et (F ⊥ )⊥ = F .
T
T
(iii) Si F et G sont deux sous-espaces, alors (F + G)⊥ = F ⊥ G⊥ et (F G)⊥ = F ⊥ + G⊥ .
•
Théorème d’isométrie canonique entre E et E ∗ :
(i) Si ϕ est une forme linéaire sur E, alors il existe un unique vecteur a ∈ E tel que : ∀x ∈ E, ϕ(x) = (a|x). De plus,
Ker(ϕ) = a⊥ et |||ϕ||| = kak.
(ii) L’application de E dans E ∗ (espace dual de E) qui à a ∈ E associe la forme linéaire ϕa définie par ∀x ∈ E, ϕa (x) = (a|x)
est un isomorphisme isométrique (resp. une application semi-linéaire bijective isométrique).
Adjoint : Soit u ∈ L(E) ; il existe un unique endomorphisme noté u∗ ∈ L(E) et appelé adjoint de u, tel que :
∀(x, y) ∈ E 2 , (x|u(y)) = (u∗ (x)|y).
De plus :
•
(i) Soit B une base orthonormée de E ; si A = mat(u, B) alors mat(u∗ , B) = A∗ .
(ii) ∀(λu, v) ∈ K × L(E)2 : (u∗ )∗ = u, (u + v)∗ = u∗ + v ∗ , (u ◦ v)∗ = v ∗ ◦ u∗ , (λu)∗ = λu∗ .
(iii) ∀u ∈ L(E) : tr(u∗ ) = tr(u), det(u∗ ) = det(u), rg(u∗ ) = rg(u).
(iv) u et u∗ ont des spectres conjugués (égaux si K = R) et les coefficients de χu∗ sont les conjugués de ceux de χu (χu∗ = χu
si K = R). De même pour les polynômes minimaux.
(v) Si F est stable par u, alors F ⊥ l’est par u∗ .
•
Ker(u∗ ) = (Im(u))⊥ , Im(u∗ ) = (Ker(u))⊥ (à savoir redémontrer ! ).
Section D : Endomorphismes orthogonaux
• Définition : On dit que u ∈ L(E) est un endomorphisme orthogonal ou une isométrie de E (resp. un endomorphisme
unitaire) si et seulement s’il vérifie l’une des caratérisations équivalentes :
(i) ∀x ∈ E, ku(x)k = kxk,
(ii) ∀(x, y) ∈ E 2 , (u(x)|u(y)) = (x|y),
(iii) u ◦ u∗ = id,
(iv) u est inversible (i.e. bijectif), et u−1 = u∗ ,
(v) L’image par u d’une base orthonormée est une base orthonormée,
(vi) La matrice M de u dans une base B orthonormée vérifie t A.A = In ou A.t A = In ou A inversible et A−1 =t A (resp.
A∗ .A = In ...) ; on dit alors que A est une matrice orthogonale (resp. unitaire).
• Propriétés :
(i) L’ensemble des endomorphismes orthogonaux de E, noté O(E) est un sous-groupe de (GL(E), ◦) ; l’ensemble des matrices
orthogonales (resp. unitaires) d’ordre n est un sous-groupe de GLn (R) (resp. GLn (C)) noté On (R) (resp. Un (C)), appelé
groupe orthogonal (resp. unitaire).
(ii) Si u ∈ O(E), alors det(u) vaut 1 ou −1 (resp. |det(u)| = 1). Dans le premier cas on dit que u est une isométrie directe (on
note u ∈ O+ (E), ou SO(E)), indirecte (u ∈ O− (E)) dans le second. SO(E) = {u ∈ O(E), det(u) = 1} s’appelle le groupe
spécial orthogonal ; c’est un sous-groupe de O(E).
(iii) O(E) et On (R) (resp. Un (C)) sont des parties compactes de L(E) et Mn (K) (car fermées bornées en dim. finie).
• Spectre ; stabilité :
(i) Si u ∈ O(E) et F est stable par u, alors F ⊥ est également stable par u.
(ii) Si u ∈ O(E), alors Sp(u) ⊂ {−1, +1} (resp. Sp(u) ⊂ U = {z ∈ C, |z| = 1}). Notons que, dans un espace euclidien, SpR (u)
peut être vide : par exemple, une rotation plane d’angle non congruent à 0 [π].
(iii) Si dim(E) = 1, O(E) est l’ensemble des homothéties dont le rapport est de module 1.
• Ex : Les symétries orthogonales par rapport à un sous-espace F sont des isométries directes lorsque codimE (F ) est paire,
indirecte sinon. Les réflexions, symétries orthogonales par rapport à un hyperplan, sont indirectes.
Les symétries orthogonales par rapport à des sous-espaces de codim. 2 s’appellent des retournements ou demi-tours : ce sont
des isométries directes.
• Cas réel ; dim. 2 et 3 : Les isométries directes du plan euclidien sont les rotations : on peut déterminer leur angle
(connu au signe près via la trace) lorsqu’on a orienté le plan ; les isométries indirectes du plan euclidien sont les symétries
orthogonales par rapport à des droites.
Les isométries directes de l’espace de dim. 3, distinctes de id, possèdent une droite d’invariants, appelée axe D de la rotation ;
lorsqu’on a orienté D, on peut déterminer l’angle de la rotation.
• Produit mixte ; produit vectoriel : Revoir les définitions du produit mixte d’un système de vecteurs (x1 , ..., xn )dans
un espace euclidien orienté (c’est-à-dire qu’on a choisi une base de référence) E de dim. n : [x1 , ..., xn ] est le déterminant de
(x1 , ..., xn ) dans toute base orthonormée directe de E, et donc le volume orienté du parallélépipède défini par (x1 , ..., xn ).
Idem, le produit vectoriel de (x1 , ..., xn−1 ) est défini par :
∀x ∈ E, [x1 , ..., xn−1 , x] = (x1 ∧ ... ∧ xn−1 |x).
Revoir ses propriétés lorsque dim(E) = 3.
• Distances à connaı̂tre : Dans un espace affine euclidien de dim. n, soit un hyperplan (affine) H d’équation cartésienne
dans un repère orthonormé R : a1 x1 + ...an xn + b = 0 ; alors la distance à H de M de coordonnées (x1 , ..., xn ) dans R est :
d(M, H) =
|a1 xp
1 +...an xn +b|
.
a21 +...a2n
→
Dans un espace affine euclidien orienté E de dim. 3, soit une droite D passant par A et de vecteur directeur −
u ; la distance
−−→ →
−
kAM ∧ u k
de M ∈ E à D est
.
−
k→
uk
• Réduction des endomorphismes unitaires (H.P.) : Tout endomorphisme unitaire u d’un espace E hermitien est
diagonalisable dans une base orthonormée, et ses valeurs propres sont de module 1 ; toute matrice unitaire est unitairement
semblable à une matrice diagonale, dont les coefficients diagonaux sont de module 1. (Se démontre par récurrence sur la dim.
de l’espace, en s’appuyant sur l’existence d’un sous-espace propre et de son orthogonal, stables par u).
• Cas réel ; réduction générale (H.P.) : Toute isométrie u d’un espace euclidien E admet un sous-espace stable F
de dim. 1 (alors uF = +/ − idF ) ou 2 (et uF est une rotation plane) ; de plus, E est somme directe orthogonale de ces
sous-espaces stables (par récurrence sur dim(E)), ce qui permet de construire une base orthonormée dans laquelle la matrice
de u est formée de blocs diagonaux de taille 1 (coefficient −1 ou 1) ou 2 (blocs de rotations planes). On en déduit, par
exemple, que u peut se décomposer en produit de dim(E)− dim(Ker(u − id)) réflexions, et aussi que SOn (R) est connexe
par arcs...
Section E : Endomorphismes auto-adjoints
• Définition : Soit E un espace euclidien (resp. hermitien) ; on dit que u ∈ L(E) est auto-adjoint ou symétrique (resp.
hermitien) si et seulement si u∗ = u si et seulement si ∀(x, y) ∈ E 2 , (u(x)|y) = (x|u(y)) si et seulement si la matrice A de u
dans une base orthonormée vérifie t A = A (resp. A∗ = A).
L’ensemble S(E) des endomorphismes auto-adjoints est un sous-espace réel de L(E), de dim.
n(n+1)
(resp. n2 : dans le cas
2
hermitien, on notera que L(E) est un R-e.v. de dim. 2n2 ). Idem pour l’ensemble Sn (R) (resp. Hn (C)) des matrices réelles
(resp. complexes) vérifiant t A = A (resp. A∗ = A, dites symétriques (resp. hermitiennes).
• Ex : Les projecteurs et symétries orthogonales sont auto-adjoints. Notons d’ailleurs qu’un endomorphisme u orthogonal
est auto-adjoint si et seulement s’il vérifie u∗ = u = u−1 si et seulement si c’est une symétrie orthogonale.
• Théorème spectral : (i) Tout endomorphisme auto-adjoint d’un espace euclidien (resp. hermitien) admet une base
orthonormée de vecteurs propres, ses valeurs propres sont toutes réelles, et les sous-espaces propres sont deux à deux
orthogonaux.
(ii) Soit A ∈ Sn (R) (resp. Hn (C)) ; il existe P ∈ On (R) (resp. Un (C)), et (λ1 , ...λn ) ∈ Rn tels que :
P −1 .A.P = P ∗ .A.P = diag{λ1 , ..., λn }.
• Interprétation en termes de forme quadratique : Soit A une matrice symétrique réelle (resp. hermitienne
complexe), et q (resp. h) la forme quadratique (resp. hermitienne) sur Rn (resp. Cn ) canoniquement associée à A : ∀X ∈
Mn,1 (R), q(X) =t X.A.X (resp. ∀X ∈ Mn,1 (C), h(X) = X ∗ .A.X). Le théorème spectral signifie qu’il existe une base B de
Rn (resp. Cn ) orthonormée pour le produit scalaire usuel et orthogonale pour q (resp. h) : avec les notations du théorème, B
est la base de K n dont la matrice dans la base canonique est P , et P ∗ .A.P est la matrice de q (resp. h dans B).
• Matrices symétriques positives : On dit que A ∈ Sn (R) est positive (resp. définie positive), et on note A ∈ Sn+ (R) si
et seulement si la forme quadratique q sur Rn canoniquement associée à A l’est, si et seulement si ∀X ∈ Mn,1 (R),t X.A.X > 0
(resp. ∀X ∈ Mn,1 (R)\{0},t X.A.X > 0). Notons qu’alors ∀i ∈ {1, ..., n}, ai,i > 0 (car ai,i =t ei .A.ei ), et dét(A) > 0 (effectuer
le produit des valeurs propres) mais ces conditions ne suffisent pas à garantir la positivité de A si n > 2 !
• Classification des valeurs propres (Fondamental ! ) : Soit A ∈ Sn (R), q la forme quadratique sur Rn c.a. à A, et les
valeurs propres de A écrites avec leur multiplicité et rangées par ordre croissant : λ1 6 ... 6 λn ; soit (f1 , ..., fn ) une base
orthonormée de Rn formée de vecteurs propres de A, avec ∀i ∈ {1, ..., n}, A.fi = λi .fi . Alors :
P
P
(i) ∀x =
xi fi ∈ Rn , q(x) =t x.A.x =
λi .x2i
16i6n
(ii)λ1 = minX6=0
16i6n
t
t
X.A.X , λ = max
X.A.X .
n
X6=0
kXk2
kXk2
(iii) De plus, A est positive (resp. définie positive) si et seulement si λ1 > 0 (resp. > 0) si et seulement si Sp(A) ⊂ R+ (resp.
⊂ R+∗ ).
N.B. : Il faut savoir redémontrer ce résultat !
• Ex. à connaı̂tre : Si u ∈ L(E), u∗ ◦ u est autoadjoint positif, et Ker(u∗ ◦ u) = Ker(u). De plus, u∗ ◦ u est défini positif
si et seulement si u est bijectif. (De même pour A ∈ Mn (R),t A.A ∈ Sn+ (R), et t A.A est définie positive si et seulement si
A ∈ GLn (R).)
•
Norme d’un endomorphisme : Soit u ∈ L(E) ;
(i) Si u est autoadjoint positif, |||u||| = supkxk=1 (u(x)|x) =max Sp(u), appelé aussi rayon spectral de u, et noté ρ(u).
p
(ii) Généralement, |||u||| = ρ(u∗ ◦ u) = |||u∗ |||.
Rem : Quoi que ce résultat figure au programme, il est fréquent qu’on demande de le redémontrer...
Section F : Compléments à revoir, et savoir refaire
• Racine carrée d’une matrice symétrique positive (H.P.) : Soit A ∈ Sn+ (R) ; alors √
il existe une unique matrice B
symtrique réelle positive, telle que B 2 = A ; B s’appelle la racine carrée de A, notée B = A. (L’existence de B découle
du théorème spectral, et de la réduction de A dans une base orthonormée ; l’unicité provient du fait que les sous-espaces
propres de A et d’une racine carrée de A sont les mêmes.)
• Décomposition
polaire (H.P.) : Soit M ∈ Mn (R) ; alors il existe un couple (S, O) ∈ Sn+ (R) × On (R), M = O.S ;
√
t
S = M.M est unique, et O l’est si et seulement si M ∈ GLn (R).
• Matrices de Gram (H.P.) : Soit E un espace préhilbertien réel, et (x1 , ..., xp ) ∈ E p ; on associe à ce système de vecteurs
la matrice de Gram : G(x1 , ..., xp ) = ((xi |xj ))16i,j6p , et le déterminant de Gram : Gram(x1 , ..., xp ) = détG(x1 , ...xp ). On a :
(i) G(x1 , ..., xp ) ∈ Sp+ (R), et Gram(x1 , ..., xp ) > 0.
(ii) (x1 , ..., xp ) est libre si et seulement si Gram(x1 , ..., xp ) > 0. On suppose dans la suite que c’est le cas, et on note
F = V ect(x1 , ..., xp ).
(iii) Si (e1 , ..., ep ) est une base orthonormée de F déduite de (x1 , ..., xp ) en utilisant le procédé de Schmidt ; en notant
P la matriceQ(triangulaire supérieure) de (x1 , ..., xp ) dans (e1 , ...ep ), il vient : G(x1 , ..., xp ) =t P.P, et Gram(x1 , ..., xp ) =
det(P )2 =
(xi |ei )2 est le carré du produit mixte [x1 , ..., xp ].
16i6p
Gram(x,x ,...x )
p
1
(iv) ∀x ∈ E, d(x, F )2 = Gram(x ,...,x
.
p)
1
(v) Toute matrice A ∈ Sn+ (R) est√la matrice√de Gram d’un système de vecteurs de Rn (en l’occurrence, si (e1 , ..., en ) ésigne
la base canonique de Rn , A = G( A.e1 , ..., A.en )).
Q
Q
• Inégalité d’Hadamard (H.P.) : Si A ∈ Sn+ (R), alors 0 6 det(A) 6
ai,i , et on a det(A) =
ai,i si et seulement
16i6n
16i6n
si A est diagonale.
• Réduction des endomorphismes antisymétriques (H.P.) : u ∈ L(E) est antisymétrique si et seulement si u∗ = −u
si et seulement si ∀(x, y) ∈ E 2 , (u(x)|y) = −(x|u(y) si et seulement si ∀x ∈ E, (u(x)|x) = 0 (former (u(x + y)|x + y)). Si A
est la matrice de u dans une base orthonormée de E, on a t A = −A, et (iA)∗ = iA est hemitienne. On en déduit que A
est diagonalisable sur C, et que les valeurs propres de A sont imaginaires pures (la seule valeur propre réelle possible de A
est donc 0).
Téléchargement