Polycopié

publicité
Algèbre linéaire et bilinéaire
M2 - CAPES 2010-2011
Table des matières
1 Matrices et applications linéaires
1.1 Propriétés élémentaires et vocabulaire .
1.2 Structures d’espace vectoriel et d’algèbre
1.3 Opérations sur les matrices . . . . . . .
1.4 Exemples remarquables (culture) . . . .
.
.
.
.
2
2
3
5
6
2 Déterminant
2.1 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Le déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
9
10
3 Systèmes linéaires
3.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
12
13
4 Réduction
4.1 Valeurs propres . . . . . . . . . . . . . . . .
4.2 Polynômes d’endomorphismes . . . . . . . .
4.3 Diagonalisation et trigonalisation . . . . . .
4.4 Exemples d’utilisation de la diagonalisation
.
.
.
.
16
16
17
17
18
5 Espaces euclidiens et hermitiens
5.1 Formes bilinéaires et quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Espaces hermitiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
20
22
26
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Chapitre 1
Matrices et applications linéaires
1.1
Propriétés élémentaires et vocabulaire
Définition 1 Une matrice A à n lignes et p colonnes et à coefficients dans un corps K est la donnée de
n × p scalaires (c’est à dire d’éléments de K) indicés : (aij )16i6n,16j6p . En cas d’ambiguı̈té, on sépare
les indices par une virgule, par exemple ai,j+1 . L’ensemble de ces matrices est noté Mnp (K).
Quelques cas particuliers :
– les éléments de Mn1 sont dites matrices colonnes
– les éléments de M1n sont dites matrices lignes
– les éléments de Mnn , noté simplement Mn sont dites matrices carrées
– une matrice A telle que aij = 0 dès que i > j (resp. i < j) est dite triangulaire supérieure (resp.
inférieure) – souvent cette notion s’applique aux matrices carrées mais pas exclusivement, cf. pivot
de Gauss).
– Une matrice carrée triangulaire supérieure et inférieure est dite diagonale ; notamment la matrice
identité de Mn , notée I, Id ou In .
Produit
Pp de matrices : si A = (aij ) ∈ Mnp , B = (bij ) ∈ Mpq , on définit C = AB ∈ Mnq par
cij = k=1 aik bkj . Notation graphique et mnémotechnique pour le produit : en écrivant les matrices A, B
décalées, la matrice C possède les bonnes dimensions et le terme cij se voit comme le produit scalaire de
la i-ième ligne de la matrice A par la j-ième colonne de la matrice B.
q
z


}|
b1j
..
.
bpj







n  ai1





|


···
aip 

{z
}
p
2
{



 p



cij

Calcul par blocs. Si l’on décompose les deux matrices M, N en sous-matrices alors le produit s’écrit
en comme si les sous-matrices étaient des scalaires :
0
A B
A B0
AA0 + BC 0 AB 0 + BD0
=
C D
C 0 D0
CA0 + DC 0 CB 0 + DD0
en tenant compte des contraintes évidentes :
− les tailles des sous-matrices doivent se correspondre (par exemple A ∈ Mn1 p1 , A0 ∈ Mp1 q1 ) pour
que les produits soient définis ;
− le produit entre matrices est non commutatif (AA0 6= A0 A en général, à supposer que cela ait même
un sens).
Il n’y a aucune autre contrainte, en particulier les matrices ne sont pas nécessairement carrées, ni découpées
en le même nombre de blocs (1 ). Voir aussi le calcul de déterminant par blocs (page 11). On dira aussi
qu’un matrice est triangulaire par blocs (inférieure ou supérieure) ainsi que diagonale par blocs.
1.2
Structures d’espace vectoriel et d’algèbre
Algèbre des matrices. L’ensemble des matrices de taille p × q, Mnp (K), possède une structure
d’espace vectoriel pour les lois suivantes. Si A = (aij ), B = (bij ) ∈ Mnp (K) et λ ∈ K alors λA + B =
(λaij + bij ) ∈ Mnp (K). Cet espace vectoriel est de dimension finie égale à np, avec une base canonique
(Eij )1≤i≤n,1≤j≤p , la matrice nulle sauf en position ij où elle vaut 1. On peut noter que (Eij )ab = δia δjb
(symbole de Kronecker), mais aussi que l’endomorphisme correspondant est défini par

 

X1
ei si b = j
 ..  
Xj  en i-ème position.
eb 7→
ou encore Eij X = Eij  .  =
0 sinon
Xp
La structure d’espace vectoriel correspond évidemment à celle de L(Kp , Kn ) (plus généralement à L(E, F ),
voir plus bas).
Le produit matriciel est un produit bilinéaire de Mnp × Mpq → Mnq .
Exercice 1 Dans le cas des matrices carrées, montrer que Eij Ek` = δjk Ei` , par deux méthodes : les coefficients,
les vecteurs de base (e1 , . . . , en ).
Cas carré. Si n = p, le produit est donc une loi interne de Mn × Mn dans Mn . Cela définit
exactement une algèbre multiplicative (associative et unitaire mais a priori non commutative !) (2 ) (3 ).
Le groupe (multiplicatif) des inversibles est noté GLn (K). On peut aussi définir la puissance d’une matrice :
Ak = AAk−1 avec la convention A0 = I matrice identité, et quand A est inversible, A−1 l’inverse de A et
1 Cette approche n’est pas seulement formelle mais correspond aux décompositions des espaces vectoriels en somme
directe. Ainsi si f ∈ L(E, F ), (e1 , . . . , ep ) est une base de E et (f1 , . . . , fn ) de F , M = Mat f dans ces bases ; alors on
peut décomposer E = Vect(e1 , . . . , ep1 ) ⊕ Vect(ep1 +1 , . . . , ep ) et F = Vect(f1 , . . . , fn1 ) ⊕ Vect(fn1 +1 , . . . , fn ). Le bloc
A = (aij )16i6n1 ,16j6p1 est la matrice de π ◦ f| Vect(e1 ,...,ep ) où π est la projection de F sur Vect(f1 , . . . , fn1 ). À l’inverse
1
dès que l’on a une décomposition en somme directe, on a une décomposition par bloc correspondante (même sans parler de
base). L’écriture matricielle n’est autre que la décomposition en les blocs les plus petits possibles, les scalaires.
2 † on pourrait aussi dire que que M est un anneau, mais cela occulterait la structure de multiplication externe par les
n
scalaires.
3 dans les cas réel et complexe, on munit aisément M d’une structure d’algèbre normée.
n
3
A−k = (A−1 )k = (Ak )−1 . De même pour les polynômes de matrices, en notant que A commute avec ses
puissances.
Nilpotence : une matrice est nilpotente s’il existe un entier tel que Ar = 0 ; le plus petit r possible est
appelé l’ordre de nilpotence.
Exercice 2 Montrer que les seules matrices commutant avec toutes les autres (ce qu’on appelle le centre de GLn )
sont les matrices multiples de l’identité.
Correspondance entre matrices et applications linéaires, changement de base. Un choix de
base (par définition il en existe toujours en dimension finie) revient à identifier un espace vectoriel E de
dimension p à l’espace modèle Kp . Les applications linéaires de Kp dans Kn s’identifient naturellement aux
matrices. On peut parler de la matrice d’une application linéaire u : E → F , (évaluée) dans deux bases
(ej )1≤j≤p de E et (fi )1≤i≤n de F , notée A = Mate,f u, c’est à dire aij = fi∗ (u(ej )) (4 ). Concrètement
la j-ème colonne contient les composantes suivant la base (fi ) du vecteur u(ej ). Attention : pour un
endomorphisme f on choisit en général la même base au départ et à l’arrivée (mais ce choix n’a rien
d’obligatoire, voir ci-dessous les relations d’équivalence et de similitude).
Le choix de deux bases engendre donc un isomorphisme (non canonique) Mnp (K) ' L(E, F ). Propriété fondamentale (bien qu’évidente) : le produit matriciel correspond à la composition des applications
linéaires. Autrement dit, c’est un isomorphisme d’algèbre.
Changement de base : soit f 0 une nouvelle base (de F ) ; on appelle matrice de passage la matrice P =
Mat0f f , en écrivant les nouveaux vecteurs dans l’ancienne base. C’est aussi Matf,f 0 id pour l’application
linéaire identité. Les coordonnées dans F changent suivant la formule suivante
X = P X0
(voir le lien avec la réduction de Gauss, page 21).
Clairement Matf 0 f = (Matf f 0 )−1 et si l’on fait jusqu’à deux changement de base, alors, si l’on note
A = Mate,f u et A0 = Mate0 ,f 0 u, on a
A0 = Mate0 ,f 0 u = Matf 0 f
Mate,f u Mate e0 = P −1 AP.
Attention au contexte : tantôt deux matrices différentes correspondent au même endomorphisme dans des
bases différentes, tantôt ce sont deux objets différents dans la (les) même(s) base(s).
Relations d’équivalence et de similitude Pour compenser l’ambiguı̈té du choix de la base qui fait
que la matrice associée à un endomorphisme n’est pas unique, on définit sur Mnp une relation : M est
équivalente à N si elles correspondent au même endomorphisme dans des bases différentes, autrement il
existe Q ∈ GLn (K) et P ∈ GLp (K) tels que N = Q−1 M P . C’est évidemment une relation d’équivalence.
Théorème 1 Toute matrice M ∈ Mnp (K) est équivalente à une matrice N nulle sauf pour les termes
nii , 1 6 i 6 r, qui valent 1 :


1


..


.
N ∼



1
4 rappel : f ∗ (v) est la i-ème coordonnée de v dans la base (f , ..., f ), l’application f ∗ : F → K est une forme linéaire ;
n
1
i
i
attention elle dépend de la base entière et pas seulement du vecteur de base fi ! Exercice : le prouver par un dessin.
4
Le nombre r de termes non nuls est exactement le rang de la matrice (considéré comme endomorphisme,
ce qui permet de démontrer que le rang ne varie pas par équivalence). Réciproquement, deux matrices sont
équivalentes ssi elles ont même rang.
Exercice 3 Déterminer les classes d’équivalence de cette relation.
Dans le cas carré, on peut définir la matrice d’un endomorphisme dans une seule base (ei )1≤i≤n fixée.
Si le changement de base est P = Mate e0 , les coordonnées des vecteurs dans la nouvelle base satisfont
X = P X 0 , et M 0 = P −1 M P . Cela définit une autre relation d’équivalence : M est semblable à N s’il
existe P ∈ GLn (K) tel que P −1 M P (5 ). Cette relation est au coeur de la théorie de la réduction.
1.3
Opérations sur les matrices
Transposition. Définition (t A)ij = Aji (6 ). C’est une opération linéaire de Mnp dans Mpn . Transposition et produit : t (AB) = t B t A, t (A−1 ) = (t A)−1 . Dans le cas carré, on définit le sev des matrices
symétriques Sn = {A ∈ Mn (K), t A = A}, et antisymétriques An = {A ∈ Mn (K), t A = −A}. On a une
décomposition en somme directe Mn (K) = S(n) ⊕ A(n) (7 ).
Exercice 4 Expliciter les projections dans cette somme directe.
E +E
; pour An on prend (Eij −
Une base typique de Sn est ( ij 2 ji )1≤i≤j≤n , donc dim Sn = n(n+1)
2
Eji )1≤i<j≤n , donc dim An = n(n−1)
.
Dans
le
cas
réel,
il
y
a
bien
sûr
une
interprétation
de la transposée
2
comme adjointe par rapport au produit scalaire canonique (voir plus loin) (8 ).
Dans un espace vectoriel complexe, on définit la transconjuguée A∗ = t Ā ; A est dite hermitienne si
∗
A = A (ou autoadjointe pour le produit hermitien), antihermitienne si A∗ = −A.
Rang. Le rang d’une application linéaire est la dimension de son image.
− Rang d’une matrice : c’est le rang de l’application linéaire associée. Corollaire : le rang est le nombre
de colonnes indépendantes. En utilisant le théorème précédent, on déduit que le rang de t M est le
rang de M , donc le nombre de lignes indépendantes = nombre de colonnes indépendantes. Autre
caractérisation : le rang est le plus grand entier r tel qu’il existe une matrice extraite r × r inversible.
A contrario, si s > r alors toutes les matrices s × s extraites sont non-inversibles (singulières). Voir
l’utilisation du déterminant.
− Calcul du rang : le rang d’une matrice ne change pas lors des opérations suivantes : permutation
de lignes Li ←→ Lj , addition entre lignes différentes Li ←− Li + Lj et multiplication d’une ligne
par un scalaire (non nul) Li ←− αLi ; idem avec les colonnes. Attention : non commutativité des
opérations (L2 ←− L2 + L1 suivi de L3 ←− L3 + L2 n’est pas équivalent aux mêmes opérations dans
l’ordre inverse). Utilisation du pivot de Gauss : on obtient en fin le rang comme nombre de lignes
non nulles.
5 (††) si deux matrices sont semblables, certains invariants sont les mêmes, comme la trace et le déterminant ; la réciproque
est un peu plus compliquée et fait intervenir la diagonalisation.
6 Pour des raisons typographiques certains textes notent la transposée At .
7 (†) si K = R, la somme est orthogonale quand on munit M du produit scalaire canonique
n
8 (††) il y a aussi une interprétation abstraite de la transposition dans le cas général, comme matrice de la transposée
d’une application linéaire u : E → F ; sa transposée t u va du dual F ∗ dans le dual E ∗ et associe à ψ ∈ F ∗ la forme linéaire
t u(ψ) = ψ ◦ u ∈ E ∗ .
5
Trace d’une matrice carrée. Forme linéaire sur Mn (K) satisfaisant tr(AB) = tr(BA). La trace ne
dépend que de l’endomorphisme (ou de la classe de similitude) :
tr(P −1 AP ) = tr(AP P −1 ) = tr A
1.4
Exemples remarquables (culture)
Sous-ensembles remarquables de l’ensemble des matrices (certaines notions sont à lier à la géométrie
euclidienne ou hermitienne et ne sont donc valides que pour K = R ou K = C). Attention : certains faits
ci-dessous sont au programme et donc peuvent être cités sans preuve, d’autres non.
− le groupe linéaire GLn (K) (aussi noté GL(n, K))) des matrices inversibles ( = de rang n = de
déterminant non nul) ; dans les cas réel et complexe, c’est un ouvert (car det−1 (R∗ )), qui de plus est
dense ;
− le groupe spécial linéaire SLn (K) = {M, det M = 1}, sous-groupe de GLn (K). Dans R ou C,
c’est un fermé non compact.
− le groupe orthogonal O(n) = {M ∈ Mn (R), t M M = I}. Noter que si M est orthogonale son
déterminant vaut ±1. De fait O(n) possède au moins deux composantes connexes correspondant
aux signes du déterminant : O+ (n) et O− (n). Noter que O− (n) ne peut être un groupe, mais que
O+ (n) = O(n) ∩ SLn (R) en est un, plus souvent noté SO(n), le groupe spécial orthogonal (dans
R3 ce sont les rotations). Remarque 1 : une définition plus géométrique : les matrices de O(n) (resp.
SO(n), O− (n)) correspondent aux isométries vectorielles (resp. directes, indirectes), c’est à dire
qu’elles préservent les distances (ou le produit scalaire), donc M ∈ O(n) ssi ses vecteurs colonnes
sont normés et deux à deux orthogonaux. Remarque 2 : ces ensembles sont tous fermés et bornés
donc compacts9 . Il faut connaı̂tre la structure des cas n ≤ 3. Ce groupe est utilisé dans le chapitre
sur la diagonalisation (cf théorème spectral).
− Le groupe (des automorphismes) unitaire(s) U (n) = {M ∈ Mn (C), M ∗ M = I} ; nécessairement
| det M | = 1. Aussi compact, mais lui est connexe (difficile). SU (n) = U (n) ∩ SLn (C). Ce groupe est
aussi utilisé dans le chapitre sur la diagonalisation (cf théorème spectral).
− Algèbre des matrices triangulaires supérieures T+ (resp. inférieures T− ) (notations non standardisée), avec les sous-groupes des matrices triangulaires inversibles (c’est à dire sans zéro sur la
diagonale) T+∗ , T−∗ (10 ).
− Matrices de permutation, pour une permutation σ : sur la j-ème colonne on ne trouve que des zéros
sauf à la ligne i = σ(j), autrement dit (Mσ )ij = δi,σ(j) . Propriété remarquable Mσ Mσ0 = Mσ◦σ0
(autrement dit σ 7→ Mσ définit un morphisme (injectif) du groupe Sn dans GL(n, R) ; on notera
que la signature est donnée par le déterminant : (σ) = det Mσ ).
− Espaces vectoriels des matrices symétriques et antisymétriques (voir plus haut). Remarque (piège) :
l’espace vectoriel des matrices hermitiennes Hn = {H ∈ Mn (C); H ∗ = H} est en fait un espace
vectoriel sur R et non sur C.
Exercice 5 Montrer les propriétés ci-dessus.
9 on peut aussi définir le groupe O(n, C) = {M ∈ M (C), t M M = I} qui possède d’autres propriétés, en particulier il
n
n’est pas compact si n > 1.
10 (†) le théorème de (Gram-)Schmidt revient à écrire que M = RT pour toute M ∈ GL (R), avec R ∈ O(n) et T ∈ T ∗ .
n
+
Exercice : discuter l’unicité de cette décomposition.
6
Exercice 6 Soit G un sous-groupe de GLn (K) ; on définit un groupe noté G n Kn comme l’ensemble produit
G × Kn muni de la loi suivante : (M, x)(M 0 , x0 ) = (M M 0 , M x0 + x) (on parle de produit semi-direct). Vérifier
qu’il s’agit bien d’un groupe. Montrer qu’il est isomorphe au sous-groupe de GLn+1 (K) des matrices (écrites par
blocs) :
„
«
M x
.
0 1
Citer des exemples de tels groupes.
7
Chapitre 2
Déterminant
2.1
Permutations
Définition 2 Une permutation σ est une bijection (en général d’un ensemble fini). On note S(E) les
permutations de E et Sn les permutations de {1, . . . n}.
Tout ensemble fini étant en bijection avec {1, . . . , n} on peut en numéroter les éléments et ramener
l’étude de S(E) à celle de Sn pour n = Card(E). Notation avec
1 2 3 4
i
, par exemple σ =
= 1 3 4 2
σ=
1 3 4 2
σ(i) 16i6n
on supprime souvent la première ligne. La composition des permutations est notée σ ◦ σ 0 ou σσ 0 .
Le support d’une permutation σ ∈ S(E) est le plus petit ensemble Supp(σ) ⊂ E, tel qu’en dehors
de Supp(σ), σ soit l’identité. Une permutation de support réduit à deux éléments {i, j} est appelée une
transposition et notée τij . Une permutation est dite circulaire s’il existe un élément i ∈ Supp(σ) tel
que Supp(σ) = {σ k (i), k ∈ Z}.
Avertissement 1 Attention à l’ambiguı̈té de la notation de transposition τ12 ! Certains considèrent que
1, 2 sont les valeurs permutées (la permutation est vue comme une fonction, cas le plus fréquent) – ainsi
τ12 (3412) = (3421) ; d’autres permutent les positions : τ12 (3412) = (4312). Face à un énoncé on cherchera
la convention retenue, et dans le doute il faut indiquer celle que l’on choisit.
Théorème 2 Sn est un groupe, non commutatif si n > 3. Il est engendré par les transpositions. Il existe
une infinité de façons d’écrire σ comme produit de transpositions.
Proposition 1 Si l’on écrit σ = τ1 τ2 · · · τk , alors (σ) := (−1)k ne dépend que de σ pas de l’écriture.
Ce nombre est appelé signature et définit en fait un morphisme de groupes (Sn , ◦) → ({−1, +1}, ×). La
signature est aussi (−1)I(σ) où I(σ) est le nombre d’inversions, c’est à dire de couples (i, j) ∈ {1, . . . , n}
tels que i < j et σ(i) > σ(j).
Exercice 7 Calculer la signature d’une permutation circulaire à k éléments, de la permutation
`
n
n−1
...
Remarque 1 Les matrices de permutation (voir 6) donnent une visualisation, liée au déterminant.
8
2
1
´
.
2.2
Applications multilinéaires
Définition 3 Une application r-multilinéaire de E dans F deux espaces vectoriels est une application de
E×· · ·×E (r fois) dans F , linéaire en chacune de ses r variables. Si F = K on parle de forme multilinéaire ;
à r fixé, elles forment un espace vectoriel. On peut généraliser cette définition à f : E1 × · · · × En → F .
Définition 4 Une application multilinéaire est dite
− symétrique si ∀u1 , . . . , ur ∈ E, ∀σ ∈ Sr , f (uσ(1) , . . . , uσ(r) ) = f (u1 , . . . , ur ) [l’ordre ne compte pas]
− antisymétrique si ∀u1 , . . . , ur ∈ E, ∀σ ∈ Sr , f (uσ(1) , . . . , uσ(r) ) = (σ)f (u1 , . . . , ur ) [l’ordre ne
compte pas, au signe près]
− alternée, si ∃i 6= j, ui = uj =⇒ f (u1 , . . . , ur ) = 0
Il suffit de vérifier les définitions pour toutes les transpositions.
Exercice 8 antisymétrique implique alternée, et la réciproque est vraie sur un corps de caractéristique différente
de 2 (notamment R et C).
Proposition 2 Une application r-multilinéaire alternée évaluée sur r vecteurs liés est nulle.
En particulier une forme r multilinéaire sur un espace vectoriel de dimension n < r est identiquement
nulle.
Exemple 1 Dans Kn on associe à p vecteurs la matrice n × p composée de ces vecteurs ; les mineurs p × p
de cette matrice sont des p-formes alternées sur Kn (1 ).
Exemple 2 Le produit vectoriel R3 × R3 → R3

 
 

x1
y1
x2 y3 − x3 y2
 x2  ∧  y2  =  x3 y1 − x1 y3 
x3
y3
x1 y2 − x2 y1
est une application bilinéaire alternée. Noter que les trois coordonnées du produit vectoriel x ∧ y sont les
trois mineurs extraits de la matrice dont les colonnes sont x et y.
Le produit mixte de trois vecteurs x, y, z ∈ R3 est
[x, y, z] = hx ∧ y, zi
où h, i est le produit scalaire habituel. On peut vérifier (et c’est en fait la bonne définition du produit
vectoriel) que [x, y, z] = det(x, y, z) ce qui implique puisque det est antisymétrique [x, y, z] = [y, z, x] =
[z, x, y] et [x, y, z] = −[y, x, z], etc.
1 (†)
Ces p-formes constituent en fait une base de l’espace vectoriel des p-formes alternées. Exercice : les dénombrer ?
9
2.3
Le déterminant
Proposition 3 En dimension n, les formes n-multilinéaires alternées constituent un espace vectoriel de
dimension 1 (elles sont donc toutes multiples les unes des autres, la forme nulle exceptée). Si une base
(e1 , . . . , en ) est fixée (par exemple la base canonique dans Kn ) on appelle det celle de ces formes qui
satisfait det(e1 , . . . , en ) = 1.
Le déterminant est donc au départ une forme n-multilinéaire alternée. On peut le calculer en utilisant
les permutations : si A = (aij ) est la matrice dont les colonnes sont les coordonnées de n vecteurs
(u1 , . . . , un ) dans la base de référence choisie2 ,
det(u1 , . . . , un ) = det A =
X
(σ)
n
Y
aσ(i)i =
i=1
σ∈Sn
X
σ∈Sn
(σ)
n
Y
aiσ(i)
i=1
(ce qui prouve que det t A = det A). Cela définit par là même le déterminant d’une matrice comme
déterminant de ses colonnes ou de ses lignes. Enfin si u ∈ L(E), et M = Mate u alors det u := det M et
cela ne dépend pas du choix de la base (voir ci-dessous). Selon le point de vue on obtiendra différentes
propriétés du déterminant3 :
1. vu comme forme n-multilinéaire alternée sur Kn (ou sur E muni d’une base) det : (Kn )n → K.
− propriétés vis-à-vis des opérations sur les lignes ou les colonnes : Li ← Li + λLj (j 6= i) ne change
pas les déterminant ; Li ↔ Lj change le signe ; Li ← λLi multiplie le déterminant par λ.
− continuité (et différentiabilité) du déterminant en chacune de ses variable puisque linéaire en celle-ci.
2. fonction de la matrice Mn (K) → K n-homogène (i.e. det(λM ) = λn M ) ; aucune propriété additive
ou linéaire [en les matrices], mais une matrice est inversible ssi det M 6= 0. La restriction de det
aux matrices inversibles sest un morphisme de groupes multiplicatifs GLn (K) → K (ie. det AB =
det A det B). Conséquence : A et P −1 AP on le même déterminant. Noter que SLn (K) = Ker det.
3. fonction de l’endomorphisme L(E) → K, morphisme de groupes multiplicatifs de GLn (K) dans K∗ .
Paradoxe : il faut fixer une base pour le calculer mais il est indépendant de celle-ci.
4. fonction polynomiale en les n2 coefficients aij ; cela prouve :
− le caractère C ∞ en les coefficients, ie. en la matrice
− l’expression de la différentielle (ardu)
− développement par rapport à une ligne ou une colonne, par exemple par rapport à la j-ième colonne
det A =
n
X
aij Âij
i=1
où Âij est le cofacteur défini comme (−1)i+j fois le déterminant de la matrice de taille (n − 1)
obtenue en enlevant la ligne i et la colonne j
− cas particulier de Sarrus, valable uniquement en dimension 3 :
a11 a12 a13 a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23
−a31 a22 a13 − a21 a12 a33 − a11 a32 a23
a31 a32 a33 2 si l’on prend les coordonnées dans une autre base, le déterminant est multiplié par le déterminant de la matrice de
changement de base.
3 À proprement parler, il est abusif d’appeler de la même façon (det) plusieurs applications ne partant pas du tout des
mêmes espaces.
10
5. interprétation géométrique : volume orienté d’un n-parallépipède ; corollaire : l’aire d’un triangle ne
dépend que de sa base et de sa hauteur.
Remarque 2 Voir les matrices de permutation en 1.4.
Remarque 3 Propriétés diverses (en plus de celles ci-dessus) :
− déterminant d’une matrice ne possédant qu’une valeur par colonne et par ligne : le déterminant
est le produit des termes multiplié par la signature (σ) de la permutation qui correspond (ie. telle
que le terme sur la colonne j soit sur la ligne σ(j)). Applications notables : matrice diagonale
(det Diag(λ1 , . . . , λn ) = λ1 · · · λn ), matrice antidiagonale (det = (−1)E(n/2) λ1 · · · λn ).
− déterminant d’une matrice triangulaire par blocs. Le déterminant n’est pas obtenu comme le
déterminant des blocs, sauf si la matrice est triangulaire par bloc.
A B
det
= det A det D
0 D
Exercice 9 Soit M = (mij ) ∈ Mn (K) une matrice ayant la propriété suivante : sur chaque ligne et chaque colonne
seul un terme est non nul ; on appelle ak la valeur du terme non nul sur la k-ième colonne. Que valent | det M | ?
et det M ? Application : déterminant d’une matrice diagonale, antidiagonale, triangulaire supérieure/inférieure,
d’une telle matrice si ak = 1 pour tout k.
Exercice 10 Calculer la différentielle de det : Mn (R) → R.
Exercice 11 (†) On considère une matrice A = (aij ) ∈ Mn (K) et on lui associe l’application linéaire LA :
Mn (K) → Mn (K), M 7→ LA (M ) := AM . Cet endomorphisme est-il injectif, surjectif ? En identifiant Mn (K),
2
muni de sa base canonique, à Rn , calculer le déterminant de LA en fonction de A.
Proposition 4 On appelle comatrice de A, notée Com(A), la matrice des cofacteurs Âij . Alors on
déduit des formules de développement que
At Com(A) = (det A)In
et si det A 6= 0, l’inverse de A est
1 t
det A
Com(A).
Définition 5 Orientation : on se donne une base de référence B = (e1 , . . . , en ), par exemple la base
canonique dans Kn ; un endomorphisme est dit direct si son déterminant est positif. Une (autre) base
B 0 = (e01 , . . . , e0n ) est dite positivement orientée (ou de même orientation que B) si l’endomorphisme u
— défini par ∀i, u(ei ) = e0i — est direct. On définit le groupe spécial linéaire par SLn (K) = {M ∈
GLn (K), det M = 1} ; sa définition plus géométrique est de préserver orientation et volume.
11
Chapitre 3
Systèmes linéaires
3.1
Propriétés
Définition 6 Une équation linéaire à p inconnues est une équation de la forme
a1 x1 + · · · + ap xp = b.
Un système (S) de n équations linéaires à p inconnues
Pp est la donnée de n équations comme ci-dessus
en les mêmes inconnues x1 , . . . , xp , noté en général
j=1 aij xj = bi . Cela est équivalent à l’équation
matricielle AX = B où


x1


b1
 .. 
 . 
 . 

A = (aij )16i6n,16j6p , X = 
 .  , B =  .. 
.
 . 
bn
xp
On cherche à déterminer l’ensemble E des solutions du système. Deux systèmes sont dit équivalents si
leurs ensembles de solutions sont identiques. Le vecteur B = (b1 , . . . , bn ) est appelé le second membre, et
le système est dit homogène si B = 0.
Le mot linéaire est quelque peu trompeur puisque les équations sont affines, si le second membre est
non nul.
Théorème 3 L’ensemble E des solutions d’un système linéaire est un espace affine éventuellement vide.
Si le système est homogène cet ensemble n’est jamais vide car il contient 0Kp et on peut alors le considérer
comme un espace vectoriel ; en particulier toute combinaison linéaire de solutions est encore une solution.
Remarque 4 Une équation linéaire à p inconnues a pour ensemble solution un sous-espace affine de codimension 1 (hyperplan). Un système d’équations a donc pour solution l’intersection de n tels hyperplans.
12
3.2
Résolution d’un système linéaire
Le cas Cramer Dans le cas où n = p et que la matrice A est inversible (i.e. det A 6= 0), la solution
existe toujours et se réduit à un seul point X = A−1 B. Les formules de Cramer donnent l’expression
directement en fonction de B et des colonnes C1 , . . . , Cn de la matrice A
x1 =
det(B, C2 , . . . , Cn )
det(C1 , . . . , Cj−1 , B, Cj+1 , . . . , Cn )
, . . . , xj =
,...
det A
det A
. . . , xn =
det(C1 , . . . , Cn−1 , B)
det A
Méthode de Rouché–Fontené
1. Calcul du rang r de A ; il existe donc r lignes indépendantes (non nécessairement uniques) et on
met de côté les n − r autres lignes, inutiles (dites aussi redondantes1 ou secondaires).
2. Sélection de r colonnes indépendantes (ce qui fixe r variables dites principales et p − r variables
secondaires).
3. Optionnellement : test de compatibilité de B a priori (le rang des r colonnes2 indépendantes jointes
à B doit rester r) ; ce test est aussi faisable sur toutes les colonnes au lieu de seulement r d’entre
elles. Voir l’interprétation algébrique.
4. Résolution en considérant le système de Cramer composé des r lignes indépendantes et des r colonnes
indépendantes, en ayant fait passer dans le second membre les p − r variables secondaires.
5. Si pas fait auparavant, test de compatibilité a posteriori , en vérifiant que les solutions obtenues
satisfont bien les n − r équations laissées de côté.
6. Au final, s’il y a compatibilité, les solutions forment un espace affine (ou vectoriel) de dimension
p − r. Un système homogène ayant toujours au moins une solution, la compatibilité n’a pas lieu
d’être.
Remarque 5 On peut aussi résoudre en exhibant une solution (dite particulière) Y = (y1 , . . . , , yp ) du
système (S), obtenue de n’importe quelle façon, puis en notant que l’ensemble E est constitué des sommes
Y + Z où Z décrit l’ensemble E0 des solutions du système homogène associé (S0 ) : AZ = 0. E0 est donc
la direction de l’espace affine E, si toutefois ce dernier est non vide.
Remarque 6 On peut simplifier le système avant d’appliquer la méthode (cf le pivot). Opérations permises : toutes les opérations classiques sur les lignes, y compris permutations. les opérations sur les colonnes
peuvent être autorisées, mais en notant qu’elles échangent des variables (à manipuler avec précaution
donc).
Méthode du pivot (de Gauss) Il existe deux variantes du pivot selon que l’on autorise ou non les
permutations de colonnes (donc de variables). On obtiendra alors des matrices triangulaires de types
différents. Nota bene : les opérations d’addition et de multiplication de lignes s’appliquent aussi au second
membre, mais pas les opérations sur les colonnes.
1 notation
2 les
personnelle.
colonnes complètes, c’est à dire avec n éléments.
13
1. Méthode avec permutation de colonne.
i. Dans la première colonne, choisir la ligne ayant un coefficient non nul (appelé pivot) ; quitte à
permuter les lignes on supposera que c’est la première ligne. Si la colonne entière est nulle, en
chercher une autre puis permuter les colonnes. Si A = 0 alors on a fini, voir plus bas, sinon on se
ramène donc à a11 6= 0.
ii. Remplacer les lignes suivantes : ∀i > 2, Li ←− Li −
coefficients de chaque ligne.
ai1
a11 L1 ,
ce qui rend nuls tous les premiers
iii. Recommencer avec la sous-matrice obtenue en enlevant la première ligne et la première colonne.
iv. Fin de l’algorithme (garantie par la finitude du nombre de ligne et colonnes) au bout de r lignes :
quand la (sous-)matrice restante, hors second membre, est identiquement nulle. Test de compatibilité : il faut que le second membre restant soit nul aussi. Alors on résout en passant les variables
secondaires (les p − r restantes) dans le second membre et en résolvant un système de Cramer r × r
trivial car triangulaire.


× ··· ··· ··· ∗ ∗
.. .. 

..
 0
.
. . 



 .. . .

 .
.
×
·
·
·
∗
∗



 ..
× désigne le pivot (non nul)
 .
0 ··· 0 ? 



 .
.
.
.. .. 
 ..


 .
.. .. 
 ..
. . 
0 ··· ··· ··· 0 ?
v. S’il y a eu permutation de colonnes, replacer les variables dans le bon ordre.
2. Méthode sans permutation de colonne.
i. Dans la première colonne, choisir la ligne ayant un coefficient non nul (appelé pivot) ; quitte à
permuter les lignes on supposera que c’est la première ligne. Si la colonne entière est nulle, passer
à la suivante. Si A = 0 alors on a fini, voir plus bas, sinon on se ramène donc à a11 6= 0.
ii. Remplacer les lignes suivantes : ∀i > 2, Li ←− Li −
coefficients de chaque ligne.
ai1
a11 L1 ,
ce qui rend nuls tous les premiers
iii. Recommencer avec la sous-matrice obtenue en enlevant la première ligne et la première colonne.
iv. Fin de l’algorithme (garantie par la finitude du nombre de ligne et colonnes) au bout de r lignes :
quand la (sous-)matrice restante, hors second membre, est identiquement nulle. Test de compatibilité : il faut que le second membre restant soit nul aussi. Les variables principales sont celles où il
y a un pivot, les autres sont secondaires. On passe les variables secondaires dans le second membre
14
et on résout (ce qui peut se faire progressivement, ligne par ligne).

×
···
···
···














0
..
.
..
.
..
.
..
.
0
···
0
×
0
···
···
···
···
···
∗
..
.
0
×
∗
0
0
..
.
..
.
0
···
···

∗
.. 
. 


∗ 


? 

.. 
. 

.. 
. 
?
× désigne le pivot (non nul)
Remarque 7 Le pivot est très efficace (algorithmiquement) pour résoudre un système, même dans le cas
Cramer (comparer avec un déterminant). Il peut aussi servir à calculer le rang d’une matrice.
Remarque 8 On peut utiliser le pivot pour inverser une matrice A (i.e. résoudre n équations AX =
ei ) de la façon suivante. Faire un pivot sur n seconds membres (e1 , . . . , en ) simultanément. Une fois la
trigonalisation acquise, exprimer chaque colonne Ci0 de A−1 en résolvant le système pour le ième second
membre. Ainsi on économise en ne refaisant pas le même pivot n fois.
Exercice 12 Discuter géométriquement les solutions de systèmes avec n = 1, 2, 3 et p = 2, 3 (soit le plan et
l’espace).
Exercice 13 On se donne k points A1 , . . . , Ak dans le plan. Peut-on trouver des points M1 , . . . , Mk tels que pour
tout i, Ai soit le milieu de [Mi , Mi+1 ] (avec la convention Mk+1 = M1 ). Discuter existence et unicité des solutions.
Généralisations possibles : dimension supérieures.
15
Chapitre 4
Réduction
Par réduction on entend trouver une matrice semblable à une matrice donnée (soit P −1 M P ) qui soit
plus simple, idéalement diagonale (mais cela n’est pas forcément possible). En termes d’endomorphisme
cela revient à trouver une base B 0 où celui-ci s’exprime simplement (si M = MatB u, alors MatB0 u =
P −1 M P ).
Attention désormais K dénote R ou C. On utilise indifféremment des endomorphismes ou des matrices.
4.1
Valeurs propres
Définition 7 Si u ∈ L(E), λ ∈ K est une valeur propre s’il existe x ∈ E − {0} tel que u(x) = λx
autrement dit Eλ := Ker(u − λI) 6= {0} (1 ). Le sous-espace vectoriel Eλ est l’espace propre associé à λ ;
il contient les vecteurs propres, ainsi que 0 qui n’est pas un vecteur propre (par convention). L’ensemble
des valeurs propres est appelée le spectre de u, que nous noterons Sp(u). Noter que si λ 6= µ, alors
Eλ ∩ Eµ = {0} (cf théorème des noyaux ci-dessous pour plus de détails).
Remarque 9 Pour un endomorphisme sur un espace vectoriel réel (une matrice à coefficients réels), on
distinguera ses valeurs propres réelles des valeurs propres (strictement) complexes ; celles-ci vont toujours
par paire de valeurs propres conjuguées λ, λ̄ (et elles ont la même multiplicité, voir ci-dessous).
Théorème 4 La fonction λ 7→ det(u − λI) est un polynôme de degré n en λ (où n = dim E) appelée
polynôme caractéristique et noté Pu (λ) (ou aussi χu (λ), δu (λ)) ; ses racines (réelles ou complexes selon
le contexte) sont exactement les valeurs propres de u et leur multiplicité dans Pu est appelée multiplicité
n(λ) de λ. Noter que si A = MatB u et A0 = P −1 AP = MatB0 u (où P est la matrice de passage), alors
Pu = PA = PA 0 .
Le terme de plus haut degré de Pu est (−1)n λn , le suivant est (−1)n−1 (tr u)λn−1 et le dernier est
det u. En particulier quand n = 2, Pu (λ) = λ2 − (tr u)λ + det u.
Exercice 14 En dimension impaire, un endomorphisme réel à toujours au moins une valeur propre.
1 Attention en dimension infinie, on distingue les valeurs propres (u − λI non injective), des valeurs spectrales (u − λI non
bijective).
16
Proposition 5 Sur C, un endomorphisme possède toujours au moins une valeur propre (et en fait n si
on les compte avec multiplicité) (conséquence du théorème de d’Alembert–Gauss).
Proposition 6 Si λ ∈ Sp(u), 1 6 dim Eλ 6 n(λ).
4.2
Polynômes d’endomorphismes
Pd
On appelle polynôme d’endomorphisme (ou de matrice) les expressions P [u] = k=0 ak uk où uk =
u ◦ · · · ◦ u k fois. Les polynômes en u commutent entre eux2 . Rappelons que par convention u0 = I.
Lemme 1 (des noyaux) Si P, Q sont deux polynômes premiers entre eux, Ker P Q[u] = Ker P [u] ⊕
Ker Q[u].
C’est notamment vrai quand P (X) = X − λ et Q(X) = X − µ avec λ 6= µ.
Théorème 5 (Cayley–Hamilton) Pu (u) = 0.
Proposition 7 L’ensemble des polynômes annulant u est un idéal de K[X], qui est un anneau principal.
Il existe donc un unique polynôme µu (à multiplication par une constante près, en général on choisit celui
dont le terme dominant est λp ), appelé polynôme minimal, noté µu ou Mu , qui divise tous les autres
polynômes annulateurs, notamment Pu (en particulier deg µu 6 deg Pu = n). Typiquement dans C,
µu (λ) =
r
Y
(λ − λi )
mi
,
Pu (λ) = (−1)
i=1
n
r
Y
(λ − λi )ni avec 1 6 mi 6 ni ;
i=1
dans R la situation est analogue avec éventuellement des facteurs irréductibles du type (λ2 + aλ + b)m .
Les racines de µu sont donc des valeurs propres et toutes les valeurs propres sont racines de µu .
Remarque 10 Le problème est qu’en général il est difficile de trouver le polynôme minimal alors que le
polynôme caractéristique se calcule automatiquement.
4.3
Diagonalisation et trigonalisation
Rappel : un polynôme est dit scindé si le nombre de racines comptées avec leurs multiplicités est égal
au degré (autrement dit il n’y a pas de facteur irréductible de degré supérieur à 1), et scindé à racines
simples si de plus les multiplicités sont toutes égales à 1 (donc le polynôme P possède deg P racines
distinctes).
Pour garantir qu’un endomorphisme u (resp. une matrice A) soit diagonalisable, autrement dit admette
une base propre (composée de vecteurs propres) (resp. il existe P ∈ GLn (K) telle que P −1 AP soit
diagonale) on a les différents critères suivants :
1. il existe une base formée de vecteurs propres de u
2. la dimension de chaque espace propre Eλi est égale à la multiplicité ni de la valeur propre
2 Il
en va de même pour les séries en fait.
17
3. Il existe un polynôme scindé à racines simples qui annule u (ou A)
4. le polynôme minimal est scindé à racines simples
Si le polynôme caractéristique est scindé à racines simples alors u est diagonalisable mais la réciproque
est fausse.
Exercice 15 donner des contre-exemples illustrant ce fait.
Définition 8 On appelle sous-espace caractéristique de u associé à la valeur propre λ le plus grand
sous-espace vectoriel de Fλ ⊂ E tel que u|Fλ ne possède qu’une valeur propre : λ. En pratique
Ker(u − λi I) = Eλi ⊂ Fλi = Ker(u − λi I)mi = Ker(u − λI)ni .
Proposition 8 Les espaces caractéristiques forment une décomposition en somme directe de E : Fλ1 ⊕
· · · ⊕ Fλr = E. La dimension de Fλi est ni . Chacun est stable par u et par conséquent la matrice de u
dans toute base adaptée à la somme directe (i.e. chaque vecteur de la base est dans l’un des facteurs) est
une matrice diagonale par bloc.
Définition 9 Un endomorphisme est dit trigonalisable si sa matrice dans une base adaptée est triangulaire, autrement dit il existe une base (e1 , . . . , en ) telle que pour tout i, u(ei ) ∈ Vect(e1 , . . . , ei ).
Alors u s’écrit u = d + n où d est un endomorphisme diagonalisable et n est nilpotent, avec dn = nd.
Remarque 11 Si une matrice est triangulaire, les coefficients diagonaux sont exactement ses valeurs
propres répétées selon leur multiplicité.
Remarque 12 Une matrice (ou l’endomorphisme associé) triangulaire supérieure n’ayant que des zéros
sur la diagonale est nilpotente et réciproquement un endomorphisme nilpotent peut être trigonalisé ainsi.
Théorème 6 Un endomorphisme est trigonalisable ssi Pu est scindé (ou µu ). Par conséquent, un endomorphisme est toujours trigonalisable dans C.
Proposition 9 Un endomorphisme trigonalisable peut être trigonalisé (dans une bonne base) sous une
forme dite réduite de Jordan : seule la diagonale et la ligne juste au-dessus sont non nulles a priori, et
cette dernière ne possède que des 1 ou des zéros.
4.4
Exemples d’utilisation de la diagonalisation
Exemple 3 Calcul des itérées Ak .
Si P −1 AP = D où D = diag(λ1 , . . . , λn ) (ici les valeurs propres sont répétées selon leur multiplicité,
donc non nécessairement distinctes). Alors
Ak = (P DP −1 )k = P Dk P −1 = P diag(λk1 , . . . , λkn )P −1 .
C’est encore vrai avec k < 0, si toutefois A est inversible (donc aucune valeur propre nulle).
Remarque 13 La connaissance d’un polynôme annulateur peut aussi aider à calculer l’itérée directement.
Exemple trivial : si A2 − I = 0, alors A2k = I et A2k+1 = A.
18
Remarque 14 On peut se placer dans C, ce qui permet de diagonaliser plus de cas, sans pour autant
changer le résultat.
Exemple 4 Récurrence à coefficients constants un+k+1 = ak un+k +· · ·+a0 un (généralisation des récurrences
géométriques). Cela revient à une équation matricielle à coefficients constants dans Rk+1 ou Ck+1 :

 

 u
un+1
n
1
 

.. 
..

..
 

. 
.

.



Un+1 := 
 . 
 = AUn
=
..


1
 .. 


.
a0 a1 · · · ak
un+k
un+k+1
dont la solution est donnée par Un = An U0 .
Exemple 5 Calcul de séries.
Même principe que pour l’itérée mais avec un passage à la limite. Cas fondamental :
eA = P eD P −1 = P diag(eλ1 , . . . , eλn )P −1 .
Exemple 6 Résolution d’un système d’équations différentielles linéaires à coefficient constants (analogue
continu de la récurrence).
Le système X 0 = AX avec comme condition initiale X(0) = X0 a pour solution
X(t) = etA X0
pourvu que la matrice A soit constante (diagonalisable ou non). Version élémentaire : pour résoudre on
change de base (pour passer dans une base propre) donc de fonctions inconnues ; on résout le nouveau
système, pour revenir dans les anciennes coordonnées.
Remarque 15 Les mêmes idées sont valides dans le cas trigonalisable, en un peu plus compliqué.
Exercice 16 Résoudre dans Mn (R) les équations matricielles suivantes :
a) A2 = I (quel en est l’intérêt matriciel ?) ; interprétation géométrique.
b) A2 = A ; interprétation géométrique.
c) Ap = 0.
d) A2 = −I.
Exercice 17 Montrer que les matrices inversibles forment un ouvert dense dans Mn (R) (indication : passer par
Mn (C)).
Exercice 18 Montrer que les matrices diagonalisables sont denses dans Mn (C) (indication : trigonaliser d’abord).
Est-ce un ouvert ?
19
Chapitre 5
Espaces euclidiens et hermitiens
Nota bene : la théorie au programme correspond à la dimension finie, mais le cas de la dimension infinie
(espaces préhilbertiens) existe et se rencontre notamment en analyse (par exemple L2 , `2 et l’analyse de
Fourier). sauf mention explicite tous les résultats qui suivent s’appliquent en dimension finie.
5.1
Formes bilinéaires et quadratiques
Une forme bilinéaire ϕ est simplement une application de E ×E dans R, linéaire en chaque variable1 .
Cette forme peut être (éventuellement !)
− antisymétrique (ou alternée) si ϕ(u, v) = −ϕ(v, u) pour tous u, v
− symétrique si ϕ(u, v) = ϕ(v, u) pour tous u, v
− ni l’une ni l’autre
− non dégénérée, si le seul vecteur u tel que ∀v, ϕ(u, v) = 0 est le vecteur nul (dégénéré sinon) 2
− définie, si ∀u 6= 0E , ϕ(u, u) 6= 0
− positive, si ∀u, ϕ(u, u) > 0 (respectivement négative)
− un produit scalaire est une forme bilinéaire symétrique positive définie.
En général on ne parle de forme définie ou positive que pour une forme symétrique (voir forme polaire).
En dimension finie, on se donne une base et on définit la matrice de ϕ dans la base B = (e1 , . . . , en )
par
M = MatB ϕ = (mij ) où mij = ϕ(ei , ej )
ce qui implique pratiquement si l’on note U = (u1 , . . . , un ) et V = (v1 , . . . , vn ) les deux vecteurs colonnes
correspondant aux coordonnées de u et v dans la base B :
ϕ(u, v) = t U BV.
1 la même notion existe évidemment pour un corps quelconque, notamment C mais sera peu (pas) utilisée ; le cas de C
sera traité spécifiquement.
2 on définit pour une forme quadratique symétrique (ou antisymétrique) ϕ et une partie S ⊂ E, l’orthogonal de S :
S ⊥ := {x ∈ E; ∀y ∈ S, ϕ(x, y) = 0}. C’est un sev (le vérifier). En général l’orthogonal est quelconque. Si la forme est non
dégénérée et que F est un sev, dim F ⊥ = n − dim F , mais rien n’oblige à avoir F ∩ F ⊥ = {0}, comme c’est le cas pour le
produit scalaire. D’ailleurs ϕ est non dégénérée ssi E ⊥ = {0}.
Cette notion d’orthogonal existe aussi pour les formes non symétriques, mais c’est plus compliqué : il faut distinguer
l’orthogonal à droite de celui à gauche.
20
Attention : la matrice d’une forme bilinéaire n’a rien à voir avec celle d’un endomorphisme (ce sont
d’ailleurs des objets très différents). Si B 0 est une autre base, et P est la matrice de changement de base,
alors
M 0 = MatB0 ϕ = t P M P
noter la différence avec le changement de base pour les endomorphismes.
On peut lire les propriétés de ϕ sur sa matrice :
− ϕ antisymétrique ssi M l’est : t M = −M ,
− ϕ symétrique ssi M l’est : t M = M ,
− ϕ non dégénérée ssi M est inversible,
− ϕ positive ssi les valeurs propres de M sont toutes positives (ou nulles)
− ϕ définie ssi les valeurs propres sont soit toutes strictement positives soit toutes strictement négatives.
Voir le théorème spectral pour ces dernières propriétés.
Une forme quadratique est le carré d’une forme bilinéaire (notamment le carré dans R, la carré
scalaire ~u · ~u) : q(u) = ϕ(u, u). Attention : de multiples formes bilinéaires peuvent donner la même
forme quadratique, par exemple si ϕ est alternée, q est la forme quadratique identiquement nulle. Par
contre à toute forme quadratique on peut associer une unique forme bilinéaire symétrique ϕ telle que
q(u) = ϕ(u, u) ; cette forme est appelée la forme polaire de q. Elle est liée à q par les identités de
polarisation (qui généralisent les identités remarquables) :
q(u + v) = q(u) + q(v) + 2ϕ(u, v)
q(u − v) = q(u) + q(v) − 2ϕ(u, v)
q(u) − q(v) = ϕ(u + v, u − v)
et cela permet d’ailleurs de définir ϕ à partir de q :
ϕ(u, v) =
q(u + v) − q(u) − q(v)
q(u + v) − q(u − v)
=
4
2
L’étude de ensemble de niveaux des formes quadratiques dans R2 est l’étude des coniques.
Réduction de Gauss Comme pour les endomorphismes, on peut chercher une base dans laquelle une
forme bilinéaire symétrique (ou sa forme quadratique associée) s’exprimera simplement. Notamment si la
matrice de ϕ (aussi appelée matrice de q) dans cette nouvelle base est diagonale, et que les coordonnées
de u dans cette nouvelle base sont u1 , . . . , un , alors
q(u) = b11 u2i + · · · + bnn u2n
soit quasiment une somme de carrés. Donc diagonaliser B revient peu ou prou à écrire q comme une
somme de carrés (on dit qu’il n’y a pas de termes croisés, de type ui uj ). On a alors le théorème suivant :
Théorème 7 Toute forme quadratique peut s’écrire comme une somme et différence de carrés dans
une base bien choisie : si les coordonnées d’un vecteur u dans cette nouvelle base sont u1 , . . . , un , alors
q(u) = u21 + · · · + u2r − u2r+1 − · · · − u2r+s où r, s ∈ N et r + s 6 n. En d’autres termes, B = MatB u =
diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). Le couple (r, s) (ou bien (s, r)) est appelé signature de la forme qua| {z } | {z }
r fois
s fois
dratique, et il est indépendant de la base. On constate que q est non dégénérée si r + s = n, positive si
s = 0, négative si r = 0, définie positive si r = n, etc.
21
Remarque 16 En général on ne parle pas de changement de base, mais de réduction sous forme de
somme de carrés, mais c’est en fait équivalent : il s’agit du changement de coordonnées.
Exercice 19 Écrire la base correspondant à la réduction xy = 14 (x + y)2 − 14 (x − y)2 .
Démonstration (esquisse pour l’existence) Celle-ci est suffisamment élémentaire et utile en pratique
pour être citée. Elle s’effectue de proche en proche, sur les coordonnées. Soient ũ1 , . . . , ũn les coordonnées
du départ d’un vecteur u (dans la base de départ B̃). S’il n’y a aucun produit croisé avec u1 on passe à la
suite, sinon on se sert de l’identité remarquable (réelle) x2 + 2xy = (x + y)2 − y 2 en identifiant y :
2




2
n n


X
X
b1j
b


1j
2


b11 ũ1 +
ũj  −
ũ2j
b1j ũ1 ũj = b11 ũ1 +


2b
2b
11
11
j=2
j=2
j=2


{z
}
|
n
X
u1
ce qui définit une nouvelle coordonnée u1 et une expression de q sans produit croisé avec u1 . Noter les
termes en ũ2 , . . . , ũn ont été modifiés. On recommence avec ceux-ci. Attention : il faut envisager le cas où
b11 = 0 (mais au moins un b1j 6= 0) et prendre alors l’identité remarquable xy = 41 (x + y)2 − 14 (x − y)2 .
On obtient donc de nouvelles coordonnées p
(à vérifier !) soit une nouvelle base, dans laquelle la matrice
B est diagonale ; il suffit de remplacer ui par |bii |ui (quand bii 6= 0) pour obtenir des carrés.
5.2
Espaces euclidiens
Rappelons qu’un espace euclidien est un espace vectoriel de dimension finie 3 muni d’un produit scalaire, ie. d’une forme bilinéaire symétrique définie positive. Le produit scalaire de deux vecteurs est souvent
noté ~u ·~v , hu, vi, hu|vi ou (u|v) ; la notation (u, v) est à déconseiller pour des raisons de confusion évidentes.
Exemple 7
Pn
− produit scalaire canonique dans Rn : hu, vi = 1 ui vi = t U V où U, V sont les matrices colonnes
représentant les vecteurs u, v dans la base canonique (U = (u1 , . . . , un )) ; dans la base canonique sa
matrice est Matcan h, i = I (4 )
P
− produit scalaire associé à une matrice B symétrique de signature (n, 0) : hu, viB := ij ui bij vj =
t
U BV = hu, Bvi = hBu, vi en utilisant (abusivement) B comme la matrice d’un endomorphisme
(5 ) ;
Rb
− produit scalaire L2 sur les fonctions de C 0 ([a, b], R) : hf, gi = a f (t)g(t)dt (idem pour la mesure
de Lebesgue pour les classes de fonctions intégrables) ; extension à des fonctions intégrables sur des
Rb
intervalles non compacts ; généralisation à des intégrables à P
noyaux k : hf, gi = a f (t)g(t)k(t)dt
∞
− sur les suites de carré intégrable (espace `2 ) : h(un ), (vn )i = k=0 uk vk ; cas simplifié des polynômes
de degré maximal fixé ;
3 si E est de dimension infinie, on parle d’espace préhilbertien, et hilbertien si E est complet pour la norme induite
par le produit scalaire.
4 on peut même dire que le produit scalaire est défini par le fait que la base canonique est orthonormée.
5 on obtient ainsi tous les produits scalaires possibles sur Rn .
22
2
− sur les matrices réelles Mn (R) ' Rn : hA, Bi = tr(t AB) (remarque : si on identifie Mn (R) à Rn
de façon canonique les deux produits scalaires canoniques correspondent).
2
Définition 10 L’orthogonal d’une partie S ⊂ E est S ⊥ := {u ∈ E, ∀v ∈ S, hu, vi = 0} et c’est un
sous-espace vectoriel. La plupart du temps S est un sous-espace vectoriel, auquel cas l’orthogonal est un
⊥
supplémentaire : E = S ⊕ S ⊥ (aussi noté E = S ⊕ S ⊥ ) par conséquent dim S ⊥ = dim E − dim S.
Exercice 20 Montrer que si A ⊂ B sont deux parties de E, alors A⊥ ⊃ B ⊥ ; si de plus A et B sont deux
sous-espaces vectoriels et que A * B, alors A⊥ + B ⊥ .
Exercice 21 Montrer que si S ⊂ E, alors S ⊂ (S ⊥ )⊥ et que c’est le plus petit sous-espace vectoriel contenant S
(c’est S lui-même si S en est un).
Définition 11 La projection (orthogonale) sur le sous-espace vectoriel F est la projection (classique)
sur F parallèlement à F ⊥ . La symétrie (orthogonale) par rapport à l’hyperplan F = v ⊥ est la symétrie
(classique) par rapport à F et de direction F ⊥ = hvi = Rv.
Proposition 10 Le produit scalaire définit un isomorphisme dit canonique entre E et son dual E ∗ via :
E 3 u 7→ ψu ∈ E ∗ où ψu est la forme linéaire ψu (v) = hu, vi. Cet isomorphisme est à la base de
nombreuse identifications, par exemple le gradient d’une fonction f : E → R est le vecteur ∇f (x) tel que
∀u ∈ E, dfx (u) = h∇f (x), ui.
P
Exemple 8 Si (e1 , . . . , en ) est une base orthonormée de E, la forme linéaire e∗i qui à x = i xi ei associe
sa i-ème coordonnée xi est obtenue par le produit scalaire : xi = hei , xi. Ce n’est plus vrai si la base n’est
pas orthonormée.
Corollaire 1 (définition abstraite du produit vectoriel) Soient u, v ∈ R3 , alors il existe un unique
vecteur z tel que
∀w ∈ R3 , det(u, v, w) = hz, wi
et ce vecteur z est noté habituellement u∧v. En effet l’application w 7→ det(u, v, w) est une forme linéaire.
Proposition 11 (inégalité de Cauchy-Schwarz)
2
hu, vi 6 hu, ui hv, vi
et l’égalité n’a lieu que si u et v sont colinéaires.
p
Corollaire 2 u 7→ kuk := hu, ui définit une norme sur E, en effet
− k.k est à valeur dans R+ et est bien définie (non infinie notamment),
− kuk = 0 ⇐⇒ u = 0
− ∀u ∈ E, ∀λ ∈ R, kλuk = |λ|kuk,
− ∀u, v ∈ E, ku + vk 6 kuk + kvk avec égalité ssi u, v sont colinéaires (le plus court chemin est la
ligne droite) [découle de l’inégalité de Cauchy-Schwarz].
23
Endomorphismes et isométries.
Définition 12 Dans E euclidien, on associe à tout endomorphisme f un autre endomorphisme appelé
adjoint de f et noté f ∗ tel que ∀u, v, hf (u), vi = hu, f ∗ (v)i. Par exemple dans Rn muni du produit scalaire
canonique, si Matcan f = A, alors A∗ = Matcan f ∗ = t A. L’endomorphisme est dit autoadjoint si
f ∗ = f . Noter que l’application L(E) → L(E), f 7→ f ∗ est un automorphisme involutif de L(E). Pour
tout endomorphisme f sur E, l’application (u, v) 7→ hf (u), vi est une forme bilinéaire, de plus elle est
symétrique ssi f est autoajoint.
Avertissement 2 Dans Rn la transposition joue deux rôles : pour une matrice de forme bilinéaire t A = A
indique la symétrie (sans intervention du produit scalaire canonique) ; pour la matrice d’un endomorphisme
t
A = A indique que ce dernier est autoadjoint, par rapport qui produit scalaire canonique (voir exercice
22).
Exercice 22 Donner l’expression de la matrice de l’adjointe pour un produit scalaire h, iB [réponse : M ∗ =
B −1t M B].
Définition 13 Un endomorphisme est dit orthogonal (ou isométrique) si l’une des assertions équivalentes
est satisfaite :
i. f ∗ = f −1
ii. f préserve le produit scalaire : hf (u), f (v)i = hu, vi
iii. f préserve la norme : kf (u)k = kuk
iv. f envoie une base orthonormée sur une base orthonormée
v. f envoie les bases orthonormées sur les bases orthonormées.
Les isométries forment un sous-groupe de GL(E), noté O(E) ou O(n) dans le cas de Rn .
Exemple 9 Dans (Rn , can) une matrice M est la matrice d’une isométrie (vectorielle6 ) ssi t M = M −1 .
Proposition 12 Le déterminant d’une isométrie est toujours ±1. Les isométries de déterminant +1
(resp. −1) sont appelées isométries directes (resp. indirectes), elles préservent les base orthonormées
orientées (resp. inversent les orientations) et forment un groupe noté O+ (n) ou SO(n) dans Rn (resp. un
sous-ensemble noté O− (n) mais pas un groupe !). Il est à noter que O(n), O+ (n), O− (n) sont compacts ;
O(n) n’est pas connexe mais O+ (n) l’est (7 ). Enfin O− (n) engendre O(n), autrement dit toute isométrie
peut s’écrire comme produit d’isométries indirectes.
Exemple 10 Isométries de (R2 , can) : O+ (2) est composé des rotations et ses éléments ont des matrices
de la forme
cos θ − sin θ
où θ est l’angle de la rotation;
sin θ
cos θ
la symétrie centrale est directe (c’est la rotation d’angle π). Les isométries indirectes sont les symétries
axiales, dont les matrices sont
cos θ
sin θ
où θ/2 est l’angle de l’axe avec (Ox).
sin θ − cos θ
6 pour
7 la
ne pas confondre avec les isométries affines
première propriété est facile, la deuxième plus délicate.
24
Exemple 11 Isométries de (R3 , can) : O+ (3) se compose des rotations axiales d’angles θ (8 ). O− (3)
contient d’une part la symétrie centrale (ici indirecte !), et d’autre part les symétries planes.
Exercice 23 Donner l’équation que doit satisfaire la matrice M pour être une isométrie pour le produit scalaire
h, iB [réponse : t M BM = B].
Remarque 17 Dans une base orthonormée, la matrice B du produit scalaire est l’identité9 . Alors, un
calcul rapide montre que M ∗ = t M donc M est orthogonale ssi t M M = I (10 ) ; cela équivaut exactement
à dire que les vecteurs colonnes forment une BON. En particulier det M = ±1. Noter qu’un changement
de base orthonormée se fait par une matrice P ∈ O(n) donc P −1 AP = t P AP .
Théorème spectral. Ce théorème11 très important est à la fois un résultat de réduction pour les formes
bilinéaires symétriques (comme la réduction de Gauss) et un théorème de diagonalisation dans le cas
d’une matrice symétrique (comme corollaire abusif du précédent, en assimilant une forme bilinéaire à une
matrice). À la différence de la réduction de Gauss, il suppose que E est muni en même temps d’une forme
bilinéaire et d’un produit scalaire (la première pouvant éventuellement être aussi un produit scalaire). Il
arrive que le produit scalaire ne soit pas mentionné quand il s’agit du produit scalaire canonique.
Théorème 8 Soit (E, h, i) un espace euclidien et ϕ une forme bilinéaire symétrique. Alors il existe une
base orthonormée B = (e1 , . . . , en )P
(pour h, i évidemment)
dans laquelle ϕ est diagonale. Autrement dit
P
MatB = diag(λ1 , . . . , λn ) et si x = i xi ei , ϕ(x, x) = λi x2i . la signature s’en déduit immédiatement.
i on part d’une base orthonormée B̃ = (ẽ1 , . . . , ẽn ) dans laquelle la matrice de ϕ est B, alors B est
symétrique et le théorème spectral implique : ∃P ∈ O(n), P −1 BP = t P BP = diag(λ1 , . . . , λn ). D’où le
Corollaire 3 Si B est une matrice symétrique, il existe une matrice orthogonale P telle que ∃P ∈
O(n), P −1 BP = t P BP soit diagonale.
Enfin il existe une version abstraite :
Corollaire 4 Tout endomorphisme f autoadjoint est diagonalisable dans une base orthonormée.
Remarque 18 À la différence de la réduction de Gauss, la réduction s’effectue dans une base orthonormée
ce qui est plus fort (mais exige un produit scalaire).
Corollaire 5 Les valeurs propres d’un endomorphisme autoadjoint (ou d’une matrice symétrique) sont
toutes réelles.
Proposition 13 (algorithme de calcul des valeurs propres) Si les valeurs propres distinctes de A
matrice symétrique sont λ1 < · · · < λm avec λm > 0 alors λm = supx6=0 hAx, xi/kxk2 et la suite de vecteurs
donnée par xn+1 = Axn /kAxn k converge génériquement12 vers un vecteur propre associé e1 . Pour obtenir
8 le
cas θ = π est particulier : une telle isométrie est appelée retournement ; les retournements engendrent O+ (n).
mais rien n’empêche de considérer le produit scalaire dans une base non orthonormée, auquel cas B n’est pas l’identité,
mais reste symétrique et définie positive.
10 Mais si le produit scalaire est donné par B, l’adjointe de M est B −1t M B et la condition d’orthogonalité t M BM = B.
11 peu cité sous ce nom dans les programmes et manuels, hélas.
12 génériquement, i.e. en prenant x ∈
⊥
0 / Eλm , qui est un sous-espace vectoriel donc de mesure nulle.
9 (†)
25
les autres valeurs propres et vecteurs propres (éventuellement associés à la même valeur propre), on se
restreint à e⊥
1 , et ainsi de suite, tant que la valeur propre est positive strictement. (Idem en prenant un
endomorphisme autoadjoint plutôt qu’une matrice symétrique.)
Théorème 9 (procédé d’orthonormalisation de Gram-Schmidt) Soit (e1 , . . . , en ) une base de E.
Alors il existe une base orthonormée (u1 , . . . , un ) telle que
∀k ∈ [1, n], Vect(e1 , . . . , ek ) = Vect(u1 , . . . , uk ).
Corollaire 6 Toute matrice M ∈ GL(n, R) est le produit RT de R ∈ O(n) et T triangulaire supérieure.
Cette décomposition est unique si l’on exige que la diagonale de T ne comporte que des termes positifs.
Exercice 24 Déterminer toutes les décompositions RT possibles (et leur nombre) si l’on n’impose aucune condition sur la diagonale de T .
5.3
Espaces hermitiens
Quasiment la même structure que le cas euclidien, mais avec un C-espace vectoriel, sauf les objets
intéressants sont les formes hermitiennes : idem forme symétrique, mais (i) C-linéaire en la première
variable et (ii) (y|x) = (x|y) (donc antilinéaire en la seconde variable13 ). Noter que (x|x) ∈ R. C’est un
produit scalaire hermitien si on a de plus défini et positif. Toutes les propriétés ci-dessus sont encore
vraies avec les modifications suivantes :
− isomorphisme avec le dual, à condition de prendre u 7→ [χu : x 7→ (x|u)] (pour préserver la Clinéarité) ; mais alors ψu : E 7→ E ∗ n’est plus C-linéaire mais seulement R-linéaire (d’où des complications...) ; idem pour f 7→ f ∗ .
− Dans une base
P orthonormée (pour le produit scalaire hermitien) (e1 , . . . , en ) les coordonnées d’un
vecteur u = k uk ek s’obtiennent en faisant le produit scalaire à droite avec les ek : uk = (u|ek ) 6=
(ek |u).
− La matrice d’une forme hermitienne est égale à sa transconjuguée (voir ci-dessous).
− L’adjointe est notée f ∗ ; un endomorphisme autoadjoint est dite hermitien. Dans une base orthonormée, M ∗ = t (M̄ ) (transconjuguée).
− Le groupe unitaire U (E) est le sous-groupe de GL(n, C) préservant le produit scalaire hermitien.
Groupe SU (E) = U (E) ∩ SL(E). Dans Cn , U (n) = {M, M ∗ = M −1 }. Pas de décomposition en
deux composantes, ici le déterminant est de module 1.
− Nota bene : la partie réelle d’un produit scalaire hermitien est un produit scalaire usuel.
On a encore l’inégalité de Cauchy-Schwarz (en prenant le module), la propriété de norme, et le théorème
spectral (identique, si ce n’est que dans la version matricielle, les matrices sont unitaires au lieu d’orthogonales). Noter que les valeurs propres sont encore réelles.
Théorème 10 (procédé d’orthonormalisation de Gram-Schmidt) Soit (e1 , . . . , en ) une base de E.
Alors il existe une base orthonormée (u1 , . . . , un ) telle que
∀k ∈ [1, n], Vect(e1 , . . . , ek ) = Vect(u1 , . . . , uk ).
13 la
convention opposée est aussi rencontrée.
26
Corollaire 7 Toute matrice M ∈ GL(n, C) est le produit RT de R ∈ U (n) et T triangulaire supérieure.
Cette décomposition est unique si l’on exige que la diagonale de T ne comporte que des termes réels et
positifs.
Exercice 25 Montrer que les matrices unitaires de C2 sont de la forme
«
„
α −β̄
, θ ∈ R, (α, β) ∈ C2 − {(0, 0)}.
eiθ
β
ᾱ
27
Téléchargement