SUMM 27 janvier 2013 - LaCIM

publicité
ALGÈBRE NON COMMUTATIVE
C. REUTENAUER
1. La non commutativté
Dire qu’un produit ab est commutatif, c’est dire que ab = ba; de manière
équivalente, on dit que a et b commutent . Donc la non commutativité, c’est
quand on a ab 6= ba. Un anneau est dit non commutatif s’il existe au moins
deux éléments de cet anneau qui ne commutent pas.
2. Le théorème de Wedderburn
C’est l’un des fleurons des mathématiques. Il date de 1905; Wedderburn est un mathématicien anglais. Les mathématiciens en ont cherché, et
trouvé, des nouvelles preuves au cours du 20ème siècle. Aucune d’elles n’est
facile. La plus élémentaire1 est celle de Witt, qui date de 1930. Elle est très
astucieuse et utilise des concepts de théorie des groupes et les polynômes
cyclotomiques (les polynômes des racines de l’unité).
Voici donc ce théorème: tout corps fini est commutatif. De manière
équivalente, on a la contraposée: tout corps non commutatif est infini.
3. Le corps des quaternions
C’est un corps non commutatif, découvert par la mathématicien anglais
Hamilton en 1843. Un quaternion est une combinaison R-linéaire a + bi +
cj + dk (où a signifie a1, et 1 est l’élément neutre du corps des quaternions),
avec addition évidente, et multiplication R-linéaire définie par: i2 = j 2 =
k 2 = −1, ij = −ji = k, jk = −kj = i, ki = −ik = j.
Exercice: montrer que c’est équivalent à i2 = j 2 = k 2 = ijk = −1.
Le corps des quaternions contient le corps R, qui est son centre2. Il
contient aussi le corps des complexes, de plusieur manières, par exemple
{a + bi | a, b ∈ R}.
4. L’anneau des matrices
Plus simplement, un exemple d’anneau non commutatif est l’anneau des
matrices carrées sur R (ou sur n’importe quel anneau commutatif), de taille
n par n, avec n ≥ 2. On a en effet
1 0
0 1
0 1
0 0
0 1
1 0
=
6=
=
.
0 0
0 0
0 0
0 0
0 0
0 0
Date: January 26, 2013.
1Une démonstration est dite élémentaire si elle utilise des notions qui nécessitent peu
de préparation.
2Le centre d’un corps est l’ensemble des éléments qui commutent à tous les éléments
du corps; c’est un sous-corps. Le centre d’un anneau est défini de manière analogue, et
c’est un sous-anneau.
1
2
C. REUTENAUER
Exercice:
montrer
que le corps des quaternions se représente par les mau v
trices
à coefficients u, v complexes.
−v̄ ū
5. Algèbre associative
Soit F un corps commutatif. Une algèbre associative sur F est un anneau
qui contient (un sous-anneau isomorphe à) F dans son centre. Un exemple
typique de F-algèbre est l’anneau des matrices carrées sur F. Il contient F par
l’intermédiaire des matrices scalaires (c’est-à-dire des matrices diagonales
dont tous les éléments diagonaux sont égaux), qui forment un sous-anneau
isomorphe à F.
Exercice: montrer que son centre est exactement l’ensemble des matrices
scalaires.
6. Le rang d’une matrice à coefficients dans un corps
Pour calculer le rang d’une matrice à coefficients dans un corps commutatif, on peut calculer les déterminants des sous-matrices carrées et déterminer
une telle sous-matrice de déterminant non nul et de taille maximum; cette
taille est le rang de notre matrice. On sait bien, de l’algèbre linéaire, que
le rang est aussi égal au rang des vecteurs lignes 3, ou alors des vecteurs
colonnes.
Cette dernière définition du rang d’une matrice marche aussi pour les
matrices à coefficients dans un corps non commutatif. Mais il faut faire attention: l’égalité du rang des vecteurs colonnes et celui des vecteurs lignes
est vraie à la condition qu’on considère les lignes comme un espace vectoriel à gauche sur le corps et les colonnes comme un espace vectoriel à
droite4. Notons qu’il n’y a pas, pour un corps non commutatif, une notion
de déterminant qui permette le calcul du rang, comme cela se fait dans le
cas commutatif.
7. Un théorème de Burnside sur les matrices
Il date aussi de 1905. On suppose que le corps F est algébriquement clos et
on considère une une sous-algèbre A de l’algèbre de toutes les matrices n par
n sur F. Un sous-espace V de l’espace des vecteurs colonnes de taille n est
dit stable sous A si les matrices de A envoient V dans V . Le mathématicien
anglais Burnside a démontré que si A n’a pas de sous-espace stable non
trivial, alors A est l’algèbre de toutes les matrices.
Ce résultat est une des bases de la théorie des représentations linéaires
des groupes.
8. Un théorème d’Amitsur et Levitzki sur les matrices
Il date de 1950. Il montre que les anneaux de matrices, bien que non
commutatifs, satisfont à une forme de commutativité généralisée. Le résultat
3c’est-à-dire, la dimension de l’espace engendré par les lignes de la matrice.
4Pour la mnémotechnique, le mieux est de voir un élément du corps comme une matrice
1 par 1; on voit bien qu’alors on ne peut multiplier un scalaire à une ligne que par la gauche.
ALGÈBRE NON COMMUTATIVE
3
est le suivant: soient M1 , . . . , M2n des matrices n par n sur un anneau
commutatif. Alors on a l’identité:
X
(−1)sgn(σ) Mσ(1) · · · Mσ(2n) = 0.
σ∈Sn
Autrement dit, on fait la somme alternée de tous les produits de ces 2n
matrices, et ça fait 0. Si n = 1, cele signifie simplement que l’anneau de
base est commutatif: M1 M2 − M2 M1 − 0. Si n = 2, on a une somme de
24 termes, qui doit être égale à 0; cela indique déjà que le résultat est non
trivial.
Il existe aussi plusieurs démonstrations de ce théorème, mais aucune n’est
simple.
Ce théorème est à la base de la théorie des algèbres à identités polynomiales.
9. Les polynômes non commutatifs
Un anneau ”très non commutatif” est l’algèbre des polynômes non commutatifs. On considre des variables non commutatives x, y, . . . et on forme
tous les produits possibles des ces variables: ce sont les monômes non commutatifs. Un polynôme non commutatif est une combinaison linéaire de ces
produits, à coefficients dans un corps commutatif fixé F. La somme et le
produit sont définis de manière évidente; pour le produit, on définit d’abord
le produit de deux monômes non commutatifs, et ce produit est étendu aux
polynômes non commutatifs.
10. Les mots
Il est commode d’appeler mots les monômes non commutatifs ci-dessus;
ainsi x, xx = x2 , xy, yx, xyx sont des mots. Un exemple de polynôme non
commutatif est −1 + x + xy − 2yx.
L’identitéPbinomiale
classique pour des variables commutatives a et b est
n i n−i
. Avec des variables non commutatives, il n’y a
(a + b)n = i=n
i=0 i a b
plus vraiment d’identité; mais (x + y)n est égal à la somme de tous les mots
de longueur n. Par exemple (x + y)2 = xx + xy + yx + yy et on ne peut rien
dire de plus, puisque ces 4 mots sont distincts.
11. Le rang d’une matrice sur un anneau non commutatif
Pour les matrices à coefficients dans un corps, il y a, nous l’avons vu, une
notion satisfaisante de rang. Pour un anneau, commutatif ou non, on peut
définir le rang intérieur r d’une matrice M , de taille n × p, par: r est le plus
petit entier tel que M = P Q, où P est une matrice de taille n × r et Q une
matrice de taille r × p, toute deux à coefficients dans l’anneau considéré.
Exercice: montrer que si l’anneau est un corps, on obtient la notion usuelle
de rang.
12. Le corps libre
Il existe un corps non commutatif qui contient comme sous-algèbre l’algèbre
des polynômes non commutatifs, qui est engendré par elle, et qui est ”le plus
gros possible”. On l’appelle corps libre. On peut le comparer, dans le cas
4
C. REUTENAUER
commutatif, au corps des fractions rationnelles. Cependant, dans le cas non
commutatif, on ne peut plus parler de fractions. Il faut mettre dans ce corps
des éléments comme (x + (xy − yx)−1 ) − yy)−1 , qu’on ne peut en général
pas écrire comme des fractions. L’intérêt de ce corps libre est que le rang
intérieur d’une matrice dont les coefficients sont des polynômes non commutatifs est égal au rang de cette matrice sur le corps libre. D’ailleurs, Paul
Cohn, qui a étudié en premier le corps libre, montre que le corps libre est
caractérisé par cette propriété.
13. Les matrices linéaires
Une matrice linéaire est une matrice polynomiale dont les coefficients
sont des polynômes de degré 1 en les variables. Une telle matrice peuttre vue comme une matrice sur l’algèbre des polynômes commutatifs, ou
alors sur celle de polynômes non commutatifs. Elle a donc deux rangs: un
rang commutatif rc et un rang non commutatif rnc (au sens des deux sections
précédentes). Il est à peu près clair (en tout cas intuitivement), que rc ≤ rnc .
J’ai pu démontrer il y a quelques annés que rnc ≤ 2rc . J’ignore si on peut
faire mieux.


0
x y
Exercice: montrer que le rang commutatif de la matrice linéaire  −x 0 1 
−y −1 0
est 2, mais que son rang non commutatif est 3, c’est-à-dire qu’elle est inversible dans le corps libre (utiliser que xy − yx est inversible dans le corps
libre).
14. Les mots de Lyndon
Ils sont nommés d’après le mathématicien américain Lyndon, qui les a
introduits dans les années 50. On prend un alphabet (c’est-à-dire un ensemble
de variables non commutatives) totalement ordonné, et on considère l’ordre
alphabétique des mots (c’est-à-dire l’ordre du dictionnaire). Un mot de
Lyndon est un mot w = a1 · · · an (les ai sont des lettres) tel que, quel que
soit i = 2, . . . , n − 1, on a w < ai . . . an a1 . . . ai−1 . Par exemple, avec a < b,
aabab est un mot de Lyndon, car il est plus petit que ses 4 permutés cycliques
ababa, babaa, abaab, baaba.
Pour un alphabet à deux lettres a < b, les mots de Lyndon de longueur
1,2,3 sont a, b, ab, aab, abb.
15. Factorisation en mots de Lyndon
C’est un théorème dû à Lyndon: tout mot se factorise de manière unique
en un produit, décroissant au sens large, de mots de Lyndon. Par exemple,
le mot bbaababaaba se factorise en b.b.aabab.aab.a: les facteurs sont tous des
mots de Lyndon et on a b = b > aabab > aab > a.
On peut comparer ce résultat au théorème fondamental de l’arithmétique:
tout entier naturel non nul s’écrit de manière unique comme un produit de
nombres premiers.
ALGÈBRE NON COMMUTATIVE
5
16. Bases de l’algèbre de Lie sur les mots
Le produit (ou crochet) de Lie (du nom du mathématicien norvégien Sophus Lie) de deux éléments d’un anneau est l’opération qui aux éléments a
et b associe l’élément [a, b] = ab − ba. Cette opération satisfait aux axiomes
des algèbres de Lie:
[a, b] = −[b, a].
[[a, b], c] + [[b, c], a] + [[c, a], b] = 0.
La première identité s’appelle l’antisymétrie, et la seconde l’identité de Jacobi (du nom du mathématicien allemand du 19ème siècle).
Considérons maintenant l’algèbre des polynômes non commutatifs et sa
sous-algèbre de Lie engendrée par les variables non commutatives. Par
exemple, nous aurons les éléments x, y, xy − yx, [xy − yx, y] = xyy −
2yxy + yyx etc..., appelés polynômes de Lie. Cette sous-algèbre de Lie,
nous l’appellerons l’algèbre de Lie libre5.
C’est un théorème dû aussi à Lyndon que l’algèbre de Lie libre admet
une base construite à partir des mots de Lyndon comme suit: tout mot
de Lyndon s’écrit de manière unique comme un produit de deux mots de
Lyndon, où le deuxième facteur est choisi le plus long possible, tout en
restant mot de Lyndon. On a donc w = uv. Les polynômes de Lie Pu Pv
étant déjà construits, on définit Pw = [Pu , Pv ]. Pour démarrer la récurrence,
on définit Px = x, si x est une variable. Alors, les polynômes de Lie Pw , w
mots de Lyndon, forment une base de l’algèbre de Lie libre.
17. Les polynômes irréductibles sur un corps fini
Soit F un corps fini. On sait que l’anneau (commutatif!) F[x] est factoriel:
tout polynôme dans F[x] est de manière unique un produit de polynômes
irréductibles. Si l’on compare ce résultat à celui de la section 15, on peut
voir qu’il y a autant de polynômes irréductibles (normalisés de manière à ce
que le coefficient dominant vaille 1) dans F[x] que de mots de Lyndon sur
l’alphabet F. Par exemple, si F est le corps à deux élements, il y a un seul
polynôme irréductible de degré 2, à savoir x2 + x + 1, et il y a 2 polynômes
irréductibles de degré 3, à savoir x = x3 + x2 + 1 et x3 + x + 1; comparer
aux exemples à la fin de la section 14.
On ne connaı̂t pas de bijection simple entre les polynômes irréductibles
sur un corps fini et les mots de Lyndon sur ce corps.
Christophe Reutenauer: Département de mathématiques, Université du Québec
à Montréal
E-mail address: [email protected]
5pour une raison que je ne développe pas ici.
Téléchargement