ALGÈBRE NON COMMUTATIVE C. REUTENAUER 1. La non commutativté Dire qu’un produit ab est commutatif, c’est dire que ab = ba; de manière équivalente, on dit que a et b commutent . Donc la non commutativité, c’est quand on a ab 6= ba. Un anneau est dit non commutatif s’il existe au moins deux éléments de cet anneau qui ne commutent pas. 2. Le théorème de Wedderburn C’est l’un des fleurons des mathématiques. Il date de 1905; Wedderburn est un mathématicien anglais. Les mathématiciens en ont cherché, et trouvé, des nouvelles preuves au cours du 20ème siècle. Aucune d’elles n’est facile. La plus élémentaire1 est celle de Witt, qui date de 1930. Elle est très astucieuse et utilise des concepts de théorie des groupes et les polynômes cyclotomiques (les polynômes des racines de l’unité). Voici donc ce théorème: tout corps fini est commutatif. De manière équivalente, on a la contraposée: tout corps non commutatif est infini. 3. Le corps des quaternions C’est un corps non commutatif, découvert par la mathématicien anglais Hamilton en 1843. Un quaternion est une combinaison R-linéaire a + bi + cj + dk (où a signifie a1, et 1 est l’élément neutre du corps des quaternions), avec addition évidente, et multiplication R-linéaire définie par: i2 = j 2 = k 2 = −1, ij = −ji = k, jk = −kj = i, ki = −ik = j. Exercice: montrer que c’est équivalent à i2 = j 2 = k 2 = ijk = −1. Le corps des quaternions contient le corps R, qui est son centre2. Il contient aussi le corps des complexes, de plusieur manières, par exemple {a + bi | a, b ∈ R}. 4. L’anneau des matrices Plus simplement, un exemple d’anneau non commutatif est l’anneau des matrices carrées sur R (ou sur n’importe quel anneau commutatif), de taille n par n, avec n ≥ 2. On a en effet 1 0 0 1 0 1 0 0 0 1 1 0 = 6= = . 0 0 0 0 0 0 0 0 0 0 0 0 Date: January 26, 2013. 1Une démonstration est dite élémentaire si elle utilise des notions qui nécessitent peu de préparation. 2Le centre d’un corps est l’ensemble des éléments qui commutent à tous les éléments du corps; c’est un sous-corps. Le centre d’un anneau est défini de manière analogue, et c’est un sous-anneau. 1 2 C. REUTENAUER Exercice: montrer que le corps des quaternions se représente par les mau v trices à coefficients u, v complexes. −v̄ ū 5. Algèbre associative Soit F un corps commutatif. Une algèbre associative sur F est un anneau qui contient (un sous-anneau isomorphe à) F dans son centre. Un exemple typique de F-algèbre est l’anneau des matrices carrées sur F. Il contient F par l’intermédiaire des matrices scalaires (c’est-à-dire des matrices diagonales dont tous les éléments diagonaux sont égaux), qui forment un sous-anneau isomorphe à F. Exercice: montrer que son centre est exactement l’ensemble des matrices scalaires. 6. Le rang d’une matrice à coefficients dans un corps Pour calculer le rang d’une matrice à coefficients dans un corps commutatif, on peut calculer les déterminants des sous-matrices carrées et déterminer une telle sous-matrice de déterminant non nul et de taille maximum; cette taille est le rang de notre matrice. On sait bien, de l’algèbre linéaire, que le rang est aussi égal au rang des vecteurs lignes 3, ou alors des vecteurs colonnes. Cette dernière définition du rang d’une matrice marche aussi pour les matrices à coefficients dans un corps non commutatif. Mais il faut faire attention: l’égalité du rang des vecteurs colonnes et celui des vecteurs lignes est vraie à la condition qu’on considère les lignes comme un espace vectoriel à gauche sur le corps et les colonnes comme un espace vectoriel à droite4. Notons qu’il n’y a pas, pour un corps non commutatif, une notion de déterminant qui permette le calcul du rang, comme cela se fait dans le cas commutatif. 7. Un théorème de Burnside sur les matrices Il date aussi de 1905. On suppose que le corps F est algébriquement clos et on considère une une sous-algèbre A de l’algèbre de toutes les matrices n par n sur F. Un sous-espace V de l’espace des vecteurs colonnes de taille n est dit stable sous A si les matrices de A envoient V dans V . Le mathématicien anglais Burnside a démontré que si A n’a pas de sous-espace stable non trivial, alors A est l’algèbre de toutes les matrices. Ce résultat est une des bases de la théorie des représentations linéaires des groupes. 8. Un théorème d’Amitsur et Levitzki sur les matrices Il date de 1950. Il montre que les anneaux de matrices, bien que non commutatifs, satisfont à une forme de commutativité généralisée. Le résultat 3c’est-à-dire, la dimension de l’espace engendré par les lignes de la matrice. 4Pour la mnémotechnique, le mieux est de voir un élément du corps comme une matrice 1 par 1; on voit bien qu’alors on ne peut multiplier un scalaire à une ligne que par la gauche. ALGÈBRE NON COMMUTATIVE 3 est le suivant: soient M1 , . . . , M2n des matrices n par n sur un anneau commutatif. Alors on a l’identité: X (−1)sgn(σ) Mσ(1) · · · Mσ(2n) = 0. σ∈Sn Autrement dit, on fait la somme alternée de tous les produits de ces 2n matrices, et ça fait 0. Si n = 1, cele signifie simplement que l’anneau de base est commutatif: M1 M2 − M2 M1 − 0. Si n = 2, on a une somme de 24 termes, qui doit être égale à 0; cela indique déjà que le résultat est non trivial. Il existe aussi plusieurs démonstrations de ce théorème, mais aucune n’est simple. Ce théorème est à la base de la théorie des algèbres à identités polynomiales. 9. Les polynômes non commutatifs Un anneau ”très non commutatif” est l’algèbre des polynômes non commutatifs. On considre des variables non commutatives x, y, . . . et on forme tous les produits possibles des ces variables: ce sont les monômes non commutatifs. Un polynôme non commutatif est une combinaison linéaire de ces produits, à coefficients dans un corps commutatif fixé F. La somme et le produit sont définis de manière évidente; pour le produit, on définit d’abord le produit de deux monômes non commutatifs, et ce produit est étendu aux polynômes non commutatifs. 10. Les mots Il est commode d’appeler mots les monômes non commutatifs ci-dessus; ainsi x, xx = x2 , xy, yx, xyx sont des mots. Un exemple de polynôme non commutatif est −1 + x + xy − 2yx. L’identitéPbinomiale classique pour des variables commutatives a et b est n i n−i . Avec des variables non commutatives, il n’y a (a + b)n = i=n i=0 i a b plus vraiment d’identité; mais (x + y)n est égal à la somme de tous les mots de longueur n. Par exemple (x + y)2 = xx + xy + yx + yy et on ne peut rien dire de plus, puisque ces 4 mots sont distincts. 11. Le rang d’une matrice sur un anneau non commutatif Pour les matrices à coefficients dans un corps, il y a, nous l’avons vu, une notion satisfaisante de rang. Pour un anneau, commutatif ou non, on peut définir le rang intérieur r d’une matrice M , de taille n × p, par: r est le plus petit entier tel que M = P Q, où P est une matrice de taille n × r et Q une matrice de taille r × p, toute deux à coefficients dans l’anneau considéré. Exercice: montrer que si l’anneau est un corps, on obtient la notion usuelle de rang. 12. Le corps libre Il existe un corps non commutatif qui contient comme sous-algèbre l’algèbre des polynômes non commutatifs, qui est engendré par elle, et qui est ”le plus gros possible”. On l’appelle corps libre. On peut le comparer, dans le cas 4 C. REUTENAUER commutatif, au corps des fractions rationnelles. Cependant, dans le cas non commutatif, on ne peut plus parler de fractions. Il faut mettre dans ce corps des éléments comme (x + (xy − yx)−1 ) − yy)−1 , qu’on ne peut en général pas écrire comme des fractions. L’intérêt de ce corps libre est que le rang intérieur d’une matrice dont les coefficients sont des polynômes non commutatifs est égal au rang de cette matrice sur le corps libre. D’ailleurs, Paul Cohn, qui a étudié en premier le corps libre, montre que le corps libre est caractérisé par cette propriété. 13. Les matrices linéaires Une matrice linéaire est une matrice polynomiale dont les coefficients sont des polynômes de degré 1 en les variables. Une telle matrice peuttre vue comme une matrice sur l’algèbre des polynômes commutatifs, ou alors sur celle de polynômes non commutatifs. Elle a donc deux rangs: un rang commutatif rc et un rang non commutatif rnc (au sens des deux sections précédentes). Il est à peu près clair (en tout cas intuitivement), que rc ≤ rnc . J’ai pu démontrer il y a quelques annés que rnc ≤ 2rc . J’ignore si on peut faire mieux. 0 x y Exercice: montrer que le rang commutatif de la matrice linéaire −x 0 1 −y −1 0 est 2, mais que son rang non commutatif est 3, c’est-à-dire qu’elle est inversible dans le corps libre (utiliser que xy − yx est inversible dans le corps libre). 14. Les mots de Lyndon Ils sont nommés d’après le mathématicien américain Lyndon, qui les a introduits dans les années 50. On prend un alphabet (c’est-à-dire un ensemble de variables non commutatives) totalement ordonné, et on considère l’ordre alphabétique des mots (c’est-à-dire l’ordre du dictionnaire). Un mot de Lyndon est un mot w = a1 · · · an (les ai sont des lettres) tel que, quel que soit i = 2, . . . , n − 1, on a w < ai . . . an a1 . . . ai−1 . Par exemple, avec a < b, aabab est un mot de Lyndon, car il est plus petit que ses 4 permutés cycliques ababa, babaa, abaab, baaba. Pour un alphabet à deux lettres a < b, les mots de Lyndon de longueur 1,2,3 sont a, b, ab, aab, abb. 15. Factorisation en mots de Lyndon C’est un théorème dû à Lyndon: tout mot se factorise de manière unique en un produit, décroissant au sens large, de mots de Lyndon. Par exemple, le mot bbaababaaba se factorise en b.b.aabab.aab.a: les facteurs sont tous des mots de Lyndon et on a b = b > aabab > aab > a. On peut comparer ce résultat au théorème fondamental de l’arithmétique: tout entier naturel non nul s’écrit de manière unique comme un produit de nombres premiers. ALGÈBRE NON COMMUTATIVE 5 16. Bases de l’algèbre de Lie sur les mots Le produit (ou crochet) de Lie (du nom du mathématicien norvégien Sophus Lie) de deux éléments d’un anneau est l’opération qui aux éléments a et b associe l’élément [a, b] = ab − ba. Cette opération satisfait aux axiomes des algèbres de Lie: [a, b] = −[b, a]. [[a, b], c] + [[b, c], a] + [[c, a], b] = 0. La première identité s’appelle l’antisymétrie, et la seconde l’identité de Jacobi (du nom du mathématicien allemand du 19ème siècle). Considérons maintenant l’algèbre des polynômes non commutatifs et sa sous-algèbre de Lie engendrée par les variables non commutatives. Par exemple, nous aurons les éléments x, y, xy − yx, [xy − yx, y] = xyy − 2yxy + yyx etc..., appelés polynômes de Lie. Cette sous-algèbre de Lie, nous l’appellerons l’algèbre de Lie libre5. C’est un théorème dû aussi à Lyndon que l’algèbre de Lie libre admet une base construite à partir des mots de Lyndon comme suit: tout mot de Lyndon s’écrit de manière unique comme un produit de deux mots de Lyndon, où le deuxième facteur est choisi le plus long possible, tout en restant mot de Lyndon. On a donc w = uv. Les polynômes de Lie Pu Pv étant déjà construits, on définit Pw = [Pu , Pv ]. Pour démarrer la récurrence, on définit Px = x, si x est une variable. Alors, les polynômes de Lie Pw , w mots de Lyndon, forment une base de l’algèbre de Lie libre. 17. Les polynômes irréductibles sur un corps fini Soit F un corps fini. On sait que l’anneau (commutatif!) F[x] est factoriel: tout polynôme dans F[x] est de manière unique un produit de polynômes irréductibles. Si l’on compare ce résultat à celui de la section 15, on peut voir qu’il y a autant de polynômes irréductibles (normalisés de manière à ce que le coefficient dominant vaille 1) dans F[x] que de mots de Lyndon sur l’alphabet F. Par exemple, si F est le corps à deux élements, il y a un seul polynôme irréductible de degré 2, à savoir x2 + x + 1, et il y a 2 polynômes irréductibles de degré 3, à savoir x = x3 + x2 + 1 et x3 + x + 1; comparer aux exemples à la fin de la section 14. On ne connaı̂t pas de bijection simple entre les polynômes irréductibles sur un corps fini et les mots de Lyndon sur ce corps. Christophe Reutenauer: Département de mathématiques, Université du Québec à Montréal E-mail address: [email protected] 5pour une raison que je ne développe pas ici.