ALGÈBRES DE KAC-MOODY par Charles Cochet Table des matières 1. Algèbres de Kac-Moody. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Forme bilinéaire invariante et opérateur de Casimir généralisé. . . . . . . . . . . . . . . . . . . . . . . 3. Groupe de Weyl et représentations intégrables des algèbres de Kac-Moody. . . . . . . . . . 4. Classification des matrices de Cartan généralisées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Index des notations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Index terminologique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 7 13 20 25 25 Ces notes sont issues des premiers chapitres du livre de Kac, Infinite Dimensional Lie Algebras (Cambridge University Press). CHARLES COCHET 2 1. Algèbres de Kac-Moody On dit que la matrice A = (ai,j )1≤i,j≤n à coefficient complexes est une matrice de Cartan généralisée si elle satisfait aux conditions (1) (2) ai,i = 2 pour tout i = 1, . . . , n ; ai,j est un entier négatif pour i 6= j ; (3) ai,j = 0 si et seulement si aj,i = 0. Bien qu’une théorie très riche puisse être développée avec les matrices de Cartan généralisée, il est naturel de commencer avec une matrice quelconque. 1.1. Réalisation d’une matrice. — Soit A = (ai,j )1≤i,j≤n une matrice complexe de rang `. Une réalisation de A est la donnée d’un triplet (h, Π, Π∨ ), où h est un C-espace et Π = {α1 , . . . , αn } ⊂ h∗ , ∨ Π∨ = {α∨ 1 , . . . , αn } ⊂ h vérifient (4) (5) Π et Π∨ sont libres ; hα∨ (i, j = 1, . . . , n) ; i , αi i = ai,j (6) n − ` = dim(h) − n. Nous appellerons Π la base des racines et Π∨ la base des co-racines. Les éléments de Π et Π∨ sont appelés racines simples et co-racines simples respectivement. Posons également Q= n X i=1 Zαi , Q+ = n X Nαi . i=1 P P Le treillis Q est appelé treillis des racines. Pour α = i ai αi , l’entier ht(α) = i ai est la hauteur de α. Enfin, introduisons un ordre partiel ≥ sur h∗ en posant λ ≥ µ si λ − µ ∈ Q+ . Deux réalisations (h, Π, Π∨ ) et (h1 , Π1 , Π∨ 1 ) de A sont isomorphes s’il existe un isomorphisme φ : h −→ ∗ h1 d’espaces vectoriels tel que φ(Π∨ ) = Π∨ 1 et φ (Π1 ) = Π. Proposition 1.1. — Il existe une unique réalisation (à isomorphisme près) d’une matrice complexe A. Deux réalisations de matrices A et B sont isomorphes si et seulement si B est obtenue à partir de A par permutation de l’ensemble des indices. A1 Démonstration. — Quitte à réordonner les indices, on peut supposer que A = pour une matrice A2 A1 de taille ` × n de rang n. Considérons la matrice A1 0 C= A2 In−` de taille n×(2n−`). Posons h = C2n−` . Choisissons pour α1 , . . . , αn les n premières fonctions coordonnées ∨ et pour α∨ 1 , . . . , αn les n lignes de C. Nous obtenons alors une réalisation de A. Démontrons l’unicité. Pour une réalisation (h, Π, Π∨ ) donnée, complétons Π en une base de h∗ en ajoutant des éléments αn+1 , . . . , α2n−` ∈ h∗ . Nous avons alors A1 B ∨ (hαi , αj i)i,j = A2 D pour une matrice B inversible de taille ` × (n − `) et une matrice D inversible de taille (n − `) × (n − `). Quitte à ajouter à αn+1 , . . . , α2n−` des combinaisons linéaires de α1 , . . . , α` , on peut supposer B = 0. En remplaçant αn+1 , . . . , α2n−` par des combinaisons linéaires d’eux-même, on se ramène également à D = I. D’où l’unicité de la réalisation. La seconde partie de la proposition est maintenant évidente. Si (h, Π, Π∨ ) est une réalisation de A, alors (h∗ , Π∨ , Π) est une réalisation de la matrice transposée tA. ALGÈBRES DE KAC-MOODY 3 ∨ ∨ Soientdeux matrices A1 et A2 dont des réalisations respectives sont (h1 , Π1 , Π1 ) et (h2 , Π2 , Π2 ). La A1 0 matrice est la somme directe de A1 et A2 ; elle admet pour réalisation le triplet 0 A2 ∨ (h1 ⊕ h2 , Π1 × {0} ∪ {0} × Π2 , Π∨ 1 × {0} ∪ {0} × Π2 ), appelé somme directe des réalisations. Une matrice A (ainsi que sa réalisation) est décomposable si après avoir réordonné les indices elle se décompose en une somme directe non triviale. Après avoir réordonné les indices, on peut toujours décomposer une matrice A en une somme directe de matrices indécomposables ; la réalisation correspondante est la somme directe des réalisations indécomposables correspondantes. 1.2. Construction de l’algèbre g̃(A). — Soit A = (ai,j )1≤i,j≤n une matrice complexe de rang `. Choisissons une réalisation (h, Π, Π∨ ) de A. Introduisons une algèbre de Lie auxiliaire g̃(A), de générateurs ei , fi (i = 1, . . . , n) et h satisfaisant aux relations [ei , fj ] = δi,j α∨ (i, j = 1, . . . , n), i [h, h0 ] = 0 (h, h0 ∈ h), (7) [h, ei ] = hαi , hiei (i = 1, . . . , n ; h ∈ h), [h, fi ] = −hαi , hifi (i = 1, . . . , n ; h ∈ h). Il découle de l’unicité de la réalisation que g̃(A) ne dépend que de A. On écrira ad(x) = [x, · ]. Notons ñ+ (resp. ñ− ) la sous-algèbre de g̃(A) engendrée par les ei (resp. les fi ). Théorème 1.2. — (1) Nous avons une somme directe d’espaces vectoriels g̃(A) = ñ− ⊕ h ⊕ ñ+ . (2) La sous-algèbre ñ+ (resp. ñ− ) est librement engendrée par les ei (resp. les fi ). (3) L’application ei 7→ −fi , fi 7→ −ei , h 7→ −h (h ∈ h) s’étend de façon unique en une involution ω̃ de l’algèbre de Lie g̃(A). (4) L’algèbre de Lie g̃(A) se décompose en espaces radiciels sous l’action de h sous la forme ! ! M M g̃−α ⊕ h ⊕ (8) g̃(A) = g̃α , α∈Q+ \{0} α∈Q+ \{0} où g̃α = {x ∈ g̃(A) ; [h, x] = α(h)x pour tout h ∈ h}. De plus dim(g̃α ) < +∞ et g̃α ⊂ ñ± pour ±α ∈ Q+ \ {0}. (5) Il existe un unique idéal maximal r de g̃(A) intersectant trivialement h. Nous avons une somme directe d’idéaux (9) r = (r ∩ ñ− ) ⊕ (r ∩ ñ+ ). Démonstration. — Non recopiée car longue. 1.3. Construction de l’algèbre de Kac-Moody g(A). — Soit A = (ai,j )1≤i,j≤n une matrice complexe (de rang `). Choisissons une réalisation (h, Π, Π∨ ) de A. Considérons l’algèbre de Lie g̃(A) sur les générateurs ei et fi (i = 1, . . . , n) avec les relations (7). D’après le théorème 1.2 (1), l’application naturelle h −→ g̃(A) est un plongement. Soit r l’unique idéal maximal intersectant trivialement h. Posons g(A) = g̃(A)/r. La matrice A est la matrice de Cartan de l’algèbre de Lie g(A). L’entier n est le rang de g(A). Le quadruplet (g(A), h, Π, Π∨ ) est appelé quadruplet associé à la matrice A. Deux quadruplets (g(A), h, Π, Π∨ ) et (g(A1 ), h1 , Π1 , Π∨ 1 ) sont isomorphes s’il existe un isomorphisme ∗ d’algèbres de Lie φ : g(A) −→ g(A1 ) tel que φ(h) = h1 , φ(Π∨ ) = Π∨ 1 et φ (Π1 ) = Π. Une algèbre de Lie g(A) dont la matrice A est une matrice de Cartan généralisée comme défini en (1–3) est appelée algèbre de Kac-Moody. Nous conserverons la même notation pour les images des ei , des fi et de h dans g(A). La sous-algèbre h de g(A) est appelée sous-algèbre de Cartan. Les ei et fi sont appelés générateurs de Chevalley. Ils engendrent en fait l’algèbre dérivée g0 (A) = [g(A), g(A)]. De plus g(A) = g0 (A) + h. Il s’ensuit que g(A) = g0 (A) si et seulement si det(A) 6= 0. Posons h0 = Pn i=1 0 0 Cα∨ i ; ainsi g (A) ∩ h = h . CHARLES COCHET 4 Définissons l’espace radiciel associé à α comme étant gα = {x ∈ g(A) ; [h, x] = α(h)x pour tout h ∈ h}. La formule (8) implique la décomposition radicielle selon h M (10) g(A) = gα . α∈Q 0 Remarquons que g0 = h et g (A) ∩ gα = gα si α 6= 0. L’entier mult(α) = dim(gα ) est appelé multiplicité de α. L’estimation dim(g̃(A)) ≤ n| ht(α)| implique mult(α) ≤ n| ht(α)| . (11) Une forme α ∈ Q est appelée racine si α 6= 0 et mult(α) 6= 0. Une racine α > 0 (resp. α < 0) est dite positive (resp. négative). La décomposition (7) implique qu’une racine est soit positive, soit négative. Notons ∆, ∆+ et ∆− respectivement les ensembles des racines, racines positives et racines négatives. Ainsi ∆ = ∆ + t ∆− . Nous écrirons parfois ∆(A), Q(A), etc., afin d’insister sur la dépendance en A. Soit n+ (resp. n− ) la sous-algèbre de g(A) engendrée par les ei (resp. les fi ). Le théorème 1.2 nous fournit la décomposition triangulaire g(A) = n− ⊕ h ⊕ n+ . Remarquons que gα ⊂ n+ lorsque α > 0 et gα ⊂ n− lorsque α < 0. En d’autres termes, pour α > 0 (resp. α < 0) l’espace gα est linéairement engendré par les éléments de la forme [. . . [[ei1 , ei2 ], ei3 ], . . . , eip ] (resp. [. . . [[fi1 , fi2 ], fi3 ], . . . , fip ]) tels que αi1 + · · · + αip = α (resp. = −α). On en déduit (12) gαi = Cei , g−αi = Cfi , gsαi = 0 si |s| > 1. Puisque une racine est soit négative, soit positive, nous avons le résultat important suivant : Lemme 1.3. — Si β ∈ ∆+ \ {αi }, alors (β + Zαi ) ∩ ∆ ⊂ ∆+ . D’après le théorème 1.2(5), l’idéal r ⊂ g̃(A) est ω̃-invariant. Donc ω̃ induit un automorphisme involutif ω de l’algèbre de Lie g(A), appelé involution de Chevalley. Cette involution est déterminée par (13) ω(ei ) = −fi , ω(fi ) = −ei , ω(h) = −h (h ∈ h). Puisque ω(gα ) = g−α , on obtient mult(α) = mult(−α). En particulier (14) ∆− = −∆+ . 1.4. Une sorte d’unicité de l’algèbre de Lie g(A).— Le résultat suivant, quoique simple, est très utile. Proposition 1.4. — (1) Soient g une algèbre de Lie et h une sous-algèbre commutative. Supposons ∨ ∨ qu’il existe des éléments ei , fi (i = 1, . . . , n) et des ensembles Π∨ = {α∨ = 1 , . . . , αn } ⊂ h et Π {α1 , . . . , αn } ⊂ h∗ libres tels que [ei , fj ] = δi,j α∨ i ∈ h (i, j = 1, . . . , n), [h, ei ] = hαi , hiei , [h, fi ] = −hαi , hifi (h ∈ h ; i = 1, . . . , n). Supposons que les ei , les fi et h engendrent g en tant qu’algèbre de Lie, et que g n’admette aucun idéal non nul intersectant trivialement h. Posons enfin A = (hα∨ i , αj i)1≤i,j≤n et supposons que dim(h) = 2n − rang(A). Alors (g, h, Π, Π∨ ) est le quadruplet associé à la matrice A. (2) Soient A et A0 deux matrices complexes de taille n × n. Alors il existe un isomorphisme entre les quadruplets associés si et seulement si A0 s’obtient à partir de A en réordonnant l’ensemble des indices. Démonstration. — Ceci découle de la proposition 1.1 et du théorème 1.2. Corollaire 1.5. — Le quadruplet associé à une somme directe de matrices A i est isomorphe à la somme directe des quadruplets associés aux Ai . Le système des racines de g(A) est la réunion des systèmes des racines des Ai . ALGÈBRES DE KAC-MOODY 5 1.5. L Digression sur les graduations. — Fixons un groupe abélien M . Une décomposition V = α∈M LVα d’un espace vectoriel V est appelée M -graduation de V . Un sous-espace U ⊂ V est gradué si U = α∈M (U ∩ Vα ). Les éléments de Vα sont dits homogènes de degré α. Le résultat suivant est souvent utilisé en théorie des représentations. Proposition 1.6. — Soient h une algèbre de Lie commutative et V un h-module diagonalisable, c’està-dire M (15) V = Vλ , où Vλ = {v ∈ V ; h(v) = λ(h)v pour tout h ∈ h}. λ∈h∗ Alors tout sous-module U de V est gradué pour la graduation (15). Pm Démonstration. — Tout v ∈ V s’écrit v = j=1 vj pour des vj ∈ Vλj . Il existe alors h ∈ h tel que les λj (h) soient tous distincts. Pour v ∈ U , on a alors hk (v) = m X λj (h)k vj ∈ U (k = 0, . . . , m − 1). j=1 Ce système linéaire est non-dégénéré, donc admet une unique solution ; ainsi vj ∈ U pour tout j. L Introduisons la topologie formelle sur un espace vectoriel gradué V = α∈M Vα comme suit. Pour un L sous-ensemble fini F ⊂ M , posons V F = α∈M \F Vα et déclarons que ces V F forment une base d’un système de voisinages de zéro. La complétion de V dans cette topologie est Π α∈M Vα . La clôture d’un sous-ensemble C de cet espace vectoriel topologique est appelée complétion formelle de C. Une M -graduation d’une algèbre de Lie g est une graduation (de l’espace vectoriel g) telle que [g α , gβ ] ⊂ gα+β . Par exemple la graduation (10) est une Q-graduation de l’algèbre de Lie g(A). Afin de construire une M -graduation sur une algèbre de Lie g, choisissons des générateurs a 1 , . . . , an de g et des éléments λ1 , . . . , λn de M . Décrétons que deg(ai ) = λi . Ceci définit une (unique) M -graduation de g telle que deg(ai ) = λi si et seulement si l’idéal des relations entre les ai est M -gradué. Par exemple, si les ai forment un système libre de générateurs de g alors une telle graduation existe. Soit maintenant un n-uplet (s1 , . . . , sn ) d’entiers. En posant deg(ei ) = − deg(fi ) = si (i = 1, . . . , n), on définit une Z-graduation g(A) = M deg(h) = 0, gj (s) j∈Z de g(A), appelée graduation de type s, avec gj (s) = M gα α P P et où la somme est sur l’ensemble des α = i ki αi ∈ Q tels que i ki si = j. Si si > 0 pour tout i, alors g0 (s) = h et dim(gj (s)) < +∞ pour tout j. Exemple 1.7. — Une graduation importante est L la graduation principale. C’est la graduation de type 1I = (1, . . . , 1). De façon explicite, on a gj (1I) = ht(α)=j gα . Ainsi X X M g0 (1I) = h, g−1 (1I) = Cfi , g1 (1I) = Cei , n± = g± (1I). i i j≥1 Lemme 1.8. — Soit a ∈ n+ tel que [a, fi ] = 0 pour tout i. Alors a est nul. De même, tout a ∈ n− tel que [a, ei ] = 0 pour tout i est nul. P Démonstration. — Soit a ∈ n+ tel que [a, g−1 ] = 0. Alors i,j≥0 ad(g1 (1I))i ad(h)j a est un sous-espace de n+ ⊂ g(A). Ce sous-espace est invariant sous l’action de ad(g1 (1I)) et de ad(h), ainsi que sous celle de ad(g−1 (1I)) d’après l’hypothèse sur a. Donc si a 6= 0 on obtient un idéal non nul de g(A) qui intersecte h trivialement. Ceci contredit la construction de g(A). CHARLES COCHET 6 Remarque 1.9. — Il est parfois plus utile de considérer g0 (A) plutôt que g(A). Donnons une construction directe de g0 (A). Soit g̃0 (A) l’lagèbre de Lie engendrée par des symboles ei , fi , α∨ i (i = 1, . . . , n) satisfaisant aux relations de définition ∨ ∨ ∨ ∨ [ei , fj ] = δi,j α∨ i , [αi , αj ] = 0, [αi , ej ] = ai,j ej , [αi , fj ] = −ai,j fj . Soit Q un groupe abélien libre sur les générateurs α1 , . . . , αn . Introduisons une Q-graduation g̃0 (A) = ∨ ⊕α g̃0α en posant deg(ei ) = − Pdeg(f∨i ) = αi et deg(αi ) = 0. Il existe un unique idéal maximal Q-gradué 0 0 r ⊂ g̃ (A) intersectant g̃0 (= i Cαi ) trivialement. Alors g0 (A) = g̃0 (A)/r. Remarquons que cette définition est encore valable lorsque n est infini. 1.6. Deux applications du lemme 1.8. — Proposition 1.10. — Le centre de l’algèbre de Lie g(A) (ou de g0 (A)) est égal à c = {h ∈ h ; hαi , hi = 0 pour tout i = 1, . . . , n}. De plus dim(c) = n − `. Démonstration. — Soit c dans le centre ; il se décompose selon la graduation principale sous la forme P c = i ci . Alors [c, g−1 (1I)] = 0 implique [ci , g−1 (1I)] = 0. D’après le lemme 1.8, on obtient ci = 0 pour i > 0. On a de façon similaire ci = 0 pour i < 0. Par conséquent c ∈ h. Puis [c, ei ] = hαi , ciei = 0 implique hαi , ci = 0 pour tout i. Réciproquement, si c ∈ h vérifie hαi , ci = 0 pour tout i alors c commute avec les générateurs de Chevalley et appartient au centre. Enfin c = h0 puisque sinon dim(c) > n − ` et Π ne serait pas libre. Une autre application du lemme 1.8 est le Lemme 1.11. — Soient I1 , I2 ⊂ {1, . . . , n} disjoints tels que ai,j = aj,i = 0 dès que i ∈ I1 et j ∈ J2 . P (s) Soit βs = i∈Is ki αi pour s = 1, 2. Supposons que α = β1 + β2 est une racine de l’algèbre de Lie g(A). Alors β1 ou β2 est nul. ∨ Démonstration. — Soient i ∈ I1 et j ∈ I2 . Alors [α∨ i , ej ] = 0, [αj , ei ] = 0, [ei , fj ] = 0 et [ej , fi ] = 0. D’après le lemme 1.8 et la formule de Jacobi, on obtient [ei , ej ] = 0 et [fi , fj ] = 0. Notons g(s) la sousalgèbre de g(A) engendrée par les ei et les fi (i ∈ Is ). On vient de démontrer que g(1) et g(2) commutent. Puisque gα est dans la sous-algèbre engendrée par g(1) et g(2) , on en déduit que gα est inclus soit dans g(1) , soit dans g(2) . 1.7. Description des idéaux de g(A). — Théorème 1.12. — (1) L’algèbre de Lie g(A) est simple si et seulement si det(A) 6= 0 et pour tout couple (i, j) d’indices la condition suivante est vérifiée : (16) il existe des indices i1 , . . . , is tels que ai,i1 ai1 ,i2 · · · ais ,j 6= 0. (2) Si (16) est vérifiée, alors tout idéal de g(A) contient g0 (A) ou bien est contenu dans le centre. Démonstration. — Les conditions de (1) sont nécessaires. Supposons maintenant qu’elles sont satisfaites et fixons un idéal non nul i de g(A). Alors i contient un élément non nul h ∈ h. Puisque det(A) 6= 0, la proposition 1.10 implique c = 0. Donc [h, ej ] = aej est non nul pour un j. Ainsi ej ∈ i et α∨ j = [ej , fj ] ∈ i. La condition (16) implique ek , fk , α∨ ∈ i pour tout k. Puisque det(A) = 6 0, l’espace h est linéairement k et on obtient i = g(A). La démonstration de (2) est analogue. engendré par les α∨ k Remarque 1.13. — Si ai,j = 0 ⇔ aj,i = 0, alors la condition (16) est équivalente à l’indécomposabilité de A. ALGÈBRES DE KAC-MOODY 7 2. Forme bilinéaire invariante et opérateur de Casimir généralisé 2.1. Construction d’une forme bilinéaire sur h (dans le cas A symétrisable). — Si l’on change la longueur des générateurs de Chevalley par ei 7→ ei , fi 7→ i fi pour des réels non nuls i , on obtient ∨ une application α∨ i 7→ i αi qui s’étend en un isomorphisme h −→ h (non unique lorsque det(A) = 0). Il s’étend en un isomorphisme g(A) −→ g(DA), où D = diag(1 , . . . , n ). Une matrice A = (ai,j ) de taille n × n est symétrisable s’il existe une matrice diagonale inversible D = diag(1 , . . . , n ) et une matrice symétrique B = (bi,j ) telles que (17) A = DB. La matrice B est appelée une symétrisation de A et g(A) est dite algèbre de Lie symétrisable. Remarquons que A symétrisable si et seulement si ai,j = 0 ⇔ aj,i = 0 et ai1 ,i2 ai2 ,i3 · · · aik ,i1 = ai2 ,i1 ai3 ,i2 · · · ai1 ,ik pour tous ij . Soit g(A) une algèbre de Lie symétrisable de décomposition (17) fixée. Choisissons une réalisation P (h, Π, Π∨ ) de A. Fixons un complémentaire h00 de h0 = i C∨ dans h. Définissons une forme bilinéaire i symétrique ( · , · ) : h × h −→ C en posant (18) (19) (α∨ i , h) = hαi , hii (h0 , h00 ) = 0 (i = 1, . . . , n ; h ∈ h ), (h0 , h00 ∈ h00 ). Puisque les α∨ i sont linéairement indépendants et grâce à (17–18), on a (20) ∨ (α∨ i , αj ) = bi,j i j (i, j = 1, . . . , n) et la forme ( · , · ) est définie sans ambiguïté. Lemme 2.1. — (1) Le noyau de la restriction de la forme bilinéaire ( · , · ) à h 0 coïncide avec c. (2) La forme bilinéaire ( · , · ) est non-dégénérée sur h. Démonstration. — L’assertion (1) P découle de la proposition 1.10. Si pour tout h ∈ h on a 0 = P P c α , hi, alors , h) = h ( i c i α∨ i i ci i αi = 0 d’où finalement ci = 0 pour tout i. i i i i Puisque la forme bilinéaire ( · , · ) est non-dégénérée, on a un isomorphisme ν : h −→ h∗ défini par hν(h1 ), h2 i = (h1 , h2 ) (h1 , h2 ∈ h), c’est-à-dire ν(h1 ) = (h1 , · ) ∈ h∗ . On obtient également grâce à ν une forme bilinéaire symétrique ( · , · ) sur h∗ . La formule (18) implique (21) ν(α∨ i ) = i αi (i = 1, . . . , n). Ainsi grâce à (20) on obtient (22) (αi , αj ) = bi,j = ai,j /i (i, j = 1, . . . , n). 2.2. Propriétés de la forme bilinéaire. — Théorème 2.2. — Soit g(A) une algèbre de Lie symétrisable. Fixons une décomposition (17) de A. Alors il existe une forme bilinéaire symétrique non-dégénérée ( · , · ) : g(A) × g(A) −→ C telle que (1) La forme ( · , · ) est (ad-)invariante, c’est-à-dire ([x, y], z) + (y, [x, z]) = 0 pour tous x, y, z ∈ g(A). (2) La restriction ( · , · )h est définie par (18–19) et est non-dégénérée. (3) On a (gα , gβ ) = 0 siα + β 6= 0. (4) La restriction ( · , · )gα +g−α est non-dégénérée pour α 6= 0, donc gα et g−α sont isomorphes par ( · , · ). (5) La forme vérifie [x, y] = (x, y)ν −1 (α) pour x ∈ gα , y ∈ g−α et α ∈ ∆. Démonstration. — Non recopiée car longue. CHARLES COCHET 8 2.3. Forme bilinéaire invariante standard. — Soit A = (ai,j )1≤i,j≤n une matrice de Cartan généralisée symétrisable. Fixons une décomposition (23) A = diag(1 , . . . , n )(bi,j )1≤i,j≤n , où les i sont des rationnels positifs et B = (bi,j )i,j est symétrique rationnelle. Une telle décomposition existe toujours. En effet, l’égalité (23) est équivalente à un système homogène d’équations et d’inéquations −1 linéaires sur Q d’indéterminées les −1 et les bi,j , à savoir −1 6= 0, diag(−1 1 , . . . , n )A = (bi,j )i,j et i i bi,j = bj,i . Ce système a par définition une solution sur C. Donc il admet une solution sur Q. On peut supposer la matrice A indécomposable. Par conséquent pour tout 1 < j ≤ n il existe une suite 1 = i1 < i2 < · · · < ik−1 < ik = j telle que ais ,is+1 < 0. On a (24) (s = 1, . . . , k − 1). ais ,is+1 is+1 = ais+1 ,is is Il s’ensuit que j 1 > 0 pour tout j, achevant la démonstration. On déduit également de (24) la Remarque 2.3. — Si A est indécomposable, alors la matrice diag(1 , . . . , n ) est déterminée de façon unique par la décomposition (23) à un facteur constant près. Fixons une forme bilinéaire symétrique non-dégénérée ( · , · ) associée à la décomposition (23). On déduit de la formule (22) que (25) (αi , αi ) > 0 (i = 1, . . . , n), (26) (αi , αj ) ≤ 0 (i 6= j), α∨ i (27) = 2 −1 (αi ) (αi ,αi ) ν (i = 1, . . . , n). On obtient alors l’expression usuelle pour la matrice de Cartan généralisée : 2(αi , αj ) A= . (αi , αi ) 1≤i,j≤n On étend la forme bilinéaire ( · , · ) sur h en une forme bilinéaire symétrique invariante ( · , · ) sur l’algèbre de Kac-Moody g(A). D’après le théorème 2.2, une telle forme existe et vérifie toutes les propriétés citées ici. Il est facile de démontrer qu’une telle forme est unique. La forme bilinéaire ( · , · ) sur l’algèbre de Kac-Moody g(A) fournie par le théorème 2.2 et vérifiant (24) est appelée forme invariante standard. 2.4. Propriétés de l’algèbre de Kac-Moody symétrisable g(A). — Soient A une matrice symétrisable et g(A) l’algèbre de Kac-Moody associée. Soit ( · , · ) la forme bilinéaire sur g(A) fournie par le (i) théorème 2.2. Pour une racine α fixée, le théorème 2.2(4) nous permet de choisir des bases duales {e α } et (i) (i) (i) {e−α } de gα et g−α respectivement, c’est-à-dire telles que (eα , e−α ) = δi,j (i, j = 1, . . . , mult(α)). Pour x ∈ gα et y ∈ g−α , on a mult(α) (28) (x, y) = X (i) (x, e−α )(y, e(i) α ). i=1 Le lemme suivant est crucial pour de nombreux calculs : Lemme 2.4. — Si α, β ∈ ∆ et z ∈ gβ−α , alors nous avons dans g(A) ⊗ g(A) l’égalité X (s) X (s) (29) e−α ⊗ [z, e(s) [e−β , z] ⊗ e(s) α ]= α . s s Démonstration. — Définissons une forme ( · , · ) sur g(A) ⊗ g(A) par (x1 ⊗ y1 , x2 ⊗ y2 ) = (x1 , x2 )(y1 , y2 ). Choisissons e ∈ gα et f ∈ g−β . Il suffit de vérifier que le couplage des deux membres de (29) avec e ⊗ f donne le même résultat. Nous avons X (s) X (s) X (s) (e−α ⊗ [z, e(s) (e−β , e)([z, e(s) (e−β , e)(e(s) α ], e ⊗ f ) = α ], f ) = α , [f, z]) = (e, [f, z]) s s s ALGÈBRES DE KAC-MOODY 9 d’après le théorème 2.2 (1) et la formule (29). De façon similaire, on a X (s) X (s) (s) (s) (e−β , [z, e])(eβ , f ) = ([z, e], f ). ([e−β , z] ⊗ eβ , e ⊗ f ) = s s En appliquant encore le théorème 2.2 (1), on obtient le résultat. Corollaire 2.5. — En conservant les notations du lemme 2.4, nous avons X (s) X (s) (s) [e−α , [z, e(s) (30) [[z, e−β ], eβ ] dans g(A), α ]] = − s (31) s X (s) e−α [z, e(s) α ]] = − s X (s) (s) [z, e−β ]eβ ] dans U (g(A)). s Démonstration. — Il suffit d’appliquer la formule (29) aux applications linéaires g(A) ⊗ g(A) −→ g(A) et g(A) ⊗ g(A) −→ U (g(A)) définies respectivement par x ⊗ y −→ [x, y] et x ⊗ y −→ xy. 2.5. Opérateur de Casimir généralisé. — Soient g(A) une algèbre de Lie associée à une matrice A et h la sous-algèbre de Cartan provenant d’une réalisation de A. Considérons la décomposition radicielle L g(A) = α gα de g(A) selon h. Un g(A)-module (resp. g0 (A)-module) V est dit restreint si pour tout v ∈ V on a gα (v) = 0 pour toutes les racines positives α sauf un nombre fini. Exemple 2.6. — (1) La représentation adjointe de g(A) est restreinte si et seulement si dim(g(A)) < +∞. (2) Le g̃(A)-module T (V ) de la démonstration du théorème 1.2 admet un unique sous-module maximal J(V ) ; en outre T (V )/J(V ) est un g(A)-module restreint irréductible. Un sous-module ou un quotient d’un module restreint est encore restreint. On verra plus loin des exemples de tels modules. Supposons que A est symétrisable et que ( · , · ) est la forme fournie par le théorème 2.2. Pour un g(A)-module V donné, introduisons un opérateur linéaire Ω sur V , appelé opérateur de Casimir. Commençons par définir une forme ρ ∈ h∗ par les équations 1 ai,i (i = 1, . . . , n). 2 Si det(A) = 0, alors ρ n’est pas définie de façon unique et l’on prend une quelconque des solutions. D’après les formules (21–22), on a hρ, α∨ i i= (32) (ρ, αi ) = 1 (αi , αi ) 2 (i = 1, . . . , n). (i) (i) De plus, pour toute racine positive α nous pouvons choisir une base {eα } de l’espace gα ; notons {e−α } la base duale de g−α . Définissons un opérateur Ω0 sur V par X X (i) e−α e(i) Ω0 = 2 α . α∈∆+ i On vérifie aisément que cette définition est indépendante des bases choisies. Puisque pour tout v ∈ V il (i) (i) n’y a qu’un nombre fini de e−α eα v non nuls, l’opérateur Ω0 est bien défini. Soient u1 , u2 , . . . et u1 , u2 , . . . des bases duales de h. L’opérateur de Casimir généralisé est défini par X Ω = 2ν −1 (ρ) + ui ui + Ω 0 . i L’élégante formule X (33) hλ, ui ihµ, ui i = (λ, µ) i découle de (34) λ= X i hλ, ui iν(ui ) = X i hλ, ui iν(ui ). CHARLES COCHET 10 Ces formules impliquent que pour tout x ∈ gα on a i hX X X ui hα, ui ix hα, ui ixui + ui ui , x = i i i = X i hα, u ihα, ui ix + x i i Ainsi hX (35) i X i ui ui , x = x((α, α) + 2ν −1 (α)) ui hα, ui i + ui hα, ui i . pour tout x ∈ gα . Cette formule nous servira au paragraphe suivant. 2.6. Propriétés de l’opérateur de Casimir généralisé. — Considérons la décomposition radicielle de l’algèbre enveloppante U (g(A)) selon h, à savoir M Uβ , avec Uβ = {x ∈ U (g(A)) ; [h, x] = hβ, hix pour tout h ∈ h}. U (g(A)) = β∈Q Posons Uβ0 0 = U (g (A)) ∩ Uβ , de sorte que U (g0 (A)) = L β Uβ0 . Nous avons alors le Théorème 2.7. — Soit g(A) une algèbre de Lie symétrisable. (1) Si V est un g0 (A)-module restreint et u ∈ Uα0 , alors [Ω0 , u] = −u 2(ρ, α) + (α, α) + 2ν −1 (α) . (36) (2) Si V est un g(A)-module restreint, alors Ω commute avec l’action de g(A) sur V . Démonstration. — Le second point découle du premier ainsi que de (35). Si (1) est vérifiée pour u ∈ U α0 0 et u1 ∈ Uβ0 , alors elle est vérifiée pour uu1 ∈ Uα+β . En effet [Ω0 , uu1 ] = [Ω0 , u]u1 + u[Ω0 , u1 ] = −u(2(ρ, α) + (α, α) + 2ν −1 (α))u1 − uu1 (2(ρ, β) + (β, β) + 2ν −1 (β)) = −uu1 (2(ρ, α) + (α, α) + 2ν −1 (α) + 2(α, β) + 2(ρ, β) + (β, β) + 2ν −1 (β)) = −uu1 (2(ρ, α + β) + (α + β, α + β) + 2ν −1 (α + β)). Ainsi, puisque les eαi et les e−αi engendrent g0 (A) il suffit de vérifier (36) pour u = eαi ou eαi . En appliquant (30) à z = eαi et en utilisant le lemme 1.3, nous obtenons X X (s) (s) (s) ([e−α , eαi ]e(s) [Ω0 , eαi ] = 2 α + e−α [eα , eαi ]) α∈∆+ s = 2[e−αi , eαi ]eαi + 2 X α∈∆\{αi } = −2ν −1 X (s) [e−α , eαi ]e(s) α + s (αi )eαi = −2(αi , αi )eαi − 2eαi ν X s −1 (s) e−α+αi [eα−αi , eαi ] (αi ). Grâce à (32), ceci est égal à (36) pour u = eαi . De façon analogue [Ω0 , e−αi ] = 2e−αi [eαi , e−αi ] = 2e−αi ν −1 (αi ), ce qui est égal à (36) pour u = e−αi encore d’après (32). Corollaire 2.8. — Sous les hypothèses du théorème 2.7(2), s’il existe v ∈ V tel que e i (v) = 0 pour tout i et h(v) = hΛ, hiv pour un Λ ∈ h∗ et pour tout h ∈ h, alors (37) Ω(v) = (Λ + 2ρ, Λ)v. Si de plus U (g(A))v = V alors (38) Ω = (Λ + 2ρ, Λ)IV . Démonstration. — La formule (37) est une conséquence de la définition de Ω et de (33). La formule (38) découle quant à elle de (37) et du théorème 2.7. ALGÈBRES DE KAC-MOODY 11 L Remarque 2.9. — On peut en fait définir la Q-graduation U (g(A)) = β∈Q Uβ0 et l’application ν −1 : Q −→ h0 sans utiliser l’algèbre de Lie g(A). En effet, la Q-graduation de U (g0 (A)) est induite par la Qgraduation de g0 (A) définie dans la remarque 1.9. Si A est symétrisable, on fixe une décomposition (23) ∨ et on définit ν −1 comme étant un morphisme de groupes abéliens tels que ν −1 (αi ) = −1 i αi pour tout i. Ces définitions sont encore valables lorsque n est infini. 2.7. Forme compacte d’une algèbre g(A). — Soit A une matrice réelle de taille n × n et de rang `. Fixons une réalisation (hR , Π, Π∨ ) de A sur R, c’est-à-dire pour un R-espace hR de dimension 2n − `. Ainsi (h := hR ⊗R C, Π, Π∨ ) est une réalisation de A sur C. Définissons la forme compacte k(A) de g(A). Notons ω0 l’automorphisme anti-linéaire de g(A) déterminé par ω0 (ei ) = −fi , ω0 (fi ) = −ei , ω0 (h) = −h (h ∈ hR ). Cette application est appelée involution compacte de g(A). En fait l’existence de ω 0 est démontrée à l’aide des mêmes arguments que pour ω dans la section 1.3. Alors la forme compacte k(A) de g(A) est définie comme étant l’ensemble des points fixes de ω0 ; c’est une R-algèbre de Lie de complexification g(A). Remarquons que cette définition coïncide avec celle usuelle. Soient A ∈ Mn (R) et ( · , · ) la forme standard sur g(A). Définissons une forme hermitienne sur g(A) en posant (x, y)0 = −(ω0 (x), y). Le théorème 2.2 implique les propriétés suivantes de cette forme hermitienne : (1) La restriction de ( · , · )0 à gα est non-dégénérée pour tout α ∈ ∆ t {0}. (2) On a (gα , gβ )0 = 0 si α 6= β. (3) Les opérateurs ad(u) et ad(ω0 (u)) pour u ∈ g(A) sont adjoints, c’est-à-dire ([u, x], y)0 = −(x, [ω0 (u), y])0 pour tous x, y ∈ g(A). En particulier, la restriction de ( · , · )0 à k(A) est une forme R-bilinéaire invariante non-dégénérée. Nous reviendrons à l’étude de cette forme hermitienne ( · , · )0 après avoir développé certains points de théorie des représentations. 2.8. Variante des résultats précédents. — Proposition 2.10. — Soit g une algèbre de Lie munie d’une forme bilinéaire invariante non-dégénérée ( · , · ). Fixons des bases duales {xi } et {yi } (c’est-à-dire (xi , yj ) = δi, j). Soit V un g-module tel que pour tout couple d’éléments (u, v) ∈ V × V on ait xi (u) = 0 ou yi (v) = 0 pour tous les i sauf un nombre fini. Alors l’opérateur X Ω2 = xi ⊗ y i i est défini sur tout V ⊗ V et commute avec l’action de g. P Démonstration. —PIl nous suffit de vérifier P que pour tout z ∈ g on a i ([z, xi ] ⊗ yi + xi ⊗ [z, yi ]) = 0. Ecrivons [z, xi ] = j αi,j xj et [z, yi ] = j βj,i yj . En prenant le produit scalaire de la première équation avec yj et de la seconde avec xj , on obtient αi,j = ([z, xi ], yj ) et βj,i = ([z, yi ], xj ). Grâce à l’invariance de la forme ( · , · ), on en déduit αi,j = (z, [xi , yj ]) et βj,i = (z, [yi , xj ]). Il s’ensuit que αi,j = −βi,j . L Remarque 2.11. — Soit g = i∈Z gi une algèbre de Lie locale, c’est-à-dire une algèbre de Lie Z-graduée engendrée par sa partie locale g−1 ⊕ g0 ⊕ g1 . S’il existe une forme bilinéaire symétrique ( · ; · ) invariante sur la partie locale vérifiant (gi , gj ) = 0 dès que i + j 6= 0, alors la forme s’étend de manière unique en une telle forme à g tout entier (ici l’invariance est validée dès qu’elle a un sens). CHARLES COCHET 12 2.9. Algèbre de Heisenberg. — Considérons l’exemple le plus dégénéré, à savoir l’algèbre de Lie g(0) associée à la matrice nulle de taille n × n (éventuellement infinie). Dans ce cas on a [e i , ej ] = 0, [fi , fj ] = 0 et [ei , fj ] = δi,j pour tous i, j. Ainsi X X Cfi . Cei ⊕ g(0) = h ⊕ i P ∨ i Cαi . Le centre de g(0) est c = tels que X h=c+ Cdi i De plus dim(h) = 2n et on peut choisir des éléments d1 , . . . , dn ∈ h et [di , ej ] = δi,j ej , [di , fj ] = −δi,j fj (i, j = 1, . . . , n). i On définit une forme bilinéaire symétrique invariante non-dégénérée en posant (α∨ i , di ) = 1, et tous les autres nuls. P P Remarquons que ρ = 0 et que l’opérateur de Casimir a pour expression Ω = 2 i α∨ i di +2 i fi ei . Posons P ∨ 0 c1 = i,j C(α∨ − α ) ⊂ c. Alors l’algèbre g (0)/c est une algèbre de Heisenberg d’ordre n, c’est-à-dire 1 i j de base ei , fi (i = 1, . . . , n), z telle que [ei , fj ] = δi,j z (i, j = 1, . . . , n) soient les seuls crochets non nuls. (ei , fi ) = 1, ALGÈBRES DE KAC-MOODY 13 3. Groupe de Weyl et représentations intégrables des algèbres de Kac-Moody Dans cette section, nous allons étudier systématiquement les algèbres de Kac-Moody. Rappelons qu’une telle algèbre est l’algèbre de Lie g(A) associée à une matrice de Cartan généralisée A. L’objet central est le groupe de Weyl W d’une algèbre de Kac-Moody, qui est une généralisation du groupe de Weyl classique. Cependant le groupe W est parfois infini et la réunion des W -translatés de la chambre fondamentale est un cône convexe strictement inclus dans l’algèbre de Cartan réelle hR . 3.1. Algèbre duale d’une algèbre de Kac-Moody. — Soit A une matrice de Cartan généralisée ; sa matrice transposée tA est également une matrice de Cartan généralisée. Soit (h, Π, Π∨ ) une réalisation de A ; alors (h∗ , Π∨ , Π) est une réalisation de tA. Donc si (g(A), h, Π, Π∨ ) est le quadruplet associé à A, alors (g(tA), h∗ , Π∨ , Π)) est le quadruplet associé à tA. Les algèbres de Kac-Moody g(A) et g(tA) sont P ∨ ∨ dites duales. Remarquons que le treillis des racines dual Q = i Zαi ⊂ h0 ⊂ h est le treillis des racines de g(tA). Notons ∆∨ ⊂ Q∨ le système des racines ∆(tA) de g(tA). On l’appelle le système des racines dual de g(A). A la différence du cas classique, il n’y a pas toujours de bijection entre ∆ et ∆ ∨ . 3.2. Rappels de théorie des représentations de sl2 (C). — Soit 0 1 0 0 1 0 e= , f= , h= 0 0 1 0 0 −1 la base standard de sl2 (C). Alors [h, e] = 2e, [h, f ] = −2f et [e, f ] = h. À l’aide d’une récurrence sur k, on obtient dans l’algèbre enveloppante universelle U (sl2 ) les relations (39) [h, f k ] = −2kf k , (40) [h, ek ] = 2kek , [e, f k ] = −k(k − 1)f k−1 + kf k−1 h. Lemme 3.1. — (1) Soient V un sl2 (C)-module et v ∈ V tels que h(v) = λv pour un λ ∈ C. Posons vj = f j (v)/j!. Alors (41) h(vj ) = (λ − 2j)vj . Si de plus e(v) = 0 alors (42) e(vj ) = (λ − j + 1)vj−1 . (2) Pour tout entier k ∈ N, il existe un unique sl2 (C)-module irréductible V (k + 1) de dimension k + 1 (à isomorphisme près) . Dans une certaine C-base {vj }kj=0 de l’espace de ce module, l’action de sl2 est donnée par h(vj ) = (k − 2j)vj , f (vj ) = (j + 1)vj+1 , e(vj ) = (k + 1 − j)vj−1 . Ici j = 0, . . . , k et vk+1 = 0 = v−1 . Démonstration. — Les formules (41–42) découlent de (39–40). Soit maintenant un sl 2 -module irréductible de dimension k + 1. Choisissons un vecteur propre u ∈ V de h pour la valeur propre µ. Il découle de (39) que si le vecteur es (u) est non nul, alors c’est encore un vecteur propre de h pour la valeur propre µ + 2s. Puisque V est de dimension finie, il existe v = es (u) 6= 0 tel que e(v) = 0 et h(v) = λv. Posons vj = f j (v)/j!. En tant que V -module, on déduit de (42) que λ est un entier positif, disons m, tel que {vj }0≤j≤m est linéairement indépendant et vm+1 = 0. Ainsi m = k et (2) s’ensuit. 3.3. sl2 (C)-triplets. — Soit g(A) une algèbre de Kac-Moody de générateurs de Chevalley e i , fi (i = 1, . . . , n). Posons g(i) = Cei +Cα∨ i +Cfi . Cette sous-algèbre de g est isomorphe à sl2 avec la base standard {ei , α∨ , f } ; ce triplet est ainsi appelé sl2 -triplet. i i Proposition 3.2. — Les générateurs de Chevalley vérifient (43) ad(ei )1−ai,j ej = 0, ad(fi )1−ai,j fj = 0 Ces relations sont appelées relations de Serre. si i 6= j. CHARLES COCHET 14 Démonstration. — Vérifions la seconde relation ; la première s’en déduit à l’aide de l’automorphisme de Chevalley ω, dont l’action sur les générateurs de g(A) est décrite en (13). Notons v = fj et θi,j = ad(fi )1−ai,j fj . Regardons g(A) comme un g(i) -module en restreignant la représentation adjointe. On a alors α∨ i (v) = −ai,j v et ei (v) = 0 si i 6= j. Ainsi le lemme 3.1 et les propriétés (1-2) de A impliquent [ei , θi,j ] = (1 − ai,j )(−ai,j − (1 − ai,j ) + 1) ad(fi )−ai,j fj = 0 si i 6= j. Les relations (7) ont également pour conséquence [ek , θi,j ] = 0 si k est différent de i et de j. En outre [ek , θi,j ] = 0 si k = i et ai,j 6= 0. Enfin, si k = j et ai,j = 0 alors [ej , θi,j ] = [ej , [fi , fj ]] = aj,i fi = 0 d’après (3). Finalement [ek , θi,j ] = 0 pour tout k ; en appliquant le lemme 1.8, on obtient le résultat escompté. 3.4. Éléments localement nilpotents. — On a maintenant besoin d’un fait général sur les modules sur une algèbre de Lie g. Soit V un g-module. Un élément x ∈ g est localement nilpotent si pour tout v ∈ V il existe m ∈ N tel que xm (v) = 0. Rappelons la formule du binôme, valable dans n’importe quelle algèbre associative : k X k k xs y k−s si xy = yx. (44) (x + y) = s s=0 Lemme 3.3. — (1) Soit y1 , y2 , . . . un système de générateurs d’une algèbre de Lie g. Soit x ∈ g tel que ad(x)mi yi = 0 pour des entiers mi . Alors ad(x) est localement nilpotent sur g. (2) Soit v1 , v2 , . . . un système de générateurs d’un g-module V . Soit x ∈ g localement nilpotent sur g et tel que xmi (vi ) = 0 pour des entiers mi . Alors x est localement nilpotent sur V . Démonstration. — Puisque ad(x) est une dérivation de g, on a la formule de Leibnitz k X k k ad(x) [y, z] = [ad(x)i y, ad(x)k−i z], i i=0 qui permet de démontrer (1) par récurrence sur la longueur des commutateurs en les y i . L’assertion (2) est une conséquence de la formule suivante (pour λ = µ = 0) : k X k k ((ad(x) − λ)s a)(x − µ)k−s (k ≥ 0, λ, µ ∈ C) (45) (x − λ − µ) a = s s=0 valable dans toute algèbre associative. Afin de démontrer (45), remarquons que ad(x) = L x − Rx , où Lx et Rx sont les opérateurs de multiplication à gauche et à droite respectivement, et que ces opérateurs L x et Rx commutent. On applique enfin la formule du binôme (44) à Lx − λ − µ = (ad(x) − λ) + (Rx − µ). En appliquant la formule du binôme (44) à ad(x) = Lx − Rx , on obtient la formule (valable dans toute algèbre associative) k X k (46) ad(x)k a = (−1)s xk−s axs . s s=0 3.5. sl2 (C)-triplets et éléments localement nilpotents. — Lemme 3.4. — Soit g(A) une algèbre de Kac-Moody de générateurs de Chevalley e i , fi (i, j = 1, . . . , n). ALors les opérateurs ad(ei ) et ad(fi ) sont localement nilpotents sur g(A). Démonstration. — D’après les relations (7) et (43), nous avons ad(ei )|ai,j |+1 x = 0 = ad(fi )|ai,j |+1 x si x = ej ou x = fj . Nous avons également ad(ei )2 h = 0 = ad(fi )2 h si h ∈ h. Le résultat s’obtient enfin par application du lemme 3.3 (1). ALGÈBRES DE KAC-MOODY 15 3.6. Modules h-diagonalisables, modules intégrables. — Un g(A)-module V est h-diagonalisable L si V se décompose sous la forme V = ∗ λ∈h Vλ , où Vλ = {v ∈ V ; h(v) = λ(v)v pour tout h ∈ h}. L’espace Vλ est appelé espace de poids. Une forme λ ∈ h∗ telle que Vλ 6= {0} est dite poids ; la dimension de Vλ est alors appelée multiplicité de λ, et notée multV (λ). On définit de façon analogue un g0 (A)-module h0 -diagonalisable, ses poids, etc. Un module h-diagonalisable (resp. h0 -diagonalisable) V sur une algèbre de Kac-Moody g(A) (resp. 0 g (A)) est dit intégrable si les opérateurs ei et fi sont localement nilpotents sur V . Remarquons que le module adjoint pour la représentation adjointe d’une algèbre de Kac-Moody g(A) est un module intégrable d’après le lemme 3.4. La proposition suivante justifie le terme « intégrable ». Proposition 3.5. — Soit V un g(A)-module intégrable. (1) L’espace vectoriel V se décompose en tant que g(i) -module en une somme directe de modules irréductibles de dimension finie et h-invariants ; ainsi l’action de g(i) sur V peut être ”intégrée” à l’action du groupe SL2 (C). (2) Soient λ ∈ h∗ un poids de V et αi une racine simple de g(A). Notons M l’ensemble des t ∈ Z tels que λ + tαi est un poids de V ; posons mt = multV (λ + tαi ). Alors : (a) L’ensemble M est l’intervalle entier fermé [−p, q], où p et q sont des entiers positifs ou infinis tels que p − q = hλ, α∨ i i lorsque p et q sont finis. Si multV (λ) < +∞, alors p et q sont finis. (b) Le morphisme ei : Vλ+tαi −→ Vλ+(t+1)αi est injectif pour t ∈ [−p, − 21 hλ, α∨ i i[. En particulier la fonction t 7→ mt est croissante sur cet intervalle. (c) La fonction t 7→ mt est symétrique par rapport à t = − 21 hλ, α∨ i i. (d) Si à la fois λ et λ + α∨ i sont des poids, alors ei (V ) 6= 0. Démonstration. — D’après (40), nous avons k−1 ei fik (v) = k(1 − k + hλ, α∨ (v) + fik ei (v) pour tout v ∈ Vλ . i i)fi P On en déduit que le sous-espace U = k,m≥0 fik em i (v) est h + g(i) -invariant. Le fait que ei et fi soient localement nilpotents implique dim(U ) < +∞. Le g(i) -module U étant complètement réductif, on peut le décomposer en une somme directe de modules irréductibles h-invariants de dimension finie. Ainsi chaque vecteur v ∈ V est dans une sommme directe de g(i) -modules irréductibles h-invariants de dimension finie et (1) est démontrée. P Pour (2), on utilise (1) et le lemme 3.1 (2). Posons U = k∈Z Vλ+kαi ; c’est un (h + g(i) )-module qui est somme directe de (h + g(i) )-modules irréductibles de dimension finie. Posons p = − inf(M ) et q = sup(M ). Les entiers p et q sont positifs puisque 0 ∈ M . Maintenant toutes les assertions de (2) 1 ∨ découlent du lemme 3.1 (2), puisque hλ + tαi , α∨ i i = 0 pour t = − 2 hλ, αi i. (47) Le corollaire suivant de la proposition 3.5 (1) est très utile. Corollaire 3.6. — (1) Si λ est un poids d’un g(A)-module intégrable V tel que λ + α i (resp. λ − αi )n’est pas un poids, alors hλ, α∨ i i ≥ 0 (resp. ≤ 0). (2) Si λ est un poids de V , alors λ − hλ, α∨ i iαi est également un poids et a la même multiplicité. Remarque 3.7. — Soit V un g0 (A)-module intégrable. Alors la proposition 3.5 et le corollaire 3.6 sont encore valables en remplaçant h par h0 , etc. De plus la nilpotence locale des ei et fi sur V nous garantit la hi -diagonalisabilité, et la h0 -diagonalisabilité si n < +∞. Ceci découle d’un résultat plus général qui sera démontré dans la section 3.8. 3.7. Groupe de Weyl. — Soit g(A) une algèbre de Kac-Moody. Pour tout i = 1, . . . , n, définissons une réflexion fondamentale ri de l’espace h∗ en posant ri (λ) = λ − hλ, α∨ i iαi (λ ∈ h∗ ). C’est bien une réflexion puisque l’ensemble de ses points fixes est Ti = {λ ∈ h∗ ; hλ, α∨ i i = 0} et ri (αi ) = −αi . Le sous-groupe W = W (A) de GL(h∗ ) engendré par les réflexions fondamentales est appelé groupes de Weyl de g(A). L’action de ri sur h∗ induit une réflexion fondamentale ri∨ sur h. Ainsi les groupes de Weyl d’algèbres de Kac-Moody duales sont contragrédients, et nous les identifierons. La proposition suivante est une conséquence immédiate du corollaire 3.6(2) et du lemme 3.4. CHARLES COCHET 16 Proposition 3.8. — (1) Soit V un g(A)-module intégrable. Alors multV (λ) = multV (wλ) pour tous λ ∈ h∗ et w ∈ W . En particulier, l’ensemble des poids est W -invariant. (2) Le système des racines ∆ de g(A) est W -invariant et mult(α) = mult(wα) pour tous α ∈ ∆ et w ∈ W. Nous aurons besoin plus tard du résultat suivant, découlant du lemme 1.3. Lemme 3.9. — Si α ∈ ∆+ et ri (α) < 0, alors α = αi . En d’autres termes ∆+ \ {αi } est ri -invariant. 3.8. Une autre approche du groupe de Weyl. — Soit a un opérateur localement nilpotent sur un espace vectoriel V . On peut alors définir l’exponentielle 1 1 exp(a) = 1 + a + a2 + · · · 1! 2! de a. Cet opérateur a certaines des propriétés usuelles, notamment exp(ka) = exp(a) k pour k ∈ Z. Si b est un opérateur sur V tel que ad(a)N b = 0 pour un N , alors on obtient (48) exp(a)b exp(−a) = exp(ad(a))b en appliquant la formule (46). Lemme 3.10. — Soit π une représentation intégrable de g(A) dans un espace vectoriel V . Pour tout i, posons riπ = exp(fi ) exp(−ei ) exp(fi ). Alors (1) riπ (Vλ ) = Vri (λ) . ad (2) L’opérateur ri est un automorphisme de g(A). ad (3) On a ri h = ri . Démonstration. — Soit v ∈ Vλ . Alors h(riπ (v)) = hλ, hiriπ (v) si hαi , hi = 0. donc pour démontrer (1) ∨ ∨ π et (3) il suffit de vérifier que α∨ i (ri (v)) = −hλ, αi iri (v). Ceci est une conséquence de (49) π ∨ (riπ )−1 α∨ i ri = −αi . D’après (48), il suffit de démontrer (49) uniquement dans le cas de la représentation adjointe de sl 2 ; encore d’après (48), il suffit de prouver (49) pour la représentation naturelle bi-dimensionnelle de sl 2 . Mais pour cette représentation nous avons 1 0 1 −1 0 −1 exp(fi ) = , exp(−ei ) = , riπ = , 1 1 0 1 1 0 et (49) est claire. L’assertion (2) découle de (48) appliquée à la représentation adjointe. Remarque 3.11. — Soit (V, π) un g(A)-module intégrable dont le noyau est dans h. D’après la proposition 3.5, l’action de la sous-algèbre g(i) sur V s’intègre en une représentation πi : SL2 (C) −→ GL(V ). Les groupes πi (SL2 (C)) engendrent un sous-groupe Gπ de GL(V groupe Gπ peut être vu comme le ). Ce 0 −1 groupe associé à l’algèbre de Lie g(A). Les éléments riπ = πi engendrent un sous-groupe W̃ π 1 0 de Gπ . Ce groupe W̃ π contient un sous-groupe abélien distingué D π engendré par les (riπ )2 . On démontre alors que W (A) = W̃ π /Dπ . On dit qu’un élément x d’une algèbre de Lie g est localement fini sur un g-module V si tout v ∈ V est dans un sous-espace x-invariant de dimension finie. Remarquons qu’un élément diagonalisable et localement nilpotent est localement fini. Par ailleurs, la formule (48) est vérifiée si a est localement fini sur V et si l’espace vectoriel engendré par les ad(a)j b est de dimension finie. Proposition 3.12. — Soit g une algèbre de Lie et V un g-module. Supposons que l’algèbre g est engendrée par l’ensemble FV des éléments ad-localement finis agissant de façon localement finie sur V . Alors (1) L’espace vectoriel g est linéairement engendré par FV . En particulier, si g est engendrée en tant qu’algèbre par l’ensemble F des éléments ad-localement finis, alors g est engendrée en tant qu’espace vectoriel par F . ALGÈBRES DE KAC-MOODY 17 (2) Si dim(g) < +∞, alors V est g-localement fini (tout vecteur de V est dans un sous-g-module de dimension finie). Démonstration. — Notons gV le C-espace linéairement engendré par FV . Soit a ∈ FV . La formule (48) implique que gV est invariant sous l’action des automorphismes exp(t ad(a)). Mais puisque = [a, b], il s’ensuit que [a, gV ] ⊂ gV et (1) est vérifiée. L’assertion (2) découle de (1) limt−→0 exp(t ad(a))b−b t et du théorème de Poincaré-Birkhoff-Witt. 3.9. Invariance sous l’action de W de la forme bilinéaire invariante standard. — Soient A une matrice de Cartan généralisée symétrisable et ( · , · ) une forme bilinéaire invariante standard sur g(A). Proposition 3.13. — La restriction de la forme bilinéaire ( · , · ) à h∗ est W -invariante. Démonstration. — Puisque |ri (αi )|2 = | − αi |2 = |αi |2 6= 0, il suffit de vérifier que (λ, αi ) = 0 implique (ri (λ), αi ) = 0. Mais ri (λ) = λ d’après (27), d’où le résultat. 3.10. La condition d’effacement. — Retournons à l’étude du groupe de Weyl W d’une algèbre de Kac-Moody g(A). Commençons comme un lemme technique. Lemme 3.14. — Si αi est une racine simple et ri1 · · · rit (αi ) < 0, alors il existe 1 ≤ s ≤ t tel que (50) (ri1 · · · rit )ri = ri1 · · · ris−1 ris+1 · · · rit . Démonstration. — Posons βk = rik+1 · · · rit (αi ) pour k < t et βt = αi . L’hypothèse implique β0 < 0. Par définition βt > 0. Ainsi, il existe s tel que βs−1 < 0 et βs > 0. Mais βs−1 = ris (βs ), donc d’après le lemme 3.9 on a βs = αis . On obtient alors (51) αis = w(αi ), avec w = ris+1 · · · rit . Mais (52) w(αi ) = αj ∨ (w ∈ W ) =⇒ w(α∨ i ) = αj . En effet, on a w = w̃ h pour un w̃ dans le sous-groupe de Aut(g) engendré par les riad . En appliquant w̃ ∨ ∨ aux deux côtés de [gαi , g−αi ] = Cα∨ i , on obtient d’après le lemme 3.10 (2) la formule Cw(αi ) = Cαj . ∨ ∨ ∨ ∨ Puisque w(αi )(w(αi )) = hαi , αi i = 2, on obtient w(αi ) = αj . D’après (51–52), on en déduit ris = wri w−1 . En multipliant les deux côtés par ri1 · · · ris−1 à gauche et par ris+1 · · · rit ri à droite, nous obtenons le résultat escompté. 3.11. Décompositions réduites. — La longueur de w ∈ W est le plus petit entier ` tel que w puisse s’écrire ri1 · · · ri` , et est notée `(w). On vérifie aisément que `(w −1 ) = `(w). Si w = ri1 · · · ri` avec ` = `(w), on dit que l’on a une décomposition réduite de w ; elle n’est pas unique en général. De fait, nous noterons R(w) l’ensemble des suites d’indices (i1 , . . . , il ) telles que ri1 · · · ri` soit une décomposition réduite de w. Notons que det h∗ (ri ) = −1 et ainsi (53) det h∗ (w) = (−1)`(w) pour tout w ∈ W. Remarquons que `(w) = |{α ∈ ∆+ ; w(α) < 0}|. Lemme 3.15. — Soit w = ri1 · · · rit ∈ W une décomposition réduite de w. Fixons une racine simple αi . Alors (1) On a `(wri ) < `(w) si et seulement si w(αi ) < 0. (2) La racine w(αit ) est négative. (3) (Condition d’échange) Si `(wri ) < `(w), alors il existe 1 ≤ s ≤ t tel que ris (ris+1 · · · rit ) = (ris+1 · · · rit )ri . Démonstration. — Appliquons le lemme 3.14 à w. Si w(αi ) < 0, nous obtenons `(wri ) < `(w). Si par contre w(αi ) > 0, alors wri (αi ) < 0 d’où `(w) = `(wri2 ) < `(wri ) et (1) est prouvée. L’assertion (2) découle de (1). Enfin, supposons `(wri ) < `(w). Alors w(αi ) < 0 d’après (1). D’autre part le lemme 3.14 implique la condition d’échange, en multipliant (51) par (ri1 · · · rit )−1 à gauche et par ri à droite. CHARLES COCHET 18 3.12. Propriétés géométriques du groupe de Weyl. — Le cône convexe C = {h ∈ h R ; hαi , hi ≥ 0 pour tout i} est appelé chambre fondamentale ou chambre de Weyl. Les cônes convexes w(C) (w ∈ W ) S sont appelés chambres, et leur union X = w∈W w(C) est le cône de Tits. On construit de même C ∨ et X ∨ dans h∗R . Proposition 3.16. — (1) Pour tout h ∈ C, le stabilisateur Wh = {w ∈ W ; w(h) = h} de h est engendré par les réflexions fondamentales qu’il contient. (2) La chambre fondamentale C est le domaine fondamental pour l’action de W sur X. En d’autres termes, une orbite W · h (h ∈ X) intersecte C en exactement un point. En particulier, le groupe de Weyl W opère de façon simplement transitive sur les chambres. (3) Le cône de Tits est égal à {h ∈ hR ; hα, hi < 0 pour un nombre fini de α ∈ ∆+ } ; c’est donc un cône convexe. P (4) La chambre fondamentale vérifie C = {h ∈ hR ; h − w(h) ∈ i Nα∨ i pour tout w ∈ W }. (5) Nous avons |W | < +∞ ⇐⇒ X = hR ⇐⇒ |∆| < +∞ ⇐⇒ |∆∨ | < +∞. (6) Si h ∈ X, alors |Wh | < +∞ si et seulement si h est dans l’intérieur de X. Démonstration. — Soit w = ri1 · · · ris une décomposition réduite de w. Prenons h ∈ C et supposons que h0 = w(h) ∈ C. On a hαis , hi ≥ 0 donc hw(αis ), h0 i ≥ 0. D’après le lemme 3.15 (2), on a w(αis ) < 0 d’où hw(αis ), h0 i ≤ 0. Ainsi hw(αis ), h0 i = 0 et hαis , hi = 0. Donc ri (h) = h et les assertions (1) et (2) s’ensuivent par récurrence sur `(w). Posons X 0 = {h ∈ hR ; hα, hi < 0 pour un nombre fini de α ∈ ∆+ }. Il est clair que C ⊂ X 0 . La section 3.7 implique que X 0 est ri -invariant, donc X 0 ⊃ X. Afin de démontrer l’inclusion réciproque, soit h ∈ X 0 . Posons Mh = {α ∈ ∆+ ; hα, hi < 0}. Cet ensemble est fini par définition de X 0 . Si Mh 6= ∅, alors il existe i tel que αi ∈ Mh . D’après le lemme 3.9, on a |Mri (h) | < |Mh |. Une récurrence sur |Mh | achève la démonstration de (3). P Posons C 0 = {h ∈ hR ; h − w(h) ∈ i Nα∨ i pour tout w ∈ W } ⊂ C. Démontrons l’inclusion réciproque par récurrence sur `(w). Pour `(w) = 1, c’est juste la définition de C. Supposons s = `(w) > 1 et w = ri1 · · · ris . On a h − w(h) = (h − ri1 · · · ris−1 (h)) + ri1 · · · ris−1 (h − ris (h)). Donc en appliquant l’hypothèse de récurrence au second terme du membre de droite ainsi que le lemme 3.15 (2) à ∆ ∨ , nous obtenons (4). Démontrons (5). Puisqu’un élément h0 de W · h tel que h0 − h soit de hauteur maximale est dans C, nous avons (i)=⇒(ii). Afin de démontrer (ii)=⇒(iii), prenons h dans l’intérieur de C. Alors hα, −hi < 0 pour tout α ∈ ∆+ et |∆| < +∞ d’après (3). Nous avons (iii)=⇒(i) d’après (54) (w(α) = α pour tout α ∈ ∆) =⇒ w = 1. Afin de démontrer (54), remarquons que si une décomposition réduite w = ri1 · · · rit n’est pas triviale, alors le lemme 3.15 (2) implique w(αit ) < 0, ce qui est absurde. Le fait que (iv) et (i) sont équivalents découle des mêmes raisonnements avec le système des racines duales. Pour démontrer (6), on peut supposer h ∈ C. Alors l’assertion découle de (1) en appliquant l’équivalence de (5) (i) et (5) (ii) à Wh opérant sur h/Ch. Remarquons que d’après la proposition 3.16 (2), le stabilisateur d’un point dans l’intérieur d’une chambre est trivial. 3.13. Groupes de Coxeter. — Un groupe de Coxeter est un groupe engendré par des symboles r1 , . . . , rn satisfaisant aux relations (55) ri2 = 1 (i = 1, . . . , n), (ri rj )mi,j = 1 (i, j = 1, . . . , n). Ici mi,j ∈ N t {+∞}. Proposition 3.17. — Le groupe de Weyl W d’une algèbre de Kac-Moody symétrisable est un groupe de Coxeter, où les mi,j sont donnés par ai,j aj,i mi,j 0 1 2 3 ≥4 2 3 4 6 +∞ ALGÈBRES DE KAC-MOODY 19 Démonstration. — Vérifions les relations (55). La première est évidente puisque r i est une réflexion. Le sous-espace t = Rαi+ Rαj est invariantpar ri et par rj , et les matrices de ri et rj dans la base {ri , rj } 1 0 −1 −ai,j] . Donc la matrice de ri rj dans cette base est et sont −aj,i −1 0 1 −1 + ai,j aj,i ai,j , (56) aj,i −1 et l’on obtient (57) det(ri rj − λI) = λ2 + (2 − ai,j aj,i )λ + 1. t Ainsi ri rj est d’ordre infini si ai,j aj,i ≥ 4 et l’ordre est donné par le tableau dans les autres cas. En effet ∨ h∗ = t ⊕ {λ ∈ h∗ ; hλ, α∨ i i = hλ, αj i = 0} si ai,j aj,i 6= 4. CHARLES COCHET 20 4. Classification des matrices de Cartan généralisées Afin de développer la théorie du système des racines d’une algèbre de Kac-Moody, on a besoin de propriétés des matrices de Cartan généralisées. Plaçons-nous dans le cas plus général d’une matrice A = (ai,j )1≤i,j≤n vérifiant les trois propriétés (m1) La matrice A est indécomposable. (m2) ai,j ≤ 0 si i 6= j. (m3) ai,j = 0 implique aj,i = 0. Remarquons qu’une matrice de Cartan vérifie (m2) et (m3), et que l’on peut supposer (m1) sans perte de généralité. Pour u = t(u1 , . . . , un ) ∈ Rn , on écrira u > 0 si ui > 0 pour tout i et u ≥ 0 si ui ≥ 0 pour tout i. 4.1. Un peu d’algèbre linéaire. — Rappelons que Un système d’inégalités réelles homogènes λi > 0 (i = 1, . . . , n) admet une solution si et seulement si il existe une relation de dépendance linéaire non triviale à coefficients positifs entre les λ i . Nous utiliserons une version améliorée de ce résultat, à savoir Lemme 4.1. — Soit A = (ai,j ) est une matrice réelle de taille m × s. Supposons qu’il n’existe aucun u ≥ 0 non nul tel que (tA)u ≥ 0. Alors il existe v > 0 tel que Av < 0. P Démonstration. — Soit λi = j ai,j xj , où les xj forment la base standard du dual de Rs . Alors le lemme est une conséquence du rappel ci-dessus pour le système d’inégalités −λi > 0 (i = 1, . . . , m), xj > 0 (j = 1, . . . , s). Nous avons besoin d’un autre lemme. Lemme 4.2. — Soit A vérifiant (m1)–(m3). Si Au ≥ 0 pour un u ≥ 0, alors ou bien u > 0 ou bien u = 0. Démonstration. — Supposons u 6= 0. Réordonnons les indices de sorte à avoir ui = 0 pour i ≤ s et ui > 0 pour i > s. D’après (m2) et (m3), l’inégalité Au ≥ 0 implique ai,j = aj,i = 0 pour i ≤ s et j > s, ce qui contredit (m1). 4.2. Classification des matrices de Cartan généralisées. — Théorème 4.3. — Soit A une matrice réelle de taille n × n satisfaisant à (m1)–(m3). Alors on est dans un et un seul des trois cas suivants pour à la fois A et tA : (Fin) Si det(A) 6= 0 : il existe u > 0 tel que Au > 0. Alors Av ≥ 0 implique v > 0 ou v = 0. (Aff) Si corang(A) = 1 : il existe u > 0 tel que Au = 0. Alors Av ≥ 0 implique Av = 0. (Ind) Si corang(A) > 1 : il existe u > 0 tel que Au < 0. Alors Av ≥ 0 et v ≥ 0 impliquent v = 0. Démonstration. — En remplaçant v par −v, on obtient que dans les cas (Fin) et (Aff) il n’existe aucun v ≥ 0 tel que Av ≤ 0 et Av 6= 0. Ainsi les cas (Fin) et (Aff) sont incompatibles avec (Ind) . En outre (Fin) et (Aff) s’excluent mutuellement à cause du rang de A. Démontrons maintenant que les matrices A et tA sont d’un des trois types. Considérons le cône convexe KA = {u ; Au ≥ 0}. D’après le lemme 4.2, ce cône ne peut intersecter le bord du cône {u ≥ 0} qu’en u = 0. Par conséquent KA ∩ {u ≥ 0} ⊂ {u > 0} ∪ {0}. Ainsi la propriété (58) KA ∩ {u ≥ 0} 6= {0} n’est possible que dans l’un des deux cas suivants : (1) KA ⊂ {u > 0} ∪ {0}. (2) Le sous-espace KA = {u ; Au = 0} est de dimension 1. La propriété (1) est équivalente à (Fin) ; en effet, le déterminant de A est non nul puisque K A ne contient pas de sous-espace de dimension 1. La propriété (2) est équivalente à (Aff) . Nous avons également prouvé que (58) implique qu’il n’existe aucun u ≥ 0 tel que Au ≤ 0 et Au 6= 0. D’après le lelle 4.1, il s’ensuit que si (58) est vérifiée alors à la fois A et tA sont de type (Fin) ou (Aff) . Si la propriété (58) n’est pas vérifiée, alors encore grâce au lemme 4.1 les matrices A et tA sont de type (Ind) . ALGÈBRES DE KAC-MOODY 21 On dit que A est de type fini (resp. affine, indéfini) lorsque l’on se trouve dans le cas (Fin)(resp. (Aff), (Ind)). Corollaire 4.4. — Soit A une matrice réelle de taille n × n satisfaisant à (m1)–(m3). Alors A est de type fini (resp. affine, indéfini) si et seulement si il existe un vecteur α > 0 tel que Aα > 0 (resp. = 0, < 0). 4.3. Une propriété des matrices de type (Fin) et (Aff) . — Rappelons qu’une sous-matrice A S = (ai,j )i,j∈J avec J ⊂ {1, . . . , n} est appelée sous-matrice principale de A = (ai,j )1≤i,j≤n . Le déterminant d’une sous-matrice principale est appelé mineur principal. Lemme 4.5. — Si A est de type (Fin) ou (Aff) , alors toute sous-matrice principale propre de A se décompose en une somme directe de matrices de type fini. Démonstration. — Pour un vecteur u, posons uS = (ui )i∈S . S’il exite u > 0 tel que Au ≥ 0, alors AS uS ≥ 0 et n’est nul que si et seulement si ai,j = 0 pour i ∈ S et j ∈ / S. Le dernier cas est impossible puisque A est indécomposable. Le lemme découle finalement du théorème 4.3. 4.4. Critère pour qu’une matrice symétrique soit de type fini ou affine. — Lemme 4.6. — Une matrice symétrique A vérifiant (m1)–(m3) est de type fini (resp. affine) si et seulement si elle est définie positive (resp. semi définie positive de rang n − 1). Démonstration. — Si A est semi définie positive, alors elle est de type fini ou affine ; en effet sinon il existerait un vecteur u > 0 tel que Au > 0, ce qui entraînerait tuAu < 0. Les cas (Fin) et (Aff) sont distingués par le rang. Soit maintenant A de type (Fin) ou (Aff) . Il existe alors u > 0 tel que Au ≥ 0. Pour tout réel λ > 0, nous avons ainsi (A + λI)u > 0 ; le théorème 4.3 implique qu’alors la matrice A + λI est de type fini. Il s’ensuit que det(A + λI) 6= 0 pour tout λ > 0 et toutes les valeurs propres de A sont positives. 4.5. Encore une propriété des matrices de type fini ou affine. — Lemme 4.7. — Soit A une matrice de type (Fin) ou (Aff) telle que ai,i = 2 et ai,j aj,i est soit nul, soit ≥ 1. Alors A est symétrisable. Si (59) ai1 ,i2 ai2 ,i3 · · · ais ,i1 6= 0 alors A est de la forme pour des indices distincts i1 , . . . , is avec s ≥ 3, 2 −u1 −u−1 2 1 .. . 0 0 −un 0 pour des nombres positifs tels que u1 · · · un = 1. 0 0 2 −u−1 n−1 −u−1 n 0 −un−1 2 Démonstration. — La seconde assertion implique la première. Supposons maintenant que (59) soit vérifiée. En prenant le plus grand s possible, on vérifie qu’il existe une sous-matrice principale B de A de la forme 2 −b1 0 −b0s −b01 2 0 0 . .. . 0 0 2 −bs−1 −bs 0 −b0s−1 2 D’après le lemme 4.5, la matrice B est de type fini ou affine. Le théorème 4.3 nous assure de l’existence d’un vecteur u > 0 tel que Bu ≥ 0. Quitte à remplacer B par diag(u)−1 B diag(u), on peut supposer t u = (1, . . . , 1). Mais alors Bu ≥ 0 implique que la somme des coefficients de B est positive, c’est-à-dire s X (60) 2s − bi + b0i ≥ 0. i=1 22 CHARLES COCHET Puisque bi b0i ≥ 1, on a bi + b0i ≥ 2. L’inégalité (60) implique alors bi + b0i = 2, et ainsi bi = b0i = 1 pour tout i. La matrice B est par conséquent symétrisable. La matrice A est alors également symétrisable. 4.6. Classification des matrices de Cartan généralisées de type (Fin) et (Aff) . — Soit A = (ai,j )1≤i,j≤n une matrice de Cartan généralisée. On lui associe un graphe S(A) à n sommets, appelé diagramme de Dynkin, de la façon suivante. Si ai,j aj,i ≤ 4 et |ai,j | ≥ |aj,i |, les sommets i et j sont reliés par |ai,j | lignes ; ces lignes pointent vers i si |ai,j | > 1. Si |ai,j aj,i | > 4, les sommets i et j sont reliés par une ligne épaisse équipée d’un couple d’entiers ordonné |ai,j |, |aj,i |. Le graphe S(A) est connexe si et seulement si A est indécomposable. La matrice A est déterminée par le graphe S(A) ainsi que l’énumération de ses arêtes. On dira que S(A) est de type fini (resp. affine, indéfini) si A est de type fini (resp. affine, indéfini). Proposition 4.8. — (1) A est de type fini si et seulement si ses mineurs principaux sont strictement positifs. (2) A est de type affine si et seulement si ses mineurs principaux propres sont strictement positifs et det(A) = 0. (3) Si A est de type fini ou affine, alors tout sous-diagramme propre de S(A) est une réunion de diagrammes de Dynkin (connexes) de type fini. (4) Si A est de type fini, alors S(A) ne contient aucun cycle. Si A est de type affine et contient un (1) cycle, alors S(A) est le cycle A` du tableau (Aff1). (5) La matrice A est de type affine si et seulement si il existe un vecteur δ > 0 tel que Aδ > 0. Un tel δ est unique à multiplication par un scalaire près. Démonstration. — Pour vérifier (1) et (2), il suffit de remarquer que d’après le lemme 4.7, si A est de type fini ou affine alors A est symétrisable (en d’autres termes, il existe une matrice diagonale D à termes diagonaux strictement positifs telle que DA soit symétrique) ; les points (1) et (2) découlent alors du lemme 4.6. L’assertion (3) est une conséquence du lemme 4.5, tandis que (4) se déduit du lemme 4.7. Le dernier point, quant à lui, provient du théorème 4.3. 4.7. Description des matrices de Cartan généralisées de type fini et de type affine. — Les diagrammes de Dynkin des matrices de Cartan généralisées de type fini se trouvent dans le tableau (Fin). Les diagrammes de Dynkin des matrices de Cartan généralisées de type fini se trouvent dans les tableaux (Aff1–Aff3). On fixe une fois pour toutes une énumération des sommets de S(A). Les diagrammes de type fini ont (1) leurs sommets énumérés α1 , . . . , α` . Chaque diagramme W` du tableau (Aff1) est obtenu à partir du diagramme X` en ajoutant un sommet α0 . Les sommets des diagrammes dans (Aff2) et (Aff3) sont notés α0 , . . . , α` . Le nombre entre parenthèses dans le tableau (Fin) est de déterminant de A. Les nombres sur les sommets des tableaux (Aff1–Aff3) sont les coefficients de dépendance linéaire entre les colonnes de A. 4.8. Une caractérisation des matrices de Cartan généralisées de type fini. — Proposition 4.9. — Soit A une matrice de Cartan généralisée indécomposable. On a équivalence entre : (1) La matrice A est de type fini. (2) La matrice A est symétrisable et la forme bilinéaire ( · , · )h est définie positive. R (3) Le groupe de Weyl W est fini. (4) L’ensemble des racines ∆ est fini. (5) L’algèbre g(A) est simple et de dimension finie. (6) Il existe une racine positive α ∈ ∆+ telle que α + αi ∈ / ∆ pour tout i = 1, . . . , n. Démonstration. — D’après le lemme 4.7 et la proposition 4.8, la forme bilinéaire ( · , · ) h est définie R positive si A est de type fini ; donc (1) implique (2). Si (2) est vérifiée, alors d’après la proposition 3.13 le groupe de Weyl W est dans O(( · , · )) et est ainsi compact ; puisque W préserve le treillis Q, il est discret. Donc W est fini, ce qui prouve que (2) implique (3). L’implication (3)⇒(4) est une conséquence de la proposition 3.16 (5). Il découle du théorème 1.12 (1) que (4)⇒(5). Pour (5)⇒(6), on prend pour α la racine de plus grande hauteur. ALGÈBRES DE KAC-MOODY 23 Enfin, soit α ∈ ∆+ telle que α + αi ne soit pas une racine pour tout i. Le corollaire 3.6 (1) implique que hα, αi i ≥ 0 pour tout i. Mais alors daprès le théorème 4.3 la matrice A est de type fini ou affine, et dans le dernier cas hα, αi i = 0 pour tout i. Dans ce cas, le lemme 1.8 nous assure de l’existence d’un i pour lequel α − αi ∈ ∆+ . Donc si A est de type affine, il découle de la proposition 3.5 (2) que α + αi ∈ ∆+ , ce qui est absurde. Ainsi A est de type fini, et on a démontré que (6)⇒(1). Remarque 4.10. — Une racine α ∈ ∆+ vérifiant (6) est appelée plus haute racine. On vérifie aisément P qu’il n’en existe qu’une seule. Elle est donnée par la formule θ = `i=1 ai αi , où les ai sont les nombres sur les diagrammes de Dynkin du tableau (Aff1) des matrices affines. 4.9. Description des matrices de Cartan généralisées de type fini et de type affine. — On fixe une énumération des sommets de S(A). Les diagrammes de type fini sont désignés par X` ; leurs sommets sont énumérés α1 , . . . , α` . Le nombre entre parenthèses après chaque diagramme (Fin) est le déterminant (i) de A. Les diagrammes de type affine sont désignés par X` , avec i = 1, 2 ou 3, ou bien (Aff1) –(Aff3) . Les nombres en exposant des αi dans les diagrammes affines sont les coefficients de dépendance linéaire entre les colonnes de A. Les sommets des diagrammes (Aff2) et (Aff3) sont notés α 0 , . . . , α` . On appelle (1) (1) algèbre affine non tordue une algèbre de type X` . Chaque diagramme X` est obtenu à partir de X` en ajoutant un sommet α0 . Une matrice de type X` s’obtient en enlevant la première ligne et la première (1) (1) colonne de la matrice de type X` associée. On dit que X` est la matrice étendue de X` . α1 − α2 − · · · − α`−1 − α` A` (` + 1) (1) α10 ⇔ α11 (1) α11 − α12 − · · · − α1` | {z } A1 A` (` ≥ 2) α10 α10 | α22 (1) α11 − (1) α10 ⇒ α21 − α22 − · · · − α2`−1 ⇐ α1` B` α1 − α2 − · · · − α`−1 ⇒ α` (2) B` (` ≥ 3) C` α1 − α2 − · · · − α`−1 ⇐ α` (2) C` (` ≥ 2) D` α` | α1 − α2 − · · · − α`−2 −α`−1 −α23 − · · · − α2`−1 ⇒ α2` α1` α10 (4) (1) D` (` ≥ 4) | | α11 − α22 −α23 · · · − α2`−2 −α1`−1 α10 | α26 E6 α6 | α1 − α2 − α3 −α4 − α5 E7 α7 | α1 − α2 − α3 −α4 − α5 − α6 E8 α8 | α1 − α2 − α3 − α4 − α5 −α6 − α7 (1) E8 F4 α1 − α 2 ⇒ α 3 − α 4 (1) F4 G2 α1 V α 2 (1) G2 (3) (1) E6 α27 (2) (1) E7 4 | (1) α10 − α21 − α32 − α43 − α54 − α65 −α46 − α27 (1) α10 − α21 − α32 ⇒ α43 − α24 (1) α10 − α21 V α32 α20 ← α11 D`+1 (` ≥ 2) (2) α20 ⇐ α21 − · · · − α2`−1 ⇐ α1` D4 A2` (` ≥ 2) | α10 − α21 − α32 − α43 −α34 − α25 − α16 α38 (2) A2 | α11 − α22 − α33 −α24 − α15 (2) α10 ⇐ α11 − · · · − α1`−1 ⇒ α1` (3) α10 − α21 W α12 (2) α10 − α21 − α32 ⇐ α23 − α14 α10 (2) A2`−1 (` ≥ 3) | α11 − α22 −α23 − · · · − α2`−1 ⇐ α1` E6 CHARLES COCHET 24 (1) A1 = 2 −2 −2 2 (1) C` 2 −1 = (1) E6 = −1 2 .. 2 .. .. .. . .. .. .. . . .. . . 2 −1 . −1 2 −2 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 −1 −1 2 .. . .. . .. . .. −1 2 −1 . 2 −1 . −2 2 −1 . .. . 2 −1 −1 2 −2 −1 2 (1) B` (1) D` 2 −1 = −1 , 2 −1 . , −1 2 −1 −1 2 −1 , −1 2 . .. .. −1 2 −1 = −1 −1 −1 2 −2 (2) A2` (` ≥ 2) = (1) F4 , −2 2 2 −1 2 −1 = (1) A` 2 −1 = −1 2 (1) E8 (1) E7 2 −1 = 2 (1) , G = −1 2 −1 2 −1 2 −1 2 .. −1 −1 2 −1 . −3 , 2 .. . .. . .. . −1 2 −1 . .. . .. . .. . .. .. 2 −1 −1 2 −1 −1 2 −1 2 −1 −1 2 −1 (2) A2 = 2 .. . 2 2 −4 2 −1 −1 2 . .. . −1 2 .. . .. −1 2 −1 −1 −1 2 .. . , . −2 2 . 2 −1 . −2 2 −1 . 2 −1 .. −1 2 −1 . −1 2 . 2 −1 −1 . −1 −1 (2) A2`−1 (` ≥ 3) = 2 .. −1 −1 −1 2 −1 2 −1 −1 −1 2 −1 = 2 −2 (2) , D = −1 `+1 2 , −1 2 2 .. . .. . .. . (3) D4 .. . 2 −1 . −1 2 2 = −1 −1 2 −3 −1 . 2 Index des notations ( · , · ), 7 (h, Π, Π∨ ), 2 A, 2 B, 7 D, 7 Lx , 13 M , 4, 14 Q, 2 Q∨ , 12 Q+ , 2 Rx , 13 U , 14 Uβ0 , 10 Uβ , 10 V, 4 V (λ), 13 V (k + 1), 12 Vλ , 4 ∆, 4 ∆∨ , 12 ∆+ , 4 ∆− , 4 Ω, 9 Ω0 , 9 Ω2 , 11 Π, 2 Π∨ , 2 αi , 2 α∨ i , 2 `, 2 i , 7 c, 5 g, 4 g0 (A), 3 g(A), 3 gα , 3 g(i) , 12 h, 2 h0 , 3, 7 h00 , 7 k(A), 11 n+ , 4 n− , 4 r, 3 ν, 7 ω0 , 10 ad, 3 ht(α), 2 mult(α), 3 multV (λ), 13 ρ, 9 θi,j , 12 g̃(A), 3 g̃α , 3 ñ+ , 3 ñ− , 3 ai,j , 2 bi,j , 7 e, 12 ei , 3 f , 12 fi , 3 h, 12 mt , 14 vj , 12 Index terminologique élément localement nilpotent, 13 algèbre dérivée, 3 de Heisenberg, 11 de Kac-Moody, 3 duale, 12 symétrisable, 7 locale, 11 base des co-racines, 2 des racines, 2 binôme(formule du), 13 Cartan (matrice de), 3 généralisée, 2 Cartan (sous-algèbre de), 3 Casimir (opérateur de), 9 Chevalley (générateurs de), 3 (involution de), 4 co-racine simple, 2 compacte forme, 11 involution, 11 complétion formelle, 5 décomposable (matrice), 2 (réalisation), 2 décomposition radicielle, 3 triangulaire, 4 diagonalisable (module), 4 duale algèbre de Kac-Moody, 12 espace de poids, 13 forme bilinéaire invariante, 7 standard, 8 forme compacte (d’une algèbre de Lie), 11 formelle (complétion), 5 (topologie), 5 formule de Leibnitz, 13 du binôme, 13 générateurs de Chevalley, 3 gradué (sous-espace), 4 graduation 26 d’un espace vectoriel, 4 d’une algèbre de Lie, 5 de type s, 5 principale, 5 h-diagonalisable (module), 13 hauteur d’une racine, 2 Heisenberg (algèbre de), 11 homogène (élément), 4 intégrable (module), 13 invariante (forme bilinéaire), 7 involution compacte, 11 de Chevalley, 4 isomorphes (réalisations), 2 Kac-Moody (algèbre de), 3 Leibnitz (formule de), 13 locale (algèbre de Lie), 11 localement nilpotent élément, 13 matrice de Cartan, 3 généralisée, 2 symétrisable, 7 module diagonalisable, 4 h-diagonalisable, 13 intégrable, 13 restreint, 9 multiplicité (d’un poids), 13 négative (racine), 4 opérateur de Casimir généralisé, 9 partie locale (d’une algèbre locale, 11 poids (espace de), 13 (multiplicité d’un), 13 d’un module, 13 CHARLES COCHET positive (racine), 4 principale (graduation), 5 quadruplet associé à une matrice, 3 quadruplets isomorphes, 3 réalisation d’une matrice, 2 décomposable, 2 réalisations (somme directe de), 2 isomorphes, 2 racine, 4 négative, 4 positive, 4 simple, 2 racines (système des), 4 radicielle (décomposition), 3 rang, 3 relations de Serre, 12 restreint (module), 9 Serre (relations de), 12 sl2 -triplet, 12 somme directe de réalisations, 2 sous-algèbre de Cartan, 3 sous-espace vectoriel gradué, 4 standard (forme invariante), 8 symétrisable (matrice), 7 algèbre de Kac-Moody, 7 symétrisation d’une matrice, 7 système des racines, 4 dual, 12 topologie formelle, 5 treillis des racines, 2 dual, 12 triangulaire (décomposition), 4 Charles Cochet, Equipe de théorie des groupes, représentations et applications, UMR 7586, Université Paris 7 – Denis Diderot, Case 7012, 2 place Jussieu, 75005 PARIS. • E-mail : [email protected] Url : http://www.math.jussieu.fr/~cochet