INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 ABRAHAM BROER Références [1] Ya. G. Berkovich and E.M. Zhmud’, Characters of finite groups. Part 1 and Part 2. Translations of Mathematical Monographs Vol. 172 and Vol. 181, Amer. Math. Soc., 1997. [2] C.W. Curtis et I. Reiner, Representation theory of finite groups and associative algebras, Interscience Publishers, New York, 1962. [3] D.S. Dummit et R.M. Foote, Abstract algebra. Third edition, 2003. [4] W. Fulton et J. Harris, Representation theory. A first course, G.T.M. 129, Springer-Verlag, New York, 1991. [5] I.M. Martin, Character theory of finite groups, Dover Publ., New York, 1994. [6] N. Jacobson, Basic algebra. I, W. H. Freeman and Co., San Francisco, Calif., 1974. [7] N. Jacobson, Basic algebra. II, W. H. Freeman and Co., San Francisco, Calif., 1980. [8] G. James et M. Liebeck, Representations and characters of groupes. Second edition, Cambridge University Press, Cambridge, United Kingdom, 2001. [9] J.-P. Serre, Représentations linéaires des groupes finis. Deuxième édition, Hermann, Paris, 1971. 1. Introduction Chaque matrice complexe n × n est conjuguée à une matrice de la forme normale de Jordan. Si un groupe agit linéairement sur Cn , chaque élément du groupe est représenté par une matrice. La théorie de la représentation cherche des formes normales pour toutes ces matrices simultanément. La théorie est particulièrement bien développée pour les groupes finis. Pour les groupes infinis la théorie générale est trop générale pour obtenir des résultats intéressant; il faut se restreindre sur certaines sous-catégories de représentations pour obtenir des théories satisfaisantes. Par exemple pour les groupes de Lie compacts et leurs représentations continues la théorie s’est aussi aussi bien développée comme la théorie des représentations des groupes finis. Dans ce cours il s’agit principalement de ce deux théories de représentations. Ces deux théories sont à la base de toute autre théorie de la représentations. Il faut mentionner qu’aussi autres catégories de groupes (et algèbres) et de classes de représentations sont bien étudiées et appliquées dans les domaines diverses comme la théorie des nombres, l’analyse harmonique ou la physique quantique. 1.1. Un exemple. Pour un exemple, considérons le groupe S3 des permutations de {1, 2, 3}. Dans le tableau suivant on donne trois représentations; ρ1 de dimension 1 (la représentation triviale), ρ2 Date: January 11, 2007. 1 2 ABRAHAM BROER de dimension 2 (la représentation signe) et ρ3 de dimension 2 (la représentation dihédrale). S3 ρ1 ρ2 ρ3 (1) (1) (1) ! 1 0 0 1 (1, 2) (1) (−1) ! −1 1 0 1 (1, 3) (1) (−1) ! 0 −1 −1 0 (2, 3) (1) (−1) ! 1 0 1 −1 (1, 2, 3) (1) (1) ! 0 −1 1 −1 (1, 3, 2) (1) (1) ! −1 1 −1 0 L’analogue du théorème de Jordan pour le groupe S3 est le résultat suivant. Soit µ une représentation de S3 par des matrices complexes n × n. Alors (possiblement après conjugaison) pour chaque permutation π ∈ S3 la matrice associée à π est une matrice block-diagonale de la forme diag(µ1 (π), µ2 (π), . . . , µs (π)) où chaque block µi est soit ρ1 , ou ρ2 , ou ρ3 . Par exemple, considérons la représentation par matrices de permutation S3 µ (1) (1, 2) (1, 3) (2, 3) (1, 2, 3) (1, 3, 2) 1 0 0 0 1 0 0 0 1 1 0 0 0 0 1 0 1 0 0 1 0 1 0 0 0 1 0 0 0 1 1 0 0 0 0 1 0 0 1 0 0 1 1 0 0 0 1 0 0 1 0 1 0 0 Soit 1 1 0 P := 1 −1 1 . 1 0 −1 Si on remplace chaque matrice M par P −1 M P on obtient la représentation matricielle S3 P −1 µP (1) (1, 2) (1, 3) (2, 3) (1, 2, 3) (1, 3, 2) 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 0 1 0 0 −1 1 0 0 −1 0 1 0 0 0 −1 0 −1 1 0 0 1 0 0 1 0 −1 0 0 1 −1 0 1 −1 0 −1 0 Alors P −1 µP = diag(ρ1 , ρ3 ). Soit µ = diag(ρ1 , ρ2 , ρ3 ) de dimension 4. Considérons R, la collection de toutes les matrices de la forme ∗ 0 0 0 0 ∗ 0 0 . 0 0 ∗ ∗ 0 0 ∗ ∗ C’est une algèbre complexe de dimension 6, c’est à dire, R est un anneau et simultanément un espace vectoriel complexe de dimension 6. On voit que les six matrices µ(π), π ∈ S3 , font une base de R. C’est à dire, si M ∈ R, alors ils existent 6 uniques scalaires cπ ∈ C, π ∈ S3 , tels que INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION M= P π∈S3 cπ µ(π). Soit M 0 = 0 π∈S3 cπ µ(π) P MM0 = X 3 un autre élément de R. Alors X cπ µ(π) c0π µ(π) π∈S3 = MAT 6609 π∈S3 X cπ1 c0π2 µ(π1 )µ(π2 ) π1 ,π2 ∈S3 = X cπ1 c0π2 µ(π1 π2 ) π1 ,π2 ∈S3 = X X π1 ∈S3 π∈S3 cπ1 c0π−1 π µ(π) 1 Donc on peut effectuer le produit matriciel M M 0 par un calcul avec l’algèbre de groupe, comme on vient de faire. Inversement, on peut effectuer un calcul dans l’algèbre de groupe, par un calcul matriciel. Chaque représentation de dimension finie de S3 contient un certain nombre de copies de ρ1 , ρ2 et ρ2 , disons n1 , n2 et respectivement n3 . Il y a une méthode simple et explicite pour calculer le nombre de copies avant de connaı̂tre la forme normale. Cette méthode utilise seulement la trace (et pas toute la matrice), qui ne change pas après une conjugaison. Et aussi tr(diag(µ1 , µ2 ) = tr(µ1 )+tr(µ2 ) pour les matrices block-diagonales. Remarquons d’abord que la somme des matrices de ρ2 est 0, et aussi que la somme des matrices de ρ3 est la matrice 0. Mais la somme des matrices de ρ1 est (6). Il suit que n1 est la trace de la P matrice 61 π∈S3 ρ(π), ou 1 X n1 = tr(ρ(π)). 6 π∈S3 Puis, remarquons que si on multiplie les matrices ρ3 (π) par le signe de π ∈ S3 et après on prend la somme, on obtient encore une fois la matrice 0; la même chose pour ρ1 , mais cette fois on obtient la somme (6) pour ρ2 . Il suit que 1 X n2 = ρ1 (π)tr(ρ(π)). 6 π∈S3 Si n × n est la taille des matrices de ρ, alors n = n1 + n2 + 2n3 , donc n − n1 − n2 . n3 = 2 Alternativement, remarquons que si on multiplie les ρ1 (π) par tr(ρ3 (π)) pour π ∈ S3 et après on ! 3 0 prend la somme, on obtient (0); la même chose pour ρ2 , mais cette fois on obtient la somme 0 3 pour ρ3 . Et donc on obtient la formule 1 X n3 = tr(ρ3 (π))tr(ρ(π)). 6 π∈S3 Soit V = C[X1 , X2 , X3 ] l’anneau de polynômes complexes dans les variables X1 , X2 , X3 . En particulier, V est un espace vectoriel complexe. On a une décomposition comme espace vectoriel V = V 0 ⊕ V1 ⊕ V2 ⊕ V 3 ⊕ . . . ⊕ Vn ⊕ . . . , 4 ABRAHAM BROER où Vn est la collection des polynômes homogènes de degré n. Une base est par exemple 1, X1 , X2 , X3 , X12 , X22 , X32 , X1 X2 , X1 X3 , X2 X3 , X13 , . . . Comparer avec l’expansion de 1 (1 − X1 t)(1 − X2 t)(1 − X3 t) en t = 0 1 + (X1 + X2 + X3 )t + (X12 + X22 + X32 + X1 X2 + X1 X3 + X2 X3 )t2 + (X13 + . . .)t3 + . . . . On voit que le coefficient de tn est une somme de monômes, et ces monômes forment une base de Vn . Si on met toutes les variables égales à 1 on obtient que le coefficient de tn dans l’expansion à 1 t = 0 de (1−t) 3 est exactement la dimension de n. Le groupe S3 agit linéairement sur V et chaque Vn en permutant les variables. Donc chaque permutation π de S3 donne pour chaque n une application linéaire de Vn dans Vn ; cette application est représentée par une matrice µn (π). Par exemple si π = (1, 3, 2) et n = 2, alors 2 πX12 = Xπ(1) = X32 , πX22 = X12 , πX32 = X22 , πX1 X2 = X3 X1 , πX1 X3 = X3 X2 , πX2 X3 = X1 X2 et la matrice 0 0 1 µ2 ((1, 3, 2)) = 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 De façon analogue on obtient pour (1, 2), (1, 3), (2, 3), (1, 2, 3) les matrices 0 1 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 ; 1 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 ; 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0 ; 0 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 . 0 1 0 La matrice identité est associée à (1) ∈ S3 . Nous pouvons calculer n1 = 61 (6 + 2 + 2 + 2 + 0 + 0) = 2, n2 = 16 (6 − 2 − 2 − 2 + 0 + 0) = 0 et n3 = (6 − 2)/4 = 2 = 16 (12 + 0 + 0 + 0 − 0 − 0). Donc il existe une matrice P tel que P −1 µ2 P = diag(ρ1 , ρ1 , ρ3 , ρ3 ). 1 La trace de (1, 3, 2) de la matrice associée à Vn est le coefficient de (1−t 3 ) (vous voyez pourquoi? changer la base X1 , X2 , X3 vers une base de vecteurs propre), pour les autres permutations: S3 tr (1) (1, 2) (1, 3) (2, 3) 1 (1−t)3 1 (1−t)(1−t2 ) 1 (1−t)(1−t2 ) 1 (1−t)(1−t2 ) (1, 2, 3) (1, 3, 2) 1 (1−t3 ) 1 (1−t3 ) On a 1 6 1 1 1 1 1 1 + + + + + (1 − t)3 (1 − t)(1 − t2 ) (1 − t)(1 − t2 ) (1 − t)(1 − t2 ) (1 − t3 ) (1 − t3 ) INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 5 est égale à 1 (1 − t)(1 − t2 )(1 − t3 ) Donc le coefficient de tn dans l’expansion de dans Vn . 1 (1−t)(1−t2 )(1−t3 ) est le nombre de fois que ρ1 apparaı̂t 2. Rappel de quelques résultats de l’algèbre Travailler uniquement avec des matrices n’est pas suffisamment flexible, il sera nécessaire d’abstraire et de travailler avec des espaces vectoriels et les applications linéaires et même avec des modules sur des anneaux et ses morphismes. Dans cette section on rappelle quelques constructions algébriques et on donne quelques résultats préliminairs. Pour nous les anneaux seront toujours supposés d’être associatifs et unitairs. Si M est un module à gauche d’un anneau R d’unité 1, on supposera aussi toujours que 1 · m = m, pour chaque m ∈ M . Pour un anneau R on dénote le sous-ensemble de ses unité par R× , donc R× est la collection des éléments qui admettent un inverse multiplicativement. En fait, R× est un groupe. Un corps gauche est un anneau dont chaque élément non-zéro admet un inverse multiplicatif, alors si R× = R\{0}. Un corps gauche est un corps si la multiplication est commutative. Pour un R-module à gauche M on dénote EndR (M ) : L : M → M ; L est endomorphisme de M comme R-module à gauche} pour l’anneau des endomorphismes de M . Et puis on écrit GL(M ) := (EndR (M ))× , alors GL(M ) := {L : M → M ; L est automorphisme de M comme R-module à gauche}. Soit M un R-module. On rappelle que le R-module dual M ∗ est défini par M ∗ := HomR (M, R), c’est l’ensemble des fonctionnelles sur M . On dit qu’un sous-ensemble B ⊆ M d’un R-module à gauche M est indépendant si pour chaque equation linéaire r1 b1 + r2 b2 + . . . + rn bn = 0, avec ri ∈ R, et bi ∈ B (tous différents), on a automatiquement que les scalaires ri sont 0. On dit que B ⊆ M est un ensemble générateur, si M coincide avec le sous R-module de M engendré par B, noté par < B >R . On dit que B ⊆ M est une base si B est un ensemble générateur indépendant. Pas chaque R-module à gauche contient une base. Par exemple, le Z-module Z/2Z n’admet pas de base. 2.1. Modules libres et bases. Soit R un anneau. Les modules à gauche libres ressemblent le plus les espaces vectoriels. Ce sont par définition les modules qui admettent une base. Explicitement, B ⊂ M est une base de M si pour chaque non-zero m ∈ M il existe une unique expression finie m = c1 b1 + c2 b2 + . . . + cr br , où les bi ∈ B et où les ci ∈ R sont tous non-zéro. Une base n’est pas nécessairement finie. 6 ABRAHAM BROER Si R est un anneau commutatif et M un R-module admettant deux bases finies B1 et B2 , alors |B1 | = |B2 |, pour une preuve voir [6, Theorem 3.4]. La même chose est vraie si R est un corps gauche, par exemple les quaternions de Hamilton H (la preuve est analogue au cas des espace vectoriels usuels sur des corps) ou n’importe quel corps. Dans ces cas r := |B1 | est appelé le rang de M (ou la dimension de M ). Si B ⊂ M est une base et N un autre R-module (pas nécessairement libre) alors chaque application φ : B → N a une unique extension φ̃ : M → N qui est R-linéaire et φ̃(b) = φ(b), pour chaque b ∈ B. Elle est définie par φ̃(m) := c1 φ(b1 ) + c2 φ(b2 ) + . . . + cr φ(br ), si m = c1 b1 + c2 b2 + . . . + cr br . 2.2. Le module libre sur un ensemble. Le R-module libre RX sur un ensemble X, où X un ensemble quelconque et R un anneau, est défini comme l’ensemble des applications f : X → R telles que f (x) 6= 0 pour seulement un nombre fini de x ∈ X : RX := {f : X → R; |{x ∈ X; f (x) 6= 0}| < ∞}. On définit f1 + f2 et cf par (f1 + f2 )(x) := f1 (x) + f2 (x), (cf )(x) := c(f (x)) où l’addition et la multiplication de R sont utilisés. Ici f, f1 , f2 ∈ RX et c ∈ R. RX est appelé le R-module à gauche libre sur l’ensemble X. Chaque x ∈ X donne un élément δx ∈ RX défini par δx (x) = 1 et δx (y) = 0 si y 6= x. Chaque f ∈ RX s’écrit uniquement comme une somme finie X f= f (x)δx , x∈X parce que f (x) est parr définition presque toujours 0. Souvent on simplifie l’écriture, et on écrit P simplement f = x f (x)x, c-à-d, δx est remplacé par x. Et puis on peut identifier X avec un sous-ensemble de RX; ce sous-ensemble est la base naturelle de RX comme R-module à gauche libre. Chaque application (ensembliste) φ : X → M vers un R-module M donne un R-module homomorphisme φ̃ : RX → M par X φ̃(f ) = f (x)φ(x). x∈X C’est l’unique R-homomorphisme φ̃ tel que φ̃(δx = φ̃(x)) = φ(x). Cette construction nous sera souvent très utile. INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 7 2.3. Coordonnés. Soit M est un R-module à gauche libre avec la base finie ordonnée B = {e1 , e2 , . . . , er }. Alors pour chaque m ∈ M il existe un unique vecteur de coordonnés [m]B = (m1 , m2 , . . . , mr ) ∈ Rr , tels que m = Pr i=1 mi ei . On a [cm + c0 m0 ]B = c[m]B + c0 [m0 ]B , alors l’application de M → Rn qui associe à chaque m ∈ M son vecteur de coordonnés est un isomorphisme de R-modules à gauche. Si la base ordonnée est fixée on écrit simplement [m] = [m]B . Soit maintenant M 0 un autre R-module libre avec base ordonnée finie B 0 = {f1 , . . . fs } et soit φ : M → M 0 un R-module homomorphisme, c-à-d, φ(cm + c0 m0 ) = cφ(m) + c0 φ(m0 ). Définissons comme en algèbre linéaire la matrice s × r [φ]B B0 = [φ] = (cij )1≤i≤s,1≤j≤r ∈ Mat(s × r, R) par φ(ej ) = s X cij fi . i=1 On a pour m = P i mi ei : r X φ(m) = φ( mj ej ) j=1 = r X mj φ(ej ) j=1 = r X s X mj cij fi j=1 i=1 = s X i=1 r X mj cij fi j=1 Considérons premièrement le cas que où R est un anneau commutatif. Alors on a s r X X φ(m) = cij mj fj i=1 j=1 et donc si on considère un vecteur de coordonnés comme un vecteur colonne [φ(m)]B0 = [φ]B B0 · [m]B , où à droite on a utilisé la multiplication matricielle entre une matrice et un vecteur colonne. Pour c ∈ R on a [φ(cm)] = [φ][cm] = [φ]c[m] = c[φ][m] (encore une fois, parce que R est supposé d’être commutatif). 8 ABRAHAM BROER Si M 00 est un troisème module avec base B 00 et φ2 : M 0 → M 00 est aussi un R-morphisme on a [φ1 ◦ φ2 ][m] = [(φ1 ◦ φ2 )(m)] = [φ1 (φ2 (m)] = [φ1 ][φ2 (m)] = [φ1 ][φ2 ][m], donc [φ1 ◦ φ2 ] = [φ1 ][φ2 ]. En particulier si M = M 0 , B = B 0 on obtient un homomorphisme de groupe φ 7→ [φ] de GL(M ) → GL(r, R), qui est en fait un isomorphisme. Lemme 2.1. Supposons R est un anneau commutatif. Le choix d’une base d’un R-module libre de dimension r induit un isomorphisme de groupe: GL(M ) ' GL(r, R) : φ 7→ [φ] Mais si R n’est pas commutatif, les matrices scalaires ne commutent plus avec toutes les matrices, alors la multiplication par une matrice n’est plus une application R-linéaire, et on doit modifier cette méthode un peu. Pour une matrice M , soit M t la matrice transpose Mijt := Mji . Remarquons que maintenant on n’a plus que (M1 M2 )t = M2t M1t pour deux matrices. Si on considère cette fois un vecteur de coordononnés comme un vecteur ligne on a t [φ(m)]B0 = [m]B [φ]B B0 , où à droite on a utilisé la multiplication matricielle entre un vecteur ligne et une matrice. Pour c ∈ R on a [φ(cm)] = [cm][φ]t = c[m][φ]t . Si M 00 est un troisème module avec base B 00 et φ2 : M 0 → M 00 est aussi un R-morphisme on a [m][φ1 ◦ φ2 ]t = [(φ1 ◦ φ2 )(m)] = [φ1 (φ2 (m))] = [φ2 (m)][φ1 ]t = [m][φ2 ]t [φ1 ]t , donc [φ1 ◦ φ2 ]t = [φ2 ]t [φ1 ]t . −1 L’application φ 7→ [φ]t de GL(M ) vers GL(r, R) est un homomorphisme de groupe, parce que −1 −1 −1 −1 = [φ1 ◦ φ2 ]t = [φ2 ]t [φ1 ]t [φ1 ]t [φ2 ]t C’est même un isomorphisme de groupe. Lemme 2.2. Le choix d’une base d’un R-module libre de dimension r induit un isomorphisme de groupe: −1 GL(M ) ' GL(r, R) : φ 7→ [φ]t ] Si R est commutatif on va toujours utiliser la première isomorphisme. Un petit exemple. Soit R = M = H, le corps gauche de quaternions. Soit φ : H → H une application H-linéaire pour le module à gauche H. Alors φ(h) = φ(h · 1) = h · φ(1), alors φ est la multiplication à droite par φ(1) ∈ H. L’application φ est inversible, si et seulement si φ(1) 6= 0. L’isomorphisme GL(V ) → GL(1, H) = H× est donné par φ 7→ (φ(1))−1 . Il y a d’autres différences entre la théorie classique où R est commutatif, et le cas général. Par exemple, si R est commutatif, une matrice carrée avec coefficients dans R est inversible (i.e., cette matrice est dans GL(r, R)) si et seulement si son déterminant est inversible dans R. Par contre si R n’est pas commutatif, on n’a même pas une bonne définition de déterminant en général. INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 9 2.4. Module dual et base duale. Soit M un R-module. On rappelle que le module dual M ∗ est défini par M ∗ := HomR (M, R). Supposons M est libre avec base B. Pour un vecteur de base b ∈ B, on définit le vecteur de base dual (ou la fonction coordonné associé à b ∈ B) b∗ ∈ M ∗ = HomR (M, R) comme l’application P R-lineaire telle que b∗ (v) est le coefficient vb de b dans l’écriture v = b0 ∈B vb0 b0 . La base duale est la collection B ∗ := {b∗ ; b ∈ B} ⊂ V ∗ . Mais il faut faire attention, c’est une définition confusante : en général B ∗ n’est pas une base de l’espace dual M ∗ , sauf si B est finie ! Par exemple, l’application X X H:v= cb (v)b 7→ cb (v) b∈B b∈B est dans M ∗ , mais n’est pas une combinaison finie des vecteurs de base duale B ∗ , sauf si B est P finie. On pourrait écrire H = b∈B b∗ , mais cette somme n’est pas finie ! En fait, M ∗ est le produit direct (et pas la somme directe) de ses sous-espaces Rb∗ , b ∈ B: chaque η ∈ HomR (M, R) s’écrit uniquement comme une expression formelle (possiblement infinie) X η= cb b∗ , b∈B où chaque coefficient cb est dans R. Pour chaque v ∈ V il y a seulement un nombre fini d’ĺéments de base duale b∗ tel que b∗ (v) 6= 0, donc X η(v) = cb b∗ (v) b∈B devient une somme finie. Donc chaque fonctionnelle est quand-même une combinaison linéaire (mais possiblement infinie !) des vecteurs de base duals. Supposons φ : M → M est un endomorphisme de R-module. Alors on obtient un endomorphisme duale φ∗ : M ∗ → M ∗ , par φ∗ (η) := η ◦ φ. Supposons que la base fixée est finie, disons B = P {e1 , . . . , er } et [φ] est la matrice associée. Alors φ(ej ) = i [φ]i,j ei et [φ]i,j = e∗i (φ(ej )). On a X φ∗ (e∗j ) (ei ) = (e∗j ◦ φ)(ei ) = e∗j ( [φ]j,r er = [φ]j,i . r Donc la matrice de φ∗ par rapport à la base duale est [φ]t , la matrice transposée. 2.5. Existence de bases et lemme de Zorn. Soit V un espace vectoriel sur un corps k (ou un module sur un corps gauche). L’existence d’une base est une conséquence du ”lemme de Zorn” des fondements des mathématiques. C’est une hypothèse fondamentale des mathématiques équivalente à l’axiome de choix. On peut la voir comme une type d’induction transcendante. Soit Ω un ensemble muni d’un ordre partiel ≤. Une chaı̂ne C de Ω est un sous-ensemble totalement ordonné, c-à-d, pour chaque pair x, y ∈ C soit x ≤ y, soit y ≤ x. Une borne supérieure d’un sous-ensemble A ⊂ Ω est un x ∈ Ω tel que y ≤ x pour chaque y ∈ A. Un élément maximal de Ω est un élément x ∈ Ω tel que x ≤ y est seulement possible si x = y. 10 ABRAHAM BROER Hypothèse 2.1 (Lemme de Zorn). Soit Ω un ensemble non-vide muni d’un ordre partiel. Supposons que chaque chaı̂ne de Ω a une borne supérieure. Alors Ω contient au moins un élément maximal. En acceptant cette hypothèse on déduit l’existence d’une base. Corollaire 2.1. Soit V un espace vectoriel sur un corps k et supposons V 6= 0. Si A est un sous-ensemble linéairement indépendant de V et B un sous-ensemble générateur de V et A ⊆ B, alors il existe une base B contenant A et contenue dans B : A ⊆ B ⊆ B. Le résultat reste vrai si on remplace V par un module non-zero sur un corps gauche. Preuve. Posons Ω pour l’ensemble de tous les sous-ensembles linéairement indépendant contenant A et contenu dans B. Alors Ω n’est pas vide, parce que V 6= 0 et donc B n’est pas vide, et Ω est partiellement ordonné par ⊆. Soit Σ ⊂ Ω une chaı̂ne. Alors la réunion U := ∪Y ∈Σ Y contient A P et est contenue dans B. Soit ni=1 ci ui = 0 une relation linéaire entre n éléments de U . Comme Σ est totalement ordonné, il existe un C ∈ Σ contenant tous les ui ’s. Mais C est linéairement indépendant, donc la relation est triviale. Donc U ∈ Ω et U est une borne supérieure pour la chaine Σ. Par le lemme de Zorn on conclut que Ω contient un élément maximal B, en particulier A ⊆ B ⊆ B et B est un ensemble indépendant. Montrons que B est aussi un ensemble générateur. Soit v ∈ B−B, par la maximalité de B l’ensemble B ∪ {v} n’est plus linéairement indépendant, donc il existe une P relation non-triviale cv + ni=1 ci bi = 0 pour un nombre fini de bi ’s dans B et des scalaires c, ci . Si c = 0, alors nécessairement les autres constants sont aussi 0, parce que B est indépendant; une contradiction. Donc c 6= 0 et v est une combinaison linéaire des b1 , . . . , bn . Mais B est un ensemble générateur, donc B est aussi un ensemble générateur. Corollaire 2.2. Soit U ⊂ V un sous-espace vectoriel. Alors il existe un complément, c-à-d, il existe un sous-espace vectoriel U 0 ⊂ V tel que V = U ⊕ U 0 . Preuve. Soit ei , i ∈ I une base de U . Par le résultat précédent on peut trouver fj ; j ∈ J tel que {ei ; i ∈ I} ∪ {fj ; j ∈ J} est une base de V . On définit maintenant U 0 comme l’espace engendré par les fj , j ∈ J. 3. L’algèbre de groupe et ses modules Fixons un groupe G et un anneau R, typiquement R sera C ou un autre corps. On va donner le R-module à gauche sur G, RG, la structure d’un anneau. La multiplication sur RG est induite par la multiplication de G : δg ∗ δk := δgk , où gk est le produit de g et k dans le groupe G. Donc (avec la notation simplifiée) g ∗ k := gk et ! X X X X X f ∗h= f (g)g ∗ h(k)k = f (g)h(k)gk = f (k)h(k −1 g g. g∈G k∈G g,k∈G g∈G k INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 11 Ou le produit f ∗ h est la fonction sur G définie par X (f ∗ h)(g) := f (k)h(k −1 g), k∈G le produit de convolution. Les sommes sont tous finies, à cause de la restriction sur les fonctions sur G permises dans RG. L’unité de cet anneau est 1 = δ1G ; l’associativité de la multiplication de RG est une conséquence de l’associativité de la multiplication du groupe et de l’associativité de la multiplication de l’anneau R. Il est facile de vérifier les autres axiomes d’anneau (associatif et unitaire). Nous pouvons identifier R avec le sous-anneau R1 de RG; ainsi par restriction chaque RG-module est aussi un R-module. La méme construction fonctionne aussi si on remplace G par un monoı̈de. 3.1. Actions linéaires de groupes. Soit M un RG-module, alors par restriction M est aussi un R-module. Chaque g ∈ G peut être considéré comme un élément de la base naturelle de RG, et donc la multiplication g · m ∈ M satisfait (i) 1G · m = m; (ii) (g1 g2 ) · m = g1 · (g2 · m); (iii) g · (c1 m1 + c2 m2 ) = c1 (g · m1 ) + c2 (g · m2 ), pour chaques m, m1 , m2 ∈ V , g, g1 , g2 ∈ G et c1 , c2 ∈ k. Inversement, si M est un R-module et G × M → M : g, 7→ g · m satisfait les trois règles (i), (ii) et (iii), alors M est un RG-module. Un tel action de G sur M est appelé une action R-linéaire. Donc les actions R-linéaires de G sont exactement les RG-modules. Ce qu’on vient de définir sont les actions linéaires à gauche. On pourrait aussi définir les actions à droites, comme on fait dans les livres sur la thèorie de la représentations de la provenance de l’Angletère, par exemple [8]. La théorie ne change pas essentiellement, sauf dans les détails, et il faut faire attention si on lit ces livres que ”gauche” est remplacé par ”droite”, et vice versa (par exemple la définition du groupe symétrique y est un peu différente). Dans ce cours le plus souvent le corps C des nombres complexes sera utilisé pour R, mais on utilisera aussi les nombres réels R et des corps fini de temps en temps. On est aussi intéressé à utiliser les quaternions H, des espaces vectoriels sur H et des matrices avec des coefficients dans H. On rappelle que l’anneau H est presque un corps, le seul axiom des corps qui n’est pas satisfait est l’axiom de la commutativité de la multiplication, en particulier n’importe quelle quaternion nonzero a un inverse (unique). On dit que c’est un corps gauche. Pour être capable de travailler aussi avec H (et d’autres corps gauches) il faut modifier les faits standard de l’algèbre linéaire un peu. Mais il est aussi facile de travailler avec un anneau, qui sera ici toujours supposé d’être associatif et unitair, et ses modules. Aussi R = Z est utilisé de temps en temps. Une variation sur le théorème de Cayley généralisé des actions sur un ensemble est le suivant, la preuve est analogue. Lemme 3.1. Soit M un R-module à gauche, où R est un anneau (associatif et unitaire), et G un groupe. (i) Supposons g · m est une action R-linéaire de G sur M . Définissons ρ : G → GL(M ) par ρ(g)(m) := g · m. Alors ρ est un homomorphisme de groupes. (ii) Supposons ρ : G → GL(M ) est un homomorphisme de groupe. Alors g · m := ρ(g)(m) définit une action R-linéaire de G sur M . 12 ABRAHAM BROER Preuve. (i) Soit G × M → M : (g, m) 7→ g · m une action linéaire. On définit l’application ρ(g) : M → M par ρ(g)(m) := g · m. Alors ρ(g) est un R-module homomorphisme : ρ(g)(λv + µw) = g · (λv + µw) = λ(g · v) + µ(g · w) = λρ(g)(v) + µρ(g)(w). Et ρ(g) est inversible avec l’inverse ρ(g −1 ) : (ρ(g) ◦ ρ(g −1 ))(m) = ρ(g)(ρ(g −1 )(m)) = g · (g −1 · m) = (gg −1 ) · m = 1G · m = m et d’une manière analogue ρ(g −1 ) ◦ ρ(g) = 1. Donc on a une application ρ : G → GL(M ). C’est un homomorphisme de groupes : ρ(g1 g2 )(m) = (g1 g2 ) · m = g1 · (g2 · m) = ρ(g1 ) (ρ(g2 )(m)) = (ρ(g1 ) ◦ ρ(g2 )) (m) (ii) Par contre, supposons ρ : G → GL(M ) est un homomorphisme de groupe. On définit une action G × M → M : (g, m) 7→ g · m := ρ(g)(m). On vérifie : 1G · m = ρ(1G )(m) = 1(m) = m; et (g1 g2 ) ◦ m = ρ(g1 g2 )(m) = (ρ(g1 ) ◦ ρ(g2 )) (m) = ρ(g1 ) (ρ(g2 )(m)) = g1 · (g2 · m). L’action est linéaire : g · (λv + µw) = ρ(g)(λv + µw) = λρ(g)(v) + µρ(g)(w) = λ(g · v) + µ(g · w). On dira que deux représentations f1 : G → GL(M1 ) et f2 : G → GL(M2 ), où M1 et M2 sont tous les deux R-modules, sont équivalentes, s’il existe un R-module isomorphisme ω : V1 → V2 , tel que f2 (g) ◦ ω = ω ◦ f1 (g) pour chaque g ∈ G, où g · ω(m) = ω(g · m), pour les action linéaires correspondantes. Lemme 3.2. Soit R un anneau, M un R-module à gauche et G un groupe. (i) Si g · m est une action linéaire de G sur M alors M est un RG-module à gauche par X f m := f (g)(g · m). g∈G (ii) Si M est un RG module, alors G agit linéairement sur M par l’action g · m := δg m. INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 13 3.2. Morphismes de kG-modules. Le langage de modules est utile. Soit φ : M → M 0 un morphisme de RG-modules. Alors c’est un R-module homomorphisme tel que φ : M → M 0 qui respecte les deux opérations de G : g · φ(m) = φ(g · m), pour chaque g ∈ G et v ∈ M . Le noyaux et l’image d’un RG-morphisme sont des RG-modules. Si W1 , W2 sont deux sous RG-modules de V , alors W1 ∩ W2 et W1 + W2 = {w1 + w2 ; w1 ∈ W1 , w2 ∈ W2 } sont aussi des sous RG-modules. Pour chaque sous RG-module W ⊂ V , le quotient V /W a une structure de RG module avec l’action linéaire g · (v + W ) := g · v + W . On a aussi comme d’habitude deux notions de somme directe. Si W1 , W2 sont deux sous RGmodules à gauche de V , on écrit V = W1 ⊕ W2 si V1 + V2 = V et V1 ∩ V2 = 0. Si V1 et V2 sont deux RG-modules on écrit V1 ⊕ V2 pour le produit cartésien des deux R-modeles à gauche avec l’action g · (v1 , v2 ) := (g · v1 , g · v2 ). On dit qu’un RG-module V est décomposable si V = W1 ⊕ W2 pour deux sous RG-modules nonzéro; sinon V est indécomposable. On dit qu’un RG-module V est simple si V ne contient aucun RGsous-module non-trivial. Un module simple est indécomposable, mais un module indécomposable n’est pas nécessairement simple. Si ρ : G → GL(M ) est une représentation, alors M est un RG-module. Si U ⊂ V est un sous RGmodule, par la correspondance on aura une représentation ρU : G → GL(U ). Cette représentation est appelé sous-représentation de ρ. 3.3. Actions et actions linéaires. Soit X un G-ensemble, c’est à dire, il y une multiplication externe fixé (g, x) 7→ g · x satisfaisant (i)1G · x = x, (ii)(g1 g2 ) · x = g1 · (g2 · x). Alors RX devient un RG-module à gauche défini par : X cg g· X nx x := x X cg nx (g · x) = X x g∈G,x∈X X g∈G Ou RX est un RG-module par [f ∗ h](x) := X g∈G f (g)h(g −1 · x). cg ng−1 ·x x. INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION MAT 6609 21 Département de mathématiques et de statistique, Université de Montréal, C.P. 6128, succursale Centre-ville, Montréal (Québec), Canada H3C 3J7 E-mail address: [email protected]