GROUPES CLASSIQUES ÉTÉ 2004 Date: 15.Septembre 2004 . 1 2 ÉTÉ 2004 Table des matières 1. Notations 2. Actions de groupe et le théorème de Iwasawa 3. Le groupe des transformations affines 4. Transformations projectives 5. Groupes linéaires 6. Formes sesquilinéaires 7. Le théorème de Witt 8. Groupes sympléctiques 9. Groupes unitaires 10. Groupes orthogonaux Références 3 4 9 18 20 27 37 45 55 76 87 GROUPES CLASSIQUES 1. Notations h−i ≤ E aff(A) C Cn Fq G∆ ΓL(V ) L |K N N0 P(V ) perm(Ω) Q R stab(∆) Sn Z sous–structure engendrée par − sous–groupe, sous–espace, etc... sous–groupe normal Groupe des transformations affines 16 Les nombres complexes Le groupe cyclique avec n éléments Le corps fini avec q éléments Stabilisateur point par point de ∆ 4 transformations semilinéaires inversibles 14 extension de corps {1, 2, 3, ...} {0, 1, 2, 3, ...} Espace projectif sur V 18 Permutations de l’ensemble Ω 4 Les nombres rationnels Les nombres réels Stabilisateur global de ∆ 4 Le groupe symétrique d’ordre n! Les nombres entiers 3 4 ÉTÉ 2004 2. Actions de groupe et le théorème de Iwasawa Notation 2.1. Soit Ω un ensemble. On note perm(Ω) := {σ : Ω → Ω|σ est bijectif} l’ensemble des permutations sur Ω. Définition 2.2. Soit Ω un ensemble et G un groupe. On appelle "action de groupe" tout homomorhpisme ϕ : G → perm(Ω). Etant fixé ϕ, on note gx := ϕ(g)(x) pour g ∈ G et x ∈ Ω. Pour ∆ ⊆ Ω et H ⊆ G on ecrit H∆ := {hδ | h ∈ H et δ ∈ ∆}. Définition 2.3. Soit k un nombre cardinal, Ω un ensemble et G un groupe agissant sur Ω. Les actions définies ci-dessous de G sur Pk (Ω) (parties de Ω avec k éléments), P(Ω) et Gk sont appelés "actions associées de G" : gP := {gx | x ∈ P } g(x1 , · · · , xk ) := (gx1 , · · · , gxk ) pour tout P ∈ Pk (Ω) resp. P(Ω) pour tout (x1 , · · · , xk ) ∈ Ωk Définition 2.4. Soit Ω un ensemble et G un groupe agissant sur Ω. Soit ∆ ⊆ Ω. On appelle G∆ := {g ∈ G | gδ = δ pour tout δ ∈ ∆} le "stabilisateur point par point de ∆". Si ∆ est un singleton ∆ = {α}, on ecrit Gα au lieu de G{α} . Définition 2.5. Soit Ω un ensemble et G un groupe agissant sur Ω. On dit que "G agit fidèlement sur Ω" si GΩ = {1G }. Définition 2.6. Soit Ω un ensemble et G un groupe agissant sur Ω. Soit ∆ ⊆ Ω. On appelle stab(∆) := {g ∈ G | g∆ = ∆} le "stabilisateur global de ∆". Définition 2.7. Soit Ω un ensemble et G un groupe agissant sur Ω. Soit ∆ ⊆ Ω. On dit que "∆ est G–invariant" si stab(∆) = G Définition 2.8. Soit Ω un ensemble et G un groupe agissant sur Ω. Une partie non vide O ⊆ Ω s’appelle "orbite de l’action de G sur Ω" si O est G–invariant, et si O et ∅ sont les seuls sous–ensembles G–invariants de O. GROUPES CLASSIQUES 5 Définition 2.9. Soit k un nombre cardinal. Soit Ω un ensemble et G un groupe agissant sur Ω. On dit que "G agit transitivement sur Ω" si Ω est une orbite. On dit que "G agit k–transitivement sur Ω" si pour toute partie A ⊆ Ω avec k éléments et toute injection ϕ : A → Ω il existe g ∈ G tel que gx = ϕ(x) pour tout x ∈ A. Remarque 2.10. Tout élément Ω est contenu dans une orbite. L’orbite contenant x ∈ Ω est Gx = {gx | g ∈ G}. On a une bijection canonique entre Gx et G/Gx , donnée par gx ←→ gGx Remarquons que Gx n’est pas nécessairement normal dans G. Dire que l’action de G sur Ω est k–transitive (k ∈ N) revient à dire que pour tout k–tuplets x = (x1 , · · · , xk ), y = (y1 , · · · , yk ) tels que i 6= j =⇒ xi 6= xj et yi 6= yj il existe g ∈ G tel que gx = y. Définition 2.11. Soit Ω un ensemble et G un groupe agissant sur Ω. On dit que "G agit régulièrement sur Ω" si G agit transitivement sur Ω et Gx = {1G } pour tout x ∈ Ω. Remarque 2.12. Dans le cas d’une action régulière de G sur Ω on a des bijections (non–canoniques) entre G et Ω. En effet, soit x ∈ Ω. Alors g ←→ gx est une bijection. Cette action est isomorphe à l’action de G sur lui même par multiplication à gauche. Définition 2.13. Soit Ω un ensemble et G un groupe agissant transitivement sur Ω. Une partie B ( Ω s’appelle "bloc d’imprimitivité" si #B ≥ 2 et si pour tout g ∈ G on a ou bien gB = B ou bien gB ∩ B = ∅. S’il n’y a pas de bloc d’imprimitivité, alors on dit que "l’action de G sur Ω est primitive". Remarque 2.14. Si G agit transitivement sur Ω, et si B est un bloc d’imprimitivité et g ∈SG, alors gB est aussi un bloc d’imprimitivité. On a par transitivité de l’action G = g∈G gB. Or pour tout g, h ∈ G on a ou bien gB = hB ou bien gB ∩ hB = ∅ on peut touver une partie R ⊆ G telle que • [ G= gB g∈R On dit souvent que {gB}g∈R est un système d’imprimitivité de G sur Ω. L’ensemble R n’est rien d’autre qu’un système complét de representants du quotient G/ stab(B). 6 ÉTÉ 2004 Proposition 2.15. Soit p un nombre premier, Ω un ensemble fini avec p éléments et G un groupe agissant transitivement sur Ω. Alors G agit primitivement sur Ω. Démonstration. Soit B ⊆ Ω, et supposons que #B ≥ 2 et que pour tout g ∈ G on a ou bien gB = B ou bien gB ∩ BS= ∅. A voir que B = Ω. Par transitivité de l’action, et vu que B 6= ∅ on a Ω = g∈G gB. Choisissons un sous–ensemble R ⊆ G tel que • [ G= gB g∈R On a alors #Ω = #R#B. Comme #Ω = p est premier et #B ≥ 2 on a nécessairement #B = p et #R = 1, et donc en particulier B = Ω. ¤ Proposition 2.16. Soit G un groupe agissant primitivement sur l’ensemble Ω, soit N un sous–groupe normal de G et supposons qu’il existe x ∈ Ω et g ∈ N tel que gx 6= x. Alors N agit transitivement sur Ω. Démonstration. Posons B := N x et montrons que B = Ω. Comme x ∈ B et gx ∈ B et gx 6= x on a #B ≥ 2. Vu que G agit primitivement sur Ω il suffit de montrer que pour tout h ∈ G on a ou bien hB = B ou bien hB ∩ B = ∅. Soit alors h ∈ G et supposons hB ∩B 6= ∅. A voir que hB = B. En effet, soit y ∈ hB ∩B. par définition y ∈ hN x ∩ Hx = N hx ∩ N x. Il existent g1 , g2 ∈ N tels que y = g1 hx = g2 x. Ainsi N hx = N g1−1 g2 x = N x, et donc hB = hN x = N hx = N x = B. ¤ Proposition 2.17. Si G agit 2–transitivement sur Ω, alors G agit primitivement sur Ω. Démonstration. Soit B ⊂ Ω, et soit x, y ∈ Ω avec x 6= y. Supposons que pour tout g ∈ G on a ou bien gB = B ou bien gB ∩ B = ∅. A voir que B = Ω. En effet supposons qu’il existe a ∈ Ω \ B. Par 2–transitivité de l’action il existe g ∈ G tel que gx = x et gy = a. Comme x ∈ gB ∩ B on a gB = B. Mais a ∈ gB et donc a ∈ B contrairement à l’hypothèse a ∈ / B. Ainsi Ω \ B = ∅ ou bien Ω = B. ¤ Theorème 2.18. Soit Ω un ensemble avec #Ω > 1 et G un groupe agissant transitivement sur Ω et soit x ∈ Ω. Alors G agit primitivement sur Ω ⇐⇒ Gx est un sous–groupe maximal de G Démonstration. Suppososns que G n’agit pas primitivement sur Ω. Il existe alors un bloc d’imprimitivité B ⊂ G. Sans perte de généralité on peut supposer x ∈ B. Clairement Gx ≤ stab(B) ≤ G Montrons que Gx 6= stab(B) 6= G. Comme B 6= Ω, il existe y ∈ Ω \ B. Par transitivité de l’action, il existe g ∈ G tel que y = gx. On a alors g ∈ / stab B, et donc stab(B) 6= G. Par définition B 6= {x}. Il existe alors y ∈ B \ {x}. Par transitivité de l’action, il existe g ∈ G tel que y = gx. Ainsi y ∈ B ∩ gB, d’où GROUPES CLASSIQUES 7 gB = B et g ∈ stab(B). Mais puisque x 6= y on a g ∈ / Gx , et donc Gx 6= stab(B). Le sous–groupe Gx n’est donc pas maximal. Supposons maintenant que Gx n’est pas maximal dans G et montrons que G n’agit pas primitivement sur Ω. Il existe un sous–groupe H de G tel que Gx < H < G Vérifions que Hx est un bloc d’imprimitivité. En effet, comme H 6= G il existe g ∈ G \ H. Si on aurait Ω = Hx alors il existerait h ∈ H tel que gx = hx, par conséquent on aurait gh−1 ∈ H et g ∈ H contredisant le choix g ∈ / H. Comme H 6= Gx , il existe h ∈ H \ Gx . On a hx 6= x mais hx ∈ Hx, d’où #(Hx) ≥ 2. Finalement, choisissons g ∈ G, supposons gHx ∩ Hx 6= ∅ et montrons gHx = Hx. En effet soit y ∈ gHx ∩ Hx. Il existent alors h, h0 ∈ H tels que y = ghx = h0 x. Ainsi h0−1 gh ∈ Gx ⊂ H, et donc g ∈ H et gH = H. On conclut que gHx = Hx. ¤ Theorème 2.19 (Iwasawa 1941). Soit Ω un ensemble et G un groupe agissant primitivement sur Ω. Soit x ∈ Ω et supposons qu’il existe un sous–groupe abélien A E Gx tel que hgAg −1 | g ∈ Gi = G. Les assertions suivantes sont vraies : I: Pour tout N E G on a ou bien N E GΩ ou bien G0 ≤ N . II: Si G0 = G alors G/GΩ est simple. Démonstration. I : Soit N E G un sous–groupe normal de G, et supposons N 6≤ GΩ . Il existe g ∈ N \ GΩ . Comme g ∈ / GΩ , il existe y ∈ Ω tel que gy 6= y. Par transitivité de l’action, il existe h ∈ G tel que y = hx. Par conséquent h−1 ghx 6= x. Par normalité de N on a h−1 gh ∈ N . En résumé h−1 gh ∈ N \ Gx , d’où Gx < N Gx ≤ G Or l’action etait suposée primitive, on a N Gx = G par 2.18. Soit g ∈ G. Il existent par ce qui précède n ∈ N et h ∈ Gx tels que g = nh. Ainsi gAg = nhAh−1 n−1 . Par hypothèse on a A E Gx , et donc gAg = nAn−1 ≤ N A. Comme N A ≤ G = hgAg −1 | g ∈ Gi = hnAn−1 | n ∈ N i = N A on a G = N A. On a G/N = N A/N ∼ = A/(N ∩ A). Le groupe G/N est alors abélien, d’où [G, G] ≤ N . II : Considérons le groupe G/GΩ (on quotiente par le noyeau de l’action) et un sous–groupe normal N E G/GΩ . Il existe N E G tel que N = N/GΩ . Par I on a ou bien N E GΩ ou bien [G, G] ≤ N . Dans le premier cas on trouve N = GΩ et N est donc trivial. Dans le deuxième cas on a [G, G] ≤ N . Or par hypothèse G = [G, G] on a G = N et donc N = G/GΩ . On conclut que GΩ /GΩ et G/GΩ sont les seuls sous–groupes normaux de G/GΩ , c’est–à–dire que G/GΩ est simple. ¤ Remarque 2.20. Le corollaire suivant est une "recette de cuisine" pour établir la simplicité d’un groupe fini G. Le temps de préparation nécessaire varie... 8 ÉTÉ 2004 Corollaire 2.21. Soit G un groupe fini. Alors G est simple si les conditions suivantes sont satisfaits : A: Il existe un ensemble Ω et une action primitive et fidèle de G sur Ω. B: Il existe un élément x ∈ Ω et un sous–groupe abélien A de Gx tel que hgAg −1 | g ∈ Gi = G. C: G0 = G Démonstration. C’est le cas II du théorème d’Iwasawa, où de plus on a GΩ = {1G }, puisqu’on a supposé dans A que l’action de G sur Ω est fidèle. ¤ Exemple 2.22. On va utiliser Iwasawa (ou poutôt son théorème) pour montrer que le groupe A5 est simple. Pour cela, identifions A5 avec le groupe des isométries de R3 fixant un icosahèdre régulier (un des 5 solides platoniciens, ayant 12 sommets, 30 arrètes, 5 en chaque sommet et 20 faces triangulaires équilateraux). GROUPES CLASSIQUES 9 3. Le groupe des transformations affines On se fixe dans ce chapitre un espace vectoriel V de dimension finie sur une algèbre à divisions D Définition 3.1. On appelle "espace affine basé sur V " un ensemble A muni d’une action régulière de V . On note cette action additivement, a gauche et à droite. On appelle "points" les éléments de A et dim(A) := dimD (V ). Remarque 3.2. Dire que V agit régulièrement sur A revient à dire que pour tout O, P ∈ A il existe un unique v ∈ V tel que O + v = P . Comme mentionné dans la définition v + O et O + v represente strictement le même objét mathématique. −−→ Notation 3.3. Soit A un espace affine sur V , et soient O, P ∈ A. On note OP −−→ l’unique vécteur de V tel que O + OP = P . Remarque 3.4. Soit A un espace affine sur V , et soient O, P, Q ∈ A et v ∈ V .On a les équations fondamentales −−−−−−−−−−−→ −−→ OP = (O + v)(P + v) −−→ −−→ −−→ OP = OQ + QP Définition 3.5. Soit A un espace affine basé sur V . Une partie B ⊆ A s’appelle "sous–espace affine de A" s’il existent O ∈ A et un sous–espace vectoriel W ⊆ V tel que B = W + O. On appelle "dimension de B" la dimension de W . On la note dim B = dimD W . Proposition 3.6. Soit A un espace affine basé sur V et B un sous–espace affine de A. Soit O ∈ B et W ≤ V tel que B = O + W , et soit O0 ∈ B. Alors B = O0 + W . Démonstration. Comme O0 ∈ B = O + W il existe w ∈ W tel que O0 = O + w. On a alors O0 + W = (O + w) + W = O + (w + W ) = O + W = B. ¤ Proposition 3.7. Soit A un espace affine basé sur V et soit G une partie (ensembliste) de A. Parmi tout les sous–espaces affines de A qui contiennent G il existe un plus petit pour la relation d’inclusion, et il est donné par D−−→ E O + OP | P ∈ G 10 ÉTÉ 2004 où O est un point (quelconce) de G. −−→ Démonstration. Par définition O + hOP | P ∈ Gi est un sous–espace affine de A. −−→ On a G = {O + OP | P ∈ G}, et donc D−−→ E G ⊆ O + OP | P ∈ G Soit B un sous–espace affine de A contenant G. Par définition il existe un sous– espace vectoriel W de V et un point O0 de B tel que B = O0 + W . Vu 3.6 on a B = O + W . Comme W agit régulièrement, et alors transitivement sur B on a −−→ OP ∈ W pour tout P ∈ G. Ainsi D−−→ E O + OP | P ∈ G ⊆ O + W = B −−→ Le sous–espace affine O + hOP | P ∈ Gi est donc contenu dans tout sous–espace affine de A contenant G. ¤ Proposition 3.8. Soit A un espace affine sur V et soit O, O0 , P1 , P2 , · · · Pn ∈ A et a1 , a2 , · · · , an ∈ D tels que a1 + a2 + · · · + an = 1. Alors n n X X −−−→ −−→ O+ aj OPj = O0 + aj O0 Pj j=1 j=1 Démonstration. C’est du calcul : n n X X −−→ −−→ −−→ −−→ O+ aj OPj = O + aj OPj + OO0 + O0 O j=1 j=1 = n n −−→ X −−→ X −−0→ O + OO0 + aj OPj + aj O O j=1 = = O0 + O0 + n X j=1 n X j=1 −−→ −−→ aj (O0 O + OPj ) −−−→ aj O0 Pj j=1 Bon, j’avoue que je ne comprends pas vraiement l’utilité de cette proposition... ¤ Définition 3.9. Soit A un espace affine basé sur V , et soit dimD V ≥ 2. Un sous–espace affine de dimension 1 de A s’appelle "droite", un sous–espace affine de dimension 2 de A s’appelle "plan". Deux droites G, H de A sont dits "parallèles" si ils sont contenus dans un plan commun, et si ou bien G = H ou bien G ∩ H = ∅. Proposition 3.10. Soit A un espace affine basé sur V , et soit dimD V ≥ 2. Soient v1 , v2 ∈ V non nuls et P1 , P2 ∈ A. Les droites P1 + hv1 i et P2 + hv2 i sont parallèles si et seulement si v1 et v2 sont colinéaires. GROUPES CLASSIQUES 11 Démonstration. =⇒ : Supposons G := P1 + hv1 i et H := P2 + hv2 i parallèles. Supposons par l’absurde que v1 et v2 ne sont pas colinéaires. Soit B un plan de A contenant G et H et soit W ≤ V de dimension 2 tel que B = P1 + W . On a v1 ∈ W , −−−→ et v2 ∈ W et donc W = hv1 , v2 i. Comme P1 P2 ∈ W il existent λ, µ ∈ D tel que −−−→ P1 P2 + λv1 + µv2 = 0 On a donc −−−→ P1 − λv1 = P1 + P1 P2 + µv2 = P2 + µv2 ∈ G ∩ H L’interséction G ∩ H est alors non–vide et par conséquent G = H. Mais ainsi on trouve que 1 = dim G = dim(P1 + hv1 , v2 i) = dim W = 2. Contradiction. ⇐= : Supposons v1 et v2 colinéaires. Les droites G := P1 + hv1 i et H := P2 + hv2 i −−−→ sont alors contenus dans le plan P1 + hP1 P2 , v1 i. Supposons G ∩ H 6= ∅ et montrons que G = H. En effet, si O ∈ G ∩ H alors on a (en utilisant 3.6) G = O + hv1 i et H = O + hv2 i = O + hv1 i, vu que hv1 i = hv2 i, et donc G = H. ¤ Définition 3.11. Soient A1 , A2 deux espaces affines. Une bijection ϕ : A1 → A2 s’appelle "isomorphisme d’espaces affines" si B est un sous–espace affine de A1 ⇐⇒ ϕ(B) est un sous–espace affine de A2 pour toute partie B ⊆ A1 Proposition 3.12. Soient D1 , D2 des algèbres à division, V1 , V2 des espaces vectoriels de dimension finie sur D1 respectivement D2 . Soient A1 , A2 des espaces affines basés sur V1 respectivement A2 et supposons qu’il existe un isomorphisme d’espaces affines ϕ : A1 → A2 . Alors dimD1 V1 = dimD2 V2 . Démonstration. Posons n1 := dimD1 V1 et n2 := dimD2 V2 . Supposons sans perte de généralité que n1 ≥ n2 . Il existent (algèbre linéaire générale) des sous–espaces vectoriels {0} W1 W2 · · · Wn1 = V1 de V1 . Fixons un point P1 ∈ A1 . Par régularité de l’action de V1 sur A1 on a la situation suivante entre sous–espaces affines de A1 {P1 } P1 + W1 P1 + W2 · · · P1 + Wn1 = A1 Posons P2 := ϕ(P1 ). Par bijectivité de ϕ, et vu que ϕ envoye des sous–espaces affines sur des sous–espaces affines il existent des sous–espaces vectoriels U1 , U2 , . . . , Un1 de V2 tels que P2 P2 + U1 P2 + U2 · · · P2 + Un1 ) = A2 Par régularité de l’action de V2 sur A2 on a la situation suivante entre sous–espaces vectoriels de V2 {0} U1 U2 · · · Un1 = V2 ce qui dit précisement que dimD2 V2 ≥ dimD1 V1 . Or dimD1 V1 ≥ dimD2 V2 par hypothèse on a en fait dimD2 V2 = dimD1 V1 comme affirmé. ¤ 12 ÉTÉ 2004 Remarque 3.13. On a utilisé le ⇐⇒ dans la définition de isomorphisme entre espaces affines au moment "Supposons sans perte de généralité...". En effet, on ne perd pas la généralité si on a équivalence "ϕ : A1 → A2 est un isomrphisme" ⇐⇒ "ϕ−1 : A2 → A1 est un isomrphisme" La proposition devient fausse si on affaiblit ⇐⇒ à =⇒ dans la definition. On prendra par exemple A1 = A2 = C comme espaces affines, basés sur V1 = C, D1 = C mais V2 = R2 et D2 = R. Les sous–espaces affines de A1 sont A1 et les singletons {{c}|c ∈ C}. Les sous–espaces affines de A2 sont A2 , les singletons {{c}|c ∈ C} mais aussi toutes les les droites dans C. L’application ϕ = idC : A1 → A2 est bijective et envoit tout sous–espaces affine de A1 sur un sous–espace affine de A2 . Mais : ϕ−1 n’a pas cette propriété, et 1 = dimC C = dimD1 V1 6= dimD1 V2 = dimR C = 2. Corollaire 3.14. Sous les mêmes hypothèses que dans 3.12, soit B ≤ A1 un sous– espace affine de A1 . Alors dim ϕ(B) = dim B. Démonstration. Il existe W1 ≤ V1 et P1 ∈ B tel que B = P1 + W1 . Il existe aussi W2 ≤ V2 et P2 ∈ ϕ(B) tel que ϕ(B) = P2 + W2 . Or ϕ|B : B → ϕ(B) est un isomorphisme d’espaces affines basés sur W1 respectivement W2 on a par 3.12 que dim W1 = dim W2 et donc que dim B = dim ϕ(B). ¤ Corollaire 3.15. Sous les mêmes hypothèses que dans 3.12, soient G, H des droites dans A1 . Alors ϕ(G), ϕ(H) sont des droites parallèles dans A2 si et seulement si G et H sont parallèles dans A1 . Démonstration. Par 3.14 on a que ϕ bijecte les plans de A1 sur les plans de A2 et les droites de A1 sur les droites de A2 . Par bijectivité on a ϕ(G)∩ϕ(H) = ϕ(G∩H). ¤ Corollaire 3.16. Sous les mêmes hypothèses que dans 3.12, soient P ∈ A1 et −−−−−−−−−−−→ −−−−−−−−−−−→ v1 , v2 ∈ V . Posons w1 := ϕ(P )ϕ(P + v1 ) et w2 := ϕ(P )ϕ(P + v2 ). Alors les vecteurs v1 et v2 sont D1 –linéairement indépendents si et seulement si w1 et w2 sont D2 –linéairement indépendents. Démonstration. Posons B1 := P + hv1 , v2 i et B2 := ϕ(P ) + hw1 , w2 i. On a par construction B2 ≤ ϕ(B1 ) et donc dim B2 ≤ dim ϕ(B1 ). Par le corollaire 3.14 dim ϕ(B1 ) = dim B1 et alors dim B2 ≤ dim B1 . D’autre part P + v1 = ϕ−1 (ϕ(P + v1 )) = ϕ−1 (ϕ(P ) + w1 ) ∈ ϕ−1 (B2 ) et de même P + v2 ∈ ϕ−1 (B2 ) ce qui montre que P + hv1 , v2 i ≤ ϕ−1 (B2 ) et donc dim B1 ≤ dim ϕ−1 (B2 ) = dim B2 . Ainsi dim(P + hv1 , v2 i) = dim(ϕ(P ) + hw1 , w2 i) ce qui permet de conclure que les vecteurs v1 et v2 sont D1 –linéairement indépendents si et seulement si w1 et w2 sont D2 –linéairement indépendents. ¤ GROUPES CLASSIQUES 13 Remarque 3.17. La proposition suivante dit essentiellement que un isomorphisme d’espaces affines transforme des parallelogrammes en parallelogrammes. L’hypothèse dim V ≥ 2 est absolument nécessaire, comme le montre l’exemple dans la remarque 3.23. Proposition 3.18. Soient D1 , D2 des algèbres à division, V1 , V2 des espaces vectoriels de dimension finie sur D1 respectivement D2 . Soient A1 , A2 des espaces affines basés sur V1 respectivement A2 et ϕ : A1 → A2 un isomorphisme d’espaces affines. Soit O ∈ A1 et v, w ∈ V1 . Alors −−−−−−−−−−→ −−−−−−−−−−−−−−−−−→ ϕ(O)ϕ(O + v) = ϕ(O + w)ϕ(O + v + w) Démonstration. La proposition est evidente si v ou w est nul. On suppose donc v 6= 0 et w 6= 0. Les droites O + hvi et O + w + hvi sont parallèles. Par 3.15 on sait que ϕ(O + hvi) et ϕ(O + w + hvi) sont parallèles. On a −−−−−−−−−−→ ϕ(O + hvi) = ϕ(O) + hϕ(O)ϕ(O + v)i et −−−−−−−−−−−−−−−−−→ ϕ(O + w + hvi) = ϕ(O + w) + hϕ(O + w)ϕ(O + w + v)i Par 3.10 on a alors et donc −−−−−−−−−−→ −−−−−−−−−−−−−−−−−→ hϕ(O)ϕ(O + v)i = hϕ(O + w)ϕ(O + w + v)i −−−−−−−−−−→ ϕ(O + w + hvi) = ϕ(O + w) + hϕ(O)ϕ(O + v)i de même, puisque O + hwi et O + v + hwi sont parallèles −−−−−−−−−−→ ϕ(O + v + hwi) = ϕ(O + v) + hϕ(O)ϕ(O + w)i Cas I : v et w sont D1 –linéairement indépendents. Il existent λ, µ ∈ D2 tels que −−−−−−−−−−→ ϕ(O + w + v) = ϕ(O + w) + λϕ(O)ϕ(O + v) −−−−−−−−−−→ ϕ(O + w + v) = ϕ(O + v) + µϕ(O)ϕ(O + w) Mis ensemble ces deux équations donne −−−−−−−−−−→ −−−−−−−−−−→ ϕ(O + w) + λϕ(O)ϕ(O + v) = ϕ(O + v) + µϕ(O)ϕ(O + w) ou bien −−−−−−−−−−−−−→ −−−−−−−−−−→ −−−−−−−−−−→ ϕ(O + v) + ϕ(O + v)ϕ(O + w) + λϕ(O)ϕ(O + v) = ϕ(O + v) + µϕ(O)ϕ(O + w) ou bien l’équation entre vecteurs −−−−−−−−−−−−−→ −−−−−−−−−−→ −−−−−−−−−−→ ϕ(O + v)ϕ(O + w) + λϕ(O)ϕ(O + v) = µϕ(O)ϕ(O + w) ou bien −−−−−−−−−−→ −−−−−−−−−−→ −−−−−−−−−−→ −−−−−−−−−−→ −ϕ(O)ϕ(O + v) + ϕ(O)ϕ(O + w) + λϕ(O)ϕ(O + v) = µϕ(O)ϕ(O + w) On a alors une relation de dépendence linéaire −−−−−−−−−−→ −−−−−−−−−−→ (1 − µ)ϕ(O)ϕ(O + w) + (λ − 1)ϕ(O)ϕ(O + v) = 0 14 ÉTÉ 2004 ce qui montre, vu le corrolaire 3.16 et l’hypothèse que v et w sont D1 –linéairement indépendents que µ = λ = 1. En particulier on a alors −−−−−−−−−−→ ϕ(O + w + v) = ϕ(O + w) + ϕ(O)ϕ(O + v) et donc −−−−−−−−−−−−−−−−−→ −−−−−−−−−−→ ϕ(O + w)ϕ(O + w + v) = ϕ(O)ϕ(O + v) comme affirmé. Cas II : v et w sont D1 –linéairement dépendents. Comme dim V1 ≥ 2 il existe u ∈ V D1 –linéairement indépendent de v. Le vecteur u − w est aussi D1 –linéairement de v. Par le cas I on a alors −−−−−−−−−−→ −−−−−−−−−−−−−−−−→ ϕ(O)ϕ(O + v) = ϕ(O + u)ϕ(O + v + u) Le vecteur u − w est aussi D1 –linéairement de v. Par le cas I on a (le point "O" du cas I est le point O + w ici) −−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→ ϕ(O + w)ϕ(O + w + v) = ϕ(O + u)ϕ(O + v + u) et donc −−−−−−−−−−−−−−−−−→ −−−−−−−−−−→ ϕ(O + w)ϕ(O + w + v) = ϕ(O)ϕ(O + v) comme affirmé. ¤ Définition 3.19. Soient D1 , D2 des algèbres à division, V1 , V2 des espaces vectoriels de dimension finie sur D1 respectivement D2 . On appelle "application semilinéaire de V1 dans V2 " toute application f : V1 → V2 telle que I: f (v + v 0 ) = f (v) + f (v 0 ) pour tout v, v 0 ∈ V1 . II: Il existe un isomorphisme σ : D1 → D2 tel que f (av) = σ(a)f (v) pour tout a ∈ D1 et tout v ∈ V1 . Notation 3.20. ΓL(V ) := {f : V → V | f est semilinéaire et inversible} Remarque 3.21. Soient A1 , A2 des espaces affines basés sur V1 respectivement A2 et soit f : V1 → V2 semilinéaire. Fixons O1 ∈ A1 et O2 ∈ A2 . Définissons ϕf : A1 → A2 par ϕf (O1 + v) = O2 + f (v) Alors ϕf envoye les sous–espaces affines de A1 vers des sous–espaces affines de A2 . En particulier, si f est inversible, alors ϕf est un isomorphisme d’espaces affines. La réciproque est vraie, comme le montre le théorème suivant : GROUPES CLASSIQUES 15 Theorème 3.22. Soient D1 , D2 des algèbres à division, V1 , V2 des espaces vectoriels de dimension finie ≥ 2 sur D1 respectivement D2 . Soient A1 , A2 des espaces affines basés sur V1 respectivement A2 et soit ϕ : A1 → A2 un isomorphisme d’espaces affines. Alors il existe une unique tranformation semilinéaire f : V1 → V2 telle que ϕ(O + v) = ϕ(O) + f (v) pour tout v ∈ V1 et tout O ∈ A1 . Démonstration. Fixons P ∈ A1 , et posons pour tout v ∈ V1 −−−−−−−−−−→ f (v) := ϕ(P )ϕ(P + v) On a bien f : V1 → V2 , et cette application est bien définie. Unicité Si g : V1 → V2 est une autre application telle que ϕ(O + v) = ϕ(O) + g(v) pour tout v ∈ V1 et tout O ∈ A1 , alors en particulier elle doit (en prenant O = P ) −−−−−−−−−−→ satisfaire ϕ(P +v) = ϕ(P )+g(v) pour tout v ∈ V1 c’est–à–dire ϕ(O)ϕ(v + O) = g(v) et alors g = f . L’application f est bien le seul candidat à disposition. (Vive la dictature ! !) Existence. Vérifions que ϕ(O + v) = ϕ(O) + f (v) pour tout v ∈ V1 et tout O ∈ A1 . −−→ En effet, fixons O ∈ A1 et posons w := P O. On a, vu la proposition 3.18 −−−−−−−−−−→ −−−−−−−−−−−−−−−−−→ −−−−−−−−−−→ f (v) = ϕ(P )ϕ(P + v) = ϕ(P + w)ϕ(P + w + v) = ϕ(O)ϕ(O + v) et alors ϕ(O + v) = ϕ(O) + f (v) pour tout v ∈ V1 . Il reste à voir que f est une transformation semilinéaire. Voici la partie facile : Pour tout v, w ∈ V1 on a (on utilise de nouveau 3.18) −−−−−−−−−−−−−→ f (v + w) = ϕ(P )ϕ(P + v + w) −−−−−−−−−−→ −−−−−−−−−−−−−−−−→ = ϕ(P )ϕ(P + v) + ϕ(P + v)ϕ(P + v + w) −−−−−−−−−−→ −−−−−−−−−−→ = ϕ(P )ϕ(P + v) + ϕ(P )ϕ(P + w) = f (v) + f (w) ce qui montre l’additivité de f . Il faut trouver un isomorphisme σ : D1 → D2 tel que f (av) = σ(a)f (v) pour tout v ∈ V1 et tout a ∈ D1 . Il n’y a qu’un seul candidat : Fixons w1 ∈ V1 non-nul. Pour tout a ∈ D1 on désigne par σ(a) l’unique élément de D2 tel que f (aw1 ) = σ(a)f (w1 ) Ceci fait bien un sens : A compléter ¤ Remarque 3.23. Ce théorème est faux (de mainère spéctaculaire) si les espaces affines sont de dimension 1 : On prend par exemple les espaces affines A1 = A2 = R basés les deux sur le R espace vectoriel R. Les sous–espaces affines de A1 et A2 sont A1 respectivement A2 lui même et tout les singletons {{x} | x ∈ R}. On choisit n’importe quelle ( !) permutation A1 → A2 . La définition dit que c’est un isomorphisme d’espaces affines. 16 ÉTÉ 2004 Définition 3.24. Soit A un espace affine basé sur V . On appelle "groupe des transformations affines de A" l’ensemble ¯ © ª aff(A) := τ : A → A ¯ τ est un isomorphisme d’espaces affines muni de la loi usuelle de composition d’applications. Définition 3.25. Soit A un espace affine basé sur V et v ∈ V . On appelle "translation par v" la transformation affine τv : P 7→ P + v pour tout P ∈ A et on appelle "groupe des translations de A" l’ensemble T (A) := {τv | v ∈ V } Proposition 3.26. Soit A un espace affine basé sur V . Le groupe des translations T (A) est normal dans aff(A) et agit régulièrement sur A. En particulier aff(A) est un produit semi–direct aff(A) = T (A) o aff(A)P pour tout P ∈ A. Démonstration. Soit ϕ ∈ aff(A) et f l’unique transformation semilinéaire telle que ϕ(v + P ) = f (v) + ϕ(P ) pour tout v ∈ V . On a ϕτv ϕ−1 (P ) = ϕτv (ϕ−1 (P )) = ϕ(v + ϕ−1 (P )) = f (v) + ϕ(ϕ−1 (P )) = f (v) + P = τf (v) (P ) pour tout v ∈ V . Ainsi ϕT (A)ϕ−1 = T (A) pour tout ϕ ∈ aff(A), ce qui dit exactement que T (A) E aff(A). L’action de T (A) sur aff(A) est régulière, puisque pour tout O, P ∈ A il existe un et un seul v ∈ V tel que P = O + v c’est–à–dire un unique τ ∈ T (A) tel que P = τ (O). On a évidemment T (A) ∩ aff(A)P = {idA }. D’autre part, soit ϕ ∈ aff(A), et soit τ ∈ T (A) l’unique translation telle que τ (P ) = ϕ(P ). Alors ϕ = τ ◦ (τ −1 ◦ ϕ) ∈ T (A) aff(A)P En effet τ ∈ T (A) par choix, et τ −1 ◦ ϕ(P ) = τ −1 (ϕ(P )) = τ −1 τ (P ) = P , d’où τ −1 ◦ ϕ ∈ aff(A)P . On a donc montré T (A) E aff(A) et T (A) ∩ aff(A)P = {idA } et T (A) aff(A)p = aff(A) ce qui permet de conclure que aff(A) = T (A) o aff(A)P . ¤ Proposition 3.27. aff(A) ∼ = T (A) o ΓL(V ) GROUPES CLASSIQUES 17 Démonstration. Fixonx P ∈ A et considérons θ : aff(A)P → ΓL(V ) définie par θ(ϕ) = f où f est l’unique transformation semilinéaire inversible telle que ϕ(O + v) = ϕ(O) + f (v) pour tout v ∈ V et tout O ∈ A (théorème 3.22). J’affirme que θ est un isomorphisme de groupes. En effet :... Ainsi on trouve aff(A)P ∼ = ΓL(V ). La proposition 3.26 permet de conclure que aff(A) ∼ ¤ = T (A) o ΓL(V ). 18 ÉTÉ 2004 4. Transformations projectives On se fixe dans ce chapitre un espace vectoriel V de dimension arbitraire sur une algèbre à divisions D. Définition 4.1. On appelle "espace projectif sur V " l’ensemble P(V ) := {hvi | v ∈ V et v 6= 0} Définition 4.2. Soit 0 ≤ k ≤ dim(V ) − 1, et soit W un sous–espace vectoriel de dimension k + 1 de V . On appele "sous–espace projectif de dimension projective k de P(V )" l’ensemble P(W ) := {hwi | w ∈ W et w 6= 0} On appelle "points" les sous–espaces projectifs de dimension projective 0, "droites projectives" les sous–espaces projectifs de dimension projective 1 et "plans projectives" les sous–espaces projectifs de dimension projective 2. Les éléments d’un ensemble E ⊆ P(V ) sont dits "colinéaires" s’il existe une droite projective de P(V ) contenant E. Définition 4.3. Soit k un nombre cardinal. On note Pk (D) := P(Dk+1 ). On appelle "droite projective sur D" l’espace projectif P1 (D) = P(D2 ) et "plan projectif sur D" l’espace projectif P2 (D) = P(D3 ). Définition 4.4. Soient V1 , V2 des espaces vectoriels sur des algèbres à division D1 respectivement D2 , et soit ϕ : P(V1 ) → P(V2 ) une application. On dit que ϕ est un homomorphisme d’espaces projectifs s’il existe f : V1 → V2 semilinéaire tel que ϕ(hvi) = hf (v)i pour tout v ∈ V1 non–nul. On dit que ϕ est un isomorphisme d’espaces projectifs si f est semilinéaire et inversible. Notation 4.5. Soient V1 , V2 des espaces vectoriels sur des algèbres à division D1 respectivement D2 , et soit f : V1 → V2 semilinéaire. On note P(f ) : P(V1 ) → P(V2 ) l’homomorphisme d’espaces projectifs défini par P(f )(hvi) = hf (v)i pour tout vecteur non–nul v ∈ V1 . GROUPES CLASSIQUES 19 Remarque 4.6. Voici le bon point de vue : On a tout construit pour que P : V → P est un foncteur de la catégorie V de tout les espaces vectoriels sur une algèbre à divisions, où les morphismes sont les transformations semilinéaires, dans la catégorie des espaces projectifs P. Notation 4.7. On note PΓL(V ) le groupe des isomorphismes d’espaces projectifs de P(V ) sur P(V ), c’est–à–dire l’ensemble ¡ ¢ PΓL(V ) := P ΓL(V ) = {P(f ) | f ∈ ΓL(V )} Définition 4.8. Soit ϕ : P(V ) → P(V ) une bijection. On dit que "ϕ préserve la colinéarité" ϕ(x) et ϕ(y) sont colinéaires ⇐⇒ x et y sont colinéaires pour tout x, y ∈ P(V ) Theorème 4.9. Soient V1 , V2 des espaces vectoriels de même dimension finie ≥ 3 sur des algèbres à division D1 respectivement D2 . Soit ϕ : P(V1 ) → P(V2 ) une bijection. Alors on a équivalence I: L’application ϕ est un isomorphisme d’espaces projectifs. II: L’application ϕ preserve la colinéarité. Démonstration. ¤ Proposition 4.10. Soient V1 , V2 des espaces vectoriels de même dimension finie ≥ 3 sur des algèbres à division D1 respectivement D2 . Soient f, f 0 sont deux transformations semilinéaires inversibles de V1 dans V2 avec les isomorphismes σ, σ 0 de D1 dans D2 associées. Alors on a équivalence I: P(f ) = P(f 0 ) II: Il existe λ ∈ D2 tel que f 0 (v) = λf (v) et σ 0 (a) = λσ(a)λ−1 pour tout v ∈ V1 et tout a ∈ D1 . Démonstration. ¤ Proposition 4.11. L’application P : ΓL(V ) → PΓL(V ) est un homomorphisme de groupes1. On a ker P = K ∗ idV . En particulier ¡ ¢ PΓL(V ) = P ΓL(V ) ∼ = ΓL(V )/K ∗ idV Démonstration. 1P est un foncteur additif ! ¤ 20 ÉTÉ 2004 5. Groupes linéaires On se fixe dans ce chapitre un espace vectoriel V de dimension finie n ≥ 2 sur un corps (commutatif) K. Toutes les bases d’espaces vectoriels seront des bases ordonnées. Notation 5.1. On note GL(V ) := {ϕ : V → V | ϕ est linéaire et inversible} On note aussi PGL(V ) := P(GL(V )) = {P(f ) | f ∈ GL(V )}. Proposition 5.2. On a GL(V ) E ΓL(V ). De plus ΓL(V )/ GL(V ) ∼ = Aut(K). Démonstration. On a GL(V ) ≤ ΓL(V ) puisque toute application linéaire est semilinéaire. Pour tout f ∈ ΓL(V ) désignons par ψ(f ) l’unique automorphisme de K tel que f (av) = ψ(f )(a)f (v) pour tout a ∈ K et tout v ∈ V . L’application ψ : f 7→ ψ(f ) est un homomorphisme du groupe ΓL(V ) dans le groupe Aut(K). En effet ψ(idV ) = idK et si g, h ∈ ΓL(V ), alors on a pour tout a ∈ K et tout v ∈ V un petit forêt de parenthèses : ³ ´ ³ ´ ¡ ¢ ψ(g ◦ f ) (a) · f ◦ g(v) = f ◦ g(av) = f g(av) = f ψ(g)(a) · v = ³ ´ ¡ ´ ¢ ³ ¡ ¢ = ψ(f ) ψ(g)(a) · f g(v) = ψ(f ) ◦ ψ(g) (a) · f ◦ g (v) d’où ψ(g ◦ f ) = ψ(g) ◦ ψ(f ). L’application ψ est donc bien un homomorphisme de groupes. On a © ª ker ψ = f ∈ ΓL(V ) | f (av) = idK (a)f (v) pour tout a ∈ K, v ∈ V = GL(V ) d’où GL(V ) E ΓL(V ). Quant à la deuxième assertion de la proposition fixons une base {e1 , . . . , en } de V et choisissons σ ∈ Aut(K). Définissons f : V → V par n n X X f a j ej = σ(aj )ej pour tout a1 . . . an ∈ K j=1 j=1 Pn On a bien f ∈ ΓL(V ) et ψ(f ) = σ. En effet pour tout v = j=1 aj ej ∈ V et tout a ∈ K on a n n n X X X f (av) = f aaj ej = σ(aaj )ej = σ(a) σ(aj )ej = σ(a)f (v) j=1 j=1 j=1 Comme σ ∈ Aut(K) etait arbitraire, l’application ψ : ΓL(V ) → Aut(K) est surjective, et ΓL(V )/ ker ψ = Γ(V )/ GL(V ) ∼ ¤ = im ψ = Aut(K) comme affirmé. Proposition 5.3. Soit H un sous–groupe de GL(V ). Alors P(H) = {P(f ) | f ∈ H} ∼ = H/(K ∗ idV ∩H) GROUPES CLASSIQUES 21 Démonstration. Considérons l’homomorphisme de groupes P : H → P(H). Il suffit de montrer que ker P = K ∗ idV ∩H. En effet ⊆ : Soit f ∈ ker P. Alors P(f )(P ) = P pour tout P ∈ P(V ), donc P(f )(hvi) = hvi pour tout v ∈ V non nul. Ceci équivaut dire que hf (v)i = hvi pour tout v ∈ V . Fixons un vecteur non nul v ∈ V . Il existe un unique λ ∈ K ∗ tel que f (v) = λv. Soit w ∈ V . Si w est colinéaire à v alors on a w = cv pour un c ∈ K et donc f (w) = f (cv) = cλv = λw. Si w est linéairement indépendent de v, alors il existent λ0 et µ ∈ K tels que f (w) = λ0 w et f (v + w) = µ(v + w) Un calcul archiclassique : 0 = f (0) = f (v + w − v − w) = λv + λ0 w − µv − µw = (λ − µ)v + (λ0 − µ)w Or w et v sont indépendents, ceci n’est possible que si λ = µ = λ0 . On a alors de nouveau f (w) = λw. Comme w etait arbitraire on peut conclure f (w) = λw pour tout w ∈ V et donc f = λ idV . En particulier f ∈ H ∩ K ∗ idV . ⊇ : Supposons f ∈ H ∩K ∗ idV . Alors on a hvi = hf (v)i = P(f )(hvi) pour tout v ∈ V non nul, et donc P(f )(P ) = P pour tout P ∈ P(V ), c’est–à–dire f ∈ ker P. ¤ Remarque 5.4. On sait que deux espaces vectoriels de même dimension sur le même corps sont isomorphes. On a donc ∼ GL(n, K) := Mn×n (K)∗ = {A ∈ Mn×n (K) | A est inversible} GL(V ) = Le groupe GL(V ) agit naturellement sur l’espace dual V ∗ := HomK (V, K). Pour ϕ ∈ GL(V ) et λ ∈ V ∗ on définit ϕλ ∈ V ∗ par (ϕλ)(v) = λ(ϕ−1 (v)) pour tout v ∈ V Cette action entraine un homomorphisme naturel Φ : GL(V ) → GL(V ∗ ). Fixons une base B = {e1 , · · · , en } de V et désignons avec B∗ la base duale de B. L’homomorphisme Φ est alors en termes de matrices dans les bases B et B∗ donné par Φ : A 7→ (A−1 )t Notation 5.5. On note SL(V ) := {f ∈ GL(V ) | det f = 1} = ker det On note aussi PSL(V ) := P(SL(V )). Proposition 5.6. PGL(V ) ∼ = GL(V )/K idV et PSL(V ) ∼ = SL(V )/(K idV ∩ SL(V )) Démonstration. Conséquence directe de 5.3. ¤ 22 ÉTÉ 2004 Remarque 5.7. On sait que deux espaces vectoriels V et V 0 de même dimension (sur le même corps K) sont isomorphes, et donc GL(V ) ∼ = GL(V 0 ), PGL(V ) ∼ = PGL(V 0 ), et cetera. On aimerait se débarasser de l’information superflue, mais sans devoir parler à chaque instant de "isomorphe" au lieu d’égalité, surtout quand il s’agit de calculer. C’est donc une bonne idée de se fixer des representants de ces classes d’isomorphisme, particulierment adaptées au calcul. L’espace K n sur K se propose. Mais on va encore un peu plus loin : Le groupe des transformations linéaires inversibles sur K n où V est isomorphe au groupe (multiplicatif) des matrices inversibles de taille n × n à coefficients dans K. EndK (V )∗ ∼ = Mn (K)∗ où ces deux objets sont vus comme anneaux. (On a bien sur EndK (V ) ∼ = Mn (K) en tant que K–algèbres.) On posra donc GL(n, K){A ∈ Mn (K) | det(A) 6= 0} ce qui est un objét bien défini à rien près. Notation 5.8. On adopte les notations suivantes : GL(n, K) := {A ∈ Mn (K) | det(A) 6= 0} PGL(n, K) := GL(n, K)/K ∗ In SL(n, K) := {A ∈ Mn (K) | det(A) = 1} PSL(n, K) := SL(K)/(SL(n, K) ∩ K ∗ In ) où In désigne la matrice identité de taille n × n. Si K est un corps fini avec q éléments, on écrit aussi GL(n, q), PGL(n, q), SL(n, q) et PSL(n, q). Proposition 5.9. Soit n ∈ N et K un corps fini avec q éléments. Alors n n(n−1) Y (q j − 1) # GL(n, q) = q 2 j=1 # PGL(n, q) = q n(n−1) 2 n Y (q j − 1) j=2 # SL(n, q) = q n Y n(n−1) 2 (q j − 1) j=2 # PSL(n, q) = n Y q (q j − 1) pgcd(n, q − 1) j=2 n(n−1) 2 Démonstration. Le groupe GL(n, q) agit naturellement sur le K–espace vectoriel K n . Soit B la base2 canonique de K n . On sait que pour toute base C de K n il existe un et un seul élément S ∈ GL(n, q), appelé "matrice de changement de base" tel que SB = C. Mais ceci dit que le groupe GL(n, q) agit régulièrement sur l’ensemble de toutes les bases de K n . On a alors # GL(n, q) = #{C | C est une base de K n } 2Toutes bases sont ordonnées ! GROUPES CLASSIQUES 23 Il faut donc montrer que #{C | C est une base de K n } = q n(n−1) 2 n Y (q j − 1) j=1 On utilisera le fait que dans un espace vectoriel toute partie libre peut être complétée en une base. Il existent q − 1 vecteurs non nuls dans K n , donc q − 1 choix pour le premier élément v1 d’une base. Comme deuxième élément de la base on peut choisir tout vecteur de K n qui est indépendent de v1 . Comme #hv1 i = q il y a q n − q choix pour v2 . Le k–ème élément de la base (1 ≤ k ≤ n) peut être tout vecteur indépendent des k − 1 vecteurs qui lui précèdent. Or ces k − 1 vecteurs sont eux mêmes indépendents il y a q k−1 vecteurs dans K n dépendents de {v1 , . . . , vk−1 } et il restent donc q n − q k−1 choix pour vk . Il y a alors en tout (q n − 1)(q n − q)(q n − q 2 ) · · · (q n − q n−1 ) possibilités de choisir une base de K n . On constate que n−1 Y (q n − q j ) = q 1+2+···+(n−1) j=0 n Y (q j − 1) = q j=1 n(n−1) 2 n Y (q j − 1) j=1 Par définition PGL(n, q) = GL(n, q)/K ∗ In et donc # PGL(n, q) = n n(n−1) Y # GL(n, q) # GL(n, q) 2 = = q (q j − 1) #{K ∗ In } q−1 j=2 Quant à # SL(n, q) on observe que SL(n, q) est le noyeau de l’homomorphisme de groupes det : GL(n, q) → K ∗ . Comme l’application déterminant est surjective on a # im det = q − 1. On a im det ∼ = GL(n, q)/ ker det et donc en particulier q − 1 = # im det = # GL(n, q)/# SL(n, q). On conclut # SL(n, q) = n n(n−1) Y # GL(n, q) # GL(n, q) (q j − 1) = =q 2 # im det q−1 j=2 Par définition PSL(n, q) = SL(n, q)/{K ∗ In ∩ SL(n, q)} et donc # PSL(n, q) = # SL(n, q) # SL(n, q) = ∗ #{K In ∩ SL(n, q)} #{λ ∈ K ∗ | λn = 1} Le polynôme X n − 1 a exactement pgcd(q − 1, n) racines dans Fq vu que le groupe F∗q est cyclique d’ordre q − 1. Ainsi n(n−1) n Y # SL(n, q) q 2 # PSL(n, q) = = (q j − 1) pgcd(q − 1, n) pgcd(n, q − 1) j=2 ce qui termine cette démonstration. ¤ Proposition 5.10. Le groupe PSL(V ) agit 2–transitivement sur P(V ). Démonstration. Soient hv1 i 6= hv2 i et hu1 i 6= hu2 i des points de P(V ). Comme v1 et v2 sont linéairement indépendents, il existe une base de V contenant v1 et v2 . Soit {v1 , v2 , · · · , vn } une telle base. De même on peut trouver une base {u1 , u2 , · · · , un } 24 ÉTÉ 2004 de V . Soit T ∈ GL(V ) défini par T (vj ) = uj pour tout 1 ≤ j ≤ n. On définit S : V → V par uj si 1 ≤ j < n S(vj ) := u j si j = n det T Comme det S = 1 on a S ∈ SL(V ). ¤ Corollaire 5.11. Le groupe PSL(V ) agit primitivement sur P(V ). Démonstration. Resulte de 2.17 et de 5.10. ¤ Remarque 5.12. On s’interesse aux éléments de GL(V ) qui fixent point par point un hyperplan (= sous–espace de dimension n − 1) de V . Soit w ∈ V non nul et H un complément direct de hwi, c’est–à–dire un hyperplan tel que V = H ⊕ hwi. Tout v ∈ V s’écrit de façon unique comme v = h + αw avec h ∈ H et α ∈ K. Si t ∈ GL(V ) fixe point par point l’hyperplan H, on a t(v) = t(h + αw) = t(h) + αt(w) = h + αt(w) On voit que t est complètement déterminé par t(w) =: h0 + γw. Remarquons que γ 6= 0, car t ∈ GL(V ) et donc t(V ) = V . Définition 5.13. Soit w ∈ V non nul et γ ∈ K ∗ . Soit H un complément direct de w H hvi et ∈ H. Notons πH la projection de long de hwi sur H et πw la projection de long de H sur hwi. On appelle "dilatation" l’application H w (v) (v) + γπw v 7→ πH On appelle "transvection" l’application w H v 7→ πH (v) + πw+h (v) H où πw+h désigne la projection de long de H sur hw + hi. Remarque 5.14. Fixons une base B := {w, h, e3 , · · · , en } transvection s’écrivent dans cette base a 0 0 ··· 0 1 0 1 0 ··· 0 a D := 0 0 1 · · · 0 et T := 0 .. .. .. . . .. . . . . . 0 0 0 0 ··· 1 0 de V . La dilatation et la 0 0 1 0 0 1 .. .. . . 0 0 ··· ··· ··· .. . ··· 0 0 0 0 1 respectivement. On a det D = a et det T = 1, c’est–à–dire T ∈ SL(n, K). GROUPES CLASSIQUES 25 Notation 5.15. Soit ϕ ∈ V ∗ une forme linéaire et u ∈ V . On note tϕ,u l’élément de HomK (V, V ) défini par tϕ,u (v) = v + ϕ(v)u pour tout v ∈ V . Remarque 5.16. Lorsque ϕ(u)u + u 6= 0, c’est–à–dire ϕ(u) 6= −1 on a tϕ,u ∈ GL(V ). Si ϕ = 0 ou v = 0, alors tϕ,v = idV . Supposons alors ϕ 6= 0 et u 6=. Dans ce cas, ker ϕ est un hyperplan de V . On a tϕ,u 6= idV : En effet si v ∈ / ker ϕ, alors tϕ,u (v) − v = v + ϕ(v)u − v = ϕ(v)u 6= 0 puisque ϕ(v) 6= 0 et u 6= 0. On a tϕ,u (v) = v pour tout v ∈ ker ϕ c’est–à–dire tϕ,u fixe ponctuellement un hyperplan de V . Ainsi tϕ,u est une transvection ou une dilatation. Si nous supposons de plus que u ∈ ker ϕ alors tϕ,u est une transvection, car tϕ,u (v) = v + ϕ(v)u ∈ v + ker ϕ et si nous supposons u ∈ ker ϕ alors tϕ,u est une dilatation, car tϕ,u (u) = u + ϕ(u)u = (1 + ϕ(u))u ∈ hui Proposition 5.17. Soient ϕ, ϕ1 , ϕ2 ∈ V ∗ et u, u1 , u2 ∈ V , et soit a ∈ K et ρ ∈ GL(V ). Alors I: tϕ,au = taϕ,u . II: tϕ1 +ϕ2 ,u = tϕ1 ,u ◦ tϕ2 ,u si u ∈ ker ϕ1 . III: tϕ,u1 +u2 = tϕ,u1 ◦ tϕ,u2 si u2 ∈ ker ϕ IV: tρϕ,ρ(u) = ρtϕ,u ρ−1 . Démonstration. I : Pour tout v ∈ V on a tϕ,au (v) = v + ϕ(v)au = v + (aϕ)(v)u = taϕ,u (v) II : Pour tout v ∈ V on a tϕ1 +ϕ2 ,u (v) III :IV : = = = = v + ϕ2 (v)u + ϕ1 (v)u v + ϕ2 (v)u + ϕ1 (v + ϕ2 (v)u)u tϕ2 ,u (v) + ϕ1 (tϕ2 ,u (v))u tϕ1 ,u ◦ tϕ2 ,u (v) ¤ Proposition 5.18. Soient t, t0 ∈ GL(V ) deux transvections. Alors il existe g ∈ GL(V ) tel que t0 = gtg −1 , c’est–à–dire il existe qu’une seule classe de congugaison de transvections dans GL(V ). Si de plus dim V ≥ 3, alors il existe h ∈ SL(V ) tel que t0 = hth−1 , c’est–à–dire il existe qu’une seule classe de congugaison de transvections dans SL(V ). 26 ÉTÉ 2004 Proposition 5.19. Soit u ∈ V non nul, et posons A := {tϕ,u | ϕ ∈ V ∗ , ϕ(v) = 0}. Posons P := hvi ∈ P(V ). Alors I: A est un sous–groupe abélien de SL(V )P . II: A est normal dans SL(V )P . III: SL(V ) = hgAg −1 | g ∈ SL(V )i Proposition 5.20. Si dim V ≥ 3 ou #K ≥ 4, alors [SL(V ), SL(V )] = SL(V ). Theorème 5.21. PSL(V ) est simple si (et seulement si) dim V ≥ 3 ou #K ≥ 4. Démonstration. D’après 5.11, SL(V ) agit primitivement sur P(V ). Le groupe A de la proposition 5.19 est abélien, normal dans SL(V ) et ses conjugés engendrent SL(V ). Par 5.20 on a [SL(V ), SL(V )] = SL(V ). Le théorème d’Iwasawa 2.19 permet de conclure que PSL(V ) = SL(V )/Z(SL(V )) est simple. On vérifie "à la main" que les groupes PSL(2, 2) et PSL(2, 3) ne sont pas simples. ¤ GROUPES CLASSIQUES 27 6. Formes sesquilinéaires On se fixe dans ce chapitre un espace vectoriel V de dimension finie n ≥ 2 sur un corps (commutatif) K et un automorphisme θ : K → K. Pour toute matrice M à coefficients dans K on note θ(M ) la matrice obtenue en appliquant θ composante par composante. Toutes les bases d’espaces vectoriels seront des bases ordonnées. Définition 6.1. On appelle "forme θ–sesquilinéaire sur V " toute application β : V 2 → K telle que β(λ1 v1 + λ2 v2 , µ1 w1 + µ2 w2 ) = 2 X 2 X λi θ(µj )β(vi , wj ) i=1 j=1 pour tout λ1 , λ2 , µ1 , µ2 ∈ K et tout v1 , v2 , w1 , w2 ∈ V . Définition 6.2. Soit β une forme θ–sesquilinéaire sur V . On dit que β est • "symétrique" si β(x, y) = β(x, y) pour tout x, y ∈ V . • "hermitienne" si β(x, y) = θ(β(x, y)) pour tout x, y ∈ V . • "symplectique" si β(x, x) = 0 pour tout x ∈ V . • "reflexive" si β(x, y) ⇐⇒ β(y, x) = 0 pour tout x, y ∈ V . Définition 6.3. Soit β une forme θ–sesquilinéaire sur V , et soit B := {e1 , . . . , en } une base de V . On appelle "matrice de β dans la base B la matrice M ∈ Mn (K) définie par mij = β(ei , ej ) où M = (mij )1≤i,j≤n . Remarque 6.4. Il est important que la base soit ordonnée : Permuter les éléments de la base a comme effet que les lignes et colonnes de la matrice se permutent aussi. Notation 6.5. Pour un espace vectoriel V , une base B de V et v ∈ V notons vB ∈ Mn×1 le vecteur v exprimé dans la base B (une colonne). Proposition 6.6. Soit β une forme θ–sesquilinéaire sur V , soit B une base de V . Soient u, v ∈ V , et soit M la matrice de β dans B. Alors β(u, v) = utB M θ(vB ) 28 ÉTÉ 2004 Soit C une autre base de V , soit S la matrice de changement de base de B vers C et soit L la matrice de β dans C. Alors L = S t M θ(S) Démonstration. Posons B = {e1 , . . . en } et C = {f1 , . . . fn }. Soient u, v ∈ V . Notons uB = (u1 , . . . un )t et vB = (v1 , . . . vn )t . On a alors n n n X n X X X β(u, v) = β u i ei , vj ej = ui θ(vj )β(ei , ej ) i=1 j=1 i=1 j=1 = n X n X ui mij θ(vj ) = utB M θ(vB ) i,j=1 j=1 ce qui montre la première assertion de la proposition. Par définition, la matrice inversible S ∈ Mn (K) a la propriété vB = SvC et vC = S −1 vB pour tout v ∈ V . Pour 1 ≤ i, j ≤ notons sij , mij et lij la (i, j)–ème composante de la matrice S, M et L respectivement. On a alors par la première assertion, et vu que (fi )tB = (s1i , s2i , . . . , sni ) = la i–ème clolnne de S lij = β(fi , fj ) = (fi )tB M θ(fj )B = n X n X shi mhk θ(skj ) h=1 k=1 La somme donne exactement la (i, j)–ème composante de S t M θ(S), et on a donc L = S t M θ(S) comme affirmé. ¤ Corollaire 6.7. Soient β, B, C, M et L comme dans 6.6. Alors L est inversible si et seulement si M est inversible. Démonstration. On a det(L) = det(S) det(θ(S)) det(M ). Comme S est inversible on a det(S) 6= 0. Puisque θ et un automorphisme de K et vu que det : Mn → K est une fonction polynomiale des composantes de la matrice on a det(θ(S)) = θ(det(S)). Donc det(θ(S)) 6= 0. Ainsi det(L) = 0 ⇐⇒ det(M ) = 0. ¤ Proposition 6.8. Soit β une forme θ–sesquilinéaire sur V , soit B une base de V . Soit f : V → V linéaire, et soit A la matrice de f dans la base B. Alors β ◦ (f ⊕ f ) est une forme θ–sesquilinéaire sur V et la matrice de β ◦ (f ⊕ f ) dans la base B vaut At M θ(A). Démonstration. Je rappelle que l’application f ⊕ f : V 2 → V 2 est définie par f ⊕ f (u, v) = (f (u), f (v)). Il est clair que l’application β ◦ (f ⊕ f ) : (v, u) 7→ β(f (u), f (v)) est θ–sesquilinéaire. Posons B = {e1 , . . . , en } et soit L la matrice de β ◦ (f ⊕ f ) dans la base B. Notons aij , mij et lij les composantes des matrices A, M et L GROUPES CLASSIQUES respectivement. On a lij = β(f (ei ), f (ej )) = β à n X k=1 aki ek , n X h=1 29 ! ahi eh = n X n X aki mkh θ(ahi ) k=1 h=1 pour tout 1 ≤ i, j ≤ n. La dernière somme donne la i, j–ème composante de At M θ(A), et donc L = At M θ(A) comme affirmé. ¤ Définition 6.9. Soit β une forme θ–sesquilinéaire reflexive sur V . Soient v, u ∈ V et X ⊆ V une partie quelconque de V . On dit que "u et v sont orthogonaux" si β(u, v) = 0. L’ensemble X ⊥ := {w ∈ V | β(w, x) = 0 pour tout x ∈ X} s’appelle "l’orthogonal de X". On appelle rad V := V ⊥ "radical de V ". Remarque 6.10. On parle d’orthogonalité seulement si on a affaire avec une forme reflexive, faisant que "être orthogonal" est une relation reflexive. S’il n’y a pas ce confusion possible, on sousentendra que la notion d’orthogonalité ainsi que le radical de V dépend de β. Définition 6.11. Soit β une forme θ–sesquilinéaire reflexive sur V . On dit que "β est non–dégénérée" si rad V = {0}. Sinon on dit que "β est dégénérée". Proposition 6.12. Soit β une forme θ–sesquilinéaire reflexive sur V et soit A ⊆ V . Alors A⊥ est un sous–espace vectoriel de V . Démonstration. En effet, soient u, v ∈ A⊥ et soient λµ ∈ K. Alors on a pour tout x∈X β(λu + µv, x) = λβ(u, x) + µβ(v, x) = λ · 0 + µ · 0 = 0 ce qui montre que λu + µv ∈ X ⊥ . ¤ Proposition 6.13. Soit β une forme θ–sesquilinéaire reflexive sur V . Alors l’application β : V / rad V × V / rad V → K définie par β(x + rad V, y + rad V ) = β(x, y) pour tout x, y ∈ V est bien définie et une forme θ–sesquilinéaire reflexive et non–dégénérée sur le K–espace vectoriel V / rad V . Démonstration. ¤ 30 ÉTÉ 2004 Définition 6.14. Soit β une forme θ–sesquilinéaire sur V . On appelle "adjoint de β la transformation θ–semilinéaire ad β : V → V ∗ donnée par ad β(y)(x) = β(x, y) pour tout x, y ∈ V . Remarque 6.15. Cette construction marche aussi dans l’autre sens : Etant donné une transformation θ–semilinéaire f : V → V ∗ , on peut définir une forme θ–bilinéaire βf sur V par βf (x, y) = f (y)(x) On a dans ce cas ad βf = f . Proposition 6.16. Soit β une forme θ–sesquilinéaire sur V , soit B := {e1 , . . . , en } une base de V et soit B ∗ = {ϕ1 , . . . , ϕn } la base de V ∗ duale à B. Alors ¡ ¢ ad β(v) B∗ = M θ(vB ) Démonstration. Je rappelle que les éléments de la base duale (ordonnée !) sont déterminées par la relation ϕi (ej ) = δij pout tout 1 ≤ i, j ≤ n où δij est le symbole de Kronecker. Avec d’autre mots ϕi (v) est la i–ème composante de vB . Pour tout ψ ∈ V ∗ on a ψ= n X ψ(ej )ϕj j=1 On a alors en particulier ad β(v) = n X ad β(v)(ei )ϕi = i=1 n X β(ei , v)ϕi i=1 = n X n X θ(vj )β(ei , ej )ϕi = i=1 j=1 n X n X mij θ(vj )ϕi i=1 j=1 ¡ ¢ où vB = (v1 , . . . , vn )t . La i–ème composante de ad β(v) B∗ est alors bien la i–ème ¡ ¢ composante de M θ(vB ) pour tout 1 ≤ i ≤ n, et donc ad β(v) B∗ = M θ(vB ). ¤ Proposition 6.17. Soit β une forme θ–sesquilinéaire reflexive sur V , B une base de V et M la matrice de β dans B. Alors on a équivalence entre I: La forme β est non–dégénérée. II: La transformation semilinéaire ad β : V → V ∗ est inversible. III: La matrice M est inversible. GROUPES CLASSIQUES 31 Démonstration. I ⇐⇒ II On a rad(V ) = V ⊥ = {v ∈ V | β(v, x) = 0 pour tout x ∈ V } par définition du radical, c’est–à–dire rad(V ) = {v ∈ V | ad β(v) = 0} = ker ad β Ce qui permet de conclure que rad(V ) = {0} ⇐⇒ ad β est inversible. (Remarquons qu’il ne joue aucun rôle que ad β est semilinéaire et donc eventuellement pas linéaire. Il suffit ad β soit homomorphisme de groupes additifs pour que ker ad β = {0} équivaut à ad β inversible.) II ⇐⇒ III. Soit B∗ la base duale de B. La transformation semilinéaire ad β : V → V ∗ est inversible si et seulement si l’application ∗ (ad β)B B : vB 7→ ad β(v)B∗ est inversible. Par 6.16 on a ad β(v)B∗ = M θ(vB ). Ainsi ∗ mult. par M θ (ad β)B −−−−−−−→ M θ(vB ) B : vB −−−−→ θ(vB ) − ∗ Comme θ et bijectif, on a que (ad β)B B est inversible si et seulement si l’application "multiplication par M " l’est. Ainsi ad β est inversible ⇐⇒ M est inversible. ¤ Remarque 6.18. En fait on a montré plus dans cette démonstration. Lorsque on accepte (ou vérifie) que la formule dim V = dim im f + dim ker f est valable aussi pour une transformation semilinéaire f : V → W , alors la démonstration montre le corollaire suivant (où rg M désigne le rang de la matrice M ) : Corollaire 6.19. Soit β une forme θ–sesquilinéaire reflexive sur V , B une base de V et M la matrice de β dans B. Alors dim(rad(V )) = dim ker ad β = n − rg M Proposition 6.20. Soit β une forme θ–sesquilinéaire non–dégénérée reflexive sur V et soit U un sous–espace vectoriel de V . Alors dim(U ) + dim(U ⊥ ) = dim V . Démonstration. Pour ψ ∈ V ∗ notons resU (ψ) := ψ|U . L’application resU : V ∗ → U ∗ est linéaire. Considérons l’application semilinéaire resU ◦ ad β : V → U ∗ . On a U ⊥ = {v ∈ V | β(v, u) = 0 pour tout u ∈ U } = ker(resU ◦ ad β) Puisque β est non–dégénérée on a im ad β = V ∗ et donc im(resU ◦ ad β) = U ∗ . Ainsi (voir remarque 6.18 pour la formule de dimension) dim U + dim U ⊥ = dim im(resU ◦ ad β) + dim ker(resU ◦ ad β) = dim V PS : La recurrence c’est pour les enfants ! ¤ Corollaire 6.21. Soit β une forme θ–sesquilinéaire non–dégénérée reflexive sur V et soit U un sous–espace vectoriel de V . Alors U = (U ⊥ )⊥ . 32 ÉTÉ 2004 Démonstration. Pour tout u ∈ U on a β(u, v) = 0 ∀ v ∈ U ⊥ donc (U ⊥ )⊥ ≤ U . Comme β est non–dégénérée on a par 6.20 que dim(U ⊥ )⊥ = n − dim U ⊥ = dim U . On conclut que (U ⊥ )⊥ = U . ¤ Définition 6.22. Soit β une forme θ–sesquilinéaire non–dégénérée reflexive sur V et soient U, W des sous–espaces vectoriels de V tels que U ⊕ W = V . On dit que U ⊕ W est une décomposition orthogonale de V si U et W sont orthogonaux. On écrit V = U ⊥W . Proposition 6.23. Soit β une forme θ–sesquilinéaire non–dégénérée reflexive sur V et soit U ⊥W une décomposition orthogonale de V . Soit B = {e1 , . . . ek } une base de U et C = {ek+1 , . . . en } une base de W . Soit A la matrice de β|U ×U dans la base B et B la matrice de β|W ×W dans la base C. La matrice de β dans la base {e1 , . . . en } vaut alors µ ¶ A 0 M= 0 B Démonstration. Soit 1 ≤ i, j ≤ n, et soit mij la i, j–ème entrée de M . Si i ≤ k et j ≤ k alors mij est la i, j–ème entrée de A. Si i > k et j > k, alors mij est la (i − k), (j − k)–ème entrée de B. Dans tout les autres cas on a ou bien ei ∈ U et ej ∈ W ou bien ei ∈ W et ej ∈ V . Par orthogonalité de U et W on a mij = β(ei , ej ) = 0. ¤ Theorème 6.24 (Birkhoff, von Neumann). Soit β une forme θ–sesquilinéaire reflexive, non–dégénérée sur V . Alors une des assertions suivantes est vraie : I: θ = idK et β est symétrique. II: θ = idK et β est symplectique. III: θ 6= idK et θ2 = idK et il existe une forme hermitienne γ sur V et a ∈ K ∗ tel que β = aγ. Démonstration. Remarquons que β : V 2 → K est surjectif. En effet, soit x ∈ V non–nul. Comme β est non–dégénérée, il existe y ∈ V tel que β(x, y) 6= 0. On a pour tout t ∈ K µ ¶ tx t=β , y β(x, y) d’où surjectivité. On fixe v0 ∈ V non nul. La forme linéaire α0 := ad β(v0 ) ∈ V ∗ est non–nulle puisque ad β : V → V ∗ est injectif et v0 6= 0. De même pour la forme linéaire γ ∈ V ∗ définie par γ(x) = θ−1 (β(v0 , x)) pour tout x ∈ V Comme β est reflexive on a α0 (x) = 0 ⇐⇒ γ(x) = 0 cêst–à–dire ker α0 = ker γ. La forme α0 est donc un multiple scalaire (non–nul) de γ. Posons α0 = Q(v0 )γ où Q(v0 ) ∈ K ∗ . On a donc pour tout x ∈ V β(x, v0 ) = α0 (x) = Q(v0 )γ(x) = Q(v0 )θ−1 (β(v0 , x) GROUPES CLASSIQUES 33 Comme v0 etait arbitraire, il existe pour tout y ∈ V non nul un élément Q(y) ∈ K ∗ tel que β(x, y) = Q(y)θ−1 (β(y, x)) pour tout x ∈ V Soient v1 , v2 ∈ V linéairement indépendents (et donc non–nuls). On a pour tout x∈V Q(v1 + v2 )θ−1 β(v1 + v2 , x) β(x, v1 + v2 ) = Q(v1 + v2 )θ−1 β(v1 , x) + Q(v1 + v2 )θ−1 β(v2 , x) = et β(x, v1 + v2 ) = β(x, v1 ) + β(x, v2 ) = Q(v1 )θ−1 β(v1 , x) + Q(v2 )θ−1 β(v2 , x) donc ¡ ¢ ¡ ¢ Q(v1 + v2 ) − Q(v1 ) θ−1 β(v1 , x) + Q(v1 + v2 ) − Q(v2 ) θ−1 β(v2 , x) = 0 comme θ est un automorphisme ¡ ¢ ¡ ¢ θ Q(v1 + v2 ) − Q(v1 ) β(v1 , x) + θ Q(v1 + v2 ) − Q(v2 ) β(v2 , x) = 0 par linéarité de β dans la première variable ³ ¡ ´ ¢ ¡ ¢ β θ Q(v1 + v2 ) − Q(v1 ) v1 + θ Q(v1 + v2 ) − Q(v2 ) v2 , x = 0 pour tout x ∈ V . Ceci entraine, ¡ ¢ ¡ ¢ θ Q(v1 + v2 ) − Q(v1 ) v1 + θ Q(v1 + v2 ) − Q(v2 ) v2 = 0 puisque β est non–dégénérée. Or v1 et v2 sont linéairement indépendents on a Q(v1 + v2 ) − Q(v1 ) = 0 et Q(v1 + v2 ) − Q(v2 ) = 0, c’est–a–dire Q(v1 + v2 ) = Q(v1 ) = Q(v2 ) Il existe donc Q ∈ K tel que (∗) β(x, y) = Qθ−1 (β(y, x)) pour tout x, y ∈ V où Q ne dépend ni de x ni de y. On calcule ¡ ¢ (∗∗) β(x, y) = Qθ−1 β(y, x) = Qθ−1 Qθ−1 β(x, y) = Qθ−1 (Q)θ−2 β(x, y) Choisissant x, y ∈ V tels que β(x, y) = 1 (existe, car β : V 2 → K est surjectif) on obtient Qθ−1 (Q) = 1 ou bien 1 θ(Q) = Q Ainsi l’équation (∗∗) devient β(x, y) = θ−2 β(x, y) ce qui montre (puisque β : V 2 → K est surjectif) que θ−2 = idK ou bien que θ2 = idK .On distingue dans la suite deux cas Cas I : θ = idK . Dans ce cas on a en particulier Q2 = Q · Q = θ(Q) · Q = Q−1 Q = 1, et ainsi Q ∈ {−1, 1}. Remarquons que lorsque car K = 2 on a −1 = 1. Si Q = 1, et alors en particulier toutefois si car K = 2, la relation (∗) donne β(x, y) = Qθ−1 β(y, x) = β(y, x) 34 ÉTÉ 2004 La forme β est alors symétrique. Dans le cas où Q = −1 et car K 6= 2 la formule (∗) donne β(x, y) = Qθ−1 β(y, x) = −β(y, x) et donc β(x, x) = −β(x, x) =⇒ 2β(x, x) = 0 =⇒ β(x, x) = 0 pour tout x ∈ V ce qui montre que β est symplectique. Cas II : θ 6= idK . Alors il existe t0 ∈ K tel que t0 + θ(Q)θ(t0 ) 6= 0. En effet, si t + θ(Q)θ(t) = 0 pour tout t ∈ K, alors on a en prenant t = 1 que 1 + θ(Q) = 0, c’est–à–dire θ(Q) = Q = −1, ce qui donne t − θ(t) = 0 pour tout t ∈ K, ou bien θ = idK contrairement au choix θ 6= idK . Definissons une forme sesquilinéaire β 0 : V 2 → K par β 0 (x, y) = aβ(x, y) où a = t0 + θ(Q)θ(t0 ) 6= 0. Vérifions que β 0 est hermitienne. On a, en utilisant Qθ(Q) = 1 ¡ ¢ ¡ ¢ θ(a) = θ t0 + θ(Q)θ(t0 ) = θ(t0 ) + Qt0 = Q θ(t0 )θ(Q) + t0 = Qa et comme a 6= 0 on a Q= θ(a) a Ainsi on a pour tout x, y ∈ K β 0 (x, y) = aβ(x, y) = β(ax, y) = aQθ−1 β(y, x) = a θ(a) −1 θ β(y, x) a = θ(a)θβ(y, x) ¡ ¢ = θ aβ(y, x) = θβ 0 (y, x) ce qui montre que β 0 est hermitienne. ¤ Définition 6.25. On appelle "forme quadratique sur V " toute application q : V → K telle que I: q(av) = a2 q(v) pour tout a ∈ L et tout v ∈ V . II: L’application β : V 2 → K définie par β(x, y) = q(x + y) − q(x) − q(y) pour tout x, y ∈ V est une forme bilinéaire. Proposition 6.26. Si car K 6= 2 et si β est une forme bilinéaire symétrique sur V , alors il existe une unique forme quadratique q sur V telle que pour tout x, y ∈ V on a β(x, y) = q(x + y) − q(x) − q(y). GROUPES CLASSIQUES 35 Démonstration. Existence : Posons q(v) = 2−1 β(v, v). Alors on a q(av) = β(av, av) = a2 β(v, v) = a2 q(v) et q(x + y) − q(x) − q(y) ´ 1³ β(x + y, x + y) − β(x, x) − β(y, y) 2 ´ 1³ β(x, x) + 2β(x, y) + β(y, y) − β(x, x) − β(y, y) = 2 = β(x, y) = Ainsi q est une forme quadratique sur V et q(x + y) − q(x) − q(y) = β(x, y) pour tout x, y ∈ V . Unicité : Supposons que q 0 est aussi une forme quadratique sur V telle que pour tout x, y ∈ V on a q 0 (x + y) − q 0 (x) − q 0 (y) = β(x, y). Alors ´ 1³ ´ 1 1³ 0 q(v) = β(v, v) = q (v + v) − q 0 (v) − q 0 (v) = 4q 0 (v) − 2q 0 (v) = q 0 (v) 2 2 2 pour tout v ∈ V ce qui montre q = q 0 . ¤ Définition 6.27. Soit β une forme bilinéaire symétrique sur V . On dit que "β provient d’une forme quadratique" s’il existe une forme quadratique q sur V telle que β(x, y) = q(x + y) − q(x) − q(y) pour tout x, y ∈ V . Remarque 6.28. Il est faux que toute forme bilinéaire symétrique sur V provient d’une forme quadratique lorsque K est de caracteristique 2. Il est aussi faux que aucune forme bilinéaire symétrique sur V provient d’une forme quadratique lorsque K est de caracteristique 2. Définition 6.29. Soit β une forme θ sesquilinéaire sur V . Alors on appelle "groupe d’isométries de V, β le groupe Isom(V, β) := {f ∈ GL(V ) | β(x, y) = β(f (x), f (y)) pour tout x, y ∈ V } Remarque 6.30. Le cas où β est non–dégénérée n’est pas interessant : En effet, si β est dégénérée, alors Isom(V, β) laisse invariant le sous–espace (non trivial) V ⊥ := {v ∈ V | β(v, x) = 0 pour tout x ∈ V } et agit sur V /V ⊥ en préservant la forme induite β, qui est donnée par β(x + V ⊥ , y + V ⊥ ) = β(x, y) La forme β est non–dégénérée (exercice) et on a Isom(V, β) ∼ = Isom(V /V ⊥, β) × GL(V ⊥ ) Il est clair que lorsque a ∈ K ∗ on a Isom(V, β) = Isom(V, aβ). Dans le cas d’une forme non–dégénérée et reflexive, il suffit donc d’après le théorème de Birkhoff–von 36 ÉTÉ 2004 Neumann (6.24) d’étudier le cas Isom(V, β) où θ = idK et β est ou bien symétrique ou bien sympléctique et le cas où θ 6= idK et β est hermitienne. Remarque 6.31. Choisissons une base B de V , et soit M la matrice de β dans la base M . Alors, vu la proposition 6.8 on a Isom(V, β) ∼ = {A ∈ GL(n, K) | At M θ(A) = M } de mainère canonique. Mettons en evidence deux faits : Le premier : Si M 0 est la matrice de β dans une autre base de V alors {A ∈ GL(n, K) | At M θ(A) = M } ∼ = {A ∈ GL(n, K) | At M 0 θ(A) = M 0 } L’isomorphisme est donné par A 7→ SAS −1 où S est la matrice de changement de base. Le deuxaième : Si β 0 est une autre forme sur V telle que la matrice de β 0 dans une certaine base C vaut M , alors Isom(V, β) ∼ = Isom(V, β 0 ) où l’isométrie est l’unique transformation linéaire V → V qui envoye la base (ordonnée) B sur la base (ordonnée) C. GROUPES CLASSIQUES 37 7. Le théorème de Witt On se fixe dans ce chapitre des espaces vectoriels V, V1 , V2 de dimension finie n ≥ 2 sur un corps (commutatif) K et un automorphisme θ : K → K. On se fixe aussi des forme θ–sesquilinéaires β, β1 , β2 non–dégénérées et reflexives sur V, V1 et V2 respectivement. Dans le cas où la forme β, β1 ou β2 est symétrique et pas sympléctique3 on suppose qu’elle provient d’une forme quadratique q, q1 et q2 respectivement. On note toujours avec β (β1 , β2 ) la restriction de β (β1 , β2 ) à un sous–espace de V (V1 , V2 ). Définition 7.1. On appelle "isométrie de V1 dans V2 " tout isomorphisme d’espaces vértoriels f : V1 → V2 tel que I: β2 (f (x), f (y)) = β1 (x, y) pour tout x, y ∈ V1 II: Si β1 et β2 proviennent de formes quadratiques q1 respectivement q2 , alors q2 (f (x)) = q1 (x) pour tout x ∈ V . Theorème 7.2 (Witt ∼ 1930). Soit U ≤ V un sous–espace vectoriel de V et ϕ : U → V une application linéaire telle que ϕ : U → ϕ(U ) est une isométrie. Alors il existe une isométrie ϕ : V → V telle que ϕ|U = ϕ. Remarque 7.3. Soient V et β comme dans l’enoncé du théorème de Witt, et supposons qu’il existent u, v ∈ V non–nuls tels que β(u, u) = 0 = β(v, v). On définit ϕ : hui → hvi par ϕ(αu) = αv pour tout α ∈ K Puisque β est trivial sur hui et hvi on a que ϕ est une isométrie. Par le théorème de Witt, on peut prolonguer ϕ à une isométrie ϕ : V → V . On a par construction ϕ(u) = v. Ceci montre que le groupe Isom(V, β) agit transitivement sur l’ensemble de vécteurs {w ∈ V | β(w, w) = 0}. Définition 7.4. Soient u, v ∈ V non nul et W ≤ V un sous–espace vectoriel de V . On dit que • "v est isotrope" si β(v, v) = 0 et v 6= 0. • "W est totalement isotrope" si W ⊆ W ⊥ . • "v est singulier" si q(v) = 0, dans le cas où β provient de q. • "W est totalement singulier" si W ⊆ W ⊥ et q(W ) = {0}, dans le cas où β provient de q. 3Si car K 6= 2 il n’est pas possible qu’une forme soit à la fois symétrique et sympléctique sauf si elle est identiquement nulle. Soit, si car K = 2 il existent des formes non–nulles et à la fois symétriques et sympléctiques comme le montre la remarque 7.11. 38 ÉTÉ 2004 • "W est non–dégénéré" si W ∩ W ⊥ = {0}. • "{u, v} est une paire hyperbolique" si β(u, u) = β(v, v) = 0 et β(u, v) = 1. Lemme 7.5. Soient U et U 0 deux sous–espaces de V1 tels que V1 = U ⊕ U 0 , et soient f : U → V2 , f 0 : U 0 → V2 des transformations linéaires satisfaisant I: f : U → f (U ) et f 0 : U 0 → f (U ) sont des isométries. II: V2 = f (U ) ⊕ f 0 (U 0 ) III: β2 (f (u), f 0 (u0 ) = β1 (u, u0 ) et β2 (f 0 (u0 ), f (u) = β1 (u0 , u) pour tout u ∈ U et tout u0 ∈ U 0 . Alors f ⊕ f 0 est une isométrie de V1 dans V2 . Démonstration. Exercice. ¤ Lemme 7.6. Soit L ≤ V un sous–espace vectoriel de V de dimension 2 et supposons qu’il existe un vecteur isotrope u ∈ L. Alors il existe v ∈ L tel que {u, v} est une paire hyperbolique. De plus si β provient de q, on peut choisir v tel que q(v) = 0. Démonstration. Posons L = hu, wi. Sans perte de généralité on peut supposer que βw, u = 1. La restriction β|L est une forme θ–sesquilinéaire non–dégénérée reflexive. Par le théorème de Birkhoff–von Neumann (6.24) on a que β|L est ou bien symétrique, ou bien sympléctique avec θ = idK ou bien multiple d’une forme hermitienne avec θ 6= idK et θ2 = idK . Cas I : β est symplectique. Alors β(x, x) = 0 pour tout x ∈ V , et on peut prendre {u, v} := {u, w} comme paire hyprebolique recherchée. Cas II : β est symétrique. Par hypothèse β provient de la forme quadratique q. Posons v := −q(w)u + w. On a β(v, u) = β−q(w)u + w, u = −q(u)β(u, u) + β(w, u) = 1 et β(v, v) = β−q(w)u + w, −q(w)u + w = = q(w)2 β(u, u) − 2q(w)β(u, w) + β(w, w) = −2q(w) + β(w, w) Comme β(w, w) = q(w + w) − q(w) − q(w) = 4q(w) − 2q(w) = 2q(w), l’equation ci–dessus devient β(v, v) = −2q(w) + β(w, w) = −2q(w) + 2q(w) = 0 Le couple {u, v} est alors une paire hyperbolique. Cas III : β est multiple d’une forme hermietenne. Sans perte de généralité on peut supposer que β est hermitienne. Soit d ∈ K tel que θ(d) 6= d. Remarquons que si car K = 2, alors θ(d) + d = θ(d) − d 6= 0. On pose − 12 β(w, w) si car K 6= 2 a= d β(w, w) si car K = 2 θ(d)+d GROUPES CLASSIQUES 39 et on pose v := au + w. On a β(v, u) = β(au + w, u) = aβ(u, u) + β(w, u) = 1 et β(v, v) = β(au + w, au + w) = a2 β(u, u) + aβ(u, w) + θ(a)β(w, u) + β(w, w) = aβ(u, w) + θ(a)θβ(u, w) + β(w, w) = a + θ(a) + β(w, w) Dans le cas où la caracteristique de K est differente de 2 cette equation devient, vu que θ(− 21 = − 21 et θβ(w, w) = β(w, w) β(v, v) = − 12 β(w, w) + θ(− 12 β(w, w)) + β(w, w) = − 21 β(w, w) + − 12 β(w, w) + β(w, w) = 0 et dans le cas où la caracteristique de K est 2 elle devient β(v, v) = d θ(d)+d β(w, w) d + θ( θ(d)+d β(w, w)) + β(w, w) = d θ(d)+d β(w, w) + = d+θ(d) d+θ(d) β(w, w) + β(w, w) θ(d) d+θ(d) β(w, w) + β(w, w) = 2β(w, w) = 0 Ainsi {u, v} est la paire hyperbolique cerchée. ¤ Démonstration du théorème de Witt. Soit U ≤ V un sous–espace vectoriel de V et ϕ : U → V une application linéaire telle que ϕ : U → ϕ(U ) est une isométrie. On procède par récurrence sur dim U . Si dim U = 0, alors on peut prendre ϕ = idV . Supposons donc dim U =: m ≥ 1. Soit H un sous–espace vectoriel de U de dimension n − 1. Par l’hypothèse de recurrence on peut prolonguer l’isométrie ϕ|H : H → ϕ(H) en une isométrie ϕH : V → V . Posons ψ := ϕ−1 H ◦ϕ:U →V Par construction ψ : U → W est une isométrie et ψ|H = idH . Posons P := im(ψ − idU ). On a H ⊆ ker(ψ − idU ) et donc dim P ≤ 1. Si dim P = 0 alors on a ker(ψ − idU ) = U et donc ψ = idU . L’isométrie ϕH coïncide alors avec ϕ sur U , et on a terminé. Supposons alors que dim P = 1. Pour tout u, v ∈ U on a (1) β(ψ(u), ψ(v) − v) = = = β(ψ(u), ψ(v)) − β(ψ(u), v) β(u, v) − β(ψ(u), v) β(u − ψ(u), v) Si en particulier v ∈ H alous ψ(v) = v, l’àquation (1) donne alors (1) 0 = β(ψ(u), 0) = β(ψ(u), ψ(v) − v) = β(u − ψ(u), v) | {z } ∈P 40 ÉTÉ 2004 ce qui montre que β(p, v) = 0 pour tout p ∈ P = im(ψ − idU ) et tout v ∈ H, c’est–à–dire H ≤ P ⊥ . On a de plus les équivalences suivantes U ≤ P⊥ (2) ⇐⇒ β(u − ψ(u), v) = 0 pour tout u, v ∈ U (1) ⇐⇒ ⇐⇒ β(ψ(u), ψ(v) − v) = 0 pour tout u, v ∈ U ϕ(U ) ≤ P ⊥ Cas I : U 6≤ P ⊥ . Montrons qu’on a (3) U ∩ P ⊥ = H = ϕ(U ) ∩ P ⊥ En effet, on sait déjà que H ≤ P ⊥ et comme H ≤ U on a H ≤ U ∩ P ⊥ . D’autre part, comme U 6≤ P ⊥ on a U ∩ P ⊥ U . Puisque dim H = dim U − 1 on a U ∩ P ⊥ = H. Quant à l’autre égalité on sait que ψ(H) = H ≤ P ⊥ et ψ(H) ≤ ψ(U ) et alors ψ(H) ≤ ψ(U ) ∩ P ⊥ . L’équivalence (2) montre que ψ(U ) 6≤ P ⊥ . De nouveau ψ(U ) ∩ P ⊥ est un sous–espace propre de ψ(U ) qui doit coïncider avec H vu que dim H = dim ψ(U ) − 1. Choisissons un complément direct X de H dans P ⊥ . On a alors X ⊕ U = V = X ⊕ ψ(U ) (3) En effet, comme X ⊆ P ⊥ on a X ∩ U = X ∩ P ⊥ ∩ U = X ∩ H = {0}. De même, (3) X ∩ψ(U ) = X ∩P ⊥ ∩ψ(U ) = X ∩H = {0}. Par 6.20 on a dim P +dim P ⊥ = dim V . Comme dim P = 1 on a dim P ⊥ = dim H + dim X = dim V − 1. Par définition de H on a dim U = dim H + 1 on a dim U + dim X = dim V , ce qui permet de conclure, puisque la somme est directe, que V = X ⊕ U . Comme ψ est injective on a dim ψ(U ) = dim U , ce qui montre V = X ⊕ ψ(U ). Posons ψ := idX ⊕ψ, et vérifions que ψ est une isométrie. Il suffit de vérifier la troisième condition du lemme 7.5. Pour tout x ∈ X et tout u ∈ U on a β(ψ(u), idX (x)) = = = β(ψ(u), x) β(ψ(u), x) − β(u, x) + β(u, x) β(ψ(u) − u, x) +β(u, x) {z } | =0 = β(u, x) et de même β(idX (x), ψ(u)) = = = β(x, ψ(u)) β(x, ψ(u)) − β(x, u) + β(x, u) β(x, ψ(u) − u) +β(x, u) | {z } =0 = β(x, u) Le lemme 7.5 permet de conclure que ψ est une isométrie. Elle prolonge par construction ψ = ϕ−1 H ◦ ϕ. L’isométrie ϕ := ϕH ψ est alors un prolonguement de ϕ sur V . Cas IIa : U ≤ P ⊥ et ψ(U ) 6= U . Choisissons u ∈ U \ H et v ∈ ψ(U ) \ H. On a donc U = H ⊕ hui et ψ(U ) = H ⊕ hvi GROUPES CLASSIQUES 41 Montrons que X := hu + vi est un complément direct de U dans U + ψ(U ) et aussi un complément direct de ψ(U ) dans U + ψ(U ). En effet ? ? ? Soit Y un complément direct de U + ψ(U ) dans P ⊥ , et posons S := X ⊕ Y . On a alors S ⊕ U = X ⊕ U ⊕ Y = U + ψ(U ) ⊕ Y = X ⊕ ψ(U ) ⊕ Y = S ⊕ ψ(U ) Posons ψe := idS ⊕ψ, et vérifions que la troisième condition du lemme 7.5 est satisfaite. En effet, soit s ∈ S et u ∈ U . Alors β(ψ(u), idS (s)) = ... Le lemme 7.5 permet de conclure que ψe = P ⊥ → P ⊥ est une isométrie. Elle ⊥ e ⊥ prolonge par construction ψ = ϕ−1 H ◦ ϕ. En particulier on a ψ(P ) = P . On entre alors (en remplacant ψ par ψe et U pas P ⊥ ) dans le cas I ou dans le cas suivant Cas IIb : U ≤ P ⊥ et ψ(U ) = U . Soit S un complément direct de U dans P ⊥ . On a P ⊥ = S ⊕ U = S ⊕ ψ(U ) Comme dans le cas IIa l’application ψe := idS ⊕ψ est une isométrie ψe : P ⊥ → P ⊥ . En remplacant ψ par ψe et U par P ⊥ on peut supposer que U = ψ(U ) = P ⊥ On a P ≤ P ⊥ vu que P = (ψ − idU )(U ) ≤ ψ(U ) − U = U = P ⊥ . Soit z ∈ P non nul. Alors z ∈ P ⊥ et donc β(z, z) = 0. Le vecteur z est donc isotrope. Dans le cas où la forme β est symétrique, elle provient pas hypothèse d’une forme quardatique q. Dans ce z est même singulier. En effet on a z = ψ(y) − y pour un certain y ∈ U et ainsi q(z) = = = = = q(ψ(y) − y) q(ψ(y)) + q(y) − β(ψ(y), y) q(y) + q(y) − β(y, y) (?? : β(ψ(y), y) = β(y, y)) 2q(y) − β(y, y) 0 Soit L un sous–espace vectoriel de V de dimension 2 tel que z ∈ L mais L 6≤ P ⊥ . On est dans les hypothèses du lemme 7.6. Il existe alors t ∈ L tel que {t, z} est une paire hyperbolique et tel que L = ht, zi. On a L⊥ = ht, zi⊥ = hti⊥ ∩ hzi⊥ = hti⊥ ∩ P ⊥ = hti⊥ ∩ U Considérons hti ⊕ ψ(L⊥ ) Cette somme est directe et c’est un hyperplan de V . En effet, t ∈ / ψ(L⊥ ) car ψ(z) ∈ ψ(L) et β(ψ(z), t) 6= 0 ( ? ?). La somme est donc directe. De plus (en utilisant 6.20) que dim(hti ⊕ ψ(L⊥ )) = 1 + dim(V ) − 2 = dim(V ) − 1, d’où hti ⊕ ψ(L⊥ ) est un hyperplan de V . On vérifie que (4) ψ(z) ∈ / hti ⊕ ψ(L⊥ ) En effet, supposons par l’absurde que ψ(z) ∈ hti ⊕ ψ(L⊥ ) Il existent alors a ∈ K et u ∈ L⊥ ⊆ U tel que ψ(z) = at + ψ(u). Ainsi 0 =??β(ψ(z), z) = β(at + ψ(u), z) = aβ(t, z) + β(ψ(u), z) = −a 42 ÉTÉ 2004 Mais si a = 0 on a ψ(z) = at + ψ(u), ? ?, et alors ψ(z) ∈ / hti ⊕ ψ(L⊥ ). ⊥ ⊥ Le sous–espace véctoriel (hti + ψ(L )) est de dimension 1. Il existe donc w ∈ V tel que (hti + ψ(L⊥ ))⊥ = hwi On vérifie que w ∈ / ψ(U ). En effet ? ? ?, ce qui montre w ∈ / ψ(U ). La relation (4) montre alors que ψ(z) ∈ / hwi⊥ , c’est–à–dire βψ(z), w 6= 0. Le sous– espace véctoriel hψ(z), wi est donc non–dégénéré, et ψ(z) est un vécteur isotrope de hψ(z), wi. Par le lemme 7.6 il existe w0 ∈ hψ(z), wi tel que hψ(z), wi = hψ(z), w0 i et tel que {ψ(z), w} est une paire hyperbolique. On a ψ(L⊥ ) = hw, ψ(z)i⊥ En effet, ψ(L⊥ ) ⊆ hwi⊥ et ψ(L⊥ ) ⊆ ψ(P ⊥ ) ⊆ hψ(z)i⊥ . Ainsi ψ(L⊥ ) ⊆ hwi⊥ ∩ hψ(z)i⊥ = hw, ψ(z)i⊥ . Mais comme dim ψ(L⊥ ) = dimhw, ψ(z)i⊥ = dim V − 2 on a égalité. Définissons une application linéaire ψ 0 : hti → hw0 i en posant ψ 0 at = aw pour tout a ∈ K et définissons ψ := ψ ⊕ ψ 0 Par construction ψ est un prolonguement (linéaire) de ψ. On montre que ψ est une isométrie en vérifiant les conditions du lemme 7.5. On a V = U ⊕ hti = U ⊕ hwi = ψ(U ) ⊕ ψ 0 (hti). Comme t et w0 sont les deux isotropes, ψ 0 est une isométrie. Les conditions I et II sont alors satisfaites. Quant à la troisième, soit u ∈ U et a ∈ K. Comme U = L⊥ ⊕ hψ(z)i on peut écrire u = u0 + a0 ψ(z) avec u0 ∈ L0 ⊥ et a0 ∈ K. On a β(ψ(u), ψ 0 (at)) = = aβ(ψ(u0 + a0 ψ(z)), w0 ) a β(ψ(u0 ), w0 ) +aa0 β(ψ(z), w0 ) | {z } | {z } = = = = = = aa0 aβ(u0 , t) + aa0 β(z, t) ?? aβ(u0 , t) + aa0 β(ψ(z), t) aβ(u0 + a0 ψ(z), t) β(u, at) =0 =1 et de même β(ψ 0 (at), ψ(u)) = ... Le lemme 7.5 permet de conclure que ψ est une isométrie. On pose ϕ := ϕH ◦ ψ. ¤ L’isométrie ϕ est alors un prolonguement de ϕ sur V . Corollaire 7.7. Soient M1 , M2 deux sous–espaces totalement isotropes (respectivement totalement singuliers si β est symétrique) maximaux pour l’inclusion. Alors dim M1 = dim M2 . Démonstration. Supposons sans perte de généralité que dim M1 ≤ dim M2 , et choisissons une injection linéaire ϕ : M1 → M2 . Comme M1 et M2 sont totalement GROUPES CLASSIQUES 43 isotropes (singuliers) ϕ est une isométrie. Par le théorème de Witt, on peut prolonguer ϕ à une isométrie ϕ : V → V . On a M1 ⊆ ϕ−1 (M2 ). Or ϕ−1 (M2 ) est totalement isotrope et M1 est maximal par hypothèse, on a aussi ϕ−1 (M2 ) ⊆ M1 . Ainsi ϕ−1 (M2 ) = M1 et donc dim M1 = dim ϕ−1 (M2 ) = dim M2 ¤ Définition 7.8. On appelle "indice de Witt de β" le dimension d’un sous–espace totalement isotrope (singulier) maximal de V . On le note idW(β). Remarque 7.9. On a idW(β) ≤ 12 dim V . En effet, si W ≤ V est totalement isotrope, on a W ≤ W ⊥ . Or dim V = dim W + dim W ⊥ ≥ 2 dim W on a dim W ≤ 12 dim V . Remarque 7.10. Parmi les formes symétriques et non sympléctiques on n’a considéré dans ce chapitre que ceux qui proviennent d’une forme quadratique. Si car K 6= 2 on sait (proposition 6.26 que toute forme symétrique provient d’une et une seule forme quadratique donnée par q(v) = 2−1 β(v, v) L’hypothèse que β provient d’une forme quadratique est donc superflue si car K 6= 2, car elle est toujours remplie. Supposons désormais car K = 2 et que β est symétrique et non sympléctique, et montrons que dans ce cas l’hypothèse que β provient d’une forme quadratique est necessaire dans l’enoncé de lemme 7.6. Considérons la forme β définie sur V := F22 par β(u, v) = u1 v1 + u2 v2 où u = (u1 , u2 ) et v = (v1 , v2 ). Les vécteurs isotropes de V sont u := (1, 1) et u0 := (0, 0), les vécteurs non–isotropes de V sont v := (1, 0) et v 0 := (0, 1). En effet β(u, u) = 1 + 1 = 0 et β(u0 , u0 ) = 0 + 0 = 0 β(v, v) = 1 + 0 = 1 et β(v 0 , v 0 ) = 0 + 1 = 1 Le seul candidat pour former une paire hyperbolique avec le vecteus isotrope u est donc u0 . Mais β(u, u0 ) = 1 · 0 + 1 · 0 = 0 6= 1 Remarque 7.11. En caracteristique 2 il est en effet possible qu’une forme bilinéaire soit à la fois symétrique et sympléctique. Par exemple la forme suivante, définie sur V := F22 par β(u, v) = u1 v2 + u2 v1 où u = (u1 , u2 ) et v = (v1 , v2 ). En effet, β est symétrique : β(u, v) = u1 v2 + u2 v1 = v1 u2 + v2 u1 = β(v, u) pour tout u, v ∈ V et aussi sympléctique : β(v, v) = v1 v2 + v2 v1 = 2v1 v2 = 0 pour tout v ∈ V 44 ÉTÉ 2004 mais pas identiquement nulle : β((1, 0), (0, 1)) = 1 + 0 = 1 6= 0 GROUPES CLASSIQUES 45 8. Groupes sympléctiques On se fixe dans ce chapitre un espace vectoriel V de dimension finie n ≥ 2 sur un corps (commutatif) K et une forme bilinéaire non–dégénérée sympléctique β : V 2 → K. On note m := 21 n (on verra que n est pair). Toutes les bases d’espaces vectoriels seront des bases ordonnées. Notation 8.1. On note Sp(V ) := {T ∈ GL(V ) | β(T u, T v) = β(u, v) pour tout u, v ∈ V } Dans le cas où K = Fq on écrit Sp(n, q) Remarque 8.2. Le groupe Sp(V ) agit (comme sous–groupe de GL(V )) naturellement sur P(V ). Le noyeau de cette action est Z(GL(V )) ∩ Sp(V ) = K idV ∩ Sp(V ). Comme β est non–dégénérée, il existent u, v ∈ V tels que β(u, v) 6= 0. Ainsi on a pour tout λ ∈ K λ idV ∈ Sp(V ) =⇒ β(u, v) = β(λu, λv) = λ2 β(u, v) =⇒ λ2 = 1 Le noyeau de l’action de Sp(V ) sur P(V ) est donc {idV , − idV }. Notation 8.3. On note PSp(V ) := Sp(V )/{± idV } Dans le cas où K = Fq on écrit PSp(n, q) Remarque 8.4. Il existe une base particulièrement convenable pour étudier le groupe Sp(V ). Choisissons e1 ∈ V non nul et f1 ∈ V tel que β(e1 , f1 ) = 1. Donc {e1 , f1 } est une paire hyperbolique, et he1 , f1 i est non dégénéré. On a alors V = he1 , f1 i ⊕ he1 , f1 i⊥ Le sous–espace he1 , f1 i⊥ de dimension n − 2 est muni de la forme non–dégénérée sympléctique β|he1 ,f1 i⊥ . On choisit comme avant une paire hyperbolique {e2 , f2 } dans he1 , f1 i⊥ , et ainsi de suite. La base (ordonnée) {e1 , f1 , e2 , f2 , · · · , em , fm } 46 ÉTÉ 2004 est appelée "base sympléctique". La matrice M de β dans cette base vaut 0 1 −1 0 0 1 −1 0 M = . .. 0 1 −1 0 Les sous–espaces he1 , e2 , · · · , em i et hf1 , f2 , · · · , fm i sont totalement isotropes. En particulier, la matrice de β dans la base {e1 , e2 , · · · , em , f1 , f2 , · · · , fm } vaut µ ¶ 0m×m − idm×m M0 = idm×m 0m×m Proposition 8.5. La dimension de V est paire, et idW(β) = 1 2 dim V . Proposition 8.6. A conjugaison près, il n’existe qu’un seul groupe symplectique dans GL(V ), c’est–a–dire si β 0 est une autre forme sympléctique non–dégénérée sur V et Sp0 (V ) := {T ∈ GL(V ) | β 0 (T u, T v) = β(u, v) pour tout u, v ∈ V } alors Sp0 (V ) et Sp(V ) sont conjugés dans GL(V ). Proposition 8.7. # Sp(2m, q) = m Y j=1 q 2j−1 ¡ q 2j ¢ −1 =q m2 m Y ¡ ¢ q 2j − 1 j=1 Theorème 8.8. Les groupes Sp(V ) et PSp(V ) agissent primitivement sur P(V ). Démonstration. Il suffit de montrer que Sp(V ) agit primitivement sur P(V ). Si dim V = 2, alors Sp(V ) = SL(V ) (exercice) et on sait déjà que SL(V ) agit primitivement sur P(V ) (corrolaire 5.11). Considérons le cas dim V ≥ 4. Supposons qu’il existe B ⊆ P(V ) avec #B ≥ 2 tel que gB ∈ {B, ∅} pour tout g ∈ PSp(V ) et montrons que B = P(V ). Fixons P = hvi ∈ B. Comme P ≤ P ⊥ on a P ∈ B ∩ P ⊥. Cas I : B ∩ P ⊥ 6= P . On a P⊥ ⊆ B En effet, supposons pas l’absurde que Q1 ∈ P ⊥ \ B. Par hypothèse il existe Q2 ∈ P ⊥ ∩ B \ P . Posons Q1 =: hw1 i et Q2 =: hw2 i. Les sous–espaces vectoriels (droites projectives) hv, w1 i et hv, w2 i sont totalement isotropes. Il existe donc, par le théorème de Witt, un g ∈ Sp(V ) tel que gv = v et gw1 = w2 , ou bien gP = P et GROUPES CLASSIQUES 47 gQ1 = Q2 . Comme gB = B et Q2 ∈ B on a Q1 ∈ B contrairement à l’hypothèse que Q1 ∈ P ⊥ \ B. Fixons Q ∈ P(V ) \ P ⊥ et R ∈ (P + Q)⊥ . On a alors R ∈ (P + Q)⊥ ≤ P ⊥ ≤ B. On a Q ∈ R⊥ et P, R ∈ B ∩ R⊥ . On a aussi P 6= R vu que Q ∈ P ⊥ mais Q ∈ / R⊥ . Le point R satisfait alors R∈B et B ∩ R⊥ 6= R ce qui sont exactement les mêmes conditions qu’on a imposé à P . On peut donc conclure que R⊥ ⊆ B On obtient Q ∈ R⊥ ⊆ B. Comme Q etait arbitraire et vu que P ⊥ ⊆ B, on a P(V ) = B. Cas II : B ∩ P ⊥ = P . Comme #B ≥ 2 il existe Q ∈ B \ P ⊥ . Choisissons v1 , v2 ∈ V \P ⊥ . Les droites projectives hv, v1 i, hv, v2 i sont non–dégénérées. Par 7.6 il existent u1 , u2 ∈ V \ P ⊥ tels que hv, vj i = hv, uj i {v, uj } est une paire hyperbolique j = 1, 2 j = 1, 2 Par le théorème de Witt il existe g ∈ Sp(V ) tel que gv = v et gu1 = u2 . Donc (par les mêmes arguments que ci–dessus) P(V ) \ P ⊥ ⊆ B Soit R ∈ P ⊥ , R 6= P et choisissons S ∈ / P ⊥ ∪ R⊥ . On a S ∈ B vu que S ∈ / P ⊥, ⊥ et P ∈ B \ S . Comme S satisfait exactememnt les conditions imposés à P et P satisfait exactement les conditions imposés à Q on a P(V ) \ S ⊥ ⊆ B Mais S ∈ / R⊥ , donc R ∈ / S ⊥ , donc R ∈ B et alors R = P . Contradiction. ¤ Notation 8.9. Soit a ∈ K ∗ , v ∈ V . Alors on note tv,a : u 7→ aβ(u, v) Proposition et Définition 8.10. Soit T ∈ GL(V ). On dit que T est une "transvection symplectique" si T est une transvection et T ∈ Sp(V ). Les transvections de V sont précisement les applications {tv,a | v ∈ V, a ∈ K ∗ }. Démonstration. On a à montrer l’équivalence T est transvection symplectique ⇐⇒ T ∈ {ta,v | a ∈ K, v ∈ V } Soit T une transvection. On sait (remarque 5.16) que T s’écrit comme T = tϕ,v : u → u + ϕ(u)v où ϕ ∈ V ∗ et v ∈ ker ϕ. On a avec ces notations tv,a = taβ(−,v),v 48 ÉTÉ 2004 où aβ(−, v) désigne la forme linéaire u 7→ aβ(u, v). Puisque β est symplectique on a v ∈ ker(aβ(−, v)). Les applications ta,v sont donc des transvections. Il reste à montrer que pour tout ϕ ∈ V ∗ et tout v ∈ ker ϕ on a tϕ,v ∈ Sp(V ) ⇐⇒ Il existe a ∈ K tel que ϕ = aβ(−, v) Par définition de Sp(V ) on a ¡ ¢ tϕ,v ∈ Sp(V ) ⇐⇒ β(x, y) = β tϕ,v (x), tϕ,v (y) On calcule ¡ ¢ β tϕ,v (x), tϕ,v (y) = = = pour tout x, y ∈ V ¡ ¢ β x + ϕ(x)v, y + ϕ(y)v ¡ ¢ ¡ ¢ ¡ ¢ ϕ(x)ϕ(y) β(v, v) +β ϕ(x)v, y + β x, ϕ(y)v + β x, y | {z } =0 ¡ ¢ ¡ ¢ ¡ ¢ β ϕ(x)v, y + β x, ϕ(y)v + β x, y ce qui montre que pour tout x, y ∈ V ¡ ¢ ¡ ¢ ¡ ¢ β(x, y) = β tϕ,v (x), tϕ,v (y) ⇐⇒ β ϕ(x)v, y + β x, ϕ(y)v = 0 et alors tϕ,v ∈ Sp(V ) ⇐⇒ ϕ(x)β(v, y) + ϕ(y)β(x, v) = 0 pour tout x, y ∈ V Il nous reste alors à montrer que ϕ(x)β(v, y) + ϕ(y)β(x, v) = 0 ∀ x, y ∈ V ⇐⇒ ∃ a ∈ K tel que ϕ = aβ(−, v) ⇐= : Soit a ∈ K et supposons ϕ = aβ(−, v). On calcule simplement ϕ(x)β(v, y) + ϕ(y)β(x, v) = aβ(x, v)β(v, y) + aβ(y, v)β(x, v) ¡ ¢ = aβ(x, v) β(v, y) + β(y, v) ¡ ¢ = aβ(x, v) β(v, v) +β(v, y) + β(y, v) + β(y, y) | {z } | {z } =0 =0 = aβ(x, v) β(v + y, v + y) | {z } =0 = 0 =⇒ Choisissons w ∈ V tel que β(v, w) = −1. On trouve en particulier tϕ,v ∈ Sp(V ) =⇒ ϕ(x)β(v, w) + ϕ(w)β(x, v) = 0 pour tout x ∈ V ou bien que tϕ,v ∈ Sp(V ) =⇒ ϕ(x) = ϕ(w)β(x, v) = 0 pour tout x ∈ V ce qui est, en posant a := ϕ(w) précisement ϕ = aβ(−, v). ¤ Définition 8.11. Soit v ∈ V non nul et P := hvi ∈ P(V ). Le sous–groupe de Sp(V ) AP := {ta,v | a ∈ K} s’appelle "sous–groupe radiciel de Sp(V )". GROUPES CLASSIQUES 49 Proposition 8.12. Soit hvi = P ∈ P(V ) et AP := {ta,v | a ∈ K}. Alors AP est un sous–groupe normal abélien de Sp(V )P . De plus AP fixe point par point P ⊥ . Démonstration. On a AP ≤ Sp(V ) puisque pour tout a ∈ K on a ta,v (v) = v + aβ(v, v) = v. Le groupe AP est abélien, car pour tout a, b ∈ K et tout x ∈ V ¡ ¢ ta,v ◦ tb,v (x) = ta,v x + bβ(x, v) v ¡ ¢ = x + bβ(x, v)v + aβ x + bβ(x, v)v, v ¡ ¢ = x + bβ(x, v)v + abβ(x, v) β(v, v) +aβ x, v | {z } =0 = x + (a + b)β(x, v)v ce qui montre ta,v ◦tb,v = ta+b,v = tb+a,v = tb,v ◦ta,v . Le groupe AP est donc abélien. Montrons que AP E Sp(V )P . Soit f ∈ Sp(V )P et a ∈ K. Comme f (P ) = P il existe b ∈ K tel que f (v) = bv. On a alors pour tout x ∈ V ³ ¡ ¢´ f ◦ ta,v ◦ f −1 (x) = f ta,v f −1 (x) ³ ¡ ¢ ´ = f f −1 (x) + aβ f −1 (x), v v ¡ ¢ = x + aβ f −1 (x), v f (v) ¡ ¢ = x + aβ x, f (v) f (v) ( car f ∈ Sp(V )) ¡ ¢ 2 = x + ab β x, v v ce qui montre f ◦ ta,v ◦ f −1 = tab2 ,v et donc que AP est normal dans Sp(V )P . Finalement AP fixe ponctuellement P ⊥ , puisque ta,v (u) = u + a β(u, v) v = u | {z } =0 pour tout u ∈ hvi ⊥ et tout ta,v ∈ AP . ¤ Theorème 8.13. Les transvections symplectiques engendrent Sp(V ). Démonstration. Soit 2m = n = dim V et supposons sans perte de généralité que V = K 2m . Notons T := hta,v | v ∈ V, a ∈ Ki. A voir que Sp(V ) = T . Affirmation I : T agit transitivement sur V \ {0}. En effet, soient u, v ∈ V non nuls. Si β(u, v) 6= 0 la transvection tu−v,β(u,v) fait l’affaire. Sinon on choisit w ∈ V tel que β(u, w) 6= 0 et β(v, w) 6= 0. Un tel w existe toujours car sinon on aurait V = hui ∪ hvi et du coup V = hui ou bien V = hvi ce qui est impossible car β est non–dégénérée. Le produit tu−w,β(u,w) ◦ tw−v,β(w,v) fait maintenant l’affaire. Affirmation II : T agit 2–transitivement sur les paires hyperboliques de V . En effet, soient (u1 , v) et (u2 , w) des paires hyperboliques de V . Par l’affirmation I on peut supposer que u1 = u2 =: u. Si β(v, w) 6= 0, alors la transvection tv−w,β(v,w)−1 fait l’affaire. Si β(v, w) = 0 on raisonne comme dans I. Si m = 1 on a Sp(V ) = SL(V ) et on sait que les transvections engendrent SL(V ). Supposons alors que les transvections symplectiques engendrent Sp(K 2 m − 1). Soit f ∈ Sp(V ) et soit (u, v) une paire hyprebolique de V . Comme f laisse invariant β on a que (f (u), f (v)) est une paire hyperbolique. Par l’affirmation II il existe 50 ÉTÉ 2004 ¡ ¢ t ∈ T tel que t(f (u)), t(f (v)) = (u, v). L’isométrie t ◦ f stabilise hu, vi⊥ et on a t ◦ f |hu,vi = idhu,vi par construction. Par hypothèse de recurrence t◦f |hu,vi est un produit de transvections symplectiques, c’est–à–dire il existe k ∈ N et des transvections symplectiques sa , . . . sk tels que t ◦ f |hu,vi = k Y sj j=1 Pour tout 1 ≤ j ≤ k on a que idhu,vi ⊕sj est une transvection symplectique de V et ainsi k Y t ◦ f = idhu,vi ⊕t ◦ f |hu,vi = idhu,vi ⊕sj j=1 ou bien f =t −1 k Y idhu,vi ⊕sj j=1 ce qui montre f ∈ T . ¤ Corollaire 8.14. Sp(V ) ≤ SL(V ). En particulier on a Sp(2, K) ∼ = SL(2, K). Démonstration. L’inclusion Sp(V ) ≤ SL(V ) resulte simplement du fait que Sp(V ) est engendré par les transvections symplectiques qui sont une partie des transvections, et les transvections engendrent SL(V ) (théorème 8.13). Afin de montrer l’isomorphisme Sp(2, K) ∼ = SL(2, K), considérons l’espace vectoriel V := Ke1 ⊕ Ke2 , la base B := {e1 , e2 } de V et la forme sympléctique β sur V dont la matrice dans la base B vaut µ ¶ 0 1 M := −1 0 Il faut montrer que SL(V ) ⊆ Sp(V ). Par 6.8 on sait que ceci équivaut à montrer que pour toute matrice A ∈ M2 (K) de déterminant 1 on a At M A = M . En effet on a pour tout a, b, c, d ∈ K tel que ab − cd = 1 µ ¶µ ¶µ ¶ µ ¶ µ ¶ a c 0 1 a b 0 ad − cb 0 1 = = b d −1 0 c d cb − ad 0 −1 0 ¤ Proposition 8.15. Il existe une unique classe de conjugaison de transvections symplecitques dans Sp(V ). Démonstration. Est–ce que c’est vraiment le cas ? ? Proposition 8.16. Soit hvi = P ∈ P(V ) et AP := {ta,v | a ∈ K}. Alors * + [ −1 gAP g = Sp(V ) g∈Sp(V ) ¤ GROUPES CLASSIQUES 51 Démonstration. Soit u ∈ V et a ∈ K. Il existe g ∈ Sp(V ) tel que g(u) = v. Pour tout x ∈ V on a ³ ¡ ¢´ g ◦ ta,u ◦ g −1 (x) = g ta,u g −1 (x) ³ ¡ ¢ ´ = g g −1 (x) + aβ g −1 (x), u u ¡ ¢ = x + aβ g −1 (x), u g(u) ¡ ¢ = x + aβ x, g(u) g(u) = x + aβ(x, v)v = ta,v (x) ce qui montre que g ◦ ta,u ◦ g −1 = ta,v . Mais a et v etaient arbitraires. On a alors montré que toute transvection symplectique appartient à l’ensemble [ gAP g −1 g∈Sp(V ) et on sait que les transvections symplectiques engendrent Sp(V ). ¤ Theorème 8.17. Supposons K = Fq fini. Alors Sp(n, K)0 = Sp(n, K) à l’exception de Sp(2, F2 ), de Sp(2, F3 ) et de Sp(4, F2 ). Démonstration. Notons [G, G] =: G0 pour tout groupe G. On commence par démontrer l’implication (∗) Sp(2m − 2, K)0 = Sp(2m − 2, K) =⇒ Sp(2m, K)0 = Sp(2m, K) pour tout m ≥ 2. En effet soit v ∈ V non nul, a ∈ K et posons P := hvi. Par 8.12 on sait que t := ta,v fixe P ⊥ ponctuellement. Choisissons un espace de dimension 2 L ≤ P ⊥ engendré par une paire hyperbolique. On a t|L = idL , d’où t stabilise L⊥ . On a donc t = idL ⊕ t|L⊥ . Mais L⊥ est un espace symplectique de dimension 2m − 2. Par hypothèse t|L⊥ est un produit de commutateurs t|L⊥ ∈ Sp(L⊥ )0 = h{xyx−1 y −1 | x, y ∈ Sp(L⊥ )}i Mais si xyx−1 y −1 est un commutateur de Sp(L⊥ ) alors idL ⊕ xyx−1 y −1 = (idL ⊕ x)(idL ⊕ y)(idL ⊕ x)−1 (idL ⊕ y)−1 est un commutateur de Sp(L ⊕ L⊥ ) = Sp(V ). Ainsi t = idL ⊕ t|L⊥ ∈ {idL } × Sp(L⊥ )0 ≤ Sp(V )0 Mais v et a etaient arbitraires, les transvections symplectiques sont alors engendrés par les commutateurs de Sp(V ). Or les transvections symplectiques engendrent eux même Sp(V ) on a l’égalité Sp(V ) = Sp(V )0 , ce qui montre l’implication (∗). Il suffit maintenant de montrer que I: Sp(6, 2)0 = Sp(6, 2) II: Sp(4, 3)0 = Sp(4, 3) III: q > 3 =⇒ Sp(2, q) = Sp(2, q)0 IV: Sp(2, 2)0 6= Sp(2, 2) V: Sp(2, 3)0 6= Sp(2, 3) 52 ÉTÉ 2004 IV: Sp(4, 2)0 6= Sp(4, 2) Notons I la matrice identité et 0 la matrice nulle de taille m × m. Fixons une base ordonnée B := {e1 , . . . , em , f1 , . . . , fm } de V telle que la matrice de β par rapport à cette base (cf. remarque 8.4) vaut µ ¶ 0 I J := −I 0 Pour tout f ∈ GL(V ) notons fB la matrice de f dans la base B et notons SpB (V ) := {fB | f ∈ Sp(V )} Il est clair que SpB (V ) est un groupe isomorphe à Sp(V ) via l’isomorphisme f 7→ fB . On a M ∈ SpB (V ) ⇐⇒ M t JM = J Pour toute matrice inversible A ∈ Mm (K) on a µ −1 ¶ A 0 ∈ SpB (V ) 0 At car en effet µ A−1 0 0 At ¶t µ 0 −I I 0 ¶µ A−1 0 0 At ¶ µ 0 −I = I 0 ¶ Pour toute matrice symétrique B ∈ Mm (K) on a ¶ µ I B ∈ SpB (V ) 0 I car en effet µ ¶t µ I B 0 0 I −I I 0 La matrice µ −1 ¶−1 µ A 0 I 0 At 0 B I ¶µ I 0 ¶−1 µ B I ¶ A−1 0 µ = 0 At 0 −I ¶µ I Bt − B I 0 B I ¶ ¶ µ = µ = I 0 0 −I I 0 ¶ B − ABAt I ¶ est alors un commutateur de SpB (V ) pour toute matrice inversible A ∈ Mm (K) et toute matrice symétrique B ∈ Mm (K). I : Sp(6, 2)0 = Sp(6, 2). Considérons les matrices A, B ∈ M3 (F2 ) suivantes : 1 1 0 1 0 1 1 0 0 A := 0 0 1 B := 0 1 1 B − ABAt = 0 0 0 1 0 0 1 1 1 0 0 0 II : Sp(4, 3)0 = Sp(4, 3). Considérons les matrices A, B ∈ M2 (F3 ) suivantes : µ ¶ µ ¶ µ ¶ 1 1 0 1 1 0 A := B := B − ABAt = 1 0 1 0 0 0 On a montré que te1 ,2 B 1 0 = 0 0 0 1 0 0 1 0 1 0 0 0 0 1 GROUPES CLASSIQUES 53 est un commutateur de SpB (V ). Ainsi te1 ,2 ∈ Sp(V )0 . Mais il n’y a qu’une seule classe de conjugaison de I : q > 3 =⇒ Sp(2, q) = Sp(2, q)0 Vu le corrolaire 8.14 qui ¤ Theorème 8.18. Le groupe PSp(2m, K) est simple sauf PSp(2, F2 ), PSp(2, F3 ) et PSp(4, F2 ) Démonstration. Dans le cas où K = F2 on suppose dim V ≥ 6 et dans le cas où K = F3 on suppose que dim V ≥ 4. On vérifie que Sp(V ) satisfait les hypothèses du théorème d’Iwasawa 2.19. Fixons hvi = P ∈ P(V ), et soit AP le sous–groupe radiciel AP := {tv,a | a ∈ K}. Par 8.8 on sait que Sp(V ) agit primitivement sur P(V ). Par 8.12 on sait que AP ≤ Sp(V )P et que AP est abélien. Vu la proposition 8.16 on a hgAP g −1 | g ∈ Sp(V )i = Sp(V ). Finalement Sp(V )0 = Sp(V ) par le théorème 8.17. Le théorème d’Iwasawa permet alors de conclure que PSp(V ) ∼ = Sp(V )/{± idV } est simple. ¤ Theorème 8.19. Pour m ≥ 2 il existe H ≤ Sp(2m, F2 ) avec S2m+2 ∼ = H. Démonstration. Soit Ω un ensemble avec {2m + 2} éléments. Soit V l’ensemble de toutes les partitions (Γ, ∆) de Ω tels que #Γ est pair. On définit une structure de F2 espace vectoriel sur V via ¡ ¢ (Γ1 , ∆1 ) + (Γ2 , ∆2 ) := (Γ1 ∪ Γ2 ) \ (Γ1 ∩ Γ2 ), (∆1 ∪ ∆2 ) \ (∆1 ∩ ∆2 ) La multiplication scalaire est évidente. On vérifie que dim(V ) = 2m. On définit une action de SΩ sur V en posant pour tout σ ∈ SΩ et tout (Γ, ∆) ∈ V σ(Γ, ∆) := (σΓ, σ∆) Cette action est fidèle, et l’application v 7→ σv est F2 –linéaire et inversible pour tout σ ∈ SΩ . On a donc une injection ι : SΩ → GL(V ) définie par ι(σ)(Γ, ∆) = (σΓ, σ∆). On définit β : V 2 → F2 en posant ¡ ¢ ¡ ¢ β (Γ1 , ∆1 ), (Γ2 , ∆2 ) = # (Γ1 ∪ Γ2 ) \ (Γ1 ∩ Γ2 ) pour tout (Γ1 , ∆1 ), (Γ2 , ∆2 ) ∈ V . Elle est clairement symplectique. On verifie que l’image de ι est contenue dans Sp(V ), et donc un sous–groupe isomorphe à S2m+2 de Sp(V ). ¤ Corollaire 8.20. Sp(4, 2) ∼ = S6 54 ÉTÉ 2004 Remarque 8.21. Pour m ≥ 2 il existe H ≤ Sp(2m, K) avec S2m ∼ = H pour tout corps K. En effet, si nous reprenenons les notations de la démonstration de ?? on a µ −1 ¶ A 0 ∈ SpB (V ) 0 At pour toute matrice inversible A ∈ Mm (K). Le groupe symplectique Sp(2m, K) contient donc un sous–groupe isomorphe à GL(m, K), et GL(m, K) contient un sous–groupe isomorphe à Sm . GROUPES CLASSIQUES 55 9. Groupes unitaires On se fixe dans ce chapitre un espace vectoriel V de dimension finie n ≥ 2 sur un corps (commutatif) K. On fixe un automorphisme θ 6= id de K tel que θ2 = id et une forme θ–sesquilinéaire non–dégénérée β : V 2 → K telle que β(u, v) = θβ(v, u) pour tout u, v ∈ V . Toutes les bases d’espaces vectoriels seront des bases ordonnées. Définition 9.1. On appelle "groupe unitaire sur (V, β)" l’ensemble des transformations linéaires inversibles de V qui préservent la forme β muni de la loi de composition usuelle. On le note © ª U(V ) := ϕ ∈ GL(V ) | β(u, v) = β(ϕu, ϕv) pour tout u, v ∈ V On note PU(V ) := P(U(V )). Proposition 9.2. Soit ϕ ∈ U(V ) et B une base de V , et soit A la matrice de ϕ dans cette base. Alors on a det(A) det(Aθ ) = 1. Démonstration. Soit M la matrice de β dans la base B. Par 6.8 on a At M Aθ = M et donc det(A) det(M ) det(Aθ ) = det(M ). Vu que β est non–dégénéré on a par 6.17 que det(M ) 6= 0. On conclut det(A) det(Aθ ) = 1. ¤ Définition 9.3. On appelle "groupe spécial unitaire sur (V, β)" le groupe SU(V ) := U(V ) ∩ SL(V ) On note PSU(V ) := P(SU(V )). Proposition 9.4. Les assertions suivantes sont vraies : I: U(V )/ SU(V ) ∼ = {c ∈ K ∗ | cθ(c) = 1} II: U(V ) ∩ K ∗ idV = {c idV | c ∈ K ∗ , cθ(c) = 1} III: SU(V ) ∩ K ∗ idV = {c idV | c ∈ K ∗ , cθ(c) = 1, cn = 1} Démonstration. I : Considérons l’homomorphisme de groupes det : U(V ) → K ∗ . On a ker det = SU(V ). Il suffit alors de montrer que im det = {c ∈ K ∗ | cθ(c) = 1}. Par la proposition 9.2 on a im det ⊆ {c ∈ K ∗ | cθ(c) = 1}. Coisissons alors c ∈ K ∗ tel que cθ(c) = 1 et v ∈ V tel que β(v, v) 6= 0. Un tel v existe : θ 6= id et β n’est par conséquent pas sympléctique. On a V = hvi⊥hvi⊥ . On définit une transformation linéaire ϕ : V → V par ϕ(v) = cv et ϕ|hvi⊥ = idhvi⊥ 56 ÉTÉ 2004 On vérifie que ϕ ∈ U(V ). En effet, soient x, x0 ∈ V . On peut ecrire x et x0 comme x = av + w et y = a0 v + w0 où a, a0 ∈ K et w, w0 ∈ hvi⊥ . Ainsi ¡ ¢ ¡ ¢ β ϕ(x), ϕ(x0 ) = β ϕ(av + w), ϕ(a0 v + w0 ) = β(acv + w, a0 cv + w0 ) = cθ(c) β(av, a0 v) + β(w, w0 ) + ac β(v, w0 ) +θ(a0 c) β(w, v) | {z } | {z } | {z } =1 =0 =0 = β(av, a0 v) + β(w, w0 ) + a β(v, w0 ) +θ(a0 ) β(w, v) | {z } | {z } =0 =0 = β(av, a0 v) + β(w, w0 ) + β(av, w0 ) + β(w, a0 v) = β(av + w, a0 v + w0 ) = β(x, x0 ) Mais on a det ϕ = c d’où c ∈ im det. Comme c etait arbitraire on peut conclure que im det = {c ∈ K ∗ | cθ(c) = 1} ce qui montre I. II : Soit c ∈ K ∗ . Alors c idV ∈ U(V ) si et seulement si β(cv, cv) = β(v, v) pour tout v ∈ V . Comme β(cv, cv) = cθ(c)β(v, v) on a c idV ∈ U(V ) ⇐⇒ cθ(c)β(v, v) = β(v, v) pour tout v ∈ V Ceci montre cθ(c) = 1 =⇒ c idV ∈ U(V ). Choisissons v ∈ V tel que β(v, v) 6= 0. Un tel v existe car β n’est pas sympléctique. Alors c idV ∈ U(V ) =⇒ cθ(c)β(v, v) = β(v, v) =⇒ cθ(c) = 1 On a donc équivalence c idV ∈ U(V ) ⇐⇒ cθ(c) = 1, ce qui montre II. III : On a par définition SU(V ) ∩ K ∗ idV = (U(V ) ∩ K ∗ idV ) ∩ SL(V ) et donc par la deuxième assertion SU(V ) ∩ K ∗ idV = {c idV | c ∈ K ∗ , cθ(c) = 1, det(c idV ) = 1} Or det(c idV ) = cn on a III. ¤ Corollaire 9.5. On a PU(V ) ∼ = U(V )/(K ∗ idV ∩ U(V )) et PSU(V ) ∼ = SU(V )/(K ∗ idV ∩ SU(V )) Démonstration. Resulte de 9.4 et de 5.3 ¤ Notation 9.6. On note α au lieu de θ(α) pour tout α ∈ K et on note K θ le corps fixe de θ, c’est–à–dire K θ := {α ∈ K | α = α}. Remarque 9.7. K est une extension de degré 2 de K θ et le groupe de Galois de K sur K θ est précisement {idk , θ}. En particulier K est un K θ –espace vectoriel de dimension 2. Dans le cas où K est fini, #K est un carré puisque #K = (#K θ )2 GROUPES CLASSIQUES 57 Définition 9.8. On appelle "norme" et "trace sur K par rapport à θ" les applications N : K → K θ respectivement tr : K → K θ définies par N (α) := αα et tr(α) := α + α Lemme 9.9. Les assertions suivantes sont vraies : I: tr : K → K θ est K θ –linéaire et surjectif 4. II: ker tr = {a − a | a ∈ K} ∗ III: N |K ∗ : K ∗ → K θ est un homomorphisme de groupes. IV: ker N |K ∗ = { aa | a ∈ K ∗ } V: Si K est fini, alors N est surjectif. (Si K est infini, alors il est possible que N ne soit pas surjectif.) Démonstration. I : Soient x, y ∈ K et a, b ∈ K θ . Alors tr(ax + by) = = = = = = ax + by + ax + ay ax + by + θ(ax + ay) ax + by + θ(a)θ(x) + θ(b)θ(y) ax + by + aθ(x) + bθ(y) ax + ax + by + by a tr(x) + b tr(y) car θ est un automorphisme car a, b ∈ K θ ce qui montre que la trace est K θ linéaire. Quant à la surjectivité, je répète ce qu’on vient de voir : tr : K → K θ est une application K θ –linéaire entre les K θ –espaces linéaires K (de dimension 2) et K θ (de dimension 1). Il suffit donc de trouver un élément non nul dans l’image de tr. Si la caracteristique de K est differente de 2, alors on prendra 0 6= 2 = 1 + 1 = tr(1) ∈ im tr Si car K = 2, alors on choisit a ∈ K tel que a 6= a. Un tel a existe, puisque on a supposé θ 6= idK . On a alors 0 6= a − a = a + a = tr(a) ∈ im tr d’où tr est surjectif. II : Posons V := {a − a | a ∈ K} = im(2 idK − tr) = im(idK −θ). Comme V est l’image de l’application K θ –linéaire 2 idK − tr on a que V est un K θ –sous–espace linéaire de K. Pour tout x = a − a ∈ V on a tr(x) = tr(a − a) = a + a − a − a = 0 Donc V ≤ ker tr. Comme ker(idK −θ) = K θ on a dim V = dim im(idK −θ) = dim K − dim ker(idK −θ) = 2 − 1 = 1 toutes les dimensions prises sur K θ . Par la première assertion on sait que im tr = K θ , et donc que dim ker tr = dim K − dim im tr = dim K − dim K θ = 2 − 1 = 1 4Attention : On a supposé θ 6= id ! 58 ÉTÉ 2004 sur K θ . Mais dim V = dim ker tr = 1 et V ≤ ker tr entrainent V = ker tr. III : ... IV : ... V : Supposons K fini, et posons q := #K θ . On a #K ∗ = q 2 − 1. On sait que θ est dans ce cas l’automorphisme de Frobenius5 θ : x 7→ xq . On considère l’homomor∗ phisme de groupes abéliens N : K ∗ → K θ défini par N : x 7→ xθ(x) = xq+1 ∗ Puisque K ∗ et K θ sont cycliques on a # ker N = pgcd(q + 1, #K ∗ ) = pgcd(q + 1, q 2 − 1) = q + 1 et donc #K ∗ =q−1 # ker N ce qui montre que N est surjectif. Dans le cas où K est infini ce résultat n’est pas vrai en général, par exemple si K = Q(i), et si θ est la conjugaison complexe usuelle on a K θ = Q mais −1 ∈ / im N . ¤ # im N = Remarque 9.10. Soit {1, i} une K θ –base de K, c’est–à–dire on prend i ∈ K tel que K = K θ (i). On n’a pas nécessairement i2 = −1, plutôt il existent a, b ∈ K θ (uniques) tels que i2 = ai+b. Le polynôme minimal de i sur K θ est donc X 2 −aX−b. Comme θ est K θ –linéaire il suffit de calculer θ(i) pour connaître θ partout. Posons θ(i) = βi + α. On sait par 9.9 que pour tout x ∈ K on a N (x) ∈ K θ et tr(x) ∈ K θ . Primo tr(i) = i + θ(i) = i + αi + β = (α + 1)i + β ∈ K θ d’où α = −1 et secondo N (i) = iθ(i) = i(−i + β) = −i2 + βi = (β − a)i − b ∈ K θ d’où β = a, ce qui montre θ(i) = a − i. On conclut que θ(x + yi) = x + ay − yi pour tout x, y ∈ K θ , vu la K θ –linéarité de θ. ∗ Lemme 9.11. Si dim V = n ≥ 2 et N : K → K θ est surjectif, alors il existe un vecteur isotrope v ∈ V non nul. Démonstration. Soit v ∈ V tel que b := β(v, v) 6= 0. On a b = θ(b) parce–que pour tout u, u0 ∈ V on a β(u, u0 ) = θβ(u0 , u), en particulier pour u = u0 = v. (On ne répetera pas cet argument.) Donc b ∈ K θ . Soit u ∈ hvi⊥ non nul. Le vecteur u est linéairement indépendent de v, vu que u 6= 0, u ∈ hvi⊥ mais v ∈ / hvi⊥ . Puisque N est surjectif il existe a ∈ K tel que N (a) = aa = −b−1 β(u, u) 5ah oui ? ? ? GROUPES CLASSIQUES 59 On calcule β(av + u, av + u) = aaβ(v, v) + a β(v, u) +a β(u, v) +β(u, u) | {z } | {z } =0 = = = = =0 aab + β(u, u) ¡ ¢ N (a)b − b − b−1 β(u, u) N (a)b − bN (a) 0 ce qui montre que le vecteur av + u est isotrope. Remarquons que av + u 6= 0, puisque v et u ne sont pas colinéaires. ¤ Corollaire 9.12. Si dim V = N ≥ 2 et si K est fini, alors il existe un vecteur isotrope v ∈ V . Démonstration. Resulte de 9.9 V. et 9.11. ¤ ∗ Proposition et Définition 9.13. Si dim V = n ≥ 1 et si N : K → K θ surjectif, alors il existe des bases B de V , appelées "bases hyperboliques de V rapport à β" telles que la matrice M de β dans une telle base vaut 0 1 0 1 1 0 1 0 0 1 0 1 1 0 1 0 M = M = .. .. . . 0 1 0 1 1 0 1 0 1 est par respectivement, selon la parité de n. Démonstration. On procède par recurrence sur n = dim V . Si n = 1, alors on choisit v ∈ V non nul. Comme la forme β est non–dégénérée on a β(v, v) 6= 0. Il existe par hypothèse a ∈ K ∗ tel que N (a) = β(v, v). Posons v1 := a−1 v. On a β(v1 , v1 ) = β(a−1 v, a−1 v) = a−1 θ(a−1 )β(v, v) = N (a)−1 N (a) = 1 La matrice de β dans la base B := {v1 } vaut alors bien M = (1) Si n = dim V = 2, alors il existe par 9.11 un vecteur isotrope dans V . Par 7.6 il existe alors une paire hyperbolique {v1 , v2 } dans V . On a alors β(v1 , v1 ) = 0 β(v1 , v2 ) = 1 β(v2 , v2 ) = 0 β(v2 , v1 ) = θβ(v1 , v2 ) = 1 La matrice de β dans la base B := {v1 , v2 } vaut alors bien µ ¶ 0 1 M= 1 0 60 ÉTÉ 2004 Soit maintenant n > 2, et supposons l’assertion vraie pour n − 2. Il existe par 9.11 un vecteur isotrope dans V . Par 7.6 il existe alors une paire hyperbolique {v1 , v2 } dans V . On décompose V en somme orthogonale V = hv1 , v2 i⊥hv1 , v2 i⊥ La matrice de la réstriction de β au sous–espace de dimension 2 hv1 , v2 i vaut, comme on l’a déjà vu µ ¶ 0 1 M 0 := 1 0 Comme hv1 , v2 i⊥ est de dimension n − 2 et vu que la restriction de β sur hv1 , v2 i⊥ est θ non–dégénérée il existe par hypothèse de recurrence une base {v3 , v4 , . . . vn } de hv1 , v2 i⊥ telle que la matrice de β|hv1 ,v2 i⊥ ×hv1 ,v2 i⊥ dans cette base vaut 0 1 0 1 1 0 1 0 . .. 00 00 . .. M := M := 0 1 0 1 1 0 1 0 1 respectivement, selon la parité de n − 2. La proposition 6.23 permet de conclure que la matrice de β dans la base {v1 , v2 , v3 , . . . vn } vaut µ ¶ M0 0 M := 0 M 00 ce qui est précisement la matrice demandée. ¤ Remarque 9.14. On aurait même pu commencer cette recurrence avec n = 0. Dans ce cas la base cherchée est l’ensemble vide, et la matrice de β est la matrice de taille 0 × 0. Un autre type de base assez convenable pour étudier U (V ) est la base orthonormée ou orthonormale : ∗ Proposition et Définition 9.15. Si dim V = n ≥ 1 et si N : K → K θ est surjectif, alors il existe des bases B de V , appelées "bases orthonormales de V par rapport à β" telle que la matrice M de β dans cette base est la matrice identidé. Démonstration. Recurrence sur n = dim V . Si n = 1, alors on sait par 9.13 qu’il existe une base {v1 } de V telle que la matrice de β dans cette base vaut (1) = I1 . Soit maintenant n > 1, et supposons l’assertion vraie pour n − 1. Il existe v ∈ V tel que β(v, v) 6= 0. Il existe par hypothèse a ∈ K ∗ tel que N (a) = β(v, v). Posons v1 := a−1 v. On a β(v1 , v1 ) = β(a−1 v, a−1 v) = a−1 θ(a−1 )β(v, v) = N (a)−1 N (a) = 1 Considérons la décomposition orthogonale de V en V = hv1 i⊥hv1 i⊥ GROUPES CLASSIQUES 61 Le sous–espace vectoriel hv1 i⊥ de V est de dimension n−1 et il existe donc par hypothèse de recurrence une base {v2 , . . . vn } de hv1 i⊥ telle que la batrice de βhv1 i⊥ ×hv1 i⊥ dans cette base vaut In−1 . La proposition 6.23 permet de conclure que la matrice de β dans la base {v1 , v2 , . . . , vn } vaut µ ¶ 1 0 = In 0 In−1 comme on l’a demandé. ¤ Remarque 9.16. Soit B une base de V et M la matrice de β dans la base B. Par la proposition 6.8 le groupe U(V ) est isomorphe au groupe des matrices inversibles A ∈ GL(n, K) ayant la propriété At M θ(A) = M . Cet isomorphisme a lieu quelque soit la base B, en particulier pour toute base orthonormale. Donc © ª U(V ) ∼ = A ∈ GL(n, K) | At θ(A) = In ce qui montre en particulier que à isomorphisme près le groupe U(V ) dépend uniquement de K, θ et de la dimension de V mais pas de β, ni de l’espace vectoriel particulier V . Proposition 9.17. Soient B = {e1 , . . . , en } et C = {f1 , . . . , fn } deux bases hyperboliques de V . Alors il existe un unique ϕ ∈ SU(V ) tel que ϕ(ej ) = fj pour tout 1 ≤ j ≤ n. Avec d’autre mots : SU(V ) agit régulièrement sur les bases hyperboliques de V . Démonstration. ¤ ∗ Corollaire 9.18. Si N : K → K θ est surjectif alors SU(V ) agit transitivement sur l’ensemble des paires hyperboliques de V . Démonstration. ¤ ∗ Corollaire 9.19. Si N : K → K θ est surjectif, alors SU(V ) agit transitivement sur l’ensemble des sous espaces non–dégénérés de dimension 2 de V . Démonstration. Soient W, W 0 deux sous–espaces non–dégénérés de dimension 2 de V . Par 9.13 il existent des bases hyperboliques {e1 , e2 } de W et {f1 , f2 } de W 0 . Par 9.18 il existe ϕ ∈ SU(V ) tel que ϕ(e1 ) = f1 et ϕ(e2 ) = f2 . Ainsi on trouve ϕ(W ) = ϕhe1 , e2 i = hf1 , f2 i = W 0 . ¤ 62 ÉTÉ 2004 Notation 9.20. On note © ª U(n, K) := A ∈ GL(n, K) | At θ(A) = In où In est la matrice identité de taille n × n. On note aussi © ª SU(n, K) := A ∈ SL(n, K) | At θ(A) = In tout en sousentendant θ. Si K est un corps fini avec q 2 éléments on écrit aussi U(n, q) au lieu de U(n, K, θ). Tout de même pour SU(q, K). Remarque 9.21. Attention : U(n, K) n’est pas toujours indépendent de θ. Par exemple √ √ ¡ ¢ ¡ ¢ U n, Q(i, 2), θ U n, Q(i, 2), θ0 où √ √ √ √ θ : a + b 2 + ci + d 2i 7→ a + b 2 − ci − d 2i √ √ √ √ θ0 : a + b 2 + ci + d 2i 7→ a − b 2 + ci − d 2i En effet... (à verifier) Dans le cas où K est fini on d’a pas de problèmes de ce genre : Il n’y a qu’un seul sous–corps à q éléments de K, et un seul automorphisme d’ordre 2 de K fixant ce sous–corps. Proposition 9.22. ½µ SU(2, K) = a c −c a ¶ ¯ ¾ ¯ ¯ a, c ∈ K et N (a) + N (c) = 1 ¯ Démonstration. ⊇ : Il suffit de calculer : ¤ Lemme 9.23. SU(2, K) ∼ = SL(2, K θ ) Démonstration. On note I2 la matrice identité de taille 2 × 2, et on note M la matrice µ ¶ 0 1 M := 1 0 Vu les propositions 9.13 et 9.15 on a, comme remarqué dans 6.31 U(2, K) = {A ∈ GL(n, K) | At θ(A) = I2 } ∼ = {A ∈ GL(n, K) | At M θ(A) = M } et donc SU(2, K) = {A ∈ SL(n, K) | At θ(A) = I2 } ∼ = {A ∈ SL(n, K) | At M θ(A) = M } On va montrer que SL(2, K θ ) ∼ = {A ∈ SL(n, K) | At M θ(A) = M } Considérons une matrice µ A := a b c d ¶ ∈ GL(2, L) GROUPES CLASSIQUES On a µ At M θ(A) = ce qui montre a c b d ¶µ 0 1 1 0 ¶µ a b c d ¶ 63 µ = ac + ca ad + cb ad + cb bd + db ¶ ac + ca = 0 ad + cb = 1 A ∈ SU(2, K) ⇐⇒ ad + cb = 1 bd + db = 0 det(A) = 1 On va montrer que (1) (2) (3) (4) (5) ac + ca = 0 a, d ad + cb = 1 b + b ad + cb = 1 ⇐⇒ c + c bd + db = 0 ad − cb ad − bc = 1 ∈ Kθ =0 =0 =1 ⇐= : Facil. On a a = a et d = d et b = −b et c = −c par hypothèse. Ainsi ac + ca ad + cb ad + cb bd + db = a(c + c) = ad − cb = ad − cb = d(b + b) = = = = 0 1 1 0 =⇒ : Un petit coup de fil à dieu, et on sait qu’il faut multiplier donne 0 = a(bd + bd) = abd + abd Par (2) (4) avec a, ce qui on a ad = 1 − bc. On substitue 0 = b(1 − bc) + abd = b − bbc + abd = b − b(ad − bc) = b − b Le même coup marche avec c : Il faut multiplier cette fois ci (1) avec d afin d’obtenir 0 = d(ac + ac) = acd + acd Par (3) on a ad = 1 − cb. On substitue 0 = acd + c(1 − cb) = acd + c − ccb = c(ad − cb) + c = c + c On a donc b + b = 0 et c + c = 0. On choisit s ∈ K non nul, et tel que tr(s) = 1. Définissons une application Ψ : SU(2, K) → SL(2, K θ ) par µ ¶ µ ¶ a b a sb Ψ: 7→ c d s−1 c d J’affirme que Ψ est un isomorphisme. ¤ Corollaire 9.24. Supposons dim V = 2. Alors SU(V )0 = SU(V ) sauf si #K = 4 ou 9. 64 ÉTÉ 2004 Démonstration. Resulte de 5.20 et de 9.23. ¤ Lemme 9.25. Supposons K fini, et posons #K = q 2 . Alors V contient exactement ³ ´³ ´ q n−1 − (−1)n−1 q n − (−1)n vecteurs isotropes. Démonstration. Designons par im le nombre de points isotropes de P(K m ) pour tout m ∈ N. Il faut montrer que ³ ´³ ´ in #K = q n−1 − (−1)n−1 q n − (−1)n On a i1 = 0. Dans un espace unitaire W de dimension 2 il existe une paire hyperbolique u, v tel que V = hu, vi. Le point hf i ∈ P(W ) est isotrope. Tout les autres pointe de P(W ) sont de la forme e + af pour un certain a ∈ K. Le point e + af est isotrope si et seulement si a + a = 0. Ainsi i2 = 1 + # ker tr = 1 + q. Supposons donc n > 2. Soient P, Q des points isotropes de P(V ) tels que P + Q soit non dégénéré. Ainsi (P + Q)⊥ est non dégénéré, de dimension n − 2 et contenu dans P ⊥ . Vu que P ∈ P ⊥ et n − 2 < dim(P + (P + Q)⊥ ) ≤ n − 1 on a P ⊥ = P + (P + Q)⊥ Affirmation I : Dans P ⊥ il y a précisement q 2 in−2 + 1 points isotropes. En effet, posons hvi = P et hui = Q. Tout R ∈ P ⊥ different de P s’écrit comme u + av pour un certain a ∈ K. On a β(v + au, v + au) = N (a)β(u, u). On trouve q 2 = #K points isotropes differents de P dans P + R pour tout point isotrope R ∈ (P + Q)⊥ . Donc dans P ⊥ on a bien q 2 in−2 + 1 points isotropes. Affirmation II : Dans P(V ) \ P ⊥ il y a précisement q 2n−3 points isotropes. Si R ∈ / P ⊥ alors R+P est non–dégénéré de dimension 2 contient donc i2 = q+1 points isotropes, dont q differents de P . On choisit une base {v, u, v1 , v2 , · · · vn−2 } de V telle que {v1 , . . . , vn−2 } sont tous orthogonaux à v. Considérons R=u+ n−2 X aj vj j=1 Les (q 2 )n−2 choix pour a1 , a2 , · · · nn−2 ∈ K possibles fournissent toutes les chois possibles pour P + R. Il y a donc bien q · (q 2 )n−2 = q 2n−3 points isotropes dans P(V ) \ P ⊥ Ces deux affirmations donnent alors in = q 2n−3 + q 2 in−2 + 1 ce qui donne par recurrence ´ ´³ ³ (q 2 − 1)in = q n−1 − (−1)n−1 q n − (−1)n comme affirmé. ¤ GROUPES CLASSIQUES 65 Corollaire 9.26. Supposons K fini, et posons #K = q 2 . Alors V contient exactement ³ ´³ ´ q n−1 − (−1)n−1 q n − (−1)n paires (ordonnées) hyperboliques. Soit ¡Démonstration. ¢¡ {e, f } une ¢ paire hyperbolique. D’après le lemme 9.25 il y a q n−1 − (−1)n−1 q n − (−1)n choix pour e. Par l’affirmation II dans la démonstration on sait qu’il existent q 2n−3 points isotropes n’appartenant pas e⊥ . Dans chaqu’un de ces points il y a un unique vecteur f tel que β(e, f ) = 1. ¤ Proposition 9.27. Supposons K fini, et posons #K = q 2 . Alors n ³ ´ Y 1 # U(n, q) = q 2 n(n−1) q j − (−1)j j=1 1 n ³ Y 1 j=2 n Y # SU(n, q) = q 2 n(n−1) # PU(n, q) = q 2 n(n−1) q j − (−1)j ³ q j − (−1)j ´ ´ j=2 # PSU(n, q) = # PU(n, q) = n ³ ´ Y q q j − (−1)j pgcd(n, q + 1) j=2 1 2 n(n−1) Démonstration. Fixons une base {e1 , f1 , . . . , em , fm } si n est pair respectivement {e1 , f1 , . . . , em , fm , w} si n est impaire tel que toutes les {ej , fj } sont des paires hyperboliques, β(w, w) = 1 et tel que V = he1 , f1 i⊥he2 , f2 i⊥ · · · ⊥hem , fm i⊥hwi Le groupe U(n, q) agit transitivement et régulièrement sur l’ensemble de tout les bases de cette forme. Si n est pair on a alors m−1 ³ ´³ ´ Y # U(n, q) = q 2(n−2m)−3 q n−1m−1 − (−1)n−2m−1 q n−1m − (−1)n−2m j=0 = 1 q 2 n(n−1) n ³ Y q j − (−1)j ´ j=1 Dans le cas où n est impair, nous avone en plus les ker N = q + 1 choix pour w. On calcule m−1 ´ ´³ ³ Y (q + 1) q 2(n−2m)−3 q n−1m−1 − (−1)n−2m−1 q n−1m − (−1)n−2m = q j=0 n Y 1 2 n(n−1) ³ q j − (−1)j ´ j=1 Le reste est facil. ¤ 66 ÉTÉ 2004 Lemme 9.28. Soit f ∈ U(V ). Alors im(idV −f ) = ker(idV −f )⊥ . Démonstration. On a u ∈ ker(idV −f ) ⇐⇒ f (u) = u. Pour tout v ∈ V et tout u ∈ ker(idV −f ) on a donc β(v − f (v), u) = β(v, u) − β(f (v), u) = β(v, u) − β(f (v), f (u)) = 0 ce qui montre im(idV −f ) ≤ ker(idV −f )⊥ . Or dim(im(idV −f )) = n − dim(ker(idV −f )) = dim(ker(idV −f )⊥ ) on a égalité entre im(idV −f ) = ker(idV −f )⊥ . ¤ Proposition et Définition 9.29. Les transvections contenus dans SU(V ) s’appellent "transvections unitaires". Ils sont caracterisés par l’équivalence suivante : Soit ϕ ∈ V ∗ non nul et soit u ∈ ker ϕ. Alors tϕ,u ∈ SU(V ) ⇐⇒ u est isotrope et ∃a ∈ ker tr tel que ϕ = a ad β(u) En particulier SU(V ) ne contient pas de transvections nontriviales si V ne contient pas de vecteurs isotropes. Démonstration. Je rappelle que les transvections sont les éléments de GL(V ) de la forme tϕ,u , définis par tϕ,u (x) = x + ϕ(x)u où ϕ ∈ V ∗ et u ∈ ker ϕ. On a ker(idV −tϕ,u ) = ker ϕ et im(idV −tϕ,u ) = hui. Si ϕ = 0 on a tϕ,u = idV . =⇒ : Soit ϕ ∈ V ∗ non–nul et u ∈ ker ϕ, et supposons tϕ,u ∈ U(V ). Par le lemme 9.28 on a hui⊥ = im(idV −tϕ,u )⊥ = ker(idV −tϕ,u ) = ker ϕ Ainsi u ∈ ker ϕ = hui⊥ , le vecteur u est alors isotrope. Ceci montre déjà que SU(V ) ne contient pas de transvections si V ne contient pas de vecteurs isotropes. Pour tout v, w ∈ V on a β(tϕ,u (v), tϕ,u (w)) = β(v, w) On calcule ¡ ¢ β(v, w) = β tϕ,u (v), tϕ,u (w) ¡ ¢ = β v + ϕ(v)u, w + ϕ(w)u = β(v, w) + ϕ(w)β(v, u) + ϕ(v)β(u, w) + ϕ(v)ϕ(w) β(u, u) | {z } =0 = β(v, w) + ϕ(w)β(v, u) + ϕ(v)β(u, w) On a donc pour tout v, w ∈ V ϕ(w)β(v, u) = −ϕ(v)β(u, w) Fixons w ∈ V tel que β(u, w) 6= 0. On a ainsi pour tout v ∈ V ϕ(v) = −ϕ(w) −ϕ(w) β(v, u) = ad β(u)(v) β(u, w) β(u, w) ce qui montre qu’il existe a ∈ K tel que ϕ = a ad β(u). De plus on a tr(a) = a+a = 0. En effet : Comme ϕ 6= 0 on a que ϕ : V → K est surjectif. Choisissons v ∈ V tel GROUPES CLASSIQUES 67 que ϕ(v) = a. Comme a = ϕ(v) = a ad β(u)(v) = β(u, v) on a β(u, v) = 1. On trouve finalement 0 = = = = β(tϕ,u (v), tϕ,u (v)) − β(tϕ,u (v), tϕ,u (v)) β(v, v) − β(v − ϕ(v)u, v − ϕ(v)u) β(v, v) − β(v − au, v − au) β(v, v) − β(v, v) − a β(v, u) −a β(u, v) −aa β(u, u) | {z } | {z } | {z } = a+a =1 =1 =0 ce qui montre l’équivalence dans le sens direct. ⇐= : Soit a ∈ ker tr et u ∈ V isotrope. Posons ϕ := a ad β(u). A voir que tϕ,u ∈ SU(V ). On le fait par un cacul brachial. Pour tout x, y ∈ V on a ¡ ¢ ¡ ¢ β tϕ,u (x), tϕ,u (y) = β x + ϕ(x)u, y + ϕ(y)u = β(x, y) + ϕ(y)β(x, u) + ϕ(x)β(u, y) + ϕ(x)ϕ(y) β(u, u) | {z } =0 = = = β(x, y) + aβ(y, u)β(x, u) + aβ(x, u)β(u, y) β(x, y) + aβ(u, y)β(x, u) + aβ(x, u)β(u, y) β(x, y) + (a + a) β(u, y)β(x, u) | {z } = β(x, y) =0 et donc tϕ,u ∈ SU(V ). ¤ Notation 9.30. Soit u ∈ V isotrope et soit a ∈ ker tr. Soit ϕ := a ad β(u). On note ta,u := tϕ,u On note ¯ ­ ® TSU (V ) := ta,u ¯ u ∈ V est isotrope eta ∈ ker tr Remarque 9.31. D’après 9.29, les transvections unitaires sont alors précisement l’ensemble © ª ta,u | a ∈ ker tr et u ∈ V isotrope Pour tout x ∈ V on a ta,u (x) = x + aβ(x, u)u Proposition 9.32. Soient W, W 0 des sous–espaces de V tel que W ⊥W 0 = V et soit f ∈ TSU (W ). Alors f ⊕ idW 0 ∈ TSU (V ). Démonstration. Comme det(f ⊕ idW 0 ) = det(f ) det(idW 0 ) = det(f ) = 1 on a bien f ⊕ idw0 ∈ SL(V ). ¤ 68 ÉTÉ 2004 Proposition et Définition 9.33. Soit u ∈ V isotrope. On appelle "sous–groupe radiciel de SU(V )" le sous–groupe A = {ta,u | a ∈ K, a + a = 0} Démonstration. C’est un sous–groupe ! En effet idV = t0,u ∈ A. Quant à la stabilité de A, soient a, b ∈ ker tr et montrons la formule utile ta,u ◦ tb,u (x) = ta+b,u (x) valable pour tout x ∈ V . En effet ³ ´ ta,u ◦ tb,u (x) = ta,u x + bβ(x, u)u ³ ´ = x + bβ(x, u)u + aβ x + bβ(x, u)u , u = x + bβ(x, u)u + aβ(x, u) + abβ(x, u) β(u, u) | {z } = = x + (a + b)β(x, u)u ta+b,u (x) =0 Comme ker tr est un K θ sous–espace vectoriel de K (et donc stable sous + ) on a a + b ∈ ker tr et donc ta,u ◦ tb,u (x) = ta+b,u (x) ∈ A, ce qui montre que A est stable sous ◦. ¤ Proposition 9.34. Supposons n = dim V = 2. Alors TSU (V ) = SU(V ). Démonstration. On va montrer que l’isomorphisme Ψ construit dans la démonstration de 9.23 bijecte les transvections unitaires sur les transvections dans SL(2, K θ ). ¤ Lemme 9.35. Supposons n = dim V = 2. Pour tout α ∈ K θ non nul, SU(V ) aqit régulièrement sur {v ∈ V | β(v, v) = α}. Démonstration. Soient u, v ∈ V tels que β(u, u) = α = β(v, v). Il faut trouver f ∈ SU(V ) tel que f (u) = v et montrer que f est unique. L’application ϕ b : hui → hvi définie par ϕ(λu) b = λv pour tout λ ∈ K est une isométrie. Par le théorème de Witt il existe une isométrie ϕ ∈ U(V ) telle que ϕ(u) = v. Soit d := det ϕ et choisissons un vecteur non–nul w ∈ hui⊥ . On définit une isométrie ψ : V → V par ψ(λu + µw) := λu + d−1 µu On a det ψ = d−1 et alors det(ϕ ◦ ψ) = 1, ce qui montre f := ϕ ◦ ψ ∈ SU(V ). De plus f (u) = ϕ(ψ(u)) = ϕ(u) = v Supposons que g ∈ SU(V ) soit tel que g(u) = v. On a alors f −1 ◦ g(u) = u et alors, vu que f −1 ◦ g est une isométrie f −1 ◦ g(hui⊥ ) = hui⊥ GROUPES CLASSIQUES 69 Il existe donc c ∈ K (unique) tel que f −1 ◦ g(w) = cw. La matrice de f −1 ◦ g dans la base {u, w} vaut alors µ ¶ 1 0 0 c et donc det(f −1 ◦ g) = c. Comme f −1 ◦ g ∈ SU(V ) on a det(f −1 ◦ g) = 1 et donc c = 1. Ainsi f −1 ◦ g(w) = w. L’application linéaire f −1 ◦ g fixe alors la base {u, w} de V ce qui permet de conclure que f −1 ◦ g = idV et donc que f = g. ¤ Proposition 9.36. Soit α ∈ K θ non nul, et supposons les conditions suivantes vérifiées : I: V contient un vecteur isotrope (non nul). II: Si #K = 4 alors dim V 6= 3. Alors TSU (V ) agit transitivement sur {v ∈ V | β(v, v) = α}. Démonstration. Cas I : n = 2 : Par 9.34 on sait que TSU (V ) = SU(V ), et par le lemme 9.35 on sait que SU(V ) agit régulièrement et donc en particulier transitivement sur {v ∈ V | β(v, v) = α}. Cas II : n ≥ 3 et K ∼ = F4 . Vu la deuxième condition le cas n = 3 n’est pas à considérér. On suppose donc n ≥ 4. On a α ∈ K θ ∼ = F2 et α 6= 0. Donc α = 1. Soient x, x0 ∈ V avec β(x, x) = 1 = β(x0 , x0 ). Le sous–espace vectoriel W := hx, x0 i ⊥ de V est de dimension n−1 si x et x0 sont colinéaires, et de dimension n−2 si x et x0 sont indépendents (par 6.20). Remarquons que hx, x0 i ∩ hx, x0 i⊥ est un sous–espace vectoriel de V qui est soit nul, soit de dimension 1, mais pas de dimension 2, car x∈ / hxi⊥ . Remarquons aussi que hx, x0 i ∩ hx, x0 i⊥ = rad W . Considérons l’espace vectoriel quotient W := W/ rad W = W/(hx, x0 i ∩ hx, x0 i⊥ ) On a soit dim W = dim W ou bien dim W = dim W − 1. Donc dim W ≥ n − 3 > 0. La forme β induit une forme β non–dégénérée sur W définie par β(u + rad W, v + rad W ) = β(u, v) pour tout u, v ∈ V (proposition 6.13). La forme β est θ–sesquilinéaire. Comme θ 6= id on a par le théorème de Birkhoff–von-Neumann (6.24) que β n’est pas sympléctique. Il existe alors un vecteur y = y + rad W ∈ W non nul et qui n’est pas isotrope. On a y 6= 0W = rad W =⇒ y ∈ / rad W 0 ⊥ donc y ∈ hx, x i et y ∈ / hx, x0 i. De plus 0 6= β(y, y) = β(y, y) par définition de β ce qui montre que y n’est pas isotrope. Comme 0 6= β(y, y) ∈ K θ ∼ = F2 on a β(y, y) = 1. Considérons les sous–espaces vectoriels hx, yi hy, x0 i et de dimension 2 de V . Ils sont non–dégénérés car β(x, x) = β(y, y) = 1 et de même β(y, y) = β(x0 , x0 ) = 1. En particulier on a donc V = hx, yi⊥hx, yi⊥ et hy, x0 i⊥hy, x0 i⊥ 70 ÉTÉ 2004 Il existe, par le cas I un produit de transvections f ∈ TSU (hx, yi) qui envoye le vecteur x sur le vecteur y : fe = k Y sj k ∈ N, s1 , . . . sk transvections unitaires de hx, yi j=1 avec fe(x) = y. Par 9.32 on a que f := fe ⊕ idhx,yi⊥ = k Y (sj ⊕ idhx,yi⊥ ) ∈ TSU (V ) j=1 avec fe(x) = f ⊕ idhx,yi⊥ (x) = y. De la même façon il existe un produit de transvections ge ∈ TSU (hy, x0 i) avec ge(y) = x0 . Par 9.32 on a g := ge ⊕ idhy,x0 i⊥ ∈ TSU (V ) ¡ ¢ comme avant, avec g(y) = x0 . Finalement on a g ◦ f ∈ TSU (V ) et g ◦ f (x) = x0 , ce qui montre que TSU (V ) agit transitivement sur {v ∈ V | β(v, v) = α}. Cas III : n ≥ 3 et #K > 4. Choisissons x, x0 ∈ V tels que β(x, x) = β(x0 , x0 ) = α et trouvons g ∈ SU(V ) tel que g(x) = x0 . Si de tels x, x0 n’existent pas, il n’y a rien à montrer, et si x = x0 on prendra g = idV . Supposons alors que x 6= x0 . On distingue deux sous–cas : Le vecteur x − x0 est isotrope ou il ne l’est pas. Sous–cas IIIa : x−x0 n’est pas isotrope. Comme la trace tr : K → K θ est surjective (par 9.9.I) il existe c ∈ K tel que tr(c) = β(x − x0 , x − x0 ) Puisque V contient un vecteur isotrope non–nul (condition I de l’enoncé), on peut trouver par 7.6 une paire hyperbolique {e, f } dans V . Remarquons que tr(c) = c + c = β(ce + f, ce + f ) Par le théorème de Witt (7.2) on peut prolonguer l’isométrie ϕ0 : hce + f i → hx − x0 i définie par ϕ0 (ce + f ) = x − x0 en une isométrie ϕ : V → V . Le vecteur x − x0 est contenu dans la droite hyperbolique L := ϕ(he, f i). Considérons la la décomposition orthogonale V = L⊥L⊥ Il existent des vecteurs uniques y, y 0 ∈ L et z, z 0 ∈ L⊥ tels que x = y + z et x0 = y 0 + z 0 . On a z − z 0 = x − x0 + y − y 0 ∈ L ∩ L⊥ = {0} | {z } | {z } | {z } ∈L⊥ ∈L ∈L GROUPES CLASSIQUES 71 d’où z = z 0 . Le calcul suivant montre que β(y, y) = β(y 0 , y 0 ) : β(y 0 , y 0 ) = = = = β(x0 − z 0 , x0 − z 0 ) β(x0 , x0 ) − β(x0 , z 0 ) − β(z 0 , x0 ) + β(z 0 , z 0 ) β(x, x) − β(x0 , z) − β(z, x0 ) + β(z, z) β(x, x) − β(x0 , z) − β(x − x0 , z) −β(z, x0 ) − β(z, x − x0 ) +β(z, z) | {z } | {z } =0 = = = =0 β(x, x) − β(x, z) − β(z, x) + β(z, z) β(x − z, x − z) β(y, y) Si β(y, y) 6= 0, alors on peut trouver par le cas I un produit de transvections h ∈ TSU (L) tel que h(y) = y 0 , et il reste à constater que (comme on l’a déjà fait dans la partie II) que h ⊕ idL⊥ est un produit de transvections de V et que h ⊕ idL⊥ (x) = h(y) + idL⊥ (z) = y 0 + z 0 = x0 . Supposons donc que β(y, y) = 0. En fait, cela n’est pas possible comme on va le voir. Décomposons V en V = hx − x0 i⊥hx − x0 i⊥ Il existent u ∈ hx − x0 i et v ∈ hx − x0 i⊥ uniques tels que x = u + v. On a u 6= 0 car sinon β(x − x0 , x − x0 ) = β(0 + v, x − x0 ) = 0 contrairement à l’hypothèse du sous cas IIIa. Comme u ∈ hx − x0 i ⊆ L et z ∈ L⊥ on a β(u, z) = 0. Posons w := y − u. Le calcul suivant montre que β(u, w) = 0 β(u, w) = = = = = β(u, y − u) β(u, y + z − u) β(u, u + v − u) β(u, v) 0 On a hwi 6= hui car si on aurait égalité, alors hy − ui = hui donc y ∈ hui. Mais y est isotrope, et u ne l’est pas. Vu que v = x − u = y + z − u = w + z et que w ∈ L, z ∈ L⊥ on a β(w, w) = β(v, w) et β(w, w) = −β(u, u). La deuxième égalite se montre comme suit : β(w, w) = β(u + w, u + w) − β(u, u) = β(u + y − u, u + y − u) − β(u, u) = β(y, y) − β(u, u) = −β(u, u) 72 ÉTÉ 2004 Affirmation : Il existent λ, µ ∈ K tel que u + λv + µw est isotrope. ∗ En effet, posons a := β(v, v) et b := −β(u, u) 6= 0. On a a ∈ K θ et b ∈ K θ . −1 θ θ Posons c := b (b − a). On a aussi c ∈ K . L’application tr : K → K est un homomorphisme surjectif de groupes additives (9.9.I). Comme pour tout k ∈ K θ on a # tr−1 (k) = #K θ ≥ 3 on peut choisir η ∈ tr−1 (c + 1) tel que ∗ η ∈ / {0, c}. L’application N : K ∗ → K θ est un homomorphisme de groupes multiplicatives (9.9.III). Comme pour tout k ∈ im K \ K ∗ on a ¡ ¢ #N −1 N (k) ≥ #{k, θ(k)} = 2 ∗ θ on a, vu que N : K ∗ → K est ¡ ¢ un homomorphisme de groupes même pour ∗ −1 tout k ∈ K que #N N (k) ≥ 2. On peut alors choisir ν ∈ K tel que N (ν) = N (η) et tel que tr ν 6= c + 1. Par choix η − c 6= 0, et on peut poser ν−1 1 λ := et µ := η−c η−c Reste à faire le calcul (remarquons que β(w, v) = β(v, w) = β(w, w) = b) : β(u + λv + µw, u + λv + µw) = β(u, u) + λβ(u, v) + µβ(u, w) +λβ(v, u) + λλβ(v, v) + λµβ(v, w) +µβ(w, u) + µλβ(w, v) + µµβ(w, w) = −b + λλa + λµb + µλb + µµb = ··· = 0 ce qui montre l’affirmation. Remarquons encore que µµ = ... 6 = 1 Choisissons alors λ, µ ∈ K tel que u+λv +µw est isotrope. On a β(u+λv +µw, u) = β(u, u) 6= 0. Donc L1 := hu, u + λv + µwi est une droite hyperbolique et x − x0 ∈ L1 . On décompose V = L1 ⊥L⊥ 1 Il existent des vecteurs uniques y1 , y10 ∈ L1 et z1 , z10 ∈ L⊥ 1 tels que x = y1 + z1 et x0 = y10 + z10 . On a z1 − z10 = x − x0 + y1 − y10 ∈ L ∩ L⊥ = {0} | {z } | {z } | {z } ∈L⊥ ∈L ∈L GROUPES CLASSIQUES 73 d’où z1 = z10 . Le calcul suivant montre que β(y1 , y1 ) = β(y10 , y10 ) : β(y10 , y10 ) = = = = β(x0 − z10 , x0 − z10 ) β(x0 , x0 ) − β(x0 , z10 ) − β(z10 , x0 ) + β(z10 , z10 ) β(x, x) − β(x0 , z1 ) − β(z1 , x0 ) + β(z1 , z1 ) β(x, x) − β(x0 , z1 ) − β(x − x0 , z1 ) −β(z1 , x0 ) − β(z1 , x − x0 ) +β(z1 , z1 ) | | {z } {z } =0 = = = =0 β(x, x) − β(x, z1 ) − β(z1 , x) + β(z1 , z1 ) β(x − z1 , x − z1 ) β(y1 , y1 ) Si β(y1 , y1 ) 6= 0, alors on peut trouver par le cas I un produit de transvections h ∈ SU(L) tel que h(y1 ) = y10 , et il reste de nouveau à constater que h ⊕ idL⊥ est un pruduit de transvections de V et que h ⊕ idL⊥ (x) = x0 . Supposons donc que β(y1 , y1 ) = 0. Posons y1 = cu+c0 (u+λv +µw). On a c+c0 6= 0, car sinon on aurait 0 = β(y1 , y1 ) ¡ ¢ = β λv + µw, λv + µw ¡ ¢ = β u + λv + µw, u + λv + µw − β(u, u) = −β(u, u) 6= 0 Ainsi, en posant γ := (c + c0 )−1 et d := c0 (c + c0 )−1 ∈ K on a γy1 = u + d(λv + µw) On calcule (hé qui !), en utilisant β(u, v) = β(u, w) = 0 0 = = β(γy1 , γy1 ) ¡ ¢ β u + d(λv + µw), u + d(λv + µw) = β(u, u) + ddβ(λv + µw, λv + µw) ³ ´ ¡ ¢ 1 − dd β(u, u) + dd β(u, u) + β(λv + µw, λv + µw) ³ ´ ¡ ¢ 1 − dd β(u, u) + dd β(u + λv + µw, u + λv + µw) ¡ ¢ 1 − dd β(u, u) = = = ce qui montre, puisque β(u, u) 6= 0 que dd = 1. Encore un calcul : 0 = β(z1 , γy1 ) = = β(x − y1 , γy1 ) β(u + v − y1 , γy1 ) = = = β(u + v, γy1 ) ¡ ¢ β u + v, u + d(λv + µw) ¡ ¢ β(u, u) + β v, u + d(λv + µw) = β(u, u) + dλβ(v, v) + dµβ(v, w) = −b + dλa + dµb 74 ÉTÉ 2004 En utlilsant µµ 6= 1 et −b + λλa + λµb + µλb + µµb = 0 on trouve ... et donc a = b. Mais alors β(x, x) = = = = β(u + v, u + v) β(u, u) + β(v, v) −b + a 0 ce qui est en contradiction avec l’hypothèse que β(x, x) = α 6= 0. Sous–cas IIIb : x − x0 est isotrope et β(x, x0 ) 6= 0. Posons c := β(x, x0 ). On a donc 2α = c + c car 0 = β(x − x0 , x − x0 ) = β(x, x) − β(x, x0 ) − β(x0 , x) + β(x0 , x0 ) = 2α − c − c Soit λ ∈ K avec N (λ) = 1. On a l’envie un peu irrationelle de calculer λβ(x − λx0 , x − λx0 ) = λβ(x, x) − λβ(x, λx0 ) − λβ(λx0 , x) + λβ(λx0 , λx0 ) = λα − λ2 c − λλc + λ2 λα = = λα − λ2 c − c + λα −λ2 c + 2λ(c + c) − c ce qui montre l’équivalence x − λx0 est isotrope ⇐⇒ λ est racine de cX 2 − 2 tr(c)X + c valable pour tout λ ∈ K tel que N (λ) = 1. Affirmation : Il existe λ ∈ K tel que N (λ = 1 mais λ 6= 1 et tel que x − λx0 n’est pas isotrope. En effet, comme c 6= 0 (hypothèse du sous–cas) le polynôme cX 2 − 2 tr(c)X + c est de degré 2 et en particulier non–nul. Il admet donc au plus 2 racines dans K. Choisissons alors λ ∈ K tel que N (λ = 1 et tel que x − λx0 n’est pas isotrope. On a β(x, x) = α = N (λ)β(x0 , x0 ) = β(λx0 , λx0 ) Par le cas IIIa il existe alors f ∈ TSU (V ) tel que f (x) = λx0 . On a aussi β(x0 , x0 ) = α = N (λ)β(λx0 , λx0 ) Le vecteur x0 − λx0 = (1 − λ)x0 est non nul, puisque λ 6= 1 et il n’est pas isotrope vu que x0 ne l’est pas. Par le cas IIIa il existe alors g ∈ TSU (V ) tel que g(λx0 ) = x0 . Il reste à constater que g ◦ f ∈ TSU (V ) et que g ◦ f (x) = g(λx0 ) = x0 . Sous–cas IIIc : x − x0 est isotrope et β(x, x0 ) = 0. Ce cas n’est possible que si car K = 2. En effet on a 2α = 2β(x, x) = β(x, x) + β(x, x0 ) + β(x0 , x) + β(x0 , x0 ) = β(x + x0 , x + x0 ) = 0 Mais α 6= 0, et par conséquent 2 = 0. On a déja éliminé le cas où K ∼ = F4 et Kθ ∼ = F2 , (c’était le cas II) et on peut alors supposer #K θ > 2. On a donc GROUPES CLASSIQUES 75 # tr−1 (0) = #K θ > 2 et on peut alors choisir η ∈ K tel que tr η = 0 mais η∈ / {0, 1}. Posons η 1 λ := et µ := 1+η 1+η On a N (λ) + N (µ) = 1 : En effet N (λ) + N (µ) = λλ + µµ = η η 1 1 + 1+η1+η 1+η1+η = 1 + N (η) (1 + η)(1 + η) = 1 + tr(η) + N (η) 1 + tr(η) + N (η) = 1 0 Posons y := λx + µx . On a β(y, y) = = = = β(λx + µx0 , λx + µx0 ) N (λ)β(x, x) + λµ β(x, x0 ) +µλ β(x0 , x) +N (µ)β(x0 , x0 ) | {z } | {z } =0 =0 ¡ ¢ N (λ) + N (µ) β(x, x) β(x, x) c’est–à–dire β(y, y) = α = β(x, x). Si le vecteur x − y n’est pas isotrope, alors il existe par le cas II un f ∈ TSU (V ) tel que f (x) = y. Si x − y est isotrope, alors vu que β(y, x) = λβ(x, x) 6= 0 il existe, cette fois ci par le sous–cas IIIb un f ∈ TSU (V ) tel que f (x) = y. Le même argument montre l’existence d’un g ∈ TSU (V ) tel que g(y) = x0 . Ainsi on a trouvé g ◦ f ∈ TSU (V ) tel que g ◦ f (x) = g(y) = x0 . ¤ Theorème 9.37. Si l’indice de Witt de β est ≥ 1 alors PSU(V ) agit primitivement sur les points isotropes de P(V ). Si l’indice de Witt de β égal à 1 alors cett action est fidèle et 2-transitiveme. Démonstration. ¤ Theorème 9.38. Si n = dim V ≥ 2 et si l’indice de Witt de β est ≥ 1 alors le groupe PSU(V ) est simple sauf pour les cas PSU(2, 2), PSU(2, 3) et PSU(3, 2). Démonstration. On considère l’action de PSU(V ) sur les points isotropes de P(V ). Par 9.37 on sait que cette action est primitive. ¤ 76 ÉTÉ 2004 10. Groupes orthogonaux On se fixe dans ce chapitre un espace vectoriel V de dimension finie n ≥ 2 sur un corps (commutatif) K. On fixe une forme symétrique non–dégénérée β : V 2 → K provenant d’une forme quadratique Q : β(u, v) = Q(u + v) − Q(u) − Q(v) pour tout u, v ∈ V . Toutes les bases d’espaces vectoriels seront des bases ordonnées. Définition 10.1. On appelle "groupe orthogonal sur (V, β)" l’ensemble des transformations linéaires inversibles de V qui préservent la forme quadratique Q muni de la loi de composition usuelle. On le note © ª O(V ) := ϕ ∈ GL(V ) | Q(v) = Q(ϕ(v)) pour tout v ∈ V Remarque 10.2. Attention, il y a des graves ennuis en caracteristique 2. Il se peut que f ∈ GL(V ) préserve β sans préserver Q, tout contrairement au cas où car K 6= 2. On a donc O(V ) ≤ Isom(V, β) avec inégalité stricte aussi bien que égalité possible. Proposition 10.3. Soit ϕ ∈ O(V ). Alors det ϕ ∈ {−1, 1}. En particulier si car K 6= 2 alors SL(V ) ∩ O(V ) est d’indice 2 dans O(V ), et si car K = 2 alors O(V ) ≤ SL(V ). Démonstration. Soit B une base de V , soit M la matrice de β et A la matrice de ϕ dans cette base. L’application ϕ préserve Q, et donc aussi β. Par 6.8 on a At M A = M et donc en particulier det(A)2 det(M ) = det(M ). Vu que β est non–dégénéré on a par 6.17 que det(M ) 6= 0, et donc que det(A)2 = 1. Ainsi det ϕ = det A ∈ {−1, 1}. Si car K = 2 alors on a −1 = 1, ce qui montre que det ψ = 1 pour tout ψ ∈ O(V ). Ainsi SL(V ) ∩ O(V ) = O(V ) et donc [SL(V ) ∩ O(V ) : O(V )] = 1. Supposons alors car K 6= 2 et montrons que dans ce cas [SL(V ) ∩ O(V ) : O(V )] = 2. Considérons l’homomorphisme de groupes multiplicatives det : O(V ) → {−1, 1}. On a (par définition du groupe SL(V )) que ker det = SL(V ) ∩ O(V ) et donc # O(V ) = # im det # ker det Il suffit donc de montrer que # im det = 2, c’est–à–dire que −1 ∈ im det. Il existe, puisque β n’est pas sympléctique un vecteur v non–isotrope dans V . On a une décomposition orthogonale de V [SL(V ) ∩ O(V ) : O(V )] = [ker det : O(V )] = V = hvi⊥hvi⊥ On définit une application linéaire ψ ∈ GL(V ) par ψ(v) = −v et ψ(w) = w pour tout w ∈ hvi⊥ GROUPES CLASSIQUES 77 Clairement det ψ = −1. J’affirme que ψ ∈ O(V ). En effet, soient x, y ∈ V . Il existent λ, µ ∈ K et x0 , y 0 ∈ hvi⊥ (uniques) tels que x = λv + x0 et y = µv + y 0 . On calcule ¡ ¢ ¡ ¢ β ψ(x), ψ(y) = β ψ(λv + x0 ), ψ(µv + y 0 ) = β(−λv + x0 , −µv + y 0 ) = λµβ(v, v) − µ β(x0 , v) −λ β(v, y 0 ) +β(x0 , y 0 ) | {z } | {z } =0 =0 = λµβ(v, v) + µ β(x0 , v) +λ β(v, y 0 ) +β(x0 , y 0 ) | {z } | {z } =0 =0 = β(λv + x0 , µv + y 0 ) = β(x, y) ce qui montre ψ ∈ O(V ), et termine la démonstration. ¤ Notation 10.4. On note SO(V ) := O(V ) ∩ SL(V ). Proposition 10.5. O(V ) ∩ K · idV = {− idV , idV } Démonstration. ⊆ : Soit λ ∈ K et supposons λ idV ∈ O(V ). Soit v ∈ V tel que Q(v) 6= 0. Alors on a λ2 (v) = Q(λv) = Q(v) et donc λ2 = 1. ⊇ : Soit λ ∈ {−1, 1}. Alors Q(λ idV (v)) = λ2 Q(v) = Q(v). ¤ Lemme 10.6. Supposons K fini, et soient a, b ∈ K ∗ et c ∈ K. Alors il existent x, y ∈ K tels que ax2 + by 2 = c. Démonstration. Posons q := #K. Considérons l’homomorphisme de groupes multiplicatives ² : K ∗ → k ∗ défini par ² : t 7→ t2 . On a ker ² = {t ∈ K ∗ |t2 = 1} = {−1, 1}. Ainsi #K ∗ q−1 # im ² = ≥ # ker ² 2 et donc q+1 #{t2 | t ∈ K} ≥ 2 (On a inégalité si et seulement si car K = 2) Comme les applications t 7→ at, t 7→ −bt et t 7→ c + t sont tous des bijections sur K on a q+1 #{at2 | t ∈ K} = #{c − bt2 | t ∈ K} ≥ 2 En particulier {at2 | t ∈ K} ∩ {c − bt2 | t ∈ K} 6= ∅ Il existent alors x, y ∈ K tels que ax2 = c − by 2 . ¤ Theorème 10.7. Si K est un corps fini et si dim V = n ≥ 3, alors V contient un vecteur singulier. 78 ÉTÉ 2004 Démonstration. Si car K = 2, on choisit un vécteur non–nul u ∈ V . Si Q(u) = 0 on a terminé, on suppose donc Q(u) 6= 0. On a dimhui⊥ = n − 1 ≥ 2. Choisissons Q(v) v ∈ hui⊥ \hui. Puisque on est en caracteristique 2, il existe y ∈ K tel que y 2 := Q(u) . Ainsi Q(u + yv) = Q(u) + y 2 Q(v) + yβ(u, v) = Q(u) + y 2 Q(v) = 0 et de plus u + vy 6= 0, ce qui montre que u + yv est singulier. Si car K ≥ 3, alors on choisit u, v, w ∈ V tous non–nuls tels que v ∈ hui⊥ et w ∈ hu, vi⊥ . On suppose u, v, w non–singuliers. Par le lemme 10.6 il existent x, y ∈ K tels que x2 Q(u) + y 2 Q(v) = −Q(w). Ainsi Q(xu + yv + w) = x2 Q(u) + y 2 Q(v) + Q(w) = 0 et de plus xu + yv + w 6= 0, ce qui montre que u + yv est singulier. ¤ Corollaire 10.8. Si K est un corps fini, alors l’indice de Witt de V (la dimension d’un sous–espace maximal singulier) vaut n2 ou n2 − 1 si n est pair et n−1 2 si n est impair. Démonstration. Cette assertion équivaut dire que n2 ≥ idW(β) ≥ n2 − 1 pour tout n. On sait, puisque β est non–dégénéré que n2 ≥ idW(β). Reste à voir l’inégalité idW(β) ≥ n2 − 1. Si n = 1 ou n = 2, alors il n’y a rien à montrer. Supposons alors que l’assertion du corollaire est vraie pour n − 2, et montrons qu’elle est aussi vraie pour n. En effet, par 10.7 il existe e ∈ V singulier, et donc par 7.6 une paire hyperbolique {e, f } dans V . On a maintenant, vu que β est non–dégénérée V = he, f i⊥he, f i⊥ Soit W un sous–espace singulier maximal de he, f i⊥ . Par hypothèse de recurrence on a que dim W ≥ n2 − 2. Mais W ⊕ hei est un sous–espace totalement singulier de V . En effet on a pour tout x ∈ hei et tout y ∈ W Q(x + y) = Q(x + y) − Q(x) − Q(y) = β(x, y) = 0 ¡ ¢ et ainsi idW(β) ≥ dim hei ⊕ W ≥ n2 − 1, ce qu’il fallait montrer. ¤ Proposition 10.9. Soit β 0 une autre forme bilinéaire symétrique non–dégénérée sur V , provenant d’une forme quadratique Q0 . Supposons que idW(β) = idW(β 0 ). Alors les groupe orthogonal sur V, β est isomorphe au groupe orthogonal sur V, β 0 . Démonstration. ¤ GROUPES CLASSIQUES 79 Notation 10.10. Soit n ∈ N impair. On note Mn ∈ Mn (K) la matrice 0 1 1 0 . .. Mn := 0 1 1 0 1 Soit n ∈ N pair. On note Mn+ ∈ Mn la matrice 0 1 1 0 .. . 0 1 1 0 et Mn− ∈ Mn la matrice 0 1 1 0 .. . 0 1 1 0 1 0 0 1 6 2. Il existe une base B Proposition 10.11. Supposons K fini de caracteristique = de V et un élément λ ∈ K ∗ tel que la matrice de λβ vaut Mn , Mn+ ou Mn− . Démonstration. Si n = dim V = 1, alors tout vecteur non nul v ∈ V forme une base {v} de V . Comme β est non–dégénéré on a β(v, v) 6= 0. Posons λ := β(v, v)−1 . La matrice de λβ dans la base {v} vaut bien M1 . Si n = dim V = 2, alors on distingue, comme on s’y attend deux cas : Cas I : V contient un vecteur singulier. Par 7.6 il existe une paire hyperbolique {e, f } dans V . Cette paire hyperbolique est une base de V , et la matrice de β dans cette base vaut M2+ , vu que β est symétrique. Cas II : V ne contient aucun vecteur singulier. Posons hu, vi = V , où u et v sont non–singuliers et u ∈ hvi⊥ . Par le lemme 10.6 on peut trouver x, y ∈ K tels que Q(xu + yv) = 1. Posons e := xu + yv et choisissons f ∈ W \ hei tel que β(e, f ) = 1. Soit X transcendent sur K. Dans V ⊗K K(X) on calcule (en identifiant Q à Q ⊗K idK(X) sousentendu) Q(Xe + f ) = X 2 Q(e) + Xβ(e, f ) + Q(f ) = X 2 + X + Q(f ) Le polynôme F (X) := X 2 +X +Q(f ) est irréductible dans K[X]. En effet, si r ∈ K serait une racine de ce polynôme alors F (r) = Q(re+f ) = 0 et on aurait un vecteur singulier dans W . Posons L := K[X]/F (X)K[X] 80 ÉTÉ 2004 et soient r, r0 les racines de F dans L. En comparant les coefficients on trouve r0 = −1 − r. Remarquons que dimK L = dimK W = 2. On fixe un isomorphisme de K–espaces vectoriels ψ : W → L défini par ψ : λe + µf 7→ λ + µr pour tout λ, µ ∈ K. Cet isomorphisme induit la forme quadratique Q0 := Q|W ◦ψ −1 sur L. Soit N : L → K la norme sur L, c’est–à–dire N = idL ·θ où θ l’unique K– automorphisme non–trivial de L. Cet automorphisme θ est complètement déterminé par θ(r) = r0 = −1 − r et par K–linéarité. Vérifions que Q0 = N . En effet, pour tout s, t ∈ K on a Q0 (s + tr) = Q(ψ −1 (s + tr)) = Q(se + tf ) = s2 Q(e) + stβ(e, f ) + t2 Q(f ) = s2 + st + t2 Q(f ) ¡ ¢ = s2 − st + t2 Q(f ) − t2 r2 + r + Q(f ) {z } | =0 = = = = = 2 2 2 2 s − st − t r + t r s2 − st − str + str − t2 r − t2 r2 ¡ ¢ (s + tr) s + t(−1 − r) (s + tr)θ(s + tr) N (s + tr) L’isomorphisme ψ : W → L est donc un isomorphisme de formes quadratiques ψ : (W, Q|W ) → (L, N ), ce qui montre que Q|W et donc Q est unique à isomorphisme près. Le groupe O(V ) ne dépend alors pas de la forme Q (à l’intérieur du cas III bien sûr). On note O(V ) = O− (2m + 2, K) ou O(V ) = O− (2m + 2, q). Cas I : dim W = 0. Alors {e1 , f1 , . . . em , fm } est une base de V . Ceci montre que O(V ) est unique à conjugaison (= changement de base) près. On note ce groupe O+ (2m, K) ou O+ (2m, q). ¤ Notation 10.12. Soit n ∈ N impair. On note O(n, K) := {A ∈ GL(n, K) | At Mn A = Mn } Soit n ∈ N pair. On note O+ (n, K) := {A ∈ GL(n, K) | At Mn+ A = Mn+ } et O− (n, K) := {A ∈ GL(n, K) | At Mn− A = Mn− } On désigne par SO(n, K), SO+ (n, K) et SO− (n, K) respectivement les groupes O(n, K) ∩ SL(n, K), O+ (n, K) ∩ SL(n, K) et O− (n, K) ∩ SL(n, K). Dans le cas où K est un corps fini avec q éléments on remplace K par q. GROUPES CLASSIQUES 81 Proposition 10.13. Si car K 6= 2, alors SO+ (2, K) ∼ = K ∗ et O+ (2, K) ∼ = K ∗ o C2 , ∗ −1 −1 où l’action de C2 = {id, g} sur K est donnée par gtg = t pour tout t ∈ K ∗ . Si car K = 2, alors SO+ (2, K) = SL(2, K). Démonstration. Soit µ A= Par définition de O+ (2, K) µ + A ∈ O (2, K) ⇐⇒ comme on a µ a c b d ¶µ 0 1 1 0 a b c d a c b d ¶µ ¶ ¶µ a b c d ∈ GL(2, K) 0 1 ¶µ 1 0 ¶ µ = ¶ a b c d µ = 0 1 2ac ad + bc ad + cb 2bd 2ac A ∈ O+ (2, K) ⇐⇒ 2bd ad + cb 1 0 ¶ ¶ =0 =0 =1 Dans le cas où car K = 2 on trouve alors que A ∈ SO(2, K) si et seulement si ad − bc = 1, c’est–à–dire si et seulement si det(A) = 1, d’où SO+ (2, K) = SL(2, K). Supposons desormais que car K 6= 2. Quels sont les quatruples (a, b, c, d) qui satisfont les trois conditions ci–dessous ? =0 (1) ac (∗) bd =0 (2) ad + cb = 1 (3) Si a 6= 0, alors c = 0 par (1) ce qui entraine ad = 1 par (3), et comme ainsi d 6= 0 on trouve encore b = 0 par (2). Les solutions de (∗) où a 6= 0 sont donc données par {(t, 0, 0, t−1 ) | t ∈ K ∗ }. Si a = 0 alors cb = 1 par (3), et en particulier b 6= 0, ce qui entraine d = 0 par (2). Les solutions de (∗) où a = 0 sont donc données par {(0, t, t−1 , 0) | t ∈ K ∗ }. On trouve alors ½µ ¶¯ ¾ [ ½µ ¶¯ ¾ ¯ t 0 0 t ¯¯ + ∗ ∗ ¯ O (2, K) = t∈K t∈K 0 t−1 ¯ t−1 0 ¯ Comme pour tout t ∈ K ∗ µ ¶ t 0 det =1 0 t−1 µ et on trouve le premier resultat cherché, car ½µ t + SO (2, K) = ker det = 0 det 0 t−1 0 t−1 t 0 ¶ = −1 ¶¯ ¾ ¯ ¯ t ∈ K∗ ∼ = K∗ ¯ où det : O+ (2, K) → K ∗ est vu comme homomorphisme de groupes multiplicatives. Quant à la deuxième assertion, considérons la matrice µ ¶ 0 1 M := 1 0 Elle est d’ordre 2, et donc hM i ∼ = C2 . L’ensemble SO+ (2, K) ∪ {M } engendre + nécessairement le groupe O (2m, K) vu que SO+ (2, K) est déjà d’indice 2 dans 82 ÉTÉ 2004 O+ (2, K). De plus on a pour tout A ∈ SO+ (2, K) que M AM −1 = A−1 . En effet il suffit de calculer µ ¶µ ¶µ ¶ µ −1 ¶ 0 1 t 0 0 1 t 0 = 1 0 0 t−1 1 0 0 t Comme SO+ (2, K) ∼ = K ∗ et {I2 , M } ∼ = C2 on trouve O+ (2, n) ∼ = K ∗ o C2 , et ∗ −1 −1 l’action de C2 = {id, g} sur K est bien donnée par gtg = t pour tout t ∈ K ∗ comme on vient de voir. ¤ Proposition 10.14. Soit m ∈ N. Si m ≡ 1 mod 4 alors le groupe O− (2m, 2) contient un sous–groupe isomorphe à S2m+2 et si m ≡ 3 mod 4, alors le groupe O+ (2m, 2) contient un sous–groupe isomorphe à S2m+2 . Démonstration. Soit m ∈ N impair, et soit W un F2 espace vectoriel de dimension 2m − 2. Soit B = {e1 , . . . , e2m+2 } une base de W et soit B∗ = {ϕ1 , . . . , ϕ2m+2 } la base duale à B. On équippe W d’une structure de F2 –algèbre en définissant la multiplication composante par composante (en base B). Pour tout x ∈ W , désignons par A(x) := #{j | ϕj (x) = 1}. On remarque que6 A(x + y) = A(x) + A(y) − 2A(xy) Definissons une forme linéaire ϕ : W → F2 par ϕ= 2m+2 X ϕj j=1 On considère le sous–espace vectoriel V := ker ϕ de W . Comme dim im ϕ = 1 on a dim V = 2m + 1. On a v ∈ V ⇐⇒ A(v) ≡ 0 mod 2 Posons pour tout v ∈ V Q(v) := A(v) + 2Z 2 J’affirme que Q est une forme quadratique sur V . Il est clair que Q(1 · v) = 1 · Q(v) et Q(0 · v) = 0 · Q(v) pour tout v ∈ V . Il reste à voir que β : (v, w) 7→ Q(v + w) − Q(v) − Q(w) est une forme bilinéaire. Pour cela il suffit de voir que pour tout v, w, w0 on a β(v, w + w0 ) = β(v, w) + β(v, w0 ), vu qu’il n’y a que 1 et 0 comme scalaire, et que 6En effet, la F algèbre (W, +, ·) est isomorphe à (Ω, ∆, ∩) où Ω est un ensemble avec 2m + 2 2 éléments et ∆ la difference symétrique, le tout muni de la multiplication scalaire evidente. GROUPES CLASSIQUES 83 β est symétrique (en tant qu’application). On calcule β(v, w + w0 ) = = = = = = = = Q(v + w + w0 ) − Q(v) − Q(w + w0 ) ´ 1³ A(v + w + w0 ) − A(v) − A(w + w0 ) + 2Z 2 1³ A(v) + A(w) + A(w0 ) − 2A(ww0 ) − 2A(vw) − 2A(wv 0 ) 2 ´ +4A(v 2 ww0 ) − A(v) − A(w) − A(w0 ) + 2A(ww0 ) + 2Z ´ 1³ − 2A(vw) − 2A(wv 0 ) + 2Z 2 1³ A(v) + A(w) − 2A(vw) − A(v) − A(w) 2 ´ +A(v) + A(w0 ) − 2A(wv 0 ) − A(v) − A(w0 ) + 2Z ´ 1³ A(v + w) − A(v) − A(w) + A(v + w0 ) − A(v) − A(w) + 2Z 2 Q(v + w) − Q(v) − Q(w) + Q(v + w0 ) − Q(v) − Q(w) β(v, w) + β(v, w0 ) ce qui montre que β est F2 bilinéaire symétrique sur V , et que Q est une forme quadratique sur V . ¤ Proposition 10.15. Si K est un corps fini avec q éléments de caracteristique 6= 2, alors O− (2, q) ∼ = D2(q−1) et O+ (2, q) ∼ = D2(q+1) . Démonstration. ¤ Proposition 10.16. # O+ (2m, q) # O(2m + 1, q) # O− (2m + 2, q) = = = 2q m(m−1) (q m − 1) m−1 Y (q 2j − 1) j=1 qm 2q m 2 m Y (q 2j − 1) si q est pair j=1 2 m Y (q 2j − 1) si q est impair j=1 2q m(m−1) (q m + 1) m−1 Y j=1 (q 2j − 1) 84 ÉTÉ 2004 Notation 10.17. On note Ω(V ) := O(V )0 = [O(V ), O(V )]. De même pour Ω+ et Ω− . Theorème 10.18. Supposons dim V = N = 3 et que l’indice de Witt de β vaut 1 (ce qui est toujours le cas si K est fini). Alors les assertions suivantes sont vraies : I: O(V ) = {± idV } × SO(V ) II: SO(V ) ∼ = PGL(2, K) III: SO(V ) agit 3–transitivement sur les points singuliers de P(V ). Démonstration. I : Si car K = 2, il n’y a rien à montrer, vu que dans ce cas {± idV } = {idV } et SO(V ) = O(V ). Supposons donc car K 6= 2. Le sous–groupe {± idV } est central et donc normal dans O(V ), et SO(V ) est le noyeau de l’homomorphisme ker : O(V ) → K ∗ , et donc aussi normal dans O(V ). De plus on a det(− idV ) = (−1)3 = −1, ce qui montre que SO(V ) ∩ {± idV } = {idV }. Comme SO(V ) est d’indice 2 dans O(V ) on a {± idV } SO(V ) = SO(V ){± idV } = O(V ), ce qui établit l’affirmation O(V ) = SO(V ) × {± idV }. Soit {e, f } une paire hyperbolique dans V et soit hwi = he, f i⊥ . Quitte à multipler Q par un élément approprié de K ∗ on peut supposer que Q(w) = −1. ¤ Corollaire 10.19. Supposons dim V = N = 3 et que l’indice de Witt de β vaut 1. Alors SO(V ) n’est pas simple. Démonstration. Resulte de 10.18.II et du fait que PSL(2, K) E PGL(2, K). ¤ Corollaire 10.20. Supposons dim V = N = 3 et que l’indice de Witt de β vaut 1. Alors Ω(V ) ∼ = PSL(2, K) sauf Ω(3, 2) ∼ = Z/3Z. Remarque 10.21. Si car K = 2 et β non dégénérée, alors β est une forme sympléctique, et on a donc O(V ) ≤ Sp(V ). Si β est dégénérée, alors dim(V ⊥ ) = 1 et β induit une forme sympléctique non dégénérée β 0 sur V /V ⊥ . Donc dim(V /V ⊥ ) = 2m. On peut montrer que dans ce cas ∼ Sp(V /V ⊥ ) O(V ) = Lemme 10.22. Pour tout f ∈ O(V ) et tout k ∈ N on a ¡ ¢⊥ ker(idV −f )k = im (idV −f )k Démonstration. On procède par recurrence sur k. On a v ∈ ker(idV −f ) f (v) = v. Pour tout v ∈ V et tout u ∈ ker(idV −f ) on a donc β(v − f (v), u) = β(v, u) − β(f (v), u) = β(v, u) − β(f (v), f (u)) = 0 ⇐⇒ GROUPES CLASSIQUES 85 ce qui montre im(idV −f ) ⊆ ker(idV −f )⊥ . Or dim(im(idV −f )) = n − dim(ker(idV −f )) = dim(ker(idV −f )⊥ ) on a égalité entre im(idV −f ) = ker(idV −f )⊥ , ce qui montre le lemme dans le cas k = 1. ¡ ¢⊥ Soit alors k > 1 et supposons ker(idV −f )k−1 = im (idV −f )k−1 . A compléter. A compléter. ¤ Theorème 10.23. Soit t ∈ O(V ) et soit H un hyperplan de V . Supposons que t fixe H point par point. Alors une des assertions suivantes est vraie : I: t = idV II: Il existe v ∈ V nonsingulier tel que pour tout w ∈ V on a t(w) = w − 1 β(w, v)v Q(v) Définition 10.24. Soit u ∈ V singulier, v ∈ hui⊥ . On note ρu,v GL(V ) la transformation linéaire définie par ρu,v (x) = x + β(x, v)u − β(x, u)v + Q(v)β(x, u)u pour tout x ∈ V . On appelle ρu,v "transformation de Siegel7". On note S(V ) le sous–groupe de GL(V ) engendré par les transformations de Siegel. Proposition 10.25. Soit u ∈ V singulier, v ∈ hui⊥ et v, w ∈ hui⊥ , a ∈ K et f ∈ O(V ). Alors I: : ρau,v = ρu,av II: ρu,v ◦ ρu,w = ρu,v+w III: f ◦ ρu,v ◦ f −1 = ρf (u),f (v) Démonstration. I : Pour x ∈ V on calcule ρau,v (x) = x + aβ(x, v)u − aβ(x, u)v + a2 Q(v)β(x, u)u = x + β(x, av)u − aβ(x, u)av + Q(av)β(x, u)u = ρu,av (x) 7Karl Ludwig Siegel, 18 ? ? - 86 ÉTÉ 2004 II Pour x ∈ V on fait un calcul mécanique : ρu,v ◦ ρu,w (x) ¡ ¢ = ρu,v x + β(x, w)u − β(x, u)w + Q(w)β(x, u)u = ρu,v (x) + β(x, w)ρu,v (u) − β(x, u)ρu,v (w) +Q(w)β(x, u)ρu,v (u) = x + β(x, v)u − β(x, u)v + Q(v)β(x, u)u ³ ´ +β(x, w) u + β(u, v)u − β(u, u)v + Q(v)β(u, u)u ³ ´ −β(x, u) w + β(w, v)u − β(w, u)v + Q(v)β(w, u)u ³ ´ +Q(w)β(x, u) u + β(u, v)u − β(u, u)v + Q(v)β(u, u)u = x + β(x, v)u − β(x, u)v + Q(v)β(x, u)u +β(x, w)u − β(x, u)w − β(x, u)β(w, v)u + Q(w)β(x, u)u = x + β(x, v + w)u − β(x, u)(v + w) ³ ´ + Q(v) − β(w, v) + Q(w) β(x, u)u = x + β(x, v + w)u − β(x, u)(v + w) + Q(v + w)β(x, u)u = ρu,v+w (x) III Pour x ∈ V et y := f −1 (x) on calcule ¡ ¢ f ◦ ρu,v ◦ f −1 (x) = f ρu,v (y) ¡ ¢ = f y + β(y, v)u − β(y, u)v + Q(v)β(y, u)u = x + β(y, v)f (u) − β(y, u)f (v) + Q(v)β(y, u)f (u) ¡ ¢ ¡ ¢ = x + β x, f (v) f (u) − β x, f (v) f (v) ¡ ¢ ¡ ¢ +Q f (v) β x, f (v) f (u) = ρf (u),f (v) (x) ¤ Proposition 10.26. S(V ) ≤ O(V ). En particulier toute transformation de Siegel tu,v est dans O(V ). GROUPES CLASSIQUES Références [1] Bourbaki N. Algèbre commutative Chapitres 5 à 7 [2] Serre, J-P. Cours d’arithmétique 87