Table des matières - Université de Caen

publicité
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Table des matières
1 Algèbres et modules : définitions et exemples de base. Lemme de Shur.
1.1 Algèbres, idéaux et morphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Modules. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
3
2 Présentation d’une algèbre. Modules et algèbres semi-simples.
2.1 Définition d’une algèbre par présentation de générateurs et relations entre eux. . . . . . . . . . . .
2.2 Modules et algèbres semi-simples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
5
3 Structure d’une algèbre semi-simple de dimension finie.
3.1 Préparations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Le théorème de Wedderburn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
10
4 Commutant et bicommutant.
4.1 Produit tensoriel de deux espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Commutant et bicommutant. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
12
5 Inclusions d’algèbres semi-simples.
14
6 Indice.
17
7 La construction fondamentale. Traces. Espérances conditionnelles.
7.1 La construction fondamentale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Trace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Espérance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
20
20
21
8 Une caractérisation de la construction fondamentale.
8.1 Dual et bidual d’un module. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Produit tensoriel de deux modules. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
23
24
9 Les traces de Markov.
26
10 Tours d’algèbres.
10.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Exemple : les algèbres de Temperley-Lieb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
28
28
Université de Caen Basse Normandie
1/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Résumé
Notons [G : H] l’indice d’un sous-groupe H d’un groupe fini G. Le théorème de Lagrange indique que
[G : H] ∈ ∗ . En passant aux inclusions d’algèbres de groupes kH ⊂ kG, où k est un corps algébriquement clos
dim(kG)
tel que car(k) = 0 (typiquement, k = ), on a [G : H] = dim(kH)
. Dans ce cours, on définit et on étudie l’indice
[A : B] d’une inclusion d’algèbres unifères associatives semi-simples de dimension finie B ⊂ A sur k. Selon le
théorème de Mashke, l’algèbre de groupe kG d’un groupe fini G est semi-simple donc cette nouvelle notion est
une extension de la notion d’indice d’un sous-groupe. On verra, en particulier, que la valeur de [A : B] n’est pas
nécessairement un nombre entier. Ensuite, on étudie la tour d’algèbres construite à partir d’une inclusion A ⊂ B
donnée à l’aide de la construction fondamentale ainsi que les propriétés des traces de Markov et d’espérances
conditionnelles associées.
N
1
C
Algèbres et modules : définitions et exemples de base. Lemme de Shur.
1.1
Algèbres, idéaux et morphismes.
Définitions 1.1. – Une algèbre associative unifère A sur k est un espace vectoriel muni d’une application bilinéaire dite multiplication associative A × A → A : (a, b) 7→ ab, ∀a, b ∈ A et d’unité 1A .
– L’algèbre opposée Aop de A est le même espace vectoriel muni de la multiplication opposée (a, b) 7→ ba.
– Une sous-algèbre B ⊂ A est un sous-espace vectoriel stable pour la multiplication. B est unifère si 1A ∈ B.
– Le centre Z(A) de A est l’ensemble de tous les a ∈ A tels que ab = ba, ∀b ∈ A. Évidemment, k1A ⊂ Z(A). Si
Z(A) = k1A , on dit que A est un facteur.
– Un idéal à gauche (resp., à droite) I ⊂ A est un sous-ensemble tel que AI ⊂ I (resp., IA ⊂ A) . Un idéal
bilatère de A est un idéal à gauche et à droite de A. Un idéal propre de A ne contient pas 1A (le prouver).
– Une algèbre A est commutative (ou abélienne) si Z(A) = A.
– Une algèbre A est simple si elle n’a pas d’idéaux bilatères propres non nuls.
– On dit que a ∈ A est inversible s’il existe un élément a−1 ∈ A tel que aa−1 = a−1 a = 1A . On note A×
l’ensemble de tous les éléments inversibles de A. Un idéal propre de A ne contient pas d’inversibles (le prouver).
Si A = A× ∪ {0}, on dit que A est une algèbre à division. Une telle algèbre ne contient pas de diviseurs de 0.
Exemples 1.1. (Algèbres)
a) A = Endk (V ) - l’algèbre des endomorphismes d’un espace vectoriel V sur k, où la multiplication est la
composition d’endomorphismes, 1A = idV . Si V est de dimension finie n, alors A = Mn (k) est un facteur
(vérification directe) ; A = {a ⊕ a ⊕ . . . ⊕ a : a ∈ Mn (k)} est un facteur.
b) A = k[X] - l’algèbre commutative des polynômes en l’indéterminée X :
Pn (X) = an X n + an−1 X n−1 + · · · + a1 X + a0 ,
où ai ∈ k, ∀i ∈ {1; 2; . . . ; n}, et n ∈
N, avec la multiplication usuelle et 1A = 1(X) ≡ 1.
c) kG - l’algèbre d’un groupe G est l’espace vectoriel des combinaisons linéaires formelles finies d’éléments de
G muni de la multiplication suivante :
X
X
XX
X X
(
as · s)(
bt · t) =
as bt · st =
(
as bs−1 u ) · u,
s∈G
t∈G
s∈G t∈G
u∈G s∈G
pour toutes suites (as )s∈G et (bt )t∈G d’éléments de k. On a 1A = e, où e est l’élément neutre du groupe G.
Évidemment, cette algèbre est associative car la multiplication dans G est associative ; elle est commutative
ssi G est commutatif ; si G est un groupe fini, alors dim(kG) = |G|.
d) Mn (A), où A est une algèbre.
Exemples 1.2. (Sous-algèbres)
a) Le sous-espace vectoriel des matrices diagonales est une sous-algèbre de Mn (k).
b) Le sous-espace vectoriel des matrices triangulaires est une sous-algèbre de Mn (k).
c) Le sous-espace vectoriel des polynômes pairs (mais pas impairs !) en X est une sous-algèbre de k[X].
d) kH est une sous-algèbre de kG, où H est un sous-groupe de G.
Université de Caen Basse Normandie
2/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Exemples 1.3. (Idéaux)
a) Pour tout a ∈ A, Ig := Aa (resp., Id := aA) est un idéal à gauche (resp., à droite) ; si a ∈ Z(A), I := aA est
bilatère ; I = A ssi a est inversible.
b) L’ensemble des matrices lignes (resp., colonnes) forme un idéal à droite (resp., à gauche) de Mn (k).
c) L’ensemble des polynômes qui s’annulent en x0 ∈ k forme un idéal bilatère de k[X].
Remarque. Si A est simple, tout a ∈ Z(A), a 6= 0 est inversible donc Z(A) est une algèbre à division car sinon,
on peut fabriquer un idéal bilatère non trivial de A. On va montrer que si A est simple et dim(Z(A)) < ∞, alors
A est un facteur.
Proposition 1.1. Une algèbre à division D telle que dim(D) = m < ∞ est isomorphe à k.
Preuve. Si x ∈ D, la famille 1D , x, x2 , . . . , xm n’est pas libre donc il existe un polynôme normalisé P ∈ k[X] de
degré minimal tel que P (x) = 0. Comme D est une algèbre à division, le polynôme P est irréductible sur k. En
effet, si P = P1 P2 avec deg(P1 ), deg(P2 ) < deg(P ), on a P (x) = P1 (x)P2 (x) = 0 avec P1 (x) 6= 0, P2 (x) 6= 0 par
minimalité de deg(P ) : contradiction avec l’absence de diviseurs de 0 dans une algèbre à division. Mais comme k
est algébriquement clos, pour tout polynôme irréductible, on a P (X) = X − z pour un z ∈ k. Donc x = z1D . Définitions 1.2. – Un morphisme d’une algèbre A unifère dans une autre algèbre unifère B est un morphisme ϕ d’espaces vectoriels
A et B tel que ϕ(a·b) = ϕ(a)·ϕ(b), pour tous a ∈ A, b ∈ B, et ϕ(1A ) = 1B . On peut parler des morphismes injectifs
(inclusions d’algèbres), surjectifs, isomorphismes, automorphismes. On dit qu’un automorphisme ϕ : A → A
est intérieur s’il existe b ∈ A× tel que ϕ(a) = bab−1 , pour tout a ∈ A.
– Une représentation d’une algèbre A sur un espace vectoriel V est un morphisme π de A dans Endk (V ).
π est dit irréductible si V n’a pas de sous-espaces non triviaux stables pour tous les endomorphismes de Im (π).
– Soit (Aj )j∈J une famille d’algèbres. La somme directe des algèbres Aj est par définition la somme directe
⊕j∈J Aj des espaces vectoriels Aj munie de la multiplication (⊕j∈J aj ) · (⊕j∈J bj ) := ⊕j∈J (aj · bj ).
Exemples 1.4. a) Les morphismes de groupes engendrent les morphismes d’algèbres de groupes associés, les représentations
(en particulier, irréductibles) d’un groupe G correspondent aux représentations (en particulier, irréductibles)
de kG.
d
:G→
b) En particulier, les représentations triviale πtriv : G → k : π(g) ≡ 1k et régulière à droite πreg
d
Endk (kG) : πreg (g)h = hg, ∀g, h ∈ G d’un groupe G et de kG. De même pour la représentation régulière
g
g
à gauche πreg
: G → Endk (kG) : πreg
(g)h = g−1 h, ∀g, h ∈ G.
c) L’inclusion Mn (k) ⊂ M2n (k) : a 7→ a ⊕ a n’est pas surjective.
Remarques. – On va voir dans le §2 la relation très étroite entre les notions de morphisme d’algèbres et d’idéal bilatère.
– L’algèbre de groupe kG n’est jamais simple (sauf si G = {e}). En effet, le noyau de la représentation triviale est
un idéal bilatère non trivial.
1.2
Modules.
Définitions 1.3. – Soit A une algèbre unifère. Un A-module à gauche est un espace vectoriel M muni d’une application bilinéaire
dite action de A sur M · : A × M → M telle que (ab) · m = a · (b · m), 1A · m = m, ∀a, b ∈ A, ∀m ∈ M .
– On définit un A-module à droite de manière analogue. Toutes les définitions et tous les résultats ci-dessous,
formulés pour les A-modules à gauche (resp., à droite), ont leurs analogues évidents pour les A-modules à droite
(resp., à gauche).
– Un A-bimodule M est un A-module à gauche et à droite tel que a · (m · b) = (a · m) · b, ∀a, b ∈ A, ∀m ∈ M .
– Un sous-module d’un A-module M à gauche est un sous-espace vectoriel de M stable pour l’opération ·.
– On dit qu’un A-module non nul est simple s’il n’a aucun sous-module non-trivial.
– On dit qu’un sous-module de M est minimal s’il est simple en tant que A-module.
– Un morphisme de A-modules à gauche M et N est une application linéaire ϕ : M → N telle que ϕ(a · m) =
a · ϕ(m), ∀m ∈ M . Parfois, on dit qu’une telle application est A-linéaire. On peut parler de morphismes injectifs,
surjectifs et bijectifs (équivalence de modules).
Université de Caen Basse Normandie
3/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
– Une somme directe M = ⊕i Mi d’une famille de A-modules à gauche Mi est la somme directe des Mi en
tant qu’espaces vectoriels (donc tout élément de M est une somme finie d’éléments de Mi ) munie de l’opération
a·(⊕i mi ) := ⊕i (a·mi ), ∀a ∈ A, ∀mi ∈ Mi . De même, pour les A-modules à droite. On peut définir naturellement
l’injection canonique νi : Mi → M et la projection canonique πi : M → Mi comme morphismes de A-modules.
– On dit qu’un sous-module N d’un A-module M est un facteur direct de M s’il existe un autre sous-module P
de M tel que M = N ⊕ P .
– On vérifie directement que, si fi : Mi → N est un morphisme de A-modules pour tout i, alors il existe un
morphisme f : M = ⊕i Mi → N et un seul tel que f ◦ νi = fi .
– On dit qu’un A-module à gauche M est libre s’il possède une base (finie ou infinie) B = {b1 , b2 , . . .}, c-à-d :
a) tout élément de M est une combinaison linéaire d’éléments de B à coefficients dans A ;
b) B est libre : si m1 b1 + m2 b2 + . . . + mn bn = 0 pour m1 , . . . , mn ∈ M , alors m1 = m2 = . . . = mn = 0.
– On dit qu’un A-module à gauche M est de type fini s’il existe un ensemble fini B = {b1 , b2 , . . . , bn } (pas
nécessairement libre) tel que tout élément de M est combinaison linéaire d’éléments de B à coefficients dans A.
Un A-module à gauche est cyclique s’il est engendré par un seul élément.
– On dit qu’un A-module à gauche M est projectif s’il existe un autre A-module N tel que la somme directe
M ⊕ N est un A-module libre.
– Soit π : A → Endk (V ) une représentation de A sur un espace vectoriel V . Dans ce cas, V est un A-module
à gauche pour a · v := π(a)v, ∀a ∈ A, ∀v ∈ V . Réciproquement, tout A-module V à gauche définit une
représentation π de A sur V par la même formule. De plus, π est irréductible ssi le A-module V est simple.
Notations. – HomdA (M, N ) est l’ensemble de tous les morphismes de A-modules à droite M et N , c’est un A-module à gauche :
(a · ϕ)(m) := a · (ϕ(m)), ∀a ∈ A, ∀m ∈ M, ∀ϕ ∈ HomdA (M, N ).
– EnddA (M ) est l’ensemble de tous les endomorphismes d’un A-module à droite M , c’est une algèbre (pour la
composition des endomorphismes) et un A-module à gauche.
Exemples 1.5. (Modules)
a) Toute algèbre A définit un A-module à gauche g A (resp., à droite Ad ) dit régulier - l’action de A est définie
par la multiplication à gauche (resp., à droite). Ces modules sont cycliques car 1A est vecteur cyclique.
b) De même, tout idéal à gauche de A est un A-module à gauche ; les sous-modules à gauche de g A sont
exactement les idéaux à gauche de A.
a11 a12
+
: aij ∈ k ,
c) Le sous-module M du module régulier à gauche g A sur l’algèbre A := T2 (k) =
0 a22
défini par la condition a22 = 0 (A agit sur M par multiplication par a11 ) n’a pas de complément direct qui
soit un A-module. En effet, tout complément direct N du sous-espace vectoriel M dans l’espace vectoriel g A
est de dimension 1 donc engendré par une matrice fixée avec a22 6= 0. Mais on a toujours dim(A · N ) > 1
donc N ne peut pas être un A-module.
Remarques. – Tout A-module simple à gauche M est nécessairement cyclique et tout vecteur non nul est cyclique car si
m ∈ M, m 6= 0 n’est pas cyclique, le sous-module A · m de M est propre et non nul (il contient m = 1A · m).
– On a dim(M ) 6 dim(A), pour tout A-module simple à gauche M car dim(M ) = dim(A·m) 6 dim(A), ∀m ∈ M .
Lemme de Shur. Soient A une algèbre et ϕ : M → N un morphisme non nul de A-modules (à gauche ou à droite).
(i) Si M est simple, alors ϕ est injectif.
(ii) Si N est simple, alors ϕ est surjectif.
Preuve. Comme ϕ 6= 0, on a Ker ϕ 6= M et Im ϕ 6= 0. Alors, si M est simple, on a Ker ϕ = 0, et si N est simple,
on a Im ϕ = N .
Corollaire.
1. Si M et N sont simples, alors ou bien ils sont équivalents, ou bien HomA (M, N ) = 0.
2. Soient N un idéal à droite minimal de A et x ∈ A. Alors ou bien xN = 0, ou bien xN est un idéal à droite
minimal de A équivalent à N .
En effet, n 7→ xn est un morphisme surjectif de A-modules N et xN , et on applique le lemme de Shur.
Université de Caen Basse Normandie
4/30
c
Leonid
Vainerman
Master 2
2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Présentation d’une algèbre. Modules et algèbres semi-simples.
2.1
Définition d’une algèbre par présentation de générateurs et relations entre eux.
Définition 2.1. Soient A une algèbre et I un idéal bilatère de A. On définit la relation d’équivalence R suivante :
∀(x, y) ∈ A2 ,
xRy ⇔ (x − y) ∈ I.
Deux éléments de A sont ainsi en relation si leur différence appartient à I. L’espace vectoriel quotient A/I, muni
de la multiplication induite par I : (x + I) × (y + I) = (x · y) + I, est une algèbre, nommée algèbre quotient de
A par I. On a 1A/I = 1A + I.
Évidemment, si I = A, alors A/A est l’algèbre triviale {0}, et si I = {0}, alors A/{0} est isomorphe à A.
Propriétés. a) L’application π : A → A/I définie par π(x) = x+I est un morphisme surjectif d’algèbres (appelée projection
canonique) dont le noyau est I.
b) Si f : A → B est un homomorphisme d’algèbres, notons I = Ker f son noyau. C’est un idéal bilatère. Alors, f
se factorise en un morphisme injectif f¯ : A/I → B défini par f¯(x + I) = f (x) (c’est le théorème fondamental
des homomorphismes).
c) Soient A une algèbre commutative, I un idéal bilatère propre de A. Alors I est maximal ssi A/I = k.
Preuve. du c) : (i) Soit A/I 6= k alors il existe a ∈ A − I, non inversible, car sinon A/I est une algèbre à division
et donc A/I = k par la proposition 1.1. Maintenant I1 := I + aA est un idéal bilatère propre de A, car I1 ne
contient pas 1A , et I ⊂ I1 donc I n’est pas maximal.
(ii) Si A/I = k, on a, par définition, A = I + k1A donc I est maximal propre.
Une algèbre peut se définir par sa présentation autrement dit la donnée d’un ensemble S de générateurs et de
relations que ceux-ci doivent vérifier. Si les générateurs de S ne vérifient aucune relation, l’algèbre AL(S) engendrée
par S est dite algèbre libre engendrée par S. Elle est formée de toutes les combinaisons formelles sur k de
monômes sur S, c’est-à-dire des mots formels x1 x2 . . . xn , où xi ∈ S, i ∈ {1, 2, . . . , n} et du mot vide 1. La
multiplication associative dans cette algèbre est engendrée par la concaténation des mots.
En général, les générateurs de S vérifient certaines relations : il existe un certain ensemble P d’éléments de AL(S)
qui doivent être égaux à 0 dans notre algèbre. Plus formellement, on considère l’idéal bilatère minimal I(P ) de
AL(S) engendré par P , et on quotiente AL(S) par cet idéal : A(S, P ) := AL(S)/I(P ).
D’habitude, la présentation (S, P ) d’une algèbre A se note en écrivant entre crochets une liste des générateurs de
S et une liste des combinaisons formelles de mots en ces générateurs.
Exemples 2.1. a) k[X, Y ] = < X, Y | XY − Y X >.
b) M2 (k) = < eij | eij ekl − δj,k eil >, où i, j, k, l ∈ {1, 2} et δi,j est le symbole de Kronecker.
2.2
Modules et algèbres semi-simples.
Définition 2.2. Soit A une algèbre. On dit qu’un A-module (à gauche ou à droite) est semi-simple s’il est
égal à une somme directe de A-modules simples.
Par conséquent, une somme directe de A-modules semi-simples est un A-module semi-simple.
Proposition 2.1. (i) Dans A = Mn (k), les ensembles Ni (i ∈ {1, 2, . . . , n}) de matrices lignes (resp., colonnes) forment des idéaux
à droite (resp., à gauche) minimaux.
(ii) Ad = ⊕ni=1 Ni en tant que A-modules à droite.
(iii) Les A-modules à droite simples Ni et Nj sont isomorphes pour tous i et j.
(iv) A = Mn (k) est simple (i.e. ne contient pas d’idéaux bilatères non triviaux).
Preuve.
Université de Caen Basse Normandie
5/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
(i) Soient eij les unités matricielles qui forment une base de A et Ni = eii Mn (k) l’ensemble des matrices
lignes pour i ∈ P
{1, . . . , n} fixé. Alors Ni est un idéal à droite de A, et on va montrer que, pour toute matrice
non nulle β = nj=1 βj eij ∈ Ni , on a βA = Ni , ce qui prouvera que Ni est minimal. En effet, soit βj0 6= 0,
P
P
alors β nl=1 βj−1
al ej0 l = nl=1 al eil pour tout al ∈ k.
0
(ii) est évident.
(iii) On applique le corollaire 2 du lemme de Shur : si Ni = eii A et Nj = ejj A, alors l’égalité Nj = eji eij A = eji Ni
montre qu’ils sont équivalents.
(iv) Soit I ⊂ Mn (k) un idéal bilatère non nul donc il contient une matrice
P β non nulle (disons, βrs 6= 0). On va
montrer que I contient alors n’importe quelle matrice α = (αij ) = ni,j=1 αij eij . On a :
(αij ) =
n
X
αij eij =
n
X
−1
βrs
αij (eir βesj ) ∈ I
i,j=1
i,j=1
car I est un idéal bilatère de A.
Remarque. La proposition 2.1 montre que les modules réguliers à droite et à gauche sur A = Mn (k) sont
semi-simples.
Lemme 2.1. Soit M = ⊕i∈I Ni une somme directe de A-modules simples. Alors :
(i) Pour tout sous-module P ∈ M , il existe un sous-ensemble J ⊂ I tel que M = (⊕i∈J Ni ) ⊕ P donc P est un
facteur direct de M .
(ii) Tout sous-module Q ⊂ P est un facteur direct de P .
Preuve.
(i) Soit J le sous-ensemble maximal de I tel que (⊕i∈J Ni ) + P = (⊕i∈J Ni ) ⊕ P . Il existe en vertu du
Lemme de Zorn. Tout ensemble partiellement ordonné dont toute partie totalement ordonnée admet un
majorant, admet au moins un élément maximal.
J est non vide car P ∩ Ni = Ni ou 0 puisque les Ni sont simples. Par maximalité de J, l’intersection du
module MJ := (⊕i∈J Ni ) ⊕ P avec tout Ni , (i ∈ I) est non vide donc MJ contient tout Ni donc MJ = M .
(ii) Par (i), il existe un sous-module S ⊂ M tel que M = Q ⊕ S donc P = P ∩ (Q ⊕ S) = (P ∩ Q) ⊕ (P ∩ S) =
Q ⊕ (P ∩ S).
Remarque. Le lemme 2.1 montre que pour qu’un A-module soit semi-simple, il faut et il suffit que tout sousmodule soit facteur direct et que tout sous-module d’un A-module semi-simple est aussi semi-simple. En particulier,
l’exemple 1.5 c) du §1 est un exemple de module qui n’est pas semi-simple.
Théorème de Mashke. Si G est un groupe fini, alors tout kG-module à gauche M est semi-simple.
Preuve. Soit N un sous-module minimal de M (son existence est évidente si dim(M ) < ∞ ; dans le cas général on
peut utiliser le lemme de Zorn). On va montrer qu’il existe un autre sous-module N1 de M tel que M = N ⊕ N1 .
A priori, il existe un sous-espace vectoriel N0 de M tel que M = N ⊕ N0 . Pour tout x ∈ N0 et g ∈ G, on a :
g · x = n + x′ , où x′ ∈ N0 , n ∈ N . La dépendance x′ de x est linéaire, elle définit un opérateur Tg : N0 → N0 :
x 7→ x′ , et on peut vérifier que g → Tg est une représentation de G sur N0 . En effet, Tg1 g2 x = (g1 g2 ) · x − n′ et
Tg1 (Tg2 x) = Tg1 (g2 · x − n1 ) = g1 · (g2 · x − n1 ) − n′1 = g1 · (g2 · x) − g1 · n1 − n′1 , où n′ , n1 , g1 · n1 , n′1 ∈ N . Donc,
Tg1 g2 x = Tg1 (Tg2 x) car la décomposition (g1 g2 ) · x = g1 · (g2 · x) = x′′ + n′′ avec x′′ ∈ N0 , n′′ ∈ N , est unique.
Maintenant on pose :
1 X −1
g · Tg x := T x et N1 := {T x | x ∈ N0 }.
y=
|G|
g∈G
La dépendance y de x est linéaire donc N1 est un sous-espace vectoriel de M . De plus, y = x mod N car
y−x=
1 X −1
g · (Tg x − g · x) ∈ N,
|G|
g∈G
Université de Caen Basse Normandie
6/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
donc M = N ⊕ N1 . Finalement, pour tout h ∈ G,
hy =
1 X −1
1 X
hg · Tg x =
(gh−1 )−1 · Tg Th−1 Th x = T · Th x ∈ T N0 = N1 .
|G|
|G|
g∈G
g∈G
Ainsi, N1 est un sous-module de M .
Définition 2.3. On dit qu’une algèbre A est semi-simple à gauche (resp., à droite) si le A-module régulier à
gauche (resp., à droite) est semi-simple.
Remarques. – Le théorème de Mashke dit que, si G est un groupe fini, alors l’algèbre kG est semi-simple à gauche. De manière
analogue, on peut montrer qu’elle est aussi semi-simple à droite.
– La proposition 2.1 montre que l’algèbre Mn (k) est semi-simple à gauche et à droite ; l’exemple 1.5 c) du module
régulier à gauche sur T2+ (k) montre que cette algèbre n’est pas semi-simple.
– Tout A-module libre sur une algèbre A semi-simple est semi-simple.
– Dans le cours suivant, on va montrer que les notions d’algèbre semi-simple à gauche et à droite coïncident.
Lemme 2.2. Soit A une algèbre semi-simple. Alors, tout A-module à gauche M est semi-simple et projectif.
Preuve. Soit I une famille génératrice de M , et soit AI := ⊕i∈I (g A) la somme directe de copies de g A qui est un
A-module semi-simple et libre avec la base ei := νi (1A ), où νi : g A → AI est l’injection canonique, et on définit un
morphisme surjectif de A-modules à gauche ϕ : AI → M par ϕ(a·ei ) := a·i, ∀i ∈ I. Comme AI est semi-simple, on
a AI = Ker ϕ ⊕ P , où P est un sous-module de AI (il est semi-simple par la remarque précédente). Finalement, par
construction, ϕ|P est un isomorphisme de A-modules P et M donc M est semi-simple et, par définition, projectif.
Université de Caen Basse Normandie
7/30
c
Leonid
Vainerman
Master 2
3
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Structure d’une algèbre semi-simple de dimension finie.
Le but de ce cours est la preuve du théorème de Wedderburn qui dit que toute algèbre semi-simple de dimension
finie est isomorphe à une somme directe d’algèbres de type Mn (k).
3.1
Préparations.
Proposition 3.1. La représentation régulière à gauche λ d’une algèbre unifère A est un isomorphisme entre
les algèbres A et EnddA (Ad ). La représentation régulière à droite ρ est un isomorphisme entre les algèbres A et
EndgA (g A).
Preuve. On vérifie directement que λ est un morphisme entre les algèbres A et EnddA (Ad ). Ker (λ) = {a ∈ A :
A·a = 0} = {0} car A est unifère. Si ϕ ∈ EnddA (Ad ), on a, pour tout a ∈ A : ϕ(a) = ϕ(1A ·a) = ϕ(1A )·a = λϕ(1A ) (a)
donc λ est un isomorphisme d’algèbres. De même pour ρ.
Si {M1 , . . . , Mn } est un ensemble fini de A-modules à droite, on note


HomdA (M1 , M1 ) HomdA (M2 , M1 ) . . . HomdA (Mn , M1 )
 Homd (M1 , M2 ) Homd (M2 , M2 ) . . . Homd (Mn , M2 ) 
A
A
A


d
[HomA (Mj , Mi )] = 

..
..
..
..


.
.
.
.
d
d
d
HomA (M1 , Mn ) HomA (M2 , Mn ) . . . HomA (Mn , Mn )
l’ensemble de toutes matrices de la forme

ϕ11
 ϕ21

 ..
 .
ϕ12
ϕ22
..
.
ϕn1 ϕn2

. . . ϕ1n
. . . ϕ2n 

..
..  ,
.
. 
. . . ϕnn
où ϕij ∈ HomdA (Mj , Mi ). Cet ensemble
P est une algèbre unifère pour les opérations matricielles usuelles (en particulier, [ϕij ][ψjk ] = [χik ], où χik := j ϕij ψjk ∈ HomdA (Mk , Mi )).
Proposition 3.2. L’algèbre [HomdA (Mj , Mi )] est isomorphe à EnddA (M ), où M = M1 ⊕ M2 ⊕ . . . ⊕ Mn .
Preuve. Soient πi : M → Mi et νi : Mi → M les morphismes canoniques de projection et d’inclusion. Alors
P
: α : EnddA (M ) → [HomdA (Mj , Mi )]
i (νi ◦ πi ) = idM et πi ◦ νj = δi,j idMj . On définit maintenant deux applications
P
n
par α(ϕ) := [πi · ϕ · νj ] et β : [HomdA (Mj , Mi )] → EnddA (M ) par β([ϕij ]) := i,j=1 νi · ϕij πj . Une vérification directe
montre que α et β sont mutuellement inverses et que α est un morphisme d’algèbres. Par exemple,




 
n
n
X
X
νj · πj  ψ · νj  =  (πi · ϕ · νj ) · (πj · ψ · νj ) = α(ϕ)α(ψ)
α(ϕ · ψ) = πi · ϕ 
j=1
j=1
Ainsi, α et β sont des isomorphismes d’algèbres.
Corollaire. 1. Si M est un A-module à droite, alors les algèbres EnddA (⊕nM ) et Mn (EnddA (M )) sont isomorphes.
2. Si M est un A-module à droite libre de rang n, alors les algèbres EnddA (M ) et Mn (A) sont isomorphes.
3. Soient M1 , M2 , . . . , Mn des A-modules à droite tels que HomdA (Mi , Mj ) = 0 si i 6= j, alors les algèbres
EnddA (M1 ⊕ M2 ⊕ . . . ⊕ Mn ) et EnddA (M1 ) ⊕ EnddA (M2 ) ⊕ . . . ⊕ EnddA (Mn ) sont isomorphes.
Preuve.
2. Les A-modules à droite M et ⊕nAd étant isomorphes, le 1. du corollaire dit que les algèbres EnddA (M ) et
Mn (EnddA (Ad )) sont isomorphes. Mais la proposition 3.1 dit que les algèbres EnddA (Ad ) et A sont isomorphes.
Université de Caen Basse Normandie
8/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
3. Par la proposition 3.2, l’algèbre EnddA (M1 ⊕ M2 ⊕ . . . ⊕ Mn ) est isomorphe à [HomdA (Mj , Mi )] donc à

EnddA (M1 )
0
...
0


0
EnddA (M2 ) . . .
0



,
..
..
..
..


.
.
.
.
d
0
0
. . . EndA (Mn )

donc à EnddA (M1 ) ⊕ EnddA (M2 ) ⊕ . . . ⊕ EnddA (Mn ).
Proposition 3.3. Soit A = A1 ⊕ A2 une somme directe de sous-algèbres A1 et A2 , et soit M un idéal à droite de A1 . Alors :
(i) M est un idéal à droite de A.
(ii) EnddA (M ) = EnddA1 (M ).
(iii) HomdA (M, A) = HomdA (M, A1 ) = HomdA1 (M, A1 ).
(iv) M est un idéal à droite minimal de A ssi il est un idéal à droite minimal de A1 .
(v) Tout idéal à droite minimal de A est ou bien un idéal à droite minimal de A1 , ou bien un idéal à droite
minimal de A2 .
Preuve. Comme M · A2 ⊂ A1 · A2 = 0, on vérifie (i) à (iv) directement.
(v) Soit M un idéal à droite minimal de A, alors on a, pour tout i ∈ {1, 2} : M · Ai ⊂ M ∩ Ai ⊂ M donc ou bien
M = M ∩ Ai ⊂ Ai , ou bien M · Ai ⊂ M ∩ Ai = 0. Et le cas M · A1 = M · A2 = 0 est impossible parce qu’on aurait
alors M = M · A1 ⊕ M · A2 = 0.
Corollaire. Si les algèbres A1 et A2 sont semi-simples à droite, alors l’algèbre A1 ⊕ A2 est aussi semi-simple à
droite.
Proposition 3.4. (i) Soit M = ⊕i∈I Ni une somme directe de A-modules à droite simples, et soit ϕ : N → M un morphisme non
nul d’un A-module à droite simple N vers M . Alors, il existe j ∈ I tel que M = ϕ(N ) ⊕ (⊕i6=j Ni ) et N est
équivalent à Nj .
(ii) Soient Ni (i ∈ I) des A-modules à droite simples tels que HomdA (Ni , Nj ) = 0 si i 6= j, et soient M =
⊕i∈I M (i), M ′ = ⊕i∈I M ′ (i), où M (i) (resp., M ′ (i)) est équivalent à une somme directe ⊕αi Ni (resp.,
⊕βi Ni ). Alors, les A-modules à droite M et M ′ sont équivalents ssi αi = βi pour tout i.
Preuve.
(i) Le lemme de Shur montre que ϕ(N ) est un sous-module simple non nul de M , et le lemme 2.1 (i) montre
qu’il existe un sous-ensemble J ⊂ I tel que M = ϕ(N ) ⊕ (⊕i∈J Ni ). Toute projection πi (ϕ(N )) est soit 0, soit
Ni (de nouveau en utilisant le lemme de Shur). Comme ϕ(N ) est non nul et simple, il existe exactement un
seul j ∈ I tel que N est équivalent à Nj et M = ϕ(N ) ⊕ (⊕i6=j Ni ).
(ii) Si ϕ : M → M ′ est un isomorphisme, alors, pour toute copie de Ni ⊂ M , il existe, par (i), exactement
une copie de Ni (nécessairement avec le même i car si i 6= j, Ni et Nj ne sont pas isomorphes !) tel que
M ′ = ϕ(Ni ) ⊕ . . . et ϕ(Ni ) est équivalente à cette copie de Ni . En plus, pour deux copies différentes Ni′ et Ni′′
de Ni ⊂ M , on a Ni′ Ni′′ = 0 donc ϕ(Ni′ )ϕ(Ni′′ ) = 0, alors les copies de Ni correspondantes sont différentes.
Comme ϕ est un isomorphisme, on a αi = βi . La réciproque est évidente.
Université de Caen Basse Normandie
9/30
c
Leonid
Vainerman
Master 2
3.2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Le théorème de Wedderburn.
Théorème de Wedderburn. Soit A une algèbre semi-simple (à gauche ou à droite) de dimension finie.
(i) Il existe r, n1 , . . . , nr ∈
N∗ tels que A est isomorphe à ⊕ri=1Mn (k).
i
(ii) Le vecteur n = (n1 , . . . , nr ) est défini par A de manière unique à un isomorphisme près. On dit que ce vecteur
est le vecteur de dimension de A et que A est de type n = (n1 , . . . , nr ).
(iii) Réciproquement, pour tous r, n1 , . . . , nr ∈
droite).
N∗, l’algèbre A = ⊕ri=1Mn (k) est semi-simple (à gauche et à
i
Preuve.
(i) Si A est semi-simple à droite, le A-module régulier à droite Ad se décompose en la somme directe d’idéaux
à droite : Ad = ⊕i Mi , où Mi = ni Ni est la somme directe de ni copies d’un idéal minimal à droite avec
HomdA (Ni , Nj ) = 0 si i 6= j d’après le corollaire 1 du lemme de Shur. On a HomdA (Mi , Mj ) = 0 si i 6= j :
en effet, si ϕ : Mi → Mj est un morphisme non nul, il existe une copie de Ni tel que Pi := ϕ(Ni ) est
un sous-module simple de Mj isomorphe à Ni (lemme de Shur). La projection de Pi sur une des copies de
Nj est un morphisme non nul de A-modules d’après la proposition 3.4 (i), et même un isomorphisme par
le lemme de Shur : contradiction. Maintenant, la proposition 3.1 dit que les algèbres A et EnddA (Ad ) sont
isomorphes, et le corollaire 3 de la proposition 3.2 dit, à son tour, que l’algèbre EnddA (Ad ) est isomorphe à
EnddA (M1 ) ⊕ EnddA (M2 ) ⊕ . . . ⊕ EnddA (Mn ). Finalement, le corollaire 1 de la proposition 3.2 dit que l’algèbre
EnddA (Mi ) est isomorphe à Mni (EndA (Ni )), mais selon le lemme de Shur, EnddA (Ni ) est une k-algèbre à
division de dimension finie et la proposition 1.1 implique qu’elle est isomorphe à k.
De manière analogue, on peut traiter le cas des algèbres semi-simples à gauche.
(ii) Si A est isomorphe a ⊕ri=1 Ai , où l’algèbre Ai est isomorphe à Mni (k), alors selon les propositions 2.1 (i) et
3.3, le A-module à droite Ai est isomorphe à la somme directe de ni copies d’un idéal minimal à droite Ni
de A tel que Ni ⊂ Ai . Comme Ni Nj = δi,j Ni , les A-modules Ni et Nj ne sont pas isomorphes si i 6= j. En
effet, s’il existe un isomorphisme ϕ : Ni → Nj , on a : 0 = ϕ(Ni Nj ) = ϕ(Ni )Nj = Nj2 6= 0 : contradiction.
Maintenant, il ne reste qu’à appliquer la proposition 3.4.
(iii) La proposition 2.1 montre que toute algèbre Mni (k) est semi-simple à gauche et à droite. Par suite, le
corollaire de la proposition 3.3 montre que A l’est aussi.
Corollaire. 1. On a A = ⊕ri=1 pi A (à un isomorphisme près), où pi ∈ Z(A) sont tels que
{1, . . . , r}.
Pr
i=1 pi
= 1A et pi pj = δi,j pi , ∀i, j ∈
2. Une algèbre semi-simple est commutative ssi ni ≡ 1.
P
3. dim(A) = i n2i .
4. Soient G un groupe fini, kG son algèbre de groupe décomposée selon les théorèmes de Mashke et de Wedderburn. Alors G a exactement r représentations irréductibles de dimensions n1 , . . . , nr respectivement. La
décomposition de la représentation régulière à droite (ou à gauche) de G contient toute représentation irréductible avec multiplicité égale à sa dimension.
Exemple 3.1. Le groupe G = S3 = {e = id, t1 = (1, 2), t2 = (2, 3), t3 = (1, 3), c = (1, 2, 3), c2 = (1, 3, 2)} a 3
représentations irréductibles : la représentation triviale, la signature et
cos 2π
− sin 2π
sin 2π
1 0
cos 2π
2
3
3
3
3
,
π(c
)
=
,
π(e) =
, π(c) =
cos 2π
cos 2π
sin 2π
− sin 2π
0 1
3
3
3
3
π(t1 ) =
cos 2π
3
− sin 2π
3
− sin 2π
3
− cos 2π
3
, π(t2 ) =
1 0
cos 2π
3
, π(t3 ) =
0 −1
sin 2π
3
sin 2π
3
− cos 2π
3
.
Alors, on a kS3 = k ⊕ k ⊕ M2 (k).
Université de Caen Basse Normandie
10/30
c
Leonid
Vainerman
Master 2
4
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Commutant et bicommutant.
Dans ce cours, nous préparons des outils pour l’étude des inclusions d’algèbres semi-simples.
4.1
Produit tensoriel de deux espaces vectoriels.
Soient V et W deux espaces vectoriels sur k. On considère l’espace vectoriel Lin(V × W ) des combinaisons linéaires
formelles sur k des éléments de V ×W dont une base est formée des couples (v, w), ∀v ∈ V, ∀w ∈ W . Soit U le sousespace de cet espace engendré par les éléments de la forme (v1 +v2 , w)−(v1 , w)−(v2 , w), (v, w1 +w2 )−(v, w1 )−(v, w2 )
et (λv, w) − (v, λw) pour tous v, v1 , v2 ∈ V, w, w1 , w2 ∈ W, et λ ∈ k.
Définition 4.1. On appelle produit tensoriel de V et W , et on note V ⊗k W (ou V ⊗ W ), l’espace vectoriel
quotient Lin(V × W )/U . Pour v ∈ V, w ∈ W , on note v ⊗ w l’image canonique de l’élément (v, w) ∈ Lin(V × W ).
La propriété la plus importante du produit tensoriel est donnée par la
Proposition 4.1. (i) Soient V, W, X des espaces vectoriels, et soit g : V ⊗ W → X une application linéaire. L’application (v, w) 7→
f (v, w) := g(v ⊗ w) est une application bilinéaire de V × W dans X vérifiant la condition f (λv, w) =
f (v, λw), ∀v ∈ V, ∀w ∈ W, ∀λ ∈ k.
(ii) Réciproquement, soit f une application bilinéaire de V × W dans X vérifiant la dernière condition. Il existe
alors une unique application linéaire g : V ⊗ W → X telle que f (v, w) := g(v ⊗ w) pour tous v ∈ V, w ∈ W .
Preuve.
(i) Si ϕ : V × W → V ⊗ W est l’application canonique, on a f = g ◦ ϕ.
(ii) On remarque que f se prolonge de manière unique en une application linéaire f : Lin(V × W ) → X
qui s’annule sur U . Donc, il existe une application linéaire g : V ⊗ W → X telle que f = g ◦ π, où
π : Lin(V × W ) → V ⊗ W est l’application canonique. L’unicité de g est évidente car V ⊗ W est engendré,
en tant qu’espace vectoriel, par les éléments de la forme v ⊗ w, ∀v ∈ V, ∀w ∈ W .
Soient ϕ : V → V ′ , ψ : W → W ′ deux applications linéaires d’espaces vectoriels. Comme l’application (v, w) 7→
ϕ(v)⊗ψ(w) de V ×W dans V ′ ⊗W ′ vérifie les conditions de la proposition 4.1, il existe alors une unique application
linéaire ϕ ⊗ ψ : V ⊗ W → V ′ ⊗ W ′ telle que (ϕ ⊗ ψ)(v ⊗ w) = ϕ(v) ⊗ ψ(w) ∀v ∈ V, ∀w ∈ W : c’est par définition
le produit tensoriel des applications linéaires ϕ et ψ.
Si dim(V ) = n < ∞, dim(W ) = m < ∞, et soit (ai ) (resp., (bj )) une base de V (resp., W ), il est alors possible
d’identifier V (resp., W ) à son espace dual. En effet, soit v (resp., w) un vecteur de V (resp., W ) de coordonnées
(αi ) (resp., (βj )) dans la base précédente, alors ai (resp., bj ) est identifié à la forme linéaire < ai , v >:= αi (resp.,
< bj , w >:= βj ). Cette identification établit une application canonique ⊗ de V × W vers V ⊗ W définie par :
(ai ⊗ bj )(v, w) = αi βj .
La famille (ai ⊗ bj ) est alors la base canonique de V ⊗ W :
X
v⊗w =
αi βj (ai ⊗ bj ).
i,j
L’application précédente définit aussi une application de Endk (V ) × Endk (W ) dans Endk (V ⊗ W ).
Soit ϕ (resp., ψ) un endomorphisme de V (resp., W ), alors, avec les notations précédentes, on obtient :
(ϕ ⊗ ψ)(v ⊗ w) = ϕ(v) ⊗ ψ(w).
Si A = (αik ) (resp., B = (βjl )) désigne la matrice de ϕ (resp., ψ), alors la matrice A ⊗ B de ϕ ⊗ ψ dans la base
(ai ⊗ bj ) est :
(A ⊗ B)ij,kl = αik βjl .
Si on considère la base (ai ⊗ bj ) dans l’ordre : a1 ⊗ b1 , a2 ⊗ b1 , . . . , an ⊗ b1 , . . . , a1 ⊗ bm , a2 ⊗ bm , . . . , an ⊗ bm , on
peut identifier la matrice A ⊗ B à la matrice de blocs A · Bkl .
Université de Caen Basse Normandie
11/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
On note mV la somme directe de m copies de V , et on remarque que Endk (mV ) est isomorphe canoniquement
à Mm (Endk (V )) et à Endk (V ) ⊗ Mm (k). En effet, soient πi : mV → V la projection sur la i-ème composante et
εi : V → mV l’injection telle que πi ◦ εi = δij idV , pour tout i ∈ {1, 2, . . . , m}. Étant donné x ∈ Endk (mV ), on
définit une matrice (xij ) ∈ Mm (Endk (V
P)) par xij := πi ◦ x ◦ εj . On peut vérifier que x 7→ (xij ) est un isomorphisme
d’algèbres, et son inverse est (xij ) 7→ ij εi ◦ xij πj ∈ Endk (mV ). Cela donne le premier isomorphisme.
Soit
P {eij : i, j ∈ {1, . . . , m}} le système standard des unités matricielles de Mm (k). Alors, l’application (xij ) 7→
ij (xij ⊗ eij ) est un isomorphisme de Mm (Endk (V )) sur Endk (V ) ⊗ Mm (k).
Nous allons identifier ces trois algèbres par ces isomorphismes. Donc, pour toute sous-algèbre A de Mn (k), on peut
identifier A ⊗ Mm (k) à l’algèbre Mm (A) et A ⊗ Im à Diagm (A).
4.2
Commutant et bicommutant.
Définition 4.2. Soit F une k-algèbre. Le commutant CF (S) d’un sous-ensemble S de F est l’algèbre des
éléments de F qui commutent à tous les éléments de S.
Évidemment, S ⊂ CF (CF (S)), d’où CF [CF (CF (S))] ⊂ CF (S). Mais aussi CF (S) ⊂ CF (CF [CF (S)]) = CF [CF (CF (S))],
d’où CF (CF (CF (S))) = CF (S).
Lemme 4.1. Soient V un espace vectoriel et A une sous-algèbre unifère de Endk (V ). On note A′ := CEndk (V ) A.
(i) Le commutant de A ⊗ Im dans Endk (V ) ⊗ Mm (k) est A′ ⊗ Mm (k).
(ii) Le commutant de A ⊗ Mm (k) dans Endk (V ) ⊗ Mm (k) est A′ ⊗ Im .
Preuve.
P
P
P
P
(i) Comme (a ⊗ Im ) ij (xij ⊗ eij ) = ij (axij ⊗ eij ) et ij (xij ⊗ eij )(a ⊗ Im ) = ij (x
Pij a ⊗ eij ), pour tout
coefficient matriciel xij de Endk (V ) et toute unité matricielle eij de Mm (k), on a que ij (xij ⊗ eij ) est dans
le commutant de A ⊗ Im ssi xij ∈ A′ pour tous i et j.
P
(ii) Si x = ij (xij ⊗ eij ) commute à A ⊗ Mm (k), il commute, en particulier, à 1A ⊗P
ekl , pour tous k et l. On
en déduit que xlj = 0 si l 6= j et xik = 0 si i 6= k, et que xkk = xll . Donc, x = i (y ⊗ eii ) = y ⊗ Im , où
y ∈ Endk (V ). Comme x commute à A ⊗ Im , on a x ∈ A′ . L’affirmation réciproque est évidente.
Lemme 4.2. Soient F un facteur isomorphe à Endk (V ) et A un sous-facteur de F isomorphe à Endk (W ) (ici V
et W sont deux espaces vectoriels de dimension finie). Alors :
(i) CF (A) est un facteur.
(ii) CF (CF (A)) = A.
(iii) A ⊗ CF (A) est isomorphe à F .
Preuve. On peut remplacer les isomorphismes ci-dessus par des égalités. L’inclusion A = Endk (W ) ⊂ F =
Endk (V ) est une représentation de A sur V . Mais comme A est simple, cette représentation est équivalente à la
somme directe de, disons, m ∈
copies de la représentation unique de A. Autrement dit, on peut identifier V à
la somme directe de m copies de W , et l’image de A dans F = Endk (W ) ⊗ Mm (k) à A ⊗ Im . Le lemme 4.1 (i) dit
que CF (A) = 1A ⊗ Mm (k) qui est un facteur. De plus, CF (CF (A)) = Endk (W ) ⊗ Im = A. Finalement, A ⊗ CF (A)
est isomorphe à Endk (W ) ⊗ Mm (k) = F .
N
Lemme 4.3. Soit A une sous-algèbre semi-simple unifère d’un facteur F de dimension finie. Alors :
(i) CF (A) est semi-simple avec les mêmes idempotents minimaux centraux p1 , . . . , pm que A.
(ii) CF (CF (A)) = A.
Preuve.
(i) A = ⊕i pi A, où chaqueP
pi A est un facteur. Le centre
P A∩CF (A) de A appartient au centre CF (A)∩CF (CF (A))
de CF (A), et comme i pi = 1, on a CF (A) = i pi CF (A)pi . En utilisant le fait que pi ∈ A ∩ CF (A), on
vérifie que pi CF (A)pi = Cpi F pi (pi A). En effet, Cpi F pi (pi A) := {pi xpi : x ∈ F, pi xpi a = pi api xpi , ∀a ∈ A} ⊂
pi CF (A)pi et pi CF (A)pi := {pi xpi : x ∈ F, xa = ax, ∀a ∈ A} ⊂ Cpi F pi (pi A). En plus, c’est un facteur selon
le lemme 4.2 (i) car si F est isomorphe à Endk (V ), alors pi F pi est isomorphe à Endk (pi V ) et donc est un
facteur. D’où (i).
Université de Caen Basse Normandie
12/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
(ii) De manière similaire, on a pi CF (CF (A))pi = Cpi F pi (Cpi F pi (pi A)), et le lemme 4.2 (ii) implique :
CF (CF (A)) = ⊕i pi CF (CF (A))pi = ⊕i pi A = A.
D’où (ii).
Lemme 4.4. Soit A un sous-facteur d’un facteur F de dimension finie et q ∈ A ∪ CF (A) un idempotent non nul.
Alors :
(i) qAq est un facteur.
(ii) CqF q (qAq) = qCF (A)q.
Preuve. Soit d’abord q ∈ A.
(i) Si on identifie A à Endk (V ), alors qAq est isomorphe à Endk (qV ).
(ii) D’une part, qCF (A)q ⊂ CqF q (qAq), car pour x ∈ qAq et y ∈ qCF (A)q, on peut choisir z ∈ CF (A) tel que
y = qzq, et calculer xy = q(qxq)zq = qzqxq = yx. D’autre part, si s = qsq ∈ CqF q (qCF (A)q) et t ∈ CF (A)
alors tq = qt, et on a : st = sqqt = sqtq = qtqs = tqqs = ts. Par suite, CqF q (qCF (A)q) ⊂ qCF (CF (A))q = qAq
en utilisant le lemme 4.2. On passe aux commutants et on applique le lemme 4.2 à qF q :
CqF q (qAq) ⊂ CqF q (CqF q (qCF (A)q)) = qCF (A)q.
Soit maintenant q ∈ CF (A).
(i) L’application linéaire ϕ : A → qAq telle que ϕ(x) = qxq, pour tout x ∈ A, est un morphisme surjectif
d’algèbres unitaires (car q = q1A q). Comme A est simple, c’est un isomorphisme.
(ii) Par la première partie de la preuve et en utilisant le fait que CF (CF (A)) = A, on a : CqF q (qCF (A)q) =
qCF (CF (A))q = qAq. On passe aux commutants et on applique le lemme 4.2 à qF q pour conclure.
Lemme 4.5. Soient A une sous-algèbre semi-simple unifère d’un facteur F et q ∈ A ∪ CF (A) un idempotent non
nul. Alors :
(i) qAq est une algèbre semi-simple unifère.
(ii) CqF q (qAq) = qCF (A)q.
Preuve. Avec les notations du lemme 4.3, on pose qi = pi q, et on remarque que q =
P
(i) On a qAq = i qi Ai qi , et chaque qi Ai qi est un facteur par le lemme 4.4 (i).
i qi .
P
(ii) On calcule
CqF q (qAq) = ⊕i qi CqF q (qAq)qi = ⊕i Cqi F qi (qi Aqi ),
et
qCF (A)q = ⊕i qi CF (A)qi = ⊕i qi Cpi F pi (pi Api )qi .
Comme Cqi F qi (qi Aqi ) = qi Cpi F pi (pi Api )qi par le lemme 4.4 (ii), on a le résultat.
Université de Caen Basse Normandie
13/30
c
Leonid
Vainerman
Master 2
5
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Inclusions d’algèbres semi-simples.
On considère une inclusion A = ⊕rj=1 qj A ⊂ B ⊕li=1 pi B d’algèbres semi-simples respectivement de type n =
(n1 , . . . , nr ) et m = (m1 , . . . , ml ). Ici pi ∈ Z(B), qj ∈ Z(A) sont des idempotents minimaux. On dit que deux
inclusions A1 ⊂ B1 et A2 ⊂ B2 de ce type sont isomorphes s’il existe un isomorphisme d’algèbres φ : B1 → B2
tel que φ(A1 ) = A2 .
Les vecteurs n et m ne donnent pas une description complète de l’inclusion A ⊂ B, il faut aussi rajouter la matrice
d’inclusion de format r × l : Λ = ΛB
A . Pour définir cette matrice, on pose Bi,j = pi qj Bpi qj , Ai,j = pi qj Api qj pour
i ∈ {1, 2, . . . , m} et j ∈ {1, 2, . . . , n}. Comme pi ∈ Z(B), le produit pi qj est un idempotent dans pi B. Le lemme
4.4 montre alors que Bi,j est 0 si pi qj = 0 ou un facteur sinon. Dans le dernier cas, l’application x 7→ pi xpi de Aqj
dans Ai,j est un morphisme d’algèbres dont l’image contient pi qj ; comme qj A est simple, cette application est un
dim(Bi,j )
isomorphisme. Maintenant, on définit les coefficients λi,j de ΛB
A : λi,j = 0 si pi qj = 0, et λi,j = dim(Ai,j ) sinon.
Autrement dit, Λij est la multiplicité de la j-ème représentation de A comme sous-représentation de la restriction
B C
sur A de la i-ème représentation de B. Pour l’inclusion composée A ⊂ B ⊂ C, on a évidemment ΛC
A = ΛA ΛB .
Pour décrire quelques propriétés de cette matrice, on donne d’abord quelques
Définitions 5.1. – On dit qu’une matrice X ∈ Mm,n ( ) m, n > 1 est irredondante si elle n’a pas de lignes ou de colonnes nulles.
– Deux matrices X1 , X2 ∈ Mm,n ( ) sont pseudo-équivalentes s’il existe des permutations α ∈ Sm de lignes et
β ∈ Sn de colonnes telles que X2 = αX1 β. (on identifie ici une permutation α, à une matrice à coefficients 0 ou
1 de l’automorphisme de n qui envoie le vecteur ei de la base canonique sur eα(i) donc αt = α−1 )
– Une matrice X irredondante est décomposable s’il existe des naturels non nuls m′ , m′′ , n′ , n′′ tels que m =
′′
′
′′
′
′′ ′′
′ ′
m′ + m′′ , n
= n + n et deux matrices X ∈ Mm ,n ( ), X ∈ Mm ,n ( ) telles que X est pseudo-équivalente à
′
X
0
. Une matrice est indécomposable si elle est irredondante et non décomposable.
0 X ′′
– Une matrice carrée Z ∈ Mm ( ) est réductible s’il existe deux naturels non nuls m′ , m′′ tels que m = m′ + m′′
des matrices Z ′ ∈Mm′ ,m′ ( ), Z ′′ ∈ Mm′′ ,m′′ ( ), Z ′′′ ∈ Mm′ ,m′′ ( ) et une permutation γ ∈ Sm telles que γZγ −1
Z ′ Z ′′′
est de la forme à
. Une matrice est irréductible si elle n’est pas réductible.
0 Z ′′
– Une matrice carrée Z ∈ Mm ( ) est apériodique s’il existe un naturel p tel que tous les coefficients de Z p sont
strictement positifs.






1 0 0
0 1 0
0 1 0
Par exemple, les matrices 1 1 0 et 1 1 0 sont indécomposables, mais la matrice 1 0 1 est dé0 1 1
0 1 1
0 1 0




1 0 0
0 1 0
composable et pseudo-équivalente à 1 0 0. La matrice 1 0 1 est irréductible.
0 1 1
0 1 0
Lemme 5.1. -
R
R
R
R
R
R
R
R
R
R
R
a) Pour X ∈ Mm,n ( ) les affirmations suivantes sont équivalentes :
(i) X est irredondante ;
(ii) X t X et XX t sont irredondantes.
R+ ) les affirmations suivantes sont équivalentes :
b) Pour X ∈ Mm,n (
(i) X est indécomposable ;
(ii) XX t est irréductible ;
(iii) X t X est irréductible ;
(iv) XX t est apériodique ;
(v) X t X est apériodique.
Preuve. a) Si X a une ligne (resp., une colonne) nulle, alors XX t a une ligne (resp., X t X a une colonne) nulle. Si,
au contraire, toutes les lignes (resp., colonnes) de X son non nulles, alors tous les coefficients diagonaux de XX t
(resp., X t X) sont non nuls donc cette matrice est irredondante.
Université de Caen Basse Normandie
14/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
P
b) On a (XX t )ik = nj=1 Xij Xkj > 0 ssi il existe j ∈ {1, 2, . . . , n} tel que Xij > 0 et Xkj > 0. Alors, XX t est
réductible ssi (après une permutation) (XX t )ik = 0 pour tous i ∈ {m′ + 1, m′ + 2, . . . , m} et k ∈ {1, 2, . . . , m′ }
donc ssi, pour tout j ∈ {1, 2, . . . , n}, soit Xij = 0, ∀i ∈ {m′ + 1, m′ + 2, . . . , m}, soit Xkj = 0, ∀k ∈ {1, 2, . . . , m′ }.
Donc, (i) et (ii) sont équivalents. De même pour (i) et (iii).
Pour l’équivalence de (i), (iv) et (v) voir [3], §XIII.5, Théorème 8.
Remarque. Concernant le lemme 5.1 a) : la matrice
X=
1 0
1 0
est redondante ainsi que X t X, mais XX t n’est pas redondante.
Lemme 5.2. Soit A = ⊕rj=1 qj A ⊂ B = ⊕li=1 pi B une inclusion d’algèbres semi-simples respectivement de type
n = (n1 , . . . , nr ) et m = (m1 , . . . , ml ) et soit ΛB
A la matrice d’inclusion correspondante. Alors :
(i) ΛB
A n = m.
(ii) ΛB
A est irredondante.
(iii) ΛB
A est indécomposable ssi Z(A) ∩ Z(B) = k1B .
Preuve.
(i) découle des définitions de m, n et ΛB
A.
(ii) Pour tout i fixé, il existe un j tel que pi qj 6= 0 puisque
Pl
De même pour les colonnes de ΛB
A car
i=1 pi = 1B .
Pr
j=1 qj
= 1A donc la i-ème ligne de ΛB
A est non nulle.
(iii) Si dim(Z(A)∩Z(B)) > 1, il existe des idempotents non nuls s et 1−s dans Z(A)∩Z(B). Quitte à réordonner
les pi et les qj , on a :
p1 , . . . , pm′ , q1 , . . . , qn′ ∈ sB
et
pm′ +1 , . . . , pl , qn′ +1 , . . . , qr ∈ (1 − s)B
pour certains 0 < m′ < l, 0 < n′ < r donc Ai,j = 0 et λi,j = 0, si 1 6 i 6 m′ et n′ + 1 6 j 6 r, ou si
B
m′ + 1 6 i 6 l et 1 6 j 6 n′ donc ΛB
A est décomposable. Réciproquement, si ΛA est décomposable, on peut
vérifier que Z(A) ∩ Z(B) contient un idempotent non trivial qui est une somme de certains pi ainsi qu’une
somme de certains qj .
Théorème de Skolem-Noether. Soient M un facteur, P et Q deux sous-facteurs de M , et ϕ : P → Q un
isomorphisme. Alors, il existe un automorphisme intérieur θ de M tel que θ|P = ϕ.
Preuve. On considère M comme Endk (V ), où V est un espace vectoriel sur k de dimension finie. Soit W un
dim(X)
P -module simple, alors tout P -module X est équivalent à la somme directe de d = dim(W
) copies de W . En
particulier, les deux structures de P -module sur V définies par les actions (p, v) 7→ p · v et (p, v) 7→ ϕ(p) · v sont
équivalentes. Alors, il existe un inversible u ∈ Endk (V ) = M tel que u(p · v) = ϕ(p) · u(v), ∀p ∈ P, ∀v ∈ V donc
ϕ(p) = upu−1 .
Proposition 5.1. Soient P et Q deux sous-algèbres semi-simples d’une algèbre semi-simple M , et ϕ : P → Q
M
un isomorphisme. Si ΛM
P = ΛQ , il existe un automorphisme intérieur θ de M tel que θ|P = ϕ.
Preuve. Il suffit d’analyser le cas où M = Endk (V ) et V est un espace vectoriel sur k de dimension finie. Dans ce
cas,
M
ΛM
P = ΛQ = (λ1 , . . . , λr ) ∈ Mr,1 ( ).
N
Soient
P = ⊕rj=1 pj P
et
Q = ⊕rj=1 qj Q,
où pj P et qj Q sont des facteurs et pj , qj sont des idempotents minimaux centraux tels que ϕ(pj ) = qj . Tout
idempotent pj est une somme de, disons, νj idempotents minimaux de pj P et donc de λj νj idempotents minimaux
de pj M qui sont aussi minimaux dans M . De même pour qj . Donc, il existe un automorphisme intérieur α de M
tel que α(pj ) = qj . Alors, on peut supposer dès le début que pj = qj , ∀j ∈ {1, . . . , r}.
Université de Caen Basse Normandie
15/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Pour tout j ∈ {1, . . . , r}, on pose VjP
= pj V . Le théorème de Skolem-Noether dit qu’il existe uj ∈ GL(Vj ) tel que
ϕ(y) = uj yuj−1 , ∀y ∈ pj P . Comme rj=1 pj = 1, on a V = ⊕rj=1 Vj , et on peut définir u = ⊕rj=1 uj ∈ GL(V ) tel
que la restriction de θ := Ad(u) sur P soit égal à ϕ.
Proposition 5.2. Les inclusions P ⊂ Q et P op ⊂ Qop sont isomorphes.
Preuve. En effet, l’application α : Q → Qop , définie comme la transposition sur tout bloc matriciel, est un
isomorphisme d’algèbres qui envoie P sur P op .
On peut également décrire l’inclusion A ⊂ B par un multigraphe bipartite pondéré avec r sommets pairs et l
sommets impairs munis de poids naturels nj (resp., mi ), où le j-ème sommet pair est connecté au i-ème sommet
impair par Λij arêtes. On appelle ce multigraphe le diagramme de Bratteli Br(A ⊂ B) de l’inclusion A ⊂ B.
Alors, d’après la proposition 5.1, deux inclusions ayant le même diagramme de Bratteli sont isomorphes. De plus,
un multigraphe bipartite pondéré dont les sommets sont munis de poids naturels nj (resp., mi ), est le diagramme
de Bratteli d’une inclusion ssi m = Λn. En effet, Br(A ⊂ B) vérifie évidemment cette équation. Réciproquement,
si cette équation est vraie, on pose
A = ⊕rj=1 Mnj (k)
et
B = ⊕li=1 Mmi (k),
et on définit l’inclusion A → B de la manière suivante : on associe à tout (x1 , . . . , xr ) ∈ A l’élément (y1 , . . . , yl ) ∈ B,
où tout yi est une matrice diagonale par bloc de la forme yi = diag(x1 , . . . , x1 ; . . . ; xr , . . . , xr ), où on répète λij
fois chaque xj .
On dit que Br(A ⊂ B) est non connexe si on peut décomposer les ensembles de sommets pairs et impairs en
deux groupes de telle manière que les sommets pairs du 1er (resp., 2-ème) groupe sont connectés uniquement
aux sommets impairs du 1er (resp., 2-ème) groupe. Sinon on dit que Br(A ⊂ B) est connexe. Cette définition
et la construction du diagramme de Bratteli impliquent que Br(A ⊂ B) est non connexe ssi la matrice ΛB
A est
décomposable. En particulier, le lemme 4.2 (iii) dit que Br(A ⊂ B) est connexe ssi Z(A) ∩ Z(B) = k1B .
Exemples 5.1. a) Soient A = M2 (k) ⊕ k ⊂ B = M3 (k) ⊕ M2 (k) ⊕ k, où, pour tous X ∈ M2 (k) et x ∈ k, les composantes de
l’image sont : X ⊕ x, x ⊕ x, x. Dans ce cas, n = (2, 1), m = (3, 2, 1),


1 1
0 2 .
ΛB
A =
0 1
On peut dessiner le diagramme de Bratteli correspondant (il y a évidemment 2 sommets pairs et 3 impairs).
b) Soient G un groupe fini et H un sous-groupe de G. On considère l’inclusion A = kH ⊂ B = kG d’algèbres
de groupes. A et B sont semi-simples (théorème de Mashke) respectivement de type n = (n1 , . . . , nr ) et
m = (m1 , . . . , nl ), où r et l sont respectivement le nombre de représentations irréductibles de H et de G.
En particulier, soient G = S3 = {e = id, t1 = (1, 2), t2 = (2, 3), t3 = (1, 3), c = (1, 2, 3), c2 = (1, 3, 2)} et
H = 3 = {e = id, c = (1, 2, 3), c2 = (1, 3, 2)}, sous-groupe distingué de G d’indice 2. On
a r = l = 3 car G4iπa3
2iπ
représentations irréductibles (voir exemple 3.1) ainsi que 3 : triviale, ρ1 (c) = exp 3 et ρ2 (c) = exp 3 .
On constate que les restrictions sur H de la représentation triviale de G et de la signature sont triviales, et
que la restriction sur H de π est équivalente à la somme directe de ρ1 et ρ2 (car π(c) et π(c2 ) ont les mêmes
sous-espaces propres engendrés respectivement par les vecteurs (1, i) et (1, −i)). Alors, on a


1 0 0
1 0 0 .
ΛB
A =
0 1 1
Z
Z
On peut dessiner le diagramme de Bratteli correspondant (il y a évidemment 3 sommets pairs et 3 impairs).
Université de Caen Basse Normandie
16/30
c
Leonid
Vainerman
Master 2
6
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Indice.
j=1,...,r
Définition 6.1. Soient A ⊂ B une inclusion d’algèbres semi-simples et ΛB
A = (λij )i=1,...,l sa matrice d’inclusion.
r →
l entre deux espaces euclidiens.
B
On considère ΛB
A ∈ Ml,r ( ) comme une application linéaire continue ΛA :
B
2
On définit l’indice [B : A] de l’inclusion A ⊂ B comme kΛA k : le carré de la norme de cette application.
N
R
R
R
Proposition 6.1. Soient Λ ∈ Mr,l ( ) et
Σ=
R
0 Λ
∈ Mr+l ( ),
Λt 0
où Λt est la matrice transposée de Λ vue comme une application linéaire continue de
1
1
kΛk = kΛt k = kΣk = kΛt Λk 2 = kΛΛt k 2 ,
Preuve. Pour tout f ∈
où
kΛk =
Rr on a :
max
Rr :kf k61}
{f ∈
Rr → Rl . Alors :
kΛf k =
max
Rr :kf k=1}
{f ∈
kΛf k
kΛf k2 = < Λf, Λf > = < Λt Λf, f > 6 kΛt Λk.kf k2 6 kΛt k.kΛk.kf k2 ,
d’où kΛk 6 kΛt k. En échangeant Λ et Λt , on obtient l’égalité des normes, d’où kΛk2 = kΛt k2 = kΛt Λk = kΛΛt k.
Finalement,
t
ΛΛ
0 2
t
kΣk = kΣ Σk = 0
Λt Λ d’où kΣk = kΛk.
C
C
C
On peut considérer, comme dans [3], Λ comme une application linéaire r → l . On écrit tout vecteur f ∈ r
sous la forme f = f ′ + if ′′ , où f ′ , f ′′ ∈ r donc kf k2 = kf ′ k2 + kf ′′ k2 , et on pose Λ(f ′ + if ′′ ) := Λ(f ′ ) + iΛ(f ′′ ).
On peut vérifier que les deux normes de Λ ainsi définies coïncident, et il est plus facile de traiter d’applications
linéaires d’espaces vectoriels complexes. Comme Λt Λ ∈ Ml ( ) est une matrice positive, kΛt Λk est la valeur propre
maximale de cette matrice. Alors, d’après la définition, [B : A] est un entier algébrique positif.
R
N
Exemples 6.1. a)
(i) Si B est un facteur, [B : A] ∈
N∗.
N∗)2 (on utilise le
(ii) si A ⊂ B sont deux sous-facteurs d’un facteur F , on a [B : A] = [CF (A) : CF (B)] ∈ (
lemme 4.2 (iii)).
b) Pour l’inclusion d’algèbres de groupe k
exemple 5.1). On a donc
Z3 ⊂ kS3 , on a calculé la matrice d’inclusion Λ (voir exemple 3.1 et


1 1 0
ΛΛt = 1 1 0 ,
0 0 2
Par suite, les valeurs propres sont 2 (double) et 0, et on obtient [kS3 : k
Z3 ] = 2.
Lemme 6.1. On considère l’inclusion A ⊂ B ⊂ F de sous-algèbres semi-simples d’un facteur F . Alors, la matrice
C (A)
ΛCFF (B) est la transposée de la matrice ΛB
A.
Preuve. Si A et B = F sont des facteurs, l’affirmation découle du lemme 4.2 (iii) et de la définition de matrice
d’inclusion. En général, on a B = ⊕i pi B, A = ⊕j qj A et ΛB
A = (λij ), et on va noter µji les coefficients de la matrice
de l’inclusion.
CF (B) = ⊕i pi CF (B) ⊂ CF (A) = ⊕j qj CF (A).
On a, par définition :
1
µji = [qj pi CF (A)qj pi : qj pi CF (B)qj pi ] 2 ,
et par le lemme 4.5 (ii) :
1
µji = [Cqj pi F qj pi (Ai,j ) : Cqj pi F qj pi (Bi,j )] 2 ,
1
où Ai,j := qj pi Aqj pi et Bi,j := qj pi Bqj pi sont des sous-facteurs de qj pi F qj pi . Donc, µji = [Bij : Aij )] 2 par le
lemme 4.2 (iii).
Université de Caen Basse Normandie
17/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Théorème de Kronecker. -
Z
(i) Si Λ ∈ Mr,l ( ) (r, l ∈
kΛk > 2.
N∗),
Λ 6= 0, alors ou bien kΛk = 2 cos πq , où q > 3 est un entier naturel, ou bien
(ii) Si q > 3, il existe Λ ∈ Ml ({0, 1}) avec kΛk = 2 cos πq , où l est le plus grand entier naturel tel que l 6 2q .
Pour prouver ce théorème, on va procéder en plusieurs étapes.
Proposition 6.2. Si toutes les racines νi (i ∈ {1, . . . , l}) d’un polynôme normalisé Pl (X) ∈
{z ∈ : |z| 6 1}, alors toute racine λ 6= 0 est une racine de l’unité.
C
Z[X] sont dans
Preuve. Remarquons tout d’abord qu’il n’y a qu’un nombre fini de tels polynômes. En effet, on a
l
Pl (X) = X − a1 X
l−1
l
+ . . . + (−1) al =
l
Y
(X − νi ),
i=1
d’où
|a1 | = |ν1 + . . . + νl | 6 l =
1
,
l
X
2
|a2 | = νi νj 6
,
l
16i,j6l
...
l
|al | = |ν1 ν2 . . . νl | 6 1 =
,
l
et comme tous les ai sont entiers, l’affirmation est claire.
Pour k ∈ {1, 2, . . .}, on définit maintenant la suite de polynômes
Pl,k (X) =
l
l
X
Y
(X − νik ) = X l +
(−1)n sn (ν1k , . . . , νlk )X l−n ,
où sn (ν1k , . . . , νlk ) :=
n=1
i=1
X
νik1 . . . νikn
16i1 <i2 <...<in 6l
En particulier, on a Pl,1 (X) = Pl (X) et sn (ν1 , . . . , νl ) = an , ∀n ∈ {1, 2, . . . , l}. On va montrer que tous les
sn (ν1k , . . . , νlk ) sont entiers. Pour cela, on remarque que ce sont des polynômes symétriques en les ν1 , . . . , νl .
Plus précisément, tout sn (ν1k , . . . , νlk ) est la somme de monômes distincts dans la famille des l! monômes de la forme
σ(M ) (où σ ∈ Sl et M est un monôme fixé). On peut appliquer la proposition 3 de [1], Appendice I qui dit qu’on peut
exprimer tout sn (ν1k , . . . , νlk ) comme polynôme à coefficients entiers en s1 (ν1 , . . . , νl ) = a1 , . . . , sl (ν1 , . . . , νl ) = al .
Ainsi, ils sont tous entiers donc Pl,k (X) ∈ [X], et la remarque précédente montre qu’il existe 1 6 j < k tels que
k , . . . , ν j = ν k . Il est clair
Pl,j (X) = Pl,k (X). Donc, il existe une permutation σ de {1, 2, . . . , l} telle que ν1j = νσ(1)
l
σ(l)
qu’il existe m ∈ {1, 2, . . . , l} tel que σ m (1) = 1, et si on choisit ν1 = λ, alors
Z
λj
m
= λjj
m−1
m−1
kj
= νσ(1)
2 m−2
m
k j
= . . . = λk .
= νσ(σ(1))
Cela prouve que λ est une racine de l’unité.
Proposition 6.3. Si toutes les racines νi (i ∈ {1, . . . , l}) d’un polynôme normalisé Pl (X) ∈
[−2, 2], alors toute racine λ 6= 0 est de la forme 2 cos(2πτ ), où τ ∈ .
Q
Preuve. On pose
Z[X] sont dans
Z
1
Q(X) := X l Pl X +
∈ [X],
X
et soient λ = 2 cos(θ1 ), . . . , 2 cos(θl ) les racines de Pl (X). Alors
Pl (X) =
l
Y
(X − 2 cos(θj ))
j=1
et Q(X) =
l
Y
2
(X − 2X cos(θj ) + 1) =
Université de Caen Basse Normandie
18/30
(X − eiθj )(X − e−iθj )
j=1
j=1
La proposition 6.2 dit que λ = eiθj est une racine de l’unité donc
l
Y
θj
2π
est rationnel.
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Z
Corollaire. Si toutes les racines νj (j ∈ {1, . . . , l}) d’un polynôme normalisé Pl (X) ∈ [X] sont dans ] − 2, 2[
et si Pl (X) 6= X l , alors
π
max{|νj | : 1 6 j 6 l} = 2 cos , où q ∈ , q > 3
q
N
Z
Preuve. La proposition 6.3 dit qu’il existe p1 , . . . , pl , q1 , . . . , ql ∈
avec pj et qj premiers entre eux pour tout
p
j ∈ {1, . . . , l}, tels que νj = 2 cos(2π qjj ) (on peut se limiter au cas où pj ∈ {1, . . . , qj − 1} car cos est 2π-périodique
et si pj = 0, on a νj = 2). On va montrer, en utilisant la théorie de Galois des extensions algébriques de corps (cf [7])
pj
2π
que 2 cos( 2π
qj ) est aussi une racine de Pl (X). En effet, on remarque que non seulement 2 cos(2π qj ) et 2 cos( qj ) sont
P
qj −1
p
2πik
tous les deux dans la même extension algébrique (exp(2πi qjj )) = (exp( 2πi
}
qj )) = { k=0 rk exp( qj ) : rk ∈
Pqj −1
P
q
−1
2πikp
j
j
2πik
du corps , mais ils sont aussi conjugués par l’automorphisme θ :
k=0 rk exp( qj ) 7→
k=0 rk exp( qj ) de
Q
ce corps tel que
Q
Q
Q
Q est stable par θ. Les coefficients de Pl (X) étant entiers, 2 cos( 2πq ) est aussi une racine de Pl (X).
j
Si qj est pair, l’argument du cosinus est déjà de la forme nécessaire, et si qj = 2kj +1 est impair, 2 cos(
une racine de Pl (X), et on a :
2πk
|2 cos( qj j )|
= |2 cos(π − qπj )|
est impair} et q ′′
où q = max{q ′ , q ′′ } avec q ′ = max{|qj | : qj
Finalement, q > 3 car 2| cos π| = 2 et 2| cos π2 | = 0.
=
=
|2 cos( qπj )|. Alors, max{|νj |
1
2 max{|qj | : qj est pair}.
2πkj
qj )
est aussi
: 1 6 j 6 l} = 2 cos πq ,
N
Preuve du théorème de Kronecker. (i) Soient Λ ∈ Mr,s ( ) et Σ comme dans la proposition 6.1. Comme Σ
est symétrique, ses valeurs propres νj (j ∈ {1, . . . , l = r + s}) sont réelles et kΛk = kΣk = max{|νj | : 1 6 j 6 l}.
Comme les νj sont les racines du polynôme caractéristique de Σ, ou bien Σ = 0, ou bien, par le corollaire précédent,
kΣk = 2 cos πq , où q ∈ , q > 3.
(ii) Exemple. Étant donné un entier l > 2, on considère la matrice


0 1 0 · 0 0
1 0 1 · 0 0


0 1 0 · 0 0

Σ=
 · · · · · ·  ∈ Ml ({0, 1}).


0 0 0 · 0 1
N
0 0 0 · 1 0
Pour j ∈ {1, . . . , l}, on vérifie que Σζj = νj ζj , avec
πj
∈ ,
et
νj = 2 cos
l+1
R
πj
m
∈
ζj = sin
l+1
16m6l
Rl .
π
Comme Σ est symétrique, on a kΣk = max{|νj | : j ∈ {1, . . . , l}} = 2 cos l+1
.
On récrit les lignes et les colonnes de Σ dans l’ordre : 2, 4, . . . , l, 1, 3, . . . , l − 1 si l est pair, et 2, 4, . . . , l − 1, 1, 3, . . . , l
si l est impair, et on obtient une matrice de la forme


1 1 0 · 0 0
0 1 1 · 0 0


0 0 1 · 0 0

Λ=
 · · · · · ·  ∈ Mt ({0, 1}) si l = 2t,


0 0 0 · 1 1

1
0

0
Λ=
·

0
0
0 0 0 · 0 1

0 · 0 0 0
1 · 0 0 0

1 · 0 0 0
 ∈ Mt,t+1 ({0, 1}) si l = 2t + 1.
· · · · ·

0 · 1 1 0
1
1
0
·
0
0 0 · 0 1 1
π
.
Dans les deux cas, on a kΛk = 2 cos l+1
Conclusion. Si A ⊂ B est une inclusion d’algèbres semi-simples, alors l’entier algébrique [B : A] vérifie
2 π
[B : A] ∈ 4 cos
: q ∈ , q > 3 ∪ [4, +∞[.
q
N
Université de Caen Basse Normandie
19/30
c
Leonid
Vainerman
Master 2
7
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
La construction fondamentale. Traces. Espérances conditionnelles.
7.1
La construction fondamentale.
Définition 7.1. La construction fondamentale associe à une inclusion N ⊂ M d’algèbres semi-simples
unifères l’inclusion suivante de même type : M ⊂ L, où L := EnddN (M ) est l’algèbre d’endomorphismes de M vue
comme un N -module à droite ; on identifie M à une sous-algèbre de L, tout x ∈ M étant identifié à l’opérateur de
multiplication à gauche : y 7→ xy (∀y ∈ M ).
Proposition 7.1. Soient N ⊂ M une inclusion d’algèbres semi-simples et M ⊂ L := EnddN (M ) l’inclusion
donnée par la construction fondamentale. Alors :
(i) L est une algèbre semi-simple dont les idempotents centraux minimaux sont de la forme ρ(q), où q sont les
idempotents centraux minimaux de N , et ρ(q) est l’opérateur de multiplication à droite par q.
(ii) La matrice d’inclusion de M ⊂ L est la transposée de ΛM
N.
Preuve. On pose F := Endk (M ) et on définit les applications λ, ρ : M → F par λ(x)y = xy, ρ(x)y = yx pour
tout x, y ∈ M . L’homomorphisme λ est la composition des inclusions M ⊂ L et L ⊂ F ; l’application ρ est un
homomorphisme d’algèbres M op dans F . Comme l’inclusion N ⊂ M est isomorphe à l’inclusion N op ⊂ M op par la
proposition 5.2, elle est aussi isomorphe à ρ(N ) ⊂ ρ(M ). Mais EnddN (M ) = CF (ρ(N )) et M = λ(M ) = CF (ρ(M ))
donc (i) découle du lemme 4.3 (i) et (ii) du lemme 6.1.
Corollaire. [M : N ] = [L : M ].
Alors, la construction fondamentale associe à une inclusion N ⊂ M d’algèbres semi-simples unifères par induction
la tour d’algèbres semi-simples (la tour de V. Jones)
N ⊂ M ⊂ M1 ⊂ . . . ⊂ Mn ⊂ . . .
dont toute matrice d’inclusion est la transposée de la matrice d’inclusion précédente et suivante (périodicité de
période 2) et les indices de toutes les inclusions sont les mêmes. Cela veut dire aussi que le diagramme de Bratteli
de toute inclusion de cette tour est une réflexion du diagramme de Bratteli précédent et suivant.
Exemple 7.1. On connaît déjà la matrice d’inclusion et le diagramme de Bratteli de l’inclusion d’algèbres semisimples k 3 = N ⊂ kS3 = M (voir exemple 5.1). La proposition 7.1 permet de construire la tour de V. Jones
correspondante et en particulier, de montrer que M1 est isomorphe à M2 (k) ⊕ M2 (k) ⊕ M2 (k), M2 est isomorphe
à M2 (k) ⊕ M2 (k) ⊕ M4 (k) etc.
Z
7.2
Trace.
Définitions 7.1. – Soient A une k-algèbre et V un espace vectoriel sur k. On dit qu’une application linéaire ϕ : A → V est fidèle
à droite (resp., à gauche) si, pour tout x ∈ A, x 6= 0, il existe y ∈ A tel que ϕ(xy) 6= 0 (resp., ϕ(yx) 6= 0).
– Une trace sur A est une forme linéaire ϕ : A → k telle que ϕ(xy) = ϕ(yx), ∀x, y ∈ A.
– On dit qu’une trace est fidèle si elle est fidèle en tant que forme linéaire (dans le cas d’une trace, les notions
de "fidèle à gauche" et de "fidèle à droite" coïncident).
P
Exemple 7.2. Si A = Mn (k) (n ∈ ∗ ), alors Tr (aij ) :=
i aii est une trace : la trace matricielle usuelle.
On va montrer que toute trace ϕ(·) sur A = Mn (k) est de la forme λTr (·), λ ∈ k. En effet, notons eij (i, j ∈
{1, . . . , n}) les unités matricielles de A. Alors, on a, pour tous i 6= j : ϕ(eij ) = ϕ(eii eij ) = ϕ(eij eii ) = 0 et
ϕ(eii ) = ϕ(eii (eii + ejj )) = ϕ(eii (eij + eji )(eij + eji )) = ϕ((eij + eji )eii (eij + eji )) = ϕ(ejj ), d’où le résultat.
Évidemment, cette trace est fidèle ssi λ 6= 0.
N
Conclusion. Une trace ϕ(·) sur l’algèbre A = Mn (k) est parfaitement déterminée par la valeur des ϕ(eii ), où
eii (i ∈ {1, . . . , n}) est un idempotent minimal quelconque de A.
Si M = ⊕P
i pi M est une algèbre semi-simple, où pi M est isomorphe à Mni (k), alors toute trace ϕ(·) sur M est de
la forme i λi T r(·), λi ∈ k. On va associer à cette trace le vecteur-ligne ϕ := (ϕ(e1 ), . . . , ϕ(en )), où ei est un
idempotent minimal de pi M . Ce vecteur définit la trace ϕ de manière unique, cette trace est fidèle ssi toutes les
Université de Caen Basse Normandie
20/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
composantes de ϕ sont non nulles. On dit que la trace est positive si toutes les composantes de ϕ sont positives ;
cette trace est strictement fidèle ssi toutes les composantes de ϕ sont strictement positives.
Proposition 7.2. Soit N ⊂ M une inclusion d’algèbres semi-simples de dimension finie : N = ⊕nj=1 qj N, M =
M
⊕m
i=1 pi M avec une matrice d’inclusion ΛN .
(i) Si σ est une trace sur M avec σ ∈ km et τ est une trace sur N avec τ ∈ kn , alors σ est une extension de τ
ssi τ = σΛM
N.
(ii) Il existe une trace fidèle sur M dont la restriction sur N est fidèle.
Preuve.
(i) Si fj est un idempotent minimal de qj N , alors fj pi est la somme de λij idempotents minimaux de pi M . Donc
la restriction de σ sur N est définie par le vecteur τ ′ ayant pour composantes
τ ′j = σ(fj ) =
m
X
σ(fj pi ) =
m
X
(σ)i λij = (σΛM
N )j .
i=1
i=1
(ii) On définit la trace P
σ sur M avec les poids (les composantes de (σ)i ) toutes égales à 1. Sa restriction sur N ,
M
τ , a les poids τ j = m
i=1 λij 6= 0 (car ΛN est irredondante par le lemme 5.2 (ii)) donc cette trace est fidèle.
7.3
Espérance conditionnelle.
Définition 7.2. Une espérance conditionnelle E d’une k-algèbre M sur une sous-algèbre N est une application de N -bimodules dont la restriction sur N est l’identité.
Comme E est une application linéaire, on peut parler d’une espérance conditionnelle fidèle à droite ou à gauche.
Par exemple, une trace τ sur M telle que τ (1M ) = 1, est une espérance conditionnelle fidèle à gauche et à droite
sur la sous-algèbre k1M .
On considère l’ensemble HomdN (M, N ) d’applications de N -modules à droite de M vers N , muni de la structure
de N -module à gauche définie par (xϕ)(y) := xϕ(y), ∀x ∈ N, ∀y ∈ M, ∀ϕ ∈ HomdN (M, N ).
On associe à une espérance conditionnelle E : M → N l’application E + : M → HomdN (M, N ) de N -modules à
gauche définie par : E + (x)(y) := E(xy), ∀x, y ∈ M . Alors, E est fidèle à droite ssi E + est injective. On dit que E
est strictement fidèle si E + est un isomorphisme.
Proposition 7.3. Soit N ⊂ M une inclusion d’algèbres de dimension finie. Si N possède une forme linéaire τ
fidèle à droite, alors toute espérance conditionnelle E : M → N fidèle à droite est strictement fidèle.
Preuve. On pose σ := τ ◦ E. Si x ∈ M est tel que σ(xx′ ) = 0, ∀x′ ∈ M , alors σ(xyz) = τ (E(xy)z) = 0, ∀y ∈
M, ∀z ∈ N donc E(xy) = 0 par fidélité de τ et finalement x = 0 par fidélité de E. Ainsi, σ est fidèle, et puisque M
est de dimension finie, toute forme linéaire sur M est de la forme x 7→ σ(ax) pour un a ∈ M . En effet, la dualité
non dégénérée < x, a >:= σ(ax) définit un isomorphisme entre les espaces vectoriels M et M ∗ .
Maintenant, on va prouver la surjectivité de E + . On considère une application de N -modules à droite ϕ : M → N .
Il existe a ∈ M tel que τ ◦ ϕ(x) = σ(ax), ∀x ∈ M . On définit ψ : M → N par ψ := E + (a), c’est-à-dire,
ψ(x) = E(ax). Pour montrer que ψ = ϕ, il suffit de vérifier que λ ◦ ψ = λ ◦ ϕ pour toute forme linéaire λ sur N .
Mais comme τ est fidèle, une telle forme linéaire λ est donnée par y 7→ τ (yb) pour un b ∈ N . Maintenant, pour
tout x ∈ M : λ ◦ ψ(x) = τ (E(ax)b) = τ ◦ E(axb) et λ ◦ ϕ(x) = τ (ϕ(x)b) = τ ◦ ϕ(xb) = σ(axb) = τ ◦ E(axb).
Remarques. – Toute algèbre semi-simple N possède une forme linéaire fidèle, et même une trace fidèle.
– Si V est un espace vectoriel sur k, on définit sur A = k ⊕ V la multiplication suivante : (λ, v)(λ′ , v ′ ) :=
(λλ′ , λv ′ + λ′ v). On a ainsi une algèbre unifère dont tout sous-espace de 0⊕ V est un idéal bilatère. Si dim(V ) > 2
et ϕ : A → k est une forme linéaire quelconque, alors Ker (ϕ) ∩ V est un idéal bilatère dans Ker (ϕ). Donc A ne
possède aucune forme linéaire fidèle. Par contre, si V = kv (et donc dim(V ) = 1), alors la forme (a, bv) 7→ a + b
est fidèle sur A.
Maintenant on va discuter l’existence d’espérances conditionnelles fidèles pour une inclusion d’algèbres donnée.
Université de Caen Basse Normandie
21/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Proposition 7.4. Soient N ⊂ M une inclusion d’algèbres unifères avec N de dimension finie, τ : M → k une
trace fidèle dont la restriction sur N est fidèle. Alors, il existe une application linéaire E : M → N telle que :
(i) τ ◦ E = τ .
(ii) E|N = idN .
(iii) E(xy) = E(x)y, ∀x ∈ M, ∀y ∈ N .
De plus, E est une espérance conditionnelle fidèle, c’est-à-dire :
(iv) E(yx) = yE(x), ∀x ∈ M, ∀y ∈ N .
(v) E(xy) = 0, ∀y ∈ N entraîne x = 0.
Si M est aussi de dimension finie, alors E est strictement fidèle :
(vi) E + : M → HomdN (M, N ) défini par a 7→ (x 7→ (E(ax)) est un isomorphisme.
Preuve. (i) On considère l’algèbre M munie de la forme bilinéaire non-dégénérée (x, z) 7→ τ (xz) et de la notion
d’orthogonalité associée. Comme τ |N est fidèle, on a M = N ⊕ N ⊥ . En effet, si m ∈ M , la forme linéaire
n 7→ τ (mn) est dans N ∗ donc il existe un unique a ∈ N tel que τ (mn) = τ (an), ∀n ∈ N , d’où (m − a) ∈ N ⊥ . De
plus, N ∩ N ⊥ = {0}.
On vérifie d’abord que E, vérifiant (i)-(iii), est unique. Comme sur N on définit E par (ii), il suffit démontrer que
E|N ⊥ = 0. Pour tous t ∈ N ⊥ et y ∈ N , on a par (i) et (iii) : τ (E(t)y) = τ (E(ty)) = τ (ty) = 0 donc E(t) ∈ N ⊥ .
Mais on a aussi E(t) ∈ N donc E(t) = 0.
Pour prouver l’existence, on définit E comme projection orthogonale de M sur N . Il est clair que (ii) est vraie.
Pour tout x ∈ M , E(x) − x est orthogonal à N donc à 1N , donc (i) est vraie.
On va noter que N ⊥ est un N -module à droite par la propriété de trace de τ . Notamment, si y, y ′ ∈ N, z ∈ N ⊥ ,
on a : τ (y ′ (zy)) = τ ((yy ′ )z) = 0 donc zy ∈ N ⊥ . Maintenant, xy − E(xy) et x − E(x) sont dans N ⊥ , et donc aussi
xy − E(x)y ∈ N ⊥ . La différence (xy − E(xy)) − (xy − E(x)y) = E(x)y − E(xy) est dans N ∩ N ⊥ = {0} donc (iii)
est vraie. On prouve (iv) de manière similaire.
Comme τ ◦ E = τ , la fidélité de E découle de celle de τ . Finalement, si M est de dimension finie, alors E est
strictement fidèle par la proposition 7.3.
Remarque. L’ensemble des conditions (i) à (iii) est équivalent à la seule condition :
τ (E(x)y) = τ (xy), ∀x ∈ M, ∀y ∈ N.
En effet, si on applique τ à l’égalité (iii), les conditions (i) et (ii) donnent la dernière égalité.
Réciproquement, à partir de cette dernière égalité, on obtient (i) si y = 1N , on obtient (ii) si x ∈ N par fidélité de
τ sur N , et on obtient (iii) par : τ (E(xy)z) = τ (xyz) = τ (E(x)yz), ∀x ∈ M, ∀y, z ∈ N , et par fidélité de τ sur N .
Université de Caen Basse Normandie
22/30
c
Leonid
Vainerman
Master 2
8
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Une caractérisation de la construction fondamentale.
Dans ce cours, on va donner une description de la construction fondamentale en termes de générateurs et relations
entre eux. Mais nous commençons d’abord par quelques rappels sur la théorie des modules.
8.1
Dual et bidual d’un module.
Définition 8.1. Pour tout A-module à gauche (resp., à droite) E, le A-module à droite E ∗ = HomA (E, g A)
(resp., le A-module à gauche E ∗ = HomA (E, Ad )) s’appelle le dual de E.
Pour un A-module à gauche E et son dual E ∗ , on définit la forme bilinéaire canonique < x, x∗ > := x∗ (x) ∈
A, ∀x ∈ E, ∀x∗ ∈ E ∗ . On a évidemment les relations
< a · x, x∗ > = a < x, x∗ >
et
< x, x∗ · a > = < x, x∗ > a,
∀x ∈ E, ∀x∗ ∈ E ∗ , ∀a ∈ A.
Si E et F sont deux A-modules à gauche et u ∈ HomgA (E, F ), on appelle transposée de u le morphisme ut ∈
HomdA (F ∗ , E ∗ ) défini par :
< u(x), y ∗ > = < x, ut (y ∗ ) >, ∀x ∈ E, ∀y ∗ ∈ F ∗ .
On peut donner une définition similaire pour des A-modules à droite. On a évidemment que (u1 + u2 )t = ut1 + ut2 ,
(ν ◦ u)t = ut ◦ ν t , ∀u, u1 , u2 ∈ HomgA (E, F ), ∀ν ∈ HomgA (F, G), où G est un troisième A-module à gauche, et
(idE )t = idE ∗ .
On dit que deux éléments x ∈ E et x∗ ∈ E ∗ , sont orthogonaux si < x, x∗ >= 0. Si P ⊂ E est une partie, alors
on définit la partie de E ∗ orthogonale à P comme l’ensemble des x∗ ∈ X ∗ orthogonaux à tous les x ∈ P .
Ces définitions entraînent que :
(i) l’orthogonal de u(E) dans F ∗ est le noyau de t u.
(ii) si u est un isomorphisme d’inverse ν alors ut est un isomorphisme d’inverse ν t .
(ii) La transposition est un anti-isomorphisme entre les algèbres EndgN (E) et EnddN (E ∗ ).
Exemples 8.1. a) Si E = g A, alors l’application a 7→ ρ(a) est un isomorphisme entre E ∗ et Ad .
b) Si E = ⊕ni=1 Ei est une somme finie de A-modules, alors on peut identifier E ∗ à la somme directe ⊕ni=1 Ei∗ .
En particulier, si E est libre de type fini donc isomorphe à ⊕ni=1 gA , alors on peut identifier E ∗ à ⊕ni=1 Ad . Si
{ei } est une base de E, alors les éléments e∗i ∈ E ∗ tels que < ei , e∗j >= δi,j pour i, j ∈ {1, 2, . . . , n} forment
une base de E ∗ dite duale de la base {ei }.
c) De manière un peu plus générale, le dual E ∗ d’un module projectif de type fini E est aussi un module projectif
de type fini. En effet, par définition, il existe un autre module F tel que E ⊕ F = ⊕ni=1 A ◦ ei pour un ensemble
libre fini ei , i ∈ {1, . . . , n} sur A. D’après b), on a E ∗ ⊕ F ∗ = ⊕ni=1 [A · ei ]∗ , d’où le résultat.
Pour le dual E ∗ d’un A-module à gauche E, on peut aussi définir le dual E ∗∗ := (E ∗ )∗ comme A-module à gauche ;
on dit que c’est le bidual de E. Pour tout x ∈ E, l’application qui à x associe (x∗ 7→< x, x∗ >) ∈ HomA (E ∗ , Ad )
est un morphisme de A-modules à gauche cE : E → E ∗∗ appelé l’application canonique.
On note x̃ := cE (x), ∀x ∈ E.
Proposition 8.1. Si E est un A-module libre de base finie {ei }, (i ∈ {1, 2, . . . , n}), alors l’application canonique
cE est bijective.
P
Preuve. Comme x = ni=1 xi · ei , ∀x ∈ E avec xi ∈ A, on peut considérer, pour i ∈ {1, 2, . . . , n}, la famille de
morphismes de A-modules à gauche e∗i : E → g A : x 7→ xi . Par définition, si x̃ = 0, alors ∀i ∈ {1, 2, . . . , n}, on a
< x, e∗i >= xi = 0 donc x = 0 et cE est injective. On a aussi < ẽi , e∗j >= δi,j , ∀i, j ∈ {1, 2, . . . , n} donc {ẽi } est
la base de E ∗∗ duale de {e∗i }. Comme cE transforme une base de E en une base de E ∗∗ , cE est bijective (on peut
utiliser le raisonnement de la preuve du lemme 2.2).
Université de Caen Basse Normandie
23/30
c
Leonid
Vainerman
Master 2
8.2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Produit tensoriel de deux modules.
Soient A une algèbre unifère, E un A-module à droite et F un A-module à gauche. On considère le produit
tensoriel de k-espaces vectoriels E ⊗k F et le sous-espace H de cet espace engendré par les éléments de la forme
(x · a) ⊗ y − x ⊗ (a · y), pour tous x ∈ E, y ∈ F et a ∈ A.
Définition 8.2. On appelle produit tensoriel des modules E et F , et on note E ⊗A F , l’espace vectoriel
quotient (E ⊗ F )/H. Pour x ∈ E et y ∈ F , on note x ⊗A y l’image canonique de l’élément x ⊗k y ∈ E ⊗k F .
La méthode utilisée dans la preuve de la proposition 4.1, (voir aussi [2], p. 77) nous donne la preuve de la
Proposition 8.2. (i) Soit X un espace vectoriel sur k, et soit g : E ⊗A F → X une application linéaire. L’application (x, y) 7→
f (x, y) := g(x ⊗A y) est une application bilinéaire de E × F dans X vérifiant la condition f (v · a, w) =
f (v, a · w), ∀x ∈ E, ∀y ∈ F, ∀a ∈ A.
(ii) Réciproquement, soit f une application bilinéaire de E × F dans X vérifiant la dernière condition. Il existe
alors une application linéaire g : E ⊗A F → X et une seule telle que f (x, y) := g(x ⊗A y) pour tous x ∈ E et
y ∈ F.
Soient ϕ : E → E ′ et ψ : F → F ′ deux morphismes de A-modules à droite, (resp., à gauche). On vérifie que
l’application (x, y) 7→ ϕ(x)⊗ψ(y) de E×F dans E ′ ⊗A F ′ vérifie les conditions de la proposition 8.2 donc il existe une
application linéaire et une seule ϕ⊗ψ : E⊗A F → E ′ ⊗A F ′ telle que (ϕ⊗ψ)(x⊗A y) = ϕ(x)⊗A ψ(y) ∀x ∈ E, ∀y ∈ F .
On l’appelle le produit tensoriel des morphismes ϕ et ψ.
On vérifie, en utilisant de nouveau la proposition 8.2, que si E = ⊕i Ei (resp., F = ⊕j Fj ) sont des sommes directes
de A-modules à droite (resp., à gauche), on a un isomorphisme (à préciser !) entre les espaces vectoriels E ⊗A F et
⊕i,j (Ei ⊗A Fj ).
Proposition 8.3. (i) Si M est un A-module à gauche, alors l’application h : M → Ad ⊗A M : x 7→ 1A ⊗A x est un isomorphisme
d’espaces vectoriels dont la réciproque g est définie par g(a ⊗A x) = a · x, ∀x ∈ M, ∀a ∈ A.
(ii) Si E est un A-module à droite projectif et M est un A-module à gauche, alors, pour tout A-module à gauche
M ′ et tout morphisme injectif ν : M ′ → M , l’application linéaire idE ⊗ ν : E ⊗A M ′ → E ⊗A M est injective.
Preuve.
(i) On vérifie directement que g ◦ h = idM et que l’application linéaire h ◦ g est l’application identique sur les
éléments de la forme a ⊗A x qui engendrent l’espace vectoriel Ad ⊗A M .
(ii) Si E = Ad , alors le résultat découle de (i) car idA ⊗ ν est la composition de deux isomorphismes et une
application injective. Si E = ⊕i Ad est la somme directe de copies de Ad , alors l’espace vectoriel E ⊗A M
(resp., E ⊗A M ′ ) est isomorphe à ⊕i (Ad ⊗A M ) (resp., ⊕i (Ad ⊗A M ′ )) et l’application linéaire idE ⊗ ν
se transforme en ⊕i (idA ⊗ ν) qui est injective car ν est injective. Finalement, si E est projectif alors, par
définition, il existe un A-module à droite libre L et un autre A-module à droite F tels que L = E ⊕ F , et on
vient de voir que l’application linéaire idL ⊗ ν : L ⊗A M ′ → L ⊗A M est injective. Mais idL ⊗ ν est la somme
directe des applications linéaires idE ⊗ ν et idF ⊗ ν qui sont donc injectives (raisonner par l’absurde).
Soient E et F deux A-modules à gauche, et E ∗ = HomgA (E, g A) le dual de E. On définit l’application linéaire :
θ : E ∗ ⊗A F → HomgA (E, F ) : x∗ ⊗A y 7→ (x 7→< x, x∗ > y), ∀x ∈ E, ∀y ∈ F, ∀x∗ ∈ E ∗ .
Si E est un A-module à droite, en remplaçant ci-dessus E par E ∗ et en utilisant l’application canonique cE : E →
E ∗∗ , on obtient l’application linéaire :
θ ′ : E ⊗A F → HomgA (E ∗ , F ) : x ⊗A y 7→ (x∗ 7→< x, x∗ > y), ∀x ∈ E, ∀y ∈ F, ∀x∗ ∈ E ∗ .
On va montrer que, si E est un A-module à droite projectif de type fini, alors θ ′ est un isomorphisme d’espaces
vectoriels. En effet, si d’abord E = Ad , alors Ad ⊗A F est isomorphe à F ainsi qu’à HomgA (g A, F ) (le dernier par
l’isomorphisme y ∈ F 7→ (a 7→ a · y)). Comme HomgA (⊕ni=1 Ei , F ) = ⊕ni=1 HomgA (Ei , F ) pour toute famille Fi de
Université de Caen Basse Normandie
24/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
A-modules à droite et que (⊕i Ei ) ⊗ F est isomorphe à ⊕i (Ei ⊗ F ) (voir ci-dessus), l’affirmation est vraie pour
tout E libre. Finalement, si E est projectif de type fini alors il existe un A-module à droite libre de type fini G
et un A-module à droite de type fini H tels que G = E ⊕ H, on a déjà un isomorphisme d’espaces vectoriels
(E ⊗A F ) ⊕ (H ⊗A F ) et HomgA (E ∗ , F ) ⊕ HomgA (H ∗ , F ) qui est la somme directe des applications linéaires entre
les facteurs correspondants. Alors, ces application linéaires sont nécessairement des isomorphismes.
Théorème 8.1. Soient N = ⊕nj=1 qj N ⊂ M = ⊕m
i=1 pi M une inclusion d’algèbres semi-simples de dimension
finie, et L = ⊕nj=1 ρ(qj )L = EnddN (M ). Par la proposition 7.4, il existe une espérance conditionnelle strictement
fidèle E : M → N, et :
(i) Les éléments de la forme λ(x)Eλ(y) engendrent L comme espace vectoriel sur k.
(ii) L’application linéaire ϕ : N → ELE définie par ϕ(x) = λ(x)E est un isomorphisme d’algèbres.
(iii) Si fj est un idempotent minimal du facteur qj N , alors λ(fj )E est un idempotent minimal du facteur ρ(qj )L.
Preuve.
(i) L’existence d’une espérance conditionnelle strictement fidèle E : M → N dit que l’application E + : M →
M ∗ = HomdN (M, N ) de N -modules à gauche (voir ci-dessus) est un isomorphisme. Le N -module à droite M
est projectif de type fini car tout module sur une algèbre semi-simple de dimension finie est projectif par le
lemme 2.2, alors la proposition 8.3 (ii) dit que l’application idM ⊗ E + : M ⊗N M → M ⊗N M ∗ est bijective.
Si on remarque que la transposition est un anti-isomorphisme de L := EnddN (M ) et EndgN (M ∗ ), alors le
raisonnement utilisé avant le théorème dit que θ : M ⊗N M ∗ → L : x ⊗N x∗ 7→ λ(x)x∗ est un isomorphisme
d’espaces vectoriels. Finalement, l’application Φ := θ(idM ⊗ E + ) : M ⊗N M → L est un isomorphisme
d’espaces vectoriels comme application composée de deux isomorphismes, et on calcule directement que
Φ(x ⊗ y) = λ(x)Eλ(y), ∀x, y ∈ M .
(ii) Comme E est un idempotent de L qui commute à λ(N ), ϕ est un morphisme d’algèbres. Si x ∈ N et ϕ(x) = 0,
alors x = E(x1M ) = ϕ(x)1M = 0 donc ϕ est injectif. Finalement, ϕ est surjectif par (i).
(iii) Pour tout j ∈ {1, 2, . . . , n}, l’idempotent ρ(qj )E = λ(qj )E ∈ ρ(qj )L est non nul. Alors ρ(qj )ELE =
ρ(qj )λ(N )E est un facteur. Comme ϕ est un isomorphisme d’algèbres, sa restriction ϕj sur qj N est aussi
un isomorphisme d’algèbres sur ρ(qj )ELE. Or, si e ∈ L est un idempotent non nul dominé par λ(fj )E et
donc aussi par λ(qj )E = ρ(qj )E, alors e = ρ(qj )Eeρ(qj )E ∈ ρ(qj )ELE, d’où e = λ(fj )E. Autrement dit,
l’idempotent λ(fj )E est aussi minimal dans L.
Université de Caen Basse Normandie
25/30
c
Leonid
Vainerman
Master 2
9
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Les traces de Markov.
Soient N ⊂ M une inclusion d’algèbres semi-simples de dimension finie, et λ : M → L = EnddN (M ) l’inclusion
obtenue par la construction fondamentale. Si E : M → N est une espérance conditionnelle fidèle, le théorème 8.1
indique que L est engendré en tant qu’espace vectoriel par les éléments de la forme λ(x)Eλ(y), ∀x, y ∈ M .
Toute trace Tr sur L vérifie les relations :
Tr (λ(x)Eλ(y)) = Tr (λ(yx)E) = Tr (Eλ(yx)E) = Tr (λ(E(yx))E),
∀x, y ∈ M,
donc la trace Tr est définie de manière unique par ses valeurs sur les éléments de la forme λ(x)E, ∀x ∈ N .
Définition 9.1. On dit qu’une trace fidèle tr sur M dont la restriction sur N est fidèle, est une trace de
Markov de module β ∈ k s’il existe une trace Tr sur L tel que :
Tr (λ(x)) = tr(x)
et
βTr (λ(x)E) = tr(x),
∀x ∈ M.
La fidélité de tr implique que β 6= 0. Si une telle trace Tr existe, elle est unique dans le sens suivant :
Lemme 9.1. Soit N ⊂ M une inclusion d’algèbres semi-simples de dimension finie, soit β 6= 0 et soient tr et E
définis comme précédemment. Il existe alors au plus une trace Tr sur L telle que :
βTr (λ(y)E) = tr(y), ∀y ∈ N.
Si une telle trace Tr existe, alors elle est fidèle et vérifie :
βT r(λ(x)E) = tr(x), ∀x ∈ M.
Si τ = (τ1 , . . . , τn ) et t = (t1 , . . . , tn ) sont les vecteurs correspondants respectivement à T r et tr|N , alors τ β = t.
Preuve. Si une telle trace Tr existe, avec les notations du théorème 8.1, on a pour tout j ∈ {1, 2, . . . , n}, βτj =
βTr (λ(fj )E) qui est égal, par le théorème 8.1 (iii), à tr(fj ) = tj donc on a bien τ β = t. L’unicité et la fidélité de
Tr suivent. Finalement, pour tout x ∈ M :
βTr (λ(x)E) = βTr (Eλ(x)E) = βTr (λ(E(x))E) = tr(E(x)) = tr(x).
Théorème 9.1. Soient N ⊂ M une inclusion d’algèbres semi-simples de dimension finie donnée par matrice
d’inclusion Λ et λ : M → L l’inclusion obtenue par la construction fondamentale. Soient les décompositions des
algèbres N, M et L en facteurs :
N=
n
M
qj N,
j=1
M=
m
M
pi M,
i=1
L=
n
M
ρ(qj )L,
j=1
où qj N ≃ Mνj (k), pi M ≃ Mµi (k), ρ(qj )L ≃ Mκj (k), ν = (ν1 , . . . , νn ), µ = (µ1 , . . . , µm ) et κ = (κ1 , . . . , κn ).
En particulier, on a Λν = µ et Λt µ = κ.
Soient tr une trace fidèle sur M dont la restriction sur N est fidèle, E l’espérance conditionnelle associée, s ∈
km , t ∈ kn les vecteurs correspondants donc sΛ = t. Soit β 6= 0. Alors les affirmations suivantes sont équivalentes :
(i) tr est une trace de Markov de module β.
(ii) s(ΛΛt ) = βs et t(Λt Λ) = βt.
En particulier, si k =
C, alors tout module β d’une trace de Markov est un entier algébrique positif.
Preuve. (i) ⇒ (ii). Soient Tr une trace de la définition d’une trace de Markov et τ le vecteur correspondant.
Alors, t = τ (Λt Λ) puisque Tr est une extension de tr, et τ β = t par le lemme précédent, donc t(Λt Λ) = βt. On a
aussi τ Λt = s, donc sΛΛt = τ Λt ΛΛt = βτ Λt = βs.
(ii) ⇒ (i). On pose τ := β −1 t, et soit Tr la trace correspondante. Alors, Tr est une extension de tr parce que
τ Λt = β −1 tΛt = β −1 sΛΛt = s.
On considère l’application linéaire τ̃ : N → k définie par τ̃ (y) = βTr (λ(y)E) ; c’est une trace parce que E est une
application N -linéaire et en même temps un idempotent dans qj N ; on a τ̃ (fj ) = βTr (λ(fj )E) = βτj = tj , ∀j ∈
Université de Caen Basse Normandie
26/30
c
Leonid
Vainerman
Master 2
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
{1, 2, . . . , n} par le théorème 8.1 et par la définition de τ , donc τ = tr|N . Alors, par le lemme précédent, Tr vérifie
la condition de Markov βTr (λ(x)E) = tr(x), ∀x ∈ M .
Finalement, si k = , alors toute valeur propre d’une matrice de la forme Λt Λ est un entier algébrique positif. C
Remarques. - 1 1
– Soient Λ =
, s = (3, 1) donc t = (4, 4). Alors, tΛt Λ = 4t, mais sΛΛt n’est pas un multiple scalaire de s.
1 1
Cela montre qu’on ne peut pas supprimer la première égalité dans la condition (ii).
– Si k = , on a la condition β > 0 sans aucune condition de positivité sur tr.
– Soient k = , β 6= 0, Z(M ) ∩ Z(N ) = k1M . Alors, on peut montrer (voir [4], théorème 2.7.3), qu’une trace
de Markov positive de module β existe ssi β = [M : N ] = kΛk2 et que cette trace de Markov est unique à un
multiplicateur scalaire près. L’élément crucial dans la preuve est (voir [3]) :
C
C
Théorème de Perron-Frobenius. Si une matrice carrée réelle a tous ses coefficients strictement positifs,
alors son rayon spectral est une valeur propre positive dont l’espace propre associé est de dimension 1. Elle admet
un vecteur propre pour cette valeur propre dont tous les coefficients sont strictement positifs.
Maintenant on va montrer que si tr sur une paire d’algèbres N ⊂ M est une trace de Markov, alors la trace Tr
sur la paire M ⊂ L est aussi une trace de Markov. Plus précisément :
Proposition 9.1. Soient tr une trace de Markov de module β sur une paire d’algèbres semi-simples de dimension
finie N ⊂ M, L = EnddN (M ) et Tr l’extension de tr définie comme dans le lemme 9.1. Soit enfin D : L → λ(M )
l’espérance conditionnelle définie par Tr et tr. Alors :
(i) Tr est une trace de Markov de module β par rapport à λ : M → L ;
(ii) βD(E) = 1M ;
(iii) βDλ(E)D = D, où λ est la multiplication à gauche sur L ;
(iv) βλ(E)Dλ(E) = λ(E).
Preuve.
(i) Soient s et t les vecteurs qui définissent respectivement la trace tr sur M et N . Comme tr est une trace de
Markov de module β, on a : s(ΛΛt ) = βs et t(Λt Λ) = βt par le théorème 9.1. La preuve du lemme 9.1 dit
que Tr est défini par τ = β −1 t donc s(ΛΛt ) = βs et τ (Λt Λ) = βτ et (i) découle du théorème 9.1.
(ii) La forme bilinéaire (u, v) 7→ Tr (uv) est non dégénérée sur L ainsi que sa restriction sur λ(M ). Alors,
L = λ(M ) ⊕ λ(M )⊥ , avec orthogonalité dans le sens de cette forme bilinéaire. Pour tout x ∈ M , on a :
Tr (βEλ(x) − λ(x)) = βTr (λ(x)E) − Tr (λ(x)) = tr(x) − tr(x) = 0,
donc βE −1M ∈ λ(M )⊥ . Comme D est la projection orthogonale de L sur λ(M ), cela implique D(βE) = 1M .
(iii) Par M -linéarité de D, on a : Dλ(E)D = λ(D(E))D donc (iii) découle de (ii).
(iv) On pose u = λ(x)Eλ(y) ∈ L, où x, y ∈ M . Les trois applications suivantes de M dans M sont égales par
(N, N )-linéarité de E :
Eλ(x)Eλ(y) : z 7→ E(xE(yz))
Eλ(E(x))λ(y) : z 7→ E(E(x)yz)
λ(E(x))Eλ(y) : z 7→ E(x)E(yz)
Par (M, M )-linéarité de D, on a :
λ(E)Dλ(E)u = ED(Eλ(x)Eλ(y)) = ED(λ(E(x))Eλ(y)) = Eλ(E(x))D(E)λ(y).
Par conséquent, en utilisant (i) :
βλ(E)Dλ(E)u = Eλ(E(x))λ(y) = Eu = λ(E)u,
ce que prouve (iv).
Université de Caen Basse Normandie
27/30
c
Leonid
Vainerman
Master 2
10
10.1
2007-2008
Introduction à la théorie de l’indice de Vaughan Jones
Tours d’algèbres.
Généralités.
On considère d’abord une tour arbitraire (finie ou infinie) d’algèbres semi-simples de dimension finie :
M0 ⊂ M1 ⊂ . . . ⊂ Mk ⊂ Mk+1 ⊂ . . . ,
munie des diagrammes de Bratteli de toutes les inclusions.
Proposition 10.1. Soient M0 ⊂ M1 ⊂ M2 ⊂ . . . et M0′ ⊂ M1′ ⊂ M2′ ⊂ . . . deux tours d’algèbres semi-simples
avec les mêmes ensembles (finis ou non) de diagrammes de Bratteli. On note M∞ la limite inductive de toutes les
algèbres Mk . C’est une k-algèbre unifère qui est la réunion de ses sous-algèbres semi-simples de dimension finie. De
′ . Alors, il existe un isomorphisme d’algèbres ψ : M
′
′
′
même pour M∞
∞ := ∪i Mi → M∞ := ∪i Mi tel que ψ(Mi ) = Mi
pour tout i ∈ {0, 1, . . .}.
Preuve. Il suffit de construire une suite d’isomorphismes ψi : Mi → Mi′ tels que ψi+1 |Mi = ψi . Soit ψ0 un isomorphisme quelconque, et on suppose qu’on a déjà construit ψ0 , . . . , ψi . Alors, on a vu qu’il existe un isomorphisme
′
αi+1 : Mi+1 → Mi+1
tel que αi+1 (Mi ) = Mi′ , et d’après la proposition 5.1, il existe un automorphisme intérieur
′
βi+1 de Mi+1
qui est une extension de ψi ◦ α−1
i+1 |Mi′ . On peut alors poser ψi+1 := βi+1 ◦ αi+1 .
Maintenant, on analyse le rôle des traces de Markov pour les tours d’algèbres engendrées par la construction
fondamentale. Plus précisément, on considère une inclusion M0 ⊂ M1 d’algèbres semi-simples de dimension finie,
la tour d’algèbres Mk , k > 0 engendrée par la construction fondamentale, et la trace de Markov tr1 de
module β sur la paire M0 ⊂ M1 . On note tr2 l’extension de cette trace sur M2 (notée précédemment Tr ), et on
désigne par E1 = E : M1 → M0 , E1 ∈ M2 , E2 = D : M2 → M1 , E2 ∈ M3 les espérances conditionnelles associées.
Selon la proposition 9.1, on peut itérer le processus d’extension de trace de Markov, notamment : si Ek : Mk →
Mk−1 est l’espérance conditionnelle associée aux trk et trk−1 , et trk+1 est l’unique extension de trk qui vérifie
βtrk+1 (xEk ) = trk (x) ∀x ∈ Mk (voir ci-dessus), alors trk+1 est aussi une trace de Markov, et on peut continuer
ce processus. On remarque que l’algèbre Mk+1 est engendrée par Mk et Ek , brièvement Mk+1 =< Mk , Ek >.
L’algèbre M∞ a un centre de dimension finie isomorphe à Z(M0 ) ∩ Z(M1 ). La réunion des trk définit une trace
et tr1 est positive, alors
non-dégénérée tr : M∞ → k (en effet, tr(xy) = 0, ∀y ∈ M∞ entraîne x = 0). Si k =
tr est aussi positive dans le sens que tr(ε) > 0 pour tout idempotent non nul ε ∈ M∞ . Dans ce cas, et si de plus
Z(M0 ) ∩ Z(M1 ) = k1M1 , alors le théorème de Perron-Frobenius entraîne que tr est l’unique trace positive sur M∞ ,
à un multiplicateur scalaire près (voir remarques du paragraphe 9).
C
Théorème 10.1. Soient M0 ⊂ M1 une inclusion d’algèbres semi-simples de dimension finie et tr1 : M1 → k la
trace de Markov de module β. Avec les notations précédentes, on a :
(i) βEi Ej Ei = Ei si i > 1, j > 1 et |i − j| = 1 ;
(ii) Ei Ej = Ej Ei si i > 1, j > 1 et |i − j| > 2 ;
(iii) βtr(wEk ) = tr(w) pour tout w ∈ Mk .
En particulier, si tr est normalisée par tr(1) = 1, alors tr(Ek ) = β −1 , ∀k > 1.
Preuve. Les affirmations (i) et (iii) découlent des affirmations (i),(iii) et (iv) de la proposition 9.1. Si j > i + 2,
alors Ei ∈ Mj−1 , et on a (ii) par Mj−1 -linéarité de l’espérance conditionnelle Ej .
10.2
Exemple : les algèbres de Temperley-Lieb.
Le théorème 10.1 est une motivation pour la définition suivante :
Définition 10.1. Étant donné un β ∈ k× et un entier naturel non nul n, on note Aβ,n l’algèbre associative
unifère engendrée par les générateurs 1, e1 , . . . , en−1 vérifiant les relations de Temperley-Lieb :
e2i = ei
βei ej ei = ei
ei ej = ej ei
si
si
si
i>1
i > 1,
i > 1,
j > 1 et |i − j| = 1
j > 1 et |i − j| > 2
Un monôme dans Aβ,n est un produit ei1 ei2 . . . eip , où tout eij est un des e1 , . . . , en−1 ou 1 (produit vide).
Université de Caen Basse Normandie
28/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
Proposition 10.2. On peut écrire tout monôme w ∈ Aβ,n sous forme réduite :
β −r (ei1 ei1 −1 . . . ej1 )(ei2 ei2 −1 . . . ej2 ) . . . (eip eip −1 . . . ejp ),
N
où r ∈ , 1 6 i1 < i2 < . . . < ip 6 n−1, 1 6 j1 < j2 < . . . < jp 6 n−1, i1 > j1 , i2 > j2 , . . . , ip > jp , 0 6 p 6 n−1.
De plus :
n
1
dim(Aβ,n ) 6 Cn :=
n + 1 2n
Preuve. On considère un entier m tel que 0 6 m 6 n − 1 ; on va prouver la 1ère affirmation par récurrence sur m
pour un monôme w en e1 , . . . , em . Comme c’est évident pour les monômes tels que m 6 1, on peut supposer que
m > 2 et que l’affirmation est vraie pour m − 1.
Si w est un monôme contenant em au moins 2 fois, alors entre les plus proches em se trouve un monôme en
e1 , . . . , em−1 qui, par l’hypothèse de récurrence, ou bien ne contient pas em−1 , ou bien est de la forme aem−1 b,
où a, b sont des monômes en e1 , . . . , em−2 . Alors w est ou bien de la forme w = w1 em aem w2 , ou bien de la forme
w = w1 em aem−1 bem w2 , où a, b sont des monômes en e1 , . . . , em−2 . Comme ils commutent à em , alors w est égal
ou bien à w1 em aw2 , ou bien à β −1 w1 aem bw2 donc le nombre de em a été réduit. Par conséquent, on peut supposer
que w contient exactement un em .
Soit w = w1 em w2 , où w1 , w2 sont des monômes en e1 , . . . , em−1 . En utilisant l’hypothèse de récurrence pour w2 et le
fait que em et tous les ej pour tout j 6 m−2 commutent entre eux, on se ramène au cas w = w1 em em−1 . . . es , où w1
est un monôme réduit se terminant, disons, par el . Si l > s, on a : el em em−1 . . . es = em . . . el+2 (el el+1 el )el−1 . . . es =
β −1 el el−1 . . . es em em−1 . . . el+2 .
Donc, on peut supposer que l < s, c’est-à-dire, que w est de la forme
w = βei1 . . . ej1 ei2 . . . ej2 . . . eip . . . ejp (ip = m, jp = s),
ce qui termine la démonstration par récurrence.
Maintenant, on veut calculer le nombre de monômes réduits dans Aβ,n ou encore le nombre de suites associées de
la forme (i1 , j1 , . . . , ip , jp ). On peut associer à cette suite le chemin entre les points (0, 0) et (n, n) dans 2 formé
de segments horizontaux et verticaux dont les sommets se trouvent aux points
Z
(0, 0), (i1 , 0), (i1 , j1 ), (i2 , j1 ), (i2 , j2 ), . . . , (ip , jp ), (n, jp ), (n, n).
On remarque que tout chemin entre (0, 0) et (n, n) dont les sommets se trouvent sous ou sur la droite passant par
ces deux points, est de cette forme avec une suite qui correspond à un des monômes réduits dans Aβ,n . Évidemment,
l’ensemble de ces chemins est en bijection avec l’ensemble des chemins entre (1, 0) et (n + 1, n) qui sont strictement
sous la diagonale principale.
D’autre part, tout chemin entre (1, 0) et (n + 1, n) contient n segments horizontaux et n segments verticaux de
longueur 1 donc
le nombre total de ces chemins est égal au nombre de combinaisons
de n parmi 2n possibilités, c’estn
n+1
à-dire, à 2n . De même, le nombre de chemins entre (0, 1) et (n + 1, n) est 2n . Mais l’ensemble de ces derniers
chemins est en bijection avec l’ensemble des chemins entre (1, 0) et (n + 1, n) touchant la diagonale principale : en
effet, si (j, j) appartient à un chemin entre (1, 0) et (n + 1, n) avec j minimal, on remplace la partie de ce chemin
entre (1, 0) et (j, j) par sa réflexion, et on ne change pas l’autre partie de ce chemin.
Ainsi, le nombre de chemins entre (1, 0) et (n + 1, n) qui sont strictement sous la diagonale principale, est
n
n
n+1
1
:= Cn
−
=
n + 1 2n
2n
2n
d’où le résultat.
Définition 10.2. - On définit par récurrence la suite de polynômes :

 P0 (X) ≡ 1,
P1 (X) ≡ 1,

∀n > 1, Pn+1 (X) = Pn (X) − XPn−1 (X)
Ainsi, P2 (X) = 1 − X, P3 (X) = 1 − 2X, P4 (X) = 1 − 3X + X 2 , P5 (X) = 1 − 4X + 3X 2 , . . .
Le polynôme Pn est le n-ème polynôme de Jones.
Université de Caen Basse Normandie
29/30
c
Leonid
Vainerman
Master 2
Introduction à la théorie de l’indice de Vaughan Jones
2007-2008
N×,
β ∈ k× tel que Pj (β −1 ) 6= 0, ∀j ∈ {2, 3, . . . , n − 1}. Alors :
m
M
1
n
(i) Aβ,n est une algèbre semi-simple de dimension Cn =
Mm(n,j) (k), où m est la
, isomorphe à
n + 1 2n
j=0
n
j
j−1
partie entière de et m(n, j) =
−
.
n
n
2
(ii) Il existe une trace normalisée unique trn : Aβ,n → k telle que βtrn (wej ) = trn (w) si 1 6 j 6 n − 1 et w est
dans la sous-algèbre engendrée par 1, e1 , . . . , ej−1 . De plus, trn est fidèle si Pn (β −1 ) 6= 0.
Théorème 10.2. Soient n ∈
(iii) L’application naturelle Aβ,n−1 → Aβ,n est injective et trn est une extension de trn−1 .
Pour la preuve de ce théorème, voir [4], théorèmes 2.1.7 et 2.1.8.
Remarques. – Les nombres Cn s’appellent les nombres de Catalan. On a C1 = 1, C2 = 2, C3 = 5, C4 = 14, . . .
– On peut calculer : Aβ,1 = k, ∀β 6= 0, et Aβ,2 = k ⊕ k, ∀β 6= 0.
– Étudions la structure de l’algèbre Aβ,3 en fonction de β 6= 0. Il existe exactement 5 monômes réduits dans ce
cas : 1, e1 , e2 , e1 e2 , e2 e1 donc dim(Aβ,3 ) 6 5, et cette algèbre n’est pas commutative car il n’y a pas de relation
e1 e2 = e2 e1 . Comme n = 3, le théorème 10.2 dit que si β −1 n’est pas racine de l’équation P2 (X) = 1 − X = 0,
c’est-à-dire, si β 6= 1, alors cette algèbre est semi-simple donc nécessairement isomorphe à k ⊕ M2 (k). Il est plus
difficile d’établir un isomorphisme explicite entre Aβ,3 , ∀β ∈
/ {0, 1} et k ⊕ M2 (k).
On calcule Z(Aβ,3 ) =< 1, r >, où r = e1 (1 − e2 ) + e2 (1 − e1 ) vérifie la relation r 2 = (1 − β −1 )r. On peut alors
conclure que A1,3 n’est pas semi-simple car le seul élément central r de l’algèbre k ⊕ M2 (k) tel que r 2 = 0, est 0.
Références
[1] N. Bourbaki Éléments de mathématique, Algèbre, Chapitres 4 et 5, Hermann (1967).
[2] N. Bourbaki Éléments de mathématique, Algèbre, Chapitre 2, Hermann (1962).
[3] F.R. Gantmacher Théorie des matrices, Tomes 1 et 2, Dunod (1966).
[4] F. Goodman, P. de la Harpe, V.F.R. Jones Coxeter Graphs and Towers of Algebras, Springer-Verlag (1989).
[5] V. Jones, V. S. Sunder Introduction to Subfactors, Cambridge University Press (1997).
[6] R.S. Pierce Associative Algebras (Graduate Texts in Mathematics), Springer-Verlag (1982).
[7] B.L. Van der Waerden Algebra, Springer-Verlag (1991).
Université de Caen Basse Normandie
30/30
c
Leonid
Vainerman
Téléchargement