Ici, les fonctions s´eparatrices sont ajust´ees en mˆeme
temps que la s´eparation. La m´ethode de projection [7,
8] permet de les choisir de fa¸con optimale dans la classe
des combinaisons lin´eaires des fonctions de base donn´ees
φ1, . . . φm. En ´ecrivant ψi=Pm
k=1 cikφk, le choix optimal
des coefficients cik est donn´e par la solution de
[ci1··· cim]Gi=gi, i = 1,...,K, (2)
o`u Gi= Eφ[(BX)i]φ[(BX)i]T,gi= Eφ′[(BX)i], φ´etant
le vecteur [φ1··· φm], φ′sa d´eriv´ee et Td´esignant la
transposition.
Un choix possible de fonction de base est la fonction
puissance s7→ signe(s)|s|α,α > 0. Dans tous les cas, une
des fonctions de base doit ˆetre la fonction identit´e.
En pratique, on doit coupler (1) et (2) avec une normal-
isation pour ´eliminer l’effet d’´echelle. Pour illustrer cet
effet, prenons par exemple une fonction de base φ(s) =
arctan(s). Si la source Sa une variance tr`es grande par
rapport `a 1, φ(S) a presque la mˆeme loi que signe(S). Par
contre si Sa une variance beaucoup plus petite que 1,
φ(S) a presque la mˆeme loi que S. Il convient donc de
normaliser les sources de sorte qu’elles ont une variance
compatible avec les fonctions φichoisies. Le seul cas o`u
cela n’est pas n´ecessaire est celui o`u ces derni`eres sont les
fonctions puissance, car alors l’effet d’´echelle sera absorb´e
par les coefficients cik .
2.1 Algorithme en traitement par lot
On r´esout les ´equations (1) et (2) avec ˆ
E `a la place de
E. On note que (2) a une solution explicite pour tout B
fix´e. Par contre (1) ne peut ˆetre r´esolu `a ψifix´ee, que
par une m´ethode it´erative. Dans le cas o`u les ψisont
choisies a priori, une m´ethode de type Newton Rhapson
est la suivante. On part d’une valeur courante ˆ
Bde B,
ce qui permet de reconstruire les sources ˆ
Si= ( ˆ
BX)i. On
calcule la nouvelle valeur de Bpar (I−∆)ˆ
Bo`u ∆est la
matrice de terme diagonal nul et terme hors diagonal δij ,
i6=jsolution de
ˆωiˆσ2
jˆγi
ˆγjˆωjˆσ2
iδij
δji =ˆ
Eψi(ˆ
Si)ˆ
Sj
ˆ
Eψj(ˆ
Sj)ˆ
Si
avec ˆγi=ˆ
Eψi(ˆ
Si)ˆ
Si, ˆσ2
i=ˆ
Eˆ
S2
jet ˆωi=ˆ
Eψ′
i(ˆ
Si).
Souvent, on normalise les fonctions ψide sorte que ˆγi=
1. Si les sources sont aussi normalis´ees pour que ˆσi= 1,
le syst`eme pr´ec´edent a pour solution explicite
δij =ˆωjˆ
Eψi(ˆ
Si)ˆ
Sj−ˆ
Eψj(ˆ
Sj)ˆ
Si
ˆωiˆωj−1(3)
Dans le cas o`u les ψisont ajust´ees, avant d’effectuer le
calcul (3), on calcule les coefficients cik en r´esolvant les
syst`emes lin´eaires analogues `a (2)
[ci1··· cim]ˆ
Gi=ˆ
gi, i = 1,...,K, (4)
o`u ˆ
Gi=ˆ
Eφ(ˆ
Si)φ(ˆ
Si)T,ˆ
gi=ˆ
Eφ′(ˆ
Si). On calcule ensuite
ψi(ˆ
Si) par Pm
k=1 cikφk(ˆ
Si). On note que (4) implique alors
ˆ
Eψi(ˆ
Si)ˆ
Si= 1 et ˆ
Eψ′
i(ˆ
Si) = ˆ
Eψ2
i(ˆ
Si). Ce qui donne ˆγi= 1
et ˆωi=ˆ
Eψ2
i(ˆ
Si)>0 (d’apr`es l’in´egalit´e de Schawrtz.
`
A l’´etape suivant, les sources seront reconstitu´ees `a par-
tir de la nouvelle matrice (I−∆)ˆ
B. Ce qui revient sim-
plement `a remplacer ˆ
Sipar ˆ
Si−Pj6=iδij ˆ
Sj. Ces derni`ere
ne sont plus normalis´ees, il faut les renormaliser avant
d’effectuer les calculs (3) et (4).
Il est int´eressant de noter que l’algorithme peut ˆetre
r´ealis´e uniquement `a partir des sources reconstitu´ees, sans
aucune r´ef´erence `a la matrice de reconstruction ˆ
B.
2.2 Algorithme en ligne (adaptatif)
Comme (2) a une solution explicite, une premi`ere ap-
proche est de faire la mise `a jour directement les Giet
gi. On suppose disposant, `a l’instant t, d’une estimation
B(t) de B, ce qui permet de reconstruire les sources (en
cet instant) par ˆ
Si(t) = i-`eme composante de B(t)X(t).
On met `a jour les matrices Gi(t) et vecteurs gi(t) par
Gi(t) = ρGi(t−1) + (1 −ρ)φ[ˆ
Si(t)]φ[ˆ
Si(t)]T(5)
gi(t) = ρgi(t−1) + (1 −ρ)φ′[ˆ
Si(t)]
o`u ρest un facteur oubli. On r´esout alors les syst`emes
[ci1(t)··· cim(t)]Gi(t) = gi(t). On calcule ensuite
ψi[ˆ
Si(t)] = Pm
k=1 cik(t)φk[ˆ
Si(t)] et on d´etermine les co-
efficients δij (t) de fa¸con semblable `a (3). En supposant
que les sources sont d´ej`a normalis´ee pour avoir la vari-
ance unit´e, on a
δij (t) = (1 −ρ)ˆωj(t)ψi[ˆ
Si(t)] ˆ
Sj(t)−ψj[ˆ
Sj(t)
ˆωi(t)ˆωj(t)−1
o`u ˆωi(t) = gi(t)[ci1(t)··· cim(t)]T. Le nouveau esti-
mateur pour Bsera comme auparavant obtenu en pr´e-
multipliant B(t) par la matrice de terme diagonal 1 et hors
diagonal −δij (t). Mais celui-ci, not´e ˜
B(t+1), produira des
sources non normalis´ees. Si la i-`eme source reconstitu´ee
par B(t) a pour variance 1, celle reconstitu´ee par ˜
B(t+ 1)
aura pour variance estim´ee en t+ 1
d2
i(t+ 1) = 1 + (1 −ρ)[ ˜
Si(t+ 1)2−1]
o`u ˜
Si(t+1) est la i-`eme composante de ˜
B(t+1)X(t+1). Il
faut donc diviser les lignes de ˜
B(t+1) par les di(t+1) pour
obtenir le nouveau estimateur “normalis´e” B(t+ 1). On
recommence alors les calculs `a l’instant t+ 1 avec celui-ci,
ce qui revient a prendre ˆ
Si(t+ 1) = ˜
Si(t+ 1)/di(t+ 1).
Comme une des fonctions φk, le premier par exemple,
est la fonction identit´e, on peut s’attendre `a ce que les
matrices Giont pour l’´el´ement (1,1) ´egal `a 1 si les sources
sont normalis´ees. Mais ce n’est pas le cas si on s’en tient
`a (5). Per suite, pour la mise `a jour de la 1`ere colonne et
ligne de Gi, on adopte une formule l´eg`erement diff´erente:
Gi,11(t+ 1) = [ρGi,11(t) + (1 −ρ)˜
Si(t)2]/d2
i(t+ 1),
Gi,k1(t+1) = {ρGi,k1(t)+(1−ρ)φk[ˆ
Si(t+1)] ˜
Si(t)}/di(t+1)
et Gi,k1(t+ 1) = Gi,1k(t+ 1), Gi,kl d´esignant l’´el´ement
(k, l) de Gi. De cette fa¸con, Gi,11(t+1) = 1 si Gi,11(t) = 1
et la matrice Gireste d´efinie positive. Ce qui assure que
ˆωi>1.
L’algorithme pr´ec´edent s’apparente `a l’algorithme RLS
(recursive least mean square). Il est assez coˆuteux en