S m - Free

publicité
Décision Optimale
Esme 29 Novembre 2004
Nicolas Ibrahim
Modèle du système
Signal
transmis
Points de
l’espace
du signal:
Signaux transmis
Canal de
transmission
Signal
reçu
Un point est un vecteur de taille N
dont les éléments sont pris d’un
alphabet de cardinal Q =>
Il y a QN points !!
Signal
reçu
2
Exemple d’espace :
Modulation binaire
Espace dimension 2
-A
+A
Modulation quaternaire
+A
Espace dimension 4
-A
+A
3
Le problème
Ayant reçu le signal r,
la détection consiste à trouver un signal s appartenant à l’espace du signal,
tel que la probabilité d’une décision correcte est maximisée !
Les techniques
1- Probabilité a Posteriori
Choisir le signal Sm telle que la probabilité a posteriori soit maximale
Prsignal s m est transm is r , m  1,.., Q N
2- Maximum de vraisemblance
Choisir le signal Sm telle que la vraisemblance soit maximale
pr signal s m est transm is , m  1,.., Q N
4
Maximum a Posteriori (MAP)
Densité spectrale
conditionnelle de
probabilité
Pr sm r  
Probabilité
A priori
p(r sm ) Pr( sm )
p( r )
M
  p(r sm ) Pr sm 
m 1
Il faut connaître:
• les probabilités a priori des signaux transmis {Sm} (Source)
• densité spectrale conditionnelle de probabilité entre
le signal transmis et le signal reçu (Canal de transmission)
5
Si les signaux de la source sont équiprobables (le cas le plus classique)
1
Pr( sm ) 
M
M
1
p(r )   p (r sm ) Pr sm  
M
m 1
M
 p(r s
m 1
m
)
La densité spectrale de probabilité du signal reçu est indépendante du signal transmis
Probabilité
a posteriori
Pr sm r   p(r sm )
Maximiser la
Probabilité a posteriori
la vraisemblance
Maximiser
la vraisemblance
6
La vraisemblance
Le seul processus aléatoire est le canal de transmission
r =sm + n
sm
r
n
p ( r sm )  p ( n)  p ( r  sm )
p(r ) 
1
N 0 N
 r  sm
exp  

N0

2




1
1
ln p(r )   N ln N 0  
2
N0
Maximiser
p(r)
 r
N
n 1
n
2
 sm , n 
 r
N
Minimiser la
distance Euclidienne
n 1
n
2
 sm , n 
7
La distance Euclidienne entre le signal reçu et un des signaux transmis
D(r, s m ) 


 r
N
n 1
N
n
2
 sm , n 
N
N
n 1
n 1
2
r

2
r
s

s

 n m,n  m,n
n 1
2
2
n
r  2r.s m  s m
2
La distance Euclidienne modifiée
D' (r, s m )   2r.s m  s m
2
Minimiser
Minimiser
Maximiser
D(r,sm)
D’(r,sm)
C(r,sm)=2 r.sm - ||sm||²
8
C(r,sm) = 2 r.sm
- ||sm||²
Projection orthogonale du signal reçu
sur un des signaux de l’espace signal
r
Distance
projection
Sm
9
T
C (r, s m )  2 r (t ) sm (t )dt  Esm , m  1,..,M
0
Banc de corrélateurs
s1(t)
T
s2(t)

0
T

r(t)
0
-Es1/2
( )dt
-Es2/2
( )dt
Sélectionner
la sortie
la plus
Décision
grande
EsM /2
sM(t)
T

0
( )dt
Échantillonnage t=T
10
Probabilités a priori non-égales
Exemple :
PAM à deux états : {s1=A, s2=-A}; A² = Es
p(s1) = p, p(s2) = q = 1-p
Le signal reçu à travers un canal à bruit blanc gaussien additif (b ~ N(0, N0) )
r   Es  b
Densité de probabilité conditionnelle
 ( r  Es ) 2 

p(r s1 ) 
exp  
2


2 b
2b2


1
 ( r  Es ) 2 

p ( r s2 ) 
exp  
2


2 b
2b2


1
Les métriques
 ( r  Es ) 2 

PM (r , s1 )  p. p(r s1 ) 
exp  
2
2


2 b
2b


p
 ( r  Es ) 2 

PM (r , s2 )  p. p(r s2 ) 
exp  
2
2


2 b
2b


1 p
11
Règle de décision
PM (r , s1 )  PM (r , s2 )  décison  s1
PM (r , s1 )  PM (r , s2 )  décison  s2
PM (r , s1 )
PM (r , s2 )
s1
1
s2
 ( r  Es ) 2  ( r  Es ) 2 
PM (r , s1 )
p


exp 
2


PM (r , s2 ) 1  p
2 b


(r  Es ) 2  (r  Es ) 2
2 b2
s1
s2
1 p 

ln 
 p 
Nouveau seuil de comparaison
s1
Es .r
s2
-A
A
1 2 1 p 

 b ln 
2
 p 
p = 0.5 => ln (p / (1-p) ) = 0 cas classique
12
Probabilité d’erreur
Maximum de Vraisemblance
Sm signal transmis, r signal reçu,
Probabilité de décision correcte (c) : P(c| Sm )
P(c sm )   p(r sm )dr ,
: Rm est la région de décision de Sm
Rm
Probabilité moyenne d’une décision correcte
P (c ) 

M
1
 M P (c )
m 1
M
1
 M  p(r s
m 1
m
)dr
Rm
Maximiser P(c)
Maximiser
 p(r s
m
)dr Pour chaque Sm
Rm
Maximum a posteriori
Probabilité moyenne d’une décision correcte
M
P (c )  
m 1
 P( s
m
r ) p (r )dr ,
Rm
13
Détecteur de Séquence
Système avec mémoire :
observation d’une séquence « complète »
décision sur la séquence complète
Viterbi
grande dimension
Calculer la distance euclidienne minimale entre
la séquence reçue et
l’ensemble des séquence émises.
Détecteur Sphérique
petite dimension
Calculer la distance euclidienne en limitant la recherche dans une sphère
Maximum a posteriori
MAP
Calculer la probabilité a posteriori pour la séquence entière
14
Modélisation de la mémoire par chaîne de Markov
État
initial
Entrée
sortie
État
futur
exemple
1/1
0/0
1
0
0/1
1/0
0/0
0
1/1
1
0
1/0
0/1
1
15
MLSE (Maximum-Likelihood Sequence Detector)
16
17
Décodeur Sphérique
r = Ms + n
C
À partir de la solution Z.F :
z = M-1 r
Pour chaque composante du vecteur z,
on fixe une « plage de solutions »
de valeurs appartenant à la constellation utilisée


 C

C


z

u


z


n
n
n
q
q
nn
nn




un : point appartenant à l’alphabet utilisé
qnn : modification du point un due à de la présence de la matrice M
 C q 2

 C q 2

nn n
nn n
 zn1  qn 1,n n   un 1  
 zn1  qn 1,n n 

q
q




n 1, n 1
n 1, n 1
Nouvelles bornes dépendent du choix faits sur le point précédent un
18
Déroulement de l’algorithme : étape recherche de candidat à la solution
Zn
Zn-1
Zn-2
Zn-3
candidat d’une solution
Z0
première coordonnée trouvée dans l’intervalle
Si blocage, remonter d’une coordonnée
Le nouveau rayon est fixé égal à la distance
Entre le point reçu et ce point
trouver la coordonnée suivante
19
Déroulement de l’algorithme
Fixer un rayon initial
recherche de solution
Enregistrer le
dernier point trouvé
comme la solution
finale
Non
candidat trouvé
oui
Calcul du nouveau rayon
avec la solution trouvée
20
21
22
Téléchargement