Hα(β), entropie de l’expérience βsous condition de l’expérience αest
égale à la valeur moyenne des entropies conditionnelles HAi(β)
ie Hα(β)=Pk
i=1 P(Ai)×HAi(β)où HAi(β)est l’entropie de l’expérience
βsachant que αa eu l’issue Ai:
HAi(β) = Pl
j=1 −PAi(Bj)×ln(PAi(Bj)) avec PAi(Bj) = P(Ai∩Bj)
P(Ai)
–proposition 6 :
∀α, β on a Hα(β)≤H(β)
–proposition 7 :
Si Ak=α1α2. . . αknous avons
H(Ak) = H(α1) + Hα1(α2) + . . . +Hα1α2,...,αk−1(αk)
H(Ak)≤H(α1) + H(α2) + . . . +H(αk)
3 Définition de la notion d’information
Une mesure ou une observation αquelconque précédant βpeut restreindre
la quantité des issues possibles de l’expérience βet en diminue par là même
le degré d’incertitude. Ainsi le degré d’incertitude de l’expérience βqui
consiste à trouver quel est le plus lourd de trois poids se trouve diminué
après comparaison de deux d’entre eux. Afin que le résultat de la mesure
(de l’observation) αpuisse se faire sentir sur l’expérience βqui la suit, il est
bien entendu nécessaire que ce résultat ne soit pas connu d’avance ; on peut
par conséquent considérer αcomme une expérience auxiliaire qui peut éga-
lement admettre plusieurs issues. Le fait que la réalisation de αdiminue le
degré d’incertitude de βse reflète dans le fait que l’entropie conditionnelle
Hα(β)de l’expérience βsous la condition de la réalisation de αs’avère in-
férieure ou égale à l’entropie initiale H(β)de cette même expérience.
De plus si βest indépendante de α, la réalisation de αne diminue pas l’en-
tropie de β:Hα(β) = H(β); par contre si le résultat de αprédétermine
l’issue de de β, l’entropie conditionnelle de βdevient nulle Hα(β) = 0
De la sorte la différence I(α, β) = H(β)−Hα(β)indique dans quelle
mesure la réalisation de l’expérience αdiminue l’incertitude de β, c’est à
dire ce que nous apprenons de nouveau sur l’issue de l’expérience βen
effectuant la mesure (l’observation) α; cette différence est appelée quan-
tité d’information relative à l’expérience βcontenue dans l’expérience α,
ou plus brièvement, information relative à βcontenue dans α. L’intérêt de
cette notion provient du fait qu’elle permet d’évaluer l’influence, sur une
expérience déterminée β, d’une autre expérience α, par la "différence d’en-
tropie" :I(α, β) = H(β)−Hα(β)
On peut définir l’entropie H(β)de l’expérience βcomme l’information
concernant βet contenue dans l’expérience βelle même (car Hβ(β) = 0)
4