Johann Collot Cours de physique expérimentale des hautes énergies du DEA de Physique Théorique Rhône−Alpin
Erreur, probabilité et statistique
http://isnwww.in2p3.fr/atlas/cours/index.html Année : 2001
Erreur , Probabilité et Statistique
Tous les processus étudiés en physique des hautes énergies sont, dans leurs aspects fondamentaux,
régis par les lois de la mécanique quantique relativiste. Il en découle que les prévisions de mesures des
quantités observables sont de nature stochastique.
Citons quelques exemples simples :
I. Diffusion d’une particule p1 sur une boîte contenant des particules p2
La section efficace du processus p1p2Xest proportionnelle à l’intégrale sur l’espace de phase
ouvert du module au carré de l’élément de matrice invariant, c’est à dire :
σp1p2X
espace de phase M2dΦ
M2est une densité de probabilité définie sur l’espace de phase M2dσ⁄dΦ. Si la boîte ne
contient qu’une seule particule p2, la probabilité d’occurrence de la réaction p1p2Xs’exprime
par :
p=σp1p2X
S ,
Sest la surface de la face d’entrée de la boîte . Si maintenant la boîte est constituée d’un élément
ordinaire et qu’on s’intéresse à la diffusion de p1sur des noyaux p2, la probabilité d’observer une
réaction p1p2Xdevient :
P=peρS
MN,
où : e est l’épaisseur de la boîte;
ρ est la masse volumique du milieu;
M est la masse atomique de l’élément;
N est le nombre d’Avogadro.
1
P1
SP2
σ
e
Johann Collot Cours de physique expérimentale des hautes énergies du DEA de Physique Théorique RhôneAlpin
Erreur, probabilité et statistique
http://isnwww.in2p3.fr/atlas/cours/index.html Année : 2001
II. Décroissance d’une particule instable
Ce processus est caractérisépar une durée de vie moyenne τqui est linverse de la largeur Γde la
résonance :
τ=Γ1
avec, Γ∝
i
branchements
espacede phase Mi
2dΦi
On voit de nouveau apparaître dans lexpression de Γdes éléments de matrices invariants qui
confèrent au processus de décroissance dune particule instable une nature stochastique . La densitéde
probabilité sexprime par :
P t dt=1
τdt .
Soit pour N0 (à t=0 ) particules instables,
dN t =N t 1
τdt,
N t =Noet⁄τ ,
qui donne la population des particules restantes à linstant t .
Si maintenant on considère N0particules instables àt=0 que lon observe sur un intervalle de temps t
petit devant τ ( t/τ << 1) , le nombre de décroissances prédit sera :
Np=No
τt.
Il sagit dune prédiction . Si on réalise lexpérience, il est fort probable quon obtiendra une valeur
proche mais différente de Np.Sionréalise un grand nombre de fois cette même expérience, on obtiendra
une courbe similaire à la figure suivante :
2
Johann Collot Cours de physique expérimentale des hautes énergies du DEA de Physique Théorique RhôneAlpin
Erreur, probabilité et statistique
http://isnwww.in2p3.fr/atlas/cours/index.html Année : 2001
qui représente le nombre dobservations ( nombre d’événements ) de Nidécroissances parmi la totalité
des Nexpériences réalisées . Lensemble des expériences réalisées ici est appeléun échantillon. La taille
de cet échantillon est le nombre Ndexpériences réalisées . La fréquence d’échantillonnage est définie
comme étant :
fNi=1
Nni,
où ni est le nombre dobservations de Ni décroissances. On a évidemment: if Ni=1.
La probabilitédobservation ( fonction de probabilité)estégale àla fréquence d’échantillonnage
lorsque la taille de l’échantillon tend vers linfini, ou encore (cest également ce que lon appelle la loi
des grands nombres):
pNi=lim
N→∞ f Ni=lim
N→∞
ni
N
Cest par conséquent une entitéthéorique qui nest jamais rigoureusement accessible expérimentalement .
Ni est appelée une variable aléatoire ( discrète dans cet exemple ).
En physique on rencontre également des variables aléatoires continues : par exemple, la masse invariante
dune particule instable.
Lorsquil sagit dune variable aléatoire continue, la fonction de probabilitéest remplacée par une densité
de probabilité ( ∑→) .
Puisquil est impossible dobtenir un échantillon d’événements ayant une taille infinie, les
caractéristiques dun processus physique aléatoire ne sont jamais exactement accessibles par lexpérience.
Ainsi, toute mesure réalisée sur un échantillon fini d’événements sera entachéedune incertitude que lon
désigne sous le nom derreur statistique . On peut aisément admettre que lerreur statistique doit décroître
lorsque la taille de l’échantillon croît et doit sannuler lorsque celle−ci est infinie.
3
Johann Collot Cours de physique expérimentale des hautes énergies du DEA de Physique Théorique RhôneAlpin
Erreur, probabilité et statistique
http://isnwww.in2p3.fr/atlas/cours/index.html Année : 2001
Àcette incertitude (erreur) statistique , on doit en général ajouter une autre erreur que lon appelle
lerreur systématique (ou instrumentale) qui est le reflet de lexactitude de la méthode de mesure. Une
mesure peut être trèsprécise statistiquement mais peut savérer inexacte et donc nécessiter une correction
qui est ellemême connue avec une précision limitée (erreur systématique).
Si on reprend lexemple des Noparticules instables observées sur un temps t , et que lon réalise
lexpérience qui consiste àcompter les décroissances avec un détecteur réel, il faudra prendre en compte
son efficacité(ε≤1 ) de détection pour remonter au nombre de décroissances vraies. Une estimation de
Npsera obtenue par : Np=Ni
ε(< > signifie moyenne) , dans laquelle , lerreur sur Nisera de
nature statistique et lerreur sur ε(mesuréeoudéterminée par calcul ou simulation) sera de nature
systématique ou instrumentale.
1 Caractéristiques dune variable aléatoire :
Les variables aléatoires, dont il sera question ici, sont les prédictions théoriques de mesures des
observables physiques: masse dune particule instable, nombre d’événements résultant de la décroissance
de No particules instables ( à t=0 ) sur t ...
Dune manière générale, une variable aléatoire x est en premier lieu caractérisée par sa densitéde
probabilité associée f(x) , telle que :
∞
∞
f x dx=1,
ou pour une variable discrète ,
i=1
jf xi=1avec xi,i=1, jétant lensemble des valeurs possibles de x .
1.1 Fonction de répartition (cumulative) :
La fonction de répartition dune variable aléatoire x est la probabilitéque x soit inférieure àune valeur
a :
F a =
∞
af x dx ,
ou pour une variable discrète F a =
i=1
nf xiavec x1x2x3...xna
1.2 Espérance mathématique :
Lespérance mathématique dune fonction u(x) dune variable aléatoire x est définie comme étant :
Eu x =
∞
∞
u x f x dx ,
ou, pour une variable discrète, E u x =
i=1
jf xiu xi
4
Johann Collot Cours de physique expérimentale des hautes énergies du DEA de Physique Théorique RhôneAlpin
Erreur, probabilité et statistique
http://isnwww.in2p3.fr/atlas/cours/index.html Année : 2001
1.3 Moments :
Le moment dordre n dune distribution dune variable aléatoire x sexprime par :
αn=E xn=
∞
∞ xnf x dx
1.4 Moyenne :
La moyenne µ dune variable aléatoire x nest pas autre chose que son moment du premier ordre :
µ=α1=E x =
∞
∞ xf x dx
1.5 Moments centrés :
Le moment centré dordre n dune variable aléatoire x est défini par :
mn=E xµ n=
∞
∞ xµ nf x dx
1.6 Variance et écart type :
La variance dune variable aléatoire xest le carréde son écart type . Cest également le moment centré
du 2ème ordre de x :
var x2x=m2=
∞
∞ xµ 2f x dx
2µ2
La moyenne dune variable aléatoire xdonne la position du centroïde de la densitéde probabilité
associée, alors que son écart type est une estimation de sa largeur.
1.7 Distributions à deux variables aléatoires :
Soit deux variables aléatoires xet yayant une densitéde probabilitéf(x,y) avec
∞
∞
∞
∞ fx,y dxdy=1. La densité de probabilité marginale de x est :
f1x=
∞
∞ fx,y dy
( cest à dire sans observation de y ) .
Pour y on obtient :
f2y=
∞
∞ fx,y dy
On peut également définir les densités de probabilité conditionnelles :
f3y|x f1x=fx,y
f3 : densité de probabilité dobtenir y avec x donnée
ou f4x|y f2y=fx,y
f4 : densité de probabilité dobtenir x avec y donnée .
5
1 / 25 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !