Probabilité – Statistique
Formulaire
http://www.chez.com/jeyland/iup
Probabilité
Axiomes de Kolmogorov : Une probabilité P est une application de A
vers [0,1] vérifiant les 3 axiomes suivants :
1. La probabilité de l’événement certain est 1 :
1)( =P
2. Les probabilités de deux évènements disjoints s’ajoutent :
Si 0
=BA ,alors )()()( BPAPBAP +=
3. Si est infini, on compte l’axiome 2 par l’axiome 3 : si
0
)(
n
n
A est une famille d’évènements deux à deux
incompatibles (c’est-à-dire, 0,, =mn AAmn ) alors :
+∞
=
+∞
=
=
0
0
)(
n
n
n
nAPAP
Formule de Poincaré : Soient A et B deux évènements quelconques. On
a :
)()()()( BAPBPAPBAP +=
Dénombrement
Règle de multiplication : Lorsqu’une expérience est composée de m
sous-expériences, et si chacune possède nk résultats possibles, quels que
soient lessultats des autres sous-expériences, alors le nombre total de
résultats possibles est :
m
nnnn ...
21
=
Permutations : Le nombre de permutations d’un ensemble à n éléments
est :
!n
Arrangements : Lorsqu’on extrait k éléments d’un ensemble de n
éléments, et que l’ordre dans lequel sont extraits ces éléments importe,
on parle d’arrangements de k éléments parmi n.
)!(
!
kn n
Ak
n
= avec )( nk
Combinaisons : Lorsqu’on extrait k éléments d’un ensemble de n
éléments, et que l’ordre dans lequel sont extraits ces éléments n’importe
pas, on parle de combinaisons de k éléments parmi n.
)!(!
!
!knk n
k
A
C
k
n
k
n
== avec )( nk
Formule du binôme de Newton : Pour tout réel x et y et pour tout
entier naturel n, on a :
=
=+ n
k
knx
k
n
nyxyx C
0
)(
Probabilités conditionnelles – Indépendance
Probabilité conditionnelle : Soit (,A,P) un espace probabilisé. Soient
A et B deux évènements aléatoires avec P(B) 0. On appelle probabilité
conditionnelle de A sachant B, le rapport :
)(
)(
)( BP
BAP
BAP
=
Indépendance : Soit (,A,P) un espace probabilisé. Deux évènements A
et B sont indépendants si et seulement si :
)()()( BPAPBAP =
Incompatibilité : Soit (,A,P) un espace probabilisé. Deux évènements
A et B sont incompatibles si et seulement si :
0
=BA
Remarque : Deux évènements de probabilité non nulle ne peuvent être
indépendants et incompatibles enme temps.
Formule des probabilités totales et composées :
=
i
ii APABPBP )()()(
Formule de Bayes : Soit un partition B1,…,Bn :
=
=n
j
jj
ii
i
BPBAP
BPBAP
ABP
1
)()(
)()(
)(
Variables aléatoires
Fonction de répartition : La fonction de répartition F d’une variable X
(discrète ou continue) la caractérise entièrement. Elle possède les
propriétés suivantes :
i) F est non décroissante.
ii) 0)(lim =
−∞xF
x
iii) 1)(lim =
+∞xF
x
iv) F est continue à droite : )()(lim xFyF
xy xy =
>
v) Le saut de discontinuité de F au point x est égal à
)( xXP = : )()(lim)(lim xXPxFyF
xy xy
xy xy ==
<
>
Théorème de caractérisation de la densité : Une fonction f(x) est la
densité d’une certaine variable aléatoire continue X ssi :
0)(, xfx et 1)( =
+∞
dxxf
Modélisation probabiliste discrète :
o Variable aatoire uniforme discrète
nkxk
n
xXP +
+
== ,
1
1
)(
o Variable aatoire de Bernoulli
)"(")1( succèsPXP ==
pXE =
][ , )1()( ppXVar = .
o Variable aléatoire géométrique
,...2,1,)1()( 1=== kppkXP k
p
XE 1
][ =, 2
1
)( p
p
XVar
=.
o Variable aléatoire binomiale
nkppkXP Ck
n
knk ,...,0,)1()( ===
npXE =
][ , )1()( pnpXVar = .
o Variable aléatoire de Poisson
,...1,0,
!
)(,0 ===>
k
k
e
kXP
k
λ
λλ
λ
=
][XE ,
λ
=
)(XVar .
Modélisation probabiliste continue :
o Variable aléatoire uniforme
ab
cxf
== 1
)( , lorsque bxa << ; sinon 0)( =
xf
ab
ax
xF
=)(
2
][ ba
XE +
=, 12
)(
)(
2
ba
XVar
=.
o Variable aléatoire exponentielle
x
exf
λ
λ
=)( , lorsque 0
>
x ; sinon 0)( =
xf
x
exF
λ
= 1)(
λ
1
][ =XE , 2
1
)(
λ
=XVar .
o Variable aléatoire gaussienne
2
2
2
)(
2
1
)(
σ
µ
πσ
=x
exf , pour tout x.
0][ =XE , 1)( =XVar .
Espérance, Variance
Espérance mathématique :
Si X est une variable aléatoire discrète, alors :
==
χ
x
xXxPXE )(][ .
Si X est une variable aléatoire continue, alors :
=
R
dxxxfXE )(][
Variance : Pour une variable aléatoire X dont <
][ 2
XE , la
variance est :
222 ][][]])[[()( XEXEXEXEXVar ==
Covariance : La covariance entre X et Y est la grandeur :
][][][])][])([[(),( YEXEXYEYEYXEXEYXCov ==
Si X et Y sont indépendantes, alors 0),( =
YXCov .
Coefficient de corrélation linéaire :
)()(
),(
),( YVarXVar
YXCov
YX =
ρ
Relation de Cauchy-Schwartz :
][][][ 222 VEUEUVE
Moyenne arithmétique :
=
=n
i
i
X
n
X
1
1
Convergence
Inégalité de Markov : Soit X une variable aléatoire positive et
d’espérance finie. Alors :
a
XE
aXP ][
)(
Inégalité de Chebychev : Soit X une variable aléatoire d’espérance
µ
et de variance
σ
² finies. Alors, pour tout t positif :
²
²
)( t
tXP
σ
µ
Loi des grands nombres : Soit une famille de variables aatoires
indépendantes et identiquement distribuées (c’est-à-dire, toutes de
même loi de probabilité), d’espérance
µ
et de variance
σ
² finies. Alors,
pour tout
ε
positif :
0)(
εµ
n
XP , lorsque +∞n
Théorème Central Limite : Soit une famille de variables aléatoires telle
que précédemment, et U une variable aléatoire gaussienne de
paramètres (0,1), indépendante. Alors, on a :
)( uUPu
X
P
n
n
σ
µ
, lorsque +∞n
Autre écriture : )(
)(
][ uUPu
XVar
XEX
P
Statistiques descriptives
Caractéristiques à tendance centrale :
La moyenne : C’est la somme de toutes les valeurs divie par leur
nombre.
La médiane : C’est la valeur qui partage les données (ordonnées) en
deux groupes d’effectifs égaux.
Le mode : C’est la modalité la plus fréquente (d’un caractère
qualitatif).
Caractéristiques de dispersion :
L’étendue : C’est la différence entre la plus petite et la plus grande
valeur.
L’écart-type : C’est la racine carrée de la variance, qui est la moyenne
des écarts quadratiques (au carré) à la moyenne.
L’intervalle inter-quartile : C’est l’intervalle qui contient 50% des
données en en laissant 25% à gauche et 25% à droite.
L’intervalle inter-décile : C’est l’intervalle qui contient 80% des
données en en laissant 10% à gauche et 10% à droite.
Estimation
Méthode des moments : On identifie les moments théoriques
(espérance mathématique, variance) issus de la loi de probabilité à ceux
de l’échantillon (moyenne, variance).
Méthode du maximum de vraisemblance : On cherche à maximiser la
fonction suivante en annulant sa dérivée :
=
=n
i
i
XfXXL n
1
1)();,...(
θ
θ
Intervalle de confiance d’une proportion :
+
n
pp
up
n
pp
up )
ˆ
1(
ˆ
ˆ
,
)
ˆ
1(
ˆ
ˆ22
αα
Intervalle de confiance de la moyenne :
Variance connue :
+n
uX
n
uX
σσ αα
22 ,
Variance inconnue :
+n
S
tX
n
S
tX 22 ,
αα
Tests d’hypothèses
Démarche :
1. Définir le cadre statistique (type d’échantillon, loi de probabilité,
etc.).
2. Définir matmatiquement H0 (par exemple, les esrances sont
égales).
3. Définir matmatiquement H1 (par exemple, les esrances sont
différentes).
4. Fixer une valeur pour α.
5. En déduire le test et rejeter ou non H0.
Rejet de H0 : H0 sera rejeté si :
n
pp
upF )1( 00
0
+>
α
Modélisation bivariable
Coefficient de corrélation linéaire :
yx
n
i
ii
ss
yyxxn
r
=
=1
))((1
=
= n
j
jx xx
n
s
1
(
1
Régression linéaire : Calcul des coefficients de ax+b :
x
y
s
s
rb =, xbya =
1 / 2 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !