aléatoires probabilité conséquence

publicité
Résumé statistique
3.6 Le coefficient de corrélation
Corrélation entre deux composants: poid/taille d'un individu.
n
å(x - x)(y - y)
i
r=
La
valeur
se
situera
entre
-1
(corrélation
négative/inversée) et 1(corrélation positive).
i
i=1
n
n
i=1
i=1
Faire la différence entre corrélation (tendance à évoluer
de manière identique) et causalité (l'un influençant
l'autre).
å(xi - x)2 å(yi - y)2
3.7 La concentration
3.7.1.1 Milieu de classe (ou centre calculé)
ai  bi
2
3.7.1.2.1 Masse absolue et masse relative d’une classe
k
k
MRT   mi f i
MAT   mi ni
i 1
i 1
3.7.2 La notion de concentration
Plein d'employés pour quelques entreprises. Pour la calculer on utilise:
 La courbe de Lorenz (graphique)
(0.1)
(1,1)
C.L.
(Fi, Qi)
(0.0)
Si la courbe forme une diagonale parfaite, la
répartition est équilibrée.
(1,0)
Placer dans le plan les points
i  1,2,, k
( Fi , Qi ),
Fi  f1  f 2    f i
: fréquence relative cumulée de ∆i
Qi  q1  q2    qi
: part à la masse totale cumulée
3.7.3.5 Interpolation linéaire
z=
d
z
c
x=
a
x
b
Masse salairiale des x % gagnant
(x - a)× (d - c)
+ c le moins.
b- a
(z-c)× (b-a)
+ a La proportion de personnes de
salaire inférieur gagnant z % de
d-c
masse salariale.
 L'indice de Gini (mesure)
Mesure du degré d'inégalité (ou concentration)
Il se calcule en divisant la surface de concentration par la surface du triangle inférieur.
  mifiFi  mifiFi  1 
 1
Gini  

  mifi

m
ifi



Plus l'indice tend vers 0, plus c'est égalitaire.
Plasaasf
4. Coefficient binomiaux et binôme de Newton
4.1 Fonction factoricielle
4! 4  3  2 1  24
4.2 Les coefficients binomiaux
Nombre de combinaisons (lorsque l’ordre ne compte pas) sans répétition
Cnr =
n!
(n- r )!r!
Exemple : n = 4, r = 3
C 43 
4!
4
1!3!
(ABC, ABD, ACD, BCD)
Le "1!" dans l’exemple est la soustraction du 3 au 4.
4.3 Le binôme de Newton
n
(a  b) n   C nr a n r b r
r 0
4.3 Le triangle de Pascal
Cnr+1 =
n- r r
fdsaf fd
fds
Cn <-- Si le triangle devient trop grand.
r +1
(Ouellet pp.158, 159)
4.4 Eléments d’analyse combinatoire
Manière de ranger des objets :
-
Permutations :
abc acb bac bca cab cba = 3! -> anagramme
Avec répetition : ex. Anagrammes du mot MISSISSIPPI.
11!
 34650
4!4!2!
-
Arrangements :
ensemble formé d'un certain nombre de chiffre
df
A53 
5!
 60
(5  3)!
R53 = 53 =125
Avec remise :
-
1,3,5,7,9, les chiffres doivent être disticts.
Combinaisons : l'ordre du tirage ne nous interresse pas, mais combien de
combinaison peut-on faire.
Ex: 15 boules dans une jare, on en tire 5, combien de combinaisons ?
C155 =
15!
= 3'003.
(15- 5)!5!
K155 
Avec remise :
(15  5  1)!
 11'628.
(15  1)!5!
5. Probabilités et lois de probabilités
5. Probabilités
A et B se réalisent:
A ou B se réalisent:
A implique B:
A B
A B
A B
(intersection)
(union)
(inclusion)
La probabilité d’un événement A lors d’une expérience aléatoire donnée :
P( A) 
nombre de cas favorables
La réponse s'écrira P(A) = ....
nombre de cas possibles
5.1.3.3 Définition de la probabilité par une mesure
P( A) 
mesure de A
mesure de S
P(A) satisfait les trois rêgles suivantes:
0  P( A)  1 - P(S )  1 - Si A et B sont incompatible: P( A  B)  P( A)  P( B)
5.1.4 Propriétés des probabilités
Voir page 7-8 support de cours
5.1.5 La probabilité conditionnelle
La survenue d’un certain événement peut changer la probabilité que se produise un autre
événement.
P( A B) 
P( A  B)
Probabilité que A arrive sachant que B c’est produit.
P( B)
Exemple d'application page 10 du support de cours.
5.1.5 Théorème de multiplication
A utiliser si l'expérience peut être décomposée en plusieurs épreuves successives. Ex:
lancer un dé 2 fois.
P( B)  P( A1 ) P( B A1 )  P( A2 ) P( B A2 )  P( A3 ) P( B A3 )
2 événements A et B sont indépendants si la réalisation de l’un n’influe pas sur la probabilité
P( A B)  P( A)
de la réalisation de l’autre.
A = la hausse de la production de la damassine dans le Jura en 2004.
B = le résultat des présidentielles aux USA en 2004.
Voir conditions d'indépendance page 14.
5.1.6 Probabilités totales et formule de Bayes
A demander au prof, rien compris.
5.1.7 Probabilités et proportions
Utilisées pour le calcul de proportions dans une population.
Proportion de personnes ayant un fort taux d’absentéisme:
P(H) : proportion d’hommes dans la population,
P(A) : proportion d’absentéistes,
P(A|H)
P(H|A)
Indépendance entre « genre » et « absentéisme » si "P(A|H) = P(A)".
5.1.8 Probabilité personnelles
Concerne les événements ne se produisant qu’une seule fois dans les mêmes conditions.
Impossible à calculer, l’intuition du spécialiste remplace le calcul.
5.2 Introduction aux lois de probabilités
Correspond au début du chap. 6, pp.212-232 dans Ouellet
5.2.1 Variables aléatoires
Les réalisations peuvent avoir une forme non-numérique. Lancer un pièce de monnaie 2X -> 1 fois pile(P), une fois face(F). Combien de réalisation face ?
Notation: s = (F,P)

1. Le "1" est appelé variable aléatoire X.
Une variable aléatoire X est une fonction définie sur l’ensemble fondamental S. Elle associe
à un événement simple (résultat) un nombre réel.
5.2.1.2 Fonctions de probabilités
S
Réels
A1
x1
A2
x2
x3
A3
(Toujours en lien avec les variables aléatoires)
Pré-images des réalisations de X : A1  {s  S ; X (s)  x1} (pré-image de x1).
Les pré-images A1, A2 et A3 sont des sous-ensembles de S et sont donc des
événements --> une probabilité P est bel et bien définie sur eux. P( X  x1 )  P( A1 )
f ( x1 )  P( X  x1 ) P( X  {x1 , x2 , x5 })  f ( x1 )  f ( x2 )  f ( x5 ) f ( x1 )  f ( x2 )    f ( xk )  1
5.2.1.3 Fonction de répartition
0


f ( x1 )

F ( x)   f ( x1 )  f ( x2 )




1
x  x1
x1  x  x2
x2  x  x3
si

x  xk
Chapitres 1, 2 et 3
Chapitre 5
Variable statistique
Variable aléatoire
Réalisation ou modalité
Réalisation ou modalité
Fréquence relative
Probabilité
Distribution de fréquences
Distribution de probabilités
Polygone des fréquences
Polygone des probabilités
Ogive
Fonction de répartition
Moyenne
Espérance mathématique
5.2.1.4 Transformation d’une variable aléatoire X
Distribution de X Distribution de Y
xi
f ( xi )
yi  50 xi2  40 f ( y i )  f ( xi )
0
0.01
-40
0.01
1
0.03
10
0.03
2
0.04
160
0.04
3
0.06
410
0.06
4
0.09
760
0.09
5
0.1
1210
0.1
6
0.11
1760
0.11
7
0.12
2410
0.12
8
0.34
3160
0.34
9
0.09
4010
0.09
10
0.01
4960
0.01
Σ
1
Nombre hebdomadaire de voitures vendues :
X
Fonction de profit hebdomadaire non-linéaire :
Y = 50X2 - 40
1
5.2.1.5 Transformation linéaire d’une variable aléatoire X
Exemple: le lien entre le prix Y payé effectivement à la pompe par le client et le prix X (en $)
du baril (159 litres) de pétrole est une transformation linéaire :
Y  0.75025  0.01056  X
Transformation linéaire --> les réalisations changent, mais pas les probabilités f(xi) ni, en
conséquence, les probabilités cumulées F(xi). Page 30 du support de cours.
5.2.2 Les valeurs centrales
5.2.2.1 Mode, médiane et espérance mathématique (=moyenne)
Le mode d’une variable aléatoire X est la réalisation de X à laquelle correspond la plus
grande probabilité.
La médiane d’une variable aléatoire X est la première réalisation de X pour laquelle la
fonction de répartition dépasse 0.5. Si la fonction de répartition atteint une valeur exacte de
0.5 pour une certaine réalisation, on choisit le nombre à mi-chemin entre la réalisation
concernée et la suivante.
k
L’espérance mathématique (moyenne) d’une v.a. X E ( X )   xi f ( xi )
i 1
(aussi  X ou  )
Voir autres formules page 31
5.2.2.2 Propriétés de l’espérance mathématique
E(Y )  E(aX  d )  aE( X )  d
Exemple: E (50 X 2  40)  50E ( X 2 )  40
xi
f ( xi ) yi  50 xi2  40 f ( y i ) y i f ( y i ) xi2  f ( xi )
0
0.01
-40
0.01
-0.4
0
1
0.03
10
0.03
0.3
0.03
2
0.04
160
0.04
6.4
0.16
3
0.06
410
0.06
24.6
0.54
4
0.09
760
0.09
68.4
1.44
5
0.1
1210
0.10
121
2.5
6
0.11
1760
0.11
193.6
3.96
7
0.12
2410
0.12
289.2
5.88
8
0.34
3160
0.34
1074.4
21.76
9
0.09
4010
0.09
360.9
7.29
10
0.01
4960
0.01
49.6
1
Total
1
1
2188
44.56
X = nombre d’automobiles vendues
Y = profit
50E( X 2 )  40  50  44.56  40  2'188.
5.2.3 Caractéristiques de dispersion
5.2.3.1 Variance et écart-type
Rappel:
 X prend la valeur x1 avec probabilité f(x1)
 X prend la valeur x2 avec probabilité f(x2), etc.
 L’espérance mathématique de X est μX
La variance est une mesure servant à caractériser la dispersion d'une distribution ou d'un
échantillon
Formule: Var ( X )   ( xi   X ) 2 f ( xi ) Notation : Var(X), ou
i
Exemple : (variance du profit du concessionnaire)
Distribution
de X
xi f ( xi ) y  50 x 2  40
i
i
Distribution de Y
f ( y i ) y i f ( y i ) ( yi  2'188) 2 f ( yi )
0
0.01
-40
0.01
-0.4
49639.8
1
0.03
10
0.03
0.3
142310.5
2
0.04
160
0.04
6.4
164511.4
 X2 , ou simplement  2
3
0.06
410
0.06
24.6
189677.0
4
0.09
760
0.09
68.4
183526.6
5
0.1
1210
0.1
121
95648.4
6
0.11
1760
0.11
193.6
20150.2
7
0.12
2410
0.12
289.2
5914.1
8
0.34
3160
0.34
1074.4
321226.6
9
0.09
4010
0.09
360.9
298771.6
10
0.01
4960
0.01
49.6
76839.8
Σ
1
1
2’188
1’548’216.0
X = nombre d’automobiles vendues
→ Variance du profit : 1’548'216
→ Ecart-type du profit :
1548216.0 = 1244.27.
Le profit est-il dispersé autour du
profit espéré ?
CV   Y / Y  1244.27 / 2188  0.5687
→ assez forte dispersion.
Plus l’écart-type  Y est grand et moins
Voir plus d'exemples page 35.
 Y est informative.
5.2.3.2 Propriétés de la variance
Propriété 1: Var ( X )  E ( X )   X
2
2
Propriété 2: Var(Y) = Var(aX + d) = a2Var(X)
5.2.3.3 Variable centrée réduite


Centrer une variable, c’est lui enlever sa moyenne.
Réduire une variable, c’est la diviser par son écart-type.
Techniquement, centrer et réduire une v.a. X, c’est lui appliquer la transformation linéaire
suivante :
Z
X 


1

X

.

5.2.4 Etude du lien entre deux variables aléatoires
5.2.4.1 L’opérateur de double sommation
2
3
 a
i 1 j 1
ij
 a11  a12  a13  a21  a22  a23
Pas besoin d'avoir fait l'uni pour ça mec !
5.2.4.2 Loi jointe, indépendance, combinaison linéaire, définition de l’espérance
mathématique dans le cas de deux variables
Indépendance:
Si X et Y sont indépendantes, on a par exemple : P( X  x3 et Y  y 2 )  P( X  x3 )  P(Y  y 2 )
Notation :
f ( xi , y j )  P( X  xi et Y  y j )
Utiliser le théorème de multiplication : lorsque A et B représentent deux événements:
1 1 1
f (2,2)  P( X  2 et Y  2)  P( X  2)  P(Y  2 | X  2)    .
3 3 9
Espérance mathématique d'une fonction de X et Y: E ( g ( X , Y ))   g ( xi , y j ) f ( xi , y j ).
i
j
2
3
Combinaison linéaire de X et Y: E ( XY )   xi y j f ( xi , y j )
i 1 j 1
Cette formule correspond à l'application sur un exemple disponible page 39. Une chier
d'autres petits calcules sympa sont à disposition sur cette même page.
5.2.4.3 Propriétés importantes de l’espérance mathématique dans le cas de deux variables.
Propriété 1 : (espérance math. du produit de deux v.a.)
Si X et Y sont des variables aléatoires indépendantes, alors :
E( XY )  E( X ) E(Y )
Propriété 2 : (espérance math. d’une combinaison lin.)
E(aX  bY )  aE( X )  bE(Y ) - E( X  Y )  E( X )  E(Y ) - E( X  Y )  E( X )  E(Y )
Propriété 3 : La propriété qui précède se généralise lorsqu’on remplace X par g(X), et Y par
h(Y) : E (a  g ( X )  b  h(Y ))  a  E ( g ( X ))  b  E (h(Y ))
5.2.4.4 Lois (ou distributions) marginales
Comment tirer la loi de X à partir de celle du couple (X,Y) ?
f X ( xi )  P( X  xi )   f ( xi , y j ).
j
Exemple d'utilisation du calcule page 42.
5.2.4.5 Covariance
Mesure le lien entre deux v.a. X et Y (information sur le degré de dépendance entre X et Y).
La covariance entre X et Y : espérance mathématique du produit des variables centrées :
Cov( X , Y )  E[( X   X )(Y  Y )]
Voir 3 propriétés très intéressantes de cette formule page 44.
5.2.4.6 Corrélation
Exemple :
Coefficient de corrélation entre X et Y correspondant à notre illustration. Nous avions établi :
Cov( X , Y )  1 / 3,
 
Cov( X , Y )
 XY
2
3
 X2  ,

8
et  Y2  .
9
1/ 3
= 0.4330.
2/3  8/9
5.3 Deux premières lois discrètes
5.3.1 Loi uniforme discrète
X est une variable aléatoire uniforme discrète si elle a la même probabilité de tomber sur
chacune de ses réalisations possibles.
Expérience aléatoire : jeter un dé.
X : la variable aléatoire obtenue en doublant le résultat du dé et en enlevant 3. La distribution
de probabilités de X est alors la suivante :
5.3.2 Loi des jeux et paris
Une variable aléatoire X de jeux et
de la manière suivante :
 a
X 
b
xi
-1
1
3
5
7
9
f(xi )
1/6
1/6
1/6
1/6
1/6
1/6
paris ou de perte / gain se définit
(perte) avec prob. 1  p
(gain) avec prob.
p
Espérance mathématique de X : E(X) = - a(1 - p) + bp
5.3.2 .1 Première application : questionnaires à choix multiple (QCM)
Très bon exemple page 49
5.3.2 .2 Deuxième application : Evénement coté à b contre 1
Très bon exemple page 51
Téléchargement