6 - AMPCfusion

publicité
UE11 Parcours spécifique 1 –
Clinical research – Cours n°6
02/12/2015
Mehdi BENCHOUFI
RT :Laure N’GOM et Lilia OUCHIHA
RL : Antoine CARLI
BIOSTATISTICS BASICS
Formulating a study question
Practice with R & RStudio
Plan :
I.
Random variable
A- Discrete variables
1) Probability mass function
2) Expectation value
3) Variance
4) Usual Random Variable
B- Continuous variables and density
1) Distribution function
2) Expectation value
3) Variance
4) Uniform RV
II.
Practice
I. Random variable
What is a random variable?
Let’s consider a random experiment. Any output of the experiment is called
an “outcome event”.
On s’intéresse à une donnée : la variable aléatoire (ex : la taille des élèves de
la classe).
X:Ω R
X : variable aléatoire. Dans notre exemple, une fonction donne à chaque
individu sa taille, la variable aléatoire qui lui correspond.
Ω : l’univers des possibles. Dans notre exemple l’univers c’est la classe.
R : les réels
Il existe deux types de VA : les discrètes, représentées par une fonction
discontinue, constituée de points seulement ; et les continues, qui forment
un même trait sur un repère orthonormé.
The experience :
- Flip a coin 1 time.
Here Ω={H,T} (H : heads, T : tails).
A trivial example of random variable X is to set X ({H})=1 and X ({T})=0.
On gagne si on fait pile, on perd si on tombe sur face.
- Now flip a coin n times.
Here Ω={H,T}n.
We can take for X the number of heads obtained when flipping the coin n
times.
Probability calculus:
Suppose you toss three fair coins. What is the probability of getting exactly
one heads?
- 3 pièces qu’on tire successivement
- 8 sorties également réparties en terme de probabilité : HHH, HHT, HTT..
- 3 combinaisons ont un seul côté pile:
E = {HTT, THT, TTH}
Et donc
3
P(E)= et X : {HHH, HHT,…, TTT)  R
8
A – Discrete variables
X prend des valeurs ponctuelles : 1 si une seule face pile est tombée sur les
3 lancés, 0 si il y en plus de 1 ou pas du tout.
If we take X to be a real valued random variable, whose target space E is any
countable set (N, Z, Q), the X is said to be discrete. The examples shown
below are discret RV.
1) Probability mass function
A discret random variable X has countably many values (xi) iϵN.
We set for any I ϵ N (les naturels).
p(xi)=P(X=xi)
La fonction de masse associe à une valeur possible sa probabilité.
This function (from X(Ω) to [0 ;1]) is called the probability mass function of
X.
Avec l’exemple utilisé au début, on a calculé que P(X=1).
2) Expectation value
The mean value, also called expectation, average, or expected value of
discrete RV X is
E(X) = ∑𝑖𝜖𝑁 𝑥𝑖 . 𝑃(𝑋 = 𝑥𝑖)
To generate RV for one X, you can take any function f:RR and then
consider f ∘ X : ΩR
so
E(f(X)) = ∑𝑖𝜖𝑁 𝑓(𝑥𝑖). 𝑃(𝑋 = 𝑥𝑖)
Remark : the mean value is often denoted µ.
3) Variance (V)
The Variance is a way to estimate the distance or dispersion of X values
from its mean, so if we note µ the mean, we are interested in the value of
E(X-µ), or more precisely the absolute value ∣E(X-µ)∣, since we consider a
value µ+xi and a value µ-xi as equidistant from the mean. In order to
prevent from using these absolute values (and for other “metric” reason),
we consider to estimate this dispersion with the variance defined as
var(X) = E [(X- µ)²]
4) Usual Random Variable
- Uniform discrete RV
C’est une VA avec des valeurs allant de 1 à n, avec chacune une
1
equiprobabilité de n.
𝑙
This is simply the random choice of one number among n numbers.
1
E(X) = ∑ 𝑥𝑖
𝑛
and
1
Var(X) = ∑ 𝑥𝑖²- E(X)²
𝑛
- Bernouilli random variable
Two complementary event A and B, and A has probability p. Then take X
to be RV equal to 1 on {A} and 0 otherwise
Then E(X) = p
and Var(X) = p(1-p)
Quand p=1/2, cela veut dire que le dé est non truqué, chaque sortie à la
même probabilité.
- Binomial RV
Consider X to be the RV counting the number of successes in n
independent trials, each of which is a success with probability p.
Then E(X) = np
and Var(X) = np(1-p)
The Binomial law is a generalization of the Bernouilli law
- Poisson RV
A Poisson random variable with parameter λ>0, is a discrete RV given
by, for any iϵN
𝜆^𝑖 𝑒(−𝜆)
P(X=i)
𝑖!
E(X) = λ
Var(X) = λ
B – Continuous variables and density
La fonction densité :
X est continue s’il existe une fonction f telle que pour tout A ∈ à R :
P(X∈A)= ∫𝑥∈𝐴 𝑓(𝑥)𝑑𝑥
 f est alors appelée fonction densité de X
Cette variable vérifie que la somme des probabilités de toutes les issues
+∞
possibles vaut 1, telle que : ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
1)
La fonction de distribution :
Pour toute variable continue, on définit une fonction de distribution F telle
que :
𝐴
F(a)= P(X≤a) = ∫−∞ 𝑓(𝑥)𝑑𝑥
Remarque : F’(x)= f(x) avec f la fonction densité définie ci-dessus.
Autrement dit, la fonction de densité est la dérivée de la fonction de
distribution.
2) Expectation value
Comparaison d’une variable continue et discrète via le calcul de
l’espérance :

L’espérance notée E est une moyenne telle que :
-
Pour une variable discrète :
E(x)= Σ xi  p(X=xi)
-
Pour une variable continue :
+∞
E(x)= ∫−∞ 𝑥𝑓(𝑥)𝑑𝑥
3) Variance
Var(X)=EX-E(X)2 
4) Uniform RV

Une variable est dite uniforme/uniformément répartie lorsque sa
fonction densité est constante.
C’est le cas des variables qui suivent une loi normale ; La
représentation de la fonction densité d’une variable suivant une loi
normale est une gaussienne (c'est-à-dire une courbe en forme de
cloche). Dans ce cas de la loi normale centrée réduite N (O, 1),
cette gaussienne est centrée en 0.
Ces variables sont utilisées pour de nombreuses situations concrètes
du quotidien notamment les distributions de poids, taille dans une
population plus ou moins importante en nombre.

Considérons une variable aléatoire exponentielle suivant une loi
normale N (µ, σ) Cela signifie que : E(X)= µ et V(X)= σ2 .
Ici, V représente la variance, c'est-à-dire l’écart par rapport à la
moyenne des valeurs prises par la variable X.
La fonction densité est alors notée :

Le théorème central limite :
Le théorème central limite établit la convergence en loi de la somme
d'une suite de variables aléatoires vers la loi normale.
Intuitivement, ce résultat affirme que toute somme de variables
aléatoires indépendantes et identiquement distribuées tend vers
une variable aléatoire gaussienne.
Autrement dit, si un petit échantillon suit une loi particulière (Loi de
Bernoulli, par exemple), alors pour un plus grand nombre de
valeurs prise par la variable aléatoire (donc un plus grand
échantillon), la loi de Bernoulli (selon l’exemple) peut être
approchée par une loi normale centrée réduite N(0,1)
Exemple :
Si X suit une loi binomiale notée B (n ; p), si n augmente tel que lorsque
n ≥ 25, np ≥ 5 et n (1 − p) ≥ 5, X suit une loi normale N (µ ; σ ^2).
Considérons un exemple de 10 personnes et intéressons nous à leur
âge respectif ; nous noterons alors X la variable de distribution de
l’âge dans cet échantillon.
5 personnes ont 20 ans, 3 ont 21 ans et 2, 22 ans
Ainsi :
P(X=20)= 0.5, P(X=21)=0.3 et P(X=22)=0.2
Et, X est ici une variable discrète (distribution des âges). Ainsi :
E(X)= 20x0.5+21x0.3+0.2x2
Calculons également la moyenne M :
M= (20x5+21x3+22x2)/10
= 20x0.5+21x0.3+0.2x2
M= E(X)
Ainsi, l’espérance représente bien la moyenne. Plus précisément, on
remarque que l’espérance est une expression factorisée de la moyenne.
La variance, quant à elle, s’intéresse à quel point les valeurs s’écartent
de la moyenne. C’est la moyenne des écarts à la moyenne de chaque
valeur, c’est pourquoi, on calcule la variance, à partir de l’espérance :
V(X)= E(𝑋 2 ) - (E(X))2 = E[(x − µ)2 ]=
Quelques lois de probabilités discrètes :
Bernoulli
Binomiale
Loi de Poisson (le prof est passé est très rapidement sur cette
loi, et ne s’est pas attardé sur les formules).
-

La loi de Bernoulli :
Soit X suit une de Bernoulli B; X a alors 2 issues 1 et 0 appelées
respectivement succès et échec avec :
P(X=1=succès)= p
P(X=0=échec)= 1-p puisque la somme des probabilités est égale à 1.
P est le paramètre de la loi binomiale. C’est la probabilité du succès ; il
est donc compris entre 0 et 1.
L'espérance mathématique d'une variable aléatoire de Bernoulli vaut p et la
variance vaut p(1 – p), avec p la probabilité du succès.
Ainsi, on notera :
E(X)=p
V(X)=p (1-p)
L’exemple le plus simple est celui d’une pièce jetée en l’air. On s’intéresse à
la probabilité d’avoir le coté face ou pile. Notons, au hasard, p la probabilité
d’avoir le côté pile et 1-p la probabilité d’avoir le côté face.
Si la pièce n’est pas truquée, on a : p=1-p=1/2
Si la pièce est truquée, on peut par exemple avoir : p=1/4 et donc 1-p=3/4
 Loi Binomiale :
Soit X suit une loi binomiale telle que B (n ; p). Cette loi est utile lorsque l’on
réitère n fois l’expérience de Bernoulli.
Ces répétitions se doivent d’être indépendantes les unes des autres.
On a alors : E(X)=np et V(X)=np x (1-p)
On peut considérer la loi Binomiale comme une généralisation de la loi de
Bernoulli.
 Loi de Poisson :
Soit X suit une loi de Poisson telle que :
Où :

e est la base de l’exponentielle
k, une réalisation de X

λ est un nombre réel strictement positif

Ainsi : on dit que X suit la loi de Poisson de paramètre λ
Abréviations :
RV : Random Variable
VA : Variable Aléatoire
Mot du RT : Le cours n’est pas difficile, il reprend beaucoup de notions des maths de P1. Les
diapos sont en anglais, mais le prof a préféré donner son cours en français, désolée pour
l’hétérogénéité de la langue.. Mais c’est un mal pour un bien, un peu de sport pour les méninges
ne fait pas de mal !
FICHE RECAPITULATIVE
VARIABLE ALEATOIRE :
Une variable aléatoire c’est l'ensemble des résultats possibles d'une expérience aléatoire
comme par exemple un lancé de dé ou bien un tirage à pile ou face.
Il en existe deux types : continue (ensemble X() appartient à ℝ) et discrète (nombre fini ou
dénombrable de valeurs).
- Variables discrètes :
Un lancé de dé simple est une variable aléatoire discrète car elle ne peut prendre que 6
valeurs. Donc lorsque l'univers Ω est fini, la variable aléatoire est dite discrète.
La fonction de masse associe à une valeur possible sa probabilité tel que p(xi)=P(X=xi). Et la
somme des p(X=xi) est égale à 1.
Espérance :
E(X) = ∑𝑖𝜖𝑁 𝑥𝑖 . 𝑃(𝑋 = 𝑥𝑖)
C’est la moyenne pondérée par les probabilités d'apparition de chaque valeur.
Pour générer des variables aléatoires à un X :
E(f(X)) = ∑𝑖𝜖𝑁 𝑓(𝑥𝑖). 𝑃(𝑋 = 𝑥𝑖)
Variance :
var(X) = E [(X- µ)²] avec µ la moyenne
C’est un moyen d'estimer la distance ou la dispersion des valeurs de X à sa moyenne µ.
Variables aléatoires usuelles :
- Uniforme discrète :
1
 VA avec des valeurs allant de 1 à n, avec chacune une équiprobabilité de 𝑙 ×n.
1
 E(X) = 𝑛 ∑ 𝑥𝑖
1
 Var(X) = 𝑛 ∑ 𝑥𝑖²- E(X)²
- Bernoulli :
 Distribution discrète de probabilité, qui prend la valeur 1 avec la probabilité p et 0 avec
la probabilité q = 1 – p. Donc que deux issues possibles : succès ou échec.
 E(X) = p
 Var(X) = p(1-p)
si p=1/2, cela veut dire que chaque sortie à la même probabilité
- Binomiale :
 Modélise le nombre de succès obtenus lors de la répétition indépendante de plusieurs
expériences aléatoires identiques de Bernouilli.
 n=nombre d’expériences et p=probabilité de succès
 E(X) = np
 Var(X) = np(1-p)
- Poisson :
𝜆^𝑖 𝑒^(−𝜆)
 P(X=i)
𝑖!
 E(X) = λ
 Var(X) = λ
- Variables continues :
La fonction densité : une fonction qui permet de représenter une loi de probabilité
sous forme d'intégrales :
 P(X∈A)= ∫𝑥∈𝐴 𝑓(𝑥)𝑑𝑥
+∞
 Cette variable vérifie : ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
Fonction de distribution
𝐴
 F(a)= P(X≤a) = ∫−∞ 𝑓(𝑥)𝑑𝑥
 La fonction de densité est la dérivée de la fonction de distribution.
Espérance
+∞
 Pour une variable continue E(x)= ∫−∞ 𝑥𝑓(𝑥)𝑑𝑥
Variance
 Var(X)=EX-E(X)2 
Variable aléatoire uniformes
Une variable est dite uniforme lorsque sa fonction densité est constante. Ex : Loi
normale/gaussienne
- Théorème central limite :
Ce théorème énonce que les moyennes d’un grand nombre d’échantillons suivent une loi
normale, même si ceux-ci suivent individuellement une autre loi de probabilité.
- Idem que partie précédente pour loi de Bernouilli, Binomiale et Poisson.
Téléchargement