Probabilités : Méthodes ECE 1

publicité
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
Probabilités : Méthodes ECE 1
I. Calcul de probabilités : écriture d'évènements.
1) Intersection.
Il faut connaître les points suivants :
a) A ∩ B , intersection des évènements A et B , est vrai si et seulement si A et B sont vrais : il contient les
évènements élémentaires qui sont à la fois dans A et dans B .
b) Pour calculer la probabilité d'une intersection dont les évènements ont lieu successivement, on utilise la formule des probabilités composées.
c) Si A et B sont indépendants, alors P (A ∩ B) = P (A)P (B).
d) Si deux évènements n'ont pas lieu l'un après l'autre, pour calculer P (A ∩ B) il faut décomposer l'évènement (A ∩ B) avec des réunions incompatibles de cas chacun écrit comme intersection d'évènements
successifs (en fait, on traite (A ∩ B) comme ci c'était un seul évènement).
2) Réunion.
Il faut connaître les points suivants :
a) A ∪ B , réunion des évènements A et B , est vrai si et seulement si A ou B est vrai : il contient les
évènements élémentaires qui sont dans l'un des deux (ou a fortiori dans les deux) évènements A et B .
b) Si A et B sont incompatibles (A ∩ B = ∅), alors P (A ∪ B) = P (A) + P (B).
c) Si A et b ne sont pas incompatibles, pour calculer P (A ∪ B) il faut décomposer l'évènement (A ∩ B)
avec des réunions incompatibles de cas chacun écrit comme intersection d'évènements successifs (en fait,
on traite (A ∪ B) comme ci c'était un seul évènement).
d) La formule du crible donne P (A ∪ B) = P (A) + P (B) − P (A ∩ B) : le cas de plus de deux évènements est hors programme mais peut être utilisé en étant rappelé par l'énoncé (à n'utiliser qu'en tout
dernier recours ! !).
e) Si A et B sont indépendants, on ne sait rien sur P (A ∪ B), mais la formule du crible permet éventuellement de se ramener à A ∩ B an de la calculer.
3) Complémentaires et systèmes complets d'évènements.
Il faut connaître les points suivants :
a) A le complémentaire de A est l'évènement contraire de A : il est vrai si et seulement si A est faux, et
contient les évènements élémentaires de Ω qui ne sont pas dans A.
b) P (A) = 1 − P (A).
c) Lorsqu'on a du mal à décomposer un évènement A, toujours penser à regarder si A ne serait pas
plus simple.
d) Un système complet d'évènements est un ensemble d'évènements de probabilités non nulles, deux
à deux incompatibles et dont la réunion est Ω.
e) Pour tout évènement A non négligeable et non quasi-certain (P (A) 6= 0 et P (A) 6= 1), (A, A) est
un système complet d'évènements.
f) L'ensemble des situations possibles à l'instant n (et notamment l'ensemble des résultat possibles du
premier tirage) lors d'une expérience constitue un sce.
g) L'ensemble des évènements (X = k), où k parcoure X(Ω), est un sce.
h) Les sce servent à utiliser les probabilités totales et à obtenir qu'une somme de probabilité vaut 1.
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
II. Calcul de probabilités : les grands théorèmes.
1) Probabilités conditionnelles.
Il faut connaître la dénition d'une probabilité conditionnelle, et savoir l'utiliser pour calculer des probabilités conditionnelles lorsque les évènements ne sont pas successifs ou n'ont pas lieu dans le bon ordre.
2) Probabilités totales.
Il faut connaître cette formule et les 4 cas importants d'utilisation, et savoir dessiner un diagramme pour
comprendre sa signication.
3) Probabilités composées.
Pour calculer la probabilité d'une intersection de plusieurs évènements arrivés successivement (probabilité
d'une issue élémentaire d'une succession de k tirages), on utilise la formule des probabilités composées,
qui doit bien entendu être parfaitement maîtrisée.
III Calculs eectifs de probabilités : la méthode générale.
1) Lorsqu'on cherche à calculer la probabilité d'un évènement, il faut :
a) Toujours commencer par vérier s'il s'agit d'un des cas d'application des probabilités totales. Dans
le cas contraire :
b) Comprendre l'évènement en français.
c) Ecrire cet évènement en fonction des évènements élémentaires correspondant aux épreuves successives,
en donnant des noms à ceux-ci si l'énoncé ne l'a pas fait. Il faut prendre bien garde à n'écrire que des
unions incompatibles (les diérentes possibilités menant à l'évènement considéré doivent être disjointes).
d) Décomposer la probabilité des unions incompatibles en somme des probabilités.
e) Calculer les probabilités des intersections avec la formule des probabilités composées, en utilisant
l'énoncé pour calculer les probabilités conditionnelles successives.
2) Cas d'application des probabilités totales :
a) Lorsqu'on cherche à calculer une probabilité en fonction d'une autre (P (Mn+1 ) en fonction de P (Mn )
par exemple), on applique les probabilités totales avec le système complet d'évènements correspondant à
l'état de l'expérience à l'instant n (c'est le cas correspondant aux chaînes de Markov).
b) Lorsqu'on cherche à calculer la probabilité d'un évènement faisant intervenir deux variables aléatoires,
on applique les probabilités totales avec le système complet d'évènements associé à l'une des deux variables
aléatoires en question.
c) Si l'une des deux variables est à densité, elle n'a pas de sce associé, il faut donc utiliser l'autre. Si
l'énoncé donne un résultat intermédiaire, s'en servir pour reconnaître le sce à utiliser. Sinon, on essaie de
prendre la variable avec l'univers image le plus simple. Si ce sont les mêmes, on prend la variable qu'on veut.
d) Lorsqu'on cherche à calculer la loi marginale d'un couple alors que la loi du couple est connue, on
applique les probabilités totales avec le sce de l'autre variable aléatoire.
e) Lorsque l'énoncé dit de décomposer selon les résultats du premier tirage, on applique les probabilités totales avec le sce (P1 , F1 ) ou bien (R1 , V1 , N1 ), etc.. correspondant à toutes les issues possibles de
ce premier tirage. Dans ce cas, certaines probabilités conditionnelles peuvent être diciles à comprendre
(il faut revenir à la compréhension en français pour justier l'égalité de la probabilité conditionnelle avec
celle demandée par la question).
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
IV. Calculs de probabilités : arbres.
Il faut savoir écrire au brouillon un arbre pour modéliser une expérience aléatoire, et s'en servir pour
ensuite faire les calculs avec les théorèmes précédents :
1) Arbre et probabilités composées.
La formule des probabilités composées se traduit par la propriété suivante : la probabilité d'une branche
d'un arbre est le produit de toutes les probabilités rencontrées sur cette branche.
2) Arbres et et probabilités totales.
La formule des probabilités totales se traduit sur un arbre :
a) Par le fait que les diérents évènements obtenus à la verticale, qui constituent toutes les issues possibles
après un certain nombre d'épreuves, forment un système complet d'évènements : cela permet de calculer
les probabilités des évènements après l'épreuve suivante avec la formule des probabilités totales.
b) Par le fait que la probabilité d'un évènement est la somme des probabilités des branches qui y mènent.
V. Variables aléatoires : loi et moments.
1) Variables nies.
Une variable est nie si elle ne peut prendre qu'un nombre ni de valeurs :
- Pour déterminer sa loi, on détermine les valeurs prises et la probabilité de chaque valeur.
- On est alors certain qu'elle admet des moments de tous ordres, donc une espérance et une variance.
- De même un couple de variables nies admet toujours une covariance.
- Pour prouver qu'une suite nie de nombre est une loi de probabilité, on prouve qu'ils sont tous positifs
et que leur somme (nie) vaut 1.
2) Variables discrètes.
Une variable est discrète si ses valeurs prises peuvent être indexées par N ou une partie de N :
- Pour déterminer sa loi, on détermine les valeurs prises et la probabilité de chaque valeur.
- Pour vérier qu'elle admet une espérance ou de manière générale un moment d'ordre k, il faut vérier la
convergence absolue d'une série. Dans la très grande majorité des cas, les séries sont à termes positifs
et on peut alors armer qu'elles convergent absolument si et seulement si elles convergent.
- Pour prouver qu'une suite innie de nombre est une loi de probabilité, on prouve qu'ils sont tous positifs
et que leur somme (innie, donc la somme d'une série) converge et vaut 1.
3) Variables à densité.
Une variable est à densité si elle prend toutes les valeurs de R ou d'un intervalle de R :
- Il faut savoir prouver qu'une fonction est une densité de probabilité : en prouvant que f est positive,
continue
sauf éventuellement en un nombre ni de points (et pas continue par morceaux !) et
R +∞
f
(t)
dt
converge et vaut 1.
−∞
- Il faut aussi savoir prouver qu'une variable est à densité lorsqu'on connaît sa fonction de répartition :
celle-ci doit être continue sur R et de classe C 1 sauf éventuellement en un nombre ni de points.
- Pour déterminer sa loi, on détermine sa densité et/ou sa fonction de répartition.
- Pour vérier qu'elle admet une espérance ou de manière générale un moment d'ordre k, il faut vérier
la convergence absolue d'une intégrale.
VI. Variables aléatoires : calculs d'espérance.
1) Linéarité de l'espérance.
On doit savoir que E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y ).
2) Espérance de XY.
On doit savoir que si X et Y sont indépendantes, alors E(XY ) = E(X)E(Y ).
3) Théorème de transfert.
On doit savoir calculer E[f (X)] à l'aide du théorème de transfert, avec une somme ou une intégrale selon
que la variable X est discrète ou à densité.
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
VII. Variables aléatoires : calculs de variance.
1) Variance de aX+b.
On doit savoir que V (aX + b) = a2 V (X).
2) Dénition et théorème de Huyghens.
Dans 9 cas sur 10, la variance se calcule avec le théorème de Huyghens : V (X) = E(X 2 ) − E(X)2 , en
utilisant le théorème de transfert pour le calcul du moment d'ordre
deux. 2
Cependant la dénition doit aussi être connue : V (X) = E X − E(X) ; elle permet notamment de
prouver que V (X) ≥ 0, et d'en déduire que E(X 2 ) ≥ E(X)2 .
VIII. Variables aléatoires : fonction de répartition.
1) Dénition
Il faut connaître la dénition : FX (x) = P (X ≤ x), et les propriétés de limites qui en découlent : une
fonction est une fonction de répartition si et seulement si elle est croissante, continue à droite en tout
point, de limite nulle en moins l'inni et de limite 1 en plus l'inni.
2) Lien avec la loi
Il faut savoir passer, en discret de la loi à la fonction de répartition (en sommant) et réciproquement (en
prenant P (X ≤ k) − P (X ≤ k − 1)), en densité de la densité à la fonction de répartition (en intégrant) et
réciproquement (en dérivant).
3) Lien avec P(X>x)
Il faut reconnaître que (X > x) = (X ≤ x) et savoir donc que P (X > x) = 1 − FX (x).
4) Loi de l'inf et du sup, ou du min et du max.
Que la variable soir discrète ou à densité, on calcule la loi du sup (ou max, ou temps de vie d'un système
en parallèle) et de l'inf (ou min, ou temps de vie d'un système en série) en passant par la fonction de
répartition ou P (X > x) = 1 − F (x), en utilisant :
(min(X, Y ) > t) = (X > t) ∩ (Y > t) et (max(X, Y ) ≤ t) = (X ≤ t) ∩ (Y ≤ t).
IX. Variables aléatoires : calculs eectifs de lois.
1) Variable nie ou discrète.
- On donne toujours pour commencer X(Ω).
- Si on a une loi du sup ou de l'inf, il faut absolument passer par la fonction de répartition P (X ≤ k) ou
par P (X > k), puis se ramener à la loi. Dans tout autre cas :
- Si X(Ω) = {0; 1}, X suit une loi de Bernouilli.
Si X(Ω) = J0; nK on regarde si X suit une loi binomiale (ce n'est pas toujours le cas !), sinon on se ramène
aux cas général.
Si X(Ω) = N∗ , on regarde si X suit une loi géométrique (ce n'est pas toujours le cas !), sinon on se ramène
aux cas général.
Ces cas doivent absolument être regardés en premier et à part, car il ne demandent pas du tout les mêmes
calculs de probabilités.
- Si on a reconnu une loi usuelle, il faut déterminer le paramètre p. Pour cela on prend une seule
épreuve, et on écrit S l'évènement qui représente le succès dans cette épreuve, dont on détermine la
probabilité : c'est le paramètre p.
- Seulement dans le cas d'une loi qui n'est pas usuelle, on écrit l'évènement (X = k), avec k xé, et
on cherche sa probabilité (avec les méthodes de la che calculs de probabilités).
S'il n'y a que quelques valeurs dans X(Ω), on cherche ces probabilités une par une.
S'il y en a un grand nombre, on traite à part les cas particuliers s'il y en a et on fait ensuite un cas général
avec k xé quelconque.
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
2) Variables à densité.
- Pour déterminer la loi d'une variable à densité dont on ne connaît ni densité ni fonction de répartition, on calcule toujours sa fonction de répartition (car la densité n'est pas une probabilité).
- On peut toujours commencer, si c'est possible, par calculer X(Ω) et en déduire la fonction de répartition
pour les valeurs de x inférieures (FX (x) = P (X ≤ x) = 0) et supérieures (FX = P (X ≤ x) = 1).
- Pour les valeurs de x qui sont dans X(Ω), on transforme l'évènement (X ≤ x) (ou (X > x) pour
une loi du min, de l'inf, ou d'un temps de vie de système en série) pour se ramener aux variables connues.
On fait attention, quand on compose par une fonction, que cette fonction soit bien dénie des deux côtés
de l'inégalité. S'il y a un problème, il faut faire un sous-cas qui doit se régler immédiatement par impossibilité ou certitude de l'évènement.
On se ramène nalement à la (ou aux) fonction(s) de répartition de variables déjà connue, et on en déduit
celle de X , en faisant très attention à faire autant de sous-cas que nécessaire dans les calculs.
- Enn si c'est demandé, on justie que la variable est à densité en vériant que la fonction de répartition
est de classe C 1 sauf peut-être en quelques points, puis continue sur R (en étudiant précisément chacun
des points de raccordement de la fonction de répartition).
- Si une densité de X est demandée, on précise qu'on dérive la fonction de répartition sauf aux points
particuliers où on donne une valeur arbitraire, puis on obtient la densité en dérivant la fonction de répartition.
X Lois usuelles nies
1) Loi binomiale.
Il faut connaître :
a) l'interprétation : la loi binomiale B(n, p) est la loi du nombre de succès lors d'une répétition de n
épreuves de Bernouilli indépendantes et demême paramètre p.
b) la loi : X(Ω) = J0; nK et P (X = k) = nk pk (1 − p)n−k .
c) l'espérance np et la variance np(1 − p).
d) le cas particulier de la loi de Bernouilli (n = 1).
e) la somme de deux variables binomiales de même paramètre p indépendantes, qui suit B(n + n0 , p), et
la généralisation à la somme de n variables.
f) l'approximation par la loi de Poisson.
g) l'approximation par la loi normale.
h) la loi binomiale approche la loi hypergéométrique dès que N >> n (la taille de la population est très
grande devant le nombre de tirages).
i) la simulation informatique : on simule n épreuves de Bernouilli (avec une boucle for), et à chaque succès
on rajoute 1 (X := X + 1;) à la variable X .
2) Loi d'attente du premier succès.
La loi du premier succès dans une succession nie de n épreuves n'est pas un résultat de cours, mais elle
est très classique et doit a priori être connue.
a) On ne parle surtout pas de loi géométrique (la loi géométrique n'existe que lorsqu'il y a une
succession illimitée d'épreuves).
b) On doit savoir calculer la probabilité P (X = 0), soit avec les probabilités composées (n échecs consécutifs), soit en se ramenant à la loi binomiale Y du nombre de succès lors de ces n tirages, en disant que
P (X = 0) = P (Y = 0) = q n .
c) On doit savoir calculer la probabilité P (X = k) pour k ∈ J1; nK avec les probabilités composées (k − 1
échecs puis un succès).
d) On peut se rappeler que l'espérance est calculée à l'aide de la somme des n premiers termes d'une suite
n
P
n+1
ou par récurrence si le résultat est donné.
xk = 1−x
géométrique dérivée, déterminée en dérivant
n+1
k=0
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
XI Lois usuelles discrètes innies
1) Loi géométrique ou du premier succès.
Il faut connaître :
a) l'interprétation : la loi géométrique G(p) est la loi du rang du premier succès lors d'une succession
illimitée d' épreuves de Bernouilli indépendantes et identiques de même paramètre p.
b) la loi : X(Ω) = N∗ et P (X = k) = q k−1 p.
c) l'espérance p1 et la variance 1−p
p2 .
d) la simulation informatique : on simule des épreuves de Bernouilli jusqu'au premier succès (avec un while
ou un repeat until), et à chaque tirage on rajoute 1 (X := X + 1;) à la variable X .
2) Loi de Poisson.
On doit connaître :
k
a) la loi : X(Ω) = N et P (X = k) = e−λ λk! .
b) l'espérance λ et la variance λ.
c) la somme de deux lois de Poisson indépendantes, qui suit P(λ + λ0 ) et la généralisation à la somme de
n variables.
d) l'approximation par la loi normale.
e) l'utilisation des tables de loi de Poisson.
3) Loi du sup et de l'inf.
Ce n'est pas un résultat
de cours, mais
il faut savoir :
a) écrire les égalités sup(X, Y ) ≤ k = [X ≤ k] ∩ [Y ≤ k] et inf(X, Y ) > k = [X > k] ∩ [Y > k].
b) passer de la loi à la fonction de répartition et réciproquement et utiliser l'indépendance pour en déduire
les lois du sup et de l'inf.
c) que le max, le sup et le temps de vie d'un système à parallèle sont la même chose d'une part, et que
l'inf, le min et le temps de vie d'un système en série sont la même chose d'autre part.
d) la simulation informatique : on simule X et Y puis une boucle if permet de mettre la plus petite dans
l'inf et la plus grande dans le sup.
XII Lois usuelles continues à densité
1) Loi uniforme.
Il faut connaître :
a) l'interprétation : une variable peut prendre au hasard toutes les valeurs d'une intervalle [a; b].
b) la densité.
c) la fonction de répartition.
d) l'espérance a+b
2 . Attention, la variance n'est pas un résultat du programme, on est censé la recalculer
(les sujets HEC demandent malgré tout parfois de la donner directement).
e) le cas particulier de la loi uniforme sur [0; 1], qui est celui qui tombe le plus souvent.
f) la simulation informatique avec la fonction random qui donne la loi U[0;1] et la variable (b − a)X + a
qui suit la loi uniforme sur [a; b] si X suit celle sur [0; 1] (on prend une fonction ane qui transforme 0 en
a et 1 en b pour transformer l'intervalle [0; 1] en l'intervalle [a; b]).
g) La connaissance parfaite de la méthode d'obtention des moments d'ordre n est fondamentale pour les
sujets type Essec/HEC.
2) Loi exponentielle.
Il faut connaître :
a) l'interprétation : la loi exponentielle est celle de la durée de vie sans vieillissement (on parle aussi de
variable dans mémoire).
b) la densité.
c) la fonction de répartition.
d) l'espérance λ1 et la variance λ12 .
e) l'utilisation des valeurs d'intégrales données par la densité, l'espérance et la variance de la loi exponentielle pour obtenir des valeurs d'intégrales généralisées.
3) Loi normale.
Il faut connaître :
a) la densité de la loi normale centrée réduite N0,1 et de la loi normale Nm,σ2 .
b) Les résultats donnés par les propriétés de symétrie : Φ(0) = 12 et Φ(−x) = 1 − Φ(x).
c) la table de la fonction de répartition et son utilisation.
d) l'espérance m et la variance σ 2 .
e) l'utilisation des valeurs d'intégrales données par la densité, l'espérance et la variance de la loi normale
pour obtenir des valeurs d'intégrales généralisées.
ECE 2 - Mathématiques
Quentin Dunstetter - ENC-Bessières 2014\2015
Méthodes probabilités ECE 1
f) l'utilisation de la parité d'une densité pour obtenir l'imparité de xf (x), la parité de x2 f (x), etc... pour
calculer les moments de variables dont la densité est paire. (C'est le cas de la loi normale dont les moments
sont connus, mais la méthode doit être reproduite avec une densité non usuelle qui serait également paire.)
g) la loi normale centrée réduite approxime les sommes centrées réduites, et permet d'approximer les lois
de sommes non centrées réduites de variables à l'aide de la variable centrée réduite associée (théorème
central limite ou de la limite centrée, très dicile).
h) La connaissance parfaite de la méthode d'obtention des moments d'ordre n est fondamentale pour les
sujets type Essec/HEC.
4) Loi du sup et de l'inf.
Ce n'est pas un résultat
de cours, mais
il faut savoir :
a) écrire les égalités sup(X, Y ) ≤ t = [X ≤ t] ∩ [Y ≤ t] et inf(X, Y ) > t = [X > t] ∩ [Y > t].
b) passer de la loi à la fonction de répartition et réciproquement et utiliser l'indépendance pour en déduire
les lois de sup et de l'inf.
c) que le max, le sup et le temps de vie d'un système à parallèle sont la même chose d'une part, et que
l'inf, le min et le temps de vie d'un système en série sont la même chose d'autre part.
d) la simulation informatique : on simule X et Y puis une boucle if permet de mettre la plus petite dans
l'inf et la plus grande dans le sup.
Téléchargement