Calcul des probabilités 2 (M-2.1) I. Probabilités sur un ensemble fini 1. Définitions Définition Une expérience aléatoire est une expérience dont il est impossible de prévoir l’issue (mais on connaît toutes les issues possibles) Exemple Un sac contient 7 boules numérotées : 4 rouges (R1, R2, R3, R4) et 3 blanches (B5, B6 ,B7) On tire au hasard une boule du sac. C : « obtenir le numéro 7 » C= Un événement élémentaire est une issue possible. On appelle univers l’ensemble des événements élémentaires. On le note Ω Ω = A : « obtenir un numéro impair » A= B : « obtenir une boule rouge » Un événement est une partie de Ω . Un événement certain contient toutes les issues possibles. Un événement impossible ne se réalise jamais. La réunion de deux événements est l’ensemble des issues appartenant à l'un ou à l'autre (au moins l'un des deux) L’intersection de deux événements est l’ensemble des issues appartenant à l'un et à l'autre (aux deux en même temps) Deux événements incompatibles n'ont aucune issue commune. B= D : « obtenir un numéro inférieur à 10» D= E : « obtenir une boule verte » E= A U B : « obtenir une boule AUB= A I B : « obtenir une boule AIB= ... A : « obtenir une boule A = et A U A = AIA = Deux événements contraires sont deux événements incompatibles dont la réunion forme l'univers. Définition : La probabilité d’un événement est un nombre qui mesure les chances que cet événement a de se produire, sur une échelle qui va de 0 (pour l’événement impossible) à 1 (pour l’événement certain) exemples : P(A) = P(B) = P(C) = P(D) = P( A I B ) = P( A U B ) = Définition: soit Ω = { x1 , x2, ..., xn } l’univers d’une expérience aléatoire. On définit une loi de probabilité sur Ω lorsque : à chaque xi on associe sa propbalité p ( xi ) p ( x1 ) + p ( x2 ) + ... + p ( xn ) = 1 Remarque : Pour une expérience donnée, dans le modèle défini par une loi de probabilité, les distributions des fréquences mesurées sur des séries de taille n se rapprochent de la loi de probabilité quand n devient grand. Pour Ω = { R1; R 2; R3; R 4; B5; B6; B7} , la loi de probabilité sur Ω est donnée par: Pour Ω = { R; B} 2. Propriétés Soient A et B deux événements de Ω : P ( ∅ )=0 P ( Ω) =1 0⩽P ( A )⩽1 P ( A∪B )=P ( A )+P ( B )−P ( A∩B ) Remarque : si A et B sont deux événements incompatibles alors: p ( A ∪ B ) = p ( A) + p ( B ) P ( A )=1−P ( A ) Exemple: 1/10 BTS CRSA UF3.1 Si chaque événement élémentaire est équiprobable (de même probabilité) alors : P ( A) = Nombre d'éléments de A Nombre de cas favorables = Nombre d'éléments de Ω Nombre de cas possibles Définition le nombre permutations d’un ensemble de n éléments est : n!=1×2×…×n (se dit "factorielle n") Remarque : l'ordre compte, chaque élément est utilisé une fois et une seule. n=3 Applications: Le nombre de quartés possibles dans une course de quatre chevaux est : n=4 Le nombre "mots" de 7 lettres contenant une fois chaque lettre A,B,C,D,E,F,G : Sur TI : Sur Casio : , , , , , n Définition : soit E un ensemble fini ayant n éléments, on note ÷ le nombre de sous-ensembles de E ayant k éléments. k n Le nombre ÷ se lit « k parmi n » ou « combinaisons » de k éléments pris parmi n. k Remarques : l’ordre ne compte pas, les répétitions sont impossibles. 0 Le nombre k est un entier naturel et inférieur ou égal à n et par convention on a : ÷ = 1 0 Propriétés : soit k et n deux entiers naturels tels que k ⩽n : n = n =1 n = n =n n = n 0 n 1 n−1 k n−k ()() ()( ) ()( ) + n−1 = n (n−1 k −1 ) ( k ) ( k ) Le triangle de Pascal : n=0 n=1 n=2 n=3 n=4 n=5 n=6 k=0 k =1 k=2 k=3 k=4 k=5 k =6 (00)=1 (10)=1 (20)=1 (30)=1 (40)=1 (50)=1 (60)=1 (11)=1 (21)=2 (31)=3 (41)=4 (51)=5 (61)=6 (22)=1 (32)=3 (42)=6 (52)=10 (62)=15 (32)=1 (43)=4 (53)=10 (63)=20 (44)=1 (54)=5 (64)=15 (55)=1 (65)=6 (66)=1 Exemples d'applications : Nombre de tirages possible au loto : Nombre de poignées de mains serrées dans une assemblée de n personnes : Sur TI : Sur Casio : , , , , , 2/10 BTS CRSA UF3.1 3. Intersection d'événements Exemple: Une classe de 36 élèves âgés de 16, 17 ou 18 ans comprend 22 garçons dont 18 âgés de 17 ans et 3 âgés de 18 ans. D’autre part, il y a 6 filles âgées de 18 ans et une seule âgées de 16 ans. Le professeur de mathématiques interroge un élève au hasard. Garçon Fille Total 16 ans 17 ans 18 ans Total On considère les événements : A : « l’élève interrogé a 16 ans. » G : « l’élève interrogé est un garçon. » B : « l’élève interrogé a 17 ans. » F : « l’élève interrogé est une fille. » ;AIC = ;BIC = AIB = C : « l’élève interrogé a 18 ans. » ; A U BUC = Définition : on dit que les événements A, B, C forment une partition de l'univers Ω On peut alors construire la première ramification d'un arbre de probabilité: P( F I A ) = ; P( F I B ) = ; P( F I C ) = et P(F) = A B C Propriété : Si B1, B2, … , Bn forment une partition de l'univers Ω , alors pour tout événement A, on a : P ( A )=P ( A∩B1)+P ( A∩B2 )+…+P ( A∩B n ) C’est la formule des probabilités totales. Corollaire : Soit A et B deux événements : P ( A ) = P ( A ∩ B ) + P ( A ∩ B ) Probabilités conditionnelles : Soient E et C deux événements tels que l'événement C ne soit pas impossible. La probabilité de l'événement E sachant l'événement C, notée P C ( E ) , est calculée en remplaçant l'univers Ω par les issues de l'événement C . Exemple : On sait à l’avance que l’élève interrogé a 16 ans. Quelle est la probabilité pour que ce soit un garçon ? On sait à l’avance que l’élève interrogé est un garçon. Quelle est la probabilité pour qu'il ait 16 ans ? Propriété : PC ( E )= P ( C∩E ) P ( C) c'est-à-dire P ( C∩E )=P ( C )×PC ( E ) ou encore « la probabilité d'une feuille est obtenue en multipliant les probabilités des branches ». 3/10 BTS CRSA UF3.1 Définition: On dit que 2 événements E et C sont indépendants si la réalisation de l’un n’influe pas sur la réalisation de l’autre. Ainsi, E et C sont indépendants si la probabilité de E est inchangée que l’on sache si C est réalisé ou non. Théorème: E et C sont indépendants si et seulement si PC ( E )=P ( E ) Ainsi, E et C sont indépendants si et seulement si : P ( E ∩C ) =P ( E ) × P ( C ) . Ne pas confondre indépendants et incompatibles. Loi faible des grands nombres (énoncé simplifié) : On considère une expérience aléatoire et un événement E dont la probabilité est notée p=P ( E ) . Probabilités Cette expérience aléatoire est répétée n fois de façon indépendantes. Statistiques On obtient une série statistique de constituée de n valeurs E ou E . Soit f n la fréquence de réalisation de l'événement E sur ces n expériences. Si n est grand alors il est «presque certain» que la fréquence f n soit «très proche» de la probabilité p . Probabilités Par exemple : P ( p−0 ,01< f n< p+0, 01 )≈1 pour n suffisamment grand P ( p−0 ,001< f n< p+0 , 001)≈1 pour n suffisamment grand Évolution de la fréquence de « pile » lors de n lancers d'une pièce équilibrée. II. Variables aléatoires discrètes à valeurs réelles 1. Généralités Définition: Lorsqu'à chaque événement élémentaire de l'univers Ω on associe un nombre réel, on dit que l’on définit une variable aléatoire sur Ω. On la note en général X ou Y. Exemple : on lance un dé équilibré, Ω = { 1; 2;3; 4;5;6} . Si on obtient 6 on gagne 7 € sinon on perd 2€. On note X le gain (un gain négatif est assimilé à une perte). Événements définis à partir d’une variable aléatoire : Si X est une variable aléatoire et k un réel , alors « X prend la valeur k » est un événement constitué des issues associées au nombre k. On le note (X = k). Exemple: (X=7)= (X=-2)= (X=0)= Loi de probabilité d'une variable aléatoire : c'est donner la probabilité des événements (X=k) pour toutes les valeurs de k possibles. Exemple: On présente parfois la loi sous la forme k 7 -2 d’un tableau : P(X=k) Représentation graphique : sur les abscisses figurent les valeurs prises par la variable aléatoire, sur les ordonnées les probabilités correspondantes. La loi faible des grands nombres permet de considérer les probabilités comme des « fréquences théoriques ». Ainsi on peut remplacer, dans les formules de la moyenne et de la variance utilisées en statistiques, les fréquences fi par les probabilités pi où p i=P ( X=x i ) . 4/10 BTS CRSA UF3.1 Définitions : L’espérance d’une variable aléatoire discrète est donnée par : E ( X ) = p1 x1 + p2 x2 + ... + pn xn i.e. E( X ) = n ∑ k=1 pi xi La variance d’une variable aléatoire discrète est donnée par : V ( X ) = p1 ( x1 − E ( X ) ) + ... + pn ( xn − E ( X ) ) i.e. 2 2 V ( X ) = p1 x12 + ... + pn xn2 − ( E ( X ) ) i.e. 2 V(X)= V(X)= n ∑ k =1 n ∑ (E( X ) − x ) i k =1 xi 2 pi − ( E ( X ) ) 2 pi 2 L'écart-type d’une variable aléatoire discrète est donnée par : σ ( X )=√ V ( X ) Exemple : avec le jeu de dé précédent on a E= et V= Le jeu n’est pas équitable : sur un très grand nombre de lancers on perd en moyenne …€ par lancer. Les écarts à cette moyenne sont de l’ordre de ... 2. La loi binomiale Définition de la loi binomiale : Soit X la variable aléatoire égale au nombre de succès lors de la répétition de n expériences indépendantes avec pour probabilité de succès p lors de chaque expérience. On dit que X suit la loi binomiale de paramètres n et p notée : B(n,p). Arbre probabiliste pour la loi B ( 4, p ) : Propriété : la variable aléatoire X suit la loi binomiale B ( n ; p ) si et seulement si pour tout entier k ∈ [ 0 ; n ] , n−k P ( X=k ) = n × p k ×( 1− p ) k () Exemple : pour la loi binomiale B ( 4 ; 0, 75 ) : k 0 1 2 3 4 P ( X=k ) Propriétés : si la variable aléatoire X suit une loi binomiale B ( n ; p ) alors : E ( X )=n× p et V ( X )=n× p×( 1− p ) 3. La loi de Poisson Définition de la loi de Poisson : sur un laps de temps fixé, un phénomène aléatoire, pour lequel le futur est indépendant du 5/10 BTS CRSA UF3.1 passé, se produit en moyenne λ fois. Soit X la variable aléatoire égale au nombre de réalisation du phénomène sur ce laps de temps. La variable aléatoire suit alors une loi de Poisson de paramètre λ notée P ( λ ) et pour tout entier naturel k −λ λ k , on a P ( X=k ) =e k ! Exemple : pour la loi de Poisson P(3) k 0 1 2 3 4 5 6 7 ... P ( X=k ) Propriétés : si la variable aléatoire X suit une loi de Poisson P ( λ ) alors : E ( X )=λ et V ( X )=λ Théorème : approximation de la loi binomiale par la loi de Poisson. Quand un événement a une faible probabilité p , le nombre d'observations de cet événement au cours d'un grand nombre n d'expériences indépendantes suit une loi B ( n ; p ) pouvant être approchée par une loi de Poisson P ( n× p ) . Dans la pratique, si n⩾30 et p⩽0, 1 et np<15 alors l'approximation est valide. Exemple : X suit la loi binomiale B ( 40, 0, 1 ) et Y suit la loi de Poisson P ( 4 ) : k P ( X=k ) P ( Y=k ) Définition: deux variables aléatoires X et Y sont indépendantes si et seulement si pour tout i et tout j réels: P((X=i)∩(Y=j)) = P(X=i)×P(Y=j) X i Loi de Y j P((X=i)∩(Y=j)) P(Y=j) Loi de X P(X=i) 1 Y Propriétés : soient X une variables aléatoire définie sur un univers Ω et deux réels a et b alors : E ( aX +b )=a E ( X )+b V ( aX +b )=a 2 V ( X ) Propriétés : soient X et Y deux variables aléatoire définies sur un même univers Ω alors : E ( X+Y )=E ( X )+E ( Y ) E ( X−Y )=E ( X )−E ( Y ) Si de plus les variables aléatoires X et Y sont indépendantes alors : V ( X+Y )=V ( X )+V ( Y ) V ( X−Y )=V ( X )+V ( Y ) III. Variables aléatoires continues à valeurs réelles 1. Généralités Définition : La variable aléatoire X est dite continue lorsque X peut décrire tout un intervalle réel. Soit ]a ;b[ un intervalle, l'événement : « a<X<b » est alors l’ensemble des issues associées à un nombre appartenant à l’intervalle ]a ;b[. Exemple : on lance une boule de bowling puis on mesure, en bout de piste, la position de la boule par rapport au milieu 6/10 BTS CRSA UF3.1 de la piste. « -0,5<X<0,5 » : « X<-1 » = « 0<X<0,01 » : Définition : On définit la loi de probabilité continue de X lorsque pour tout intervalle I on connaît la valeur de P ( X ∈ I ) Propriété caractéristique : P(X☻Ë)=1 et pour tous intervalles I et J disjoints : P ( X ∈ I ∪ J ) = P ( X ∈ I ) + P ( X ∈ J ) y 2 Définition : une fonction f définie sur Ë est une densité de probabilité si et seulement si : +∞ pour tout x☻Ë, 0Âf(x) et ∫ f ( x) dx = 1 1 −∞ Exemple : la fonction définie par : ] f(x)=cos(2πx)+1 si x ∈ − 1 1 ; 2 2 [ f(x)=0 sinon -1 0 1 x Propriété : si la fonction f est une densité de probabilité, alors une loi de probabilité de la variable aléatoire X est donnée par : b P(a<XÂb)= ∫ f ( x )dx a Remarques : P(X=a)=0 P(a<X<b)=P(aÂX<b)=P(a<XÂb)=P(aÂXÂb) y 1 Définition : X étant une variable aléatoire, la fonction de répartition de X est la fonction définie sur Ë par : F(t)= P ( X Â t ) En particulier, si X est une variable aléatoire continue admettant la fonction f pour -1 t densité de probabilité alors la fonction de répartition de X est : F (t ) = ∫ 0 1 x f ( x )dx −∞ Exemples : pour la fonction f précédente : F ( t ) =… P ( a <X⩽b ) =F ( b )−F ( a ) F ( x) = 0 et lim F ( x) = 1 Propriété : si F est une fonction de répartition alors F est croissante sur Ë, xlim → −∞ x→ + ∞ Définition : si X est une variable aléatoire continue admettant la fonction f pour densité de probabilité alors : E( X ) = +∞ ∫ x × f ( x )dx V (X ) = −∞ +∞ ∫ ( x − E ( x) ) 2 × f ( x )dx −∞ Remarque : ces définitions sont analogues au cas des variables aléatoires discrètes en remplaçant le signe somme Σ par +∞ une intégrale ∫ ...dx et les probabilités p ( X=x i ) par la densité de probabilité f ( x ) . −∞ Propriété : soient a et b deux réels alors E ( aX +b )=aE ( X )+b et V ( aX +b )=a 2 V ( X ) 2. La loi normale Définition : soient deux réels m et σ>0 , une variable aléatoire suit la loi normale N ( m; σ 2) si et seulement si sa 1 t− m σ − ( 1 e 2 densité de probabilité est f ( x )= σ √2 π 2 ) 7/10 BTS CRSA UF3.1 Remarque : la loi N(0;1) est appelée loi normale centrée (car m=0 ) réduite (car σ=1 ), elle a donc pour densité de x2 1 −2 probabilité la fonction f définie sur ℝ par f ( x )= e √2π La fonction de répartition de la loi N(0;1) est donnée par des tables ou grâce à la calculatrice, ainsi pour évaluer x2 1 −2 P ( 1<X<2 ) =∫1 e dx : √ 2π sur une table il suffit de lire les valeurs de F(2) et F(1) puis d'évaluer F ( 2 )−F ( 1 )=… 2 sur TI : , , puis saisir 2 Pour une loi normale N ( m; σ ) , il est possible d'ajouter les deux arguments : normalcdf(a;b;m; σ ) sur casio : , , , , puis saisir 2 Pour une loi normale N ( m; σ ) , il est possible d'utiliser , , , , Pour inverser la fonction de répartition, c'est-à-dire pour par exemple déterminer x tel que P ( X<x ) =0, 975 : sur TI : , , puis saisir Pour une loi normale N ( m; σ 2 ) , il est possible d'ajouter les deux arguments : invNorm(p;m; σ ) sur casio : il est possible d'utiliser , , , , 2 Propriétés : si X suit une loi normale N ( m; σ 2) alors : E ( X )=m , V ( X )=σ et σ ( X )=σ Propriété : soient X une variable aléatoire suivant une loi normale N ( m; σ 2) et deux réels a≠0 et b . Alors la variable X−m aléatoire aX +b suit une loi normale N ( a×m+b ; a 2×σ 2 ) . En particulier la variable aléatoire T= suit la loi σ normale centrée réduite. 8/10 BTS CRSA UF3.1 Exemple : si X suit la loi normale N(3;4) alors la variable aléatoire X−3 suit la loi normale centrée réduite. 2 Propriétés : soient X et Y deux variables aléatoires indépendantes suivant respectivement la loi normale N ( m; σ 2) et la loi normale N ( m' ; ( σ ' )2 ) alors : la variable aléatoire X+Y suit la loi normale N ( m+m' ; σ 2+( σ ' )2) la variable aléatoire X−Y suit la loi normale N ( m−m' ; σ 2+( σ ' )2) 3. Approximations de lois utilisant la loi normale Théorème de la limite centrée : soient n variables aléatoires X 1 , X 2 , … X n indépendantes et suivant la même loi d'espérance m et d'écart-type σ . Si n est grand alors la loi normale N ( n×m; n×σ 2 ) est une bonne approximation de la loi de la variable aléatoire Sn=X 1+X 2+…X n . Ainsi pour S une variable aléatoire suivant la loi normale N ( n×m; n×σ 2 ) , si n est grand, on a pour tous réels a<b : P ( a<Sn<b )≈P ( a<S<b ) Application aux lois binomiales : soient n variables aléatoires X 1 , X 2 , … X n indépendantes de même loi telle que P ( X i =1 )= p et P ( X i =0 )=1− p alors E ( X i )= p et V ( X i )= p ( 1− p ) . Donc, en vertu du théorème de la limité centrée, si n est grand alors la loi normale N ( n× p; n× p×( 1− p ) ) est une bonne approximation de la loi de la variable aléatoire Sn qui en réalité suit une loi binomiale B ( n , p ) . X 1+X 2+…+X n la variable aléatoire égale à la moyenne des n n σ2 variables aléatoires X 1 , X 2 , … X n . Si n est grand alors la loi normale N m ; est une bonne approximation de la n loi de la variable aléatoire M n . 2 Ainsi pour M une variable aléatoire suivant la loi normale N m ; σ , si n est grand, on a pour tous réels a <b : n P ( a<M n<b )≈P ( a<M<b ) Corollaire : avec les hypothèses précédentes, soit M n= ( ( ) ) Application aux fréquences : On considère une population dont les éléments possèdent une certaine propriété avec une fréquence f . Soit la variable aléatoire F n qui, à tout échantillon aléatoire prélevé avec remise et d'effectif n fixé, associe la fréquence avec laquelle les éléments de cet échantillon possèdent cette propriété. La variable aléatoire n×Fn suit une loi binomiale B ( n ; f ) , donc : E ( n×F n )=n× f et V ( n×Fn )=n× f ×( 1− f ) D'où : E ( F n)= f et V ( F n )= f ×( 1− f ) f ( 1− f ) Pour n suffisamment grand, F n suit donc approximativement la loi normale N f ; . n ( 9/10 ) BTS CRSA UF3.1 Distribution d'échantillonnage asymptotique de la fréquence : 1 2 n−1 ; ;…; ;1 . n n n k Pour visualiser sous forme d'aire cette loi de probabilité, chaque rectangle centré sur un nombre du type avec n 1 k k ∈ { 0 ; 1;⋅; n } possède une base de largeur et une aire égale à P F n= . n n { Remarque : La variable aléatoire F n est discrète et prend ces n+1 valeurs dans l'ensemble 0 ; ( 10/10 } ) BTS CRSA UF3.1