Probabilités : Rappels de première 1 Variable aléatoire Définition 1 : Variable aléatoire Soit Ω l’univers d’une expérience aléatoire. On appelle variable aléatoire toute fonction X de Ω dans R qui, à tout élément de Ω , fait correspondre un nombre réel x. Exemple 1 : Par exemple le gain obtenu à l’occasion d’un jeu de hasard ou encore le temps d’attente d’un bus. Définition 2 : Loi de probabilité d’une variable aléatoire Soit Ω = {ω1 ; ω2 ; . . . ; ωn } un univers associé à une expérience aléatoire sur lequel a été définie une loi de probabilité et Ω′ = {x1 ; x2 ; . . . ; xn } l’ensemble des valeurs prises par une variable aléatoire X. La loi de probabilité de X est la fonction définie sur Ω′ , qui à chaque xi fait correspondre le nombre pi = p(X = xi ). On la représente en général dans un tableau : xi p(X = xi ) x1 p1 = p(X = x1 ) x2 p2 = p(X = x2 ) ... ... xn pn = p(X = xn ) Exemple 2 : On tire une carte d’un jeu de 32 cartes. Si l’on tire un coeur, on gagne 8 e, sinon, on perd 4 e. Ω est l’ensemble des 32 cartes et on peut définir la variable aléatoire x −4 8 X sur Ω qui, à chaque carte associe le gain. La loi de X est i 3 1 p(X = xi ) 4 4 Définition 3 Espérance, variance, écart-type L’espérance mathématique, la variance et l’écart-type de la variable aléatoire X sont respectivement les nombres : P E(X) = pP = ni=1 pi xi 1 x1 + p 2 x2 + · · · + p n xn P V (X) = p ni=1 pi )(xi − E(X))2 = ni=1 pi )x2i − E(X)2 σ(X) = V (X) Exemple 3 Dans l’exemple 2, l’espérance de X est E(X) = 34 × (−4) + 14 × 8 = 1. Cela veut dire que le gain moyen à ce jeu stupide est de 1 e. C’est un jeu favorable au joueur Le signe de E(X) permet donc de savoir si le joueur a plus de chances de gagner que de perdre. Si E(X) = 0, on dit que le jeu est équitable. L’écart-type de X permet, lui, d’évaluer le "risque" du jeu : plus l’écart-type est grand plus le risque de perdre ou de gagner est important. 1 2 Loi binomiale 2.1 Loi de Bernoulli Définition 4 On appelle épreuve de Bernoulli de paramètre p toute épreuve aléatoire admettant exactement deux issues : – l’une appelée succès dont la probabilité d’apparaître est p ; – l’autre appelée échec dont la probabilité d’apparaître est 1 − p. La loi de Bernoulli est donc résumée dans le tableau suivant (on note 0 l’échec et 1 le succès) : xi 0 1 p(X = xi ) 1 − p p On dit que la variable aléatoire X suit une loi de Bernoulli de paramètre p et on note X ∼ B(p). Exemple 4 : – Lancer d’une pièce de monnaie équilibrée, avec pour issues contraires PILE (probabilité p = 12 ) et FACE (probabilité q = 1 − p = 21 ). – Tirage d’une boule contenant 70 boules blanches et 30 boules rouges, avec pour issues contraires : – S : tirer une boule blanche (p = 0, 7) – E = S : tirer une boule rouge (q = 0, 3) 2.2 Loi binomiale Définition 5 On appelle schéma de n épreuves de Bernoulli de paramètre p toute expérience aléatoire consistant à répéter n fois de manière indépendante une épreuve de Bernoulli de paramètre p. Un résultat d’une telle expérience est une liste de n issues (SE. . .SSE). La variable aléatoire X à valeurs dans {0, 1, 2 . . . n} associant à chaque issue le nombre de succès suit la loi binomiale de paramètres n et p notée B(n, p) Propriété 1 Si X suit une loi binomiale de paramètres n et p on a : n k p(X = k) = p (1 − p)n−k , k ∈ {0; 1; 2; . . . ; n} k Remarque 1 Les nk appelés coefficients binomiaux se calculent à l’aide de la calcula trice. Par exemple, pour calculer 42 sur Casio, on tape OPTN puis PROB puis 4 puis nCr puis 2. On trouve 42 = 6 Exercice : Un Q.C.M comporte 4 questions offrant chacune 3 réponses possibles (une seule étant juste). On répond complètement au hasard. Quelles sont les probabilités : 1. d’obtenir 2 réponses exactes ? 2. d’obtenir la moyenne ? 2