Probabilités : variables aléatoires C. Charignon Table des matières I Cours 2 1 Vocabulaire 2 2 Caractéristiques d’une loi 2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 3 Plusieurs variables aléatoire 3.1 Lois conjointes et marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 8 4 lois 4.1 4.2 4.3 II usuelles loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices 8 8 9 10 12 1 Révisions de probabilités 1 2 Espérance 1 3 Variance 3 4 Couple de variables aléatoires 5 5 Lois usuelles 6 1 Première partie Cours 1 Vocabulaire Définition 1.1. Une variable aléatoire sur l’univers Ω est une application dont l’ensemble de départ est Ω. Lorsque l’ensemble d’arrivée est inclus dans R, on dit que X est une variable aléatoire réelle. Exemple: On lance deux dés de 6. On choisit de modéliser l’expérience à l’aide de l’univers Ω = J1, 6K × J1, 6K muni de la probabilité uniforme. Ω → N La somme des deux résultats obtenus sera alors modélisé par la variable aléatoire S : . (a, b) 7→ a + b On va suivre le vocabulaire de cette partie sur cet exemple. Dans la suite, fixons X une variable aléatoire et E son ensemble d’arrivée. Ainsi X(Ω), l’image de X est l’ensemble des valeurs atteintes par X. Dans notre exemple, E = N et S(Ω) = J2, 12K. Soit n ∈ E. L’ensemble des antécédents de n par X se note normalement X <−1> ({n}). Il s’agit de l’ensemble des configurations de l’univers qui mène à ce que X prenne la valeur n. Comme c’est une partie de Ω, c’est un événement. Nous le noterons « X = n ». Et donc sa probabilité sera notée P (X = n). Dans notre exemple, l’événement S = 9 correspond à la partie de Ω suivante : {(3, 6), (4, 5), (5, 4), (6, 3)}. 1 4 = . Et donc P (S = 9) = 36 9 Plus généralement, pour tout A ∈ P(E), X <−1> (A) = ω ∈ Ω | X(ω) ∈ A correspond à l’événement X ∈ A. Sa probabilité est notée P (X ∈ A). Dans l’exemple, calculons P (S ∈ {2, 4, 6, 8, 10, 12} (qu’on peut noter P (S est pair )). Proposition 1.2. L’application Définition 1.3. L’application P(E) → [0, 1] est une mesure de probabilité sur E. A 7→ P (X ∈ A) P(E) → A 7→ [0, 1] s’appelle la loi de X, et se note PX . P (X ∈ A) N.B. Si on connaît PX , on peut déduire tout ce dont on a besoin sur X. L’univers Ω et sa mesure de probabilité deviennent inutiles. On évite ainsi la partie fastidieuse de modélisation. C’est le point de vue de nombreux exercices. Dans notre exemple, on aurait pu aussi modéliser le lancer de deux dés par l’univers Ω0 = J2, 12K avec la mesure de probabilité P 0 adéquate. On obtiendrait une autre variable aléatoire S mais qui aura la même loi de probabilité. Tous les calculs concernant cette somme des deux résultats des deux dés seront alors identique, que l’on utilise Ω ou Ω0 . Concrètement lorsqu’on demande de donner la loi de X, il faut : 1. Déterminer les valeurs prises par X (formellement X(Ω)) 2. Et donner la probabilité pour chacune de ces valeurs. Il est inutile de donner la probabilité de chaque événement P (X ∈ A), pour A ∈ P(X(Ω)), car on a toujours la formule : X P (X = A) = P (X = a). a∈A 2 2 Caractéristiques d’une loi Fixons une variable aléatoire X, sa loi est donc notée PX . On suppose que X est à valeurs réelles, i.e. X : Ω → R. 2.1 Espérance Définition 2.1. On appelle l’espérance de X, et on note E(X) le nombre suivant : X E(X) = P (X = n) × n n∈X(Ω) Il s’agit de la valeur moyenne que peut prendre X. La formule est intuitive : on prend toutes les valeurs possibles, et on pondère par la probabilité que X prenne cette valeur : plus une valeur n est prise fréquemment, plus elle sera comptée avec un fort coefficient. Intuitivement, si on répète la même expérience aléatoire un grand nombre de fois, si on note X1 , X2 , X2 , . . . les résultats obtenus à chacune des expériences, on aura : X1 + X2 + . . . Xn n→∞ n E(X) = lim E(X) est bien la moyenne des résultats obtenus, lorsque le nombre d’expérience tend vers ∞. La formalisation rigoureuse, et la preuve, de la formule ci-dessus ne sont pas au programme de la première année. cf exercice: 6 Proposition 2.2. Soit Y une autre VA sur Ω. 1. linéarité : soit λ ∈ R, alors E(X + λ.Y ) = E(X) + λE(y) 2. croissance : si X 6 Y (i.e. ∀ω ∈ Ω, X(ω) 6 Y (ω)), alors E(X) 6 E(Y ). Remarque : L’espérance a les mêmes propriétés que l’intégrale. Dans une théorie plus générale, on verrait que l’espérance est une intégrale. cf exercice: 14 La preuve est plus difficile qu’il n’y parait ! Lemme 2.3. E(x) = X P (ω) × X(ω) ω∈Ω N.B. Dans les exemples pratiques, on connaît rarement Ω, et donc ce lemme est peu utile. Il sert plutôt pour des question théoriques. Démonstration: Soit k ∈ N et n1 , . . . , nk ∈ Rk tels que X(Ω) = {n1 , . . . , nk }. (Les valeurs possibles pour X sont n1 , . . . nk .) Notons encore pour tout i ∈ J1, kK Ai l’événement « X = ni ». N.B. En toute rigueur, cette notation est inutile, on pourrait rester avec la notation X = ni , et écrire des formules du genre « ω ∈ (X = ni ) ». C’est tout de même un peu bizarre... A1 , . . . , Ak forme alors un système complet d’événements pour Ω. Le principe est maintenant simple : on découpe la somme X en k sommes, une pour chacun des Ai : ω∈Ω X ω∈Ω P (ω) × X(ω) = X P (ω) × X(ω) ω∈A1 + ··· + X ω∈Ak 3 P (ω) × X(ω) = X P (ω) × n1 + ··· + ω∈A1 = = X P (ω) × nk ω∈Ak P (A1 ) × n1 + · · · + P (Ak ) × nk E(X) Une fois le lemme acquis, la proposition est facile. Définition 2.4. Soit f : R → R. La variable aléatoire f ◦ X est aussi notée f (X). Proposition 2.5. (théorème du transfert) Soit f : R → R. Alors : E(f (X)) = X f (n) × P (X = n) n∈X(Ω) Remarque : Plus généralement, ceci vaut dès que f est une fonction définie sur X(Ω). Démonstration: On reprend les notations du lemme : E(f (X)) = X f (X(ω)) × P ({ω}) ω∈Ω = = X X ω ∈ A1 f (n1 ) × P ({ω}) + · · · + f (n1 ) × P (A1 ) + . . . f (nk ) × P (Ak ) ω ∈ Ak f (nk ) × P ({ω}) Exemple: Un jeu se joue entre deux joueurs A et B et consiste à lancer deux dés de 6. Notons S la somme des deux résultats, le joueur A donne alors au joueur B (S − 7)3 euros. Préferez-vous être le joueur A ou le joueur B ? 2.2 Variance et écart-type La variance permet de mesurer en moyenne de combien X s’éloigne de sa moyenne E(X). Définition 2.6. La variance de X est : X (n − E(X))2 n∈X(Ω) on la note V (X). p On appelle écart-type le nombre σ(X) = V (X). X Remarque : La formule |n − E(X)| aurait été tout aussi plausible pour mesurer l’écart entre X et sa n∈X(Ω) moyenne... On utilise cependant plus souvent la variance définie ci-dessus. Un argument est que cette formule est semblable à celle utilisée en géométrie euclidienne pour ||X − E(X)||2 . Et alors on σ(X) = ||X − E(X)||. On peut écrire : E(X) = E((X − E(X))2 ) d’où : E(X) = E(X 2 − 2X.E(X) + E(X)2 ) 4 = = E(X 2 ) − 2E(X).E(X) + E(X 2 ) E(X 2 ) − E(X)2 linéarité Cette dernière formule est souvent plus simple à calculer que celle de la définition. Remarque : On sait que la variance est positive, donc E(X 2 ) > E(X)2 , ce qui n’était pas évident de prime abord. X Remarque : Si on définit pour tout (X, Y ) ∈ F(Ω, R)2 , X | Y = X(ω)Y (Ω)P ({ω}), on obtient quaω∈Ω siment un produit scalaire (seule la séparation n’est pas complètement vraie : on obtient que X | X = 0 ⇒ P (X = 0) = 1 : on dit que X est presque sûrement nulle). Et alors V (X) = ||X − E(X)||2 , et σ(X) = ||X − E(X)|| : c’est la distance euclidienne entre X et sa moyenne. Pour le lien vis-à-vis des opérations, nous avons facilement la propriété suivante. Par contre, la variance d’une somme (et pire : d’un produit) n’est pas évidente... Proposition 2.7. Soit X une variable aléatoire réelle et (a, b) ∈ R2 . Alors : V (aX + b) = a2 V (X) et donc : σ(aX + b) = |a|σ(X). La formule suivante montre que la variance permet de savoir de combien en moyenne la variable aléatoire s’éloigne de son espérance : Proposition 2.8. (Bienaymé-Chebychev) Soit X une variable aléatoire réelle et δ ∈ R+∗ . Alors : P (|X − E(X)| > δ) 6 1 V (X) δ2 Ainsi, plus la variance est petite, et plus la probabilité que X soit proche de son espérance est faible. Remarque : et donc aussi, en passant à l’événement contraire : P (|X − E(X)| < δ) > 1 − 1 V (X). δ2 qui est souvent ce qui nous intéresse le plus. Une remarque supplémentaire : cette inégalité est en fait très peu précise... Démonstration: Il s’agit de minorer la la variance, i.e. d’obtenir une inégalité de type « V (X) > ... ». Nous allons naturellement découper la somme qui définit la variance en la partie pour laquelle |X − E(X)| > δ et la partie pour laquelle |X − E(X)| < δ. Par définition : V (X) = X (n − E(x))2 .P (X = n) n∈X(Ω) Mais les éléments n ∈ X(Ω) se répartissent en deuxnparties disjointes : ceux pour |n − E(x)| 6 δ et ceuxo o lesquels n pour lesquels |n−E(x)| > δ. En termes précis : X(Ω) = n ∈ X(Ω) |n − E(x)| 6 δ t n ∈ X(Ω) |n − E(x)| > δ (union disjointe). On peut donc découper la somme en deux parties : V (X) = X (n − E(x))2 .P (X = n) n∈X(Ω) tq |n−E(x)|6δ + X n∈X(Ω) tq |n−E(x)|>δ 5 (n − E(x))2 .P (X = n) X > = (δ)2 .P (X = n) +0 n∈X(Ω) tq |n−E(x)|6δ 2 δ P (|X − E(x)| 6 δ cf exercice: 29 3 Plusieurs variables aléatoire 3.1 Lois conjointes et marginales Dans ce paragraphe, on étudie plusieurs variables aléatoires en même temps. Définition 3.1. Soient X et Y deux variables aléatoire. On appelle la loi conjointe de X et Y la loi du couple (X, Y ). En pratique on donne souvent la loi conjointe de (X, Y ) sous forme d’un tableau. (voir l’exercice 22.) La somme de tous les coefficients du tableau doit valoir 1. Il est facile de retrouver la loi de X et la loi de Y : il suffit de sommer les coefficients de la ligne ou de la colonne correspondante... Proposition 3.2. Soient X et Y deux variables aléatoires. X 1. Pour tout n ∈ X(Ω), P (X = n) = P (X = n et Y = j) j∈Y (Ω) 2. Pour tout m ∈ Y (Ω), P (X = n) = X P (X = i et Y = m) i∈X(Ω) Démonstration: Soit n ∈ X(Ω). La famille d’événements (´ Y = j et X = n ˇ)j∈Y Ω est une partition de l’événement « X = n », d’où : X P (X = n) = P (Y = j et X = n) j∈Y (Ω) Idem pour la seconde égalité. Par contre, il est important de noter que de connaître les lois de X et Y ne permet pas de retrouver la loi de (X, Y ), sauf dans le cas où X et Y sont indépendants, comme on va le voir ci-dessous. Voir l’exercice 23. 3.2 Indépendance Définition 3.3. Soient X et Y deux variables aléatoire. On dit qu’elles sont indépendantes lorsque pour tout (n, m) ∈ X(Ω) × Y (Ω), P (X = n et Y = m) = P (X = n) × P (Y = m) N.B. Si X et Y sont indépendantes, on retrouve facilement la loi conjointe. Exemple: Jouons aux petits chevaux. On a deux dés pour faire avancer deux petits chevaux sur un plateau. Nous noterons X la VAR représentant le nombre de cases dont avance le premier cheval, et Y celle du second. Donnons la loi conjointe de X et Y , avec les deux règles suivantes : 1. on lance deux dés de manière indépendante. 2. Deuxième variante : on lance un seul dé, et les deux chevaux avancent chacun du même nombre de cases. 6 Tous les événements pouvant être définis à partir de X sont alors indépendants de tous les événements définis à partir de Y : Théorème 3.4. Soient X et Y deux variables aléatoires réelles indépendantes. Alors pour tout A ∈ X(Ω) et B ∈ Y (Ω), P (X ∈ A et Y ∈ B) = P (X ∈ A) × P (Y ∈ B) Démonstration: Soit A ∈ X(Ω) et B ∈ Y (Ω). Pour tout n ∈ A et m ∈ B, notons Zn,m l’événement « X = n et Y = m ». Alors les événements (Zn,m )n∈A,m∈B forment une partition de l’événement « X ∈ A et Y ∈ B ». D’où : P (X ∈ A et Y ∈ B) = XX P (Zn,m ) n∈A m∈B = XX P (X = n et Y = m) n∈A m∈B = XX P (X = n) · P (Y = m) car X et Y sont indépendantes n∈A m∈B = X P (X = n) × n∈A = X P (X = n)P (Y = m) m∈B P (X ∈ A) × P (Y ∈ B) Et dans le même ordre d’idées, toute variable aléatoire définie à partir de X est indépendante de toute variable aléatoire définie à partir de Y : Proposition 3.5. Soient X et Y deux variables aléatoires réelles indépendantes. Alors pour tout (f, g) ∈ F(R, R)2 , f (X) et g(Y ) sont indépendantes. Théorème 3.6. Soient X et Y deux variables aléatoires indépendantes. Alors : E(X × Y ) = E(X) × E(Y ) Démonstration: Commençons par calculer E(X) × E(Y ) : X X E(X) × E(Y ) = nP (X = n) × mP (Y = m) = n∈X(Ω) X X m∈Y (Ω) nmP (X = n)P (Y = m) i∈X(Ω) j∈Y (Ω) = X X nmP (X = n et Y = m) car X et Y sont indépendantes i∈X(Ω) j∈Y (Ω) Calculons d’autre part E(X × Y ). On repart de la formule qui somme sur Ω (lemme 2.3) : E(X × Y ) = X X(ω).Y (ω).P ({ω}) ω∈Ω Or la famille d’événements (X = n et Y = m)n∈X(Ω),m∈Y (Ω) est une partition de Ω, on peut donc découper la somme sur Ω en une somme de sommes sur chacun : en notant pour tout (n, m) ∈ X(Ω) × Y (Ω), Fde ces événements F En,m l’événement « X = n et Y = m ˇ, on a Ω = n∈X(Ω) m∈Y (Ω) En,m et donc : E(X × Y ) = X X X X(ω)Y (ω)P ({ω}) n∈X(Ω) m∈Y (Ω) ω∈En,m = X X n∈X(Ω) m∈Y (Ω) 7 nm X ω∈En,m P ({ω}) X = X nmP (En,m ) n∈X(Ω) m∈Y (Ω) on retrouve le même résultat que ci-dessus. Remarque : La réciproque est fausse : il est possible que E(X · Y ) = E(X) × E(Y ) sans que X et Y soient indépendantes. cf exercice: 18 Exercice : Soient X, Y deux variables aléatoires indépendantes. Montrer que V (X + Y ) = V (X) + V (Y ). Remarques : • Si X = Y (donc X et Y ne sont pas indépendantes, sauf si elles sont constantes), alors V (X + Y ) = V (2X) = 4V (X) : on voit bien la formule de l’exercice n’est plus valable. 3.3 Indépendance mutuelle Bien entendu, on peut définir l’indépendance entre plus que deux variables : Définition 3.7. Soient n ∈ N∗Q , X1 , . . . , Xn n VA sur Ω. On dit qu’elles sont mutuellement indépendantes n lorsque pour tout (x1 , ..., xn ) ∈ i=1 Xi (Ω), P (X1 = x1 et X2 = x2 et ... et Xn = xn ) = n Y P (Xi = xi ) i=1 N.B. Définition beaucoup plus simple que l’indépendance mutuelle des événements ! Il n’y a pas à vérifier la formule pour toute sous-famille de (X1 , ..., Xn ). Théorème 3.8. Soient n ∈ N∗ , X1 , . . . , Xn n variables aléatoires mutuellement indépendantes sur Ω. Alors pour tout (A1 , ..., An ) ∈ P(R)n , les événements X1 ∈ A1 , . . . , Xn ∈ An sont mutuellement indépendants. (démonstration hors programme) 4 lois usuelles On présente les lois les plus simples que peuvent suivre une variable aléatoire. 4.1 loi uniforme Définition 4.1. Soit X une variable aléatoire. Soit n ∈ N∗ . On dit que X suis la loi uniforme sur J1, nK si • X(Ω) = J1, nK, 1 • et PX est la probabilité uniforme sur J1, nK. (i.e. pour tout i ∈ J1, nK, P (X = i) = .) n On note alors X U(n). Exemple typique : lancer d’un dé à n faces. Proposition 4.2. Soit n ∈ N∗ et X suivant la loi U(n). Alors E(X) = n n X 1 1 X n+1 i. = . i= n n i=1 2 i=1 8 Très facile à retenir : c’est la moyenne entre les deux valeurs extrêmes. Remarque : et la variance est : V (X) = E(X 2 ) − E(X)2 = n X i2 . i=1 n X (n + 1)2 1 n(n + 1)(2n + 1) (n + 1)2 n2 − 1 1 − = . − = n 4 n 6 4 12 n(n + 1)(2n + 1) . 6 i=1 Mais la formule pour la variance n’est pas à connaître, seulement celle de l’espérance. Rappel : i2 = Exemple: Dans un jeu on lance un dé de 4 faces et un dé de 6 faces, on avance du résultat du dé de 4 et on recule du résultat du dé de 6. De combien de cases avance-t-on en moyenne ? Quelle est la variance ? 4.2 Bernoulli Définition 4.3. Soit X une variable aléatoire. Soit p ∈ [0, 1].On dit que X suit la loi de Bernoulli de paramètre p si : • X(Ω) = {0, 1} (seulement deux valeurs possibles qui sont 0 et 1), • et P (X = 1) = p. On note X B(p). Remarques : • Autrement dit, une variable aléatoire X suit une loi de Bernoulli si et seulement si elle ne prend que les valeurs 0 ou 1. Et alors le paramètre p est égal à P (X = 1). • Immédiatement, P (X = 0) = 1 − p. Ce nombre est souvent noté q. Exemple: On lance une pièce. Soit X la variable aléatoire qui vaut 1 si on a fait pile, 0 sinon. Alors X suit la loi de Bernoulli de paramètre 1/2. Plus généralement, toute situation où deux résultats sont possibles (succès ou échec) peut être modélisée par une VA suivant la loi de Bernoulli. Proposition 4.4. On suppose que X suit la loi de Bernoulli de paramètre p. Alors : 1. E(X) = p 2. V (X) = p.(1 − p) et donc σ(X) = p p(1 − p). Exercice : pour quelle valeur de p est-ce que la variance est minimale ? Un cas particulier où on obtient une loi de Bernoulli est la suivante : Définition 4.5. Soit A ∈ P(Ω) un événement. On définit alors la variable aléatoire : Ω → 1A : ω 7→ {0, 1} 1 si ω ∈ A 0 sinon Autrement dit, 1A prend la valeur 1 si l’événement A est réalisé, et la valeur 0 sinon. Avec les notations de la définition, 1A suit la loi de Bernoulli de paramètre p = P (1A = 1) = P (A). Son espérance est donc P (A) et sa variance P (A).P (Ā). N.B. Dès qu’une variable aléatoire n’a que deux valeurs possibles, on peut se ramener à une variable aléatoire de Bernoulli. 9 Par exemple imaginons un QCM où une bonne réponse rapporte 2 points et une mauvaise réponse en fait perdre 3. Soit X la variable aléatoire du nombre de points gagnés à la question par un candidat répondant au hasard. Donc X(Ω) = {2, −3}. En notant k le nombre de réponses possibles, et en supposant qu’il y a k−1 1 . une et une seul bonne réponse à la question, on a P (X = 2) = et P (X = −3) = k k On peut se ramener à une variable aléatoire suivant une loi de Bernoulli ainsi : posons Y la variable aléatoire qui vaut 1 si la réponse est bonne et 0 sinon. Alors : X = 5.Y − 3 On obtient alors immédiatement espérance et variance : E(X) = E(5Y − 3) = 5E(Y ) − 3 = 5. 1 −3 k 1 k−1 V (X) = V (5.Y − 3) = 25.V (Y ) = 25. . k k Bien entendu, ici il était extrêmement simple de calculer E(X) et V (X) à la main ! L’intérêt de cette méthode apparaît lorsqu’on étudie de nombreuses variables aléatoires de Bernoulli, par exemple lorsqu’on étudie l’espérance de l’élève sur le devoir entier contenant 20 questions de QCM. C’est l’objet du paragraphe suivant. Voir l’exercice cf exercice: 29 pour un autre exemple d’application de cette méthode. 4.3 Loi binomiale Définition 4.6. Soit (p, n) ∈ N2 . Soit X une variable aléatoire. On dit qu’elle suit la loi binomiale de paramètres (p, n), et on note X B(n, p) lorsque X(Ω) = J0, nK et ∀k ∈ J1, nK, ! n k P (X = k) = p .(1 − p)n−k . k ! n X n k Remarque : On a p .(1 − p)n−k = (p + 1 − p)n = 1. Donc la formule ci-dessus définit bien une loi de k k=0 probabilité sur J1, nK. Donc il est possible de trouver des variables aléatoires suivant cette loi. En particulier, ce nombre est toujours inférieur à 1 : rien que ça n’était pas évident dans la formule. Théorème 4.7. Soit n ∈ N∗ , soient X1 , . . . , Xn n variables aléatoires mutuellement indépendantes suivant une loi de Bernoulli de paramètre p. n X Alors la somme Xi suit la loi binomiale de paramètre (n, p). k=1 Démonstration: n X Notons S = Xi . Il est déjà clair que la valeur minimale de S est 0 (si tous les Xi valent 0), et que la valeur i=1 maximale est n (si ils valent tous 1). Comme enfin S prend des valeurs entières, on a bien S(Ω) = J1, nK. Soit maintenant k ∈ J0, nK, calculons P (S = k). En gros : La variable aléatoire Sprend la valeur S lorsque exactement k des Xi prennent la valeur 0, les autres n prenant la valeur 1. Or il y a choix possibles pour les Xi qui vont prendre la valeur 1. k Pour tout A ∈ Pk (J1, nK), notons BA l’événement : « ∀i ∈ A, Xi = 1 et ∀i ∈ J1, nK \ A, Xi = 0 ». Formellement, ceci s’écrit : \ \ BA = (Xi = 1) ∩ (Xi = 0) i∈A i∈J1,nK\A 10 et comme les variables aléatoires X1 , . . . , Xn sont indépendantes, Y P (BA ) = i∈A Enfin, la famille E(A) A∈Pk (J1,nK) P (Xi = 0)pk .(1 − p)n−k . i∈J1,nK\A est une partition de l’événement « S = k ». Donc : X P (S = k) = Y P (Xi = 1) × X P (BA ) = A∈Pk (J1,nK) k n−k p .(1 − p) = n pk .(1 − p)n−k k A∈Pk (J1,nK) Remarque : Bien noter que les Xi doivent être mutuellement indépendantes. Remarque : Dans le cas p = 1/2, les résultats les plus fréquents pour la loi binomiale sont les!valeurs ! n n moyennes de k, aux alentours de n/2. Par ailleurs, on sait que ∀k ∈ J1, nK, = , d’où k n−k P (X = k) = P (X = n − k) (toujours dans le cas où p = 1/2). Proposition 4.8. Soit X une variable aléatoire suivant la loi B(n, p). Alors : • E(X) = np • V (X) = np.(1 − p) Démonstration: Soient X1 , . . . , Xn n variables aléatoires indépendantes. Notons S = n X Xi . Alors S suit la loi binomiale B(n, p), i=1 tout comme X, et donc S et X ont la même espérance et variance. 1. Direct, par linéarité de l’espérance. n X E(X) = E(S) = E( Xi ) = i=1 n X E(Xi ) = i=1 n X p = np i=1 2. V (X) = V( n X 2 2 n n X X Xi Xi − E Xi ) = E i=0 i=1 i=0 n n X X Xi .Xj − (np)2 = E i=0 j=1 = n n X X E(Xi .Xj ) − n2 p2 i=0 j=1 Ici il faut faire attention. Pour tout (i, j) ∈ J1, nK2 , les variables aléatoires Xi et Xj sont indépendantes, sauf si i = j ! Donc nous allons séparer la somme en 2 : la partie pour laquelle i = j et la partie pour laquelle i 6= j. E(X) = n X E(Xi .Xi ) + X i=0 = = n X i6=j + X i=0 i6=j n X E(Xi2 ) + X i=0 E(Xi .Xj ) − n2 p2 E(Xi2 ) E(Xi ).E(Xj ) − n2 p2 car ∀(i, j) ∈ J1, nK2 tq i 6= j, Xi et Xj sont indépendantes p2 − n2 p2 i6=j 11 Pour la première somme, remarquons que pour tout i ∈ J1, nK, Xi2 = Xi . En effet, ∀ω ∈ Ω, Xi (ω) = 0 ou 1, donc dans tous les cas, Xi (ω)2 = Xi (ω). Pour la seconde somme : on somme un terme constant, il faut juste savoir combien de terme il y a. Le nombre de couples (i, j) ∈ J1, nK2 tels que i 6= j est n(n − 1) (n choix pour i, puis n − 1 choix pour j, c’est le nombre de manière de choisir deux nombres distincts, avec ordre, parmi n.) Finalement : E(X) = n X E(Xi ) + n(n − 1)p2 − n2 p2 i=0 = = np + n(n − 1)p2 − n2 p2 np(1 + (n − 1)p − np) = np(1 − p) Remarque : Traditionnellement, on note q = 1 − p, la formule est alors V (X) = npq. Exemple: Une puce avance le long d’une droite. Chaque seconde, elle peut faire un bond en avant de 10cm, ou se reposer. La probabilité d’avancer est de 2/3, celle de se reposer est de 1/3. On suppose que le choix se fait à chaque seconde de manière indépendante. Calculons la distance moyenne parcourue au bout de n seconde. cf exercice: 29 Exemple: Reprenons le QCM de la partie précédente. On suppose maintenant que le devoir contient 20 questions, et que le candidat répond au hasard, et de manière indépendante, à chacun des question. On note pour tout i ∈ J1, 20K Xi la variable aléatoire donnant les points obtenus à la ième question. La note finale 20 X est donc Xi . i=1 Et l’hypothèse d’indépendance semble signifier que X1 , . . . , Xn sont mutuellement indépendantes. Deuxième partie Exercices 12 Exercices : probabilités 1 Révisions de probabilités Exercice 1. ** ! Dénombrement : un exemple de chaque type d’univers Pour chacune des questions suivantes, identifier le type de tirage (l’ordre compte-t-il ? Les répétitions sont-elles autorisées ?), écrire l’univers et son cardinal, et calculer la probabilité demandée. 1. Une mille-patte a 2000 chaussettes de chacune des couleurs suivantes : rouges, vertes, bleues, jaune. Quelle est la probabilité que ses chaussettes soient assorties ? Même question pour ses chaussures. N.B. Les chaussures gauche et droite ne sont pas interchangeables. 2. M. H. a corrigé n copies. On suppose pour simplifier les notes obtenues deux à deux distinctes. Soit k ∈ J0, nK. Quelle est la probabilité que les k premières copies aient été les k meilleures ? 3. (*) Mme P. mange des tartines de confiture de fraise, rhubarbe, ou groseille. Quelle est la probabilité que la première tartine soit à une confiture de fruit rouges et la troisième soit à la groseille ? 4. (***) Mme O. envoie n SMS à ses k contacts. Quelle est la probabilité que chaque contact ait reçu un message ? Qu’obtient-on lorsque n → ∞ ? Exercice 2. ** probabilités conditionnelles, et suite récurrente double (HEC) On considère trois compagnies de téléphonie. A l’année initiale, elles ont chacune 1/3 du marché. Chaque changement d’année, • Les clients de A se répartissent de manière équiprobable entre A et B et C • Les clients de B restent fidèles à B 7 1 , chez B avec probabilité ou reste chez C. • Les clients de C partent chez A avec probabilité 12 12 On considère un possesseur de téléphone. On note pour tout n ∈ N, an , respectivement, bn , cn la probabilité qu’il soit abonné à la compagnie A, respectivement B, C au bout de n années. 1) Pour tout n ∈ N, déterminer la relation de récurrence entre an , bn , cn et an+1 , bn+1 , cn+1 . 2) En déduire une formule donnant an , bn , cn en fonction de n. On pourra identifier une relation de récurrence double sur les suites a et c. 3) Déterminer limn→∞ an , limn→∞ bn et limn→∞ cn . Interprétation ? Exercice 3. *** Mme D. fait les soldes (formule de Bayes) Un magasin de vêtements propose n articles. Chaque article a une probabilité 12 d’être à paillettes. Un vêtement à paillettes a une probabilité p1 d’être acheté par Mme D, un vêtement sans paillettes une probabilité p2 . Mme D n’a pas de limite quand au nombre de vêtements qu’elle achète. 1. Calculer la probabilité que Mme D achète tous les habits du magasin. 2. Qu’obtient-on lorsque p2 = 0 ? Est-ce cohérent ? 3. Si Mme D a acheté tous les habits du magasin, quelle est la probabilité qu’ils soient tous à paillettes ? 4. Encore une fois, vérifier que la formule obtenue lorsque p2 = 0 est cohérente. Interpréter également le cas où p1 = p2 . 2 Espérance Exercice 4. * dé truqué On utilise un dé tel que la probabilité de chaque face est proportionnel au nombre indiqué sur cette face. On note X la variable aléatoire donnant le résultat du dé. Calculer la loi de X, puis son espérance. 1 Exercice 5. * divers lancés de dés Dans un jeu de société, vous avez le choix de lancer un dé de 12, ou deux dés de 6, ou trois dés de 4, ou un dé de 8 et un dé de 4. 1) Vous faites la somme des résultats de chaque dé. Que faut-il choisir pour espérer un résultat le plus grand possible ? 2) Maintenant, vous devez faire 11 ou 12 pour gagner. Que faut-il alors choisir ? 3) Calculer la variance dans chacun des trois cas. Faire le lien avec la question précédente. 4) ON vous offre également la possibilité de lancer un seul dé de 6 mais de multiplier le résultat par 2. Qu’en pensez-vous ? Exercice 6. ** ! Un jeu équilibré Deux joueurs A et B fixent deux réels (α, β) ∈ (R+ )2 puis jouent aux dès selon les règles suivantes : Chacun lance un dé puis : • Si A obtient plus que B, B lui donne αeuros. • Si B obtient plus que A, A lui donne βeuros. • En cas d’égalité, c’est A qui gagne, donc B lui donne α euros. A quelle condition sur α, β le jeu est-il « juste » ? Exercice 7. ** Exemple simple de loi On lance une pièce. Si on fait pile on marque deux points, sinon un seul point. On note X la variable aléatoire donnant le nombre de lancer lis pour atteindre ou dépasser 5 points. Calculer la loi de X, son espérance et sa variance. Exercice 8. ** autre exemple simple de loi On dispose de trois verres opaque. On cache une bille sous l’un de ces verres. On retourne l’un après l’autre les verres jusqu’à trouver la bille, on note X la variable aléatoire qui représente le nombre de verres retournés. Déterminer loi, espérance, et variance de X. Exercice 9. ** ouvrir une porte en essayant les clés au hasard, le retour M. X veut ouvrir une porte mais a oublié quelle est la bonne clé. Il utilise donc l’une après l’autre, au hasard, chacune des clés à sa disposition. On note n le nombre de clés dont il dispose. On suppose qu’il y a une et une seule bonne clé, et que M. X n’essaie jamais deux fois la même clé. On note X la variable aléatoire donnant le nombre de tentatives nécessaires pour ouvrir la porte. Déterminer la loi de X, son espérance et sa variance. Exercice 10. ** exemple de loi hypergéométrique Une mère cannibale prépare une salade de doigts pour sa famille, de cinq personnes. Sa matière première est un missionnaire manchot capturé la veille par son mari. 1. Déterminer la loi du nombre d’orteil reçus par un convive. 2. (***) Déterminer son espérance . Exercice 11. ** Cauchy-Schwartz Montrer que pour tout couple de variables aléatoires : E(X × Y )2 6 E(X 2 ) × E(Y 2 ) Exercice 12. *** valeur maximale atteinte Soit p ∈ N∗ . Un étudiant résout p exercices de cette feuille de TD dans un ordre aléatoire. On note n le nombre d’exercices de la feuille, et X le plus grand numéro d’exercice résolu. 1. Calculer la loi de X. 2 ! n X k−1 2. En déduire la formule = p−1 k=p ! n . p 3. Calculer l’espérance de X. 4. Déterminer la probabilité que le dernier exercice soit situé après tous les autres sur la feuille de TD. Exercice 13. *** Avec une somme binomiale Aujourd’hui en entrée à la cantine il y a de l’artichaut, des betteraves, ou du céleri. Chaque étudiant prend une entrée au hasard, sachant qu’il y a suffisamment de chaque pour qu’éventuellement tous prennent la même entrée. On note n le nombre d’étudiants. On note X le nombre d’entrées dont personne n’a voulu. Calculer la loi de X, puis son espérance. Exercice 14. ** échange de parapluies Soit n ∈ N∗ . n personnes se rendent à une soirée un jour de pluie, chacun a un parapluie et le dépose à l’entrée. En partant, chacun reprend un parapluie au hasard. En moyenne, combien de personnes repartent avec leur parapluie ? On pourra introduire pour tout i ∈ J1, nK la variable aléatoire Xi qui vaut 1 si la ième personne a pris son parapluie et 0 sinon. Exercice 15. *** loi hypergéométrique On rappelle la formule de Vandermond : ∀(p, q) ∈ N2 , ∀n ∈ J0, p + qK, Pn k=0 p k ! q n−k ! = ! p+q . n 1. Une urne contient p boules blanches et q boules rouges. On en tire n. Calculer la loi du nombre de boules blanches tirées puis son espérance. 2. Une mère cannibale prépare une salade de doigts pour sa famille. Sa matière première est un missionnaire manchot capturé la veille par son mari. Sachant que le couple a trois enfants, combien chaque convive peut-il s’attendre à avoir d’orteils ? Et combien de doigts de main ? 3. (CCP) Une urne contient deux boules blanches et 8 noires. Un joueur en tire 5. Chaque boule blanche fait gagner deux points, chaque noire en fait perdre 3. On note X la variable aléatoire représentant le nombre de boules blanches tirées, et Y le nombre de points obtenus. (a) Le tirage s’effectue avec remise. Donner loi, espérance, variance de X puis de Y . (b) Même question sans remise. 3 Variance Exercice 16. * Propriétés de la variance On lance un dé de 6 et on appelle X la variable aléatoire représentant son résultat. • Rappeler variance et espérance de X. • Dans un jeu, le joueur avance de 2(n − 3) case s’il a fait n à son lancer. Donner espérance et variance du nombre de cases duquel il avance. • Dans une variante de ce jeu, il lance un deuxième dé à 6 faces, et il avance de n − 3 + m − 3 où n et m sont les résultats des deux dés. Donner espérance et variance du nombre de cases duquel il avance. Exercice 17. ** Variance nulle Soit X une variable aléatoire de variance nulle. Montrer que X ne prend qu’une seule valeur. Exercice 18. * covariance et indépendance : contre-exemple M. Z participe à un jeu dont la règle est la suivante : il lance un dé et une pièce. En notant n le résultat du dé, il gagne n euros si la pièce est tombée sur pile, et il perd n euros sinon. On note X la variable aléatoire donnant le résultat du dé, et Y celle donnant le gain de M. Z. Calculer E(XY ) et E(X).E(Y ). Ces variables aléatoires sont-elles indépendantes ? 3 Exercice 19. ** bruit : utilisation de la variance On reçoit un signal S perturbé par un bruit B. On connaît l’espérance et la variance de S et de B, et on souhaite corriger au mieux le signal reçu. Le signal reçu est S + B, qu’on notera X. Déterminer les réels a, b tels que E((aX + b − S)2 ) soit minimal. On donnera la réponse en fonction des espérances et variances de B et de S. On pourra émettre des hypothèses raisonnables sur B et S. Indication :deux méthodes proposées : • (calcul direct) : Justifier E((aX + b − S)2 ) = V ((aX + b − S)2 ) + E(aX + b − S)2 . Chercher à minimiser le premier terme et annuler le second. • (géométrie euclidienne) : calculer le projeté orthogonal de S sur Vect(1, X). Exercice 20. *** loi faible des grands nombres (CCP) 1. Démontrer que si X et Y sont deux variables aléatoires indépendantes, alors V (X +Y ) = V (X)+V (Y ). 2. Soit (Xn )n∈N une suite de variables aléatoires Pnmutuellement indépendantes de même espérance et de même variance. Pour tout n ∈ N, soit Sn = k=1 Xn . Montrer que pour tout a ∈ R+∗ : ! Sn V (X1 ) − E(X1 ) > a 6 P n n.a2 3. Qu’obtient-on lorsque n → ∞ ? Cette formule est appelée loi faible des grands nombres. Interprétation ? 4. On effectue des tirages successifs, avec remise, dans une urne contenant 2 boules rouges et 3 blanches. Donner un nombre tirage à partir duquel on puisse être sûr à 95% que la proportion de boules rouges sera entre 0, 35 et 0, 45. Exercice 21. *** Exemple en dénombrement, avec différents choix d’univers Soit n ∈ N tel que n > 2, et soit U une urne contenant n jetons numérotés de 1 à n. On tire une poignée de jetons, et on note N le nombre de jetons tirés, et S la somme des nombres inscrits sur les jetons tirés. Pour tout i ∈ J1, nK, soit Xi la variable aléatoire valant 1 si le ième jeton a été tiré et 0 sinon. 1. Proposer un univers pour cette expérience. 2. Dans un premier temps on suppose que toutes les poignées sont équiprobables. (a) Déterminer la loi de N et son espérance. (b) Quelle est la loi de Xi ? (c) Écrire S en fonction de X1 , ..., Xn , et en déduire E(S). (d) Montrer que (X1 , ,̇Xn ) sont mutuellement indépendantes, et en déduire V (S). 3. À présente on suppose que N suit une loi uniforme, i.e. que toutes les tailles de poignées sont équiprobables. (a) Quelle est l’espérance de N ? (b) Soit i ∈ J1, nK. Calculer pour tout k ∈ J1, nK P (Xi = 1|N = k). En déduire la loi de Xi . (c) Les variables aléatoires (X1 , ,̇Xn ) sont-elles indépendantes ? (d) Calculer E(S). (e) Calculer V (S). On pourra commencer par calculer pour tout (i, j) ∈ J1, nK la loi de Xi · Xj . 4 4 Couple de variables aléatoires Exercice 22. * ! Couple de variables aléatoires Dans un devoir surveillé, un exercice contient deux parties : l’une sur deux points, l’autre sur trois. On notera X la variable aléatoire donnant le nombre de points obtenus par un élève sur la première partie, Y la variable aléatoire donnant le nombre de points à la deuxième partie. Les lois de X et Y sont indiquées dans le tableau ci-dessous : pour tout i ∈ J0, 2K et tout j ∈ J0, 3K, P (X = i et Y = j) est indiqué dans la case (i, j) du tableau : Y 0 1 2 3 X 0 0,1 0,2 0,1 ? 1 0,1 0 0 ? 2 0,1 0 0,2 ? 1. La dernière question de la deuxième partie n’était faisable qu’à condition d’avoir complètement réussi la première partie. Autrement dit, il est impossible d’avoir 3 à la deuxième partie sans avoir eu 2 à la première partie. (a) Écrire cette information en terme de probabilités conditionnelles. (b) Compléter le tableau ci-dessus. 2. Retrouver la loi de X et la loi de Y . 3. Calculer la loi de X + Y . 4. Calculer la moyenne de la classe pour chaque partie, et pour l’exercice au total. Calculer la variance pour l’exercice complet. 5. Les variables aléatoires X et Y sont-elles indépendantes ? 6. Donner la loi conditionnelle de X sachant Y = 2, puis de Y sachant X = 1. 7. Donner de min(X, Y ). 8. Donner la tableau de loi conjointe de X + Y et de min(X, Y ). Exercice 23. * couple de variables aléatoires et indépendance On étudie un joueur de fléchette. Pour simplifier, admettons qu’il atteint toujours la cible, et que celle-ci ne présente que 3 zones : les zones à 1 point, 2, et 5 points. Pour notre joueur qui est un joueur moyen, le nombre de points de chaque zone est inversement proportionnel à la difficulté d’atteindre la zone. Le joueur lance deux fléchettes, on notera X la VA donnant le résultat du premier lancer, Y le résultat du second. 1) Traduire la phrase « le nombre de points de chaque zone est inversement proportionnel à la difficulté d’atteindre la zone » en langage mathématique. En déduire la loi de X et de Y . 2) Donner le tableau pour la loi conjointe de X et Y dans l’hypothèse où les deux lancers sont indépendants. 3) Maintenant, on suppose que pour des raisons psychologiques, si le premier lancer est bien réussi, le second a plus de chances de l’être. Donner alors un tableau possible. Exercice 24. * Exemple simple de loi conjointe Soit n ∈ N∗ . Une urne contient n boules, numérotées de 1 à n. On tire sans remise deux boules successivement. Soit X1 la variable aléatoire donnant le nombre inscrit sur la première boule, et X2 celle donnant le nombre inscrit sur la deuxième boule. 1) Donner la loi conjointe de X1 et X2 . 2) Calculer les lois de X1 et X2 . 3) Les variables aléatoires X1 et X2 sont-elles indépendantes ? 5 Exercice 25. ** Deuxième exemple Soit n ∈ N. Une urne contient n boules blanches et deux rouges. On tire des boules successivement et sans remise jusqu’à avoir sorti les deux rouges. On note X1 la variable aléatoire donnant le rang de sortie de la première boule rouge, et X2 celle donnant le rang de sortie de la seconde boule. Écrire la loi conjointe de X1 et X2 , puis retrouver les lois de X1 et de X2 . 5 Lois usuelles Exercice 26. ** variance de la loi binomiale par calcul direct Soit n ∈ N∗ , p ∈ [0, 1] et X une variable aléatoire suivant la loi B(n, p). 1. En utilisant la formule du pion, calculer E X(X − 1) . 2. En déduire V (X). Exercice 27. ** Exemple de loi binomiale Un QCM comporte 60 questions. À chacune il y a 4 réponses possibles, dont 3 fausses et 1 juste. Un réponse juste rapporte 3 points, une réponse fausse enlève 2 points. L’élève Z répond au hasard. On note X la variable aléatoire représentant le nombre de bonnes réponses. 1) Calculer la loi de X et son espérance. Quelle est la note moyenne (sur 20) de l’élève Z ? 2) Donner la probabilité que l’élève Z ait la moyenne, puis qu’il ait au moins 19/20. Exercice 28. ** contagion Dans une ville, une épidémie touche une proportion p des habitants. A chaque contact avec une personne saine, un individu contaminé a une probabilité 14 de transmettre la maladie. M. T, sain au début de l’expérience, décide de rendre visite à n personnes. 1. Soit N la variable aléatoire donnant le nombre de personnes contaminées rencontré par M. T. Quelle est la loi de N ? 2. Déterminer la probabilité que M. T soit contaminé. Exercice 29. ** saut de puce Soit n ∈ N. Une puce effectue n bonds le long d’une droite. A chaque bond, elle a une chance sur deux d’avancer de 1cm, et une chance sur deux de reculer d’autant. 1) Quelle est la probabilité que la puce soient revenue à son point de départ ? 2) Calculer la distance moyenne parcourue au bout de n secondes, ainsi que la variance de ce nombre. 3) Déterminer un intervalle dans lequel la probabilité que la puce soit soit d’au moins 1/2. 4) Mêmes questions si la puce a une probabilité de 2/3 d’avancer et de 1/3 de reculer. ! 2k ! n k X 2n + 1 2n 5) (***) vérifier la formule = . n 4k 4n k=0 En déduire l’espérance du nombre de passage de la puce par l’origine. Exercice 30. ** ! Analyse de lait Les brebis d’un troupeau sont atteinte d’une maladie avec une probabilité p = 0, 15. Pour dépister la maladie, on analyse le lait. On envisage deux stratégie : (i) On analyse un échantillon du lait de chaque brebis. (ii) On mélange un échantillon de lait de chaque brebis, et si le test est positif, on analyse séparément un (nouvel) échantillon de lait de chaque brebis. 6 On notera X la variable aléatoire qui représente le nombre d’analyses avec la stratégie (i), et Y le nombre d’analyses avec la stratégie (ii). On note n la taille du troupeau. 1) On note M le nombre de brebis malades. Donner la loi de M , son espérance et sa variance. 2) Déterminer l’espérance de X et de Y . 3) Déterminer quelle est la stratégie permettant de minimiser le nombre d’analyses en fonction de la taille du troupeau. On pourra dresser le tableau de variation de la fonction f : x 7→ x. ln(1 − p) + ln(x). 4) Variante : on fixe k ∈ N et on divise le troupeau en groupes de k brebis. On supposera pour simplifier que k divise n. On mène une analyse pour chaque groupe (en mélangeant un échantillon de lait de chaque brebis du groupe), pour chaque groupe si le résultat est positif on analyse séparément le lait de chaque brebis du groupe. Exprimer l’espérance du nombre d’analyses en fonction de k, n, et p. Exercice 31. ** Un peu de tout : espérance, variance, Tchebychev, indépendance... Un DS comprend 20 questions, chacune notée sur 1 point. On suppose que chaque question a la même probabilité, notée p d’être résolu par un élève. 1. On suppose les questions indépendantes. À quelle moyenne de classe peut-on s’attendre ? Proposer un intervalle tel que chaque élève à une probabilité d’au moins 2/3 d’avoir sa note dans cet intervalle. 2. On suppose que chaque question ne peut être résolue qu’à condition d’avoir réussi les questions précédentes, et que dans ce cas la probabilité de résolution est p. Reprendre les questions précédentes. Exercice 32. *** Loi conjointe et binomiale On lance un dé de 6, puis si n est le résultat obtenu, on lance n dés de 6. On note N la variable aléatoire donnant le résultat du premier dé, et X la variable aléatoire égale au nombre de 6 lors du second lancer. 1. Calculer la loi conjointe de N et X, 2. Calculer l’espérance de X Exercice 33. **** lois binomiales (CCP) Soit n ∈ N tel que n > 2. Un secrétaire tente d’appeler n personnes, une fois chacune. On suppose que chacune de ces personnes a la même probabilité p d’être joignable au moment de l’appel. On notera q = 1−p, et X le nombre de personnes que le secrétaire a pu contacter. 1. Donner la loi de X, son espérance, sa variance. 2. Le lendemain, le secrétaire tente d’appeler les personnes qu’il n’a pas pu avoir le premier jour. On note Y le nombre de personnes contactées lors de cette deuxième session, et Z = X + Y le nombre total des personnes contactées. (a) Soit k ∈ J0, nK et l ∈ J0, n − kK. Déterminer P (Y = l|X = k). ! ! ! ! n n−k n s (b) Soit k ∈ J0, nK, s ∈ J0, nK, montrer que = . k s−k s k (c) Calculer la loi de Z. (d) Quelle est la probabilité que le secrétaire ait pu joindre tous les correspondants ? (e) Montrer que Z suit une loi binomiale, et préciser ses paramètres. Quelques indications 3 3) C’est la formule de Bayes. 6 Calculer l’espérance du gain de A et de B, et voir à quelle conditions elles sont égales. 7 7 Détailler toutes les possibilités pour atteindre ou dépasser 5. 8 Utiliser les probabilités conditionnelles pour P (X = 2). 9 Pour tout i ∈ J1, nK, noter Ai l’événement « ouvrir la porte à la ième tentative ». C’est la formule des probabilités composées. 10 2) retrouver la formule de Vandermonde. 11 C’est l’inégalité de Cauchy-Schwartz, il suffit de faire la même preuve que celle du chapitre sur la géométrie euclidienne, à savoir étudier la fonction λ 7→ E((λ.X + Y )2 ). 12 1) si le max est k, les p − 1 autres exercices sont de numéro ∈ J1, k − 1K. 3) 13 P (X = 2) est facile. Pour P (X = 1) : soient x et y les deux entrées qui ont été choisies par au moins un étudiant. Utiliser la partition Fn−1 « k étudiants ont pris x, et n − k étudiants ont pris y ». k=1 On arrivera à une somme binomiale... 14 Comme souvent, le plus dur est de comprendre ce qu’on veut calculer exactement. 15 16 17 On montrera en réalité que la probabilité que X = E(X) est 1. Autrement dit, X est « presque sûrement » constante 18 Noter Y 0 la variable aléatoire qui vaut 1 lorsque la pièce tombe sur pile et −1 sinon. 19 Supposer que B et S sont indépendantes. 20 1. C’est l’inégalité de Bienaymé Tchebychev 2. application directe 21 22 23 1) La probabilité d’atteindre la zone n est proportionnelle à 1 . n 24 25 26 27 Utiliser une variable aléatoire Bi qui vaut 1 lorsque l’élève répond juste à la ième question et 0 sinon. 28 2) probabilités totales, en passant par le SCE (´ N = i ˇ)i∈J0,nK . 29 1) Distinguer selon que n est paire ou non. 30 1) cours : loi binomiale 31 1 32 1) Soit n ∈ J1, 6K. La probabilité de X sachant que N = n suit une binomiale de paramètres (n, ). 6 2) Faire apparaître la formule de l’espérance d’une loi binomiale. 33 8 Quelques solutions 4 . 1. CardΩ = Mat80001000. Puis la probabilité est 8000 1000 1 2. 2 Pour tout n ∈ N, 1 an+1 = 3 an + bn+1 = cn+1 = 1 c 12 n 1 7 an + b + 12 cn n 3 1 1 a + 3 cn 3 n . 1 an , et même formule pour c. 12 racines de l’équation caractéristique : 1/2 et 1/6. 1 1 1 an = 12 + 14 n . 6n 2 1 1 cn = 12 n − 16 n 2 6 1 1 1 bn = 1 − 34 n − 12 . 2 6n an+2 = 23 an+1 − 3 1. 2. 3. p1 + p2 2 p1 p1 + p2 n n 4. Si p1 = p2 , le fait qu’un habit soit ou non à paillettes n’influe pas sur la probabilité qu’il soit acheté. Les événementsA : « Mme D achète tous les habits » et B :« tous les habits sont à paillettes » sont indépendants. 1 Donc P (B|A) = P (B) = n . 2 4 Par énoncé, ∃α ∈ R tq ∀k ∈ J1, 6K, P (X = k) = αk. On trouve α = 5 1. Notons X le resultat du lancer d’1D12. On trouve E(X) = 1 21 puis E(X) = 7 . 13 13 2 6 Notons XA la variable aléatoire qui représente le gain de A, et XB celle qui représente le gain de B. Calculons la probabilité que le joueur A gagne. Nous modélisons la situation en prenant pour univers Ω = J1, 6K × 1, 6. Pour tout événement élémentaire (a, b) ∈ Ω, a est le résultat du joueur A et b celui du joueur B. Nous supposons que Ω est muni de la probabilité uniforme. L’événement « A gagne » correspond alors la partie de Ω suivante : « A gagne » : n (a, b) a > b o On partitionne l’événement ainsi : « A gagne » : t6i=1 n o (i, b) b ∈ J1, iK La cardinal de cet événement est donc : 6 X i=1 n o Card( (i, b) b ∈ J1, iK ) = 6 X i=1 i= (1 + 6) × 6 = 21 2 Et la probabilité que A gagne est : P (Agagne) = 15 21 7 = = Card(Ω) 36 12 On constate enfin que l’événement « B gagne » est l’événement contraire à « A gagne », sa probabilité est : P (Bgagne) = 1 − 9 7 5 = 12 12 7 5 Ainsi XA peut prendre pour valeurs α avec la probabilité et pour valeur −β avec la probabilité . 12 12 L’espérance de XA est donc : 5 7 − β. E(XA ) = α. 12 12 On remarque que XB = −XA (dans tous les cas, B gagne l’opposé de ce que gagne A). Donc E(XB ) = −E(XA ) (linéarité de l’espérance). 5 7 − β. = 0 ssi 7α = 5β. Finalement, le jeu est équilibré ssi E(XB ) = E(XA ) ssi E(XA ) = 0 ssi α. 12 12 Par exemple, prendre α = 5 et β = 7. 7 E(X) = 57 95 , V (X) = 8 . 16 2 8 On constate que X U(3). 9 10 11 12 1. Déjà l’ensemble des valeurs possibles pour X est Jp, nK (le minimum est p, atteint si l’étudiant à résolu les p premiers exercices de la feuille). Soit k ∈ Jp, nK, calculons P (X = k). Il s’agit d’un tirage sans répétition, ne compte pas, nous pouvons donc utiliser des combinaisons. On l’ordre n prend Ω = Pp (J1, nK), de cardinal . p En élément de l’événement « X = k » est un sous-ensemble de Jp, nK contenant k et p − 1 éléments inférieurs à k−1 k. (Autrement dit, réaliser « X = k » c’est prendre k et choisir p − 1 éléments de J1, k − 1K) Il y a ainsi p−1 choix possible. Matk − 1p − 1 . En supposant Ω muni de la probabilité uniforme, nous obtenons P (X = k) = n p 2. C’est le fait que P (X ∈ Jp, nK) = 1. n+1 3. p. . p+1 13 Pn 14 P Le nombre de personnes qui repartent avec leur parapluie est i=1 Xi . Et le but de l’exercice est donc de calculer n E( i=1 Xi ). Pn Pn Sachant que l’espérance est linéaire, on a E( i=1 Xi ) = i=1 E(Xi ). La phrase de l’énoncé « chacun reprend un parapluie au hasard » semble signifier que pour tout i ∈ J1, nK, la ième 1 personne a la même probabilité de repartir avec chacun des parapluie. Elle a donc la probabilité de repartir avec n 1 n−1 1 le sien. Alors E(Xi ) = 1. + 0. = . n n n Et finalement, le résultat cherché est : n X E( i=1 Xi ) = n X E(Xi ) = i=1 n X 1 i=1 n =1 En moyenne, une personne repart avec son propre parapluie. On remarque que ce nombre est indépendant de n. 15 16 10 17 18 Avec la notation Y 0 de l’énoncé, on a Y = X.Y 0 . D’où E(X.Y ) = E(X 2 .Y 0 ). Mais Y 0 et X 2 sont indépendantes, donc E(X.Y ) = E(X 2 ).E(Y 0 ) = E(X 2 ).0 = 0. Finalement, on trouve E(X.Y ) = E(X).E(Y ) = 0. Pourtant les deux variables ne sont pas indépendantes. 19 20 1. On applique l’inégalité de Tchebychev à la variable aléatoire V( V (X1 ) Xn )= . n n 2. Par le théorème des gendarmes, pour tout a ∈ R +∗ Sn Sn , on vérifie que E( = E(X1 ) et que n n ! Sn n − E(X1 ) > a = 0. , limn→∞ P Sn Interprétation : Notons que est la moyenne des résultats obtenus lors des n premières expériences. Ainsi, n la probabilité que cette moyenne soit éloignée de l’espérance des Xi tend vers 0. 3. Pour tout i ∈ N, soit Xi qui vaut 1 si la ième boule tirée est rouge et 0 sinon. 1 Pn Soit pour tout n ∈ N∗ Sn = Xi . Les Xi vérifient les hypothèses de la question 1 (indépendantes, même n i=1 2 6 espérance : 5 et même variance : 25 , car elle suivent la loi B(2/5)). Sn − E(X1 ) 6 0, 05. Il ne reste plus qu’à utiliser la formule de la question 1. La probabilité demandée est P ( n 21 22 23 1) ∃K ∈ R tq ∀n ∈ J1, 2, 5K, P (X = n) = K . n 24 ∀(i, j) ∈ J1, nK2 , P (X = i et Y = j) = 0 si i = j et 1 sinon. n(n − 1) 2n! 2 = (n + 2)! (n + 1)(n + 2) (on prend l’univers des n-arrangements de l’ensemble des n + 2 boules, de cardinal (n + 2)!. Pour réaliser X1 = i et X2 = j, on a deux choix pour l’ordre des 2 boules rouges, et n! choix pour l’ordre des n boules blanches.) 2(j − 1) 2(n + 2 − i) et ∀j ∈ J1, n + 2K, P (X2 = j) = . D’où ∀i ∈ J1, n + 2K, P (X1 = i) = (n + 1)(n + 2) (n + 1)(n + 2) 25 Soit (i, j) ∈ J1, nK2 . On a P (X1 = i et X2 = j) = 0 si j 6 i. Et sinon : elle vaut 26 27 28 1. C’est une simple loi binomiale de paramètres p et n : N B(n, p). 2. (1 − 34 p)n 29 30 1. M B(n, p), d’où le résultat par les formules du cours. 2. E(X) = n (X est la variable aléatoire constante égale à n !) Ensuite, Y prend les valeurs 1 ou n + 1, et P (Y = 1) = (1 − p)n . On trouve E(Y ) = n + 1 − n.(1 − p)n . 3. On trouve que la deuxième stratégie est préférable lorsque n ∈ J2, 17K. 11 31 1. Notons N le nombre de questions résolues. N est la somme de n variables aléatoires de Bernoulli indépendantes de paramètre p. Donc N B(n, p). La moyenne de la classe attendue est E(N ) = np. Pour obtenir un intervalle contenant X avec une probabilité d’au moins 2/3, utilisons l’inégalité de Chebychev. Et pour ce, commençons par donner la variance de N : V (N ) = 20p(1 − p). L’inégalité de Chebychev donne alors ∀δ ∈ R+∗ : V (X) P |N − E(N )| > δ 6 δ2 En passant à l’événement contraire : P |N − E(N )| 6 δ > 1 − Pour que ceci soit > 2/3, il suffit que 1 − V (X) > δ2 δ> En conclusion : 2 3 Ainsi, l’intervalle [np − p p 60p(1 − p), np + p > V (X) i.e. que δ > √ 3σ(X) i.e. que 60p(1 − p). P N ∈ [np − 1 2 δ 3 p P |N − pn| 6 ou encore : i.e. que V (X) δ2 p 60p(1 − p) > 60p(1 − p), np + 2 3 p 60p(1 − p)] > 2 3 60p(1 − p)] convient. 32 1) Les valeurs possibles pour X sont J0, 6K, et pour N J1, 6K. Soit n ∈ J1, 6K et i ∈ J0, 6K, alors P (X = i et N = n) = P (N = n) × P (X = i|N = n) = 0 si i > n n−i 1 1 5 n et × . i sinon (en effet il s’agit d’une loi binomiale : on répète n fois une expérience ayant une i 6 6 6 probabilité 61 de réussite, et on compte le nombre de réussites.) n Remarque : En fait la formule est aussi vraie si i > n car alors = 0. i n pß(1 − p)n−i (c’est l’espérance d’une VA i suivant B(n, p)). On va donc écrire E(X) en faisant apparaître cette somme (pour p = 1/6 bien sûr). 2) On rappelle que pour tout n ∈ N et tout p ∈ [0, 1], n.p = E(X) = 6 X Pn i=0 i i.P (X = i) i=0 6 = 6 X X i. i=0 6 = P (X = i et N = n) n=1 6 X X 1 n 1 i. i=0 n=1 6 i 5 .( )i ( )n−i 6 6 = 6 6 1 XX 1 5 n i. .( )i ( )n−i i 6 6 6 = 6 n 1 XX 1 5 n i. .( )i ( )n−i i 6 6 6 n=1 i=0 n=1 i=0 6 = = 33 1X 1 n. 6 6 n=1 7 12 1. B(n, p) 12 car n i = 0 si i > n 2. (a) P (Y = l|X = k) = n−k l pl q n−k−l (b) Soit s ∈ J0, nK. Comme la famille d’événements (X = k)k∈J0,nK est un système complet d’événements, on peut utiliser la formule des probabilités totales : P (Z = s) = n X P (Z = s|X = k) · P (X = k) k=0 s = X P (Y = s − k|X = k) · · · P (X = k) k=0 s = = X n − k s−k k=0 s X n s s k k=0 = = = ps q 2n−s−k s k X s n ps q 2n−s s k k=0 = ps−k q n−k−(s−k) · 1 n ps (1 + )s q 2n−s s q n s p (q + 1)s q 2n−2s s n (p + pq)s (q 2 )n−s s (c) Or q 2 = 1 − (p + pq) : Z suit donc la loi B(n, p + pq). 13 1 q n pk q n−k k