Probabilité – Statistique Formulaire http://www.chez.com/jeyland/iup Formule des probabilités totales et composées : Probabilité P(B) = ∑ P(B A i)P(A i) Axiomes de Kolmogorov : Une probabilité P est une application de A i vers [0,1] vérifiant les 3 axiomes suivants : 1. 2. P(Ω) = 1 P(A B i)P(B i) P(B i A) = n ∑ P(A B )P(B ) Les probabilités de deux évènements disjoints s’ajoutent : Si 3. Formule de Bayes : Soit un partition B1,…,Bn : La probabilité de l’événement certain est 1 : A∩B = 0 ,alors P(A ∪ B) = P(A) + P(B) Si Ω est infini, on complète l’axiome 2 par l’axiome 3 : si (A n) n≥0 est une famille d’évènements deux à deux ∀n, m, A n ∩ A m = 0 ) alors : incompatibles (c’est-à-dire, +∞ +∞ P A n = ∑ P(A n) n =0 n =0 Formule de Poincaré : Soient A et B deux évènements quelconques. On a: P(A ∪ B) = P(A) + P(B) − P(A ∩ B) j Variables aléatoires Fonction de répartition : La fonction de répartition F d’une variable X (discrète ou continue) la caractérise entièrement. Elle possède les propriétés suivantes : F est non décroissante. i) ii) iii) lim F(x) = 0 x → −∞ lim F(x) = 1 x → +∞ iv) F est continue à droite : v) Le saut lim F(y) = F(x) y→x y>x de discontinuité de F au point x est égal à F(y) − lim F(x) = P(X = x) P(X = x) : lim y→x y→ x Dénombrement y>x Règle de multiplication : Lorsqu’une expérience est composée de m sous-expériences, et si chacune possède nk résultats possibles, quels que soient les résultats des autres sous-expériences, alors le nombre total de résultats possibles est : n = n 1n 2...n m Permutations : Le nombre de permutations d’un ensemble à n éléments est : n! k A n = n! (n − k)! avec (k ≤ n) Combinaisons : Lorsqu’on extrait k éléments d’un ensemble de n éléments, et que l’ordre dans lequel sont extraits ces éléments n’importe pas, on parle de combinaisons de k éléments parmi n. k k n avec n = A k! = n! k! (n − k)! (k ≤ n) Formule du binôme de Newton : Pour tout réel x et y et pour tout entier naturel n, on a : n k n x n−k (x + y) = ∑ C n x y k =0 Probabilités conditionnelles – Indépendance Probabilité conditionnelle : Soit (Ω,A,P) un espace probabilisé. Soient A et B deux évènements aléatoires avec P(B) ≠ 0. On appelle probabilité conditionnelle de A sachant B, le rapport : P( A B) = P( A ∩ B) P( B) ∀x, f(x) ≥ 0 P(A ∩ B) = P(A)P(B) Incompatibilité : Soit (Ω,A,P) un espace probabilisé. Deux évènements A et B sont incompatibles si et seulement si : A∩B = 0 Remarque : Deux évènements de probabilité non nulle ne peuvent être indépendants et incompatibles en même temps. ∫ f(x)dx = 1 Modélisation probabiliste discrète : Variable aléatoire uniforme discrète P(X = x) = 1 ,k ≤ x ≤ k + n n +1 o Variable aléatoire de Bernoulli o Variable aléatoire géométrique k −1 P(X = 1) = P(" succès" ) E[X] = p , Var(X) = p(1 − p) . P(X = k) = (1 − p) p, k = 1,2,... 1− p E[X] = 1 , Var(X) = 2 . p p o Variable aléatoire binomiale k n−k k P(X = k) = p (1 − p) C n , k = 0,..., n E[X] = np , Var(X) = np(1 − p) . o Variable aléatoire de Poisson −λ k λ > 0, P(X = k) = e λ , k = 0,1,... k! E[X] = λ , Var(X) = λ . Modélisation probabiliste continue : o Indépendance : Soit (Ω,A,P) un espace probabilisé. Deux évènements A et B sont indépendants si et seulement si : y< x Théorème de caractérisation de la densité : Une fonction f(x) est la densité d’une certaine variable aléatoire continue X ssi : +∞ et −∞ o Arrangements : Lorsqu’on extrait k éléments d’un ensemble de n éléments, et que l’ordre dans lequel sont extraits ces éléments importe, on parle d’arrangements de k éléments parmi n. C j j =1 Variable aléatoire uniforme 1 b−a F(x) = x − a b−a f(x) = c = , lorsque a<x<b (a − b) E[X] = a + b , Var(X) = 2 12 ; sinon 2 . f(x) = 0 o Variable aléatoire exponentielle − λx , lorsque ; sinon f(x) = λe x>0 f(x) = 0 Autre écriture : − λx F(x) = 1 − e E[X] = 1 , Var(X) = 12 λ λ o Statistiques descriptives . Caractéristiques à tendance centrale : • La moyenne : C’est la somme de toutes les valeurs divisée par leur nombre. • La médiane : C’est la valeur qui partage les données (ordonnées) en deux groupes d’effectifs égaux. • Le mode : C’est la modalité la plus fréquente (d’un caractère qualitatif). Variable aléatoire gaussienne (x − µ) 2 − f(x) = 1 e 2σ 2 , pour tout x. σ 2π E[X] = 0 , Var(X) = 1 . Caractéristiques de dispersion : • L’étendue : C’est la différence entre la plus petite et la plus grande valeur. • L’écart-type : C’est la racine carrée de la variance, qui est la moyenne des écarts quadratiques (au carré) à la moyenne. • L’intervalle inter-quartile : C’est l’intervalle qui contient 50% des données en en laissant 25% à gauche et 25% à droite. • L’intervalle inter-décile : C’est l’intervalle qui contient 80% des données en en laissant 10% à gauche et 10% à droite. Espérance, Variance Espérance mathématique : Si X est une variable aléatoire discrète, alors : E[X] = X − E[X] P ≤ u → P(U ≤ u) Var(X) ∑ xP(X x∈χ = x) . Si X est une variable aléatoire continue, alors : E[X] = Estimation ∫ xf(x)dx Méthode des moments : On identifie les moments théoriques (espérance mathématique, variance) issus de la loi de probabilité à ceux de l’échantillon (moyenne, variance). R 2 E[X ] < ∞ , Variance : Pour une variable aléatoire X dont la variance est : 2 2 Var(X) = E[(X − E[X]) ] = E[X ] − E[X] 2 Méthode du maximum de vraisemblance : On cherche à maximiser la fonction suivante en annulant sa dérivée : n L(X 1,...X n ; θ) = Covariance : La covariance entre X et Y est la grandeur : Cov(X, Y) = E[(X − E[X])(Y − E[Y])] = E[XY] − E[X]E[Y] Si X et Y sont indépendantes, alors Cov(X, Y) Var(X)Var(Y) Relation de Cauchy-Schwartz : 2 2 2 E[UV] ≤ E[U ]E[V ] Moyenne arithmétique : n X = 1∑X n i =1 E[X] a Inégalité de Chebychev : Soit X une variable aléatoire d’espérance µ et de variance σ² finies. Alors, pour tout t positif : pˆ (1 − pˆ ) pˆ (1 − pˆ ) , pˆ + u α 2 pˆ − u α 2 n n Intervalle de confiance de la moyenne : X − u α 2 Variance inconnue : X − t α 2 Variance connue : Loi des grands nombres : Soit une famille de variables aléatoires indépendantes et identiquement distribuées (c’est-à-dire, toutes de même loi de probabilité), d’espérance µ et de variance σ² finies. Alors, pour tout ε positif : − µ ≥ ε) → 0 , lorsque n → +∞ Théorème Central Limite : Soit une famille de variables aléatoires telle que précédemment, et U une variable aléatoire gaussienne de paramètres (0,1), indépendante. Alors, on a : X P −µ n σ n σ ,X +u σ α2 n n S ,X +t S α2 n n Démarche : 1. Définir le cadre statistique (type d’échantillon, loi de probabilité, etc.). 2. Définir mathématiquement H0 (par exemple, les espérances sont égales). 3. Définir mathématiquement H1 (par exemple, les espérances sont différentes). 4. Fixer une valeur pour α. 5. En déduire le test et rejeter ou non H0. Rejet de H0 : H0 sera rejeté si : ≤ u → P(U ≤ u) , lorsque n → +∞ p 0(1 − p 0) n F > p0 +uα P( X − µ ≥ t) ≤ σ² t² n (X i) Tests d’hypothèses Inégalité de Markov : Soit X une variable aléatoire positive et d’espérance finie. Alors : P( X θ i Convergence P(X ≥ a) ≤ i =1 Intervalle de confiance d’une proportion : Cov(X, Y) = 0 . Coefficient de corrélation linéaire : ρ(X, Y) = ∏f Modélisation bivariable Coefficient de corrélation linéaire : n r= 1 n ∑ (x i − x )(y i − y) i =1 s xs y n où s x = 1 ∑ (x j − x )² n j =1 Régression linéaire : Calcul des coefficients de ax+b : b=r s s y x , a = y − bx