1. Probabilités et Variables Aléatoires Si les événements élémentaires sont équiprobables, E étant l’ensemble des événements de cardinal n ∀ A ⊂ E(n), p(A) = card(A) n Théorème des probabilités totales p(A ⋃ B) = p(A) + p(B) - p(A ⋂ B) Si les événements sont incompatibles alors p(A ⋃ B) = p(A) + p(B) Axiome des probabilités conditionnelles p(X *A) = p(X⋂A) p(A) Théorème des probabilités composées p(A ⋂ B) = p(A) × p(B / A) Si les événements sont indépendants alors p(A ⋂ B) = p(A) × p(B) Loi de Bernoulli Soit une urne contenant des boules rouges (X = 1), en proportion ϖ et des boules blanches (X = 0), en proportion 1 - ϖ ; on tire une boule, alors : p(X = 1) = ϖ ; p(X = 0) = 1 - ϖ Loi binomiale (tirage non exhaustif) On tire successivement n boules, avec remise, dans une urne contenant des boules rouges et blanches, les boules rouges en proportion ϖ (les boules blanches en proportion 1 - ϖ). Alors, la probabilité d’obtenir k boules rouges est égale à : p(K = k) = n ϖk (1 - ϖ)n-k k Loi hypergéométrique (tirage exhaustif) On tire n boules, sans remise, dans une urne contenant N boules parmi lesquelles R boules rouges et N - R boules blanches. Alors la probabilité d’obtenir k boules rouges est égale à : p(K = k) = R N-R k n-k N n Loi de Poisson La densité de probabilité de la loi de Poisson est égale à : p(K = k) = e-λ λk k! Elle constitue également la limite de la loi binomiale quand n → ∞, ϖ → 0 et n ϖ = λ fini (en pratique n > 50 et ϖ < 0.1). Espérance mathématique (!) Loi Loi Loi Loi de Bernouilli : 8(X) = ϖ binomiale : 8(X) = n ϖ de Poisson : 8(X) = λ hypergéométrique : 8(X) = n ϖ Théorème de Bayes Soit un événement B dont la réalisation dépend de l'une des causes Ai alors : p(Ai *B) = p(Ai )×p(B/Ai ) ∑k p(Ak )×p(B/Ak ) www.thierry-verdel.com