Master 1 GSI - Mentions ACCIE et RIM - ULCO, La Citadelle, 2012/2013 Mesures et Analyses Statistiques de Données - Probabilités TP 2 - Probabilités sous R 1 Lois et génération d’échantillons 1.1 Généralités 1. Génération d’échantillons aléatoires à partir d’un vecteur : > vect<-seq(3,12) ; sample(vect,5) fournit un échantillon aléatoire de 5 valeurs prises dans le vecteur donné, sans remise (la taille de l’échantillon doit être inférieure à la taille du vecteur). > sample(vect,5,replace=TRUE) fournit un échantillon aléatoire de 5 valeurs prises dans le vecteur donné, mais avec remise. > sample(vect) fournit un échantillon aléatoire de length(vect) valeurs prises dans vect (c’est-à-dire une permutation). > sample(10,5) fournit un échantillon aléatoire de 5 valeurs parmi les 10 premiers entiers (i.e. parmi seq(1,10)). > sample(seq(1,4),3,prob=c(0.1,0.2,0.3,0.4),replace=TRUE) fournit un échantillon aléatoire de 3 valeurs prises parmi le vecteur donné, chaque valeur étant choisie avec une probabilité proportionnelle aux valeurs données dans l’argument prob. La somme des poids n’a pas besoin d’être 1. 2. Génération d’un échantillon gaussien : > rnorm(100,0,1) retourne un vecteur de 100 valeurs tirées d’une distribution gaussienne de moyenne 0 et d’écart-type 1. > rnorm(100,mean=0,sd=1) réalise la même chose. > rnorm(1000,mean=c(0,3),sd=c(0.5,1)) permet d’obtenir une distribution de valeurs bimodale. 3. Génération d’un échantillon suivant une loi uniforme : > runif(100,0,5) retourne 100 valeurs issues d’une distribution uniforme entre 0 et 5. > runif(100,min=0,max=5) réalise la même chose. 1/9 > runif(100,c(0,1),c(5,7)) permet d’avoir la superposition de 2 distributions uniformes. 4. Tables de lois de probabilités : pour chaque loi (par exemple, la loi normale : norm), on a : – La fonction de densité de probabilité, préfixe "d" : dnorm (la courbe en cloche). – La fonction de probabilité qui varie entre 0 et 1, préfixe "p" : pnorm ( pnorm(x) est la probabilité d’avoir une valeur inférieur à x). – La fonction quantile qui est l’inverse de la fonction de probabilité, préfixe "q" : qnorm ( qnorm(y) est la valeur pour laquelle la probabilité d’être inférieure à cette valeur est y, donc qnorm(pnorm(x))=x). – La fonction de génération de nombres aléatoires, préfixe "r" : rnorm (génère des nombres aléatoires suivant la loi). Le premier argument est la taille de l’échantillon souhaité. 5. Lois pour lesquelles les fonctions d, p, q et r sont disponibles : Les d, p, q et r disponibles dans la distribution standard de R sont donnés dans la table 1, ceux disponibles dans le package SuppDists sont donnés dans la table 2. beta binom cauchy chisq exp f gamma geom hyper lnorm logis nbinom norm pois signrank t unif weibull wilcox d p q r dbeta dbinom dcauchy dchisq dexp df dgamma dgeom dhyper dlnorm dlogis dnbinom dnorm dpois dsignrank dt dunif dweibull dwilcox pbeta pbinom pcauchy pchisq pexp pf pgamma pgeom phyper plnorm plogis pnbinom pnorm ppois psignrank pt punif pweibull pwilcox qbeta qbinom qcauchy qchisq qexp qf qgamma qgeom qhyper qlnorm qlogis qnbinom qnorm qpois qsignrank qt qunif qweibull qwilcox rbeta rbinom rcauchy rchisq rexp rf rgamma rgeom rhyper rlnorm rlogis rnbinom rnorm rpois rsignrank rt runif rweibull rwilcox Table 1 – Les lois de probabilité définies dans R . Friedman ghyper invGauss Johnson Kendall KruskalWallis maxFratio NormScore Pearson Spearman d p q r dFriedman dghyper dinvGauss dJohnson dKendall dKruskalWallis dmaxFratio dNormScore dPearson dSpearman pFriedman pghyper pinvGauss pJohnson pKendall pKruskalWallis pmaxFratio pNormScore pPearson pSpearman qFriedman qghyper qinvGauss qJohnson qKendall qKruskalWallis qmaxFratio qNormScore qPearson qSpearman rFriedman rghyper rinvGauss rJohnson rKendall rKruskalWallis rmaxFratio rNormScore rPearson rSpearman Table 2 – Les lois de probabilité définies dans le package SuppDists Précisons l’utilisation de ces fonctions dans les cas les plus fréquents : – [dpqr]norm(x,mean=0,sd=1) : loi normale. – [dpqr]unif(x,min=0,max=1) : loi uniforme. – [dpqr]chisq(x,df,ncp=0) : loi du chi2. 2/9 – – – – – – – [dpqr]t(x,df) : loi t de Student. [dpqr]f(x,df1,df2,ncp) : loi F. [dpqr]exp(x,rate=1) : loi exponentielle. [dpqr]gamma(x,shape,rate=1,scale=1/rate) : loi gamma. [dpqr]binom(x,size,prob) : loi binomiale (x doit être entier pour dbinom, sinon le résultat est 0). [dpqr]dpois(x,lambda) : loi de Poisson (x doit être entier pour dpois, sinon le résultat est 0). Autres lois : beta, cauchy, geom (géométrique), hyper (hypergéométrique), lnorm (log-normale), logis (logistique), nbinom (négative binomiale), weibull, wilcox. 6. Quantiles : > vect=c(seq(1 :11)) > quantile(vect,probs=seq(0,1,0.1)) donne les 11 valeurs qui déterminent les intervalles de déciles (autant de valeurs renvoyées que de valeurs de probs). > quantile(vect,probs=c(0,1)) équivalent simplement à range(vect) (min et max). > quantile(vect,probs=c(0.5)) c’est simplement la médiane ! 1.2 [dpqr] Exercice 1 1. Donnez toutes les valeurs de la loi binomiale pour n = 10 et p = 1/3 avec une précision de 10−7 . 2. Même chose avec une précision de 10−4 . 3. Quelle est la probabilité d’obtenir 1 avec une loi binomiale pour n = 1 et p = 1/3 ? 4. Quelle est la probabilité d’obtenir plus de 45 et moins de 55 avec une loi binomiale pour n = 100 et p = 1/2 ? (Aidez-vous de l’aide ?dbinom) 5. Quelle est la probabilité d’obtenir au plus 1 avec une loi binomiale pour n = 10 et p = 1/3 ? On notera que d donne les valeurs P (X = j) (densité, définie pour les valeurs possibles) et que p donne les valeurs P (X ≤ x) (fonction de répartition, définie pour tout x ). Exercice 2 1. Quelle est la probabilité de dépasser strictement 4 pour une loi de Poisson de paramètre 2, 7 ? 2. Quelle est la probabilité de dépasser 1, 96 pour une loi normale centrée réduite ? 3. Quelle est la valeur x telle que P (X ≤ x) = 0, 975 pour une loi normale (quantile) ? Exercice 3 1. Donnez un échantillon aléatoire simple de 10 valeurs d’une loi de Poisson de paramètre 2, 7, 2. d’une loi normale réduite, 3. d’une loi Khi2 à 2 ddl, 4. d’une loi binomiale n = 100 et p = 1/2. La Figure 1 illustre l’utilisation de [dpqr] dans le cas d’une loi binomiale p avec n = 20 et p = 0, 5 et de son approximation par une loi continue, la loi normale de paramètres m = np et σ = np(1 − p). d donne la fonction de densité de probabilité, c’est-à-dire les valeurs P (X = j). Notez la différence entre la loi discrète et la loi continue : dans le cas de la loi discrète la fonction n’est définie que pour les valeurs possibles (0, 1, 2, . . . , n). p donne la fonction de répartion, c’est-à-dire P (X ≤ j). Elle est définie partout, aussi bien pour la loi discrète que pour la loi continue. q donne les quantiles, c’est la fonction réciproque de la fonction de répartition. r donne un échantillon pseudo-aléatoire. 3/9 Figure 1 – Illustration de d p q r Exercice 4 Que font ces lignes de commande ? Indiquez ce que R vous retourne. > qnorm(0.975) ; > dnorm(0) > pnorm(1.96) > rnorm(20) > rnorm(10,mean=5,sd=0.5) > x=seq(-3,3,0.1) ;pdf=dnorm(x) ;plot(x,pdf,type="l") > runif(3) > rt(5,10) Remarque 1.1 1. On a écrit x=seq(-3,3,0.1). Ici x est un nom de variable. Les noms de variables sont trèes flexibles. N’importe quelle variable peut stocker n’importe quelle valeur (il n’y a pas besoin de déclarer les variables). Cependant, il faut savoir que : – les noms de variables ne peuvent pas commencer par un chiffre ou un caractère spécial, – les noms sont sensibles à la casse des caractères. Un caractère minuscule comme x est différent d’un caractère majuscule comme X. – quelques noms courants sont déjà utilisés par R, par exemple c, q, t, C, D, F, I, T et par conséquent doivent être évités. La liste des noms prédéfinis dans la bibliothèque de base peut être consultée ainsi : > noms <- ls("package :base") > length(noms) Combien y en a-t-il d’installés sur l’ordinateur avec lequel vous travaillez ? Si vous souhaitez les voir apparaître à l’écran, tapez noms. 2. Dans cette liste de commandes, l’opérateur = a été utilisé. Comme la plupart des langages de programmation, R a des variables auxquelles on peut affecter une valeur. Pour cela, on utilise l’opérateur <- ou ->. L’opérateur classique = marche aussi. 3. De plus dans cette liste de commandes, deux fonctions sont intervenues : – seq() – plot() Vous remarquerez que les appels aux fonctions sous R sont indiqués par la présence de parenthèses. De plus, length() et ls() sont aussi des fonctions. Pour en savoir d’avantage sur ces fonctions, tapez ?sujet que 4/9 nous pouvons aussi écrire help(sujet). Toutes les fonctions de R ont une page d’aide. Quand vous connaissez le nom de la fonction ou du sujet qui vous intéresse, c’est en général le meilleur moyen d’apprendre à l’utiliser. Les pages d’aide sont généralement très détaillées. Elles contiennent souvent, entre autres : – Une section See Also qui donne les pages d’aide sur des sujets apparentés. – Une section Description de ce que fait la fonction. – Une section Examples avec du code illustrant ce que fait la fonction documentée. Ces exemples peuvent être exécutés directement en utilisant la fonction example(), essayez par exemple : > example(plot) 4. La manière la plus simple de produire des graphiques sous R est d’utiliser la fonction plot(). > plot(weight∼height, data=women) Les fonctions graphiques comportent de nombreuses options qui permettent de contrôler de façon très fine les graphiques. Par exemple, les paramètres de la fonction plot() utilisées par défaut sont : > args(plot.default) function (x, y = NULL, log = "", main = NULL, ann = par("ann"), axes panel.last = NULL, asp NULL type = "p", xlim = NULL, ylim = NULL, sub = NULL, xlab = NULL, ylab = NULL, = TRUE, frame.plot = axes, panel.first =NULL, = NA, ...) L’argument . . . signifie qu’il y a encore d’autres paramètres graphiques possibles. Ils sont contrôlés par la fonction par(). > names(par()) [1] "xlog" "ylog" "adj" "ann" "ask" "bg" [7] "bty" "cex" "cex.axis" "cex.lab" "cex.main" "cex.sub" [13] "cin" "col" "col.axis" "col.lab" "col.main" "col.sub" [19] "cra" "crt" "csi" "cxy" "din" "err" [25] "family" "fg" "fig" "fin" "font" "font.axis" [31] "font.lab" "font.main" "font.sub" "gamma" "lab" "las" [37] "lend" "lheight" "ljoin" "lmitre" "lty" "lwd" [43] "mai" "mar" "mex" "mfcol" "mfg" "mfrow" [49] "mgp" "mkh" "new" "oma" "omd" "omi" [55] "pch" "pin" "plt" "ps" "pty" "smo" [61] "srt" "tck" "tcl" "usr" "xaxp" "xaxs" [67] "xaxt" "xpd" "yaxp" "yaxs" "yaxt" On donne ci-dessous un exemple de graphique utilisant quelques options : > plot(weight height, pch=19, col="royalblue3", + las=1,main="Weight vs. height", xlab="Height", + ylab=Weight", data="women") Il existe une autre fonction que plot() pour faire des graphiques. Cette fonction est la fonction curve(). 2 Loi binomiale Soit X une variable aléatoire suivant une loi binomiale. La d’obtenir k succès pour n essais indé probabilité n k n−k pendants avec une probabilité p de succèes est : P (X = k) = p (1 − p) , 0 ≤ k ≤ n. k Si on pose m = np et σ 2 = np(1 − p), la loi binomiale normalisée est définie par : n−m 0−m 1−m , ,..., , φ• = ϕ•0 = σ σ σ et 5/9 P (ϕ•k ) = n k p (1 − p)n−k , 0 ≤ k ≤ n. k L’espérance vaut 0 et la variance vaut 1. Exemple 2.1 On peut comparer par exemple les lois binomiales normalisées pour p = 1/3 et n = 5, 20, 50, 100, 200, 500, 1000, 5000. Pour cela, écrivez la fonction ci-dessous puis appliquez la aux différentes valeurs de n proposées. loibin<-function(n,p) y<-dbinom(0 :n, n, p) x<-((0 :n)-n*p)/sqrt(n*p*(1-p)) etiq0<-paste("n=",n) plot(x,y,xlab=etiq0,ylab="",type="h",xlim=c(-3,3)) old.par<-par(no.readonly=TRUE) effectif<-c(5,20,50,100,200,500,1000,5000) par(mfrow=c(2,4)) par(mar=c(5,4,1,2)) sapply(effectif,loibin,p=1/3) par(old.par) Exercice 5 1. Rappelez la définition de la loi de Bernoulli B(p), et des lois binomiales B(n, p). 2. On cherche à représenter sur un même graphique les probabilités P (X = k) en fonction de k ∈ N pour les lois B(j, 0.4), j variant de 1 à 5. (a) Expliquez pourquoi il suffit de se restreindre à k ∈ {1, . . . , 5}. Définissez un vecteur x dont les composantes sont les entiers de 0 à 5. (b) En utilisant des boucles du type for(j in 1 :6){. . .} et des conditions du type if(j<=i+1){. . .}, définissez une matrice A de dimension 5×6 telle que ∀i ∈ {1, . . . 5}, ∀j ∈ {1, . . . , 6}, Ai,j = P (Xi = j −1) avec Xi B(i, 0.4). (c) Représentez graphiquement à l’aide des fonctions plot et points avec l’option type="h" la matrice A. 3. Représentez sur un même graphique les fonctions de répartition des lois B(1, 0.4) et B(5, 0.4) en utilisant les fonctions plot et lines avec l’option type="s". On pourra utiliser la commande sum. Pourquoi ce choix de fonction en escalier ? 3 Loi normale 3.1 Généralités Z Si X x N (0, 1) on a P (X ≤ x) = −∞ t2 1 √ e− 2 dt. 2π Si X suit une loi normale de moyenne m et de variance σ 2 si X −m suit une loi normale centrée réduite. σ Exercice 6 Vérifiez par le calcul qu’on a Z +∞ t2 1 √ te− 2 dt = 0, • m = E(X) = −∞ Z +∞ 2π t2 1 √ t2 e− 2 dt = 1. • σ 2 = E(X 2 ) = 2π −∞ Exercice 7 Représentez sur un même graphique, à l’aide de 500 valeurs réparties uniformément sur [−3, 3], la courbe de densité et la fonction de répartition de la loi normale centrée réduite. 3.2 Tests de normalité En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d’adéquation (ou tests d’ajustement, tests permettant de comparer des distributions), appliqués à une loi normale. Ces tests prennent une place importante en statistiques. En effet, de nombreux tests supposent la normalité des 6/9 distributions pour être applicables. En toute rigueur, il est indispensable de vérifier la normalité avant d’utiliser les tests. Cependant, de nombreux tests sont suffisamment robustes pour être utilisables même si les distributions s’écartent de la loi normale. Il existe un grand nombre de tests de normalité : – le test d’adéquation du χ2 , – les tests basés sur la fonction de répartition empirique : le test de Kolmogorov-Smirnov et son adaptation le test de Lilliefors, ou le test de Anderson-Darling et le test de Cramer-Von Mises, – les tests basés sur les moments, comme le test de Jarque-Bera ou le test D’Agostino’s K-squared, – ou encore le test de Shapiro-Wilk, ou le test de Shapiro-Francia. Les tests de normalité sont des tests d’hypothèse. En notant F (x) la fonction de répartition basée sur les données à analyser et F0 (x) la fonction de répartition théorique, les hypothèses nulle et alternative peuvent s’écrire : H0 : F (x) = F0 (x) . H1 : F (x) 6= F0 (x) Les tests sur les moments ont une hypothèse moins forte, ils ne testent pas si la fonction de répartition est normale, mais si les moments (coefficients d’asymétrie et d’aplatissement) de la distribution inconnue sont identiques à ceux d’une loi normale. On remarquera que ce n’est pas suffisant pour caractériser une loi normale (problème des moments). 1. Le test de Kolmogorov-Smirnov. On remarquera que le test du χ2 est très bien adapté à des variables à r classes non ordonnées. En effet, la statistique sur laquelle se fonde le test ne tient pas compte d’un éventuel ordre des r classes. Si l’on veut utiliser cette propriété, on peut utiliser un autre test d’ajustement : le test de KolmogorovSmirnov. Ce test est basé sur la comparaison de la fonction cumulative de fréquences n de l’échantillon et celle de F de la population donnée. La plus grande divergence en valeur absolue existant entre ces deux distributions est recherchée. La référence à la distribution d’échantillonage de D est connue. La statistique sur laquelle est fondée ce test est D = sup |N − F | = sup |N (t) − F (t)| t∈R c’est-à-dire le maximum de la valeur absolue de la différence entre la fonction de répartition F de la loi sur laquelle on veut faire l’ajustement et la fonction de répartition empirique (ou fonction cumulative observée) définie par l’échantillon (x1 , . . . , xn ). Proposition 3.1 Test de Kolmogorov-Smirnov – L’hypothèse à contrôler : “X a pour fonction de répartition F ". – Fonction discriminante : D = supt∈R |Fn (t) − F (t)| – Valeur critique : Dn,α lue dans la table de Kolmogorov-Smirnov, la loi de D dépendant uniquement de la taille n de l’échantillon. Cette loi est tabulée (voir la table I) pour n variant de 1 à 40. Pour des valeurs de n supérieures à 40, on utilise la convergence de la loi de D vers une loi indépendante de n quand n croît : +∞ X √ 2 2 lim p sup n|FN (t) − F (t)| < α = 1 − 2 (−1)k+1 e−2k α n→+∞ t k=1 pour tout α positif. – Test : si D > Dn,α , l’hypothèse H0 est rejetée avec le risque d’erreur α et le niveau de confiance est P = 1 − α. – Conclusion : • Si D ≤ Dn,α , alors la distribution suit une loi normale. • Si D > Dn,α , alors la distribution ne suit pas une loi normale. Ce qui importe, c’est qu’en pratique, dès que n est supérieur à 40, on peut utiliser une loi unique et par suite, les valeurs correspondant aux seuils de signification 20%, 15%,. . . ,1% forment une seule ligne de la table, la √ dernière, à condition bien-sûr d’effectuer dans chaque cas la division par n où n est le nombre d’observations. Exercice 8 (a) Lors d’une expérience, les résultats observés sur un échantillon de 8 sujets sont les suivants : Sujet s1 s2 s3 s4 s5 s6 s7 s8 xi 5 7 8 11 12 13 13 15 7/9 On veut étudier la normalité de la distribution des résultats dans la population parente. À l’aide d’un tableur, on construit le tableau suivant : X Z Ñ (X) N (X) F (X) |Ñ (X) − F (X)| |N (X) − F (X)| 5 7 8 11 12 13 13 15 -1,5877 -1,0104 -0,7217 0,1443 0,4330 0,7217 0,7217 1,2990 0 0,125 0,25 0,375 0,5 0,625 0,75 0,875 0,125 0,25 0,375 0,5 0,625 0,75 0,875 1 0,0562 0,1562 0,2352 0,5574 0,6675 0,7648 0,7648 0,9030 0,0562 0,0938 0,0148 0,1824 0,1675 0,1398 0,0148 0,028 0,0688 0,0938 0,1398 0,0574 0,0425 0,0148 0,1102 0,0970 Maximum 0,1824 Justifiez la construction de ce tableau et utilisez le test de Kolmogorov-Smirnov pour apporter une réponse au problème posé. (b) Sur un échantillon prélevé au hasard dans une autre population, les résultats observés sont : Sujet s1 s2 s3 s4 s5 s6 s7 s8 xi 5 5,5 5,5 6 14 16 16 17 Le tableau de calcul, partiellement rempli, est le suivant : X Z Ñ (X) 5 5,5 5,5 6 14 16 16 17 -1,0141 -0,9239 -0,9239 -0,8338 0,6085 0,9690 0,9690 10,625 5,5469 Moyenne Ec. type cor. N (X) F (X) 0,125 0,25 0,375 0,5 0,625 0,75 0,875 1 0,1553 0,1778 0,1778 0,2022 0,7286 |Ñ (X) − F (X)| |N (X) − F (X)| 0,0303 0,0722 0,1972 0,2978 0,1036 Maximum Complétez ce tableau et utilisez de même le test de Kolmogorov-Smirnov pour étudier la normalité de la variable dépendante étudiée. 2. Le test de Shapiro-Wilk. Le test de Shapiro-Wilk est valable pour des tailles n d’échantillons relativement faibles (n compris entre 5 et 38). Ce test ne regarde pas la distribution empirique entière mais seulement si elle est symétrique et si elle plus pointue ou moins pointue qu’une distribution normale (qu’on appelle la “kurtosis"). Il est moins strict que le test de Kolmogorov-Smirnov mais il suffit largement pour pouvoir décider entre paramétrique et non paramétrique. Proposition 3.2 Test de Shapiro-Wilk Les n observations expérimentales ont été au préalable rangées par ordre de valeur croissante, soit x1 ≤ x2 ≤ . . . ≤ xn−1 ≤ xn . – On calcule la moyenne de la série de mesures x. p X – On calcule le nombre Tn = ni (xi − x)2 i=1 – On calcule les différences suivantes : = xn − x1 = xn−1 − x2 .. . di = xn−i+1 − xi .. . Remarquons que si n = 2k (n pair), on aura k différences et si n = 2k + 1 (n impair) on aura aussi k différences, l’observation médiane n’intervenant pas. d1 d2 8/9 – Hypothèse à contrôler : “la distribution est normale”. – Fonction discriminante : 2 p X aj dj W = j=1 Tn où les coefficients aj sont donnés par la table D. – Valeur critique : Wα,n lue dans la table E. – Test : Si W < Wα,n , l’hypothèse est rejetée avec le risque d’erreur α et le niveau de confiance P = 1 − α. – Conclusion : • Si W > Wα,n , on accepte, au risque choisi, l’hypothèse de normalité de la série de mesure. • Si W > Wα,n , on rejette l’hypothèse de normalité de la série de mesure. Exercice 9 On a titré une série de 10 lots de Streptomycine par dosage au maltol. On a obtenu les résultats suivants diminués de 700 unités : 60 - 80 - 55 - 45 - 60 - 65 - 65 - 60 - 70 - 40. Testez la normalité de cette série de résultats à l’aide d’un test de Shapiro-Wilk. 4 Loi de Poisson La loi de Poisson permet par exemple de modéliser la loi du nombre d’occurrences de phénomènes répétitifs sur des intervalles de temps donnés, ces éléments étant séparés par des durées exponentielles iid. (par exemple, le nombre de pannes dans un système, le nombre de passages de trains à une station de métro,. . . ). λj Si X P(λ), on a P (X = j) = e−λ qui correspond à la probabilité d’obtenir j succès pour n essais j! indépendants avec une probabilité p de succès quand n → +∞, p → 0 et λ = np. On a E(X) = V (X) = λ. Exercice 10 On a compté les appels téléphoniques par unité de temps pendant une période de 50 unités. On a trouvé 0 (21 fois), 1 (16 fois), 2 (9 fois), 3 (3 fois) et 4 (1 fois). Tracez la fonction de vraisemblance de l’échantillon en supposant qu’il s’agit d’un échantillon aléatoire simple d’une loi de Poisson. Rappel : Soit X une variable aléatoire réelle, de loi discrète ou continue, dont on veut estimer un paramètre θ. On note Dθ cette famille de lois paramétriques. Alors on définit une fonction f telle que : ( fθ (x) si X est une v.a. continue f (x; θ) = Pθ (X = x) si X est une v.a. discrète fθ (x) représente la densité de X (où θ apparaît) et Pθ (X = x) représente une probabilité discrète (où θ apparaît). On appelle vraisemblance de θ au vu des observations (x1 , . . . , xi , . . . , xn ) d’un n-échantillon indépendamment et identiquement distribué selon la loi Dθ , le nombre : L(x1 , . . . , xi , . . . , xn ; θ) = f (x1 ; θ) × f (x2 ; θ) × . . . × f (xn ; θ) = n Y f (xi ; θ) i=1 On cherche à trouver le maximum de cette vraisemblance pour que les probabilités des réalisations observées soient aussi maximum. On cheche pour cela à maximiser le logarithme népérien de la vraisemblance (le produit se transforme en somme, ce qui est plus simple à dériver). Ainsi en pratique, la condition nécessaire ∂L(x1 , ..., xi , ..., xn ; θ) =0 ∂θ ou ∂ ln L(x1 , ..., xi , ..., xn ; θ) =0 ∂θ permet de trouver la valeur θ = θ̂. Références [1] Frédéric BERTRAND. Initiation au logiciel R - Master Statistique 2ème année. http ://www-irma.u-strasbg.fr/∼fbertran/enseignement/Statistique− Master2SA− 2009.html 9/9