Statistique non paramétrique
Master 2
Économétrie et Statistique Appliquée
Gilbert Colletaz
3 octobre 2016
2
Table des matières
1 Introduction 5
1.0.1 Rappels ............................ 5
1.0.2 tests paramétriques et non paramétriques . . . . . . . . . 6
1.0.3 La nature des observations : les échelles de mesure . . . 7
1.0.4 Les caractéristiques usuelles d’une distribution . . . . . 8
2 Tests sur un seul échantillon 23
2.1 Test d’hypothèse sur la distribution . . . . . . . . . . . . . . . . . 23
2.1.1 Les tests EDF : Kolmogorov-Smirnov, Anderson-Darling,
Cramer-vonMises ...................... 24
2.1.2 Le test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . 27
2.1.3 Exemple 1 : test de la normalité d’un vecteur d’observations 28
2.1.4 Les outils graphiques : histogramme et qqplot . . . . . . 30
2.1.5 le test de χ2dePearson ................... 35
2.1.6 Exemple 2 : test de normalité d’observations regroupées 39
2.1.7 Exemple 3 : test de fréquences et de proportions avec proc
freq .............................. 42
2.1.8 Probabilité critique exacte, application au χ2de Pearson 44
2.1.9 Estimation de la probabilité critique exacte par bootstrap-
ping .............................. 49
2.2 Test d’hypothèse sur la valeur centrale . . . . . . . . . . . . . . . 50
2.2.1 Letestdusigne........................ 51
2.2.2 Le test de Wilcoxon ou test des rangs signés . . . . . . . 52
2.2.3 Exemple 1 : test sur la valeur de la médiane d’une série . 54
2.2.4 Exemple 2 : application à un échantillon apparié . . . . . 54
2.2.5 Le test de McNemar . . . . . . . . . . . . . . . . . . . . . 57
2.2.6 Exemple 3 : de l’utilité d’une double correction des copies 59
2.2.7 Le test binomial d’une proportion . . . . . . . . . . . . . 60
3 Tests d’égalité de deux distributions 63
3.1 Letestdelamédiane......................... 64
3.2 Les tests de Mann-Whitney et de la somme des rangs de Wilcoxon 64
3.2.1 Le test de Mann-Whitney . . . . . . . . . . . . . . . . . . 64
3.2.2 Le test de Wilcoxon . . . . . . . . . . . . . . . . . . . . . . 66
3.3 Les tests EDF : Kolmogorov-Smirnov, Cramer-von Mises, Kuiper 68
3.3.1 le test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . 68
3.3.2 le test de Cramer-von Mises . . . . . . . . . . . . . . . . . 69
3.3.3 le test de Kuiper . . . . . . . . . . . . . . . . . . . . . . . 69
3
4
TABLE DES MATIÈRES
3.3.4 Exemple 1 : notes à la session 1 des examens du M1 ESA
selon la provenance des étudiants . . . . . . . . . . . . . 70
3.3.5 Exemple 2 : le paradoxe de Simpson - analyse stratifiée et
contrôle de la composition des échantillons . . . . . . . . 76
4 Tests d’indépendance ou d’homogénéité 81
4.1 Le χ2dePearson ........................... 81
4.1.1 Test d’homogénéité d’échantillons . . . . . . . . . . . . . 81
4.1.2 Test d’indépendance de variables . . . . . . . . . . . . . . 83
4.1.3 Exemple : L’argent fait le bonheur! . . . . . . . . . . . . . 83
4.2 Le test de Fisher exact . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Le cas des tableaux R×C....................... 90
4.4 Les mesures d’association - coecients phi et V de Cramer . . . 90
4.4.1 le coecientphi ....................... 90
4.4.2 le coecient V de Cramer . . . . . . . . . . . . . . . . . . 91
Chapitre 1
Introduction
Ce cours a pour objectif la présentation des tests non paramétriques les plus
couramment utilisés. Il se situe dans le cadre de l’inférence statistique et des
tests d’hypothèse usuels : on cherche à apprécier des caractéristiques d’une
population à partir d’un échantillon issu de cette population.
1.0.1 Rappels
S’agissant de savoir si les données contredisent ou ne contredisent pas une
proposition, vous savez que l’on est amené à réaliser un test de signification
qui nécessite la formulation d’une hypothèse nulle, H0, et d’une hypothèse al-
ternative, H1.
L’hypothèse nulle porte sur la ou les valeurs d’un ou plusieurs paramètres de
la population ou d’un modèle statistique. L’hypothèse alternative correspond
à l’argument que l’on souhaite retenir en cas de rejet de la proposition de base.
Vous avez ainsi rencontré des exemples comme :
L’espérance d’une variable X est égale à μ0versus elle est diérente de
μ0, soit
H0 : E(X)=μ0vs H1:E(X),μ0
L’espérance d’une variable est la même au sein de deux populations A
et B versus l’espérance au sein de A est inférieure à sa valeur au sein de
B
H0 : μA=μBvs H1:μA< μB
Au sein d’un modèle de régression donné, la variable X n’est pas une
explicative pertinente
H0 : βX=0vs H1:βX,0
Vous savez aussi que la conclusion est toujours formulée sur l’hypothèse nulle,
soit on ne rejette pas H0, soit on rejette H0, et que le non rejet de H0ne signi-
fie pas que la proposition qui lui est associée est vraie, mais seulement que
l’information contenue dans les données ne permet pas raisonnablement de
l’abandonner au profit de l’alternative.
Vous savez également que "raisonnablement" suppose que l’on ait choisi un
5
1 / 92 100%