Université de Nice – Sophia Antipolis
Maîtrise MIM 2000-2001: Probabilités et Statistiques (1er sem.)
Notes de cours et exercices, examens et corrigés
(1) Espaces probabilisés: tribus, mesures, variables aléatoires. Espérance et variance.
Indépendance. Moments, cumulants, fonction caractéristique.
(2) Classes de fonctions mesurables. Espaces L1et L2. Espaces de Hilbert. Projections
orthogonales, Matrices de Gram. Régression, mise à jour d’une estimation.
(3) Inégalité de Tchebychev et “Théorème d’or” de Jacques Bernoulli. Convergence
en loi, théorème de Lévy-Bochner. Loi des grands nombres et théorème de la limite
centrale. Note Historique et loi forte des grands nombres.
(4) Autour des théorèmes classiques: variables aléatoires à valeurs dans N, lois bino-
miales, lois de Poisson, limite de Poisson. Exemples et applications. Loi de Cauchy.
Schéma de Bernoulli.
(5) Espérance conditionnelle (I): conditionnement sur un évènement, sur une partition
finie, sur une variable aléatoire. Propriété de meilleure approximation au sens des
moindres carrés. Courbe et Droite de régression.
(6) Espérance conditionnelle (II). Sous-tribus et Intégration, l’espérance condition-
nelle comme projection orthogonale. Le cas général (théorème de Kolmogorov.) Pro-
babilité conditionnelle et variance conditionnelle.
(7) Vecteurs aléatoires. Lois conditionnelles. Désintégration radioactive et loi expo-
nentielle. Le cas d’un échantillon fini. Processus de comptage.
(8) Le Processus de Poisson. Théorème de remise à zéro. Indépendance et stationnarité
des accroissements. Propriété de Markov. Répartition conditionnelle uniforme.
(9) Vecteurs gaussiens. Indépendance et Espérance conditionnelle dans le cadre gaus-
sien. Processus Gaussiens. Processus de Wiener.
(10) Quelques propriétés du processus de Wiener (Résumé.)
Version du cours : 1-02-2001
Examens du 30 novembre 2000, du 11 janvier 2001 et du 31 janvier 2001 et leurs corrigés.
Examen du 17 septembre 2001 et son corrigé.
Formatage du polycopié : 6-09-2001
c
J.-F. Burnol, 2001.
2Université de Nice – Sophia Antipolis
J’ai rassemblé ici les feuilles distribuées aux étudiants de mon cours de Probabilités en
Maîtrise Ingéniérie Mathématique, année 2000-2001, 1er semestre, ainsi que les examens,
avec quelques modifications mineures, et dans une présentation typographique plus espa-
cée.
Pour l’essentiel ces feuilles sont composées d’exercices (seuls les plus difficiles sont ac-
compagnés d’une solution) alternant avec des notes de cours (il y a en tout 263 exercices,
sans compter les examens et leurs corrigés.)
Il y a de nombreuses imperfections, et les remarques et suggestions sont les bienvenues à
[email protected]. Les étudiants ne disposaient comme formation préalable pour la
plupart d’entre eux que d’un unique semestre de Probabilités en Licence, et effectivement
une bonne partie des notions abordées ici devraient l’être dès la Licence.
Un grand merci à Bernard Candelpergher et à Michel Miniconi pour leur efficace colla-
boration sur ce cours tout au long du semestre.
jf b.
Maîtrise MIM 2000-2001: Probabilités-Statistiques 3
Notes de cours et exercices (1)
Espaces probabilisés: tribus, mesures, variables aléatoires. Espérance et va-
riance. Indépendance. Moments, cumulants, fonction caractéristique.
Nous avons besoin de notions de niveau Licence introduites dans les cours sur la théorie de l’Intégration
et la Théorie des Probabilités. En voici quelques rappels:
Espaces mesurés et espaces probabilisés
Un espace mesuré est la donnée d’un ensemble non vide X, muni d’une tribu Fde sous-ensembles,
appelées parties mesurables, telles que:
[1] ∅ ∈ F
[2] A F X \ A∈ F
[3] Toute union dénombrable de parties mesurables est également une partie mesur-
able.
et d’une mesure µ:F [0,+]vérifiant:
[4] Pour toute famille dénombrable de parties mesurables Ajdeux-à-deux disjointes
on a
µ(A1A2...) = µ(A1) + µ(A2) + ...
Une tribu d’ensembles (propriétés [1],[2],[3]) est aussi appelée sigma–algèbre. La propriété [4] est dite
σ–additivité. Sur Ril existe une plus petite tribu BRcontenant tous les intervalles, elle est appelée
tribu des boréliens. Une application h:X Rest dite mesurable si pour tout intervalle Ide Rle sous
ensemble h1(I) := {x∈ X |h(x)I}est une partie mesurable de X. Il revient au même de demander
h1(B)∈ F pour tout borélien BR. Pour X=R,F=BR, une fonction h:RRmesurable en ce
sens est aussi appelée “Borélienne”.
Un espace probabilisé est un espace mesuré de masse totale 1(µ(X) = 1). On notera alors plutôt
que X,Pplutôt que µ, les parties mesurables sont appelées évènements, les fonctions mesurables sont
appelées variables aléatoires. On utilisera des notations condensées comme P(XI)au lieu de P({ω
|X(ω)I}), ou encore ¬A(qui se prononce “non-A”) au lieu de \A. On écrit parfois “Aet B” au lieu
de AB, ou encore “Aou B” au lieu de AB. La distribution ou loi PXd’une variable aléatoire Xest
la mesure de probabilité sur R(muni de la tribu des boréliens) vérifiant a, b PX(]a, b]) = P(a < X b).
4Université de Nice – Sophia Antipolis
Indépendance: Deux évènements sont indépendants si
P(Aet B) = P(A)P(B)
Des évènements A1, . . . , ANsont indépendants si pour tout J= 1,...,N:
1i1< i2< . . . < iJN P (Ai1et ... et AiJ) = P(Ai1)···P(AiJ)
Des variables aléatoires X1,...,XNsont indépendantes si pour tout choix d’interval-
les B1,...,BNdans Rles évènements X1B1,...,XNBNsont indépendants.
Références: n’importe quel livre de Théorie des Probabilités de niveau deuxième cycle expose ces notions
qui ont été universellement adoptées.
Attention à la terminologie: une variable aléatoire n’est donc pas une “variable” au sens où sont
habituellement employés x, y, z . . ., c’est une fonction, et d’ailleurs pas du tout aléatoire (au sens
de “incertaine”, “mal définie”, etc...). Cette axiomatisation des notions probabilistes intuitives
fut proposée par Kolmogorov dans un ouvrage célèbre paru en 1933. Elle faisait suite à des
travaux par de nombreux auteurs depuis la fin du XIXème siècle et s’appuie en particulier sur la
théorie de l’intégration de Lebesgue (1904).
[1] On lance un tétraèdre, les couleurs des faces étant bleu, rouge, vert, et blanc. Soient A
l’évènement “la face cachée est bleue ou blanche”, B“la face cachée est rouge ou blanche”, C
“la face cachée est verte ou blanche”. Montrer que les évènements A, B, C sont deux-à-deux
indépendants mais ne sont pas indépendants dans leur ensemble.
[2] Soient Xet Ydeux variables aléatoires indépendantes. Soient g:RRet h:RRdeux
fonctions boréliennes. Montrer que g(X)et h(Y)sont indépendantes.
Théorie de l’intégration de Lebesgue
On associe à toute fonction h(x)(mesurable) positive son intégrale notée RXh(x)(x)ou Rh dµ
ou même µ(h). C’est un élément de [0,](la valeur +est possible) que l’on obtient de la
manière suivante: si hest une fonction étagée, combinaison linéaire finie P1jnαj·1Aj(x)de
fonctions indicatrices de parties mesurables alors µ(h) := P1jnαjµ(Aj).(La fonction indicatrice
1Ad’un sous-ensemble A⊂ X est définie par 1A(x) = 1 si xA,1A(x) = 0 sinon.) En général lorsque
h0,µ(h)vaut supkh, k ´etag´ee µ(k).
Lorsque hn’est plus nécessairement à valeurs positives elle est dite intégrable si R|h|dµ < . On
pose alors par définition Rh dµ =Rh+Rh(avec h+:= max(h, 0) et h=min(h, 0)).
C’est un nombre réel (les valeurs ±∞ étant exclues puisque Rh+dµ < et Rhdµ < ).
Maîtrise MIM 2000-2001: Probabilités-Statistiques 5
Théorème de la convergence dominée: Si hn(x)est une suite de fonctions
intégrables qui sont toutes dominées par une fonction intégrable fixe g(x)
xn|hn(x)| ≤ g(x)et ZX
g(x)dx < +
et qui convergent en tout xvers une limite h(x)alors hest elle-même mesurable et
intégrable et limn→∞ Rhn=Rhdµ. On a aussi limn→∞ R|hnh|= 0.
Théorème de la convergence monotone: Soit hn(x)une suite croissante
x hn(x)hn+1(x)
de fonctions positives mesurables convergeant en chaque xvers une limite h(x).
Alors hest mesurable et Rh dµ = limn→∞ Rhn. Ainsi hest intégrable si et
seulement si Rhndµ < C < pour une constante Cindépendante de n.
Note: si h(x)est à valeurs dans C, on pose:
ZX
h(x)(x) = ZX
Re(h(x)) (x) + iZX
Im(h(x)) (x)
Lorsque l’on travaille sur un espace probabilisé l’intégrale
Z
X(ω)dP (ω)
lorsqu’elle existe est appelée espérance de Xet est notée E(X).
L’espérance de la fonction indicatrice d’un évènement est égale à la probabilité de
cet évènement.
E(X) = Z
X(ω)dP (ω)E(1A) = P(A)
Théorème: Soit Xune variable aléatoire et soit h:RRune fonction borélienne. La variable
aléatoire h(X)est intégrable par rapport à Psi et seulement si hest intégrable sur Rpar rapport
à la distribution PXde X. De plus les deux intégrales coïncident:
E(h(X)) = Z
h(X(ω)) dP (ω) = ZR
h(u)dPX(u)
1 / 78 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !