Simulation-Monte Carlo

Telechargé par Drissa Fane
MASTER GRAF
DR OKOU GUEI CYRILLE Cours : Simulation Monte-Carlo
DR OKOU GUEI CYRILLE
PhD en Mathématiques appliquées:
Statistiques
Enseignant-Chercheur
Maître Assistant des Universités CAMES
Cours : Simulation Monte-Carlo
MASTER GRAF
DR OKOU GUEI CYRILLE Cours : Simulation Monte-Carlo
Table des matières
Chapitre 1 : Généralité sur les estimateurs Monte Carlo ...................................................................... 3
1.1. Description de la méthode ..................................................................................................... 3
1.1.1. Loi des grands nombres .................................................................................................. 3
1.1.2. Vitesse de convergence et intervalles de confiance ...................................................... 4
Chapitre 2 : Simulation de variables aléatoires ..................................................................................... 8
2.1. Loi uniforme ............................................................................................................................ 8
2.2. Méthode d’inversion .............................................................................................................. 8
2.3. Méthodes de transformation générales ................................................................................ 9
2.3.1. Un générateur aléatoire normal .................................................................................. 10
2.4. Méthodes de rejet ................................................................................................................ 11
Chapitre 3 Intégration de Monte-Carlo ............................................................................................... 18
3.1. Intégration numérique .............................................................................................................. 18
3.2. L’intégration classique de Monte-Carlo .................................................................................... 19
Bibliographie ......................................................................................................................................... 21
MASTER GRAF
DR OKOU GUEI CYRILLE Cours : Simulation Monte-Carlo
Chapitre 1 : néralité sur les estimateurs Monte Carlo
1.1. Description de la méthode
Supposons que l'on veuille calculer une quantité I. La première étape est de la mettre sous
forme d'une espérance  avec X une variable aléatoire.
Si on sait simuler des variables indépendantes et identiquement distribuées (ce
que nous noterons i.i.d. dans la suite), alors nous pouvons approcher I par

avec N « grand », sous réserve d'application de la loi des grands nombres. C'est ce type
d'approximation que l'on appelle méthode de Monte-Carlo .
La méthode de Monte Carlo est une méthode pour faire des calculs numériques.
1.1.1. Loi des grands nombres
On fixe dans la suite un espace de probabilités . On considère sur cet espace une suite
 de variables aléatoires indépendantes et identiquement distribuées. On note alors
SN la somme empirique jusqu’à l’indice N :

Théorème 1 (Loi forte des grands nombres).
Supposons que les soient intégrables. Alors

 .
La méthode de Monte Carlo est une application directe de ce résultat permettant le calcul
‘pratique’ d’intégrales
Plus précisément, considérons une fonction measurable et notons

. On considère alors une suite de variables aléatoires i.i.d.  de loi uniforme
sur [0,1]. D’après la loi forte des grands nombres, nous obtenons la convergence suivante :



  
Cette convergence nous permet alors de faire l’approximation suivante :
 


De manière plus générale, si est définie et mesurable sur et est une fonction de densité
de probabilité sur alors la loi forte de grands nombres nous donne
MASTER GRAF
DR OKOU GUEI CYRILLE Cours : Simulation Monte-Carlo



  
 est une suite i.i.d. de densité g. Nous retrouvons alors encore l’approximation
suivante :  


Remarque 1.1.1. : Dans l’approximation précédente, le choix du paramètre N doit être le plus
grand possible pour réduire l’erreur d’approximation. Par contre il faut prendre N le plus petit
possible pour réduire le temps de calcul. Ainsi se pose le choix de N qui est lié à la qualité de
l’approximation précédente relative à ce paramètre. On parle alors de vitesse de convergence.
Cette vitesse est étudiée dans la section suivante
Exemple 1.1.1. Supposons que l'on cherche à calculer :

 avec une fonction bornée
Posons les sont des variables aléatoires indépendantes
suivant toutes une loi uniforme sur [0;1]. Alors :
 )
Etapes de l’Algorithme
Etape 1 : Simuler les
, 
,…, 
selon la loi uniforme sur [0,1]
Etape Calculer la somme :


Appliquer l’algorithme à la fonction suivante :

Approximation de Monte-Carlo
d=3
n=1000
s=0
for (i in 1:n)
{ u=runif(d,0,1) #simulation de d variables uniformes indépendantes
s=s+sin(u[1])*sin(u[2])*sin(u[3])
}
print(s/n)
1.1.2. Vitesse de convergence et intervalles de confiance
Nous commençons par le principal résultat donnant la vitesse de convergence.
Théorème 2 (Théorème central limite). Supposons que les variables aléatoires  soient
à valeurs réelles et de carré intégrable. Notons . Alors
MASTER GRAF
DR OKOU GUEI CYRILLE Cours : Simulation Monte-Carlo


La version multidimensionnelle est la suivante : si les  sont à valeurs dans alors


 et 
 désignent respectivement le vecteur moyenne et la
matrice de variance-covariance des 
Remarque 1.1.2 : Le théorème central limite nous donne deux informations: la vitesse de
convergence qui est en et la variance de la loi asymptotique de l’erreur.
- La vitesse en est très lente (il faut multiplier par 4 le nombre d’itérations pour
divisier l’erreur par 2). Il s’agit cependant de l’un des principaux avantages de la
méthode de Monte Carlo puisque cette vitesse ne dépend pas de la dimension
(contrairement aux méthodes déterministes).
- La variance est très importante en pratique car plus elle est grande, moins
l’approximation risque d’être efficace. Nous allons voir son rôle primordial dans le
‘critère d’arrêt’ de la procédure basée sur les intervalles de confiance.
Nous présentons maintenant la notion d’intervalle de confiance. Nous considérons dans la
suite des variables aléatoires unidimensionnelles.
Intervalles de confiance asymptotiques. Nous commençons par les intervalles de confiance
limites. Nous supposons dans cette section que la loi des variables aléatoires  dépend
d’un paramètre réel que l’on cherche à estimer.
Définition1.2.1. (Intervalles de confiance asymptotique).
Fixons un réel .Un intervalle de conance pour de niveau (probabilité de conance)
est un intervalle  dont les bornes sont des fonctions de  et tel
que 

Cas d’une variance σ2 connue.
a) Cas d’une variance connue,
On déduit du TCL un intervalle de confiance pour la moyenne m des . En effet, la loi
limite n’ayant pas d’atome, nous avons :



Avec 
 or 
 Donc 

Nous en déduisons un intervalle de confiance asymptotique pour de niveau de la
forme
 

1 / 21 100%

Simulation-Monte Carlo

Telechargé par Drissa Fane
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !