Méthodes d`intégrations Approches déterministes Quadratures

publicité
Méthodes d'intégrations
Approches déterministes
Quadratures
Approches déterministes
Quadratures
Qu'est ce qu'intégrer
Intégration
Mesurer l'aire sous une
courbe.
b
y
∫ f ( x )d x
a
f(x)
b
I =∫ f ( x )d x
a
Définitions :
f(x) est l'intégrande
a = borne inférieure
b = borne supérieure
3
a
b
http://numericalmethods.eng.usf.edu
x
Intégrale au sens de Riemann
n
I n = ∑ f ( x k )( x k − x k −1 )
k =1
xn
lim I n=∫ f ( x )= I
n→∞
x0
f
Intégration numérique 1D - Rectangles
●
Méthode des rectangles
n
–
A droite
b−a
I n=
f (xk)
∑
n k =1
n
–
●
A gauche
Convergence
–
Si f est C0 : O (n-1)
b−a
I n=
f ( x k−1 )
∑
n k =1
Intégration numérique 1D – Points du milieu
●
Méthode des points du milieu
n
x k +1− x k
b−a
I n=
f
∑
n k =1
2
●
Convergence
–
Si f est C0 : O (n-1)
–
Si f est au moins C2 : O (n-2)
(
)
Intégration numérique 1D
●
Intervalles uniformes
●
Méthode des rectangles
Convergence
n
b−a
I n=
f (xk)
∑
n k =1
●
O(n-1)
Méthode des trapèzes
n
b−a
I n=
f ( x k−1 ) +f ( x k ) )
∑
(
2n k =1
●
Formule de Simpson
O(n-2)
f
n
b−a
I n=
f ( x k−1 ) +4 f ( x k −1/ 2 ) +f ( x k ) )
∑
(
6n k =1
f
O(n-4)
Quadrature de Gauss en 1D
M
1
I =∫−1 f ( x ) d x≃ ∑ W m f (εm )
m=1
Positions d'intégration
Poids
●
Les poids et les positions maximisent la précision
●
●
M positions pour l'espace des polynômes de degré 2M-1
Le calcul des intégrales est exact sur cet espace
1
M
∀ p∈P 2 M −1 ,∫−1 p (x )d x= ∑ W m p(ε m )
m =1
●
Les positions sont les racines du polynôme de Legendre
●
Base de polynômes orthogonale sur [-1,1]
1 d M ( 2 )M
P M ( x)= M
( x −1 )
M
2 M!dx
1D - M = 1
1
I =∫−1 f ( x )d x=w1 f ( x 1 )
Pour les polynômes de degré au plus 1
Pour f(x) = 1
Pour f(x) = x
⇒ w1=2
⇒ x 1=0
1D - M = 2
1
I =∫−1 f ( x )d x =w 1 f ( x 1 )+ w 2 f ( x 2 )
Pour les polynômes de degré au plus 3
Calcul des positions, racine de
2
d ( 2 )2
2
( ε −1 )=0=4(3 ε −1)
2
dε
√3
ε1=− 3 , ε2 =
√3
3
Calcul des poids
Pour f(x) = 1
Pour f(x) = x
⇒ w1+w 2=2
⇒−w 1+ w 2=0
w1  w2  1
2D – M = 2

 

1
3
,
1 
1

3
t
1

1


3
,
1 

3
1
1
I =∫−1 ∫−1 f ( s , t ) d s d t
1
s

1

 
1
3
,

1 
1



3
1
I ≈∫−1
M
(
M
3
)
∑ W j f (s , t j )
j =1
ds
,
1 

3
En utilisant la forme 1D pour t
M
≈ ∑ ∑ W i W j f ( si ,t j )
i =1 j=1
En utilisant la forme 1D pour s
Quadrature de Gauss 2D : domaine triangulaire
Intégrale sur le domaine de référence
t
1
1−t
I =∫t =0 ∫s=0 f (s , t )d s d t
N
1
s=1-t
1
t
≈ ∑ W n f ( sn , t n )
t
s
n=1
Contraintes sur les poids – fonction constante
Si f(s,t)=1
1
I =∫t =0 ∫s=0 f (s , t )d s d t=
2
=∑ n W n
1
1−t
1
∴ ∑n W n =
2
Quadrature de Gauss sur un triangle : M = 1
f( s , t )~
1
s t
t
1
1
I
2
1/3
1/3
1
s
 1 1
f , 
 3 3
Démonstration
Les polynômes de degré 1 s'écrivent
f( s, t )=α s+βt
En intégrant, on obtient
1
1
1
t 0 s0 f (s, t ) dsdt  2 1  3! 2  3! 3
1t
1
D'où la contrainte
1
1−t
∫t =0 ∫s =0 f (s ,t ) d sd t=W 1 f (s1 , t 1 )
1
1
∴ α + β=W 1 ( α s 1 +βt 1 )
3! 3!
Ainsi
1
1
1
W1  ; W1 s1  ; W1t1 
2
3!
3!
Quadrature de Gauss sur un triangle : M = 3
Solution exacte pour tous les polynômes de degré au plus 2
f( s,t )=
1
s t
2
2
s st t
t
1/2
1
1 2
1/2
3
1
s
1 1 1 1 1
1
1
I ≈ f , + f ,0 + f 0,
6 2 2 6 2
6
2
( ) ( ) ( )
Quadrature de Gauss sur un triangle : M = 4
Solution exacte pour tous les polynômes de degré au plus 3
f( s,t )=
t
(0.2,0.6)
1
s t
2
2
s st t
s3 s 2 t st 2 t 3
(1/3,1/3)
2
1
1
3
(0.2,0.2)
4
s
1(0.6,0.2)
27 1 1 25
25
25
I ≈− f , + f ( 0 .2,0 . 6 )+ f ( 0 .2,0 . 2 ) + f ( 0 . 6,0 . 2 )
96 3 3 96
96
96
( )
Recommended order
of integration
“Finite Element
Procedures”
by K. –J. Bathe
Convergence et dimension
●
●
En 1D
–
Convergence en O(n-(c+1))
–
c = continuité de la fonction
En dimension plus élevée d
–
Pour n valeurs / mailles
–
Taille intervalle 1D n1/d
–
Convergence en O(n-(c+1)/d)
Méthodes d'intégrations
Approches stochastiques
Méthode / algorithme probabiliste
●
●
Principe : introduire de l'aléatoire
–
Choix de solutions aléatoires, et garder la meilleure
–
Mélanger les données
–
Choisir des valeurs aléatoires
Pour l'intégration : intégration de Monte Carlo
Probabilité en espace continue : 1D
●
Échantillons aléatoires {Xi}
●
Densité de probabilité (PDF)
–
Probabilité associée
pdf ( x ) ≥0
P [ X i ∈ [ x , x+dx ] ] = pdf ( x ) d x
∞
–
Probabilité totale
pdf ( x ) d x=1
∫
−∞
Probabilité en espace continue : 1D
●
Fonction cumulative (CDF)
a
cdf (a)=P ( X ∈[−∞ , a] )=∫−∞ pdf ( x ) d x
P [ Xi ∈ [ a , b ] ] =cdf ( b ) −cdf ( a )
CDF vs PDF
pdf ( x)= π sin ( π x )
2
( 1−cos ( π x ) )
cdf ( x ) =
2
2
1.5
1
0.5
0
0
0.2
0.4
0.6
0.8
1
Intégrale de Lebesgue
●
Plus générique que Riemann
–
Notion de mesure de l'espace ()  0
I=∫ f ( x)μ ( d x )
Espérance – Variance – Écart-type
●
Espérance : valeur moyenne
E [ g( X )] =∫ g ( x ) pdf ( x ) d x
●
Variance : distance au carré à la moyenne
2
V [ g ( X )] =∫ ( g( x)−E [ g( X )] ) pdf ( x ) d x
V [ g ( X )] =E [ g ( X ) ] −E [ g( X )]
2
●
Écart-type : distance à la moyenne
σ [ g( X ) ] = √ V [ g( X )]
2
Méthode de Monte Carlo
●
Estimateur
n
n
1
1
I n =∑
f ( X i)
i =1 n pdf ( X i )
●
I n =∑ α i f ( x i )
i =1
Biais
–
Différence valeur attendue vs cherchée
–
Estimateur sans biais
biais=E [ I n ] − I
biais=0
Convergence
●
Variance
2
n
V [ I n ] =E [ I ] −E [ I n ]
●
Convergence
●
Meilleur choix de la PDF
2
1
= V[ I1]
n
1
σ [ I n ]= σ [ I 1 ]
√n
1
pdf ( x ) = f ( x ) ⇒ V [ In ] =0
I
Choix de la PDF / Importance Sampling
●
Algorithme d'échantillonnage
–
●
En fonction d'une PDF
●
i = nombre aléatoire uniforme (drand48(), …)
●
xi ← cdf-1(i)
Choix de la PDF
1
pdf ( x ) =
f (x)
∫ f (x )d x
–
Rappel, l'idéal
–
Approximation par une fonction proche
●
Doit être intégrable
●
L'intégrale doit être inversible
Importance Sampling
2
pdf ( x)= π sin ( π x )
2
(1−cos ( π x ) )
cdf ( x)=
2
1.5
1

0.5
0
0
0.2
0.4
x
0.6
0.8
1
Choix de la PDF / Importance Sampling
●
Algorithme d'échantillonnage
●
Choix de la PDF
–
Version tabulée
●
Échantillonnage de la fonction à intégrer
●
PDF constante par morceau
●
CDF linéaire par morceau
●
Calcul de l’échantillon en O( ln (k) )
Définitions xD
●
Xi = (X1,i, ...... , Xn,i)
●
Probabilité conditionnelle
–
–
Probabilité de Xj,i sachant que l'on connaît les autres
Propriétés (Bayes)
pdf ( x j∣{ x k ,k ≠ j } )≥0
pdf ( x 1, .. , x n ) =pdf ( x j∣{ x k , k ≠ j } ) pdf ( x 1 ,... , x j −1 , x j+1 ,... , x n )
pdf ( x 1 ,... , x j −1 , x j+1 ,... x n ) =∫ pdf ( x1 ,.. , x n ) d x j
Définitions xD
●
Xi = (X1,i, ...... , Xn,i)
●
Variables indépendantes
pdf ( x j∣{ x k , k ≠ j } )= pdf ( x j )
pdf ( x 1, .. , x n ) =∏ j pdf ( x j )
Définitions xD
●
Xi = (X1,i, ...... , Xn,i)
●
CDF conditionnelle
aj
cdf ( a j∣{ a k , k ≠ j } ) =∫−∞ pdf ( x j∣{ x k =a k , k ≠ j } ) dx j
aj
cdf ( a j∣{ a k , k ≠ j } ) =
∫−∞ pdf ( x 1 ,... , x n ) dx j
pdf ( x1 ,... , x j −1 , x j +1 ,... , x n )
aj
pdf ( x 1 ,... , x n ) dx j
∫
−∞
cdf ( a j∣{ a k , k ≠ j } ) = +∞
∫−∞ pdf ( x 1 ,... , x n ) dx j
Importance Sampling xD
●
Exemple en 2D: (X,Y)
●
Données
●
–
CDF(X)
–
CDF(Y|X)
Algorithme
–
e1 et e2 : valeurs aléatoires
–
X tel que e1 = CDF(X)
–
Y tel que e2 = CDF(Y|X)
Convergence et dimension
●
●
En 1D
–
Convergence en O(n-(c+1))
–
c = continuité de la fonction
En dimension plus élevée d
–
Pour n valeurs / mailles
–
Taille intervalle 1D n1/d
–
Convergence en O(n-c/d)
–
Monte Carlo en O(n-1/2)
Téléchargement