Méthodes d'intégrations Approches déterministes Quadratures Approches déterministes Quadratures Qu'est ce qu'intégrer Intégration Mesurer l'aire sous une courbe. b y ∫ f ( x )d x a f(x) b I =∫ f ( x )d x a Définitions : f(x) est l'intégrande a = borne inférieure b = borne supérieure 3 a b http://numericalmethods.eng.usf.edu x Intégrale au sens de Riemann n I n = ∑ f ( x k )( x k − x k −1 ) k =1 xn lim I n=∫ f ( x )= I n→∞ x0 f Intégration numérique 1D - Rectangles ● Méthode des rectangles n – A droite b−a I n= f (xk) ∑ n k =1 n – ● A gauche Convergence – Si f est C0 : O (n-1) b−a I n= f ( x k−1 ) ∑ n k =1 Intégration numérique 1D – Points du milieu ● Méthode des points du milieu n x k +1− x k b−a I n= f ∑ n k =1 2 ● Convergence – Si f est C0 : O (n-1) – Si f est au moins C2 : O (n-2) ( ) Intégration numérique 1D ● Intervalles uniformes ● Méthode des rectangles Convergence n b−a I n= f (xk) ∑ n k =1 ● O(n-1) Méthode des trapèzes n b−a I n= f ( x k−1 ) +f ( x k ) ) ∑ ( 2n k =1 ● Formule de Simpson O(n-2) f n b−a I n= f ( x k−1 ) +4 f ( x k −1/ 2 ) +f ( x k ) ) ∑ ( 6n k =1 f O(n-4) Quadrature de Gauss en 1D M 1 I =∫−1 f ( x ) d x≃ ∑ W m f (εm ) m=1 Positions d'intégration Poids ● Les poids et les positions maximisent la précision ● ● M positions pour l'espace des polynômes de degré 2M-1 Le calcul des intégrales est exact sur cet espace 1 M ∀ p∈P 2 M −1 ,∫−1 p (x )d x= ∑ W m p(ε m ) m =1 ● Les positions sont les racines du polynôme de Legendre ● Base de polynômes orthogonale sur [-1,1] 1 d M ( 2 )M P M ( x)= M ( x −1 ) M 2 M!dx 1D - M = 1 1 I =∫−1 f ( x )d x=w1 f ( x 1 ) Pour les polynômes de degré au plus 1 Pour f(x) = 1 Pour f(x) = x ⇒ w1=2 ⇒ x 1=0 1D - M = 2 1 I =∫−1 f ( x )d x =w 1 f ( x 1 )+ w 2 f ( x 2 ) Pour les polynômes de degré au plus 3 Calcul des positions, racine de 2 d ( 2 )2 2 ( ε −1 )=0=4(3 ε −1) 2 dε √3 ε1=− 3 , ε2 = √3 3 Calcul des poids Pour f(x) = 1 Pour f(x) = x ⇒ w1+w 2=2 ⇒−w 1+ w 2=0 w1 w2 1 2D – M = 2 1 3 , 1 1 3 t 1 1 3 , 1 3 1 1 I =∫−1 ∫−1 f ( s , t ) d s d t 1 s 1 1 3 , 1 1 3 1 I ≈∫−1 M ( M 3 ) ∑ W j f (s , t j ) j =1 ds , 1 3 En utilisant la forme 1D pour t M ≈ ∑ ∑ W i W j f ( si ,t j ) i =1 j=1 En utilisant la forme 1D pour s Quadrature de Gauss 2D : domaine triangulaire Intégrale sur le domaine de référence t 1 1−t I =∫t =0 ∫s=0 f (s , t )d s d t N 1 s=1-t 1 t ≈ ∑ W n f ( sn , t n ) t s n=1 Contraintes sur les poids – fonction constante Si f(s,t)=1 1 I =∫t =0 ∫s=0 f (s , t )d s d t= 2 =∑ n W n 1 1−t 1 ∴ ∑n W n = 2 Quadrature de Gauss sur un triangle : M = 1 f( s , t )~ 1 s t t 1 1 I 2 1/3 1/3 1 s 1 1 f , 3 3 Démonstration Les polynômes de degré 1 s'écrivent f( s, t )=α s+βt En intégrant, on obtient 1 1 1 t 0 s0 f (s, t ) dsdt 2 1 3! 2 3! 3 1t 1 D'où la contrainte 1 1−t ∫t =0 ∫s =0 f (s ,t ) d sd t=W 1 f (s1 , t 1 ) 1 1 ∴ α + β=W 1 ( α s 1 +βt 1 ) 3! 3! Ainsi 1 1 1 W1 ; W1 s1 ; W1t1 2 3! 3! Quadrature de Gauss sur un triangle : M = 3 Solution exacte pour tous les polynômes de degré au plus 2 f( s,t )= 1 s t 2 2 s st t t 1/2 1 1 2 1/2 3 1 s 1 1 1 1 1 1 1 I ≈ f , + f ,0 + f 0, 6 2 2 6 2 6 2 ( ) ( ) ( ) Quadrature de Gauss sur un triangle : M = 4 Solution exacte pour tous les polynômes de degré au plus 3 f( s,t )= t (0.2,0.6) 1 s t 2 2 s st t s3 s 2 t st 2 t 3 (1/3,1/3) 2 1 1 3 (0.2,0.2) 4 s 1(0.6,0.2) 27 1 1 25 25 25 I ≈− f , + f ( 0 .2,0 . 6 )+ f ( 0 .2,0 . 2 ) + f ( 0 . 6,0 . 2 ) 96 3 3 96 96 96 ( ) Recommended order of integration “Finite Element Procedures” by K. –J. Bathe Convergence et dimension ● ● En 1D – Convergence en O(n-(c+1)) – c = continuité de la fonction En dimension plus élevée d – Pour n valeurs / mailles – Taille intervalle 1D n1/d – Convergence en O(n-(c+1)/d) Méthodes d'intégrations Approches stochastiques Méthode / algorithme probabiliste ● ● Principe : introduire de l'aléatoire – Choix de solutions aléatoires, et garder la meilleure – Mélanger les données – Choisir des valeurs aléatoires Pour l'intégration : intégration de Monte Carlo Probabilité en espace continue : 1D ● Échantillons aléatoires {Xi} ● Densité de probabilité (PDF) – Probabilité associée pdf ( x ) ≥0 P [ X i ∈ [ x , x+dx ] ] = pdf ( x ) d x ∞ – Probabilité totale pdf ( x ) d x=1 ∫ −∞ Probabilité en espace continue : 1D ● Fonction cumulative (CDF) a cdf (a)=P ( X ∈[−∞ , a] )=∫−∞ pdf ( x ) d x P [ Xi ∈ [ a , b ] ] =cdf ( b ) −cdf ( a ) CDF vs PDF pdf ( x)= π sin ( π x ) 2 ( 1−cos ( π x ) ) cdf ( x ) = 2 2 1.5 1 0.5 0 0 0.2 0.4 0.6 0.8 1 Intégrale de Lebesgue ● Plus générique que Riemann – Notion de mesure de l'espace () 0 I=∫ f ( x)μ ( d x ) Espérance – Variance – Écart-type ● Espérance : valeur moyenne E [ g( X )] =∫ g ( x ) pdf ( x ) d x ● Variance : distance au carré à la moyenne 2 V [ g ( X )] =∫ ( g( x)−E [ g( X )] ) pdf ( x ) d x V [ g ( X )] =E [ g ( X ) ] −E [ g( X )] 2 ● Écart-type : distance à la moyenne σ [ g( X ) ] = √ V [ g( X )] 2 Méthode de Monte Carlo ● Estimateur n n 1 1 I n =∑ f ( X i) i =1 n pdf ( X i ) ● I n =∑ α i f ( x i ) i =1 Biais – Différence valeur attendue vs cherchée – Estimateur sans biais biais=E [ I n ] − I biais=0 Convergence ● Variance 2 n V [ I n ] =E [ I ] −E [ I n ] ● Convergence ● Meilleur choix de la PDF 2 1 = V[ I1] n 1 σ [ I n ]= σ [ I 1 ] √n 1 pdf ( x ) = f ( x ) ⇒ V [ In ] =0 I Choix de la PDF / Importance Sampling ● Algorithme d'échantillonnage – ● En fonction d'une PDF ● i = nombre aléatoire uniforme (drand48(), …) ● xi ← cdf-1(i) Choix de la PDF 1 pdf ( x ) = f (x) ∫ f (x )d x – Rappel, l'idéal – Approximation par une fonction proche ● Doit être intégrable ● L'intégrale doit être inversible Importance Sampling 2 pdf ( x)= π sin ( π x ) 2 (1−cos ( π x ) ) cdf ( x)= 2 1.5 1 0.5 0 0 0.2 0.4 x 0.6 0.8 1 Choix de la PDF / Importance Sampling ● Algorithme d'échantillonnage ● Choix de la PDF – Version tabulée ● Échantillonnage de la fonction à intégrer ● PDF constante par morceau ● CDF linéaire par morceau ● Calcul de l’échantillon en O( ln (k) ) Définitions xD ● Xi = (X1,i, ...... , Xn,i) ● Probabilité conditionnelle – – Probabilité de Xj,i sachant que l'on connaît les autres Propriétés (Bayes) pdf ( x j∣{ x k ,k ≠ j } )≥0 pdf ( x 1, .. , x n ) =pdf ( x j∣{ x k , k ≠ j } ) pdf ( x 1 ,... , x j −1 , x j+1 ,... , x n ) pdf ( x 1 ,... , x j −1 , x j+1 ,... x n ) =∫ pdf ( x1 ,.. , x n ) d x j Définitions xD ● Xi = (X1,i, ...... , Xn,i) ● Variables indépendantes pdf ( x j∣{ x k , k ≠ j } )= pdf ( x j ) pdf ( x 1, .. , x n ) =∏ j pdf ( x j ) Définitions xD ● Xi = (X1,i, ...... , Xn,i) ● CDF conditionnelle aj cdf ( a j∣{ a k , k ≠ j } ) =∫−∞ pdf ( x j∣{ x k =a k , k ≠ j } ) dx j aj cdf ( a j∣{ a k , k ≠ j } ) = ∫−∞ pdf ( x 1 ,... , x n ) dx j pdf ( x1 ,... , x j −1 , x j +1 ,... , x n ) aj pdf ( x 1 ,... , x n ) dx j ∫ −∞ cdf ( a j∣{ a k , k ≠ j } ) = +∞ ∫−∞ pdf ( x 1 ,... , x n ) dx j Importance Sampling xD ● Exemple en 2D: (X,Y) ● Données ● – CDF(X) – CDF(Y|X) Algorithme – e1 et e2 : valeurs aléatoires – X tel que e1 = CDF(X) – Y tel que e2 = CDF(Y|X) Convergence et dimension ● ● En 1D – Convergence en O(n-(c+1)) – c = continuité de la fonction En dimension plus élevée d – Pour n valeurs / mailles – Taille intervalle 1D n1/d – Convergence en O(n-c/d) – Monte Carlo en O(n-1/2)