Math´
ematiques assist´
ees par ordinateur
Chapitre 8 : Int´
egration num´
erique
Michael Eisermann
Mat249, DLST L2S4, Ann´
ee 2008-2009
www-fourier.ujf-grenoble.fr/˜eiserm/cours # mao
Document mis `
a jour le 6 juillet 2009
1/47
Motivation et objectifs
a b
G´
eom´
etriquement, l’int ´
egrale Rb
af(x)dx
d’une fonction continue f: [a, b]R
mesure l’aire entre l’axe des abscisses et f.
L’int´
egration est aussi l’op´
eration «inverse »
`
a la d´
erivation. Si F: [a, b]Rv´
erifie
F0=f, alors Rb
af(x)dx =F(b)F(a).
Dans des rares cas favorables on arrive `
aexpliciter une telle fonction
F, dite primitive de f. Ceci permet de calculer certaines int ´
egrales.
En g´
en´
eral c’est trop dur, voire impossible : la plupart des fonctions
n’admet pas de primitives s’exprimant `
a l’aide des fonctions usuelles.
Motiv´
e par cette probl´
ematique, ce cours pr´
esente quelques
m´
ethodes pour calculer num´
eriquement de telles int´
egrales.
Comme toujours, avant de calculer quoi que ce soit, il faut d’abord
d´
efinir l’objet en question, puis ´
etablir ses principales propri ´
et´
es.
On commencera donc avec une r´
evision de l’int´
egrale de Riemann.
2/47
Sommaire
1L’int´
egrale de Riemann : construction et propri ´
et´
es
Construction de l’int ´
egrale de Riemann
Propri ´
et´
es principales de l’int ´
egrale
Diff´
erentiation et int´
egration
2M´
ethodes num´
eriques basiques
M´
ethodes des rectangles, majoration d’erreur
M´
ethode des trap`
ezes, majoration d’erreur
Comparaison des m´
ethodes basiques
3M´
ethodes de Newton-Cotes
M´
ethodes ´
el´
ementaires, majoration d’erreur
M´
ethodes compos´
ees, majoration d’erreur
M´
ethodes de Simpson, Boole, Weddle
4La m´
ethode de Romberg
La formule d’Euler-Maclaurin
Extrapolation de Richardson
La m´
ethode de Romberg
3/47
Qu’est-ce que l’int´
egrale ?
On veut associer `
af:RRet a<bun nombre r´
eel Rb
af, appel´
e
l’int´
egrale de fsur [a, b], v´
erifiant quelques exigences naturelles :
Constantes : Rb
aλ= (ba)λpour tout λR
Subdivision : Rc
af=Rb
af+Rc
bfpour tout a<b<c
Monotonie : Rb
afRb
agsi f(x)g(x)pour a<x<b
De ces axiomes d´
ecoulent toutes les propri ´
et´
es de l’int´
egrale !
Tout d’abord, ils d´
efinissent l’int´
egrale pour toute fonction en escalier :
a b
a b
a b
Puis tout s’´
etend aux autres fonctions int´
egrables par encadrement.
§1.1 4/47
Construction de l’int ´
egrale : fonctions en escaliers
Une subdivision de [a, b]en nsous-intervalles est une famille
s={s0< s1<· · · < sn1< sn}telle que s0=aet sn=b.
Pour toute fonction born´
ee f: [a, b]Ron d´
efinit
I(f, s) := Pn
k=1(sksk1) inf[sk1,sk]f,
I(f, s) := Pn
k=1(sksk1) sup[sk1,sk]f.
Ces deux formules explicitent notre heuristique :
I(f, s)
a b
a b
I(f, s)
Observation : Si s0sest une subdivision plus fine de [a, b], alors
I(f, s)I(f, s0)I(f, s0)I(f, s).
§1.1 5/47
Construction de l’int ´
egrale : passage `
a la limite
On passe alors `
a des subdivisions de plus en plus fines :
I(f) := sup{I(f, s)|sune subdivision de [a, b]}
I(f) := inf{I(f, s)|sune subdivision de [a, b]}
Si jamais l’int´
egrale de fexiste, elle est encadr´
ee par I(f)et I(f).
On a toujours I(f)I(f), mais cette in´
egalit´
e peut ˆ
etre stricte !
Dans ce cas on n’arrive pas `
a d´
efinir l’int´
egrale cherch´
ee.
Si I(f) = I(f), alors on n’a qu’une seule possibilit´
e pour l’int´
egrale !
Ce cas favorable m´
erite une d ´
efinition digne de son importance :
D´
efinition (int´
egrale de Riemann)
On dit que f: [a, b]Rest int´
egrable si I(f) = I(f).
Dans ce cas son int´
egrale est Rb
af(x)dx := I(f) = I(f).
§1.1 6/47
Caract´
erisation des fonctions int´
egrables
Proposition
Une fonction f: [a, b]Rest int´
egrable si et seulement si pour tout
ε > 0il existe une subdivision stelle que I(f, s)I(f, s)ε.
D´
emonstration. Supposons fint´
egrable et notons I:= Rb
af(x)dx.
Alors pour ε > 0il existe des subdivisions set sde [a, b]telles que
I(f, s)I+ε/2et I(f, s)Iε/2.
Pour la subdivision s=sson obtient ainsi
I(f, s)I(f, s)II(f, s)I(f, s).
R´
eciproquement, I(f, s)I(f, s)εet
I(f, s)I(f)I(f)I(f, s),
entraˆ
ınent 0I(f)I(f)ε. Si cette in´
egalit´
e est vraie pour tout
ε > 0, alors I(f)I(f) = 0, et on conclut que fest int´
egrable.
§1.2 7/47
Fonctions monotones, fonctions continues
Th´
eor`
eme
Toute fonction monotone f: [a, b]Rest int´
egrable.
D´
emonstration. Supposons que fest croissante. Soit sk=a+kh
la subdivision ´
equidistante o`
uh=ba
net k= 0, . . . , n.
I(f, s)I(f, s) = Pn
k=1(sksk1)f(sk)f(sk1)
=h[f(b)f(a)] 0pour n→ ∞.
On conclut en faisant appel `
a la caract´
erisation pr ´
ec´
edente.
Th´
eor`
eme
Toute fonction continue f: [a, b]Rest int ´
egrable.
D´
emonstration. Puisque [a, b]est compact, la fonction fest
uniform´
ement continue, c `
ad pour tout ε > 0il existe δ > 0tel que
|xx0| ≤ δimplique |f(x)f(x0)| ≤ ε. Pour un pas hδon obtient
I(f, s)I(f, s) = Pn
k=1(sksk1)ε(ba)ε.
On conclut en faisant appel `
a la caract´
erisation pr ´
ec´
edente.
§1.2 8/47
C Exemples de fonctions discontinues
Exemple (trop sauvage pour ˆ
etre Riemann-int´
egrable)
La fonction de Dirichlet f: [0,1] Rest d´
efinie par
f(x) = (1si xQ,
0si x /Q.
On trouve I(f)=0et I(f)=1, donc fn’est pas int´
egrable.
Exemple (encore sauvage mais Riemann-int´
egrable)
Consid´
erons g: [0,1] Rd´
efinie par
g(x) = (1
bsi x=a
bo`
ua, b Z,b > 0,pgcd(a, b) = 1,
0si x /Q.
On trouve I(g)=0et I(g)=0, donc gest int´
egrable et R1
0gdx = 0.
`
A noter que gn’est continue sur aucun intervalle [a, b]o`
ua<b.
Surprenant mais vrai : gest continue en tout x[0,1] \Q.
§1.2 9/47
Propri ´
et´
es de l’int´
egrale
Th´
eor`
eme (propri ´
et´
es caract´
erisantes)
Soit Rb
al’ensemble des fonctions int´
egrables f: [a, b]R.
Si f(x) = λ, alors fRb
aet Rb
afdx =λ·(ba).
Pour a<b<con a fRc
af|[a,b]Rb
af|[b,c]Rc
b.
Dans ce cas Rc
afdx =Rb
afdx +Rc
bfdx.
Si f, g Rb
aet fgsur ]a, b[, alors Rb
afdx Rb
agdx.
Autrement dit, l’int´
egrale de Riemann satisfait aux exigences
naturelles formul´
ees au d´
ebut. On r´
ecolte bien plus encore :
Th´
eor`
eme (lin´
earit ´
e et monotonie)
Si fRet λR, alors λf Ret Rb
aλfdx =λRb
afdx.
Si f, g R, alors f+gRet Rb
a(f+g)dx =Rb
afdx +Rb
agdx.
Si f, g R, alors f g R. En g ´
en´
eral Rb
afgdx 6=Rb
afdx ·Rb
agdx !
Si fR, alors |f| ∈ Ret Rb
afdxRb
a|f|dx.
§1.2 10/47
Diff´
erentiation et int´
egration
Th´
eor`
eme
Supposons que f: [a, b]Rest int´
egrable. Si f=F0pour une
fonction d´
erivable F: [a, b]R, alors Rb
af(x)dx =F(b)F(a).
D´
emonstration. Pour toute partition s={s0< s1<· · · < sn1< sn}
de [a, b]il existe s0< t1< s1<· · · < sn1< tn< sntels que
F(sk)F(sk1)=(sksk1)f(tk),
par le th´
eor`
eme des accroissements finis. Ainsi
F(b)F(a) =
n
X
k=1
F(sk)F(sk1) =
n
X
k=1
(sksk1)f(tk).
On en d´
eduit que I(f, s)F(b)F(a)I(f, s).
Puis I(f)F(b)F(a)I(f)par passage aux limites.
Si fest int´
egrable, alors on a l’´
egalit´
eF(b)F(a) = Rb
af(x)dx.
§1.3 11/47
La propri ´
et´
e de la moyenne
Th´
eor`
eme
Soit f: [a, b]Rune fonction continue. Pour toute fonction int´
egrable
φ: [a, b]Rv´
erifiant φ0il existe ξ[a, b]tel que
()Zb
a
f(x)φ(x)dx =f(ξ)Zb
a
φ(x)dx.
En particulier, pour φ= 1, on obtient Rb
af(x)dx =f(ξ)(ba).
Si f=F0c’est le th´
eor`
eme des accroissements finis appliqu´
e`
aF.
D´
emonstration.
Pour m= min fet M= max fon a fφ M φ. Ainsi
mZb
a
φ(x)dx Zb
a
f(x)φ(x)dx MZb
a
φ(x)dx.
Si Rb
aφ(x)dx = 0, alors l’´
equation () est vraie pour tout ξ[a, b].
Sinon, il existe ξ[a, b]tel que f(ξ) = Rb
af(x)φ(x)dx Rb
aφ(x)dx.
§1.3 12/47
Int´
egration et diff´
erentiation
Th´
eor`
eme
Pour f:RRcontinue on peut d´
efinir F:RRpar
F(x) := Rx
af(t)dt. Alors Fest d´
erivable et F0=f.
D´
emonstration. Pour tout xRet h > 0on trouve
F(x+h)F(x) = Zx+h
a
f(t)dt Zx
a
f(t)dt
=Zx+h
x
f(t)dt =hf(ξh)
pour un ξh[x, x +h]d’apr`
es la propri ´
et´
e de la moyenne.
Pour h0on a donc ξhx, puis
F(x+h)F(x)
h=f(ξh)f(x)
par continuit´
e de f. Ceci prouve le th´
eor`
eme.
§1.3 13/47
R´
esum´
e : construction de l’int ´
egrale de Riemann
Si f: [a, b]Rest continue (ou mod´
er´
ement discontinue)
nous savons d´
efinir l’int´
egrale (dite de Riemann)
Zb
a
f(x)dx.
Th´
eor`
eme fondamental : si nous disposons d’une fonction primitive
F: [a, b]Rv´
erifiant F0=f, alors Rb
af(x)dx =F(b)F(a).
Toute fonction continue fadmet une telle primitive F.
Cette relation entre diff´
erentiation et int´
egration est tr`
es utile pour le
calcul, notamment elle m`
ene directement `
a
l’int´
egration par partie,
la substitution des variables,
le calcul explicite de certaines int ´
egrales.
R´
evisez votre cours d’int´
egration pour un d´
eveloppement complet.
Dans ce cours-ci on utilise ces outils sans retenue si besoin en est.
§1.3 14/47
`
A quoi sert l’int ´
egration num´
erique ?
Pour f: [a, b]Rnous souhaitons calculer l’int´
egrale Rb
af(x)dx .
Si nous disposons d’une primitive F, alors Rb
af(x)dx =F(b)F(a),
ce qui r´
esout notre probl`
eme d’une mani`
ere tr`
es satisfaisante.
ÀPeut-on toujours expliciter une primitive sous «forme close »?
Non ! Pour f(x) = exp(x2/2), par exemple, il n’existe pas de
fonction primitive exprimable par des fonctions usuelles exp,ln, . . ..
ÁDans ce cas, comment ˆ
etre sˆ
ur que l’int´
egrale existe ?
Heureusement, la construction pr ´
ec´
edente prouve que l’int´
egrale
existe, mˆ
eme si nous n’arrivons pas `
a expliciter une formule close.
ÂPeut-on au moins calculer des valeurs approch´
ees de l’int´
egrale ?
Oui ! Dans la suite nous d´
eveloppons des m´
ethodes d’int´
egration
num´
erique qui sont plus profitables et plus efficaces dans la pratique
que les formules utilis´
ees pour la construction ci-dessus.
§2.0 15/47
M´
ethodes des rectangles
On approche l’int´
egrale par Pn
k=1(sksk1)f(ξk)o`
uξk[sk1, sk].
a b
a b
a b
point `
a gauche point au milieu point `
a droite
n
X
k=1
(sksk1)f(sk1)
n
X
k=1
(sksk1)f`sk1+sk
2´
n
X
k=1
(sksk1)f(sk)
Cas particulier d’une subdivision ´
equidistante sk=a+kh o`
uh=ba
n:
h
n1
X
k=0
f(a+kh)h
n1
X
k=0
f`a+h
2+kh´h
n
X
k=1
f(a+kh)
Exemple : Pour f(x) = x3on connaˆ
ıt l’int´
egrale R1
0f(x)dx = 0.25.
Une subdivision ´
equidistante `
an= 10 pas donne respectivement les
approximations 81
400 = 0.2025 et 199
800 = 0.24875 et 121
400 = 0.3025.
On constate que l’approximation par le point au milieu est nettement
plus pr´
ecise. Ceci n’est pas un hasard, et on verra pourquoi. . .
§2.1 16/47
Point `
a gauche ou `
a droite : majoration de l’erreur
Proposition
Soit f: [a, b]Rde classe C1. Pour n1soit h=ba
net soit
Rgauche
n(f) := h
n1
X
k=0
f(a+kh)
l’approximation obtenue par le point `
a gauche.
Alors on a la majoration d’erreur
Zb
a
f(x)dx Rgauche
n(f)
(ba)2
2·1
n·max
[a,b]|f0|.
La mˆ
eme majoration est valable pour le point `
a droite.
Pour augmenter la pr´
ecision obtenue on augmentera n,
ce qui revient `
a passer `
a des subdivisions de plus en plus fines.
Or, la pr´
ecision n’augmente que tr`
es lentement : 1
n.
Pour gagner un bit de pr´
ecision il faut deux fois plus de travail.
§2.1 17/47
Point `
a gauche ou `
a droite : majoration de l’erreur
D´
emonstration.
On consid`
ere l’intervalle [α, β]o`
uα=a+ (k1)het β=a+kh.
Le th´
eor`
eme des accroissements finis (Taylor d’ordre 0) assure que
f(x)f(α) = f0(ξ)(xα)
pour un ξ[α, x]. En particulier on a
|f(x)f(α)| ≤ max
[α,β]|f0| · (xα).
On en d´
eduit que
Zβ
α
f(x)dx (βα)f(α)
=Zβ
α
f(x)dx Zβ
α
f(α)dx
=Zβ
α
f(x)f(α)dx
Zβ
αf(x)f(α)dx
max
[α,β]|f0| · Zβ
α
(xα)dx = max
[α,β]|f0| · (βα)2
2.
La proposition s’en d´
eduit en sommant sur k= 1, . . . , n.
§2.1 18/47
Point au milieu : majoration de l’erreur
Proposition
Soit f: [a, b]Rde classe C2. Pour n1soit h=ba
net soit
Rn(f) := h
n1
X
k=0
f(a+h
2+kh)
l’approximation obtenue par le point au milieu.
Alors on a la majoration d’erreur
Zb
a
f(x)dx Rn(f)
(ba)3
24 ·1
n2·max
[a,b]|f00|.
Pour augmenter la pr´
ecision obtenue on augmentera n,
ce qui revient `
a passer `
a des subdivisions de plus en plus fines.
Ici la pr´
ecision augmente un peu plus rapidement : 1
n2.
Pour gagner deux bits de pr´
ecision il faut deux fois plus de travail.
§2.1 19/47
Point au milieu : majoration de l’erreur
D´
emonstration.
On consid`
ere l’intervalle [α, β]o`
uα=a+ (k1)het β=a+kh.
On fait un d´
eveloppement d’ordre 1autour du milieu x0=α+β
2:
f(x) = f(x0) + f0(x0)(xx0) + 1
2f00(ξ)(xx0)2.
Ainsi |f(x)f(x0)f0(x0)(xx0)| ≤ 1
2max |f00|(xx0)2.
On constate que Rβ
αf0(x0)(xx0)dx = 0. Par cons ´
equent
Zβ
α
f(x)dx (βα)f(x0)
=Zβ
α
f(x)f(x0)f0(x0)(xx0)dx
Zβ
αf(x)f(x0)f0(x0)(xx0)dx 1
2max
[α,β]|f00|Zβ
α
(xx0)2dx
=1
2max
[α,β]|f00| · 1
3(xx0)3β
α
dx =1
24 max
[α,β]|f00| · (βα)3.
La proposition s’en d´
eduit en sommant sur k= 1, . . . , n.
§2.1 20/47
M´
ethode des trap`
ezes
Id´
ee : on interpole entre les points gauche et droite par un segment.
La figure obtenue est un trap`
eze d’aire (sksk1)f(sk1)+f(sk)
2.
sk
sk1
f(sk)
f(sk1)
a b
Pour une subdivision `
a pas constant hon obtient h
2f(sk1) + h
2f(sk).
Dans la somme sur k= 1, . . . , n tout terme apparaˆ
ıt deux fois,
`
a l’exception des termes h
2f(a)et h
2f(b)aux bords. Ainsi
Tn(f) = h1
2f(a) + f(a+h) + · · · +f(bh) + 1
2f(b)
Dans notre exemple R1
0x3dx on trouve l’approximation 101
400 = 0.2525.
§2.2 21/47
M´
ethode des trap`
ezes : majoration de l’erreur
Lemme
Soit f: [α, β]Rde classe C2. Alors il existe ξ[α, β]tel que
Zβ
α
f(x)dx =βα
2f(α) + f(β)(βα)3
12 f00(ξ).
D´
emonstration. La fonction φ(x) = 1
2(xα)(xβ)v´
erifie φ(x)0
pour tout x[α, β]. On a φ0(x) = 1
2(α+β)xpuis φ00(x) = 1. Ainsi
Zβ
α
f(x)dx =Zβ
α
φ00(x)f(x)dx =hφ0(x)f0(x)iβ
α+Zβ
α
φ0(x)f0(x)dx
=βα
2f(α) + f(β)+hφ(x)f0(x)iβ
αZβ
α
φ(x)f00(x)dx
=βα
2f(α) + f(β)f00(ξ)Zβ
α
φ(x)dx
=βα
2f(α) + f(β)f00(ξ)(βα)3
12 .
§2.2 22/47
M´
ethode des trap`
ezes : majoration de l’erreur
Proposition
Soit f: [a, b]Rde classe C2. Pour n1soit h=ba
net soit
Tn(f) := h1
2f(a) + f(a+h) + · · · +f(bh) + 1
2f(b)
l’approximation obtenue par la m ´
ethode des trap`
ezes. Alors on a
Zb
a
f(x)dx Tn(f)
(ba)3
12 ·1
n2·max
[a,b]|f00|.
D´
emonstration. Le lemme s’applique `
a chaque sous-intervalle :
Za+kh
a+(k1)h
f(x)dx 1
2fa+ (k1)hfa+kh
h3
12 max |f00|
Le th´
eor`
eme s’en d´
eduit en sommant sur k= 1, . . . , n.
`
A nouveau la pr´
ecision augmente proportionnellement `
a1
n2.
Pour gagner deux bits de pr´
ecision il faut deux fois plus de travail.
§2.2 23/47
Comparaison des m´
ethodes basiques
Approximation de Rb
af(x)dx avec npas de longueur h=ba
n.
M´
ethode Ordre Majoration d’erreur
Point `
a gauche d= 0 (ba)2
2·1
n·max |f0|
Point `
a droite d= 0 (ba)2
2·1
n·max |f0|
Point au milieu d= 1 (ba)3
24 ·1
n2·max |f00|
Trap`
ezes d= 1 (ba)3
12 ·1
n2·max |f00|
On suppose tacitement que fest suffisamment d´
erivable.
Les bornes sont atteintes pour un polyn ˆ
ome de degr´
ed+ 1.
Exemple : Pour approcher R1
0exp(x2/2)dx avec ces m´
ethodes
`
a106pr`
es il faudra environ n= 106respectivement n= 103,
`
a1012 pr`
es il faudra environ n= 1012 respectivement n= 106,
`
a1018 pr`
es il faudra environ n= 1018 respectivement n= 109.
(C’est souvent trop lent, mˆ
eme sur des ordinateurs puissants.)
§2.3 24/47
M´
ethodes ´
el´
ementaires d’int´
egration
On cherche des formules pour approcher l’int´
egrale Rβ
αf(x)dx.
Or, l’int´
egrale est un «proc´
ed´
e infini »qui ne s’impl´
emente pas tel
quel sur ordinateur : on ne peut effectuer qu’un nombre fini
d’op´
erations.
Nos formules approch´
ees d’int´
egration seront donc de la forme
S(f)=(βα)
m
X
j=0
wjf(ξj).
Ici ξ0, . . . , ξm[α, β]sont les points o `
u l’on ´
evalue la fonction f,
et w0, . . . , wmRsont certains poids tels que wj>0et Pm
j=0 wj= 1.
Une telle somme d´
efinit une application S:C([α, β]) R.
Lin´
earit ´
e : S(λf +µg) = λS(f) + µS(g), par d´
efinition.
Constantes : S(λ)=(βα)λ, parce que Pm
j=0 wj= 1.
Monotonie : Si fgalors S(f)S(g), parce que wj>0.
En particulier on a l’in´
egalit´
e|S(f)| ≤ S(|f|).
§3.1 25/47
Ordre d’une m´
ethode d’int´
egration
Dans la suite notre objectif est de choisir les points ξjet les poids wj
dans le souci de minimiser le travail et l’erreur de l’approximation.
On a d´
ej`
a vu dans les exemples basiques que ce choix d´
etermine la
qualit´
e de l’approximation et la vitesse de convergence pour n→ ∞.
La classification suivante nous guidera dans notre d ´
emarche :
D´
efinition
Une m´
ethode d’int´
egration S:C([α, β]) Rest d’ordre dsi elle est
exacte pour tout polynˆ
ome fde degr´
ed, c`
ad S(f) = Rβ
αf(x)dx.
Grˆ
ace `
a notre convention Pwj= 1 nos formules sont exactes pour
les constantes (degr´
e0). Elles sont donc au moins d’ordre 0.
Les m´
ethodes du point au milieu et des trap`
ezes sont d’ordre 1.
On construira judicieusement des m´
ethodes d’ordre sup´
erieur.
Tout d’abord on montre comment l’ordre se traduit en pr´
ecision.
§3.1 26/47
Majoration d’erreur d’une m´
ethode ´
el´
ementaire (1/2)
Proposition
Soit S:C([α, β]) Rune m ´
ethode d’int´
egration d’ordre d. Alors
Zβ
α
f(x)dx S(f)
(βα)d+2
2d(d+ 1)! max
[α,β]f(d+1)
pour toute fonction f: [α, β]Rde classe Cd+1.
D´
emonstration. Soit x0=α+β
2le centre de l’intervalle [α, β]et soit
g(x) = f(x0) + f0(x0)(xx0) + · · · +f(d)(x0)
d!(xx0)d
le polynˆ
ome de Taylor en x0. Nous avons la majoration d’erreur
f(x)g(x)|xx0|d+1
(d+ 1)! maxf(d+1)
(βα)d+1
2d+1(d+ 1)! maxf(d+1).
§3.1 27/47
Majoration d’erreur d’une m´
ethode ´
el´
ementaire (2/2)
Puisque Sest d’ordre don a Rβ
αg(x)dx S(g)=0. Ainsi
Zβ
α
f(x)dx S(f)
=Zβ
α
f(x)g(x)dx S(fg)
Zβ
αf(x)g(x)dx +S(|fg|).
En majorant |fg|deux fois par (βα)d+1
2d+1(d+1)! maxf(d+1)on obtient
Zβ
α
f(x)dx S(f)
(βα)d+2
2d(d+ 1)! maxf(d+1).
On obtient ainsi la majoration souhait´
ee.
!
On ne pr´
etend pas que la constante 1
2d(d+1)! soit optimale.
Le polynˆ
ome de Taylor peut ˆ
etre remplac´
e par une meilleure
approximation : c’est le probl`
eme de l’approximation polynomiale.
Pour optimiser la constante il faudra ´
etudier de plus pr`
es la
m´
ethode d’int´
egration, comme le point milieu, les trap`
ezes, etc.
§3.1 28/47
M´
ethodes compos´
ees d’int´
egration
L’erreur d’approximation d’une m´
ethode ´
el´
ementaire d’int´
egration
d’ordre dd´
epend de deux quantit´
es : max |f(d+1)|et (βα)d+2.
On a int´
erˆ
et `
a l’appliquer `
a des petits intervalles [α, β]!
Pour un grand intervalle [a, b]on choisit une subdivision assez fine
a=s0< s1<· · · < sn1< sn=b.
Souvent on prend des points ´
equir´
epartis sk=a+kh o`
uh=ba
n.
Ceci permet de d´
ecomposer l’int´
egrale en une somme
Zb
a
f(x)dx =
n
X
k=1 Zsk
sk1
f(x)dx.
On est ainsi ramen´
e`
a int´
egrer fsur un petit intervalle [sk1, sk].
Sur chacun des petits intervalles, l’int´
egrale sera approch´
ee par
une m´
ethode ´
el´
ementaire d’int´
egration :
Zsk
sk1
f(x)dx (sksk1)
mk
X
j=0
wk,j f(ξk,j )
pour certains points ξk,j [sk1, sk]et des poids wk,j R.
§3.2 29/47
M´
ethodes compos´
ees d’int´
egration
On obtient ainsi une m´
ethode compos´
ee d’int´
egration :
Zb
a
f(x)dx =
n
X
k=1 Zsk
sk1
f(x)dx
n
X
k=1
(sksk1)
mk
X
j=0
wk,j f(ξk,j )
A priori on pourrait prendre une subdivision s0, . . . , snquelconque
et une m´
ethode ´
el´
ementaire diff´
erente sur chacun des intervalles.
Pour simplifier nous prenons la subdivision `
a pas constant h=ba
n
et la «mˆ
eme »m´
ethode ´
el´
ementaire sur chaque sous-intervalle :
S:C([α, β]) R, S(f)=(βα)
m
X
j=0
wjf(ξj),
se transporte sur n’importe quel intervalle [α0, β0]par la bijection
affine φ: [α, β][α0, β0],φ(x)=(xα)β0α0
βα+α0. On obtient ainsi
S0:C([α0, β0]) R, S0(g)=(β0α0)
m
X
j=0
wjg(ξ0
j),
avec les mˆ
emes poids wjmais g´
etant ´
evalu´
ee en ξ0
j=φ(ξj).
§3.2 30/47
Majoration d’erreur d’une m´
ethode compos´
ee
Proposition
Soit Sune m´
ethode ´
el´
ementaire d’int´
egration d’ordre d.
Soit Sn:C([a, b]) Rla m´
ethode compos´
ee associ´
ee `
a
la subdivision ´
equidistante sk=a+kh o`
uh=ba
n. Alors
Zb
a
f(x)dx Sn(f)
(ba)d+2
2d(d+ 1)! ·1
nd+1 ·max
[a,b]f(d+1)
= 2(ba)·h
2d+1 ·max
[a,b]
f(d+1)
(d+ 1)!
pour toute fonction f: [a, b]Rde classe Cd+1.
D´
emonstration. Cette majoration d´
ecoule de celle obtenue pour la
m´
ethode ´
el´
ementaire Sen sommant sur k= 1, . . . , n.
Pour approcher Rb
af(x)dx on proc`
ede donc comme suit :
On d´
etermine ou majore max |f(d+1)|, qui ne d´
epend que de f.
On choisit nassez grand pour assurer que l’erreur soit petite.
Il reste encore `
a trouver des m´
ethodes d’ordre plus ´
elev´
e.
§3.2 31/47
M´
ethodes de Newton-Cotes
On souhaite construire des m ´
ethodes ´
el´
ementaires d’int´
egration
S:C([α, β]) R, S(f) = (βα)
m
X
j=0
wkf(ξj)
pour des points ´
equir´
epartis ξj=α+jh o`
uh=βα
m.
L’id´
ee est d’interpoler fpar son polyn ˆ
ome de Lagrange
p=
m
X
j=0
f(ξj)pjo`
upj(x) = Y
i6=j
xξi
ξjξi
puis d’int´
egrer p(de mani`
ere exacte) sur [α, β]:
Zβ
α
p(x)dx = (βα)
m
X
j=0
f(ξj)wjo`
uwj=1
βαZβ
α
pj(x)dx.
Exemple. Prenons [1,+1] et les extr´
emit´
es ξ0=1,ξ1= +1.
On a p=f(ξ0)p0+f(ξ1)p1o`
up0(x) = 1x
2et p1(x) = x+1
2.
On trouve w0=w1=1
2et ainsi S(f) = (βα)1
2f(α) + 1
2f(β).
C’est la m´
ethode des trap`
ezes !
§3.3 32/47
La m´
ethode de Simpson
Appliquons cette recette `
a[1,+1] et ξ0=1,ξ1= 0,ξ2= +1.
p0(x) = x0
10·x1
11=1
2x(x1) w0=1
2Z1
1
p0(x)dx =1
6
p1(x) = x(1)
0(1) ·x1
01= (x+ 1)(1 x)w1=1
2Z1
1
p1(x)dx =4
6
p2(x) = x(1)
1(1) ·x0
10=1
2(x+ 1)xw2=1
2Z1
1
p2(x)dx =1
6
On obtient ainsi la m´
ethode de Simpson :
S(f)=(βα)1
6f(α) + 4
6fα+β
2+1
6f(β)
Elle interpole fpar une parabole.
La m´
ethode de Simpson est d’ordre 3:
Par construction elle est exacte si fest un polynˆ
ome de degr´
e2.
Petit miracle : par sym´
etrie elle est aussi exacte pour f(x) = x3car
Z1
1
f(x)dx = 0 = S(f).
§3.3 33/47
Majoration d’erreur : cas g´
en´
eral
On consid`
ere une m´
ethode de Newton-Cotes
S:C([α, β]) R, S(f) = Zβ
α
p(x)dx = (βα)
m
X
j=0
wjf(ξj).
utilisant le polynˆ
ome interpolateur pen m+ 1 points ´
equir´
epartis.
Pour tout x[α, β]on a la majoration d’approximation de Lagrange
f(x)p(x)(βα)m+1
mm+2 max
[α,β]f(m+1).
Pour l’int´
egration approch´
ee on en d´
eduit la majoration
Zβ
α
f(x)dx S(f)
(βα)m+2
mm+2 max
[α,β]f(m+1).
Pour la m´
ethode compos´
ee Sn:C([a, b]) Ron conclut que
Zb
a
f(x)dx Sn(f)
(ba)m+2
mm+2 ·1
nm+1 ·max
[α,β]f(m+1).
§3.3 34/47
Majoration d’erreur : cas o`
umest pair
Proposition
Si mest un nombre pair (par exemple m= 2 pour Simpson), alors la
m´
ethode de Newton-Cotes S:C([α, β]) Rest d’ordre m+ 1.
Pour la m´
ethode compos´
ee Sn:C([a, b]) Ron conclut que
Zb
a
f(x)dx Sn(f)
(ba)m+3
2m+1(m+ 2)! ·1
nm+2 ·max
[α,β]f(m+2).
D´
emonstration. La m´
ethode Sest exacte si fest un polynˆ
ome de
degr´
em: par construction on a f=pet donc Rβ
αf(x)dx =S(f).
Pour simplifier consid´
erons l’intervalle [1,+1]. Si mest pair, alors
f(x) = xm+1 est impaire, donc f(x) = f(x)et R1
1f(x)dx = 0.
D’un autre cot´
e on a wmj=wjet ξmj=ξj, donc S(f)=0.
On ne pr´
etend pas que la constante (ba)m+3
2m+1(m+2)! soit optimale.
Une analyse plus fine am´
eliorera l´
eg`
erement cette majoration.
§3.3 35/47
R´
esum´
e des m´
ethodes de Newton-Cotes
Pour tout m1on construit une m ´
ethode ´
el´
ementaire d’int´
egration
S:C([α, β]) R, S(f)=(βα)Pm
j=0 wjf(ξj)
en des points ´
equir´
epartis ξj=α+jh o`
uh=βα
m.
M´
ethode mPoids (w0, . . . , wm)Ordre Majoration d’erreur
Trap`
ezes 11
2,1
21(ba)3
12 ·1
n2·max |f00|
Simpson 21
6,4
6,1
63(ba)5
2880 ·1
n4·max |f(4)|
Boole 47
90 ,32
90 ,12
90 ,32
90 ,7
90 5(ba)7
945·211 ·1
n6·max |f(6)|
Weddle 641
840 ,216
840 ,27
840 ,272
840 , . . . 7(ba)9
5600·67·1
n8·max |f(8)|
!
Pour m8les m´
ethodes de Newton-Cotes font apparaˆ
ıtre aussi
des poids n´
egatifs. On perd ainsi la monotonie et risque des erreurs
num´
eriques d’annulation. Ces m´
ethodes sont donc peu utilis´
ees.
§3.3 36/47
La formule d’Euler-Maclaurin
Th´
eor`
eme (Euler-Maclaurin)
Soit f: [a, b]Rde classe C2m+1. Pour n1soit h=ba
net soit
A(h) := h1
2f(a) + f(a+h) + · · · +f(bh) + 1
2f(b)
l’approximation obtenue par la m ´
ethode des trap`
ezes. Il existe des
constantes c2, c4, . . . , c2m, c Rind´
ependantes de fet htelles que
A(h) = Zb
a
f(x)dx +c2h2f0b
a+· · · +c2mh2mf(2m1)b
a+r2m(h)
avec un reste major ´
e par |r2m(h)| ≤ c(ba)·h2m+1 ·max |f(2m+1)|.
Dans la suite nous n’aurons pas besoin d’expliciter les constantes.
Il nous suffira de connaˆ
ıtre la forme du d ´
eveloppement en h:
A(h) = Zb
a
f(x)dx +a2h2+· · · +a2mh2m+O(h2m+1).
Pour un d´
eveloppement d´
etaill´
e voir Demailly, chapitre 3, §4.
§4.1 37/47
C D´
emonstration d’Euler-Maclaurin (1/2)
Consid´
erons d’abord l’intervalle [1
/
2,1
/
2]de longueur 1centr´
e en 0.
Soit (ek)kNla famille de polynˆ
omes commenc¸ant par
e0(x) = 1, e1(x) = x, e2(x) = 1
2x21
24 , . . .
d´
efinis r´
ecursivement par e0
k=ek1et R+1
/
2
1
/
2ekdx = 0 pour k1.
On voit que ekest de degr ´
ek, de monˆ
ome dominant 1
k!xk.
Les polynˆ
omes e0, e2, e4, . . . sont pairs, e2j(x) = e2j(x),
alors que e1, e3, e5, . . . sont impairs, e2j+1(x) = e2j+1(x).
Pour k2on trouve ek(1
/
2)ek(1
/
2) = R+1
/
2
1
/
2ek1(x)dx = 0.
Par cons ´
equent e2j+1(1
/
2) = e2j+1(1
/
2)=0pour tout j1.
Pour les indices pairs on pose c2j:= e2j(1
/
2) = e2j(1
/
2).
Consid´
erons ensuite un intervalle quelconque [α, β]
de longueur h=βα, centr´
e en x0=α+β
2.
Pour gk(x) := hkekxx0
hon a g0= 1 et g0
k=gk1et Rβ
αgkdx = 0.
On g1(α) = g1(β) = h
2. Ensuite, pour j1, on trouve
g2j(α) = g2j(β) = c2jh2jet g2j+1(α) = g2j+1(β) = 0.
§4.1 38/47
C D´
emonstration d’Euler-Maclaurin (2/2)
Par int ´
egration par partie nous obtenons successivement
Zβ
α
fdx =Zβ
α
g0fdx =g1fβ
αZβ
α
g1f0dx
=g1fβ
αg2f0β
α+Zβ
α
g2f00dx =. . .
=g1fβ
αg2f0β
α+g3f00β
α · · · Zβ
α
g2m+1f(2m+1)dx
=h
2f(α) + f(β)c2h2f0β
αc4h4f000β
α. . .
c2mh2mf(2m1)β
αZβ
α
g2m+1f(2m+1)dx
Le reste est major´
e par h·max
[α,β]|g2m+1| · max
[α,β]|f(2m+1)|.
On trouve max
[α,β]|g2m+1|=c·h2m+1 o`
uc:= max
[1
/
2,1
/
2]|e2m+1|.
L´
enonc´
e s’en d´
eduit en sommant sur les sous-intervalles
[a, a +h],[a+h, a + 2h], . . ., [b2h, b h],[bh, b].
§4.1 39/47
Acc´
el´
eration de la convergence
Principe : Toute information sur l’erreur peut ˆ
etre utilis´
ee pour
augmenter la pr´
ecision et acc´
el´
erer la convergence.
Application : Dans notre cas nous avons le d´
eveloppement
A(h) = Rb
af(x)dx +a2h2+a4h4+· · · +a2mh2m+O(h2m+1).
Ceci veut dire que l’erreur est d’ordre h2, donc 1
n2.
En passant du pas hau pas h/2, nous obtenons
Ah
2=Rb
af(x)dx +a2h4
4+a4h4
16 +· · · +a2mh2m
4m+O(h2m+1).
Astuce. — On peut maintenant ´
eliminer le terme d’ordre h2:
4A(h
2)A(h)
41=Rb
af(x)dx +a0
4h4+· · · +a0
2mh2m+O(h2m+1)
Avantage. — Cette nouvelle formule r´
eduit l’erreur `
a l’ordre h4.
Mieux encore, cette astuce peut ˆ
etre it´
er´
ee pour ´
eliminer
successivement les termes d’ordre h4,h6, . . ., h2m.
§4.2 40/47
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !