Résumé de notes de cours d`analyse numérique

publicité
-1-
ANALYSE ET TECHNIQUES NUMERIQUES, COURS GIN220
RESUME DES METHODES NUMERIQUES PRINCIPALES
1 Introduction
Le pourquoi et l’importance de l’analyse numérique, la clé de l’analyse numérique, et
les problèmes d’erreur associés à ces techniques.
1.1 Les méthodes numériques
1.2 Erreurs dans l’analyse numérique
2 Equations non-linéaires
On cherche une racine α telle que f(α) = 0.
2.1 Recherche incrémentale
On se donne un point de départ x0 et un incrément ∆x . On calcule ensuite f(x0), f(x0+∆x ), f(x0+2∆x ) ... Une
racine α est encadrée lorsque la fonction f change de signe.
2.2 Méthodes d’encadrement1
On se donne (par la méthode de recherche incrémentale par exemple) un intervalle [xg...xd] où la fonction
f change de signe. On recherche ensuite la racine à l’intérieur de cet intervalle par une des méthodes
suivantes.
1 Les chiffres en italique réfèrent aux sections dans le livre de référence: APPLIED NUMERICAL METHODS, de
GERALD and WHEATLEY, 4th Edition, ADDISON-WESLEY.
Résumé des méthodes principales
-2-
2.2.1 Bissection
On découpe l’intervalle en deux à chaque étape
1- xm = (xg + xd) /2
2- Si f(xm) * f(xd) < 0 alors la racine est entre xd et xm. Alors on élimine le point xg, on pose xg=xm et
on retourne en 1.
3- Si f(xm) * f(xg) < 0 alors la racine est entre xg et xm. Alors on élimine le point xd, on pose xd=xm et
on retourne en 1.
4- On continue jusqu’à ce que l’intervalle [xg...xd] soit réduit à une valeur tolérable ε qui doit être
prédéterminée.
Le nombre d’itération peut être déterminé à partir d’ε et de l’intervalle initial par:
− xg )/ε) 
 −1
ln 2

 ln((xd
n ≥

2.2.2 Regula Falsi
Interpolation linéaire entre les deux limites
1- fd = f(xd)
2- fg = f(xg)
3-
xm = xg −
fg
(x − x )
fd − fg d g
4- Si f(xm)•f(xd) < 0 alors la racine est entre xd et xm. Alors on élimine le point xg, on pose xg=xm et
on retourne en 1.
5- Si f(xm)•f(xg) < 0 alors la racine est entre xg et xm. Alors on élimine le point xd, on pose xd=xm et
on retourne en 1.
6- On continue jusqu’à ce que la fonction f(xm) soit réduit à une valeur tolérable ε qui doit être
prédéterminée.
Résumé des méthodes principales
-3-
2.3 Méthodes de point fixe
On transforme le problème de base qui consiste à chercher α tel que f(α) = 0 en un problème où
l’on cherche α tel que F(α) = α, c’est-à-dire un problème de point fixe. La transformation f(x) => F(x) n’est
pas unique.
La recherche de la racine devient alors simplement la suite x0,x1,x2,...xn, qui est établie en posant
x1=F(x0), x2=F(x1), x3=F(x2),...
La suite x0,x1,x2,...xn convergera dans l’intervalle [a...b] vers la racine α si:
| F′(x) |≤ 1
Si elle converge, la méthode de point fixe converge linéairement.
2.3.1 Accélération d’Aitken
Lorsque la méthode de point fixe converge, on peut accélérer sa convergence en appliquant la
méthode d’Aitken:
xi − 2xi − xi2− 1
xi + 1 =
xi − 2xi − 1 + xi − 2
Résumé des méthodes principales
-4-
2.4 Méthode de Newton-Raphson
La méthode consiste à approcher la racine par la série:
xi + 1 = xi −
f(xi )
f′(xi )
Elle converge de façon quadratique. Cependant elle convergera en xi si:
|
f(xi )f′′(xi )
(f′(xi ))2
|< 1
Cette méthode est à la base d’un grand nombre de méthodes numériques avancées à cause de ses
performances et de sa relative simplicité d’application. Les deux méthodes suivantes sont des variantes de
celle-ci.
2.4.1 Méthode de la sécante
La méthode consiste à utiliser exactement la même approche que par la méthode de Newton,
cependant la dérivée f’(xi) sera évaluée de façon approchée par l’expression de la sécante:
f′(xi ) =
f(xi + ε) − f′(xi )
ε
Elle converge bien mais pas de façon quadratique comme Newton. Cependant elle peut être
très utile lorsque l’expression analytique de la dérivée de la fonction f est inconnue.
2.4.2 Méthode de Newton du 2ème ordre
Cette méthode extremement performante converge de façon plus rapide que celle de Newton. Elle
est très utilisée lorsque les fonctions f sont de nature exponentielle, polynomiale ou trigonométrique.
xi + 1 = xi −
f(xi )
f′(xi ) −
Résumé des méthodes principales
f′′(xi )f(xi )
2f′(xi )
-5-
2.5 Méthode de Muller (quadratique)
Méthode parente de celle de Regula-Falsi, elle utilise une parabole au lieu d’une droite pour approcher
la racine.
On calcule la fonction f(x) en trois points xg, xm et xd. Le point xm étant situé entre xd et xg, on effectue
alors le changement de variable u = x - xm. Les variables ug = xm - xg et ud = xd - xm sont alors calculées ainsi
que fd, fm et fg, les valeurs de la fonction sur les trois points mentionnés. Les coefficients de la parabole sont
alors calculés par:
a=
b=
−(fd − fm )ug − (fg − fm )ud
−ud2ug − ud ug2
−(fg − fm )ud2 − (fd − fm )ug2
−ud2ug − ud ug2
c = fm
La plus petite des deux racines de cette parabole est la nouvelle valeur améliorée de la racine de f(x), et
on peut continuer de façon itérative en éliminant un des points xd ou xg, et en appliquant encore la méthode.
Cette méthode converge de façon quadratique.
2.6 Racines de Polynomes
Théorème du quotient.
Si on divise le polynome Pn par le monôme x - x1 on obtient:
Pn (x)
bn + 1
= Qn − 1(x) +
x − x1
x − x1
La valeur de Pn en x = x1 est alors directement obtenue par le reste bn+1. De même la dérivée P’n en
x = x1 est la valeur du polynome réduit Qn-1 en x = x1.
2.7 Systèmes non-linéaires
Pour un système de n équations non-linéaires à résoudre, la méthode de Newton semble la plus interessante
et pour sa facilité d’application et pour sa "solidité".
Résumé des méthodes principales
-6-
2.7.1 Méthode de point fixe
Elle est peu recommandée pour des systèmes non-linéaires, à cause des grands problèmes de
convergence qu’elle peut rencontrer.
2.7.2 Méthode de Newton
La méthode de Newton est alors directement appliquée, par analogie avec la méthode vue pour une
seule variable:
On a donc:
[Ji ]∆x i = −f i
Que l’on peut solutionner en multipliant par J-1, l’inverse de la matrice de Jacobi.
−∆x i = [Ji ]−1 f i
Les nouvelles valeurs des variables xi sont alors directement obtenues par:
x i + 1 = x i + ∆x i
avec [Ji], le Jacobien des fonctions f.
Résumé des méthodes principales
-7-
3 Systèmes linéaires
Problème classique de l’algèbre linéaire, on veut solutionner n équations à n inconnues.
3.1 Méthode de Gauss
C’est une méthode directe qui consiste à transformer le système Ax=b en un système équivalent
Ux=b’, la matrice U étant triangulaire supérieure. La solution par substitution à rebours se fait alors facilement
pour obtenir le vecteur solution.
A partir de la deuxième ligne de la matrice augmentée [A][b] où [b] est le vecteur constant qui devient
la n+1ème colonne de la matrice [A], on détermine le facteur de réduction fr= ai,i-1 / ai-1,i-1, où ai-1,i-1 est appelé
le pivot de la réduction. Chaque élément de la ligne i est alors transformé en effectuant aij = aij - fr ai-1,j, de
j=i-1 à n+1. A la fin de cette opération sur chaque ligne, on retrouve un 0 en position i ,i-1: cette ligne est
alors réduite. Cette opération est ensuite effectuée sur toutes les lignes de i+1 à n pour mettre des 0 dans
toute la colonne j=i-1, sous le pivot. On continue cette opération jusqu’à obtenir une matrice [A] triangulaire
supérieure.
La solution est alors obtenue en effectuant:
n


 ai, n + 1 − ∑ ai, j x j 


j =i +1
xi =
ai, i
3.1.1 Stratégie du pivotage partiel et conditionnement
Consiste à toujours amener en position de pivot l’élément le plus grand (en valeur absolue) lors de
l’élimination de Gauss. Ceci permet de minimiser les accumulations d’erreur numérique et d’améliorer
la précision de la solution.
3.2 Méthode de Gauss-Seidel
Méthode itérative de solution du système linéaire Ax = b.
xik + 1 =
i −1
n
1
bi − ∑ ai j x jk + 1 − ∑ ai j x jk 

aii 
j =1
j = i +1

Les indices i et j réfèrent aux lignes et colonnes de la matrice A alors que les indices k et k+1 réfèrent
aux itérations successives de x.
Résumé des méthodes principales
-8-
3.3 Matrices tridiagonales; méthode de Thomas ou TDMA
Ecrivons le système tridiagonal de la façon suivante:
b1x1 + c1x2 = d1
a i xi − 1 + b i xi + ci xi + 1 = d i
a n xn − 1 + b n xn = d n
On effectue facilement la solution de i = 1 à n-1 par:
βi + 1 = bi + 1 −
ai + 1
c
βi i
δi + 1 = di + 1 −
ai + 1
δ
βi i
β1 = b1
δ1 = d1
xn =
δn
βn
et de i = n-1 à 1
xi =
1
[δ − c x ]
βi i i i + 1
Résumé des méthodes principales
-9-
4 Interpolation et lissage
Connaissant les valeurs de la fonction f à un certain nombre discret de valeurs de x, on
veut dériver une expression simple de f (sous forme polynomiale) en fonction de x.
L’approche interpolation et approximation sont deux façons fondamentalement
différentes d’aborder ce problème.
4.1 Interpolation
On a n+1 valeurs connues de f sur n+1 points. On veut interpoler en un point x quelconque situé à l’intérieur
de l’intervalle [x0,xn]. Sur tous les points x où f est connue, la fonction d’interpolation sera égale à la valeur
connue de f.
4.1.1 Interpolation de Lagrange
n
Pn (x) = ∑ lk fk
k =0
n
lk (x) =
∏ (x − xi )
i =0
n
∏ (xk − xi )
i ≠k
i =0
4.1.2 Interpolation par les différences
Pn (x) = f0 + ∆[x0, x1] (x − x0) + … + ∆n [x0, …, xn ] (x − x0)…(x − xn − 1)
∆[x0, x1] =
∆2[x0, x1, x2] =
f1 − f0
x1 − x0
∆[x1, x2] − ∆[x0, x1]
x2 − x0
∆2[x1, x2, x3] − ∆2[x0, x1, x2]
∆ [x0, x1, x2, x3] =
x3 − x0
3
Résumé des méthodes principales
-10-
4.1.3 Splines cubiques
La fonction d’interpolation est donnée par la formule:
f(x) =
 fi f"i hi 
 fi + 1 f"i + 1hi 
f"i
f"i + 1
(xi + 1 − x)3 +
(x − xi )3 +  −
−
 (xi + 1 − x) + 
 (x − xi )
6hi
6hi
6 
6 
 hi
 hi
les coefficients f" sont déterminés par la solution du système linéaire tridiagonal suivant, avec comme
conditions supplémentaires f"0 = f"n = 0:
de i=1 à n-1 :
f"i − 1hi − 1 + f"i (2(hi − 1 + hi )) + f"i + 1hi = 6(f’i − f’i − 1)
f’i =
fi + 1 − fi
hi
∧
f’i − 1 =
fi − fi − 1
hi − 1
Résumé des méthodes principales
∧
hi = (xi + 1 − xi )
-11-
4.2 Lissage
On connait n valeurs de f. On cherche à approximer f par une fonction de lissage.
4.2.1 Méthode des moindres carrés
La minimisation du carré de l’erreur entre les valeurs de la fonction à approximer (à lisser) et la
fonction de lissage (ou le modèle) s’écrit pour le cas du lissage par une droite:
n
S = ∑ (fi − axi − b)2
i =1
∂S
= ∑ (f − axi − b) (2) (−xi ) = 0
∂a i = 1 i
n
∂S
= ∑ (fi − axi − b) (2) (−1) = 0
∂b i = 1
n
On doit alors solutionner ces deux équations pour trouver les coefficients inconnus a et b.
La qualité de la droite de régression peut être quantifiée par la valeur du coefficient de corrélation,
défini par:
r2 =
St − S
St
où la somme St est définie par:
n
− 2
St = ∑  fi − f 
i =1
EXEMPLE: Lissage polynomial (degré 3) par les moindres carrés.Le polynome étant écrit: a + bx +
cx2 + dx3, les coefficients sont déterminés par la solution du système linéaire suivant:
n
Sx
Sx2
Sx3
a
Sx Sx2 Sx3
Sx4
b
Sf
Sxf
=
Sx2 Sx3 Sx4
Sx5
c
Sx2f
Sx3 Sx4 Sx5
Sx6
d
Sx3f
Où les termes Sxkf sont les sommes:
n
∑ xkf
i =1
Le même critère de qualité du lissage s’applique dans le cas du lissage polynomial.
Résumé des méthodes principales
-12-
4.2.2 Lissage de fonctions non-linéaires
Très souvent le lissage non-linéaire que l’on devra effectuer se résumera au lissage d’une fonction
exponentielle. Dans ce cas il suffit d’une transformation pour obtenir un problème linéaire qui peut
être traité par lissage. En effet il suffit de prendre le log de :
f(x) = Be −At
pour obtenir:
log(f(x)) = log B − At
qui peut alors être traité comme un problème de régression linéaire simple.
4.2.3 Lissage linéaire multiple
Exemple: on veut effectuer le lissage :
n
S = ∑ (fi − axi − b yi − c)2
i = 1, n
, soit passer le meilleur plan par les n points f(xi, yi). La condition de minimisation donne les équations
normales:
n
∂S
= 2 ∑ (fi − axi − b yi − c) (−xi ) = 0
∂a
i = 1, n
n
∂S
= 2 ∑ (fi − axi − b yi − c) (−yi ) = 0
∂b
i = 1, n
n
∂S
= 2 ∑ (fi − axi − b yi − c) (−1) = 0
∂c
i = 1, n
Les équations normales sont alors solutionnées pour obtenir les paramètres a, b, et c.
Résumé des méthodes principales
-13-
5 Intégration et derivation numérique
On veut approximer l’intégrale de la fonction f entre les bornes a et b. Rappelons que
cette intégrale correspond à la surface sous la courbe de f entre les points a et b. Les
méthodes suivantes donnent toutes une approximation I de cette intégrale.
On approximera dans la deuxième partie de ce chapitre la dérivée de la fonction f.
5.1 Intégration numerique
Résumé des méthodes principales
-14-
5.1.1 Methodes de Newton-Cotes
Ces méthodes sont toutes basées sur l’intégration de la fonction connue sur (n+1) points du polynome
d’interpolation de degré n. Autrement dit, la méthode de Simpson 1/3 intègre alors la parabole
d’interpolation qui passe par les trois points.
Formules d’intégration de Newton-Cotes, une application simple
Degré (n)
Nom
Formule de l’intégrale
Erreur sur
l’intégrale
1
trapèzes
2
Simpson 1/3
3
Simpson 3/8
4
Boole
5
(b − a )
n
1 5 4
h f (ξ)
90
h
(f + 4f1 + f2)
3 0
3 5 4
h f (ξ)
80
h
3 (f0 + 3f1 + 3f2 + f3)
8
4
5
avec h =
1 3 2
h f (ξ)
12
h
(f + f )
2 0 1
h
(7f + 32f1 + 12f2 + 32f3 + 7f4)
90 0
h
(19f0 + 75f1 + 50f2 + 50f3 + 75f4 + 19f5)
288
8 7 6
h f (ξ)
945
275 7 6
h f (ξ)
12096
et n+1 points doivent être définis pour application de la formule. ξ est situé entre
x0 et xn.
Formules d’intégration pour application multiple.
Degré
Formule de l’intégrale composite
Erreur sur l’intégrale composite
1
h
(f + 2f1 + 2f2 + … + fn )
2 0
1
(b − a )h 2 f 2
12
2
h
(f + 4f1 + 2f2 + 4f3 + … + 4fn − 1 + fn )
3 0
(b − a ) 4 4
h f
180
3
h
3 (f0 + 3f1 + 3f2 + 2f3 + 3f4 + … + 3fn − 1 + fn )
8
(b − a ) 4 4
h f
80
On peut vérifier que les formules d’erreur données ici sont équivalentes à celles données dans
le premier tableau. L’application de Simpson 1/3, qui demande 3 points ou deux intervalles,
peut être effectuée de façon composite sur un nombre pair d’intervalles.
Résumé des méthodes principales
-15-
5.1.2 Méthode de Romberg
Cette méthode utilise astucieusement les estimés déjà calculés par une méthode de Newton-Cotes
pour obtenir un estimé plus précis. Elle utilise le principe de l’extrapolation de Richardson.
Ij, k ~ =
4k − 1Ij + 1, k − 1 − Ij, k − 1
4k − 1 − 1
où I j,k est la nouvelle valeur améliorée de l’estimé de l’intégrale, les indices j et j+1 correspondent
respectivement à l’intégrale la moins précise et la plus précise, l’indice k corresponds à la colonne
dans le tableau suivant:
Trapèzes
k=2
k=3
k=4
I1,1
I2,1
I1,2
I2,2
I1,3
I2,3
I1,4
I3,1
I4,1
I3,2
Par exemple, dans le tableau précédent la colonne indiquée trapèzes correspondrait à des
évaluations par les trapèzes avec 1, 2, 4, et 8 subdivisions. Les colonnes k=2, 3 et 4 sont les
évaluations de Romberg. Valide seulement si la subdivision d’une intégration à l’autre est de 2.
Résumé des méthodes principales
-16-
5.1.3 Quadrature Gaussienne
En plaçant les points du polynôme d’interpolation de façon à minimiser l’erreur de l’intégrale, on
obtient une méthode extrèmement performante. Mais elle ne peut être appliquée que si l’on connait
l’expression analytique de la fonction à intégrer.
n
Intégrale I =
2
f(-0.57735027) + f(0.57735027)
3
0.55555555 f(-.77459667) + 0.88888889 f(0) + 0.55555555 f(.77459667)
4
0.34785485 f(-.86113631) + .65214515 f(-.33998104) + .65214515 f(.33998104) +
0.34785485 f(.86113631)
5
0.23692689 f(-0.90617975) + 0.47862867 f(-0.53846931) + 0.56888889 f(0) +
0.47862867 f(0.53846931) + 0.23692689 f(0.90617975)
Notez que pour l’intégrale par la quadrature gaussienne, la fonction est intégrée entre -1 et 1. Il faut
donc effectuer une translation pour que les bornes d’intégration a et b deviennent -1 et 1. L’intégrale
I obtenue devra donc être multipliée par (b-a)/2, ou b et a sont les bornes réelles de l’intégrale.
Résumé des méthodes principales
-17-
5.2 Dérivation
5.2.1 Formules générales
Ces formules sont toutes dérivées en utilisant le développement en série de Taylor autour d’un point.
On obtient des formules plus précises en gardant plus de termes dans le développement.
Dérivée
Formule
Erreur
fi + 1 − fi
h
O(h )
2-
fi − fi − 1
h
O(h )
3-
fi + 1 − fi − 1
2h
O(h 2)
4-
−fi + 2 + 4fi + 1 − 3fi
2h
O(h 2)
5-
3fi − 4fi − 1 + fi − 2
2h
O(h 2)
6-
−fi + 2 + 8fi + 1 − 8fi − 1 + fi − 2
12h
O(h 4)
fi + 2 − 2fi + 1 + fi
O(h )
1-
7-
df
dx
d 2f
dx 2
h
2
fi − 2fi − 1 + fi − 2
8-
h
fi + 1 − 2fi + fi − 1
9-
O(h )
2
O(h 2)
h2
10-
−fi + 3 + 4fi + 2 − 5fi + 1 + 2fi
O(h 2)
h2
11
2fi − 5fi − 1 + 4fi − 2 − fi − 3
O(h 2)
h2
12
−fi + 2 + 16fi + 1 − 30fi + 16fi − 1 − fi − 2
12h 2
Résumé des méthodes principales
O(h 4)
-18-
5.2.2 Extrapolation de Richardson
L’on connait une dérivée numérique D(h) qui est l’approximation de la dérivée exacte D avec une
erreur ε dépendant de l’intervalle h.
D = D(h) + ε(h)
Si ε(h) a une forme simple comme ε(h)αh , il est alors possible d’utiliser des estimés D1(h1) et D2(h2),
2
avec h2 = h1/2, pour générer une valeur D approchée par:
D = 4/3 D2(h2) - 1/3 D1(h1)
L’étudiant vérifiera que cette formule est exactement équivalente et dérivée de la même façon que
l’algorithme de Romberg. L’erreur sur D est alors de l’ordre de h4.
6 Equations Différentielles Ordinaires
L’équation différentielle type
dy
= f(y, t)
dt
doit être intégrée sur un intervalle [a..b]. A cause de la dépendance de f sur y, on ne
peut utiliser les méthodes d’intégration directe vues au chapitre précédent.
6.1 Rappels sur les équations différentielles
6.2 Méthode d’Euler
6.2.1 Principe de la méthode d’Euler
Elle se base sur une approximation du premier ordre de la dérivée dy/dt. On obtient alors une
expression récurente qui nous permet d’obtenir la solution de l’équation différentielle par intervalles
∆x, aussi noté h. C’est une méthode peu précise mais son développement simple et sa facilité
d’application et d’analyse en font un outil pédagogique interessant.
yi + 1 = yi + h f(ti , yi )
Résumé des méthodes principales
O(h )
-19-
6.2.2 Analyse de l’erreur
L’erreur locale de la méthode d’Euler est de l’ordre de h2.
L’erreur globale de la méthode d’Euler est de l’ordre de h.
6.2.3 Amélioration de la méthode: prédiction-correction
En utilisant les notions que l’on a déjà étudiées au chapitre précédent sur l’intégration par la méthode
des trapèzes, on peut développer en se basant sur la méthode d’Euler, des méthodes plus précises
mais malgré tout assez simple à concevoir. On le verra plus tard, ces deux méthodes sont équivalentes à des méthodes de Runge-Kutta.
yi0+ 1 = yi + h f(ti , yi )
O(h 2)
h
yik+ 1 = yi + (f(ti , yi ) + f(ti + 1, yik+−11)
2
h
yi + 1/2 = yi + f(ti , yi )
2
yi + 1 = yi + h f(ti + 1/2, yi + 1/2)
Résumé des méthodes principales
O(h 2)
-20-
6.3 Méthodes de Runge-Kutta
Méthodes basées sur une idée semblable à la méthode d’Euler mais utilisant une forme qui vient en partie
des méthodes d’intégration utilisant des développements en série de Taylor avec des termes d’ordre
supérieur. Ce sont des méthodes très performantes et elles constituent probablement les méthodes les
plus utilisées.
6.3.1 Méthode de Runge-Kutta d’ordre 2
Runge-Kutta d’ordre 2, formule générale.
yi + 1 = yi + h(a1k1 + a2k2)
k1 = f(ti , yi )
k2 = f(ti + p1h, yi + q11k1h)
O(h 2)
h
yi + 1 = yi + (k1 + k2)
2
k1 = f(ti , yi )
k2 = f(ti + h, yi + k1h)
O(h 2)
yi + 1 = yi + hk2
k1 = f(ti , yi )

1
1 
k2 = f  ti + h, yi + k1h 

2
2 
O(h 2)
h
yi + 1 = yi + (k1 + 2k2)
3
k1 = f(ti , yi )

3
3 
k2 = f  ti + h, yi + k1h 

4
4 
O(h 2)
a1=1/2, a2=1/2
p1=1, q11=1
a1=0, a2=1
p1=1/2, q11=1/2
a1=1/3, a2=2/3
p1=3/4, q11=3/4
Résumé des méthodes principales
-21-
6.3.2 Méthode de Runge-Kutta d’ordre 3
h
yi + 1 = yi + (k1 + 4k2 + k3)
6
O(h 3)
k1 = f(ti , yi )

1
1 
k2 = f  ti + h, yi + k1h 
2
2 

k3 = f(ti + h, yi − k1h + 2k2h)
6.3.3 Méthode de Runge-Kutta d’ordre 4
h
yi + 1 = yi + (k1 + 2k2 + 2k3 + k4)
6
k1 = f(ti , yi )

1
1 
k2 = f  ti + h, yi + k1h 

2
2 

1
1 
k3 = f  ti + h, yi + k2h 

2
2 
k4 = f(ti + h, yi + k3h)
Résumé des méthodes principales
O(h 4)
-22-
6.4 Méthodes d’intégration avec contrôle de l’erreur
6.4.1 Application de l’extrapolation de Richardson
L’intégration de l’équation différentielle sur un intervalle h nous donne une estimation de la valeur
vraie Y(h) avec une erreur ε qui est fonction de la distance h.
Y(h)
= y(h) + ε(h)
Si ε(h) a une forme simple comme ε(h)αh 2, il est alors possible d’utiliser des estimés y(h1) et y(h2),
exactement comme dans le cas de l’intégration de Romberg.
6.4.2 Méthode de Runge-Kutta-Fehlberg
 25
1408
2197
1 
k +
k +
k − k
ŷ i + 1 = yi + h 
 216 1 2565 3 4104 4 5 5
 16
6656
28561
9
2 
yi + 1 = yi + h 
k +
k +
k − k + k
 135 1 12825 3 56430 4 50 5 55 6
k1 = f(ti , yi )

1
1 
k2 = f  ti + h, yi + k1h 

4
4 

3
3
9

k3 = f  ti + h, yi + k1h + k2h 

8
32
32 

12
1932
7200
7296 
k4 = f  ti + h, yi +
kh−
kh+
k h

13
2197 1
2197 2 2197 3 

439
3680
845

k5 = f  ti + h, yi +
k1h − 8k2h +
k3h −
k4h 

216
513
4104 

1
8
3544
1859
11 
k6 = f  ti + h, yi − k1h + 2k2h −
kh+
k h − k h

2
27
2565 3 4104 4 40 5 
Erreur
 1
128
2197
1
2 
absolue = 
k1 −
k3 −
k4 + k5 + k6 h
 360
4275
75240
50
55 
6.5 Méthodes à pas multiples
Ce sont des méthodes qui utilisent les valeurs déjà obtenues aux pas d’intégration précédents pour aller
chercher un meilleur estimé de yi+1. Elles utilisent des polynômes d’interpolation et sont un peu reliées par
ceci aux méthodes de Newton-Cotes. Elles sont en deux catégories: fermées(Adams-Bashforth) et
ouvertes(Adams-Moulton).
Résumé des méthodes principales
-23-
6.5.1 Méthode d’Adams-Bashforth
yi + 1 = yi +
h
(23fi − 16fi − 1 + 5fi − 2)
12
h
yi + 1 = yi + (55fi − 59fi − 1 + 37fi − 2 − 9fi − 3)
24
O(h 3)
O(h 4)
6.5.2 Méthode d’Adams-Moulton
O(h 3)
Prédicteur
yi + 1 = yi +
h
(23fi − 16fi − 1 + 5fi − 2)
12
Correcteur
yi + 1 = yi +
h
(5f + 8fi − fi − 1)
12 i + 1
O(h 4)
Prédicteur
yi + 1 = yi +
h
(55fi − 59fi − 1 + 37fi − 2 − 9fi − 3)
24
Correcteur
yi + 1 = yi +
h
(9f + 19fi − 5fi − 1 + fi − 2)
24 i + 1
Résumé des méthodes principales
-24-
7 Equations aux dérivées partielles
On cherche la solution de l’équation aux dérivées partielles dans un domaines à deux
dimensions. On devra distinguer les types d’équations et les méthodes pouvant
s’appliquer à chaque type.
7.1 Transition: problèmes de conditions aux limites sur des E.D.O.
7.1.1 Méthode de tir
Un problème de conditions aux limites du type
d 2 y dy
+ = f(x, y)
dx 2 dx
ayant les conditions Y0 en x=0 et YL en x=L peut être transformé en un problème de conditions
initiales en imposant une condition initiale sur dy/dx=A1 en x=0.
On intègre alors par une méthode telle que celles vues au chapitre précédent et on obtient y=Y1 en
x=L. On pose alors dy/dx=A2 en x=0 et on intègre de nouveau pour obtenir y=Y2 en x=L. La procédure
d’interpolation dite méthode de tir est alors établie:
A3 = A1 +
A2 − A1
(Y − Y1)
Y2 − Y1 L
et cette méthode devient alors une recherche de racine par la méthode Regula-Falsi. Lorsque
l’équation différentielle est linéaire, la valeur A3 obtenue est exactement la solution du premier coup.
Sinon, un certain nombre d’itérations devront être effectuées jusqu’à ce que la solution obtenue soit
satisfaisante selon des critères pré-établis.
Résumé des méthodes principales
-25-
7.1.2 Méthode des différences finies
Un problème de conditions aux limites du type
d 2 y dy
+ = f(x, y)
dx 2 dx
ayant les conditions Y0 en x=0 et YL en x=L peut être transformé par approximation en différences
finies de chacun des termes de l’équation différentielle. L’équation ci-dessus serait alors transformée
en:
yi + 1 − 2yi + yi − 1 yi + 1 − yi − 1
+
= f(xi , yi )
2h
h2
où h est l’intervalle entre deux positions x successives. L’équation ci-dessus est alors posée pour
chacun des points xi et il en résulte un système linéaire d’équations qui doivent être résolues
simultanément.
7.1.3 Types de conditions aux limites
Dans le cas de l’équation de la chaleur, les types de conditions aux limites sont essentiellement de
deux type majeurs, soient les températures connues ou les flux connus sur les limites. Dans le cas
des flux connus on peut distiguer en plus deux cas particulier; le cas adiabatique et le coefficient
d’échange. Mathématiquement, on réfère souvent aux types de conditions aux limites comme le
type de Dirichlet; où la valeur de la variable dépendante est déterminée sur les limites, et le type de
Von Newman; où ce sont les dérivées qui sont déterminées.
Résumé des méthodes principales
-26-
7.2 Les équations aux dérivées partielles
7.2.1 Types d’équations
Si on écrit l’équation différentielle partielle générale en deux dimensions:
∂2u
∂2u
∂2u
+C 2+D =0
A 2+B
∂x∂y
∂x
∂y
Alors les équations D.P. pourront être classées parmi ces catégories en évaluant le discriminant
B 2 − 4AC . Chacun de ces types d’équations corresponds à un type de comportement physique bien
distinct et a aussi des propriétés mathématiques particulières.
•Elliptiques, B 2 − 4AC < 0. Exemple: la conduction de la chaleur en état de régime en deux
dimensions
•Paraboliques, B 2 − 4AC = 0. Exemple: la conduction de la chaleur transitoire.
•Hyperboliques, B 2 − 4AC > 0. Exemple: le mouvement d’un fluide non-visqueux.
Résumé des méthodes principales
-27-
7.3 Solution des équations paraboliques par différences finies
7.3.1 Application à l’équation de la conduction de chaleur
L’équation parabolique type est celle de la conduction transitoire de la chaleur:
∂T
∂2T
=α 2
∂t
∂x
avec les conditions suivantes:
Condition initiale en t=0 : T(x) = T0 , 0 < x < L
Conditions aux limites en x=0 : T(0) = T0
x=L : T(L) = TL
En transformant en différences finies on aura:
Tij + 1 − Tij
Ti + 1 − 2Ti + Ti − 1
=α
k
h2
où h représente l’intervalle entre deux positions xi et k l’intervalle entre deux positions tj.
Résumé des méthodes principales
-28-
7.3.2 La méthode explicite
La méthode explicite consiste à évaluer le terme de droite au temps j.
Tij + 1 − Tij
Tij + 1 − 2Tij + Tij − 1
=α
k
h2
ce qui permet d’écrire de façon explicite une équation de T en fonction de la distance (i) et du temps
(j).
Tij + 1 = aTij + 1 + bTij + cTij − 1
ou les coefficients a,b, et c sont donnés par:
a=
αk
h2
b =1−
c=
2αk
h2
αk
h2
La méthode explicite sera stable si la condition suivante est respectée:
αk 1
<
h2 2
Résumé des méthodes principales
-29-
7.3.3 La méthode implicite
La méthode implicite consiste à évaluer le terme de droite au temps j+1.
Tij + 1 − Tij
Tij ++11 − 2Tij + 1 + Tij −+11
=α
k
h2
on obtiendra alors l’expression suivante en regroupant les termes:
aTij ++11 + bTij + 1 + cTij −+11 = Tij
ou les coefficients a,b, et c sont donnés par:
a =−
b =1+
c =−
αk
h2
2αk
h2
αk
h2
cette méthode demande de résoudre un système linéaire tridiagonal à chaque intervalle de temps
k mais elle est stable sans conditions.
Résumé des méthodes principales
-30-
7.4 Solution des équations elliptiques par différences finies
7.4.1 Application à l’équation de Laplace
L’équation de Laplace, qui décrit le transfert de chaleur en deux dimensions, est transformée en
différences finies en utilisant les mêmes approximations que pour les méthodes décrites aux sections
suivantes:
∂2T ∂2T
+
=0
∂x 2 ∂y 2
devient:
aTi, j + bTi, j + 1 + cTi, j − 1 + dTi + 1, j + eTi − 1, j = 0
et dans le cas particulier ou les intervalles h et k, dans les directions x et y, sont égaux, les coefficients
sont simplement:
a = −4
b =c =d =e =1
Ceci est équivalent à écrire que la température sur chaque point de grille est égal à la moyenne
arithmétique des points voisins.
Résumé des méthodes principales
Téléchargement