-1- ANALYSE ET TECHNIQUES NUMERIQUES, COURS GIN220 RESUME DES METHODES NUMERIQUES PRINCIPALES 1 Introduction Le pourquoi et l’importance de l’analyse numérique, la clé de l’analyse numérique, et les problèmes d’erreur associés à ces techniques. 1.1 Les méthodes numériques 1.2 Erreurs dans l’analyse numérique 2 Equations non-linéaires On cherche une racine α telle que f(α) = 0. 2.1 Recherche incrémentale On se donne un point de départ x0 et un incrément ∆x . On calcule ensuite f(x0), f(x0+∆x ), f(x0+2∆x ) ... Une racine α est encadrée lorsque la fonction f change de signe. 2.2 Méthodes d’encadrement1 On se donne (par la méthode de recherche incrémentale par exemple) un intervalle [xg...xd] où la fonction f change de signe. On recherche ensuite la racine à l’intérieur de cet intervalle par une des méthodes suivantes. 1 Les chiffres en italique réfèrent aux sections dans le livre de référence: APPLIED NUMERICAL METHODS, de GERALD and WHEATLEY, 4th Edition, ADDISON-WESLEY. Résumé des méthodes principales -2- 2.2.1 Bissection On découpe l’intervalle en deux à chaque étape 1- xm = (xg + xd) /2 2- Si f(xm) * f(xd) < 0 alors la racine est entre xd et xm. Alors on élimine le point xg, on pose xg=xm et on retourne en 1. 3- Si f(xm) * f(xg) < 0 alors la racine est entre xg et xm. Alors on élimine le point xd, on pose xd=xm et on retourne en 1. 4- On continue jusqu’à ce que l’intervalle [xg...xd] soit réduit à une valeur tolérable ε qui doit être prédéterminée. Le nombre d’itération peut être déterminé à partir d’ε et de l’intervalle initial par: − xg )/ε) −1 ln 2 ln((xd n ≥ 2.2.2 Regula Falsi Interpolation linéaire entre les deux limites 1- fd = f(xd) 2- fg = f(xg) 3- xm = xg − fg (x − x ) fd − fg d g 4- Si f(xm)•f(xd) < 0 alors la racine est entre xd et xm. Alors on élimine le point xg, on pose xg=xm et on retourne en 1. 5- Si f(xm)•f(xg) < 0 alors la racine est entre xg et xm. Alors on élimine le point xd, on pose xd=xm et on retourne en 1. 6- On continue jusqu’à ce que la fonction f(xm) soit réduit à une valeur tolérable ε qui doit être prédéterminée. Résumé des méthodes principales -3- 2.3 Méthodes de point fixe On transforme le problème de base qui consiste à chercher α tel que f(α) = 0 en un problème où l’on cherche α tel que F(α) = α, c’est-à-dire un problème de point fixe. La transformation f(x) => F(x) n’est pas unique. La recherche de la racine devient alors simplement la suite x0,x1,x2,...xn, qui est établie en posant x1=F(x0), x2=F(x1), x3=F(x2),... La suite x0,x1,x2,...xn convergera dans l’intervalle [a...b] vers la racine α si: | F′(x) |≤ 1 Si elle converge, la méthode de point fixe converge linéairement. 2.3.1 Accélération d’Aitken Lorsque la méthode de point fixe converge, on peut accélérer sa convergence en appliquant la méthode d’Aitken: xi − 2xi − xi2− 1 xi + 1 = xi − 2xi − 1 + xi − 2 Résumé des méthodes principales -4- 2.4 Méthode de Newton-Raphson La méthode consiste à approcher la racine par la série: xi + 1 = xi − f(xi ) f′(xi ) Elle converge de façon quadratique. Cependant elle convergera en xi si: | f(xi )f′′(xi ) (f′(xi ))2 |< 1 Cette méthode est à la base d’un grand nombre de méthodes numériques avancées à cause de ses performances et de sa relative simplicité d’application. Les deux méthodes suivantes sont des variantes de celle-ci. 2.4.1 Méthode de la sécante La méthode consiste à utiliser exactement la même approche que par la méthode de Newton, cependant la dérivée f’(xi) sera évaluée de façon approchée par l’expression de la sécante: f′(xi ) = f(xi + ε) − f′(xi ) ε Elle converge bien mais pas de façon quadratique comme Newton. Cependant elle peut être très utile lorsque l’expression analytique de la dérivée de la fonction f est inconnue. 2.4.2 Méthode de Newton du 2ème ordre Cette méthode extremement performante converge de façon plus rapide que celle de Newton. Elle est très utilisée lorsque les fonctions f sont de nature exponentielle, polynomiale ou trigonométrique. xi + 1 = xi − f(xi ) f′(xi ) − Résumé des méthodes principales f′′(xi )f(xi ) 2f′(xi ) -5- 2.5 Méthode de Muller (quadratique) Méthode parente de celle de Regula-Falsi, elle utilise une parabole au lieu d’une droite pour approcher la racine. On calcule la fonction f(x) en trois points xg, xm et xd. Le point xm étant situé entre xd et xg, on effectue alors le changement de variable u = x - xm. Les variables ug = xm - xg et ud = xd - xm sont alors calculées ainsi que fd, fm et fg, les valeurs de la fonction sur les trois points mentionnés. Les coefficients de la parabole sont alors calculés par: a= b= −(fd − fm )ug − (fg − fm )ud −ud2ug − ud ug2 −(fg − fm )ud2 − (fd − fm )ug2 −ud2ug − ud ug2 c = fm La plus petite des deux racines de cette parabole est la nouvelle valeur améliorée de la racine de f(x), et on peut continuer de façon itérative en éliminant un des points xd ou xg, et en appliquant encore la méthode. Cette méthode converge de façon quadratique. 2.6 Racines de Polynomes Théorème du quotient. Si on divise le polynome Pn par le monôme x - x1 on obtient: Pn (x) bn + 1 = Qn − 1(x) + x − x1 x − x1 La valeur de Pn en x = x1 est alors directement obtenue par le reste bn+1. De même la dérivée P’n en x = x1 est la valeur du polynome réduit Qn-1 en x = x1. 2.7 Systèmes non-linéaires Pour un système de n équations non-linéaires à résoudre, la méthode de Newton semble la plus interessante et pour sa facilité d’application et pour sa "solidité". Résumé des méthodes principales -6- 2.7.1 Méthode de point fixe Elle est peu recommandée pour des systèmes non-linéaires, à cause des grands problèmes de convergence qu’elle peut rencontrer. 2.7.2 Méthode de Newton La méthode de Newton est alors directement appliquée, par analogie avec la méthode vue pour une seule variable: On a donc: [Ji ]∆x i = −f i Que l’on peut solutionner en multipliant par J-1, l’inverse de la matrice de Jacobi. −∆x i = [Ji ]−1 f i Les nouvelles valeurs des variables xi sont alors directement obtenues par: x i + 1 = x i + ∆x i avec [Ji], le Jacobien des fonctions f. Résumé des méthodes principales -7- 3 Systèmes linéaires Problème classique de l’algèbre linéaire, on veut solutionner n équations à n inconnues. 3.1 Méthode de Gauss C’est une méthode directe qui consiste à transformer le système Ax=b en un système équivalent Ux=b’, la matrice U étant triangulaire supérieure. La solution par substitution à rebours se fait alors facilement pour obtenir le vecteur solution. A partir de la deuxième ligne de la matrice augmentée [A][b] où [b] est le vecteur constant qui devient la n+1ème colonne de la matrice [A], on détermine le facteur de réduction fr= ai,i-1 / ai-1,i-1, où ai-1,i-1 est appelé le pivot de la réduction. Chaque élément de la ligne i est alors transformé en effectuant aij = aij - fr ai-1,j, de j=i-1 à n+1. A la fin de cette opération sur chaque ligne, on retrouve un 0 en position i ,i-1: cette ligne est alors réduite. Cette opération est ensuite effectuée sur toutes les lignes de i+1 à n pour mettre des 0 dans toute la colonne j=i-1, sous le pivot. On continue cette opération jusqu’à obtenir une matrice [A] triangulaire supérieure. La solution est alors obtenue en effectuant: n ai, n + 1 − ∑ ai, j x j j =i +1 xi = ai, i 3.1.1 Stratégie du pivotage partiel et conditionnement Consiste à toujours amener en position de pivot l’élément le plus grand (en valeur absolue) lors de l’élimination de Gauss. Ceci permet de minimiser les accumulations d’erreur numérique et d’améliorer la précision de la solution. 3.2 Méthode de Gauss-Seidel Méthode itérative de solution du système linéaire Ax = b. xik + 1 = i −1 n 1 bi − ∑ ai j x jk + 1 − ∑ ai j x jk aii j =1 j = i +1 Les indices i et j réfèrent aux lignes et colonnes de la matrice A alors que les indices k et k+1 réfèrent aux itérations successives de x. Résumé des méthodes principales -8- 3.3 Matrices tridiagonales; méthode de Thomas ou TDMA Ecrivons le système tridiagonal de la façon suivante: b1x1 + c1x2 = d1 a i xi − 1 + b i xi + ci xi + 1 = d i a n xn − 1 + b n xn = d n On effectue facilement la solution de i = 1 à n-1 par: βi + 1 = bi + 1 − ai + 1 c βi i δi + 1 = di + 1 − ai + 1 δ βi i β1 = b1 δ1 = d1 xn = δn βn et de i = n-1 à 1 xi = 1 [δ − c x ] βi i i i + 1 Résumé des méthodes principales -9- 4 Interpolation et lissage Connaissant les valeurs de la fonction f à un certain nombre discret de valeurs de x, on veut dériver une expression simple de f (sous forme polynomiale) en fonction de x. L’approche interpolation et approximation sont deux façons fondamentalement différentes d’aborder ce problème. 4.1 Interpolation On a n+1 valeurs connues de f sur n+1 points. On veut interpoler en un point x quelconque situé à l’intérieur de l’intervalle [x0,xn]. Sur tous les points x où f est connue, la fonction d’interpolation sera égale à la valeur connue de f. 4.1.1 Interpolation de Lagrange n Pn (x) = ∑ lk fk k =0 n lk (x) = ∏ (x − xi ) i =0 n ∏ (xk − xi ) i ≠k i =0 4.1.2 Interpolation par les différences Pn (x) = f0 + ∆[x0, x1] (x − x0) + … + ∆n [x0, …, xn ] (x − x0)…(x − xn − 1) ∆[x0, x1] = ∆2[x0, x1, x2] = f1 − f0 x1 − x0 ∆[x1, x2] − ∆[x0, x1] x2 − x0 ∆2[x1, x2, x3] − ∆2[x0, x1, x2] ∆ [x0, x1, x2, x3] = x3 − x0 3 Résumé des méthodes principales -10- 4.1.3 Splines cubiques La fonction d’interpolation est donnée par la formule: f(x) = fi f"i hi fi + 1 f"i + 1hi f"i f"i + 1 (xi + 1 − x)3 + (x − xi )3 + − − (xi + 1 − x) + (x − xi ) 6hi 6hi 6 6 hi hi les coefficients f" sont déterminés par la solution du système linéaire tridiagonal suivant, avec comme conditions supplémentaires f"0 = f"n = 0: de i=1 à n-1 : f"i − 1hi − 1 + f"i (2(hi − 1 + hi )) + f"i + 1hi = 6(f’i − f’i − 1) f’i = fi + 1 − fi hi ∧ f’i − 1 = fi − fi − 1 hi − 1 Résumé des méthodes principales ∧ hi = (xi + 1 − xi ) -11- 4.2 Lissage On connait n valeurs de f. On cherche à approximer f par une fonction de lissage. 4.2.1 Méthode des moindres carrés La minimisation du carré de l’erreur entre les valeurs de la fonction à approximer (à lisser) et la fonction de lissage (ou le modèle) s’écrit pour le cas du lissage par une droite: n S = ∑ (fi − axi − b)2 i =1 ∂S = ∑ (f − axi − b) (2) (−xi ) = 0 ∂a i = 1 i n ∂S = ∑ (fi − axi − b) (2) (−1) = 0 ∂b i = 1 n On doit alors solutionner ces deux équations pour trouver les coefficients inconnus a et b. La qualité de la droite de régression peut être quantifiée par la valeur du coefficient de corrélation, défini par: r2 = St − S St où la somme St est définie par: n − 2 St = ∑ fi − f i =1 EXEMPLE: Lissage polynomial (degré 3) par les moindres carrés.Le polynome étant écrit: a + bx + cx2 + dx3, les coefficients sont déterminés par la solution du système linéaire suivant: n Sx Sx2 Sx3 a Sx Sx2 Sx3 Sx4 b Sf Sxf = Sx2 Sx3 Sx4 Sx5 c Sx2f Sx3 Sx4 Sx5 Sx6 d Sx3f Où les termes Sxkf sont les sommes: n ∑ xkf i =1 Le même critère de qualité du lissage s’applique dans le cas du lissage polynomial. Résumé des méthodes principales -12- 4.2.2 Lissage de fonctions non-linéaires Très souvent le lissage non-linéaire que l’on devra effectuer se résumera au lissage d’une fonction exponentielle. Dans ce cas il suffit d’une transformation pour obtenir un problème linéaire qui peut être traité par lissage. En effet il suffit de prendre le log de : f(x) = Be −At pour obtenir: log(f(x)) = log B − At qui peut alors être traité comme un problème de régression linéaire simple. 4.2.3 Lissage linéaire multiple Exemple: on veut effectuer le lissage : n S = ∑ (fi − axi − b yi − c)2 i = 1, n , soit passer le meilleur plan par les n points f(xi, yi). La condition de minimisation donne les équations normales: n ∂S = 2 ∑ (fi − axi − b yi − c) (−xi ) = 0 ∂a i = 1, n n ∂S = 2 ∑ (fi − axi − b yi − c) (−yi ) = 0 ∂b i = 1, n n ∂S = 2 ∑ (fi − axi − b yi − c) (−1) = 0 ∂c i = 1, n Les équations normales sont alors solutionnées pour obtenir les paramètres a, b, et c. Résumé des méthodes principales -13- 5 Intégration et derivation numérique On veut approximer l’intégrale de la fonction f entre les bornes a et b. Rappelons que cette intégrale correspond à la surface sous la courbe de f entre les points a et b. Les méthodes suivantes donnent toutes une approximation I de cette intégrale. On approximera dans la deuxième partie de ce chapitre la dérivée de la fonction f. 5.1 Intégration numerique Résumé des méthodes principales -14- 5.1.1 Methodes de Newton-Cotes Ces méthodes sont toutes basées sur l’intégration de la fonction connue sur (n+1) points du polynome d’interpolation de degré n. Autrement dit, la méthode de Simpson 1/3 intègre alors la parabole d’interpolation qui passe par les trois points. Formules d’intégration de Newton-Cotes, une application simple Degré (n) Nom Formule de l’intégrale Erreur sur l’intégrale 1 trapèzes 2 Simpson 1/3 3 Simpson 3/8 4 Boole 5 (b − a ) n 1 5 4 h f (ξ) 90 h (f + 4f1 + f2) 3 0 3 5 4 h f (ξ) 80 h 3 (f0 + 3f1 + 3f2 + f3) 8 4 5 avec h = 1 3 2 h f (ξ) 12 h (f + f ) 2 0 1 h (7f + 32f1 + 12f2 + 32f3 + 7f4) 90 0 h (19f0 + 75f1 + 50f2 + 50f3 + 75f4 + 19f5) 288 8 7 6 h f (ξ) 945 275 7 6 h f (ξ) 12096 et n+1 points doivent être définis pour application de la formule. ξ est situé entre x0 et xn. Formules d’intégration pour application multiple. Degré Formule de l’intégrale composite Erreur sur l’intégrale composite 1 h (f + 2f1 + 2f2 + … + fn ) 2 0 1 (b − a )h 2 f 2 12 2 h (f + 4f1 + 2f2 + 4f3 + … + 4fn − 1 + fn ) 3 0 (b − a ) 4 4 h f 180 3 h 3 (f0 + 3f1 + 3f2 + 2f3 + 3f4 + … + 3fn − 1 + fn ) 8 (b − a ) 4 4 h f 80 On peut vérifier que les formules d’erreur données ici sont équivalentes à celles données dans le premier tableau. L’application de Simpson 1/3, qui demande 3 points ou deux intervalles, peut être effectuée de façon composite sur un nombre pair d’intervalles. Résumé des méthodes principales -15- 5.1.2 Méthode de Romberg Cette méthode utilise astucieusement les estimés déjà calculés par une méthode de Newton-Cotes pour obtenir un estimé plus précis. Elle utilise le principe de l’extrapolation de Richardson. Ij, k ~ = 4k − 1Ij + 1, k − 1 − Ij, k − 1 4k − 1 − 1 où I j,k est la nouvelle valeur améliorée de l’estimé de l’intégrale, les indices j et j+1 correspondent respectivement à l’intégrale la moins précise et la plus précise, l’indice k corresponds à la colonne dans le tableau suivant: Trapèzes k=2 k=3 k=4 I1,1 I2,1 I1,2 I2,2 I1,3 I2,3 I1,4 I3,1 I4,1 I3,2 Par exemple, dans le tableau précédent la colonne indiquée trapèzes correspondrait à des évaluations par les trapèzes avec 1, 2, 4, et 8 subdivisions. Les colonnes k=2, 3 et 4 sont les évaluations de Romberg. Valide seulement si la subdivision d’une intégration à l’autre est de 2. Résumé des méthodes principales -16- 5.1.3 Quadrature Gaussienne En plaçant les points du polynôme d’interpolation de façon à minimiser l’erreur de l’intégrale, on obtient une méthode extrèmement performante. Mais elle ne peut être appliquée que si l’on connait l’expression analytique de la fonction à intégrer. n Intégrale I = 2 f(-0.57735027) + f(0.57735027) 3 0.55555555 f(-.77459667) + 0.88888889 f(0) + 0.55555555 f(.77459667) 4 0.34785485 f(-.86113631) + .65214515 f(-.33998104) + .65214515 f(.33998104) + 0.34785485 f(.86113631) 5 0.23692689 f(-0.90617975) + 0.47862867 f(-0.53846931) + 0.56888889 f(0) + 0.47862867 f(0.53846931) + 0.23692689 f(0.90617975) Notez que pour l’intégrale par la quadrature gaussienne, la fonction est intégrée entre -1 et 1. Il faut donc effectuer une translation pour que les bornes d’intégration a et b deviennent -1 et 1. L’intégrale I obtenue devra donc être multipliée par (b-a)/2, ou b et a sont les bornes réelles de l’intégrale. Résumé des méthodes principales -17- 5.2 Dérivation 5.2.1 Formules générales Ces formules sont toutes dérivées en utilisant le développement en série de Taylor autour d’un point. On obtient des formules plus précises en gardant plus de termes dans le développement. Dérivée Formule Erreur fi + 1 − fi h O(h ) 2- fi − fi − 1 h O(h ) 3- fi + 1 − fi − 1 2h O(h 2) 4- −fi + 2 + 4fi + 1 − 3fi 2h O(h 2) 5- 3fi − 4fi − 1 + fi − 2 2h O(h 2) 6- −fi + 2 + 8fi + 1 − 8fi − 1 + fi − 2 12h O(h 4) fi + 2 − 2fi + 1 + fi O(h ) 1- 7- df dx d 2f dx 2 h 2 fi − 2fi − 1 + fi − 2 8- h fi + 1 − 2fi + fi − 1 9- O(h ) 2 O(h 2) h2 10- −fi + 3 + 4fi + 2 − 5fi + 1 + 2fi O(h 2) h2 11 2fi − 5fi − 1 + 4fi − 2 − fi − 3 O(h 2) h2 12 −fi + 2 + 16fi + 1 − 30fi + 16fi − 1 − fi − 2 12h 2 Résumé des méthodes principales O(h 4) -18- 5.2.2 Extrapolation de Richardson L’on connait une dérivée numérique D(h) qui est l’approximation de la dérivée exacte D avec une erreur ε dépendant de l’intervalle h. D = D(h) + ε(h) Si ε(h) a une forme simple comme ε(h)αh , il est alors possible d’utiliser des estimés D1(h1) et D2(h2), 2 avec h2 = h1/2, pour générer une valeur D approchée par: D = 4/3 D2(h2) - 1/3 D1(h1) L’étudiant vérifiera que cette formule est exactement équivalente et dérivée de la même façon que l’algorithme de Romberg. L’erreur sur D est alors de l’ordre de h4. 6 Equations Différentielles Ordinaires L’équation différentielle type dy = f(y, t) dt doit être intégrée sur un intervalle [a..b]. A cause de la dépendance de f sur y, on ne peut utiliser les méthodes d’intégration directe vues au chapitre précédent. 6.1 Rappels sur les équations différentielles 6.2 Méthode d’Euler 6.2.1 Principe de la méthode d’Euler Elle se base sur une approximation du premier ordre de la dérivée dy/dt. On obtient alors une expression récurente qui nous permet d’obtenir la solution de l’équation différentielle par intervalles ∆x, aussi noté h. C’est une méthode peu précise mais son développement simple et sa facilité d’application et d’analyse en font un outil pédagogique interessant. yi + 1 = yi + h f(ti , yi ) Résumé des méthodes principales O(h ) -19- 6.2.2 Analyse de l’erreur L’erreur locale de la méthode d’Euler est de l’ordre de h2. L’erreur globale de la méthode d’Euler est de l’ordre de h. 6.2.3 Amélioration de la méthode: prédiction-correction En utilisant les notions que l’on a déjà étudiées au chapitre précédent sur l’intégration par la méthode des trapèzes, on peut développer en se basant sur la méthode d’Euler, des méthodes plus précises mais malgré tout assez simple à concevoir. On le verra plus tard, ces deux méthodes sont équivalentes à des méthodes de Runge-Kutta. yi0+ 1 = yi + h f(ti , yi ) O(h 2) h yik+ 1 = yi + (f(ti , yi ) + f(ti + 1, yik+−11) 2 h yi + 1/2 = yi + f(ti , yi ) 2 yi + 1 = yi + h f(ti + 1/2, yi + 1/2) Résumé des méthodes principales O(h 2) -20- 6.3 Méthodes de Runge-Kutta Méthodes basées sur une idée semblable à la méthode d’Euler mais utilisant une forme qui vient en partie des méthodes d’intégration utilisant des développements en série de Taylor avec des termes d’ordre supérieur. Ce sont des méthodes très performantes et elles constituent probablement les méthodes les plus utilisées. 6.3.1 Méthode de Runge-Kutta d’ordre 2 Runge-Kutta d’ordre 2, formule générale. yi + 1 = yi + h(a1k1 + a2k2) k1 = f(ti , yi ) k2 = f(ti + p1h, yi + q11k1h) O(h 2) h yi + 1 = yi + (k1 + k2) 2 k1 = f(ti , yi ) k2 = f(ti + h, yi + k1h) O(h 2) yi + 1 = yi + hk2 k1 = f(ti , yi ) 1 1 k2 = f ti + h, yi + k1h 2 2 O(h 2) h yi + 1 = yi + (k1 + 2k2) 3 k1 = f(ti , yi ) 3 3 k2 = f ti + h, yi + k1h 4 4 O(h 2) a1=1/2, a2=1/2 p1=1, q11=1 a1=0, a2=1 p1=1/2, q11=1/2 a1=1/3, a2=2/3 p1=3/4, q11=3/4 Résumé des méthodes principales -21- 6.3.2 Méthode de Runge-Kutta d’ordre 3 h yi + 1 = yi + (k1 + 4k2 + k3) 6 O(h 3) k1 = f(ti , yi ) 1 1 k2 = f ti + h, yi + k1h 2 2 k3 = f(ti + h, yi − k1h + 2k2h) 6.3.3 Méthode de Runge-Kutta d’ordre 4 h yi + 1 = yi + (k1 + 2k2 + 2k3 + k4) 6 k1 = f(ti , yi ) 1 1 k2 = f ti + h, yi + k1h 2 2 1 1 k3 = f ti + h, yi + k2h 2 2 k4 = f(ti + h, yi + k3h) Résumé des méthodes principales O(h 4) -22- 6.4 Méthodes d’intégration avec contrôle de l’erreur 6.4.1 Application de l’extrapolation de Richardson L’intégration de l’équation différentielle sur un intervalle h nous donne une estimation de la valeur vraie Y(h) avec une erreur ε qui est fonction de la distance h. Y(h) = y(h) + ε(h) Si ε(h) a une forme simple comme ε(h)αh 2, il est alors possible d’utiliser des estimés y(h1) et y(h2), exactement comme dans le cas de l’intégration de Romberg. 6.4.2 Méthode de Runge-Kutta-Fehlberg 25 1408 2197 1 k + k + k − k ŷ i + 1 = yi + h 216 1 2565 3 4104 4 5 5 16 6656 28561 9 2 yi + 1 = yi + h k + k + k − k + k 135 1 12825 3 56430 4 50 5 55 6 k1 = f(ti , yi ) 1 1 k2 = f ti + h, yi + k1h 4 4 3 3 9 k3 = f ti + h, yi + k1h + k2h 8 32 32 12 1932 7200 7296 k4 = f ti + h, yi + kh− kh+ k h 13 2197 1 2197 2 2197 3 439 3680 845 k5 = f ti + h, yi + k1h − 8k2h + k3h − k4h 216 513 4104 1 8 3544 1859 11 k6 = f ti + h, yi − k1h + 2k2h − kh+ k h − k h 2 27 2565 3 4104 4 40 5 Erreur 1 128 2197 1 2 absolue = k1 − k3 − k4 + k5 + k6 h 360 4275 75240 50 55 6.5 Méthodes à pas multiples Ce sont des méthodes qui utilisent les valeurs déjà obtenues aux pas d’intégration précédents pour aller chercher un meilleur estimé de yi+1. Elles utilisent des polynômes d’interpolation et sont un peu reliées par ceci aux méthodes de Newton-Cotes. Elles sont en deux catégories: fermées(Adams-Bashforth) et ouvertes(Adams-Moulton). Résumé des méthodes principales -23- 6.5.1 Méthode d’Adams-Bashforth yi + 1 = yi + h (23fi − 16fi − 1 + 5fi − 2) 12 h yi + 1 = yi + (55fi − 59fi − 1 + 37fi − 2 − 9fi − 3) 24 O(h 3) O(h 4) 6.5.2 Méthode d’Adams-Moulton O(h 3) Prédicteur yi + 1 = yi + h (23fi − 16fi − 1 + 5fi − 2) 12 Correcteur yi + 1 = yi + h (5f + 8fi − fi − 1) 12 i + 1 O(h 4) Prédicteur yi + 1 = yi + h (55fi − 59fi − 1 + 37fi − 2 − 9fi − 3) 24 Correcteur yi + 1 = yi + h (9f + 19fi − 5fi − 1 + fi − 2) 24 i + 1 Résumé des méthodes principales -24- 7 Equations aux dérivées partielles On cherche la solution de l’équation aux dérivées partielles dans un domaines à deux dimensions. On devra distinguer les types d’équations et les méthodes pouvant s’appliquer à chaque type. 7.1 Transition: problèmes de conditions aux limites sur des E.D.O. 7.1.1 Méthode de tir Un problème de conditions aux limites du type d 2 y dy + = f(x, y) dx 2 dx ayant les conditions Y0 en x=0 et YL en x=L peut être transformé en un problème de conditions initiales en imposant une condition initiale sur dy/dx=A1 en x=0. On intègre alors par une méthode telle que celles vues au chapitre précédent et on obtient y=Y1 en x=L. On pose alors dy/dx=A2 en x=0 et on intègre de nouveau pour obtenir y=Y2 en x=L. La procédure d’interpolation dite méthode de tir est alors établie: A3 = A1 + A2 − A1 (Y − Y1) Y2 − Y1 L et cette méthode devient alors une recherche de racine par la méthode Regula-Falsi. Lorsque l’équation différentielle est linéaire, la valeur A3 obtenue est exactement la solution du premier coup. Sinon, un certain nombre d’itérations devront être effectuées jusqu’à ce que la solution obtenue soit satisfaisante selon des critères pré-établis. Résumé des méthodes principales -25- 7.1.2 Méthode des différences finies Un problème de conditions aux limites du type d 2 y dy + = f(x, y) dx 2 dx ayant les conditions Y0 en x=0 et YL en x=L peut être transformé par approximation en différences finies de chacun des termes de l’équation différentielle. L’équation ci-dessus serait alors transformée en: yi + 1 − 2yi + yi − 1 yi + 1 − yi − 1 + = f(xi , yi ) 2h h2 où h est l’intervalle entre deux positions x successives. L’équation ci-dessus est alors posée pour chacun des points xi et il en résulte un système linéaire d’équations qui doivent être résolues simultanément. 7.1.3 Types de conditions aux limites Dans le cas de l’équation de la chaleur, les types de conditions aux limites sont essentiellement de deux type majeurs, soient les températures connues ou les flux connus sur les limites. Dans le cas des flux connus on peut distiguer en plus deux cas particulier; le cas adiabatique et le coefficient d’échange. Mathématiquement, on réfère souvent aux types de conditions aux limites comme le type de Dirichlet; où la valeur de la variable dépendante est déterminée sur les limites, et le type de Von Newman; où ce sont les dérivées qui sont déterminées. Résumé des méthodes principales -26- 7.2 Les équations aux dérivées partielles 7.2.1 Types d’équations Si on écrit l’équation différentielle partielle générale en deux dimensions: ∂2u ∂2u ∂2u +C 2+D =0 A 2+B ∂x∂y ∂x ∂y Alors les équations D.P. pourront être classées parmi ces catégories en évaluant le discriminant B 2 − 4AC . Chacun de ces types d’équations corresponds à un type de comportement physique bien distinct et a aussi des propriétés mathématiques particulières. •Elliptiques, B 2 − 4AC < 0. Exemple: la conduction de la chaleur en état de régime en deux dimensions •Paraboliques, B 2 − 4AC = 0. Exemple: la conduction de la chaleur transitoire. •Hyperboliques, B 2 − 4AC > 0. Exemple: le mouvement d’un fluide non-visqueux. Résumé des méthodes principales -27- 7.3 Solution des équations paraboliques par différences finies 7.3.1 Application à l’équation de la conduction de chaleur L’équation parabolique type est celle de la conduction transitoire de la chaleur: ∂T ∂2T =α 2 ∂t ∂x avec les conditions suivantes: Condition initiale en t=0 : T(x) = T0 , 0 < x < L Conditions aux limites en x=0 : T(0) = T0 x=L : T(L) = TL En transformant en différences finies on aura: Tij + 1 − Tij Ti + 1 − 2Ti + Ti − 1 =α k h2 où h représente l’intervalle entre deux positions xi et k l’intervalle entre deux positions tj. Résumé des méthodes principales -28- 7.3.2 La méthode explicite La méthode explicite consiste à évaluer le terme de droite au temps j. Tij + 1 − Tij Tij + 1 − 2Tij + Tij − 1 =α k h2 ce qui permet d’écrire de façon explicite une équation de T en fonction de la distance (i) et du temps (j). Tij + 1 = aTij + 1 + bTij + cTij − 1 ou les coefficients a,b, et c sont donnés par: a= αk h2 b =1− c= 2αk h2 αk h2 La méthode explicite sera stable si la condition suivante est respectée: αk 1 < h2 2 Résumé des méthodes principales -29- 7.3.3 La méthode implicite La méthode implicite consiste à évaluer le terme de droite au temps j+1. Tij + 1 − Tij Tij ++11 − 2Tij + 1 + Tij −+11 =α k h2 on obtiendra alors l’expression suivante en regroupant les termes: aTij ++11 + bTij + 1 + cTij −+11 = Tij ou les coefficients a,b, et c sont donnés par: a =− b =1+ c =− αk h2 2αk h2 αk h2 cette méthode demande de résoudre un système linéaire tridiagonal à chaque intervalle de temps k mais elle est stable sans conditions. Résumé des méthodes principales -30- 7.4 Solution des équations elliptiques par différences finies 7.4.1 Application à l’équation de Laplace L’équation de Laplace, qui décrit le transfert de chaleur en deux dimensions, est transformée en différences finies en utilisant les mêmes approximations que pour les méthodes décrites aux sections suivantes: ∂2T ∂2T + =0 ∂x 2 ∂y 2 devient: aTi, j + bTi, j + 1 + cTi, j − 1 + dTi + 1, j + eTi − 1, j = 0 et dans le cas particulier ou les intervalles h et k, dans les directions x et y, sont égaux, les coefficients sont simplement: a = −4 b =c =d =e =1 Ceci est équivalent à écrire que la température sur chaque point de grille est égal à la moyenne arithmétique des points voisins. Résumé des méthodes principales