MATHÉMATIQUES L1 Second Semestre Armand Taranco BIBLIOGRAPHIE •Dupont : Algèbre pour les sciences économiques, Flash U, A. Colin. •Bernard Guerrien, Isabelle This : Les mathématiques de la microéconomie, Economica, édition de poche. •Lecoutre : Mathématiques pour sciences économiques. Exercices corrigés avec rappels de cours, Masson. ALGEBRE LINEAIRE • • • • • • Espaces vectoriels Applications linéaires Matrices Déterminants Systèmes linéaires Inversion des matrices ESPACES VECTORIELS • Définition d’un espace vectoriel E est un espace vectoriel réel (e.v.r.) s'il est muni de deux lois de composition : • Une loi de composition interne, appelée addition des vecteurs, qui fait de E un groupe commutatif : EV1 : l'addition est associative : x + (y + z) = (x + y) + z EV2 : l'addition est commutative : x + y = y + x. EV3 : l'addition possède un élément neutre, noté 0E : x + 0E = x EV4 : tout élément x de E possède un symétrique pour l'addition, noté – x : x + (–x) = 0E ESPACES VECTORIELS • Une loi de composition externe, appelée multiplication par les réels, possédant, les propriétés suivantes : EV5 : la multiplication par les réels est distributive par rapport à l'addition des nombres réels : (l + µ).x = l.x + µ.x EV6 : la multiplication par les réels est distributive par rapport à l'addition des vecteurs (éléments de E) : l.(x + y) = l.x + l.y EV7 : la multiplication par les réels est associative : (l.µ).x = l.(µ.x) EV8 : la multiplication par le réel 1 est neutre : 1.x = x ESPACES VECTORIELS Exemples - R, muni de l’addition est un e.v.r. - Rn = { (x1,…,xn) / x1 R,…, xn R }, muni de la somme : (x1,…,xn) + (y1,…,yn) = (x1 + y1,…,xn + yn) et de la multiplication par les réels : l.(x1,…,xn) = (l.x1,…, l.xn) - A (D, R), l’ensemble des applications de D dans R muni des deux lois : (f + g)(x) = f(x) + g(x) pour tout x dans D (l.f)(x) = l.f(x) pour tout x dans D ESPACES VECTORIELS • Sous espace vectoriel Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si les deux conditions suivantes sont vérifiées : 1) Pour tout v et tout w dans F, v + w est dans F 2) Pour tout v dans F et tout l dans R, l.v est dans F On dit aussi que F est une partie stable pour l’addition des vecteurs et la multiplication par les réels. ESPACES VECTORIELS • Propriété 1 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si F muni de l’addition de E et de la multiplication par les réels est un e.v.r.. • Propriété 2 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si : pour tout u et tout v dans F, pour tout l et tout m dans R l.u + m.v est dans F. ESPACES VECTORIELS Remarques Pour montrer qu’une partie F d’un e.v.r. E est un sous espace vectoriel de E il faut : - Vérifier d’abord que F est une partie non vide de E - Utiliser ensuite la définition ou la propriété 2. • Combinaison linéaire Etant donné p vecteurs v1,…,vp d’un e.v.r. E, une combinaison linéaire des p vecteurs v1,…,vp est un vecteur u de E s’écrivant : u = l1.v1 +…+lp.vp, li appartenant à R pour tout 1≤ i ≤ p ESPACES VECTORIELS • Sous espace vectoriel engendré par {u1, …, up } Etant donné p vecteurs u1,…,up d’un e.v.r. E, p F v E / v l i u i , l i R i 1 est un sous espace vectoriel de E appelé sous espace vectoriel engendré par { u1, …, up }. Notation : F = < u1, …, up > ESPACES VECTORIELS Démonstration • F n’est pas une partie vide car 0E F : 0E = 0. u1 +…+ 0. up • F est un sous espace vectoriel de E : - Si v et w appartiennent à F alors v = l1.u1 +…+lp.up et w = m1.u1 +…+mp.up v + w = (l1+ m1).u1 +…+ (lp+ mp).up Par conséquent v + w F - Si v F et m R, alors m.v = m(l1.u1 +…+lp.up) m.v = ml1.u1 +…+mlp.up Par conséquent m.v F ESPACES VECTORIELS Exemple F = < (1,1), (2,2)> est un sous espace vectoriel de R2, mais F ≠ R2. Par exemple, le vecteur (3,4) n’est pas dans F. F = { u = l.(1,1) + m.(2,2) / lR, mR } ESPACES VECTORIELS • Parties génératrices Etant donné p vecteurs u1,…,up d’un e.v.r. E, { u1,…,up } est une partie génératrice de E si et seulement si : E = < u1, …, up > Remarque : {u1,…,up } est une partie génératrice de E si et seulement si : Pour tout v de E, on peut trouver l1,…, lp dans R tel que : v = l1.u1 +…+lp.up ESPACES VECTORIELS Exercice Montrer que {(1,0), (0,1)} est une partie génératrice de R2. Il faut montrer que pour chaque vecteur u de R2, on peut trouver l et m tel que l’on ait : u = l. (1,0) + m. (0,1). u s’écrit : u = (x,y). (x,y) = l. (1,0) + m. (0,1) (x,y) = (l,0) + (0,m) (x,y) = (l, m) On choisit l = x et m = y. ESPACES VECTORIELS • Propriété Toute partie de E contenant une partie génératrice de E est aussi une partie génératrice de E. • Dimension d’un espace vectoriel Un e.v.r. est dit de dimension finie s’il existe une partie génératrice de E contenant un nombre fini de vecteurs. Exemple E = R2 est un e.v.r. de dimension finie car : R2 = < (1,0), (0,1)> ESPACES VECTORIELS • Parties libres Etant donné p vecteurs u1,…,up d’un e.v.r. E, { u1,…,up } est une partie libre de E si et seulement si : p l u i 1 i i 0E l i 0 pour tout 1 i p On dit alors que les vecteurs u1,…,up sont linéairement indépendants. Propriété Toute partie extraite d’une partie libre de E est une partie libre de E. ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une partie libre de R2. En effet, si 2 l i ui 0R 2 i 1 alors l1.(1,0) + l2.(0,1) = (0,0) (l1, l2) = (0,0) D’où : l1 = 0 et l2 = 0 ESPACES VECTORIELS • Exercice Montrer que {(1,1), (2,2)} n’est pas une partie libre de R2. En effet, l1.(1,1) + l2.(2,2) = (0,0) entraîne : l1 + 2l2 = 0 Par conséquent, on n’a pas nécessairement l1 = 0 et l2 = 0 ESPACES VECTORIELS • Partie liée Une partie { u1,…,up } d’un espace vectoriel qui n’est pas libre est dite liée. On dit alors que les vecteurs { u1,…,up } sont linéairement dépendants. Exemple {(1,0,0), (1,1,1), (-1,-2,-2)} est une partie liée. ESPACES VECTORIELS Cela signifie qu’il existe des réels l1, l2, l3 non tous nuls tel que l’on ait : l1.(1,0,0) + l2.(1,1,1) + l3.(-1,-2,-2) = (0,0,0) (l1 + l2 - l3, l2 -2 l3, l2 -2 l3) = (0,0,0) D’où le système : l1 + l2 - l3 = 0 l2 - 2 l3 = 0 l2 = 2 l3 l1 = - l3 On peut choisir l1 = -1, l2 = 2, l3 = 1 D’où : -(1,0,0) + 2(1,1,1) + (-1,-2,-2) = (0,0,0) ESPACES VECTORIELS • Bases Etant donné un e.v.r. de dimension finie n, une base de E est un ensemble constitué de n vecteurs de E, { e1,…,en } tel que tout vecteur u de E s’écrive d’une façon unique sous la forme : n u l i ei i 1 Les li sont les composantes du vecteur u relativement à la base { e1,…,en }. ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une base de R2. En effet, si u = (x,y) est un vecteur quelconque de R2, il existe l1 et l2 tel que l’on ait : (x,y) = l1.(1,0) + l2.(0,1) (x,y) = x.(1,0) + y.(0,1) D’où l1 = x et l2 = y. ESPACES VECTORIELS Propriété caractéristique { e1,…,en } est une base de E si et seulement si { e1,…,en } est une partie génératrice libre de E. démonstration : - Supposons que { e1,…,en } soit une base de E. C’est donc une partie génératrice de E. Montrons qu’elle est libre. n l i 1 i e i 0 E 0.e1 ... 0.e n La décomposition étant unique, les li sont tous nuls. ESPACES VECTORIELS • Réciproquement, supposons que { e1,…,en } soit une partie génératrice libre de E. n u l i ei i 1 n Soit u m i ei une autre décomposition de u. i 1 n l i 1 n i ei m i ei i 1 n (l i 1 i m i e i 0 E Comme { e1,…,en } est une partie libre, li = mi pour 1≤i≤n u s’écrit donc d’une façon unique : n u l i ei i 1 et { e1,…,en } est une base de E. ESPACES VECTORIELS • Comment montrer qu’une partie { e1,…,en } d’un espace vectoriel E est une base ? 1) On ne connaît pas la dimension de E. On utilise alors soit la définition soit la propriété caractéristique. 2) On connaît la dimension n de E. On montre alors que { e1,…,en } est une partie libre. APPLICATIONS LINEAIRES • Définition E et F deux espaces vectoriels réels f:E→F u → f(u) f est linéaire si et seulement si les deux conditions suivantes sont vérifiées : f(u + v) = f(u) + f(v) pour tout u E et tout v E f(l.u) =lf(u) pour tout u E et tout l R APPLICATIONS LINEAIRES • Exemples - E = R, F = R f(x) = ax - E = R2, F = R f : R2 → F (x,y) → f(x,y) f(x,y) = ax + by - E = R2, F = R2 f(x,y) = (2x + 3y , x – y) APPLICATIONS LINEAIRES • Propriété caractéristique f : E → F est linéaire si et seulement si : pour tout l R, tout m R, tout u E, tout v E f(l.u + m.v) = lf(u) + mf(v) • Propriété Si f : E → F est linéaire alors f(0E) = 0F APPLICATIONS LINEAIRES • Caractérisation d’une application linéaire Théorème : soit { e1,…,en } une base d’un e.v.r. E et { v1,…,vn } n vecteurs d’un e.v.r. F. Alors, il existe une application linéaire unique f : E → F vérifiant : f(ei) = vi pour i =1,…,n f est entièrement déterminée par les images des éléments d’une base de E. APPLICATIONS LINEAIRES • Démonstration : Soit u E, alors u s’écrit d’une façon unique : n u l i ei i 1 Soit f une application linéaire de E dans F : f(u) = f(l1e1 +…+lnen) = l1f(e1) +…+lnf(en) f(u) = l1v1 +…+lnvn Si l’on prend comme définition den f : f(u) = l1v1 +…+lnvn , pour u l i e i i 1 f est linéaire et vérifie : f(ei) = vi pour i =1,…,n APPLICATIONS LINEAIRES • Exemple Déterminer l’application linéaire f : R2 → R vérifiant : f(1,0) = 3 et f(0,1) = 2 Comme les vecteurs e1 = (1,0) et e2 = (0,1) forment une base de R2, le théorème précédent montre qu’une telle application existe et est unique. Pour (x,y) R2, on a : (x,y) = x.(1,0) + y.(0,1) f(x,y) = 3x + 2y APPLICATIONS LINEAIRES • Composition des applications linéaires f : E → F, g : F → G deux applications linéaires alors h = gof : E → G est une application linéaire. démonstration : h(l.u + m.v) = g(f(l.u + m.v)) h(l.u + m.v) = g(lf(u) + mf(v)) h(l.u + m.v) = lgof(u) + mgof(v) pour tout l, m dans R et tout u, v dans E. APPLICATIONS LINEAIRES • Noyau d’une application linéaire Définition : soit f : E → F une application linéaire. Le noyau de f, noté Kerf, est défini par : Kerf = {u E / f(u) =0F} 0F APPLICATIONS LINEAIRES Propriété Si f : E → F est une application linéaire, alors Kerf est un s.e.v. de E. Démonstration Kerf n’est pas vide car 0E Kerf. Soit u et v deux vecteurs quelconques de Kerf et l, m deux réels quelconques. f(lu + mv) = lf(u) + mf(v) (f est linéaire) f(lu + mv) = l0F + m0F (u et v sont dans Kerf) f(lu + mv) = 0F Par conséquent, lu + mv est dans Kerf. Kerf est donc un s.e.v. de E. APPLICATIONS LINEAIRES • Exemple Soit f : R2 → R2 définie par : f(x,y) = (x+y,x+y) (f est linéaire, le vérifier) Kerf = {(x,y) R2 / f(x,y) = 0R2} Kerf = {(x,y) R2 / f(x,y) = (0,0)} Kerf = {(x,y) R2 / x + y = 0} Kerf = {(x,-x) R2 / x R} Kerf = {x.(1,-1), x R} Kerf = < (1,-1) > APPLICATIONS LINEAIRES • Caractérisation des injections linéaires Soit f : E → F une application linéaire. Alors f est injective si et seulement : Kerf = {0E} démonstration : supposons f injective. Soit u Kerf, alors f(u) = 0F. Mais f est injective, d’où u = 0E Donc Kerf = {0E}. APPLICATIONS LINEAIRES Réciproquement, supposons Kerf = {0E}. Si f(u) = f(v) alors f(u) – f(v) = 0F. Comme f est linéaire, f(u) – f(v) =f(u – v) = 0F. Par conséquent, u – v Kerf. Mais Kerf = {0E}, donc u – v = 0E et u = v. f est donc injective. APPLICATIONS LINEAIRES • Image d’une application linéaire Définition : soit f : E → F une application linéaire. L’image de f, notée Imf, est l’ensemble f(E) : Imf = {v F / v = f(u), u E} APPLICATIONS LINEAIRES • Propriété Si f : E → F est une application linéaire, alors Imf est un s.e.v. de F. Démonstration Imf n’est pas vide car 0F Imf. Soit v1 et v2 deux vecteurs quelconques de Imf et l1, l2 deux réels quelconques. Alors il existe deux vecteurs u1 et u2 de E tel que l’on ait : v1 = f(u1) et v2 = f(u2). l1.v1 + l2.v2 = l1.f(u1) + l2.f(u2) = f(l1.u1 + l2.u2) Donc (l1.v1 + l2.v2) Imf APPLICATIONS LINEAIRES • Caractérisation des surjections linéaires Soit f : E → F une application linéaire. Alors f est surjective si et seulement : Imf = F démonstration : On a toujours : Imf ⊂ F. f est surjective si et seulement si : Pour tout v F il existe u E tel que f(u) = v. Donc, v Imf et F ⊂ Imf. APPLICATIONS LINEAIRES • Caractérisation des bijections linéaires Soit f : E → F une application linéaire. Alors f est bijective si et seulement : Kerf = {0E} et Imf = F • Théorème Soit f : E → F une application linéaire bijective. Alors f-1 est une application linéaire de F dans E. APPLICATIONS LINEAIRES • Exemple Soit f : R2 → R2 définie par : f(x,y) = (x+y,x+y) Imf = {f(x,y) / (x,y) R2} Imf = {(x+y,x+y) / (x,y) R2} Imf = {(x+y).(1,1) / (x,y) R2} Imf = {l.(1,1) / l R} Imf = <(1,1)> Kerf = <(1,-1)> APPLICATIONS LINEAIRES • Rang d’une application linéaire Définition : le rang d’une application linéaire f : E → F est la dimension de l’espace vectoriel Imf. rg(f) = dim(Imf) Remarque : étant donné une base { e1,…,en } de E, le rang de f est égal au nombre maximum de vecteurs linéairement indépendants de {f(e1),…,f(en)}. Théorème noyau / image : soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. Alors on a : dimE = dim(Kerf) + dim(Imf) APPLICATIONS LINEAIRES • • Conséquences pratiques soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. – f est injective si et seulement si rg(f) = dimE. – f est surjective si et seulement si rg(f) = dimF. – f est bijective si et seulement si rg(f) = dimE = dimF. Exemple Soit f : R2 → R2 définie par : f(x,y) = (x+y,x+y) Imf = <(1,1)> → dimF = 1 = rg(f) Kerf = <(1,-1)> → dim(Kerf) = 1 dim(R2) = 1 + 1 =2 MATRICES • Définition Une matrice M à n lignes et p colonnes est un tableau de nombres réels comportant n lignes et p colonnes. M= a11 . . a12 . . … . aij . an1 . an2 . … M = [aij]1≤i≤n, 1≤j≤p a1p . . . anp jème colonne ième ligne MATRICES L’ensemble des matrices à n lignes et p colonnes se note M (n,p). Exemples A B 3 2,4 7 2 0 2 lignes, 3 colonnes 5,3 3,1 2 1,5 6 B est une matrice carrée. 2 lignes, 2 colonnes MATRICES • Matrice identité 1 0 0 1 1 0 0 1 d’ordre 2 d’ordre n (n lignes, n colonnes) MATRICES • Matrice diagonale 3,1 0 0 0 7,2 0 0 0 15 • Matrice triangulaire 5,3 4,3 10 8 0 3,2 0 7,5 0 0 12 1,4 0 0 2,6 0 supérieure 9,2 2,8 7 3 0 0 0 7 0 0 9 1 0 0 5,2 7,4 inférieure MATRICES • Opérations sur les matrices – Somme A M (n,p), B M (n,p) C=A+B Cij = aij + bij Exemple 1 2 A 3 6 2 6 B 4 8 3 8 C A B 7 14 MATRICES – Produit par un nombre réel A M (n,p), l R D = l.A dij = laij Exemple 1 2 A 3 6 1 2 5 10 5.A 5. 3 6 15 30 MATRICES • Propriété de M (n,p) M (n,p) muni de l’addition des matrices et du produit par les nombres réels est un espace vectoriel de dimension np. Une base de cet espace vectoriel est formée par les matrices Iij, où Iij est la matrice ayant l’élément 1 à l’intersection de la ième ligne et de la jème colonne et ne comportant que des zéros ailleurs. MATRICES Exemple a c a c b 1 0 0 1 0 0 0 0 a b c d d 0 0 0 0 1 0 0 1 b aI11 bI12 cI21 d I22 d MATRICES • Produit de deux matrices A M (n,p), B M (p,m) C=AxB CM (n,m) C = [cij]1≤i≤n, 1≤j≤m p c ij a ik b kj k 1 MATRICES Exemple 1 2 3 A 2 5 4 2 1 B 7 5 3 2 1 2 2 7 3 3 1 1 2 5 3 2 C A B 2 2 5 7 4 3 2 1 5 5 4 2 25 17 C A B 51 35 MATRICES • Propriétés A x (B + C) = A x B + A x C A x(B x C) = (A x B) x C Remarques 1) En général, A x B ≠ B x A. Il se peut même que B x A ne soit pas défini. 2) A x B = A x C ⇏ C = B MATRICES • Transposition Soit M = [aij]. La transposée de M, notée tM, est la matrice dont les éléments sont aji. Exemple 1 2 3 M 1 1 2 1 1 t M 2 1 3 2 MATRICES Propriétés de la transposition t(M+P) = tM + tP t(AB) = tBtA t(tM) = M Définition Une matrice M est symétrique si et seulement si M = tM. Remarque Une matrice symétrique est forcément carrée. MATRICES • Lien entre matrices et applications linéaires – A toute matrice MM (n,p) on peut associer une application linéaire : f : Rp Rn X Y = M.X – A toute application linéaire f : Rp Rn, on peut associer une matrice qui dépend du choix de la base { e1,…,ep } dans l’espace de départ et du choix de la base { f1,…,fn } dans l’espace d’arrivée. MATRICES g(e 1 ) g(e p ) a11 a1p a n1 a np g(e 1 ) a11f1 a n1fn g(e p ) a1p f1 a np fn f1 fn MATRICES Exemple f : R2 → R2 f(x,y) = (5x + 2y,8x +3y) {(1,0), (0,1)}, la base canonique de R2 (espace de départ et d’arrivée). f(1,0) = (5,8) f(0,1) = (2,3) Matrice associée à f : 5 2 8 3 MATRICES Exemple f : R2 → R2 f(x,y) = (5x + 2y,8x +3y) {(1,1), (1,0)} comme base de l’espace de départ et {(1,0), (0,1)} comme base de l’espace d’arrivée. f(1,1) = (7,11) f(1,0) = (5,8) Matrice associée à f : 7 5 11 8 DETERMINANTS Le déterminant d’une matrice n’est défini que pour une matrice carrée. • Déterminant d’ordre 2 a b A c d detA ad bc Notations detA ou a b c d DETERMINANTS • Déterminant d’ordre 3 a b c A a' b' c' a' ' b' ' c' ' Mineur Mij : déterminant de la sous matrice obtenue en supprimant la ième ligne et la jème colonne a b c a' b' c' a' ' b' ' c' ' M11 DETERMINANTS a b c A a' b' c' a' ' b' ' c' ' b c M21 b' ' c' ' b c M31 b' c' DETERMINANTS • Déterminant d’ordre 3 On peut développer un déterminant suivant une ligne ou une colonne. Suivant la première colonne : detA = a M11 – a’M21 + a’’M31 Suivant la première ligne : detA = a M11 – bM12 + cM13 Le signe que l’on met devant le mineur Mij est (-1)i+j. DETERMINANTS Exemple 2 - 1 3 A 1 2 0 5 0 1 Suivant la deuxième ligne : detA 1 3 0 1 2 detA 1 2(2 15) detA 25 2 3 5 1 0 2 1 5 0 DETERMINANTS • Propriétés des déterminants d’ordre 2 λa λb a b l c d c d λa λb b 2 a λ λc λd c d c d a b a b c d a b la lb 0 DETERMINANTS a b a b a b c c' d d' c d c' d' a b a b c la d lb c d DETERMINANTS • Déterminant d’ordre n a11 a1n A a ij a n1 a nn n detA ( 1)i j a ijMij j1 n detA ( 1)i j a ijMij i1 Mij est un mineur d’ordre (n - 1) obtenu en supprimant la ième ligne et la jème colonne. Remarque : pour simplifier les calculs, choisir une ligne ou une colonne comportant le maximum de zéros. DETERMINANTS • Propriétés Soit A une matrice carrée d’ordre n 1) det(lA) = ln detA 2) det(tA) = detA 3) det(A.B) = detA .detB 4) det(An) = (detA)n DETERMINANTS • Propriétés (suite) 5) Déterminant d’une matrice diagonale λ1 0 λ λ det 1 n 0 λn 6) Déterminant d’une matrice triangulaire λ1 λ λ det 1 n 0 λn DETERMINANTS • Propriétés (suite) 7) Déterminant d’une matrice inversible Soit A une matrice inversible, c’est-à-dire, une 1 matrice A telle qu’il existe une matrice A vérifiant : A.A 1 A 1.A In 1 Alors detA ≠0 et det(A ) detA 1 DETERMINANTS • Propriétés (suite) 8) Manipulation sur les lignes det l l1 li ln l det l1 li ln DETERMINANTS • Propriétés (suite) 8)Manipulation sur les lignes det l1 li l j l j j i ln det l1 li ln DETERMINANTS • Vecteurs linéairement indépendants de Rn Soit { u1,…,un } n vecteurs de Rn. Alors u1,…,un sont linéairement indépendants si et seulement si le déterminant de la matrice dont les colonnes sont formées par ces vecteurs est différent de 0. Exemple 1 0 Les vecteurs et sont linéairement indépendants 0 car : 1 0 det 0 0 1 1 DETERMINANTS • Rang d’un système de vecteurs Le rang du système de vecteurs {u1,…,un} est l’ordre du plus grand sous déterminant non nul que l’on peut extraire de la matrice dont les colonnes sont constituées par ces vecteurs. Exemple 1 0 u1 2 0 1 2 u2 1 1 0 1 u3 0 1 DETERMINANTS Matrice associée à {u1, u2, u3} 1 0 2 0 1 2 1 1 0 1 0 1 1 1 0 0 2 1 3 0 2 1 0 Rang {u1, u2, u3} = 3. Les vecteurs {u1, u2, u3} forme une partie libre de R4. SYSTEMES LINEAIRES • Système linéaire Y=AX A : matrice à n lignes et p colonnes X un vecteur de Rp, Y un vecteur de Rn. Ce système s’écrit : a11x1 +…+ a1pxp = y1 … an1x1+…+ anpxp = yn n équations, p inconnues. Une solution de ce système est un p-uplet (x1,…,xp) qui vérifie les n équations. SYSTEMES LINEAIRES • Système de Cramer Y=AX A : matrice carrée d’ordre n Si detA ≠0, le système admet une solution unique. On dit que c’est un système de Cramer. On peut écrire la solution de cette équation sous la forme de rapports de déterminants. SYSTEMES LINEAIRES Exemple x y 2z 4 x y z 11 2x y z 8 -1 1 - 2 A - 1 - 1 - 1 2 1 - 1 C’est un système de Cramer car : -1 1 - 2 det A - 1 - 1 - 1 7 0 2 1 -1 SYSTEMES LINEAIRES x y 2z 4 x y z 11 2x y z 8 La solution s’écrit : -4 1 -2 - 11 - 1 - 1 8 1 - 1 21 x 3 y -1 1 - 2 7 -1 -1 -1 2 1 -1 -1 - 4 - 2 - 1 - 11 - 1 2 8 - 1 35 5 -1 1 - 2 7 -1 -1 -1 2 1 -1 -1 1 - 4 - 1 - 1 - 11 2 1 - 8 21 z 3 -1 1 - 2 7 -1 -1 -1 2 1 -1 SYSTEMES LINEAIRES Remarque Cette méthode est peu utilisable pour résoudre numériquement des systèmes réels (n élevé). Elle a surtout un intérêt théorique. SYSTEMES LINEAIRES • Méthode du pivot de Gauss Le principe de la méthode consiste à éliminer une ou plusieurs variables par combinaisons linéaires entre les équations du système pour le transformer en un système triangulaire facile à résoudre. • Cas p = n Il y a autant d’équations que d’inconnues Exemple : 2x 3y 2z 21 x 4y z 1 - x 2y z 17 SYSTEMES LINEAIRES • Représentation du système linéaire par une matrice 2x 3y 2z 21 x 4y z 1 - x 2y z 17 2 1 1 3 2 21 4 1 1 2 1 17 SYSTEMES LINEAIRES • Recherche dans la première colonne d’un nombre égal à 1 (appelé pivot) 2 1 1 3 2 21 4 1 1 2 1 17 SYSTEMES LINEAIRES • Echanger la ligne du pivot avec la première ligne 2 3 1 1 2 21 4 1 2 1 1 17 SYSTEMES LINEAIRES • Faire apparaître des zéros sous le pivot de la première colonne 1 4 1 2 3 1 2 1 2 21 1 17 1 4 1 0 11 1 X 4 19 Multiplier par 2 la ligne du pivot Soustraire le résultat de la deuxième ligne 2 SYSTEMES LINEAIRES • Faire apparaître des zéros sous le pivot de la première colonne Multiplier la ligne du pivot par (-1) et soustraire de la troisième ligne 4 1 0 11 1 2 1 1 4 19 1 17 4 1 0 11 0 6 1 1 4 19 0 18 SYSTEMES LINEAIRES • On ne modifie plus la première ligne • On passe à la deuxième colonne 1 4 1 1 1 0 11 40 193 0 0 6 18 • On permute la deuxième et troisième ligne • Il n’y a pas de 1 dans la deuxième colonne : on divise par 6 la deuxième ligne SYSTEMES LINEAIRES • Faire apparaître un zéro sous le 1 de la deuxième colonne 4 1 1 0 0 11 1 1 0 3 4 19 Pour cela, on multiplie la deuxième ligne (ligne du pivot) par (-11) et on la retranche de la troisième. 1 0 0 4 1 0 1 1 0 3 4 52 SYSTEMES LINEAIRES • On ne modifie plus la deuxième ligne. 1 0 0 4 1 0 1 1 0 3 4 52 • On fait apparaître un 1 dans la troisième colonne (dernier pivot) à la troisième ligne. 1 0 0 4 1 0 1 1 0 3 1 13 SYSTEMES LINEAIRES • Retour au système d’équations Le système décrit par la matrice : 1 0 0 4 1 0 1 1 0 3 1 13 correspond au système triangulaire d’équations : x 4y y z 1 3 z 13 SYSTEMES LINEAIRES • Solution du système triangulaire x 4y y z = 13 y= 3 x= 2 z 1 3 z 13 SYSTEMES LINEAIRES • Méthode du pivot : cas p=n Etape 1 : construire le tableau : a11 a1n a a in i1 a n1 ann y1 y i Li y n SYSTEMES LINEAIRES • Méthode du pivot : cas p=n Etape 2 • Si a11 1, passer à l’étape 3. On appelle a11 le pivot. • Si a11 1, et a11 0, diviser la ligne L1 par a11 et passer à l’étape 3. • Si a11 0 , on choisit dans la première colonne de A un élément ai1 0 . On échange ensuite la ligne du pivot avec la première ligne. SYSTEMES LINEAIRES • Méthode du pivot : cas p=n Etape 3 Pour chaque i {2,…,n} on remplace la ligne Li par Li –ai1L1, on obtient la matrice : ~ 1 a 1n ~ 0 a in 0 a ~ nn ~ y1 ~ yi ~ yn SYSTEMES LINEAIRES • Méthode du pivot : cas p=n On poursuit alors par itération sur les colonnes : on retourne à l’étape 1, mais en considérant la deuxième ~ colonne, puis la troisième,…jusqu’au pivot a n -1n -1. Remarques - Si au cours du processus on tombe sur une ligne ne comportant que des zéros, on la supprime. - S’il apparaît une ligne composée de zéros sauf pour la dernière colonne, le système n’a pas de solution. SYSTEMES LINEAIRES • Méthode du pivot : cas p=n On peut transformer le système linéaire triangulaire obtenu en un système linéaire diagonal et lire directement la solution lorsqu’il y en a une. Reprenons la matrice obtenue dans l’exemple précédent. 1 0 0 4 1 0 1 1 0 3 1 13 SYSTEMES LINEAIRES • Méthode du pivot : cas p=n On part de la troisième colonne et on fait apparaître des zéros au dessus de la dernière ligne par la même méthode que précédemment. 1 0 0 4 1 0 0 4 1 0 1 0 1 1 0 3 1 13 0 14 0 3 1 13 L1 L 3 SYSTEMES LINEAIRES • Méthode du pivot : cas p=n On continue avec la deuxième colonne. 1 0 0 1 0 0 4 1 0 0 1 0 0 14 0 3 1 13 0 2 0 3 1 13 L1 4L 2 SYSTEMES LINEAIRES • Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons n<p et r=n. Exemple x y 2z 1 2x y z 2 1 1 2 1 2 1 1 2 SYSTEMES LINEAIRES Exemple 1 1 2 1 2 1 1 2 1 -1 2 1 2 1 1 2 L1 (-1) SYSTEMES LINEAIRES Exemple 1 -1 2 1 2 1 1 2 1 - 1 2 1 0 3 - 3 4 1 -1 2 1 0 1 - 1 4 / 3 1 0 1 1/ 3 0 1 - 1 4 / 3 L2 - 2L1 L 2 /3 L1 L 2 SYSTEMES LINEAIRES Exemple 1 0 1 1/ 3 0 1 - 1 4 / 3 On remarque que le rang de la nouvelle matrice A est 2 car : 1 0 1 0 0 1 SYSTEMES LINEAIRES Exemple 1 0 1 1/ 3 0 1 - 1 4 / 3 On obtient donc le système d’équations : x z 1/ 3 y - z 4/3 qui a une infinité de solutions s’exprimant à l’aide de la variable auxiliaire z : x 1/3 z y 4/3 z SYSTEMES LINEAIRES • Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons r<n≤p . Exemple x y z 1 x y 2z 0 2x 3z 1 1 1 2 1 1 0 1 1 2 0 3 1 SYSTEMES LINEAIRES Exemple 1 1 2 1 0 0 1 1 0 1 2 2 1 1 2 0 3 1 1 1 1 1 1 1 L 2 - L1 L 3 - 2L1 SYSTEMES LINEAIRES Exemple 1 0 0 1 2 1 1 2 1 1 1 1 1 1 1 1/ 2 1/ 2 0 0 2 1 1 1 1 1 1 0 1 1/ 2 1/ 2 0 0 0 0 1 1 L 2 /(-2) L 3 2L 2 SYSTEMES LINEAIRES Exemple 1 1 0 1 0 0 1 1/ 2 1/ 2 0 0 1 1 0 1 1 1 1/ 2 1/ 2 1 1 0 3 / 2 1/ 2 0 1 1/ 2 1/ 2 Supprimer la ligne de zéros L1 - L 2 SYSTEMES LINEAIRES Exemple On revient au système exprimé par le dernier tableau. 1 0 3 / 2 1/ 2 0 1 1/ 2 1/ 2 3 1 x z x 1/2 3z/2 2 2 1 1 y 1/2 z/2 y - z 2 2 Le système possède une infinité de solutions s ’écrivant à l’aide de la variable auxiliaire z. INVERSION DES MATRICES Méthode du pivot de Gauss • Principe du calcul de l’inverse d’une matrice carrée Soit A une matrice carrée telle que detA≠0. Alors l’inverse de A, noté A-1 existe. Supposons par exemple que A est une matrice carrée d’ordre 3. On cherche une matrice A-1 : x1 -1 A y1 z 1 AA 1 x2 y2 z2 x3 y3 z 3 1 0 0 0 1 0 0 0 1 INVERSION DES MATRICES Ce problème est équivalent à la résolution de trois systèmes linéaires : x1 1 A y1 0 z 0 1 x2 0 A y2 1 z 0 2 x3 0 A y3 0 z 1 3 On va appliquer la méthode du pivot de Gauss pour résoudre simultanément ces trois systèmes. INVERSION DES MATRICES Exemple 1 2 1 A 1 1 1 3 1 1 Tableau représentant les trois systèmes à résoudre : 1 2 1 1 0 0 A 1 1 1 0 1 0 3 1 1 0 0 1 INVERSION DES MATRICES Exemple 1 2 1 1 0 0 A 1 1 1 0 1 0 3 1 1 0 0 1 1 2 1 1 0 0 A 0 -1 0 1 1 0 0 - 5 - 2 3 0 1 INVERSION DES MATRICES Exemple 1 2 1 1 0 0 A 0 -1 0 1 1 0 0 - 5 - 2 3 0 1 1 2 1 1 A 0 1 0 1 0 - 5 - 2 3 0 1 0 0 1 0 L 2 (-1) INVERSION DES MATRICES Exemple 1 2 1 1 A 0 1 0 1 0 - 5 - 2 3 1 A 0 0 0 1 0 0 1 0 0 0 1 0 1 1 0 0 - 2 2 5 1 2 1 1 INVERSION DES MATRICES Exemple 1 A 0 0 0 0 1 0 1 1 0 0 - 2 2 5 1 2 1 1 0 0 1 2 1 1 A 0 1 0 1 1 0 0 0 1 1 5 / 2 1/ 2 L3 /(-2) INVERSION DES MATRICES Exemple 1 2 0 2 A 0 1 0 1 0 0 1 1 5/ 2 1 0 0 0 A 0 1 0 1 0 0 1 1 1/ 2 I3 1 5/ 2 1 5/ 2 1/ 2 0 1 / 2 1/ 2 0 1 / 2 Inverse de A INVERSION DES MATRICES Méthode de la comatrice • Exemple 1 2 1 A 1 1 1 3 1 1 Cofacteur de 1: (1) 11 Comatrice : matrice des cofacteurs 0 2 - 2 Co(A) 1 - 2 5 1 0 -1 1 1 0 1 1 INVERSION DES MATRICES Méthode de la comatrice • Exemple (suite) Transposée de la comatrice : 0 -1 1 t Co(A) 2 - 2 0 - 2 5 - 1 Déterminant de A : det(A) = 2 Inverse de A A 1 0 1/2 1/2 1 t Co(A) 1 1 0 detA 1 5/2 1/2 CALCUL INTEGRAL • • • • • Introduction Intégrale de Riemann Propriétés Primitives Techniques d’intégration CALCUL INTEGRAL • Aire d’une partie de R2 CALCUL INTEGRAL • Approximation d’une aire Approximation par défaut Approximation par excès CALCUL INTEGRAL • Aire d’une région sous le graphe d’une fonction continue sur [a,b] CALCUL INTEGRAL • Intégrale d’une fonction continue sur [a,b] Soit f une fonction continue sur [a,b]. On partage le segment [a,b] en n sous intervalles de même longueur Δx (b a)/n et l’on pose : x 0 a, x 1 ,..., x n b * x Pour 1 ≤ i ≤ n, soit i un point du segment [xi-1, xi]. On appelle intégrale définie de f sur [a,b] le nombre défini par : CALCUL INTEGRAL • Approximation d’une intégrale par une somme de Riemann La somme s’appelle une somme de Riemann. milieu de