L1 STEP – UFR STEP – Université Paris 7 “Mathématiques 2” – Algèbre L’essentiel du Cours d’Algèbre 1 Espaces vectoriels Définition : on appelle espace vectoriel (e.v) sur un corps K (R ou C) un ensemble E muni de deux lois : • une loi interne, notée “+”, telle que (E, +) est un groupe commutatif (voir Annexe). • une loi externe, notée “.”, définie de K × E dans E telle que : – ∀(λ, µ) ∈ K2 , ∀u ∈ E, (λ + µ).u = λ.u + µ.u – ∀λ ∈ K, ∀(u, v) ∈ E × E, λ.(u + v) = λ.u + λ.v – ∀(λ, µ) ∈ K2 , ∀u ∈ E, (λ.µ).u = λ.(µ.u) – ∀u ∈ E, 1K .u = u (1K , élément neutre de K pour le produit, est aussi neutre pour “.”). Les éléments d’un e.v. sont appelés des vecteurs. Un espace vectoriel peut être de dimension finie ou infinie. Propriétés élémentaires – ∀u ∈ E, 0K .u = 0E – ∀λ ∈ K, λ.0E = 0E – ∀(λ, u) ∈ K × E, λ.u = 0E ⇒ λ = 0K ou u = 0E – ∀(λ, x, y) ∈ K∗ E × E, λ.x = λ.y ⇒ x = y – ∀(λ, µ) ∈ K2 , ∀x ∈ E \ {0E }, λ.x = µ.x ⇒ λ = µ – ∀λ ∈ K, ∀x ∈ E, λ.(−x) = −(λ.x) = (−λ).x Sous-espace vectoriel • Famille d’éléments d’un e.v. : n étant un entier non nul quelconque, on appelle famille finie à n d’éléments de E, et on note (u1 , . . . , un ) un n-uplet d’éléments de E (les ui ne sont pas forcément distincts). • Combinaison linéaire (c.l.) : Soit (u1 , . . . , un ) une famille finie d’éléments de E, on appelle combinaison linéaire des n P ui tout vecteur u de E de la forme : αi ui , où les αi sont des scalaires. i=1 • Sous-espace vectoriel (s.e.v) : on appelle sous-espace vectoriel de E toute partie A non vide de E, stable par les deux opérations “+” et “.”, et qui, munie des lois induites, est encore un K–e.v.. • Théorème : Soit A une partie non vide de E. A est un s.e.v. de E ⇐⇒ A est stable par c.l.. • Sous-espace vectoriel engendré – Définition : soit P une partie quelconque de E. On appelle s.e.v. engendré par P l’intersection de tous les s.e.v de E contenant P . C’est aussi l’ensemble des combinaisons linéaires (finies) des éléments de P . On le note V ect(P ) et pour la relation ⊂ c’est le plus petit s.e.v. de E contenant P . – Théorème : l’intersection d’une famille quelconque de s.e.v. de E est un s.e.v. de E. • Somme – Définition : Soient F et G deux s.e.v. de E. On note F + G l’ensemble des éléments z de E tels que ∃ x ∈ E et ∃ y ∈ F avec z = x + y. F + G est aussi un s.e.v. de E. – Théorème : dim(F + G) = dimF + dimG − dim(F ∩ G). • Somme directe – Définition : Soient F et G deux s.e.v. de E. On dit que F et G sont supplémentaires, et on note E = F ⊕ G, si tout vecteur de E se décompose de façon unique en la somme d’un vecteur de F et d’un vecteur de G – Théorème : E = F ⊕ G ⇐⇒ E = F + G et F ∩ G = {0E }. Espace vectoriel E de dimension finie n • Famille génératrice de E : il s’agit d’une famille de E telle que E = V ect (x1 , · · · , xn ). On dit qu’un K–e.v. est de dimension finie s’il admet une famille génératrice finie. Toute famille génératrice de E a au moins n éléments. • Famille libre : il s’agit d’une famille dont les éléments sont linéairement indépendants. Aucun élément n’est c.l. des autres. C’est aussi une famille d’éléments telle que la seule c.l. nulle est la combinaison linéaire à coefficients tous Raphaël Grandin – IPGP – [email protected] Version du 1er mars 2017 L’essentiel du Cours d’Algèbre nuls. Dans un e.v. de dimension finie, une famille libre ne peut avoir plus d’éléments qu’une famille génératrice. Toute famille libre de E a au plus n éléments. • Base : il s’agit d’une famille libre et génératrice. Tout e.v. de dimension finie admet une base. Toutes les bases ont le même nombre d’éléments, égal à n, la dimension de E. Toute famille génératrice à n éléments est une base. Toute famille libre à n éléments est une base. Toute famille génératrice de E contient une base. Tout famille libre de E peut-être complétée en une base. Dans ce cours, nous considérerons le plus souvent possible des bases orthonormées. La notion de base orthonormale nécessite de disposer d’un produit scalaire (voir partie 2). La base canonique d’un e.v. est la base la plus “naturelle” (par exemple {(1, 0); (0, 1)} dans R2 ). On la choisit généralement orthonormée et directe (règle de la main droite dans R3 ). • Sous-espace vectoriel : Si F est un s.e.v. de E, alors dimF ≤ dimE. 2 Produit scalaire Espace vectoriel euclidien • Définition : Soit E un e.v. réel muni d’un produit scalaire et de dimension finie. On dit que E est un e.v. euclidien. • Produit scalaire : Soit E un e.v. sur R. On appelle produit scalaire sur R toute forme Φ de E × E dans R : Φx. : E → R Φ.x : E → R – bilinéaire : ∀x ∈ E, et sont linéaires. y 7→ Φ(x, y) y 7→ Φ(y, x) – symétrique : ∀(x, y) ∈ E 2 , Φ(x, y) = Φ(y, x) – définie positive : ∀x ∈ E, Φ(x, x) ≥ 0 et Φ(x, x) = 0 ⇒ x = 0E On le note (x|y), < x, y >, ou encore ~u.~v (ne pas confondre avec le signe “.” utilisé pour la loi de composition externe). p • Norme : ∀x ∈ E la norme de x est définie par : ||x|| = (x|x) . • Distance euclidienne : ∀(x, y) ∈ E la distance euclidienne entre x et y est définie par : d(x, y) = ||x − y||. • Propriétés – ||x|| = 0 ⇒ x = 0E – ||λ.x|| = |λ| ||x|| – d(x, y) = 0 ⇒ x = y – d(x, y) = d(y, x) = ||x − y|| = ||y − x|| – ∀(x, y) ∈ E 2 et ∀(α, β) ∈ R2 , ||αx + βy||2 = α2 ||x||2 + 2αβ(x|y) + β 2 ||y||2 – ∀(x, y) ∈ E 2 , |(x|y)| ≤ ||x|| ||y|| (inégalité de Cauchy-Schwarz) – ∀(x, y) ∈ E 2 , ||x + y|| ≤ ||x|| + ||y|| (inégalité triangulaire) – ∀(x, y) ∈ E 2 , ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ) (identité du parallélogramme) – ∀(x, y) ∈ E 2 , ||x + y||2 − ||x − y||2 = 4|(x|y)| (identité de polarisation) Orthogonalité • Définition : Soient (x, y) ∈ E 2 , E un e.v. euclidien muni du produit scalaire “|”. On dit que x et y sont orthogonaux si (x|y) = 0. • Entre e.v. : – Définition : Soient F et G deux s.e.v. de E. On dit que F et G sont orthogonaux si ∀(x, y) ∈ F × G, (x|y) = 0. On appelle orthogonale de F , notée F ⊥ , l’ensemble défini par : F ⊥ = {x ∈ E / ∀y ∈ F, (x|y) = 0} – Propriétés : F ⊕ F ⊥ = E ; (F ⊥ )⊥ = F ; F ⊂ G ⇒ G⊥ ⊂ F ⊥ • Entre familles : – Soit (e1 , · · · , en ) une famille de vecteurs de E. On dit que cette famille est orthogonale si ∀(i, j) ∈ [|1, p|] × [|1, p|] , (ei , ej ) = 0 pour i 6= j. – Soit un vecteur e ∈ E \ {0E }. On dit que e est unitaire si ||e|| = 1. – Une famille est orthonormale si elle est orthogonale et si ses vecteurs sont unitaires. – Si la famille (e1 , · · · , en ) est orthogonale, alors ||e1 + · · · + en ||2 = ||e1 ||2 + · · · + ||en ||2 (théorème de Pythagore) – Conséquence : Une famille orthogonale de vecteurs non nuls est libre. – Corollaire : Une famille orthonormale de vecteurs est libre. – Si dimE = n, toute famille orthonormale de n vecteurs est une base. UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 2 L’essentiel du Cours d’Algèbre n P xi ei et soit y = yi ei . Alors, i=1 i=1 s n P ; d(x, y) = ||x − y|| = (xi − yi )2 – Théorèmes : Soit (e1 , · · · , en ) une base orthonormale (b.o.n.) de E. Soit x = ∀i ∈ [|1, n|] : xi = (x|ei ) ; ||x||2 = n P i=1 x2i ; (x|y) = n P xi yi i=1 n P i=1 • Projection orthogonale – Equation d’une droite : en 2D, ax + by + c = 0, de vecteur normal (a,b) ; en 3D, ax + by + cz + d = 0 de vecteur normal (a,b,c) ; etc... – Définition : soit (d) une droite et P un point hors de (d). On appelle projection orthogonale de P sur (d) le point P 0 de d tel que : P P 0 ⊥ (d). −−→ – Distance : la distance du point P à la droite (d) est notée δ{P ; (d)}. Elle est égale à la norme du vecteur P P 0 , où P 0 est la projection orthogonale de P sur (d). – Théorème : la distance du point P de coordonnées (xP ; yP ) à la droite (d) d’équation ax + by + c = 0 est |axP + byP + c| √ donnée par : δ{P ; (d)} = a2 + b2 Produit scalaire hermitien (dans C ≡ R2 ) −−→ • Forme algébrique : z = a + ib avec a = Re(z) et b = Im(z). z est l’affixe de OM (ou de M ) dans le plan complexe. z̄ = a − ib ; Re(z) = 12 (z + z̄) ; p−−→ −−→ √ −−→ • Module : |z| = ||OM || = a2 + b2 = OM .OM • Conjugué : Im(z) = 1 2i (z − z̄) • Produit scalaire (dans C) – Produit scalaire hermitien (sur C) : (z|z 0 ) = z ∗ z 0 ∈ C – Norme hermitienne : (z|z) = z ∗ z = |z|2 (s’identifie à la norme classique dans R2 ) 1 z a − ib – Conséquences : = 2 = 2 ; |zz 0 | ≤ |z||z 0 | (Cauchy-Schwarz) ; |z +z 0 | ≤ |z|+|z 0 | (inégalité triangulaire) z |z| a + b2 3 Géométrie dans l’espace (R3 ) u1 ! v1 ! Produit scalaire Soient ~u = u2 et ~v = v2 deux vecteurs de R3 exprimés dans une base orthonormale. Le u3 v3 produit scalaire s’écrit ~u.~v = u1 v1 + u2 v2 + u3 v3 ∈ R. Produit vectoriel • Définition Le produit vectoriel s’écrit ~u ∧ ~v = • Conséquences (~u ∧ ~v ) ⊥ ~u direct (règle de la main droite). ; ~u // ~v ⇐⇒ (~u ∧ ~v ) = ~0 ; Le trièdre (~u; ~v ; w ~ = ~u ∧ ~v ) est d ||~u ∧ ~v || = ||~u||.||~v ||.| sin(~u, ~v ) ; ||~u ∧ ~v || = aire du parallélogramme. (~u ∧ ~v ) ⊥ ~v ; u2 v3 − u3 v2 ! u3 v1 − u1 v3 ∈ R3 u1 v2 − u2 v1 ; • Propriétés – Anti-symétrie : ~u ∧ ~v = −~v ∧ ~u (λ~u) ∧ ~v = λ(~u ∧ ~v ) = ~u ∧ (λ~v ) (~u + ~v ) ∧ w ~ = (~u ∧ w) ~ + (~v ∧ w) ~ – Bilinéarité : Soient λ ∈ R et (~u, ~v , w) ~ ∈ R 3 × R 3 × R3 . ~u ∧ (~v + w) ~ = (~u ∧ ~v ) + (~u ∧ w) ~ Double produit vectoriel • En général, ~u ∧ (~v ∧ w) ~ 6= (~u ∧ ~v ) ∧ w ~ • En fait, (~u ∧ ~v ) ∧ w ~ = −(~v .w).~ ~ u + (~u.w).~ ~ v Produit mixte • Définition : (~u, ~v , w) ~ = (~u ∧ ~v ).w ~ ∈R • Interprétation : volume du parallélépipède engendré par {~u, ~v , w}. ~ • Permutation circulaire : (~u, ~v , w) ~ = (w, ~ ~u, ~v ) = (~v , w, ~ ~u) • Permutation non-circulaire : (~u, ~v , w) ~ = −(~v , ~u, w) ~ = −(~u, w, ~ ~v ) = −(w, ~ ~v , ~u) • Propriétés UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 3 L’essentiel du Cours d’Algèbre u1 – (~u, ~v , w) ~ = det u2 u3 v1 v2 v3 w1 v w2 = u1 2 v3 w3 v1 w3 + u 3 v2 w1 v3 w2 + u 2 v1 w3 – ~u, ~v et w ~ coplanaires ⇐⇒ det(~u, ~v , w) ~ ≡ det(U, V, W ) = 0 w1 w2 (dévpt selon 1ère colonne). (en notant ~ u, ~ v, w ~ sous la forme de vecteurs colonnes) – On admettra que cette notion (nullité du déterminant ⇐⇒ dépendance linéaire) peut être extrapolée à Rn . 4 Applications linéaires Généralités sur les applications • Définition : la donnée d’une application d’un ensemble E dans un autre ensemble F est la donnée d’un sous-ensemble G de E × F tel que, ∀x ∈ E, ∃ ! y ∈ F / (x, y) ∈ G. En clair : une application est une fonction de E dans F . Un élément de l’ensemble de départ ne peut être associé qu’à un unique élement dans l’ensemble d’arrivée (aucun élément de E ne pointe vers plusieurs éléments de F ). • Composition ∀x ∈ E, (g ◦ f )(x) = g (f (x)). La loi “◦ ” est associative mais non commutative (a priori). • Injectivité, surjectivité, bijectivité : : Soit f une application de E dans F . – On dit que f est injective si tout élément de F a au plus un antécédent ⇐⇒ ∀(x, x0 ) ∈ E 2 , f (x) = f (x0 ) ⇒ x = x0 – On dit que f est surjective si tout élément de F a au moins un antécédent ⇐⇒ ∀y ∈ F, ∃ x ∈ E / f (x) = y – On dit que f est bijective de E sur F si f est à la fois injective et surjective ⇐⇒ tout élément de F a un unique antécédent ⇐⇒ ∀y ∈ F, ∃ ! x ∈ E / f (x) = y • Théorème : f est une bijection de E sur F ssi il existe une fonction g de F dans E telle que g ◦ f = IdE et f ◦ g = IdF . On note alors g = f −1 . Applications linéaires • Définition : Soient E et F deux R-e.v. de dimension finie. Soient BE et BF deux bases de E et F . L L’application u de E dans F est linéaire si ∀(x, y) ∈ E × E, ∀(a, b) ∈ R2 , u(ax + by) = a.u(x) + b.u(y). • Conséquence : u(0E ) = 0F Image et noyau – Image : Im(u) = {y ∈ F / ∃ x ∈ E / u(x) = y} ⊂ F – Noyau : Ker(u) = {x ∈ E / u(x) = 0F } ⊂ E – Rang : rg(u) = dim Im(u) Théorèmes – Im(u) est un s.e.v de F – Ker(u) est un s.e.v de E – u injective ⇐⇒ u(BE ) libre ⇐⇒ rg u = dimE ⇐⇒ Ker(u) = {0E } – u surjective ⇐⇒ u(BE ) génératrice ⇐⇒ rg u = dimF ⇐⇒ Im(u) = F – u bijective ⇐⇒ u(BE ) base de F ⇐⇒ rg u = dimE = dimF – Théorème du rang : soit u un app. lin. de E sur F . On a : dimE = dim Ker(u) + dim Im(u) 5 Représentation matricielle des applications linéaires Définition Soient E et F deux R-e.v. de dimension finies n et p, respectivement. • Décomposition : Soient BE = (e1 , e2 , · · · , en ) et BF = (f 1 , f 2 , · · · , f n ) des bases de E et F , respectivement. ∀x ∈ E, la décomposition sur BE est unique : x = x1 .e1 + x2 .e2 + · · · + xn .en ∀y ∈ F , la décomposition sur BF est unique : y = y1 .f 1 + y2 .f 2 + · · · + yn .f p • Image d’un vecteur par une application linéaire : Soit u une application linéaire de E dans F . y = u(x) = u(x1 .e1 + x2 .e2 + · · · + xn .en ) Soit y ∈ Im(u). Alors, ∃ x ∈ E tel que : L = x1 .u(e1 ) + x2 .u(e2 ) + · · · + xn .u(en ) UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 4 L’essentiel du Cours d’Algèbre u(e1 ) = u(e2 ) = En notant : .. . u(en ) = y = on peut réécrire : a11 .f 1 + a21 .f 2 + · · · + ap1 .f p a12 .f 1 + a22 .f 2 + · · · + ap2 .f p ∈F a1n .f 1 + a2n .f 2 + · · · + apn .f p (x1 .a11 + x2 .a12 + · · · + xn .a1n ).f 1 + (x1 .a21 + x2 .a22 + · · · + xn .a2n ).f 2 + · · · + + · · · + (x1 .ap1 + x2 .ap2 + · · · + xn .apn ).f p x1 a11 a12 · · · a1n a21 a22 · · · a2n x2 ou, de façon matricielle : Y = . .. .. .. = AX =⇒ A = u(e1 ) u(e2 ) · · · u(en ) .. . . . xn ap1 ap2 · · · apn {z } | {z } | A X La matrice A comporte p lignes et n colonnes car elle correspond à une application linéaire de l’e.v. E de dimension n vers l’e.v. F de dimension p (contre-intuitif !). La matrice X comporte n lignes, car elle correspond à un vecteur x de E, e.v. de dimension n. La matrice Y fait p lignes, car elle correspond à un vecteur y de F , e.v. de dimension p. • Intérêt : La donnée de A suffit à caractériser complètement l’application u : y = u(x) ⇐⇒ Y = AX • Composition : u: E → F v: F → G Considérons deux applications linéaires u et v : et x 7→ u(x) = y y 7→ v(y) = z v◦u: E → G Il est alors possible de définir l’application composée : x 7→ v ◦ u(x) = v {u(x)} = z En notant A et B les matrices représentant les applications u et v dans des bases adaptées (A de BE dans BF , et B de BF dans BG ), on en déduit : u(x) = y ⇐⇒ AX = Y =⇒ v{u(x)} = z ⇐⇒ BY = B(AX) = BAX = Z v(y) = z ⇐⇒ BY = Z La matrice BA est donc la représentation de l’application v ◦ u. Attention : la matrice AB n’existe pas forcément, de même que l’application u ◦ v. La composition, de même que la multiplication matricielle, n’est pas une opération commutative (en général). • Remarque : Les coefficients à l’intérieur de la matrice A dépendent du choix des bases BE et BF . Lorsqu’on change de bases (soit au départ, soit à l’arrivée), les coefficients changent, de sorte que la matrice associée à u va différer. En toute rigueur, il faudrait noter A ≡ ABE ,BF . Pour déterminer la nouvelle expression de la matrice représentant u lors d’un changement de base, voir la partie 6. Opérations sur les matrices On note Mmn (R) l’ensemble des matrices de dimension m a11 a21 Soit A ∈ Mmn (R). On note : A = . .. am1 lignes et n colonnes à coefficients réels. a12 · · · a1n a22 · · · a2n .. .. = (aij )1≤i≤m,1≤j≤m . . am2 · · · amn • Addition matricielle – Définition : soient (A, B) ∈ Mnp (R) × Mnp (R). a11 a12 · · · a1n b11 b12 a21 a22 · · · a2n b21 b22 A+B = . .. .. + .. .. .. . . . . am1 am2 ··· amn bm1 bm2 ··· ··· b1n b2n .. . ··· bmn = a11 + b11 a21 + b21 .. . a12 + b12 a22 + b22 .. . ··· ··· a1n + b1n a2n + b2n .. . am1 + bm1 am2 + bm2 ··· amn + bmn – Remarque : les matrices A et B doivent être de même dimension. – Propriété : commutativité : A + B = B + A • Multiplication externe – Définition : soit A ∈ Mnp (R) et λ ∈ R. UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 5 L’essentiel du Cours d’Algèbre a11 a21 .. . λA = λ. a12 a22 .. . ··· ··· a1n a2n .. . = λa11 λa21 .. . λa12 λa22 .. . ··· ··· λa1n λa2n .. . λam1 λam2 · · · λamn am1 am2 · · · amn – Propriété : distributivité par rapport à l’addition : λ(A + B) = λA + λB – Remarque : Muni des opérations addition et multiplication externe, on peut montrer que Mnp (R) est espace vectoriel euclidien isomorphe à Rnp , de dimension n × p. • Multiplication matricielle – Définition : soient A ∈ Mmn (R) et B ∈ ×Mnp (R). b11 b12 · · · a11 a12 . . . . a1n b21 b22 · · · a21 a22 . . . . a2n . . AB = . . . .. .. .. . . . .. . am1 am2 . . . . amn bn1 bn2 · · · avec : c22 = a21 b12 + a22 b22 + · · · + a2n bn2 b1p b2p . . . . bnp c11 c21 = .. . cm1 c12 c22 .. . ··· ··· c1p c2p .. . cm2 ··· cmp En généralisant : cij = n P aik bkj k=1 – Remarque : le nombre de colonnes de A doit être égal au nombre de lignes de B. Autrement dit, la multiplication Amn Bpq n’a de sens que si n = p. – Propriétés ∗ associativité : A(BC) = (AB)C ∗ en général, non-commutativité : AB 6= BA – Remarque : dans Mnn (espace des matrices carrées), la matrice identité s’écrit : 1 0 ··· 0 0 1 ··· 0 Inn = . . .. .. .. . 0 0 ··· 1 Elle représente l’élément neutre de Mnn pour la multiplication matricielle : ∀A ∈ Mnn , AInn = Inn A = A. • Matrice transposée – Définition : Soit A ∈ Mnp (R). On note AT sa transposée. A= a11 a21 . . . . ap1 a12 a22 . . . . ap2 .... .... ··· a1n a2n . . . . apn a11 a12 =⇒ AT = .. . a1n a21 a22 .. . ··· ··· ap1 ap2 .. . a2n .... apn ∈ Mpn (R) – Remarque : le nombre de colonnes et de lignes de AT est égal au nombre de lignes et de colonnes de A. – Propriétés : ∗ (AB)T = B T AT ∗ (A + B)T = AT + B T • Produit scalaire Soient x = (x1 , x2 , · · · , xn ) et y = (y1 , y2 , · · · , yn ) deux vecteurs de Rn . Soit B = (e1 , e2 , · · · , cn ) la orthonormale de Rn . x1 y1 x2 y2 On peut écrire x et y sous la forme de vecteurs colonne : X = . ∈ Mn1 (R) ; Y = . .. .. xn B yn base canonique ∈ Mn1 (R) B n Le produit scalaire dans R peut être reconstituté dans Mn1 (R). Il s’écrit alors : UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 6 L’essentiel du Cours d’Algèbre (x|y) = x1 y1 + x2 y2 + · · · + xn yn = X T Y = x1 ··· x2 y1 y2 .. . B xn yn B • Trace – Définition : La trace d’une matrice carrée A = (aij )1≤i,j≤n est : T r(A) = n P aii (somme éléments diagonaux) i=1 – Propriétés : T r(A + B) = T r(A) + T r(B) ; T r(λA) = λ.T r(A) ; T r(AT ) = T r(A) ; T r(AB) = T r(BA) 6 Matrice de passage Expression Soit E un R-e.v. de dimension finie n. Soient B = (e1 , e2 , · · · , en ) et B 0 = (e01 , e02 , · · · , e0n ) deux bases de E. Soit x ∈ E. On peut décomposer x dans B ou dans B 0 : x = x1 e1 + x2 e2 + · · · + xn en = x01 e01 + x02 e02 + · · · + x0n e0n {z } | | {z } dans B 0 dans B 0 Les n-uplets (x1 , x2 , · · · , xn ) et (x01 , x02 , · · · , x0n ) sont les coordonnés du vecteur x dans les bases B et B 0 . Le vecteur x ∈ E peut ainsi être associé à deux représentations matricielles, ou vecteurs colonnes : 0 x1 x1 x2 x02 X= . et X 0 = . 6= X .. .. xn x0n B B0 De la même manière, les vecteurs (e1 , e2 , · · · , en ) et (e01 , e02 , · · · , e0n ) peuvent aussi être associés à des vecteurs colonnes. 01 Ainsi : e = 1.e01 + 0.e02 + · · · + 0.e0n 1 0 0 0 1 0 e02 = 0.e01 + 1.e02 + · · · + 0.e0n EB010 = . ; EB020 = . ; · · · ; EB0n0 = . car .. .. .. .. . 0n e = 0.e01 + 0.e02 + · · · + 1.e0n 0 B0 0 B0 1 B0 De même : EB1 = 1 0 .. . 0 ; EB2 = B 0 1 .. . 0 ; · · · ; EBn = B 0 0 .. . 1 1 e e2 car B en = 1.e1 + 0.e2 + · · · + 0.en = 0.e1 + 1.e2 + · · · + 0.en .. . = 0.e1 + 0.e2 + · · · + 1.en Pour relier X et X 0 (c’est à dire passer des coordonnées dans une base aux coordonnées dans l’autre base), il faut décomposer chaque vecteur de la base B 0 sur la base B : 01 e = p11 e1 + p21 e2 + · · · + pn1 en 02 e = p12 e1 + p22 e2 + · · · + pn2 en .. . 0n e = p1n e1 + p2n e2 + · · · + pnn en d’où : x = = x0 1.(p11 e1 + p21 e2 + · · · + pn1 en ) + x0 2.(p12 e1 + p22 e2 + · · · + pn2 en ) + · · · · · · + x0 n.(p1n e1 + p2n e2 + · · · + pnn en ) (x0 1p11 + x0 2p12 + · · · + x0 np1n )e1 + (x0 1p21 + x0 2p22 + · · · + x0 np2n )e2 + · · · · · · + (x0 1pn1 + x0 2pn2 + · · · + x0 npnn )en Par identification, on peut réécrire le vecteur colonne x : 0 x1 x 1p11 + x0 2p12 + · · · + x0 np1n p11 x2 x0 1p21 + x0 2p22 + · · · + x0 np2n p21 X= . = = x0 1 .. .. .. . . 0 0 0 xn B x 1pn1 + x 2pn2 + · · · + x npnn B pn1 UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 + x0 2 B p12 p22 .. . pn2 + · · · + x0 n B p1n p2n .. . pnn B 7 L’essentiel du Cours d’Algèbre On voit alors apparaître naturellement le produit de deux matrices : 0 p11 p12 · · · p1n x1 p21 p22 · · · p2n x02 0 X= . .. .. .. = PBB X 0 .. . . . pn1 pn2 · · · pnn x0n | {z } | {z } 0 X0 PBB 0 La matrice PBB est appelée matrice de passage de la base B à la base B 0 . Ses colonnes contiennent les coordonnées des vecteurs de la base B 0 exprimés dans la base B. En effet : 0 p1i 0 1 0 p2i 1 0 ∀i ∈ [|1, n|], EB0i = p1i EB1 + p2i EB2 + · · · + pni EBn = p1i . + p2i . + · · · + pni . = . .. .. .. .. 0 D’où : PBB 0 = p11 p21 .. . p12 p22 .. . ··· ··· p1n p2n .. . pn1 pn2 ··· pnn B 0 1 B pni B B 01 EB = EB02 ··· EB0n Première approche de l’inverse d’une matrice 0 A l’inverse du cheminement précédent, la matrice PBB peut être considérée comme la représentation matricielle d’une application linéaire f de E dans E (on parle alors d’un endomorphisme). Puisque X et X 0 sont tous les deux les représentations matricielle du même vecteur x ∈ E, on peut écrire : 0 X = PBB X 0 ⇐⇒ x = f (x) (?) idE : E → E x 7→ f (x) = x En reprenant le déroulement précédent, mais en choisissant d’exprimer X 0 en fonction de X, nous aurions pu, de manière équivalente, déterminer l’expression de la matrice de passage de la base B 0 à la base B. Soit u une application linéaire de E dans F . On note A la représentation matricielle de u dans deux bases BE : 0 p11 p012 · · · p01n p021 p022 · · · p02n avec : PBB0 = . X 0 = PBB0 X, .. .. = EB1 0 EB2 0 · · · EBn0 .. . . 0 0 0 pn1 pn2 · · · pnn Il devient alors évident que l’application f n’est rien d’autre que l’application identité, idE : De même, la matrice PBB0 est la représentation de l’application identité idE . 0 0 0 (?) A présent, multiplions l’expression ci-dessus, à gauche, par la matrice PBB . Cela donne : PBB X 0 = PBB PBB0 X = X. 0 0 0 −1 = PBB0 De manière évidente, on aboutit à : PBB PBB0 = Inn . On en déduit que PBB0 est la matrice inverse de PBB : PBB Or, on l’a vu plus haut, la multiplication matricielle est équivalente à une composition des application sous-jacentes. De même, puisque, idE ◦ idE = idE , on en déduit que idE = id−1 E (application réciproque). En résumé : – la question de l’existence d’une matrice inverse est équivalente à la question de l’existence d’une application réciproque. On note A−1 l’inverse d’une matrice A. 0 0 – le raisonnement ci-dessus doit être réversible si l’on veut avoir PBB PBB0 = PBB0 PBB = Inn . Ceci n’est possible que si la dimension de l’espace de départ est égale à la dimension de l’espace d’arrivée. Autrement dit, seules les matrices carrées peuvent être inversibles. – une matrice de passage est la représentation matricielle de l’application identité. L’ensemble des matrices de passage sont donc equivalentes, au sens où elles reflètent la même application sous-jacente. UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 8 L’essentiel du Cours d’Algèbre Applications linéaires • Endorphisme : soit u une application linéaire de E dans E. Soient deux bases B et B 0 de E. Soient A et A0 les représentations matricielles de u dans B et B 0 . Soient x ∈ E, y son image par u, et X, X 0 d’une part, Y , Y 0 d’autre part, les vecteurs colonnes associés dans les bases B et B 0 . u: E → E ⇐⇒ Y = AX ⇐⇒ Y 0 = A0 X 0 x 7→ u(x) = y Y = PBB0 Y 0 B B0 0 Soient PB0 et PB les matrices de passage associées à B et B . On peut alors écrire : X = PBB0 X 0 −1 0 B 0 −1 PB × 0 0 −1 0 0 0 D’où : Y = AX ⇐⇒ PBB Y 0 = APBB X 0 APBB X 0 = A0 X 0 ⇐⇒ PBB PBB Y 0 = Y 0 = PBB {z } | {z } | Inn A0 = P −1 AP D’où : A0 = P −1 AP . On dit que A et A0 sont des matrices semblables. Elles représentent la même application sous-jacente. Des matrices semblables ont la même trace, le même rang et le même déterminant. • Morphisme Considérons maintenant des e.v. de départ et d’arrivée de dimensions différentes. u: E → F Soit u une application linéaire telle que : . x 7→ u(x) = y E est un e.v. de dimension n, F un e.v. de dimension p. Soit P la matrice de passage de la base (ej )nj=1 vers la base (e0j )nj=1 . Soit Q la matrice de passage de la base (f i )pi=1 vers la base (f 0i )pi=1 . Soit A la matrice représentant u, exprimée depuis la base (ej )nj=1 de E vers la base (f i )ni=1 de F . Soit A0 la matrice représentant u, exprimée depuis la base (e0j )nj=1 de E vers la base (f 0i )ni=1 de F . Alors : A0 = Q−1 AP . On dit que les matrices sont équivalentes. Deux matrices semblables sont équivalentes (réciproque fausse en général). Deux matrices sont équivalentes si et seulement si elles ont le même rang. 7 Inverse d’une matrice Sous-espace vectoriel engendré • Pré-requis : Soit A une matrice carrée. Elle est associée à une appl. lin. u : E → F , avec dim(E) = dim(F ) = n. On a vu que : Y = AX, avec A = u(e1 ) u(e2 ) · · · ∀x ∈ E, X = x1 x2 .. . u(en ) . ⇐⇒ x = x1 e1 + x2 e2 + · · · + xn en . Le vecteur x est donc une c.l. de (e1 , e2 , · · · , en ). xn B Y = AX ⇐⇒ y = u(x) = x1 u(e1 ) + x2 u(e2 ) + · · · + xn u(en ). Le vecteur y est une c.l. de (u(e1 ), u(e2 ), · · · , u(en )) • Théorème : A inversible ⇐⇒ u bijective ⇐⇒ dim {Im(u)} = n • Interprétation : La famille (u(e1 ), u(e2 ), · · · , u(en )) est génératrice F (sinon dim {Im(u)} < n). • Conséquences : A inversible ⇐⇒ les vecteurs (u(e1 ), u(e2 ), · · · , u(en )) sont linéairement indépendants ⇐⇒ Im(u) = F ⇐⇒ dim{Im(u)} = rg(u) = rg(A) = n ⇐⇒ (u(e1 ), u(e2 ), · · · , u(en )) forment une base de F ⇐⇒ (u(e1 ), u(e2 ), · · · , u(en )) sont linéairement indépendants ⇐⇒ det{u(e1 ), u(e2 ), · · · , u(en )} = 6 0 ⇐⇒ det(A) 6= 0 • Rang et échelonnement (matrices carrées) : Le calcul du rang d’une matrice s’effectue en essayant d’échelonner la matrice en lui appliquant une série d’opérations élémentaires (permutation de lignes, addition de lignes, multiplication de ligne par un scalaire, voir partie 7). Si l’on y parvient, le rang de la matrice est égal à la dimension de la matrice. Sinon, le nombre de ligne nulles donne la dimension du noyau. Le théorème du rang permet d’en déduire le rang de la matrice, qui est alors égal à la différence entre le nombre total de lignes et le nombre de lignes nulles : dimE = dim Ker(u) + dim Im(u) = dim Ker(u) + rg(A) UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 (partie 4). 9 L’essentiel du Cours d’Algèbre Déterminant • Calcul – Dimension 2 a b a b = ad − bc A= ⇒ det(A) = c d c d – Dimension 3 a11 a12 a13 a11 a12 a13 a a32 a33 a22 a23 a21 a22 a23 +a31 12 +a21 A= ⇒ det(A) = a21 a22 a23 = a11 a22 a a a a 12 13 32 33 a31 a32 a33 a31 a32 a33 – Dimension 4 a11 a12 a13 a14 a32 a33 a34 a22 a23 a24 a21 a22 a23 a24 A= a31 a32 a33 a34 ⇒ det(A) = a11 a32 a33 a34 + a21 a42 a43 a44 a12 a13 a14 a42 a43 a44 a41 a42 a43 a44 a12 a13 a14 a42 a43 a44 +a31 a12 a13 a14 + a41 a22 a23 a24 a32 a33 a34 a22 a23 a24 • Propriétés : a13 a23 – det(I) = 1 – det(AB) = det(A) × det(B) – Lorsque A est inversible, A−1 A = AA−1 = I et det(A) 6= 0. Alors : det(A−1 ) = 1 det(A) – ∀λ ∈ R, ∀A ∈ Mnn (R), det(λA) = λn det(A) – ∀λ ∈ R, det(A1 , · · · , λAj , · · · , An ) = λdet(A). – det(A1 , · · · , A0j + A00j , · · · , An ) = det(A1 , · · · , A0j , · · · , An ) + det(A1 , · · · , A00j , · · · , An ). Existence de l’inverse Considérons le système : 2x + 4y 4x + 9y −2x − 3y 2 ⇐⇒ AX = B avec A = 4 −2 4 9 −3 − 2z − 3z + 7z −2 −3 7 = 2 = 8 = 10 ; x X= y z ; 2 B= 8 10 Interprétons A comme la matrice d’une application linéaire u. Pour simplifier, disons qu’il s’agit d’un endomorphisme de R3 (i.e. une application linéaire de R3 dans R3 ). Supposons, de plus, que A est exprimée dans une même base de R3 au départ comme à l’arrivée. On la note B. X est alors le vecteur colonne contenant les coordonnées d’un point x de R3 , exprimé dans B. Le produit AX = B représente donc l’image y de x par u : AX = B ⇐⇒ u(x) = y. Résoudre ce système consiste à déterminer l’inconnue x. Dans ces conditions, le système admet une solution si y ∈ Im(u), c’est à dire si y admet un antécédent par u. Une telle situation est garantie, quel que soit y, dès lors que Im(u) = R3 , c’est à dire si dim{Im(u)} = rg(u) = rg(A) = 3. Le calcul du rang de A permet donc de vérifier l’existence de cette solution. Dans le cas de cette matrice carrée, si le rang est égal à la dimension de la matrice, alors cela signifie que les vecteurs issus des colonnes de la matrice sont linéairement indépendants. Ceci se vérifie simplement en calculant le déterminant. Si l’inverse de A existe (∃ A−1 ), cela signifie que le système est inversible. On peut alors écrire : A−1 × AX = B =⇒ A−1 AX = X = A−1 B Il est à noter que ce raisonnement ne dépend pas de B (ou y). Calcul pratique • Opérations élémentaires sur les lignes : Trois opérations importantes sur les lignes peuvent être effectuées sur les matrices : la permutation, l’addition et la multiplication. Ces matrices sont décrites ci-dessous, en dimension 3 par commodité. La multiplication par ces matrices élémentaires ne modifie pas le déterminant de la matrice ainsi transformée. Ces opérations s’effectuent, par convention, en multipliant à gauche par des matrices particulières. UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 10 L’essentiel du Cours d’Algèbre a11 Considérons une matrice : A = a21 a31 – Permutation 1 0 P1 = 0 0 0 1 0 1 1 =⇒ P1 A = 0 0 0 – Addition 1 1 1 0 P2 = 0 1 0 =⇒ P2 A = 0 0 0 0 1 1 1 0 0 a11 0 a21 a31 1 – Multiplication (λ 6= 0) λ 0 0 λ P3 = 0 1 0 =⇒ P3 A = 0 0 0 1 0 – Combinaison de plusieurs mentaires appropriées : λ P = P2 P 3 P1 = 0 0 a11 0 1 a21 0 a31 0 0 1 a12 a22 a32 0 0 a11 1 0 a21 0 1 a31 a12 a22 a32 a12 a22 a32 a13 a23 a33 a13 a11 a23 = a31 a33 a21 a13 a11 + a21 a23 = a21 a33 a31 a12 a22 a32 a12 a32 a22 a13 a33 = 6 A a23 a13 + a23 a23 a33 a12 + a22 a22 a32 a13 λa11 a23 = a21 a33 a31 λa12 a22 a32 λa13 a23 a33 opérations : il suffit de multiplier successivement (à gauche) par les matrices élé 0 1 λ(a11 + a31 ) λ(a12 + a32 ) λ(a13 + a33 ) 0 1 =⇒ P A = a31 a32 a33 1 0 a21 a22 a23 • Pivot de Gauss On procède par multiplication, à gauche, par des matrices élémentaires, dans le but d’échelonner la matrice A, puis de substituer les lignes, afin d’aboutir à la matrice identité. On opère de la même manière avec la matrice B. Echelonnement et substitutions A B I X −−−−−−−−−−−−−−−−−−−−−−−−−→ P× P× Si on repart de AX = B =⇒ P AX = P B. Or, P A = I, d’où P = A−1 . On en déduit : X = P B = A−1 B. Remarque : si, à une étape, une ligne de zéros apparaît, cela signifie que la matrice n’est pas inversible (son rang est inférieur à sa dimension). On dit que la matrice est singulière. • Méthode de Gauss-Jordan La méthode consiste à remplacer B par la matrice identité, et à suivre la même procédure. Le but est de pouvoir exprimer directement P , qui n’est autre que A−1 : Echelonnement et substitutions A I I P −−−−−−−−−−−−−−−−−−−−−−−−−→ P× • Méthode des cofacteurs A −1 C11 1 1 T C12 = com(A) = . det(A) det(A) .. C1n com(A) = (Cij )1≤n,j≤n C21 .. . ··· Cn1 .. Cn2 .. . où com(A) la matrice des cofacteurs Cij (comatrice) : . · · · Cnn a11 ··· .. . a ··· i−1,1 avec Cij = (−1)i+j det ai+1,1 · · · .. . ··· an1 ··· a1,j−1 .. . a1,j+1 .. . ··· ai−1,,j−1 ai+1,,j−1 .. . ai−1,,j+1 ai+1,,j+1 .. . ··· ··· ai−1,n ai+1,n .. . an,j−1 an,j+1 ··· ann a1n .. . (déterminant de la matrice après suppression ième ligne et j ème colonne) UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 11 L’essentiel du Cours d’Algèbre 8 Projection orthogonale • Projection orthogonale à deux dimensions – Définition : pour x ∈ E et D la droite vectorielle engendrée par x, i.e. D = {λx|λ ∈ R}, la projection de y ∈ E orthogonalement à D, notée ΠD (y), est caractérisée par les deux propriétés suivantes : (i) ΠD (y) ∈ D, i.e. ΠD (y) est colinéaire à x ; (ii) y − ΠD (y) est orthogonal ) x. → − xxT < x|y > → − T x ; (ii) matricielle (où a . b ≡ a b) : Π (y) = y D ||x||2 xT x – Théorème : Soit x ∈ E non nul et y ∈ E. La projection orthogonale de y sur la droite D engendrée par x est l’unique vecteur z colinéaire à x réalisant le minimum de ||y − z||, i.e. : ΠD (y) = arg min||y − z|| – Expression : (i) vectorielle : ΠD (y) = z∈D • Projection orthogonale à trois dimensions a11 a21 Soit P un plan de R engendré par (a1 , a2 ), i.e. A = . Soit b un vecteur de R3 ∈ P. a12 a22 L’expression de p, projeté orthogonale de b sur P, est donnée par : p = P b, avec P = A(AT A)−1 AT . 3 • Projection orthogonale en dimension quelconque – Définition : Soit F un s.e.v. de E (e.v. euclidien). On appelle projection orthogonale sur F , notée pF la projection vectorielle sur F parallèlement à F ⊥ . – Soit A une matrice de taille m × n et soit y ∈ Rm . Si la matrice AT A est inversible, alors la projection orthogonale de y sur le sous-espace de Rm engendré par les colonnes de A est : A(AT A)−1 AT y . – On note P la matrice de projection orthogonale, i.e. P = A(AT A)−1 AT . P est carrée, de taille m × m, symétrique (P = P T ) et idempotente (P 2 = P ). Si y appartient au s.e.v. de Rm engendré par les colonnes de A, alors P y = y. Si y est orthogonal à ce s.e.v., alors P y = 0. – Cas particulier : Soit (e1 , · · · , ep ) une b.o.n. de F . Alors, ∀x ∈ E, puisque x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ , p P on a : pF (x) = x1 = (x|ei ).ei . Les coordonnées de x sont obtenues par projection orthogonale sur les vecteurs i=1 de la base. • Moindres carrés – Définition : Soit G une matrice de taille m × n telle que GT G soit inversible, et d ∈ Rm . On appelle solution au sens des moindres carrés de l’équation d = Gm l’unique vecteur m̂ ∈ Rn réalisant le minimum de ||d − Gm||, i.e. m̂ = arg minn ||d − Gm||. m̂∈R – Théorème : la solution des moindres carrés est : m̂ = (GT G)−1 GT d. C’est celle qui minimise la norme 2 de l’erreur e = d − dˆ entre la prédiction dˆ = Gm̂ et l’observation d. UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7 12