Algèbre linéaire I David Baumgartner 1 23 décembre 2016 1. Université de Fribourg Table des matières 1 Systèmes d’équation linéaire 1.1 Qu’est-ce que l’algèbre linéaire ? . 1.2 Algèbre linéaire . . . . . . . . . . 1.2.1 Équations linéaires . . . . 1.2.2 Systèmes d’équation . . . 1.2.3 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 3 4 2 Ensembles, groupes, corps 2.1 Ensembles et applications 2.2 Groupes . . . . . . . . . . 2.3 Anneaux et corps . . . . . 2.3.1 Anneau . . . . . . 2.3.2 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 9 13 13 16 3 Espaces vectoriels, applications linéaires 3.1 Espace vectoriel . . . . . . . . . . . . . . 3.2 Application linéaire . . . . . . . . . . . . 3.3 Bases . . . . . . . . . . . . . . . . . . . 3.4 Espaces vectoriels quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 18 23 25 39 4 Systèmes d’équations linéaires, Matrices, Déterminants 4.1 Méthode d’élimination de Gauss-Jordan . . . . . . . . . . 4.2 Applications linéaires et matrices . . . . . . . . . . . . . . 4.3 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . 4.4 Existence du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 41 47 57 59 . . . . . . . . . . . . . . . . . . . . 5 Valeurs propres, matrices triangularisables, réduction de Jordan 66 5.1 Valeur propre, matrice diagonalisable . . . . . . . . . . . . . . . . 66 6 Annexe 73 6.1 Relations d’équivalences . . . . . . . . . . . . . . . . . . . . . . . 73 6.2 Nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 74 1 Chapitre 1 Systèmes d’équation linéaire 1.1 Qu’est-ce que l’algèbre linéaire ? Algèbre ↔ résolution d’égalités, plus précisément d’égalités polynomiales. Exemple 1.1. x2 + y 2 = 1 (dans R) Exemple 1.2. xy = 0 Exemple 1.3. xy = 1 Exemple 1.4. xn + y n = z 2 (dans Z, avec n ∈ N) — cas n = 2 : x2 + y 2 = z 2 , il existe des solutions, ce sont les triplets Pythagoriciens. Par exemple, 32 + 42 = 52 . — cas n ≥ 3 : il n’y a pas de solutions (Fermat-Wiles) 2 Théorème 1.5 (Dernier théorème de Fermat). Pour tout n ≥ 3, il n’existe pas d’entiers x, y, z tels que xn + y n = z n (Wiles et Taylor, 1995) 1.2 Algèbre linéaire Résolution des équations polynomiales dans lesquelles l’on n’a pas de produit de variables (c-à-d, xy, x2 , etc). On appelle ces équations équations linéaires. 1.2.1 Équations linéaires Exemple 1.6. 2x + 3y = 1, x − y = 2, a1 x1 + a2 x2 = b (pour certains a1 , a2 réels). Dans le cas a1 x2 + aP 2 x2 = b, x1 et x2 sont des variables, a1 et a2 des n paramètres. En général, k=0 ak xk = b. |{z} |{z} paramètre variable Exemple 1.7. 2x + 3y = 1 (1.1) on a l’ensemble des solutions S |{z} := {(x, y) ∈ R |2x + 3y = 1 }. déf On veut expliciter l’ensemble des solutions, sans perdre d’informations (équivalences). Exemple 1.8. 2x + 3y = 1 ⇐⇒ 3y = 1 − 2x ⇐⇒ y = 2 1 1 − 2x ⇐⇒ y = − x + 3 3 3 (1.2) Or l’ensemble des solutions de (1.1) est équivalent à celui de (1.2). On en déduit que l’ensemble des solutions décrit une droite, ici, par le point (x, y) = (0; 31 ) et de pente − 23 . 1.2.2 Systèmes d’équation Soit S 0 l’ensemble des solutions de l’équation x − y = 2, c’est-à-dire S 0 := {(x, y) ∈ R |x − y = 2 } On cherche l’intersection S ∩ S 0 = {(x, y) ∈ R |2x + 3y = 1 ∧ x − y = 2 }, sans perdre d’informations. Procédons par la méthode “naïve”. 3 2x x 2x + 3y = 1 − y = 2 + 3y = 1 ⇐⇒ y = x−2 2x + 3(x − 2) = 1 ⇐⇒ y = x − 2 5x − 6 = 1 ⇐⇒ y = x−2 7 x = 5 ⇐⇒ y = x7− 2 x = 5 ⇐⇒ y = − 53 L’ensemble S ∩ S 0 = ( 75 ; − 53 ) , car on a montré l’équivalence. 1.2.3 Cas général Soient (a, b) ∈ R2 , (a, b) 6= (0, 0), et α ∈ R dans l’équation linéaire ax + by = α, ainsi que (c, d) ∈ R2 , (c, d) 6= (0, 0), et β ∈ R dans dy = β. L’en l’EL cx + 2 semble de leurs solutions sont respectivement S := (x, y) ∈ R |ax + by = α et S 0 := (x, y) ∈ R2 |cx + dy = β . Notation 1.9 (déterminant). a c b = ad − bc d À quoi ressemble S ∩ S 0 ? Il y a trois cas. 1. S et S 0 se coupent en un point P . 2. S et S 0 sont parallèles et ne s’interceptent pas. 3. S et S 0 sont égales. On note S ∩ S 0 = (x, y) ∈ R2 |ax + by = α ∧ cx + dy = β On prend le système suivant ∗ =⇒ =⇒ not. ⇐⇒ ax + by = α cx + dy = β acx + bcy = αc acx + ady = aβ (ad − bd)y = aβ − αc a b a α c d y = c β * : attention, ce ne sont pas des équivalences ! On élimine ensuite y. 4 (1.3) ∗ =⇒ =⇒ not. ⇐⇒ ax + by = α cx + dy = β adx + bdy = αd bcx + bdy = βb (ad − bd)x = αd − bβ a b a b c d y = β d (1.4) Étudions les différents cas a b 6= 0 Alors Si c d (1.3) ⇐⇒ y = (1.4) ⇐⇒ x = Donc 0 S∩S = a β a c b d b d a α c β a b c d a b β d a b c d ; a α c β a b c d Exercice 1.10. Montrer que (x; y) sont solutions de (1) et (2). Exemple 1.11. Pour 2x + 3y = 1 et x − y = 2, ona a = 2, b = 3, α = a b 2 3 = 2(−1) − 3 · 1 = = 1, c = 1, d = −1, β = 2, Donc c d 1 −1 −5 6= 0 =⇒ cas 1. a α a b β d c β 7 3 0 = S∩S = ; ; − −5 −5 5 5 a b a b a α 6= (0; 0) 1 Alors cela implique que Si = 0, ; c d β d c β (1.3) ou (1.4) n’a aucune solutions, donc que S ∩ S 0 = ∅, les deux droites sont parallèles. a b a b a α =0 Si = = c d β d c β 1. Erreur dans le cours : cela doit être un “ou exclusif”, sinon le cas 3 ne fait pas sens. 5 Rappel 1.12. (a; b) 6= (0; 0) ∧ (c; d) 6= (0; 0). Soit a 6= 0 (les cas a 6= 0 et b 6= 0 sont analogues). Propriété 1.13. a 6= 0 =⇒ c 6= 0 a Démonstration. Supposons que c = 0 =⇒ ad = ad − bc = c b = d a6=0 0 =⇒ ad = 0 =⇒ d = 0, donc on a une contradicition. En effet, on a (c; d) 6= (0; 0). (1) ax + by = α =⇒ acx + bcy = αc Donc a 6= 0, c 6= 0, ce qui conduit à (2) cx + dx = β =⇒ acx + ady = aβ Propriété 1.14. S = S 0 . c6=0 Démonstration. ∈ S ⇐⇒ ax + by = α ⇐⇒ acx + bcy = αc ⇐⇒ (x; y) a b a α ⇐⇒ acx + bcy + (ad − bc)y = acx + bcy + y = αc + c d c β | {z } | {z } 0 0 a6=0 αc + aβ − αc ⇐⇒ acx + ady = aβ ⇐⇒ cx + dy = β ⇐⇒ (x; y) ∈ S 0 Donc S = S 0 dans ce 3e cas. 6 Chapitre 2 Ensembles, groupes, corps 2.1 Ensembles et applications Qu’est-ce qu’un ensemble ? Définition 2.1 (Ensemble). Rappel Une application f : X → Y est dite — injective si f (x) = f (x0 ) =⇒ x = x0 — surjective si pour tout y ∈ Y , il existe un x ∈ X avec f (x) = y — bijective si elle est injective ou surjective. Dans ce cas, il existe une application f −1 : Y → X, f (x) 7→ x , appellée réciproque. Exemple 2.2 (Fonctions bijectives). 1. f : R → R, x 7→ −5 · x, f est bijective, et l’application réciproque est f −1 : R → R, y 7→ − 51 · y ! ! ! y x x 2 2 2 7→ x +y n’est donc pas injective, car g =g 2. g : R → R, x y y et n’est pas surjective car x2 + y 2 [Fig1] | {z } ≥0 3. h : N → N, a 7→ a + 1, est injective (car x + 1 = x0 + 1 =⇒ x = x0 ), mais pas surjective car 0 n’est pas dans im h. 4. R → S 1 := (x; y) ∈ R2 x2 + y 2 = 1 , t 7→ (cos t, sin t) va sur tous les éléments du cercle, donc surjective, mais pas injective car cos, sin sont périodiques. √ 5. R+ → R, x 7→ ± x n’est pas une application, car l’image d’un point est plus d’un point. 7 Définition 2.3 (Image, préimage, restriction). Soit f : X → Y une application, M ⊂ X et N ⊂ Y . On définitit — im(f ) := f (X) := {f (x) |x ∈ X } est l’image de f . f (M ) := {f (x) |x ∈ M } est l’image de M pour l’application f — f −1 (N ) := {x ∈ X |f (x) ∈ N } est la préimage (=image réciproque) de N pour l’application f . — L’application f |M : M → Y, x 7→ f (x) est la restriction de f sur M . + Il y souvent une confusion entre une application réciproque et la préimage ! Remarque 2.4. Soit f : X → Y , on peut toujours définir la préimage f −1 (N ), mais la fonction f −1 existe seulement quand f est bijective ! Exemple 2.5. Soit f : R2 → R, (x; y) 7→ x2 + y 2 — f −1 ({1}) = S1 (le cercle, centrée en (0; 0) et de rayon 1) — f −1 ([0; 1]) = (x; y) ∈ R2 0 ≤ x2 + y 2 ≤ 1 le disque centré en (0; 0) de rayon 1. — f −1 ({−1}) = ∅ — f ({(x; y) ∈ R |, |x| ≤ 1, |y| ≤ 1 }) = [0; 2] (l’image d’un carré centré en 0 de d’arête 1 est au maximum 12 + 12 et au minimum 0) Notation 2.6. On note xi := x(i) Définition 2.7 (Produits d’ensembles). 1. Le produit cartésien d’un nombreS n fini d’ensembles X1 , X2 , . . . Xn est noté X1 ×X2 ×· · ·×Xn := {x : [[1; n]] → i=0 Xi |x(i) ∈ Xi ∀i ∈ [[1; n]] } {(x1 , x2 , . . . , xn ) |xi ∈ Xi ∀i ∈ [[1; n]] } Part. Si X1 = X2 = · · · = Xn = X, alors on écrit X n := X1 × X2 × · · · × Xn . 2. Soit I un ensemble et soit Xi un ensemble pour tout i ∈ I donné. Alors le produit cartésien, ( ) [ Y Xi := Xi := x : I → Xi |x(i) ∈ Xi ∀i ∈ I i∈I X i∈I i∈I Part Xi = X∀i ∈ I, alors on écrit X I := 8 Q i∈I Xi = X Xi i∈I Exemple 2.8. — x1 x 2 n R = R × R × · · · × R = . xi ∈ R .. xn — RN = { (a0 ; a1 ; . . . )| ai ∈ R} est l’ensemble des suites réelles. Paradoxe 2.9 (Paradoxe de Russels). Soit F un habitation de Fribourg, qui cuisine pour tous les habitants de Fribourg qui ne cusinent pas eux-même, et seulement pour ceux-ci. Marla cuisine pour lui-même =⇒ F ne cuisine pas pour Marla Marla ne cuisine pas pour lui-même =⇒ F cuisine pour Marla. Est-ce que F cuisine pour lui-même ? — Il cuisine pour lui-même =⇒ F ne cuisine pas pour lui-même — Il ne cuisine pas pour lui-même =⇒ F cuisine pour lui-même On a dans les deux cas une contradiction. Généralisation Soit A := {X |X est un ensemble avec X 6∈ X }, alors A ∈ A =⇒ A 6∈ A, et A 6∈ A =⇒ A ∈ A. 2.2 Groupes Définition 2.10 (Groupe). Un groupe (G, ?) est un ensemble G, ainsi qu’une application ? : G × G → G, (a; b) 7→ ?(a; b) =: a ? b, tels que 1. (a ? b) ? c = a ? (b ? c) ∀(a; b; c) ∈ G3 (associativité) 2. il existe e ∈ G, l’ élément neutre, avec la propriétés e ?a = a ∀a ∈ G, 0 3. pour tout g ∈ G, il existe g ∈ G, l’ inverse de g, avec la propriété g 0 ?g = e. L’application ? s’appelle appelle opération, multiplication ou relation, selon les cas. Exemple 2.11 (Groupe). 1. (Z, +), (Q, +), (R, +) sont des groupes, avec 0 pour l’élément neutre et l’inverse de a est a0 = −a. 2. (Q∗ , ·) est un groupe, où l’élément neutre est 1 et l’inverse de a est a0 = ∗ a−1 = a1 (où Q∗ := Q \{0}) — de même pour (R∗ , ·), (R+ , ·) 3. (Rn , +) avec x1 y1 x1 + y1 x2 y2 x2 + y2 + : R × R → R , . , . 7→ . .. .. .. n n n xn 9 yn xn + yn est également un groupe. L’élément neutre est 0 0 .. . 0 et l’inverse de x1 x2 .. . xn est −x1 −x2 .. . −xn ∗ 4. (N, +), (Z , ·) ne sont pas des groupes. 5. Soit X un ensemble, on définit l’ensemble des parties d’un ensemble (=powerset) tel que P(X) := {A |A ⊂ X }. On définit ? : P(X)×P(X) → P(X), A ? B := (A ∪ B) \ (A ∩ B). Alors (P(X), ?) est un groupe. Pour exercice. L’élément neutre est ∅ et l’élément inverse de A est A. Définition 2.12 (Groupe abélien). Soit un groupe (G, ?) est dit abélien ou commutatif lorsque a ? b = b ? a ∀(a; b) ∈ G. Définition 2.13 (Compositiion). 1. Soit f : X → Y et h : Y → Z deux applications, alors h ◦ f : X → Y la composition de h et f , x 7→ h(f (x)) 2. X un ensemble, on définit S(X) := {f ∈ Map(X, X) |f bijective }, l’ensemble des applications bijectives X → X. Exercice 2.14. (S(X), ◦) est un groupe. Définition 2.15 (Groupe de permutations). Soit X = [[1; n]], Sn := S(X) le groupe des permutations ou groupe des symmétries. Remarque 2.16. (S3 , ◦) n’est pas abélien. Soit a = (1 2), b = (2 3) bijectives, a, b ∈ S3 . Alors a ◦ b = (1 2 3) tandis que b ◦ a = (1 3 2) donc a ◦ b 6= b ◦ a n’est pas un groupe abélien. Lemme 2.17 (Unicité de l’élément neute et de l’inverse). Soit (G, ?) un groupe, e ∈ G l’élément neutre , a ∈ G et a0 ∈ G avec a0 ? a = e. Alors les propositions sont vraies 10 1. Soit ee ∈ G avec ee ? b = b vraie. ∀b ∈ G, alors ee = e et b ? e = b ∀b ∈ G est 2. Soit e a0 ∈ G avec e a0 ? a = e alors e a0 = a0 et a ? a0 = e. Démonstration. 1. On montre a ? a0 = e : Soit a00 l’inverse, donc a00 ? a0 = e =⇒ a ? a0 = e ? (a ? a0 ) = (a00 ? a0 ) ? (a ? a0 ) = a00 ? (a0 ? (a ? a0 )) = a00 ? ((a0 ? a) ?a0 ) = a00 ? a0 = e. | {z } =e | {z } =a0 2. On montre que b ? e = b : pt.1 Soit b0 un inverse de b, donc b0 ? b = e. Or b ? e = b ? (b0 ? b) = (b ? b0 ) ? b = e ? b = b. 3. On montre que l’élément neutre est unique : ee ? b = b∀b ∈ G =⇒ ee = e : pt.2 On a e = ee ? e = e ? ee = e. 4. On montre que l’inverse est unique : e a0 ? a =⇒ e a0 = a0 : pt.2 pt.1 On part de e a0 = e a0 ? e = e a0 ? (a ? a0 ) = (e a0 ? a) ? a = e ? a0 = a0 . Notation 2.18. Si l’opération dans G est décrite avec (·), alors on écrit a−1 ou a1 pour l’inverse de a ∈ G et 1 pour l’élément neutre. Si l’opération dans G est décrite avec (+), alors on écrit −a pour l’inverse de a ∈ G et l’on dit « opposé », et 0 pour l’élément neutre. Exercice 2.19. Soit (G, ·) un groupe. Alors 1. (a−1 )−1 = a ∀a ∈ G 2. a · x = a ? x e =⇒ x = x e et y · a = ye ? a =⇒ y = ye ∀a ∈ G Définition 2.20 (Sous-groupe). Soit (G, ·) un groupe et G0 un sous-ensemble de G. Alors G0 est un sous-groupe si les conditions suivantes sont valides — G0 6= ∅ — ∀(a, b) ∈ G02 , a · b ∈ G0 — ∀a ∈ G0 , a−1 ∈ G0 Remarque 2.21. Soit G0 un sous-groupe de G, alors G0 avec · : G0 × G0 → G0 est un groupe. Exemple 2.22 (Sous-groupe). — (Z, +) < (Q, +) < (R, +) — (Q∗ , ·) < (R∗ , ·) — (Q∗+ , ·) < (R∗+ , ·) — Soit m ∈ N et soit m·Z := {m · a |a ∈ Z }, par exemple 2·Z = {0, ±2, ±4, ±6, . . .}. Alors (m · Z, +) < (Z, +) est un sous-groupe. 11 — Soit G le groupe des rotations dans R2 autour de 0 ∈ R2 et des symétries autour d’un axe passant par 0 =⇒ (G, ◦) est un groupe. Prenons le groupe des symétries et des rotations d’un triangle équilatéral centré en 0, on considère les rotations d’un sommet à l’autre et les symétries par les hauteurs, qui laissent le triangle inchangé. Soit H := {f ∈ G |f (4) = 4 } =⇒ H < G. — Rubik ’s cube il y a 48 = 8 · 6 faces, qui peuvent être permutées. On voit que le groupe S48 a |S48 | = 48! = 12413915592536072670862289047373375038521486354677760000000000 permutations différentes. L’ensemble des permutations du Rubik’s cube est un sous-groupe de S48 . Ce sous-groupe a 43252003274489856000 éléments. Exercice 2.23. H := {f ∈ G |f (4) = 4 } est isomorphe à S3 . Remarque 2.24. On appelle les applications entre des objets des morphismes. Définition 2.25 (Homomorphisme, isomorphisme). 1. Une application ϕ : G → H entre deux groupes (G, ·) et (H, •) est appelée homomorphisme si — ϕ(a · b) = ϕ(a) • ϕ(b) ∀(a, b) ∈ G2 — Un homomorphisme ϕ : G → H est dite isomorphisme si ϕ est bijec∼ = tive. Dans ce cas, on écrit ϕ : G → H ou G ∼ = H. Exemple 2.26 (Homomorphisme). — (Z, +) → (Z, +), a 7→ 2 · a, donc 2 · (a + b) = 2 · a + 2 · b, donc c’est un homomorphisme. Cet homomorphisme est injectif, mais pas surjective (car 1 ∈ Z n’est pas dans l’image). — Z → 2 · Z, a 7→ 2 · a est un isomorphisme, donc (Z, +) ∼ = (2 · Z, +). — Toute rotation R : R2 → R2 autour du 0 et chaque symétrie τ : R2 → R2 est un isomorphisme de (R2 , +) → (R2 , +). En effet, τ (a)+τ (b) = τ (a+b) et R(a) + R(b) = R(a + b). — La fonction exponentielle exp : (R, +) → (R∗+ , ·), est-ce que exp(a + b) = exp(a) · exp(b) ? Oui, donc c’est un homomorphisme, et l’analyse nous montre que exp est bijective (la fonction récripoque étant ln), donc exp est un isomorphisme. On en déduit donc que (R, +) ∼ = (R∗+ , ·). 1 — (R, +) → (S , ·), t 7→ (cos t, sin t), on voit que ϕ est un homomorphisme (Théorème d’addition pour sin, cos). Elle est évidemment surjective, mais n’est pas injective. On appelle cela un epimorphisme ! — (R, +) → (R, +), x 7→ x2 , n’est pas un homomorphisme car (a + b)2 6= a2 + b2 . — (R∗ , ·) → (R∗ , ·), x 7→ x2 est un homomorphisme, car (a · b)2 = a2 · b2 . Il n’est pas injectif, ni surjectif. Remarque 2.27. Si un homomorphisme est — pas injectif, mais surjectif, il est dit épimorphisme. — injectif, mais pas surjectif, il est dit monomorphisme. Lemme 2.28. Soit ϕ : G → H un homomorphisme, alors 1. ϕ(eG ) = eH , ϕ(a)−1H = ϕ(a−1G ) 12 ∀a ∈ G 2. im(ϕ) := ϕ(G) est un sous-groupe de H. 3. ker(ϕ) := ϕ−1 (eH ) = {g ∈ G |f (g) = eH } est un sous-groupe de G 4. ϕ est injectif ⇐⇒ ker(ϕ) = {eG } 5. ϕ est un isomorphisme, alors l’application réciproque ϕ−1 : H → G, f (g) 7→ G est un isomorphisme de groupe. ϕ(eG )−1 • Démonstration. 1. ϕ(eG ) = ϕ(eG · eG ) = ϕ(eG ) • ϕ(eG ) =⇒ eH = ϕ(eG ), ϕ(a−1 • ϕ(a) = ϕ(a−1 · a) = ϕ(eG ) = eH =⇒ ϕ(a−1 ) est l’inverse de ϕ(a), donc ϕ(a−1 ) = ϕ(a)−1 (ii) À montrer : im(φ) est un sous-groupe de H. À montrer : im(φ) 6= ∅, φ(g1 ) · φ(g2 ) ∈ im(φ), φ(g)−1 ∈ im φ). — im(φ) 6= ∅, car e est dans l’image. — φ(g1 ) · φ(g2 ) = φ(g1 · g2 ) ∈ im(φ). — φ(g)−1 = φ(g −1 ) ∈ im(φ). (iv) On montre ⇒. Soit ϕ injective, g ∈ G, avec ϕ(g) = e =⇒ ϕ(g) = e = ϕ inj. ϕ(e) =⇒ g = e. Donc ker(ϕ) := {g ∈ G |ϕ(g) = e } = {e}. On montre ⇐. Soit ker(ϕ) = {e}, g1 , g2 ∈ G tels que ϕ(g1 ) = ϕ(g2 ). On veut montrer que g1 = g2 . On a ϕ(g1 ) = ϕ(g2 ) =⇒ φ(g1 · g2−1 ) = φ(g1 ) · φ(g2−1 ) = φ(g1 ) · φ(g2 )−1 = φ(g1 ) · φ(g1 )−1 = e =⇒ g1 · g2−1 ∈ ker(φ) = {e} =⇒ g1 · g2−1 = e =⇒ g1 = g2 . Remarque 2.29. Si l’on prend (Z /m Z, +), on a [r] + [s] := [r + s] (Z /m Z, +) est un groupe. 2.3 2.3.1 Anneaux et corps Anneau Définition 2.30 (Anneau). Un ensemble R avec deux opérations + : R × R → R, (a, b) 7→ +(a, b) =: a + b · : R × R → R, (a, b) 7→ ·(a, b) =: a · b est appelé anneau si 1. (R, +) est un groupe abélien (avec 0 comme élément neutre pour +) 2. (a · b) · c = a · (b · c) ∀a, b, c ∈ R (associativité) 3. a · (b + c) = a · b + a · c ∀a, b, c ∈ R (distributivité) Notation 2.31. a · b + a · c := (a · b) + (a · c) 13 =⇒ Définition 2.32 (Anneau commutatif). Un anneau R est dit commutatif si a · b = b · a ∀a, b ∈ R. Définition 2.33 (Élément neutre). Un élément 1 ∈ R, 1 6= 0 est dit élément neutre de la multiplication si 1 · a = a · 1 = a ∀a ∈ R. Définition 2.34 (Anneau unitaire). Si R possède un élément neutre, il est dit anneau unitaire. Définition 2.35 (Élément inversible, unité). Un élément a ∈ R est dit inversible (ou unité) s’il existe un b ∈ R tel que a · b = b · a = 1 Définition 2.36 (Groupe des unités). L’ensemble R∗ des éléments inversibles s’appelle groupe des unités. Définition 2.37 (Diviseur de zéro). Un élément a ∈ R, a 6= 0 est dit diviseur de zéro s’il existe b ∈ R, b 6= 0 tel que a · b = 0. Définition 2.38 (Anneau intègre). Un anneau R est dit anneau intègre si a · b = 0 =⇒ a = 0 ∨ b = 0. Autrement dit, R n’a pas de diviseur de zéro. Exemple 2.39. Dans la classe modulo m, r, s sont dits congruents modulo m ⇐⇒ r ∼ s ⇐⇒ m | r − s ⇐⇒ r ≡ s mod m. Z /m Z = l’ensemble des classes d’équivalence mod m = {[0], [1], [2], . . . , [m− 1]} ; on remarque que | Z /m Z | = m. L’addition + : Z /m Z × Z /m Z → Z /m Z, [a] + [b] := [a + b]. La multiplication · : Z /m Z × Z /m Z → Z /m Z, [a] · [b] := [a · b]. On peut montrer que — +, · sont bien définits — Z /m Z est un anneau commutatif Exemple 2.40. Pour m = 2, on a Z /2 Z, — l’addition : [0] + [0] = [0], [0] + [1] = [1], [1] + [0] = [1], [1] + [1] = [0] — la multiplication [0] · [0] = [0], [0] · [1] = [0], [1] · [0] = [0], [1] · [1] = [1] Pour m = 1, on a Z /1 Z = {[0]}. Pour m ≥ 2, Z /m Z est un anneau unitaire, l’unité est [1]. Remarque 2.41. Soit m ∈ Z, m ≥ 2, alors on a Z /2 Z est un anneau intègre ⇐⇒ m est premier Démonstration. On montre ⇐. Soit m ∈ Z un premier, soient [a] · [b] ∈ Z /m Z, [a] · [b] = [0]. On veut montrer que [a] = 0 ou [b] = 0. On a [a] · [b] = [0] =⇒ [a · b] = [0] =⇒ m | m est premier a·b =⇒ m | a ∨ m | b =⇒ [a] = 0 ∨ [b] = 0. Il n’y a donc pas de diviseur de zéro, donc Z /m Z est un anneau intègre. On montre ⇒. 14 Soit Z /m Z un anneau intègre. On veut montrer que m est premier ; on procède par contradiction. Si m n’était pas premier =⇒ ∃(a, b ∈ Z, 1 < a, b < m), a · b = m. Mais 1 < a < m =⇒ [a] 6= [0] et 1 < b < m =⇒ [b] 6= [0]. Or on a donc =⇒ [0] = [m], [a · b] = [a] · [b], donc =⇒ [a], [b] 6= 0 ∧ [a] · [b] = 0, ce qui est en contradiction avec l’hypothèse que l’anneau est intègre. On en déduit donc que m est premier. Exemple 2.42 (Anneau). 1. (Z, +, ·) est un anneau unitaire commutatif . Pour n ≥ 2, (n · Z, +, ·) est également un anneau commutatif. 2. (Z × Z, +, ·), (a, b) + (c, d) := (a + c, b + d), (a, b) · (c, d) := (a · c, b · d) est un anneau unitaire commutatif. L’unité est (1, 1). Ce n’est pas un anneau intègre, car l’anneau a de nombreux diviseurs de zéros : par exemple (1, 0) · (0, 1) = (0, 0) = 0. 3. Q, R sont des anneaux intègres unitaires commutatifs ; les groupes des unités sont respectivement Q∗ = Q \{0} et R∗ = R \{0} 4. Soit X un ensemble non-vide, R := Map(X, R) l’ensemble des applications X → R, avec + : R × R → R, (f + g)(x) := f (x) + g(x) ∀x ∈ X et · : R × R → R, (f · g)(x) := f (x) · g(x) ∀x ∈ X, alors (R, +, ·) est un anneau unitaire commutatif ; l’unité étant 1 : X → R, x 7→ 1. Ce n’est pas un anneau intègre quand X a au moins deux éléments (avec le même argument que pour Z × Z). 5. Soit X 6= ∅. Soit P(X) l’ensemble des parties de X, on définitit +: P(X) × P(X) → P(X) A+B := (A ∪ B) \ (A ∩ B) ·: P(X) × P(X) → P(X) A·B := (A ∩ B) Pour exercice : (P(X), +, ·) est un anneau unitaire commutatif. On a — 1 = P(X) — diviseur de zéro : tout ensemble tel que A ∩ B = ∅, par exemple, si B = {1, 2, 3}, A = {4} est un diviseur de zéro Définition 2.43 (Sous-anneau). Soit R un anneau et soit R0 ⊂ R un sousensemble de R. Alors on dit que R0 est un sous-anneau de R lorsque 1. (R0 , +) et un sous-groupe de (R, +) 2. a, b ∈ R0 =⇒ a · b ∈ R0 Exercice 2.44. (R0 , +, ·) est un anneau. Exemple 2.45. 1. Z est un sous-anneau de Q, Q est un sous-anneau de R 2. m · Z est un sous-anneau de Z 15 3. Soit R := Map([0, 1], R) = {f : [0, 1] → R | f est une application }, soit R0 := {f ∈ R| f (0) = 0} =⇒ R0 est un sous-anneau de R. Définition 2.46 (Homomorphisme d’anneau). Soient R, S deux anneaux. Une application ϕ : R → S est dit homomorphisme d’anneau si pour tout ∀a, b ∈ R 1. ϕ(a + b) = ϕ(a) + ϕ(b) 2. ϕ(a · b) = ϕ(a) · ϕ(b) Exemple 2.47. 1. Soit R0 ⊂ R un sous-anneau. Alors l’injection cano0 nique R → R, a 7→ a est un homomorphisme d’anneau injectif, soit un homomorphisme 2. Soit m ∈ N, m ≥ 1. Alors l’application Z → Z /m Z, a 7→ [a] est un homomorphisme d’anneau surjectif, soit un épimorphisme 3. Soit Y un sous-ensemble de X. Alors Map(X, R) → Map(Y, R), f 7→ f |Y est un homomorphisme d’anneau surjectif. 2.3.2 Corps Définition 2.48 (Corps). Un anneau commutatif (K, +, ·) est dit corps si (K \ {0}, ·) est un groupe. — 0 ∈ K est l’élément neutre de l’addition — 1 ∈ K est l’élément neutre de la multiplication Cela signifie que pour tout élément a ∈ K, a 6= 0, il existe un inverse pour la multiplication. Définition 2.49 (Corps II). Un corps est un ensemble K avec deux applications +: ·: K ×K (a, b) K ×K (a, b) → K 7→ a + b, → K 7→ a · b, Telles que 1. (K, +) est un groupe abélien (0 := l’élément neutre) 2. pour tout a, b ∈ K \ {0}, a · b ∈ K \ {0} 3. (K \ {0}, ·) est un groupe abélien (1 := l’élément neutre) 4. ∀a, b, c ∈ K, a · (b + c) = a · b + a · c Remarque 2.50. 1. Dans un corps K, on a toujours 1 6= 0 2. Un corps est un anneau unitaire commutatif, dans lequel chaque élément non-null a un inverse, c’est-à-dire que ∀a ∈ K, a 6= 0 =⇒ ∃a−1 ∈ K. 3. Dans un corps, le groupe des unité K ∗ = K \ {0} Démonstration. 1. Par définition, 1 ∈ K \ {0}. 16 Remarque 2.51. Dans un corps K, on a 1. 0 · a = a · 0 = 0 2. a · b =⇒ a = 0 ∨ b = 0 3. a · (−b) = (−a) · b = −(a · b) 4. Si a 6= 0, on a a · x = a · x−1 =⇒ x = x−1 et y · a = y −1 a =⇒ y = y −1 Exemple 2.52. R et Q sont des corps Définition 2.53 (Sous-corps). Soit K un corps, K 0 ⊂ K, K 0 6= {0} est dit un sous-corps si 1. K 0 est un sous-anneau de K 2. ∀a ∈ K 0 , a 6= 0 =⇒ a−1 ∈ K 0 Conséquence : même. Soit K 0 ⊂ K, alors 1 ∈ K 0 et (K 0 , +, ·) est un corps lui- Définition 2.54 (Homomorphisme, isomorphisme). 1. Soit K, L deux corps. Une application ϕ : K → L est dit homomorphisme de corps si ϕ est un homomorphisme d’anneau et que ϕ(1) = 1 2. Un isomorphisme de corps est un homomorphisme de corps bijectif Remarque 2.55. Un homomorphisme de corps ϕ : K → L est toujours injectif car ϕ(1) = 1 Démonstration. Soit a ∈ K, ϕ(a) = 0. On veut montrer que a = 0. Si a 6= 0 =⇒ ∃b ∈ K, a · b = 1 (car K est un corps), =⇒ ϕ(a) · ϕ(b) = ϕ(a · b) = ϕ(1) = 1 =⇒ ϕ(a) 6= 0 Lemme 2.56. Soit R un anneau unitaire commutatif, et R un anneau intègre. Alors si R est fini alors R est un corps. Démonstration. On veut montrer que pour tout a ∈ R, a 6= 0, il existe un b ∈ R avec a · b = 1. Remarquons que f : R → R, x 7→ x · a =⇒ f est injective (car f (x) = f (y) =⇒ x · a = y · a =⇒ (x − y) · a = 0 R intgère =⇒ c6=0 x − y = 0 =⇒ x = y), et comme l’ensemble de définition et d’arrivée sont égaux et que R est fini, alors f est bijective. Donc 1 ∈ im(f ) =⇒ ∃b ∈ R, f (b) = 1 =⇒ b · a = 1 ⇐⇒ a · b = 1. Exemple 2.57. Soit p un premier. Alors (Z /p Z, +, ·) est un corps : Z /2 Z, Z /3 Z, Z /5 Z, . . . sont des corps. 17 Chapitre 3 Espaces vectoriels, applications linéaires 3.1 Espace vectoriel Soit K un corps. v1 , v2 , . . . , vn ∈ K l’ensemble de vn n tous les vecteurs de K , ou, de façon équivalente, V = { (v1 , v2 , . . . , vn )| v1 , v2 , . . . , vn ∈ K} n Exemple 3.1. Soit V := K = v1 v2 .. . n Notation 3.2. T = Transposition. T v1 v2 .. := (v1 , v2 , . . . , vn ) et (v1 , v2 , . . . , vn )T := . vn v1 v2 .. . T vn Définition 3.3 (Addition de vecteurs). + : V × V → V, v + w := v1 + w 1 v2 + w 2 .. . v n +n Remarque 3.4. (V, +) est un groupe abélien. L’élément neutre de l’addition est 18 0 := 0 0 .. . 0 L’inverse de v := v1 v2 .. . vn est −v := −v1 −v2 .. . −vn Définition 3.5 (Multiplication d’un vecteur et d’un scalaire). λ · v1 λ · v2 · : K ×V → V, λ · v := v := .. . λ · vn (V, +, ·), donc λ · (v + w) = λ · v + λ · w (λ + µ) · v = λ · v + µ · v λ · (µ · v) = (λ · µ) · v 1 ·v = v |{z} ∈K Pour tout v, w ∈ V, λ, µ ∈ K Définition 3.6 (Espace vectoriel). Un K-espace vectoriel ou un espace vectoriel sur K est un ensemble avec deux applications, + : V × V → V, (v, w) 7→ v + w · : K ×V → V, (λ, w) 7→ λ · w tels que 1. (V, +) est un groupe abélien (avec 0V l’élément neutre de V et −v l’inverse de v) 19 2. λ·(v+w) = λ·v+λ·w, (λ+µ)·v = λ·v+µ·v, λ·(µ·v) = (λ·µ)·v, |{z} 1 ·v = ∈K v∀v, w ∈ V, λ, µ ∈ K On appelle les éléments de V vecteurs et les éléments de K scalaires. Exemple 3.7. 1. Kn un espace vectoriel sur K. En particulier K est un corps sur K. Par exemple, C est un espace vectoriel sur C 2. C est au R espace vectoriel pour les opérations + : C × C → C, (z1 , 72 ) 7→ z1 + z2 et · : R × C → C, (λ, z) 7→ λ · z. R est également un espace vectoriel sur Q 3. K = Z /5 Z, 5 est premier donc K est un corps, V = Z /5 Z × Z /5 Z = K2 =⇒ V est un espace vectoriel sur K 4. Soit V = M(2 × M, K) = a c b d | a, b, c, d ∈ K l’ensemble des matrices 2 × 2 avec des coefficients dans K. On définit l’addition + a c b d + V ×V →V a0 b0 a + a0 := 0 0 c d c + c0 b + b0 d + d0 Et la multiplication · λ· K ×V →V a b λ·a := c d λ·c λ·b λ·d Donc V est un espace vectoriel. 5. Soit X un ensemble non-vide et V := Map(X, R) = {f → X → R}, avec V ×V f +g + →V :X→R x 7→ f (x) + g(x) + K ×V λ·f →V :X→R x 7→ λ · f (x) Pour tout f, g ∈ X, λ ∈ R. Alors (V, +, ·) est un espace vectoriel réel (un espace vectoriel sur R). 6. Soit V := R>0 , et K := R. On définit l’addition comme 20 V ×V v⊕w ⊕ →V := v · w et la multiplication comme K ×V λ•w ⊕ →V := v λ On peut montrer que (V, ⊕, •) est un R-espace vectoriel. Remarque 3.8. Si l’on définissait dans l’exemple (iv) la multiplication telle que · λ· K ×V →V a b λ·a := c d c λ·b d On aurait pas un espace vectoriel, car 1 1 0 0 0 0· = 6= 1 1 1 1 0 0 0 Lemme 3.9. Soit W un K-espace vectoriel, alors V = Map(X, W ) est un K espace vectoriel. Propriété 3.10. Dans un K-espace vectoriel, on a 1. λ · 0v = 0v 2. 0 · v = 0v ∀λ ∈ K ∀v ∈ V 3. λ · v = 0v =⇒ λ = 0 ∨ v = 0v 4. (−λ) · v = λ · (−v) = −(λ · v) ∀λ ∈ K, v ∈ V ∀λ ∈ K, v ∈ V Démonstration. 1. λ · 0v = λ · (0v + 0v ) = λ · 0v + λ · 0v λ · 0v + (−λ · 0v ) = λ · 0v + (λ · 0v + (−λ · 0v )) = λ · 0v (−λ·0v )+ =⇒ 0v = (iii) Soit λ · v = 0v . — Supposons que λ 6= 0, et montrons que v = 0v . On a λ−1 λ · 0v =⇒ v = λ−1 · λ · v = λ−1 · 0v = 0v Définition 3.11 (Sous-espace vectoriel). Soit V un K-espace vectoriel. Un sous ensemble W ⊂ V est un sous-espace vectoriel de V si 1. W 6= ∅ 2. v, w ∈ W =⇒ v + w ∈ W 3. v ∈ W, λ ∈ K =⇒ λ · v ∈ W ∴ (v ∈ W =⇒ −v ∈ W ) 21 Remarque 3.12. Soit W un sous-espace vectoriel du K-espace vectoriel V , alors (W, +, ·) est un K-espace vectoriel lui-même Exemple 3.13. — {0} — R 1. Les sous-espaces vectoriels du R-espace vectoriel R sont 2. Les sous-espaces vectoriels du C-espace vectoriel C sont {0} et C 3. Les sous-espaces vectoriels du R-espace vectoriel V = R2 sont {0}, R2 , et toutes les droites passant par 0 (= {λ · v| λ ∈ R}, v ∈ R2 , v 6= 0). 4. Les sous-espaces vectoriels du Z /3 Z-espace vectoriel V := Z /3 Z × Z /3 Z sont {0}, V et toutes les « droites » (= {λ · v| λ ∈ Z /3 Z}, v ∈ V, v 6= 0) 5. Soit p un premier et V := (Z /p Z)n . Un code linéaire est un sous-espace vectoriel W ⊂ V 1 . En particulier, on a 0 0 0 0 W := , 1 0 1 0 1 0 1 0 , , 1 0 1 0 1 1 1 0 , , 0 1 0 0 1 1 , 1 1 =⇒ W est un sous-espace vectoriel de (Z /2 Z)4 . On a la propriété particulière que deux vecteurs différents de W se distinguent à au moins deux places. s’il y a un problème lors de la transmission, cette erreur pourra être détectée (mais pas corrigée) Par exemple, si l’on reçoit (1 1 0 1), on remarquera qu’il y a une erreur. 6. Soient V := Map([0, 1], C) = {f : [0, 1] → C} et W := {f ∈ V | f (0) = 0} =⇒ W est un sous-espace vectoriel de V . v1 5v1 + 3v3 = 0 =⇒ W 7. Soient V = R3 et W := v = v2 v + 2v2 − v3 = 0 v3 1 est un sous-espace vectoriel de R3 . On peut calculer que W est une droite de R3 par zéro. v1 2 8. Soient V := R2 et W := = 0 . W est non-vide. Pov + v 1 2 v2 −1 1 λ=−1 sons v = ∈ W , mais λ · v = 6∈ W , donc W n’est 1 −1 pas un sous-espace vectoriel. Lemme 3.14. Soit V un K-espace vectoriel. 1. Soit V1 , V2 deux sous-espaces vectoriels de V , alors V1 ∩ V2 est un sousespace vectoriel de V . 1. Si p = 2, on appelle W code binaire. 22 2. Soit I un ensemble et pour tout i ∈ I un sous-espace vectoriel Vi ⊂ V . Alors \ Vi i∈I est un sous-espace vectoriel. Remarque 3.15. Soient V1 = {(λ, 0) ∈ R2 | λ ∈ R}, V2 = {(0, λ) ∈ R2 | λ ∈ R} deux sous-espaces vectoriels de R. Or remarque que l’addition n’est pas stable, car (1, 0) + (0, 1) 6∈ V1 ∪ V2 , donc V1 ∪ V2 n’est pas un sous-espace vectoriel. 3.2 Application linéaire Définition 3.16 (Application linéaire, isomorphisme). 1. Une application f : V → W entre deux K-espaces vectoriels est dite application linéaire (ou homomorphisme) si ∀v, w ∈ V, f (v + w) = f (v) + f (w) ∀v ∈ V, λ ∈ K, f (λ · v) = λ · f (v) ≡ 2. Une application linéaire f est dite isomorphisme (et l’on écrit alors f : V → W ou V ≡ W , « V est isomorphe à W ») si elle est bijective. 3. Une application linéaire f : V → V est dite endomorphisme. 4. Une application linéaire f : V → V est dite automorphisme si elle est bijective. Lemme 3.17. Soit f : V → W une application linéaire, V, W deux K-espaces vectoriels. Alors 1. L’image im(f ) := f (V ) := {f (v)| v ∈ V } est un sous-espace vectoriel de W. 2. Le noyau ker(f ) := f −1 ({0}) := {v ∈ V | f (v) = 0} est un sous-espace vectoriel de V . 3. f est injective ⇐⇒ ker(f ) = {0} 4. Si f est un isomorphisme, l’application réciproque f −1 : W → V, f (v) 7→ v est également un isomorphisme d’un K-espace vectoriel. Démonstration. 1. — im(f ) 6= ∅ ∵ f (0) ∈ im(f ) — w1 , w2 ∈ im(f ) =⇒ w1 + w2 ∈ im(f ) : Soient v1 , v2 ∈ V avec f (v1 ) = w1 , f (v2 ) = w2 =⇒ f (v1 + v2 ) = f (v1 ) + f (v2 ) = w1 + w2 =⇒ w1 + w2 ∈ im(f ). — w ∈ im(f ), λ ∈ K =⇒ λ · w ∈ im(f ) : Soit v ∈ V avec f (v) = w =⇒ f (λ · v) = λ · f (v) = λ · w ∈ im(f ). Donc im(f ) est un sous-espace vectoriel de W . 2. — ker(f ) 6= ∅ ∵ 0 ∈ ker(f ) 23 — w1 , w2 ∈ ker(f ) =⇒ w1 + w2 ∈ ker(f ) : f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0 + 0 = 0 =⇒ v1 + v2 ∈ ker(f ) — w ∈ ker(f ), λ ∈ K =⇒ λ · w ∈ ker(f ) : f (λ · v) = λ · f (v) = λ · 0 = 0 =⇒ λ · v ∈ ker(f ) Donc ker(f ) est un sous-espace vectoriel de V . f injective 3. ⇒ Soit f injective et v ∈ ker(f ) =⇒ f (v) = 0 = f (0) =⇒ v = 0 =⇒ ker(f ) = {0}. ⇐ Soit ker(f ) = {0} et soient v, w ∈ V avec f (v) = f (w), on veut montrer que v = w. On a f (v) = f (w) =⇒ f (v) − f (w) = 0 =⇒ f (v) + f (−w) = 0 =⇒ f (v − w) = 0 =⇒ v − w ∈ ker(f ) =⇒ v − w = 0 =⇒ v = w donc f est injective. 4. f −1 : W → V, f (v) 7→ v est bijective est clair. On veut montrer que f −1 est linéaire. — On veut montrer que f −1 (w1 + w2 ) = f −1 (w1 ) + f −1 (w2 ). Prenons w1 , w2 ∈ W , et v1 , v2 ∈ V tels que f (v1 ) = w1 et f (v2 ) = w2 . f (λ · w) = λ · f (w) λ=−1 =⇒ f (−w) = −f (w) f −1 On a w1 + w2 = f (v1 ) + f (v2 ) = f (v1 + v2 ) =⇒ f −1 (w1 + w2 ) = f −1 (f (v1 + v2 )) =⇒ f −1 (w1 + w2 ) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ). — On veut montrer que f −1 (λ · w) = λ · f −1 (w). f −1 Soient v ∈ V tels que f (v) = w =⇒ f (λ · v) = λ · f (v) = λ · w =⇒ f −1 (λ · w) = λ · v = λ · f −1 (w). Remarque 3.18. Soit f une application linéaire, alors f (0V ) = 0W . Définition Pn 3.19 (Trace d’une matrice). La trace d’une matrice M n × n est la somme k=1 Mk,k . a b Exemple 3.20. 1. Soit V = M(2×2, R), V := A = | a, b, c, d ∈ R , f : V → c d R, A 7→ a + b Montrons que f est linéaire. 0 0 0 a b a b a b0 0 Soit A0 = , alors f (A+A ) = f + = c0 d0 c d c0 d0 a + a 0 b + b0 f = (a + a0 ) + (d + d0 ) = (a + d) + (a0 + d0 ) = c + c0 d + d 0 f (A) + f (A0 ). a b λ·a λ·b Et f (λ · A) = f λ · =f = λ·a+λ·d = c d λ·c λ·d λ · (a + d) = λ · f (A). Donc f est linéaire. Montrons que f est surjective. a b On a ker(f ) = | a, b, c ∈ R est un sous-espace vectoriel de c −a V. 24 v1 v2 4 7 v1 + v2 + v3 + v4 2. Soit f : (Z /2 Z) → Z /2 Z, v3 → v4 [0] [1] Par exemple, f [1] = [0] + [1] + [1] + [1] = [1]. On peut vérifier [1] que f est linéaire. 4 =⇒ ker(f ) est un sous-espace vectoriel de (Z /2 Z) et est équivalent au code binaire dont nous parlions. 3. Soit V := Map([0, 2], C) = {g : [0, 2] → C} et soit α : V → C, α(g) := g(1) =⇒ α est une application linéaire du C-espace vectoriel : Montrons que α est linéaire. α(g1 + g2 ) = (g1 + g2 )(1) = g1 (1) + g2 (1) = α(g1 ) + α(g2 ) α(|{z} λ ·g = (λ · g)(1) = λ · g(1) = λ · α(g) λ∈C Montrons que α est surjective. ker(α) = {f : [0, 2] → C | f (1) = 0} est un sous-espace vectoriel. 4. Soit C 0 (R, R) le R-espace vectoriel de toutes les fonctions continues R → R. C 0 (R, R) := {f : R → R | f est continue } C 1 (R, R) := {f : R → R | f est différentiable et f ’ est continue } Pour exercice : la dérivation D : C 1 (R, R) → C 0 (R, R), f 7→ f 0 est une application linéaire. 3.3 Bases Définition 3.21 (Combinaison linéaire, base). Soit V un K-espace vectoriel 1. Soit v1 , v2 , . . . , vr ∈ V (r vecteurs de V ). Un vecteur v ∈ V est dit une combinaison linéaire de v1 , v2 , . . . , vr s’il Pr existe λ1 , λ2 , . . . , λr ∈ K tel que v = k=1 λk vk . Pr La combinaison linéaire k=1 0 · vk est dite combinaison linéaire triviale. 25 2. Le sous-espace vectoriel (la famille génétratrice), qui génère v1 , v2 , . . . , vr (fini) est VectK (v1 , v2 , . . . , vr ) := {v ∈ V |v est une combinaison linéaire de v1 , v2 , . . . , vr } 3. Soit I un ensemble quelconque et vi ∈ V ∀i ∈ I, un vecteur v ∈ V est une combinaison linéaire de (vi )i∈I s’il existe un sous-ensemble fini {i1 , . . . , ir } ⊂ I et λ1 , . . . , λr ∈ K avec v = λ1 v1 + λ2 v2 + · · · + λr vr 4. Le sous-espace vectoriel générateur des vi , i ∈ I est VectK (vi )i∈I := {v ∈ V |v est une combinaison des vi , i ∈ I}. Alors VectK (vi )i∈I est l’ensemble des combinaisons linéaires des vecteurs de (vi )i∈I . Si I = ∅, VectK (vi )i∈I := {0}. Notation 3.22. r X λi vi |λi ∈ K, ∀i = 1, 2, . . . , t} VectK (v1 , v2 , . . . , vr ) =:< v1 , v2 , . . . , vr >:= K ·v1 +K ·v2 +· · ·+K ·vr =: { i=1 3 Exemple 3.23. V =R 1 0 v1 = 0 , v2 = 1 0 0 Le plan x, y de R = Vect(v1 , v2 ) Remarque 3.24. 1. VectK (vi )i∈I est un sous-espace vectoriel de V . 2. Le sous-espace vectoriel VectK (vi )i∈I est l’intersection de tous les sousespaces vectoriels W ⊂ V qui contiennent vi VectK (vi )i∈I = \ W W ⊂V vi ∈W,∀i∈I 1 1 0 1. Soit V = R3 , soient v1 = 0 , v2 = 1 , v3 1 , v4 = 0 0 0 Exemple 3.25. 0 −1 . 1 On voit que v2 est une combinaison linéaire de v1 et v2 : v3 = 1v1 + 1v2 et v2 est une combinaison linéaire de v1 et v3 : v2 = −1v1 + 1v3 . v4 n’est pas une combinaison linéaire de v1 , v2 , v3 . On a Vect(v1 , v2 ) = Vect(v1 , v3 ) = Vect(v2 , v3 ) = Vect(v1 , v2 , v3 ) = {x ∈ R3 |x3 = 0} et Vect(v1 , v2 , v4 ) = R3 = V . 26 0 .. . 0 2. Soient K un corps et ei := 1 ∈ K (1 est à la i-ème ligne). Par 0 . .. 0 1 exemple, ei = 0 , etc. On appelle (e1 , e2 , . . . , en ) la base canonique ··· de Kn . λ1 λ1 Soit v = . =⇒ v = λ1 e1 + λ1 e1 + · · · + λn en . Donc Kn = .. λn Vect(e1 , e2 , . . . , en ). De plus, soit λ1 e1 + · · · + λn en = 0, alors λ1 = · · · = λn = 0 (c’est-à-dire que la combinaison triviale est la seule façon de former 0 dans cette base) 3. Soit V := Map(I, R) = {f : I → R}, I = [0, 1]. Pour tout i ∈ I, soit 0, t 6= i vi : I → R, t 7→ 1, t = 1 Cela implique que Vect(vi )i∈I = {f : I → R |f est presque partout nulle } (c’est-à-dire que f est nulle, sauf à un nombre fini de points). 6= V . Définition 3.26 (Dimension finie, infinie). Soit V un K-espace vectoriel. Alors on dit que V est de dimension finie s’il existe v§ , v2 , . . . vr ∈ V tels que V = Vect(v1 , v2 , . . . , vr ) (dim V < ∞). Si V n’est pas de dimension finie, V est de dimension infinie (dim V = ∞)). Remarque 3.27. — Kn est de dimension finie — Map(I, R) est de dimension infinie Définition 3.28 (Dépendance linéaire). Soit V un K-espace vectoriel et v1 , v2 , . . . , vr ∈ V. Alors on dit que v1 , . . . , vr sont linéairement indépendants (ou libres) si λ1 v1 + · · · + λr vr = 0 =⇒ λ1 = · · · = λr = 0 Si v1 , . . . , vr ne sont pas linéairement indépendants, ils sont dits linéairement dépendants. 1 0 1 Exemple 3.29. 1. Soient v1 = 0 , v2 = 1 , v3 = 1 . 0 0 0 27 (v1 , v2 ) 0 sont linéairement indépendants : λ1 v1 + λ2 v2 = 0 =⇒ 0 0 0 λ1 0 + λ2 1 = 0 =⇒ λ2 = 0 , donc λ1 = 0 0 0 0 1 λ1 0 0 λ2 = 0. (v1 , v2 , v3 ) sont linéairement dépendants. 2. Soit V = Kn =⇒ e1 , e2 , . . . , en sont linéairement indépendants. En effet, 0 0 λ1 e1 + λ2 e2 + · · · + λn en = . .. 0 λ1 λ2 =⇒ . .. λn Ce qui est immédiat. 3. Soit K = Z /5 Z, V = K 3. On note r pour [r]. 2 3 0 Soient v1 = 1 , v2 = 0 , v3 = 1 sont linéairement dé0 2 1 0 5 pendants, car 1v1 + 1v2 + (−1)v3 = 0 = 0 . 0 0 √ 4. Soit V un Q-espace vectoriel, V := R √=⇒ 1, 2 sont linéairement indépendnats. Pour exercice. Notons que 2 ∈ Q. Définition 3.30 (Famille). Soit V un K-espace vectoriel et (vi )i∈I une famille de vecteurs dans V (c’est-à-dire que I est un ensemble et vi ∈ V pour tout i ∈ I). Alors (vi )i∈I est dite linéairement indépendante si pour tout sous-ensemble J = {ii , . . . , ir } ⊂ I les vecteurs vi1 , . . . , vir sont indépendants. vi , i ∈ I sont linéairement indépendants ⇐⇒ ∀i1 , · · · ir ∀r ∈ N λ1 vi1 + · · · + λr vir =⇒ λ1 = · · · = λr = 0. La famille (vi )i∈I est dite linéairement dépendante si elle n’est pas linéairement indépendante. Remarque 3.31. Les vecteurs vi , i ∈ I sont linéairement indépendants si pour tout λi , i ∈ I presque tous nuls on a X λi vi = 0 =⇒ λi = 0 ∀i ∈ I i∈I 28 C’est-à-dire qu’il y a un nombre fini d’exceptions Lemme 3.32. Les propositions suivantes sont équivalentes : 1. (vi )i∈I sont linéairement indépendants. 2. tout vecteur v ∈ Vect(vi )i∈I preuvent s’exprimer comme une combinaison unique de vi , i ∈ I. P Démonstration. (i) =⇒ (ii) Soient v = i∈I λi vi , λi = 0 ⇐⇒ i ∈ J, J ⊂ P e Je ⊂ I I un ensemble dénombrable et v = i∈I λei vi , λei = 0 ⇐⇒ i ∈ J, un ensemble dénombrable. ei . Montrons que pour tout i ∈ I, λi = λ On a X X X e i vi = e 0)vi 0=v−v = λi v i − λ (λi − λ | {z }i i∈I i∈I i∈I = ei ∀i ∈ J ∪ Je =⇒ λi = e donc λi = λ Et cela par (i) pour tout i ∈ J ∪ J, e λi ∀i ∈ I. P (ii) =⇒ (i) Soient λi ∈ K, i ∈ I presque tous nuls et soit i∈I λi vi = 0. Montrons que λi = 0 ∀i ∈ I. =⇒ X i∈I 0v1 = 0 = X (ii) λi vi =⇒ λi = 0 ∀i ∈ I i∈I Remarque 3.33. Soient r ≥ 1 et soient v1 , . . . , vr ∈ V , V un K-espace vectoriel. Alors les vecteurs v1 , . . . vr sont linéairement dépendants ssi ∃j ∈ {1, . . . , r} avec vj une combinaison des vi , i 6= j. Démonstration. ⇒ Soient v1 , . . . , vr linéairement indépendants, =⇒ qu’il existe λ1 , . . . , λr ∈ K P λj 6=0 pas tous nuls avec λ1 v1 + · · · + λr vr = 0 =⇒ λj vj = − i6=j λi vi =⇒ vi = P −λi i6=j λj vi donc vi est une combinaison linéaire des vi , i 6= j. P Pr λj ⇐ Soit vj = i6=j λi vi et λj := −1 =⇒ i=1 λi vi = 0 =⇒ vi , . . . , vr linéairement dépendants. Remarque 3.34. On a VectK (vi )i∈I est le plus petit sous-espace vectoriel de V qui génère tous les vi , i ∈ I. Définition 3.35 (Base). Soit V un K-espace vectoriel et (vi )i∈I une famille. Alors on dit que (vi )i∈I est une base de V si 1. Vect(vi )i∈I = V . 2. (vi )i∈I est linéairement indépendante. 29 n 1. (e1 , . . . , en ) est une base de K , où ei = Exemple 3.36 (Base). 0 ... 0 1 0 ... 0 ← λ1 λ2 i-ème place ; elle est appelée base canonique. Soit v ∈ K , v = . . . , λ1 , λ2 , . . . , λn ∈ λn K =⇒ v = λ1 e1 + λ2 e2 + · · · + λn en est une unique combinaison linéaire. n 2. Soit V le R-espace vectoriel avec V := C. On a B = (1, ı) une base, car tout le plan complexe peut être généré comme λ1 · 1 + λ2 · ı, ∀λ1 , λ2 ∈ R. 3 0 1 3. Soient v1 = 1 , v2 = 2 , v3 = 1 , v1 , v2 , v3 ∈ Q3 . Alors 0 1 −3 3 (v1 , v2 , v3 ) est une base de Q car tous les vecteurs de Q3 peuvent être engendrés par ceux-cis. Démonstration. Montrons que v1 , v2 , v3 sont linéairement indépendants. Soient λ1 , λ2 , λ3 ∈ Q avec λ1 v1 + λ2 v2 + λ3 v3 = 0. Montrons que λ1 = λ2 = λ3 = 0. On a 1 0 3 λ1 · 1 + λ2 · 2 + λ3 · 2 = −3 1 0 λ3 = 3λ2 λ1 = −3λ3 = −9λ2 =⇒ −9λ2 + 2λ2 + 6λ2 = −λ2 = 0 0 λ1 + 3λ3 0 =⇒ λ1 + 2λ2 + 2λ3 0 −3λ2 + λ3 =⇒ λ1 = λ2 = λ3 = 0 Montrons que Q3 =< v1 , v2 , v3 > a Soit v = b ∈ Q3 . Montrons que λ1 v1 + λ2 v2 + λ3 v3 = v a une c solution. On a a b c 1 0 3 = λ1 · 1 + λ2 · 2 + λ3 · 2 0 −3 1 ⇐⇒ λ1 + 3λ3 = a, λ1 + 2λ2 + 2 · λ3 = b, −3λ2 + λ3 = c ⇐⇒ λ1 = a − 3λ3 , λ3 = c + 3λ2 , λ1 + 2λ2 + 2λ3 = b ⇐⇒ λ1 = −8a + 9b + 6c, λ2 = a − b − c, λ3 = 3a − 3b − 2c 30 =0 =0 =0 On en déduit que Q3 = VectQ (v1 , v2 , v3 ). Remarque 3.37. ⇐⇒ v 6= 0 1. Soit v ∈ V , alors (v) est linéairement indépendant 2. Soit V = K, v ∈ V , alors (v) est une base ⇐⇒ v 6= 0. 3. Soit V = K2 , v1 , v2 ∈ V , alors (v1 , v2 ) est une base ⇐⇒ v1 n’est pas multiple de v2 et v2 n’est pas multiple de v1 . Propriété 3.38. Soit V un K-espace vectoriel, V 6= {0}, B = (v1 , . . . , v3 ), v1 , . . . , vn ∈ V . Alors les propositions suivantes sont équivalentes, 1. B est une base de V . 2. B est la plus petite famille génératrice de V , c’est-à-dire que V = VectK (v1 , . . . , vn ) et VectK (vi )i6=j 6= V, ∀j = 1, . . . , n. 3. B est la plus grande famille linéairement indépendante, c’est-à-dire que (v1 , . . . , vn ) sont linéairement indépendants et que (v, v1 , . . . , vn ) est linéairement dépendant pour tout v ∈ V . Démonstration. (i) =⇒ (ii) B est une base =⇒ (v1 , . . . , vn ) est une famille génératrice, c’est-à-dire que < v1 , . . . , vn >= V . Montrons que (v1 , . . . , vn ) est une famille génératrice minimale par l’absurde. Soit Vect(vi )i6=j = V =⇒ vj ∈ Vect(vi )i6=j =⇒ v1 , . . . , vn sont linéairement dépendants. On a donc une contradiction, Donc Vect(vi )i6=j 6= V , donc B est la plus petite famille génératrice. (ii) =⇒ (iii) Soient (v1 , . . . , vn ) une famille génératrice minimale. Pour tout v ∈ V , (v, v1 , . . . , vn ) est linéairement dépendante car v est une combinaison linéaire de v1 , . . . , vn . Montrons que (v1 , . . . , vn ) est linéairement indépendante. Supposons que ce n’est pas lePcas, c’est-à-dire que ∃j, λj 6= 0 =⇒ vj ∈< v1 , . . . , vj−1 .vj+1 , . . . , vn > =⇒ vj = − i6=j λλji vi =⇒ V =< v1 , . . . , vn >=< v1 , . . . , vj−1 .vj+1 , . . . , vn >, c’est en contradiction avecle fait que < Base est une famille génératrice minimale, donc λj = 0∀j et v1 , . . . , vn est linéairement indépendante. (iii) =⇒ (i) Soit (v1 , . . . , vn ) une plus grande famille linéairement indépendante =⇒ (v1 , . . . , vn ) linéairement indépendants. Montrons que v1 , . . . , vn génèrent V . B plus grande famille génératrice Soit v ∈ V =⇒ (v, v1 , . . . , vn ) est linéairement dépendante =⇒ il existe λ, λ1 , . . . , λn ∈ K pas tous nuls avec λ · v + λ1 · v1 + · · · + λn · vn =P 0 =⇒ λ 6= 0, car v1 , . . . , vn sont linéairement n i indépendants =⇒ v = i=1 −λ · vi =⇒ v ∈< v1 , . . . , vn >, domnc λ V =< v1 , . . . , vn >, donc B = (v1 , . . . , vn ) est une base de V . Corollaire 3.39. Soit V un K-espace vectoriel de dimension non-finie. Alors V décrit une famille non-finie (vi )i∈N linéairement indépendante. 31 Démonstration. — dim V = ∞ =⇒ V 6= {0} =⇒ ∃v ∈ V, v 6= 0 =⇒ (v) est linéairement indépendante. — Soient v1 , . . . , vn ∈ V linéairement indépendants. Montrons qu’il existe vn+1 ∈ V avec v1 , . . . , vn , vn+1 linéairement indépendants. Supposons que v, v1 , . . . , vn est linéairement indépendant ∀v ∈ V =⇒ v ∈< v1 , . . . , vn ) ∀v ∈ V =⇒ V =< v1 , . . . , vn > =⇒ dim V < ∞, ce qui est en contradiction avec l’hypothèse dim V = ∞. Donc il existe vn+1 := v ∈ V avec (v1 , . . . , vn , vn+1 linéairement indépendants. Théorème 3.40 (Conséquence du théorème de la base incomplète (Basisauswahlsatz)). Soit (v1 , . . . , vn ) une famille génératrice du K-espace vectoriel V , c’est-à-dire que V =< v1 , . . . , vn >. Alors il existe {ii , i2 , . . . , ir } ⊂ {1, 2, . . . , n} tel que (vi1 , vi2 , . . . , vir ) est une base de V . Démonstration. 1. Supposons que (vi )i6=j n’est pas une famille génératrice de V , c’est-à-dire que Vect(vi )i6=j 6= V =⇒ (v1 , . . . , vn ) est une famille génératrice minimale =⇒ (v1 , . . . , vn ) est une base de V. 2. Supposons que j ∈ {1, . . . , n} tels que (v1 , . . . , vj−1 , vj+1 , . . . , vn ) est une famille génératrice. Alors on remplace (v1 , . . . , vn ) par (vi )i6=j est on retourne au début de la preuve. Après un nombre fini d’itérations on déduit que c’est une base de V . Définition 3.41 (Dimension d’un espace vectoriel). Soit V un K-espace vectoriel. Alors la dimension de V (notée dim V ) est définie comme n si V possède une base de n éléments dim V := ∞ sinon Corollaire 3.42. Tout espace à dimension finie possède un base. Pn Lemme 3.43. Soit B = (v1 , . . . , vn ) une base de V et w = i=1 λi · vi avec λk 6= 0. Alors B 0 := (v1 , . . . , vk−1 , w, vk+1 , . . . , vn ) est une base de V . Démonstration. Par commutation de v1 , . . . , vn , on peut accepter que k = 1 et λ1 6= 0, donc w = λ1 · v1 + λ2 · v2 + · · · + λn · vn . Montrons que (w, v2 , . . . , vn ) est une base. Montrons que V = Vect(w, v2 , . . . , v) . On a w = λ1 · v1 + λ2 · v2 + · · · + Pn λn · vn , λ1 6= 0 =⇒ v1 = λ11 w − i=2 λλ1i · vi λv1 ∈ Vect(w, v1 , . . . , vn ) =⇒ Vect(w, v2 , . . . , vn ) = Vect(w, v1 , v2 , . . . , vn ) = V . Montrons que (w, v2 , . . . , vn ) est linéairement indépendante. Soient µ · w + µ2 · v2 + · · · + λn · vn ) = 0 =⇒ µ · (λ1 · v1 + · · · + λn · vn ) + µ2 · v2 + · · · + µn · vn = 32 0 =⇒ (µ · λ1 ) · v1 + (µ · λ2 + µ2 ) · v2 + · · · + (µ · λn + µn ) · vn = 0 v1 ,...,vn lin. indép. =⇒ λ1 6=0 µ · λ1 = 0, µ · λ2 + µ2 = 0, . . . , µ · λn + µn = 0 =⇒ µ = 0, µ2 = 0, . . . , µn = 0. Donc w, v2 , . . . , vn sont linéairement indépendants, donc B 0 est une base. Lemme 3.44 (Lemme de Steinitz). Soit V un K-espace vectoriel et B = (v1 , . . . , vn ) une base de V . Soient w1 , . . . , wr ∈ V linéairement indépendants. Alors on a 1. r ≤ n. 2. Il existe r vecteurs dans vi1 , . . . , vir ∈ B tels que par substitution de vi1 , . . . , vir par w1 , . . . , wr , on a toujours une base de V . Démonstration. Par induction r = 0 Alors il n’y a rien à montrer. r−1 r Soit B = (v1 , . . . , vn ) une base de V et (w1 , . . . , wr ) une famille linéairement indépendante. Alors (w1 , . . . , wr−1 ) sont également linéairement indépendants. On peut donc échanger r − 1 vecteurs de la base B avec w1 , . . . , wr−1 et avoir à nouveau une base. Après échange on peut accepter que les v1 , . . . , vn sont échangés avec v1 , . . . , vr−1 et que (w1 , . . . , wr−1 , vr , vr+1 , . . . vn ) est une base de V . Par hypothèse d’induction r − 1 ≤ n. Réfléchissons par l’absurde et supposons que r − 1 = n = dim V =⇒ (w1 , . . . , wr+1 , wr ) sont linéairement dépendnants, ce qui est en contra| {z } n+1 vecteurs diction avec l’hypothèse, donc r ≤ n. On doit encore montrer qu’il existe un k ≥ r tel qu’après échange de wr par vk on a encore une base. Écrivons wr comme une combinaison linéaire de la base (w1 , . . . , wr−1 , vr , . . . , vn ), donc wr = λ · w1 + λ2 · w2 + · · · + λr−1 · wr−1 + λr · vr + · · · + λn · vn . Un λk 6= 0 pour r ≥ k ≥ n doit être différent de 0 car w1 , . . . , wr sont linéairement indépendants. Donc par le lemme 3.43 (w1 , . . . , wr−1 , vr , . . . , vk−1 , wr , vk+1 , . . . , vn ) est une base de V . 3 Exemple 3.45. Soit V = R , vi = ei , B = (v1 , v2 , v3 ) = (e1 , e2 , e2 ) la base 0 w6=0 canonique et w := 4 =⇒ (w) linéairement indépendant (r = 1), donc −3 par 3.44, ∃j ∈ {1, 2, 3} tels que par substitution de vj par w on a toujours une base. Par exemple (v1 , v2 , w) est une base de R3 , mais (w, v2 , v3 ) n’est pas une base de R3 . Corollaire 3.46. Soit V un K-espace vectoriel et (v1 , . . . , vn ), (w1 , . . . , wr ) deux bases de V , alors r = n. 33 Démonstration. D’après le lemme 3.44, r ≤ n et n ≤ r. Corollaire 3.47. Soit V un K-espace vectoriel et v1 , . . . , vn+1 ∈ V . Alors (v1 , . . . , vn+1 ) est linéairement dépendante. Démonstration. Application directe du lemme 3.44 Corollaire 3.48. Soit V un K-espace vectoriel de dimension finie et W ⊂ V un sous-espace vectoriel. Alors on a 1. dim W ≤ dim V 2. dim W = dim V ⇐⇒ V = W Démonstration. Steinitz. Théorème 3.49 (Théorème de la base incomplète). Soit V un espace vectoriel de dimension n et w1 , . . . , wr une famille linéairement indépendante. Alors il existe wr+1 , . . . , wn ∈ V tels que (w1 , . . . , wr , wr+1 , . . . , wn ) est une base de V . Démonstration. Soit (v1 , . . . , vn ) une base de V . Par le lemme de Steinitz, il existe n−r vecteurs vir+1 , . . . , vin tels que les r vecteurs restants, adjoints à w1 , . . . , wr , forment une base, c’est-à-dire que (w1 , . . . , wr , vir+1 , . . . , vin ) |{z} | {z } =wr+1 =wn est une base. Définition 3.50 (Somme). 1. Soient W1 , W2 ⊂ V deux sous-espaces vectoriels de V . La somme W1 + W2 est définie comme W1 + W2 := Vect (W1 ∪ W2 ) 2. Soient W1 , W2 , . . . , Wr ⊂ V . La somme de r sous-espaces vectoriels est définie comme r X Wr := Vect( k=1 r [ Wr ) k=1 Remarque 3.51. W1 + · · · + Wr := ( r X ) wi |wi ∈ Wi i=1 Exemple 3.52. 1. Soit Wi ⊂ R3 un sous-espace vectoriel de dimension 2 (un plan) et W2 ⊂ R3 un sous-espace vectoriel de dimension 1 (droite). On a deux cas W2 6⊂ W1 =⇒ W1 + W2 = R3 et W1 ∩ W2 = {0} = 0. On a dim(W1 + W2 ) = dim R3 = 3 = 2 + 1 = dim W1 + dim W2 − dim(W1 ∩ W2 ). 34 W2 ⊂ W1 =⇒ W1 + W1 = 1 et W1 ∩ W2 = W2 =⇒ dim(W1 + W2 ) = dim(W1 ) = 2 = 2 + 1 − 1 = dim W1 + dim W2 − dim(W1 ∩ W2 ). 2. Soient W1 , W2 ⊂ R3 deux plans, alors dim W1 = dim W2 = 2. On a deux cas W1 6= W2 =⇒ W1 + W2 = R3 et W1 ∩ W2 est de dimension 1 (droite). Donc dim(W1 + W2 ) = dim R3 = 2 + 2 − 1 = dim W1 + dim W2 − dim(W1 ∩ W2 ) W1 = W2 =⇒ W1 + W2 = W1 = W2 et W1 ∩ W2 = W1 = w2 , donc dim(W1 + W2 ) = 2 = 2 + 2 − 2 = dim W1 + dim W2 − dim(W1 ∩ W2 ). Propriété 3.53 (Formule de Grassmann). Soient W1 , W2 deux sous-espaces vectoriels de dimension finie. Alors la dimension de la somme W1 + W2 est donnée par dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ) Démonstration. Soit (v1 , . . . , vm ) une base de W1 ∩ W2 . Ils sont en particulier également linéairement indépendants dans W1 , et par le théorème de la base incomplète, on peut choisir w1 , . . . , wk ∈ W1 tels que (v1 , . . . , vm , w1 , . . . , wk ) est une base de W1 . De la même façon, on peut choisir w e1 , . . . , w el ∈ W2 tels que (v1 , . . . , vm , w e1 , . . . , w el ) est une base de W2 . Montrons que (v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el ) est une base de W1 + W2 . On a W1 = Vect(v1 , . . . , vm , w1 , . . . , wk ), W2 = Vect(v1 , . . . , vm , w e1 , . . . , w ek ) =⇒ W1 + W2 = (v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el ) On doit encore montrer que v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el sont linéairement indépendants. Soit l k m X X X µ es · w es = 0 µj · wj + λi · vi + i=1 | s=1 j=1 {z } =:v Pl es · w es ∈ W2 , donc v ∈ W1 ∩W2 , On remarque que v ∈ W1 , mais v = − s=1 µ donc comme (v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el ) est une base de W1 ∩ W2 , tous Pm Pl les coefficients µ1 = · · · = µk = 0, donc i=1 λi ·vi + s=1 µ es · w es = 0, et comme comme (v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el ) sont linéairement indépendnats, on a finalement λ1 = · · · = λm = µ e1 = · · · = µ el = 0. Donc (v1 , . . . , vw , w1 , . . . , wk , w e1 , . . . , w el ) sont linéairement indépendants, donc ils sont une base de W1 + W2 . Finalement, on a 35 =dim W1 dim(W1 +W2 ) = z }| m |{z} { m+l=dim W2 = dim W1 +dim W2 −dim(W1 ∩W2 ) +k +l =dim(W1 ∩W2 ) Notation 3.54 (Droite, plan, hyperplan). Soit V un espace vectoriel de dimension n, alors un sous-espace vectoriel de dimension 1 est dit droite, un sous-espace vectoriel de dimension 2 est dit plan et un sous-espace vectoriel de dimension (n − 1) un hyperplan. Définition 3.55 (Somme directe). 1. Soient W1 , W2 des sous-espaces vectoriels de V , alors V est la somme directe de W1 et W2 (notée V = W1 ⊕ W2 ) si (a) V = W1 + W2 (b) W1 ∩ W2 = {0} = 0 2. Soient W1 , . . . , Wk des sous-espaces vectoriels de V . Alors V est la somme directe de W1 , . . . , Wk , V = W1 ⊕ W2 ⊕ · · · ⊕ Wk si (a) V = W1 + · · · + Wk (b) ∀wi ∈ Wi , wi 6= 0, (w1 , . . . , wk ) linéairement indépendants Lemme 3.56. Soit V = W1 + W2 . Alors les propositions suivantes sont équivalentes : 1. V = W1 ⊕ W2 2. Tout vecteur v ∈ V s’exprime de façon unique comme une combinaison linéaire v = w1 + w2 , w1 ∈ W1 , w2 ∈ W2 Démonstration. (i) =⇒ (ii) Soit v = w1 + w2 = w e1 + w e2 avec w1 , w e1 ∈ W1 et w2 , w e2 ∈ W2 . Montrons que w1 = w e1 , w2 = w e2 . On a w1 + w2 = w e1 = w e2 =⇒ w1 − w e =w e − w ∈ W1 ∩ W2 = {0} =⇒ | {z }1 | 2 {z }2 ∈W1 ∈W2 w1 − w e1 = 0 ∧ w e2 − w2 = 0 =⇒ w1 = w e1 ∧ w e2 = w2 . (ii) =⇒ (i) Soit v ∈ W1 ∩ W2 . Montrons que v = 0. unicité On a v =: w1 ∈ W1 , v =: w2 ∈ W2 =⇒ w1 + 0 = v = 0 + w2 =⇒ w1 = 0, 0 = w2 =⇒ v = 0 =⇒ W1 ∩ W2 = {0}. Lemme 3.57. Soit V = W1 + W2 , alors V = W1 ⊕ W2 ⇐⇒ ∀w1 ∈ W1 , w1 6= 0, ∀w2 ∈ W2 , w2 6= 0, (w1 , w2 ) linéairement indépendants. Définition 3.58 (Projection). Soit V = W1 ⊕W2 et v = w1 +w2 , w1 ∈ W1 , w2 ∈ W2 . Deux applications p1 : V → W1 , v 7→ w1 , p2 : V → W2 , v 7→ w2 sont dites projections de la somme directe. 36 Propriété 3.59. 1. pi : V → Wi est un épimorphisme (homomorphisme linéaire et surjectif ) 2. pour p1 : W 1 ⊕ W2 → W1 , ker p1 = W2 . Définition 3.60 (Sous-espace complémentaire). Deux sous-espaces vectoriels W1 , W2 ⊂ V sont dits complémentaires si V = W1 ⊕ W2 . 3 Exemple 3.61. 1. Soit V = R , W1 = Vect(e1 , e3 ), W2 = Vect(v) avec x1 v := x2 . Alors W1 et W2 sont complémentaires ssi x2 6= 0. x3 a 0 a b 2. Soit M(2×2, R), et W1 := |a ∈ R , W2 := |a, b, c ∈ R . c −a 0 0 0 0 On voit que W1 ∩ W2 = = 0 et W1 + W2 = V , donc 0 0 V = W1 ⊕ W2 , donc W1 est complément de W2 . On note que dim M(2 × 2, R) = 4, dim W1 = 1, dim W2 = 3, dim(W1 ∩ W2 ) = 0, or par la formule de Grassmann, on a dim(W1 + W2 ) = 1 + 3 − 0 = 4 =⇒ W1 + W2 = M(2 × 2, R). Lemme 3.62. Soit V un K-espace vectoriel de dimension finie (mais c’est également vrai pour la dimension infinie), et W ⊂ V un sous-espace vectoriel, alors il existe un complément W 0 ⊂ V à W , c’est-à-dire ∃W 0 ⊂ V, V = W ⊕W 0 . Démonstration. Comme dim V < ∞ =⇒ dim W < ∞. Soient (v1 , . . . , vr ) une base de W . Par le théorème de la base incomplète, il existe des vecteurs vr+1 , . . . vn ∈ V (avec n = dim V ) tels que (v1 , . . . , vn ) est une base de V . Soit W 0 := Vect(vr+1 , . . . , vn ) =⇒ V = W + W 0 et comme les éléments de la base sont linéairement indépendants, on a W ∩ W 0 = {0}, donc W 0 est complément de W . Propriété 3.63. Soit V = W1 + . . . Wk , dim V < ∞, alors V = W1 ⊕ · · · ⊕ Wk ⇐⇒ dim V = dim W1 + · · · + dim Wk Proposition 3.64. Soit f : V → W une application entre deux K-espaces vectoriels et V de dimension finie et soit (v1 , . . . , vk ) une base de ker(f ) ⊂ V , et (w1 , . . . , wr ) une base de im(f ) ⊂ W et (u1 , . . . , ur ) ⊂ V des vecteurs tels que f (ui ) = wi (pour 1 ≤ i ≤ r). Alors (v1 , . . . , vk , u1 , . . . , ur ) est une base de V . Démonstration. V = Vect(v1 , . . . , vk , u1 , . . . , ur ) Soit v ∈ V , µ1 , . . . µr ∈ K avec f (v) = µ1 · w1 + · · · + µr · wr , v 0 := µ1 · u1 + · · · + µr · ur ∈ V =⇒ f (v 0 ) = f (v) =⇒ f (v − v 0 ) = f (v) − f (v 0 ) = 0 =⇒ v − v 0 ∈ Pk =⇒ v = ker f =⇒ ∃λ1 , . . . , λk ∈ K avec v − v 0 = i=1 λi · vi Pk Pr λ · v + µ · u ∈ Vect(v , . . . , v , u , . . . , u ). i i i i 1 k 1 r i=1 i=1 37 (v1 , . . . , vk , u1 , . . . , ur ) linéairement indépendants Soit µ1 ·u1 +· · ·+µr ·ur + λ1 ·v1 +· · ·+λk ·vk = 0 =⇒ f (µ1 ·u1 +· · ·+µr ·ur +λ1 ·v1 +· · ·+λk ·vk ) = Pk Pk Pr w lin. ind f (0) = 0 = i=1 λi · f (ui ) + i=1 λi f (vi ) = i=1 µi · wi i =⇒ µ1 = | {z } | {z } =wi =0 v lin. ind · · · = µr = 0, mais donc que λ1 · v1 + · · · + λk · vk = 0 i =⇒ λ1 = · · · = λk = 0, donc (v1 , . . . , vk , u1 , . . . , ur ) sont linéairement indépendants. Donc (v1 , . . . , vk , u1 , . . . , ur ) est une base de V . Corollaire 3.65 (Théorème du rang). Soit f : V → W une application linéaire, dim V < ∞, alors dim V = dim ker f + dim im f Démonstration. ker f + dim im f dim | {z V} = |dim{z } | {z } =k+r =k =r Corollaire 3.66. Soient V, W des K-espaces vectoriels finis, alors V ' W ⇐⇒ dim V = dim W Démonstration. =⇒ Soit V ' W , alors il existe une application bijective f : V → W . Donc dim V = dim ker f + dim im f = dim W . | {z } | {z } =0 =dim W ⇐= Soit dim V = dim W = n < ∞, (v1 , . . . , vn ) une base de V , (w1 , . . . , wn ) une base de W . Pn Pn On peut définir f : V → W, v = i=1 λi · vi 7→ f (v) := i=1 λi · wi . =⇒ f est bien définie linéaire bijective =⇒ V ' W . Remarque 3.67. Soit (vi )i∈I une base de K-espace vectoriel V et W un Kespace vectoriel et soient wi ∈ W, i ∈ I, alors ∃!f ∈ W V , f (vi ) = wi ∀i ∈ I Corollaire 3.68. Soit f : V → W une application linéaire, dim V = dim W = n < ∞, alors f injective ⇐⇒ f surjective ⇐⇒ f bijective Démonstration. f bijective =⇒ f injective Par définition. f injective =⇒ f surjective f injective =⇒ ker f = 0 =⇒ dim ker f = 0 =⇒ dim | {z V} = dim ker f + |dim{zim f} =⇒ dim im f = n = dim W =⇒ =n =n im f = W =⇒ f surjective. 38 f surjective =⇒ f bijective f surjective =⇒ dim im f = dim W = n = dim V =⇒ n = dim V = dim ker f + dim im f =⇒ dim ker f = 0 =⇒ ker f = {0} =⇒ f injective =⇒ f bijective. Propriété 3.69. Soit f : V → W une application linéaire, dim V < ∞, (w1 , . . . , wr ) une base de im f , et ui ∈ V avec f (ui ) = wi ∀i, soit U := Vect(u1 , . . . , ur ) un sous-espace vectoriel de V . Alors 1. V = U ⊕ ker f 2. La restriction f |U : U → im f est un isomorphisme 3. Soit p : V → U la projection de V = U ⊕ ker f sur U , alors f = f |U ◦ p = p ◦ f |U . Démonstration. — Soit (v1 , . . . , vk ) une base de ker f . On a montré que =u z }| { =ker f (u1 , . . . , ur , v1 , . . . , vk ) est une base de V . Donc V = Vect(u1 , . . . , ur ) ⊕ | {z } Vect(v1 , . . . , vk ) = U ⊕ ker f . — f |U : U → im f est injective, car ker(f |U ) = ker f ∩U = {0}, et f |U : U → im f est surjective car (f |U )(U ) = f (U ) = f (U ⊕ ker f ) = f (V ) = im f , donc f |U : U → im f est un isomorphisme. — Soit v ∈ V := U ⊕ ker f , et u ∈ U, w ∈ ker f avec v = u + w. Or f (v) = f (u + w) = f (u) + f (w) = f (u) et (f |U ◦ p) = (f |U )(p(v)) = | {z } =0 (f |U )(v) = f (u) =⇒ f (v) = (f |U ◦ p)(v) ∀v ∈ V =⇒ f = f |U ◦ p 3.4 Espaces vectoriels quotients Définition 3.70 (Espace vectoriel quotient). Soit V un K-espace vectoriel et W ⊂ V un sous-espace vectoriel. On définit pour v1 , v2 ∈ V, v1 ∼ v2 ⇐⇒ v 1 − v2 ∈ W . La classe d’équivalence de v ∈ V est le sous-ensemble v + W := {v + w|w ∈ W} ⊂ V . On note V /W := {v + W |v ∈ V } l’ensemble des classes d’équivalence, appelé l’ espace vectoriel quotient. Proposition 3.71. L’espace vectoriel quotient V /W avec les opérations + : V /W × V /W → V /W, (v1 + W ) + (v2 + W ) := (v1 + v2 ) + W et · : K ×V /W → V /W, λ · (v + W ) := λ · v + W est un espace vectoriel. 39 Proposition 3.72. Soit f : V → Ve une application linéaire entre deux Kespaces vectoriels. Alors f induit un isomorphisme f : V / ker f → im f . Démonstration. Soit W := ker f f est bien définie Montrons que f (v) = f (e v ) On a v + W = ve + W =⇒ v − v ∈ W = ker f =⇒ f (v − ve = 0 =⇒ f (v) = f (e v) f est linéaire f ((v1 + W ) + (v2 + W )) = f ((v1 + v2 ) + W ) = f (v1 + v2 ) = f (v1 ) + f (v2 ) = f (v1 + W ) + f (v2 + W ) et f (λ · (v + W )) = f (λ · v + W ) = f (λ · v) = λ · f (v) = λ · f (v + W ) f est injective f (v + W ) = 0 =⇒ f (v) = 0 =⇒ v ∈ ker f = W =⇒ v + W = W =⇒ f est injective f est surjective Montrons que f (V /W ) = im f . On a f (V /W ) = {f (v + W )|v ∈ V } = {f (v)|v ∈ V } = im f 40 Chapitre 4 Systèmes d’équations linéaires, Matrices, Déterminants 4.1 Méthode d’élimination de Gauss-Jordan Définition 4.1 (Système d’équation linéaire, coefficients, variables, matrice des coefficients). Soit K un corps. Alors un système d’équations linéaire est de la forme a11 · x1 + a12 · x2 + · · · + a1n · xn = b1 a21 · x1 + a22 · x2 + · · · + a2n · xn = b2 .. .. . . am1 · x1 + am2 · x2 + · · · + amn · xn = bm Ici, aik et bj dans K sont des coefficients et x1 , . . . , xn sont des variables (ou inconnues) La matrice a11 a12 . . . a1n a21 a22 . . . a2n A := . .. .. .. . . am1 am2 ... amn est la matrice des coefficients du système d’équations. La matrice augmentée des coefficients du système est a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 (A, b) := . .. .. .. .. . . . am1 am2 41 ... amn bm On note Sol(A, b) l’ensemble des solutions du système. Exemple 4.2. — Soit x1 + 2x2 = 1, xj ∈ R Ici, K = R, m = 1, n = 2, A = (1 2), 1 − 2α (A, b) = (1 2| 1), Sol(A, b) = |α ∈ R ⊂ R2 . α — x1 +x2 =1 x2 +x3 +x4 = 1 On a K = Q, xj ∈ Q, m = 2, n = 4. 1 1 0 0 1 1 0 0 1 A= , 0 1 1 1 1 0 1 1 1 α+β 1 − α − β ⊂ |α, β ∈ Q Et l’ensemble des solutions est Sol(A, b) = α β 4 Q — Soit a11 · x1 +a12 · x2 +a13 · x3 + . . . +a1(n−1) · xn−1 +a1n · xn = b1 a12 · x2 +a13 · x3 + . . . +a1(n−1) · xn−1 +a1n · xn = b1 a13 · x3 + . . . +a1(n−1) · xn−1 +a1n · xn = b1 .. . a1(n−1) · xn−1 +a1n · xn = b1 a1n · xn = b1 Avec n = m, aii 6= 0, ∀i, aij = 0 si i > j. Ce système a exactement une solution. On a xn = bi − Pn j=i+1 aij ·xj aii — x1 2x1 x1 bn ann , xn−1 = bn−1 −a(n−1)n ·xn , . . . , xi a(n−1)(n−1) . −x3 +x3 −6x3 +2x2 +3x2 +4x2 =1 =2 =2 x1 0 ⇐⇒ 0 +2x2 −x2 2x2 −x3 +3x3 −5x3 =1 =0 =1 x1 0 ⇐⇒ 0 +2x2 + − x2 Donc 1 1 2 ⇐⇒ 0 2 0 −4 Donc =⇒ Sol(A, b) = 3 1 1 (A, b) = 2 1 = 2 3 4 −1 1 −6 42 2 −1 2 −1 3 −5 1 1 0 ⇐⇒ 0 1 0 2 −1 0 −1 3 1 1 0 1 −x3 +3x3 x3 =1 =0 =1 — 2x1 −4x1 −4x2 +8x2 x2 x2 +x3 +3x3 = −2 =6 =0 =1 x4 −3x4 − 21 x4 ⇐⇒ ⇐⇒ ⇐⇒ 2x1 2x1 2x1 Onpeut 0 0 0 −2 −4x2 x2 2x2 −4x2 x2 = −2 =2 =0 −x4 = 2 x4 = −2 −x4 = 2 =0 −x4 = 2 x4 = −2 −x4 =2 =0 −7x4 = 14 x4 −x4 x3 +3x3 x3 +3x3 −6x3 −4x2 x2 x3 +3x3 faire la même chose sous forme matricielle. Donc Sol(A, b) = Définition 4.3 (Opérations élémentaires). Les opérations suivantes sont dites opérations élémentaires sur les lignes : 1. L’échange de deux lignes 2. Additions d’un multiple d’une ligne à une autre 3. Multiplication d’une ligne par un scalaire non nul Propriété 4.4. Soit (A, b) une matrice augmentée des coefficients du système d’équation et (A0 , b0 ) une matrice augmentée des coefficients après l’application d’un nombre fini d’opérations élémentaires, alors Sol(A0 , b0 ) = Sol(A, b). Exemple 4.5. 0 0 0 B := 1 2 3 1 2 6 0 3 7 0 0 8 6 1 11 7 1 12 1 2 3 3 0 1 1 ⇐⇒ 0 0 0 0 0 6 7 1 2 6 7 8 11 12 1 2 3 3 0 1 1 ⇐⇒ 0 0 3 4 8 10 11 0 0 0 0 0 6 7 On appelle cette forme échelonnée. Définition 4.6 (Matrice échelonnée). Une b11 . . . b21 . . . .. . bm1 . . . 43 matrice b1n b2n .. . bmn 1 ⇐⇒ 0 0 =: B 0 2 0 0 3 0 3 3 0 4 0 0 8 1 6 10 1 7 1 est dite échelonnée si bi1 = bi2 = · · · = bis = 0 etbi(s+1) 6= 0 =⇒ bk1 = bk2 = · · · = bk(s+1 = 0 ∀k > i Proposition 4.7. Toute matrice peut être réorganisée en une matrice échelonnée après un nombre fini d’opérations élémentaires Démonstration. Méthode d’élimination de Gauss-Jordan. Définition 4.8 (Matrice, vecteurs lignes, vecteurs colones). Soit C = (cij )i=1,...,m = (cij )ij ∈ M(m × n, K) une matrice. On dit que C est j=1,...,n une matrice (m × n) à coefficients dans K. Un vecteur colonne est une matrice (m × 1) Un vecteur ligne est une matrice (1 × n) Soit M(m × n, K) := l’ensemble de smatrices (m × n) à coefficients dans K. On remarque que M(m × n, K) avec les opérations M(m × n, K) × M(m × + · n, K)−→ M(m×n, K), (cij )ij +(c0ij )ij := (cij +c0ij )ij et K × M(m×n, K)−→ M(m× n, K), λ · (cij )ij := (λ · cij )ij est un K-espace vectoriel. On peut également voir que M(m × n, K) ' Km·n Exemple 4.9 (Produit de matrices). 1 2 11 3 4 · 1 2 3 4 = 5 6 7 8 23 5 5 14 17 30 . . . 20 (on a une matrice (3 × 4)) Définition 4.10 (Produit de matrice). Soit C := (cij )ij ∈ M(m × n, K), D := (djk )jk ∈ M(n × r, K). Alors produit C · D est définit comme C · D =: (fij )ij ∈ Ple n M(m × r, K), avec fij ) := k=1 cik · dkj . Exemple 4.11. c11 · x1 c21 · x1 .. . +... +... .. . +c1n · xn +c2n · xn .. . cm1 · x1 +... +cmn · xn C ·x= avec x = (x1 , x2 , . . . , xn )T . 44 Système d’équation comme multiplication de matrices La multiplication de matrice permet d’écrire un système d’équation linéaire de façon compacte : a11 · x1 a21 · x1 .. . am1 · x1 où A := +a12 · x2 +a22 · x2 .. . +... +... .. . +am2 · x2 +... a11 a21 .. . a12 a22 .. . ... ... .. . a1n a2n .. . +a1n · xn +a2n · xn .. . = b1 = b2 . = .. +amn · xn = bm , b := b1 b2 .. . ⇐⇒ A · x = b , x := x1 x2 .. . . bm xn am1 am2 . . . amn On peut donc écrire l’ensemble des solutions comme Sol(A, b) = {x ∈ Kn |A · x = b}. Applications linéaires comme produit de matrices Toute matrice A = (aij )ij ∈ M(m × n, K) définit une application ΦA : Kn → Km , ΦA (ek ) := A · en =⇒ ΦA (x) = A · x et réciproquement. Donc l’ensembe des solutions d’un système d’équations linéaires est Sol(A, b) = {x ∈ Kn |ΦA (x) = b} = Φ−1 A (b). Exemple 4.12. Posons K = Q, et x1 +x2 x2 +x3 +x4 =1 =1 On a donc A = 1 0 1 1 0 1 0 1 ,b = 1 1 x1 x2 4 ,x = x3 , Φ A : Q → x4 a+b b+c+d Donc Sol(A, b) = {x ∈ Q4 |A · x = b} = Φ−1 A (b). Q2 , ΦA ((a, b, c, d)) 7→ Définition 4.13 (Système d’équation linéaire homogène). Un système d’équation linéaire est dit homogène quand tous les b1 = b2 = · · · = bm = 0, donc Sol(A, b) = ker ΦA . Propriété 4.14. L’ensemble des solutions d’un système d’équation linéaire homogène est un sous-espace vectoriel de Kn . Définition 4.15 (Système d’équation linéaire non-homogène). Un système d’équation linéaire est dit non-homogène s’il n’est pas homogène. 45 Propriété 4.16. Supposons que l’ensemble des solutions est non vide et posons x0 ∈ Sol(A, b) une solution, c’est-à-dire que ΦA (x0 ) = b. Alors on a x ∈ Sol(A, b) ⇐⇒ ΦA (x) = b ⇐⇒ ΦA (x − x0 ) = b ⇐⇒ x − x0 ∈ ker ΦA Proposition 4.17. Soit A · x = b un système d’équations linéaire. Alors on a — ou Sol(A, b) = ∅ — ou Sol(A, b) = x0 + ker ΦA , où x0 ∈ Sol(A, b). Propriété 4.18. L’échange de deux colonnes i et j permute les i et j-ièmes variables dans les solutions. Proposition 4.19. Soit (A, b) la matrice augmentée d’un système d’équation e eb) le résultat de la méthode d’élimination de Gauss (sous forme linéaire, (A, échelonnée). Supposons que les dernières m − r lignes (avec les coefficients nuls) ne sont pas nulles. Alors on a e eb) 6= ∅ ⇐⇒ ebr+1 = · · · = ebm = 0 1. Sol(A, b) = Sol(A, e 0) un sous-espace 2. Si le système est homogène alors Sol(A, 0) = Sol(A, vectoriel de W ⊂ Kn de dimension n − r 3. Si le système n’est pas homogène, et que Sol(A, b) 6= ∅, avec x0 ∈ Kn une solution du système, alors Sol(A, b) = x0 + W = x0 + ker ΦA . Exemple 4.20. 0 1 2 3 4 5 Soit (A, b) = 6 7 8 9 9 9 On a 9 9 9 9 (A, b) ∼ ∼ ∼ ∼ 3 0 6 9 3 0 0 0 3 0 0 0 3 0 0 0 4 5 9 1 2 9 7 8 9 9 9 9 4 5 1 2 −1 −2 −3 −6 4 5 9 1 2 9 0 0 0 0 0 9 4 5 9 1 2 9 0 0 9 0 0 0 e eb) = ∅. Donc Sol(A, b) = Sol(A, 46 9 9 −9 −18 e eb) = (A, 0 3 Soit (A, b) = 6 9 On a 1 4 7 9 2 5 8 9 9 9 9 0 (A, b) ∼ ∼ ∼ 3 0 6 9 3 0 0 0 3 0 0 0 4 5 9 1 2 9 7 8 9 9 9 0 4 5 1 2 −1 −2 −3 −6 4 5 9 1 2 9 0 0 0 0 0 0 9 9 −9 −27 e eb) = (A, e eb) = x0 + W , avec W un sous-espace vectoriel de Donc Sol(A, b) = Sol(A, dimension 3 − 2 = 1. Donc −9 Sol(A, b) = 9 + W 0 4.2 Applications linéaires et matrices Soit (e1 , . . . , en ) une base canonique de Kn et (f1 , . . . , fm ) une base canonique de Km . Rappel 4.21. Soit Φ : Kn → Km une application linéaire, P alors elle définit m une matrice AΦ = (aij ) ∈ M(m × n, K) comme Φ(ej ) =: i=1 ai j · fi . Et réciproquement. Remarque 4.22. On a une bijection entre Hom(Kn , Km ) ' M(m × n, K). Propriété 4.23. Soit V un K-espace vectoriel de dimension n et W un Kespace vectoriel de dimension m, soit Φ : V → W . Soit A := (v1 , . . . , vn ) une base de V . Alors A définit un isomorphisme de K-espaces vectoriels λ1 n λ2 X ψA : Kn → V, . 7→ λ j · vj .. j=1 λn On fait de même pour W en notant la base B. 47 ψA Φ ψB On a donc Kn ' V → W ' Km . L’homomorphisme Φ : V → W définit donc un isomorphisme φ : Kn → m K , φ := ψB−1 ◦ Φ ◦ ψA . Soit Aφ = (aij ) ∈ M(m × n, K) la matrice pour φ décrite dans la base canonique des Kn et Km . Pm Proposition 4.24. Φ(vj ) = i=1 aij · wi . Démonstration. Φ(vj ) −1 = (ψB ◦ φ ◦ ψA )(vj ) −1 = ψB (φ(ψA (vj ))) | {z } =ej | P {z = Pm= i=1 m i=0 } aij ·fj aij · wi Définition 4.25 (Matrice de dans des bases). La matrice Aφ est dite matrice de Φ dans les bases A et B. On note pour Aφ , MBA (Φ). Exemple 4.26. 1. Soit f : R3 → R[x]2 , (x1 , x2 , x3 )T 7→ (x1 + x2 + x3 ) + 2 x3 · x + x2 · x . Parce que ça serait vraiment trop triste de faire autrement, on prend (e1 , e2 , e3 ) la base canonique de R3 et (1, x, x2 ) celle de R[x]2 . Alors f est décrit comme la matrice 1 1 1 0 0 1 0 1 0 Car f (e1 ) = 1, f (e2 ) = 1 + x2 , f (e3 ) = 1 + x. Maintenant on amène le lol (`O`). On prend V := {(x1 , x2 , x3 )T ∈ R3 |x1 + x2 + x3 = 0} un sous-espace vectoriel de R3 de dimension 2 et Φ := f |V : V → R[x]2 . Soit A := {(1, −1, 0)T =: v1 , (0, 1, −1)T =: v2 } une base de V et B = (1 =: w1 , x =: w2 , x2 =: w3 ). On a Φ(v1 ) = f ((1, −1, 0)T ) = −x2 et Φ(v2 ) = f ((0, 1, −1)T ) = −x + x2 . Donc la matrice MBA (f ) de f est MBA (f ) 0 = 0 −1 2. Soit Φ : R[x]n+1 → R[x]n , p 7→ p0 . 48 0 −1 1 Soit A = (1, x, x2 , . . . , xn+1 ) et 0 0 MBA (Φ) = . .. 0 B = (1, x, x2 , . . . , xn ). On a 1 0 0 ... 0 0 2 0 ... 0 .. .. . . .. . . . . 0 0 ... Définition 4.27 (Ensemble des homomorphismes). n+1 1. On définit Hom(V, W ) := {φ : V → W |φ application linéaire } l’ ensemble des homomorphismes de V vers W 2. End(V ) := Hom(V, V ) l’ ensemble des endomorphismes V → V . 3. Aut(V ) := {φ ∈ End(V )|φ isomorphisme } l’ ensemble des isomorphismes V → V . Lemme 4.28. Hom(V, V ) est un sous-espace vectoriel Map(V, W ). En particulier, End(V ) est un sous-espace vectoriel de Map(V, V ). Démonstration. On a — Hom(V, W ) 6= ∅ car V → W, v 7→ 0 est une application linéaire. e — φ, φe ∈ Hom(V, W ) =⇒ φ + φe ∈ Hom(V, W ). On a (φ + φ)(λ · v + v0 ) = 0 0 0 e e e 0) = φ(λ · v + v ) + φ(λ · v + v ) = λ · φ(v) + φ(v ) + λ · φ(v) + φ(v 0 0 0 e e e e λ · (φ(v) + φ(v)) + φ(v ) + φ(v ) = λ · (φ + φ)(v) + (φ + φ)(v ) =⇒ donc e φ + φe est linéaire, donc φ + φ. — φ ∈ Hom(V, W ), µ ∈ K =⇒ µ · φ ∈ Hom(V, W ) donc Hom(V, W ) est bien un sous-espace vectoriel de Map(V, W ). Définition 4.29. Soit MBA : Hom(V, W ) → M(m × n, K), φ 7→ MBA (φ) (bijection) Proposition 4.30. MBA est un isomorphisme de K-espace vectoriel. e e := M A (φ). Démonstration. Soient φ, φe ∈ Hom(V, W ). et soient A := MBA (φ), A B =⇒ =⇒ =⇒ Pm e j ) = Pm e φ(vj ) = i=1 aij · wi , φ(v i=1 aij · wi P Pm e j ) = m aij · wi + Pm e aij ) · wi (φ + φ)(v i=1 i=1 aij · wi = i=1 (aij + e e A + A = (aij + e aij )ij e = M A (φ) + M A (φ). e est la matrice représentante, donc MBA (φ + φ) B B A A Soit µ ∈ K. (µ · φ)(vj ) = µ · φ(vj ) =⇒ MB (µ · φ) = µ · MB (φ) 49 Montrons que c’est injectif, or MA B (φ) = 0 =⇒ φ(vj ) = 0∀j =⇒ φ = 0, donc ker MA = {0} B Montrons que c’est surjectif. Soit Pm A = M(m × n, K). Soit φ : V → W une application linéaire, φ(vj ) := i=0 aij · wi . Sa matrice représentative est A MA B (φ) = A, donc A ∈ im(MB ) c’est surjectif. Corollaire 4.31. dim Hom(V, W ) = dim M(m × n, K) = m · n Proposition 4.32. Soient V, W, Z des K-espaces vectoriels de base canonique respective A, B, D et φ : V → W, χW → Z des applications linéaires. Alors on a A B MD (χ ◦ φ) = MD (χ) · MBA (φ) B (χ). Démonstration. Soit A := MBA (φ), B := MD Alors B · A = (bki )kiP· (bij )ij , donc un élément à la k-ième ligne et j-ième m colonne est de la forme i=1 bki · aij . Mais on a aussi Pm Pm Pm (χ · φ)(vj ) = χ(φ(vj )) = χ( i=j aij · wi ) = i=1 aij · χ(wi ) = i=1 aij · P P Pm r r j=1 bki · zk = k=1 i=1 bki · ai k · zk A B (χ ◦ φ) ont les mêmes coefficients, (χ) · MBA (φ) et MD donc les matrices MD donc sont égales. Proposition 4.33. End(V ) est un anneau unitaire. La multiplication est donnée par End(V ) × End(V ) → End(V ), χ · φ = χ ◦ φ. L’élément neutre est idV : V → V, v 7→ V . On appelle End(V ) est dit anneau d’endomorphisme. Proposition 4.34. Pour m = n, M(m × n, K) = M(n × n, K), la multiplication matricielle est également un anneau intègre. L’identité est En la matrice identité. Définition 4.35 (Transposée). La transposée AT de A := (aij )ij est la matrice AT := (aij )ji Proposition 4.36 (Règles de calcul). Soient A, A0 ∈ M(m × n, K), B, B 0 ∈ M(r × m, K), C ∈ M(s × r, K) et λ ∈ K. Alors on a 1. (B + B 0 ) · A = B · A + B 0 · A, B · (A + A0 ) = B · A + B · A0 2. (λ · B) · A = B · (λ · A) = λ · (B · A) 3. (C · B) · A = C · (B · A) 4. Em · A = A = A · En 5. (B · A)T = AT · B T . 50 Démonstration. (iii) Soit ΦA : Kn → Km , v 7→ A · v, ΦB : Km → Kr , w 7→ B · v, ΦC : Kr → Ks , z 7→ C · v, Alors C · (B · A) = ΦC ◦ (ΦB ◦ ΦA ) = (ΦC ◦ ΦB ) ◦ ΦA = (C · B) · A. (v) Notons A = (a Alors AT = (aij )ji , P B T = (bki )ik , donc Pijm)ij et B = (bki )ki .P m m T T A · B = ( i=1 aij · bki )jk = ( i=1 bki · aij )jk = ( i=1 bki · aij )Tkj = (B · A)T . Corollaire 4.37. Hom(V, V, ) l’anneau d’endomorphismes est un anneau unitaire, avec 1 = idV , alors M(n × n, K) est un anneau unitaire avec 1 = En Propriété 4.38. — M(n × n, K) n’est pas un anneau commutatif pour n ≥ 2 — M(n × n, K) n’est pas un anneau intègre pour n ≥ 2. — en général, AT · B T 6= (A · B)T . Proposition 4.39. End(v) est un anneau unitaire A : End(v) → M(n × n, K) est un isomorphisme d’anneau Corollaire 4.40. MA A est un isomorphisme d’espace vectoriel. Démonstration. On a montré que MA A A e A A e (φ) (φ) · MA En particulier, MA (idV ) = Ev . Donc MA (φ ◦ φ) = MA Définition 4.41 (Matrice inversible). — Soit A ∈ M(n × n, K 9. Alors A est inversible s’il existe A0 ∈ M(n × n, K) telle que A · A0 = En = A0 · A. — On appelle Gln (K) := {A ∈ M(n × n, K)|A est inversible } le groupe général linéaire. Propriété 4.42. (Gln (K), ·) est un groupe Démonstration. Soient A, B ∈ Gln (K) et A0 , B 0 tels que A · A0 = En = A0 · A et B · B 0 = En = B 0 · B. =⇒ (A · B) · (B 0 · A0 ) = A · (B · B 0 ) · A0 = A · En · A0 = A · A0 = En et (B 0 · A0 ) · (A · B) = B · En · B 0 = En donc A · B ∈ Gln (K). La multiplication est trivialement associative et tout élément est inversible par définition. A Propriété 4.43. La restriction MA : End(v) → M(n × n, K) sur le groupe des isomorphismes Iso(v) := {f : V → V |f est un isomorphisme } est un isomorphisme de groupe sur Aut(v) → Gln (K) 51 A Démonstration. Soit A := MA (Φ), Φ : V → V un automorphisme et B := A MA (Ψ), Ψ : V → V un automorphisme, A A A Φ, Ψ ∈ Aut(V ) =⇒ Ψ◦Φ ∈ Aut(v) =⇒ MA (Φ−1 ◦Φ) = MA (Φ−1 )◦MA (Φ) =⇒ idV = En A A donc MA (Φ) est inversible (de même que MA (Ψ)). A A A A =⇒ MA : Aut(V ) → Gln (K) et MA (Ψ ◦ Φ) = MA (Ψ) · MA (Φ) = B · A A A donc MA est un homomorphisme de groupe et MA est trivialement bijectif, donc c’est un isomorphisme de groupe. Propriété 4.44. Soit A ∈ M(n × n, K) inversible. Alors AT ∈ M(n × n, K) est également inversible. Démonstration. A est inversible =⇒ ∃A0 telle que A · A0 = En = A0 · A. Alors AT · (A0 )T = (A0 · A)T = (En )T = En , donc AT est inversible. 0 Exemple 4.45. Φ : R[x] 2 → R[x]1 , p 7→ p , alors la matrice de Φ dans la base 0 1 0 (1, x, x2 ) et (1, x) est . 0 0 2 0 1 0 La matrice de Φ dans la base (x2 , x, 1) et (1, x) est 2 0 0 Définition 4.46 (Matrice de passage). Soit V un K-espace de dimen vectoriel x1 Pn sion n, A = (v1 , . . . , vn ) une base de V et ΨA : Kn → V, . . . 7→ i=1 xi ·vi xn et B une autre base de V avec ΨB analogue. ' n ' n Soit TBA := Ψ−1 B ◦ ΨA : K → V → K la matrice de passage. B Propriété 4.47. TBA est un isomorphisme et TBA ∈ Gln (K) et TA = (TBA )−1 . Définition 4.48 (Coordonnées respectivement àune x1 y1 Pn Pn .. .. i=1 xi ·vi = i=1 yi ·wi , alors ΨA . = ΨB . base). Soit V 3 v= x1 A .. =⇒ TB . = xn yn xn x1 y1 .. .. (Ψ−1 B ◦ ΨA ) . = . . xn yn x1 , . . . , xn sont dits coordonnées de v respectivement à la base A, y1 , . . . , yn sont dits coordonnées de v respectivement à B. e = (v1 . . . vn ) une matrice n × n, et B e = (w1 . . . wn ) Propriété 4.49. Soit A e e e e j ) = wj et une matrice n × n. Alors A, B ∈ Gln (K) et A(ej ) = vj et B(e A −1 e e TB = B · A. Exemple 4.50. Soit V un K-espace vectoriel et A = (v1 , . . . , vn ) et B = −1 A (w1 , . . . wn ) deux bases de V . Alors MBA (idV ) = Ψ−1 B ◦idV ◦ΨA = ΨB ◦ΨA = TB 52 Proposition 4.51. Soit f : V → V un endormorphisme. Les matrices repréA sentatives MA (f ) et MBB (f ). B A MB (f ) = TBA · MA (f ) · (TBA )−1 . A MA (f ) Kn Kn ΨA ΨA f TBA V TBA V ΨB ΨB Kn Kn MBB (f ) Démonstration. A =⇒ MBB = TBA · MA (f ) = (TBA )T Définition 4.52 (Matrice semblable). Deux matrices A, B ∈ M(n × n, K) sont dites sembables s’il existe une matrice S ∈ Gln (K) telle que B = S · A · S −1 x1 3x1 + 4x2 Exemple 4.53. Soit f : R2 → R2 , 7→ 51 . Soit A = x2 4x1 − 3x2 (e1 , e2 ) une base canonique. Alors 3 4 A 5 5 MA (f ) = 4 − 53 5 Soit B = ((2, 1)T , (−1, 2)T ). Alors f ((2, 1)T ) = (2, 1)T et f ((−1, 2)T ) = −(−1, 2)T et 1 0 B MB (f ) = 0 −1 −1 −1 2 −1 1 0 2 1 2 −1 1 A TB = · = = = 2·2−(−1)·1 12 0 1 −1 2 1 2 2 1 1 =: S 5 −1 2 2 1 3 4 2 −1 10 5 1 1 Donc S·A·S .1 = 25 · · · = 25 · −1 2 4 −3 1 2 5 −10 2 1 1 0 = −1 2 0 −1 53 Soit f : V → W une application linéaire. Soient A et B deux bases de V , D etC deux bases de W . Notons dim V = n et dim W = m . MCA Kn Km ΨA ΨC f TBA V TDC V ΨB ΨD Kn Km B MD A · (TBA )−1 . Alors on a pour la matrice représentative, MCB (f ) = TCD · MD A D On pose S := TC , T := TB =⇒ matrice de changement de base. A MCB (f ) = S · MD (f ) · T −1 . Définition 4.54 (Matrices équivalentes). Soient A, B ∈ M(m × n, K) deux matrices. Alors elles sont dites équivalentes s’il existe S ∈ Gln (K) et T ∈ Glm (K) (deux matrices inversibles) telles que B = S · A · T −1 . Remarque 4.55. — Deux matrices A, B sont équivalentes exactement quand il existe une application linéaire f : V → W et des bases A, B pour V et A D, C pour W telles que A = MD (f ) et B = MCB (f ). — Deux matrices carrées A, B ∈ M(n × n, K) sont semblables exactement quand il existe un endomorphisme f : V → V et des bases A, B telles que A (f ) et B = MBB (f ). A = MA Définition 4.56 (Rang). 1. Soit f : V → W une application linéaire. Le rang de f , noté rg(f ) est la dimension de l’image im(f ), c’est-à-dire rg(f ) := dim im f 2. Soit A ∈ M(m×n, K). Alors rg A le rang de A est le rang de l’application A linéaire associée Kn → Km , x 7→ A · x, donc rg A = dim A · Kn . 3. Le rang des lignes ZR(A) := la dimension du sous-espace vectoriel de Kn qui génère les lignes A. 4. Le rang des colonnes SR(A) := la dimension des Km qui génèrent les colonnes de A Propriété 4.57. 1. SR(A) = rg(A) 2. ZR(A) = SR(AT ) 54 3. Pour A ∈ M(n × n, K), on a SR(A) = n ⇐⇒ A inversible ⇐⇒ AT inversible ⇐⇒ SR(AT ) = n ⇐⇒ ZR(A) = n. 4. ZR(A) = le plus grand nombre de lignes linéairement indépendantes de A 5. SR(A) est le plus grnad nombre de colonnes de A . Démonstration. 2. Trivial 3. 4. Définition 1. Direct de la définition Exemple 4.58. 1 A := 5 6 2 6 8 3 7 10 1 4 2 T 8 ,A = 3 12 4 5 6 7 8 6 8 10 12 On a ZR(A) = 2 car la troisième ligne est une combinaisons (évidente) des deux premières. On a SR(A) = 2 les deux premières lignes sont linéairement indépendantes, 3 =2 2 − 1 , 4=3 2 −2 1 . Proposition 4.59. Soit A ∈ M(m × n, K). Alors ZR(A) = SR(A). Démonstration. Soit A : Nn → Km , x 7→ A · x l’application linéaire associée. Posons (v1 , . . . , vn−r une base de ker A et (w1 , . . . , wr ) une base de im(A) et u1 , . . . , ur ∈ Kn avec A · ui = wi pour tout i = 1, . . . , r. Alors on a A := (u1 , . . . , ur , v1 , . . . vn−r une base de Kn . Par le théorème de la base incomplète, il eixstent wr+1 , . . . , wm ∈ Km tels que B = (w1 , . . . , wr , . . . , wr+1 , . . . , wm ) est une base de Km . On a A(u1 ) = w1 , A(u2 )w2 , . . . , A(ur ) = wr et A(v1 ) = 0, A(v2 ) = 0, . . . , A(vn−r ) par définition. 1 0 ... 0 0 0 ... 0 .. .. 0 1 ... 0 . . . . .. .. 0 . . . ... 0 . . Donc MBA )(A) = .. .. 0 ... ... 0 0 0 ... 0 0 0 . .. .. .. . . 0 0 ... 0 ... 0 Donc ZR(B) = r = SR(B). Par la formule de transformation, il existent S ∈ Gln (K), T ∈ Glm (K) avec MBA (A) =: B tels que B = S · A · T −1 55 — Montrons que SR(S · A · T −1 ) = SR(A). On a im(S · A · T −1 ) = (S · A · T −1 )(Kn ) = (S · A Kn ) = im(S · A) Donc rg(A) = rg(S · A) = rg(S · A · T −1 ) donc SR(A) = SR(S · A · T −1 ) — Montrons que ZR(S · A · T −1 = ZR(A) On a ZR(S · A · T −1 ) = SR(((S · A · T −1 )T ) = SR((T −1 )T · AT · S T ) = SR((T T )−1 · AT · S T ) = SR(AT ) = ZR(A) — Donc ZR(A) = ZR(S · A · T −1 ) = r = SR(S · A · T −1 ) = SR(A) Corollaire 4.60. Soient A, B ∈ M(m × n, K). Alors A et B sont équivalentes si et seulement si rg A = rg B Démonstration. =⇒ On a B = S · A · T −1 −1 rg S ·A · T =rg A doncc’est trivial Er 0 Er0 0 ⇐ A∼ et B ∼ 0 0 0 0 Donc A ∼ B donc A et B sont équivalents. Définition 4.61 (Déterminant). Une application det : M(n × n, K) → K est dite déterminant si — det(A) est linéaire sur chaque ligne de A — det est alterné, c’est-à-dire det A = 0 si A a deux lignes égales. — det est normé, c’est-à-dire que det En = 1 Notation 4.62. |A| = det A Exemple 4.63. a a12 — 11 a a 22 21 a11 . . . .. — ... . 0 ... — |a11 | = a11 = a11 · a22 − a12 · a21 ∗ .. = a · · · · · a 11 nn . ann Propriété 4.64 (Déterminant). — det change pour des opérations de lignes de type 1 (échange de deux lignes) — det ne change pas pour les opérations de ligne de type 2 — si B est le résultat de l’algorithme de Gauss sur A, det B = (−1)k det A — A est inversible si et seulement si det A 6= 0 — il existe au plus un déterminant Proposition 4.65. Soient A, B ∈ M(n × n, K). Alors det(A · B) = det(A) · det(B). Démonstration. Deux cas. — Si B est inversible, alors det(B) = 0, donc det A · det B = 0. Si B n’est pas inversible, alors A · B n’est pas inversible, car B : Kn → Kn , x 7→ B · x n’est pas surjectif (rg B < n) =⇒ rg A · B < n n’est pas inversible, donc det A · B = 0 56 — Si B est inversible, c’est-à-dire que det B 6= 0. On pose F : M(n×n, K) → A·B K, A 7→ det det B . Montrons que F (A) = det A =B z }| { det En · B =1 1. F est normé : F (En ) = det B 2. F est alterné, soit A une matrice n × n de lignes a1 , . . . , an . Soit i < j et ai = aj . Alors la i-ième ligne et la j-ième ligne de A · B sont également égales, donc det A · B = 0, donc F (A) = 0. 3. F est linéaire sur chaque ligne (exercice) Donc det A·B det B = det A =⇒ det A · B = det A · det B Définition 4.66 (Déterminant d’un endomorphisme). Soit V un K-espace vectoriel de dimension finie n, f ∈ End(V ) un endomorphisme, et A une base de caA (f ). V . On a la matrice de f dans V MA A On définit det f := det MA (f ). Corollaire 4.67. det f est bien défini. Démonstration. Soit B une autre base de V . Alors il existe S ∈ Gln (K) avec A A MBB (f ) = S · MA (f ) · S −1 . Montrons que det(MBB (f )) = det(MA (f )). B A −1 A On a det(MB (f )) = det(S · MA (f ) · S ) = det(S) · det(MA (f ) · S −1 ) = −1 −1 A A det(S) · det(MA (f ) · det(S ) = det(S) · det(S ) · det(MA (f )) = det(S · S −1 ) · A A A (f )). (f )) = det(MA (f )) = det(En ) · det(MA det(MA 4.3 Matrices élémentaires Type 1 (échange de deux lignes) Pour i, j ∈ {1, . . . , n}, i < j, soit 1 .. . 1 0 Pij := 1 1 1 .. . 1 0 1 .. . 1 =⇒ det Pij = − det En = −1 57 Soit A ∈ M(n × n, K) a1, . . . , an . avecles lignes a1 a1 .. .. . . ai aj Alors Pij · A = Pij · ... = ... aj ai . . .. .. an an Soit A une matrice n × n avec les colonnes b1 , . .. , bn . Alors A·Pij = b1 . . . bi . . . bj . . . bn ·Pij = b1 . . . bj . . . Et det(A · Pij ) = − det A. Donc l’échange de deux colonnes change le signe du déterminant. Type 2 (addition d’un multiple d’une ligne/colonne à une autre ligne/colonne) Soit i, j ∈ {1, . . . n}, i 6= j et 1 .. . 1 λ j . .. Qi (λ) := λ 1 .. . 1 On a det(Qji (λ)) = 1. Donc det(A) = det(Qji (λ) · A) = det(A · Qji (λ)). De plus, l’application A 7→ Qji (λ) · A est l’addition de λ· la j-ème ligne sur de la i-ème ligne et A 7→ A · Qji (λ) est est l’addition de λ· la j-ème colonne sur de la i-ème colonne. Type 3 (multiplication d’une ligne/colonne par un scalaire non nul) 1 .. . 1 λ Si (λ) := 1 .. . 1 Avec aii = λ, ajj ∀j 6= i. Et det(Si (λ)) = λ 6= 0 Donc les applications A 7→ Si (λ) · A est la multiplication de la i-ième ligne par λ et A 7→ A · Si (λ) est la multiplication de la i-ième colonne par λ 58 bi ... bn Définition 4.68 (Matrice élémentaire). Les matrices Pij , Qji (λ), Si (λ) sont dites matrices élémentaires Proposition 4.69. Soit A ∈ M(n × n, K). Supposons B construit à partir de A par — l’échange de ligne, alors det B = − det A — l’addition d’un multiple d’une colonne sur une autre colonne, alors det(B) = det(A) — la multiplication d’une colonne par λ, alors det(B) = λ · det(A) 4.4 Existence du déterminant Soit Sn = Aut({1, . . . , n}) le groupe symétrique. Définition 4.70 (Inversion, transposition). Soit σ ∈ Sn une permutation. Alors 1. Soit i ≤ i < j ≤ j ≤ n. Alors la paire (i, j) est dite en inversion si σ(i) > σ(j) 2. La signature de σ est définie comme +1 si le nombre d’inversions de σ est pair (σ) := −1 sinon Cela décrit une fonction : Sn → {±1}. 3. On dit que τ ∈ Sn est une transposition si τ échange deux éléments, c’est-à-dire ∃i < j, τ (i) = j et τ (j) = i et ∀k 6= i, j, τ (k) = k. (et τ −1 = τ et τ 2 = id) Exemple 4.71. — τ = (1 2). On a comme inversion (1, 2) (uniquement), donc (τ ) = −1. — τ = (1 2 3). On a comme inversion (2, 3) et (1, 3), donc (τ ) = 1 Lemme 4.72. Toute permutation σ ∈ Sn , n ≥ 2 est produit fini de transpositions. Proposition 4.73. Soit m le nombre d’éléments qui ne sont échangés par σ. m = 0 σ = id (produit vide) m ≥ 1 On suppose que le lemme est vrai pour < m. On choisit i ∈ {1, . . . , n} avec σ(i) 6= i et τ ∈ Sn la transposition (i σ(i)). Alors (τ ◦ σ)(i) = i et σ(k) = k =⇒ k 6= i, σ(i) =⇒ (τ ◦ σ)(k) = k =⇒ τ ◦ σ échange < m éléments. L’hyptohèse de récurrence nous dit que τ ◦σ est produit de transpositions, or τ est une transposition, donc σ = τ ◦ (τ ◦ σ) = σ est produit de transpositions. Exemple 4.74. (1 2 3) = (1 3)(1 2) 59 1. (σ) = Proposition 4.75. σ(j)−σ(i) j−i Q i<j 2. pour n ≥ 2, : Sn → {±1} est un homomorphisme surjectif 3. si τ ∈ Sn est une transposition, alors (τ ) = −1 4. si σ = τ1 . . . τk , alors (σ) = (−1)k avec τ1 , . . . , τk des transpositions) . Q Q Q Démonstration. 1. i<j (σ(j)−σ(i)) = |σ(j)−σ(i)|·(σ)+ i<j i<j σ(i)<σ(j) Q Q σ(i)| = (σ)· i<j |σ(j)−σ(i)| =⇒ i<j |σ(j)− σ(i)>σ(j) σ(j)−σ(i) j−i = (σ)· Y |σ(j) − σ(i)| |j − i| {z i<j | = } =1 (σ) 2. (ρ · σ) = ρ(σ(j)−ρ(σ(i)) i<j j−i Q ρ(σ(j))−ρ(σ(i)) i<j σ(j)−σ(i) Q = · Y σ(j) − σ(i) i<j | Q (σ)· i<j ρ(σ(j))−ρ(σ(i)) Q · σ(i)>σ(j) σ(i)<σ(j) Q i>j ρ(σ(j))−ρ(σ(i)) σ(j)−σ(i) i<j ρ(σ(j))−ρ(σ(i)) σ(j)−σ(i) =(σ) Q = (σ)· σ(i)>σ(j) = (σ) · j−i {z = } i<j ρ(σ(j))−ρ(σ(i)) · σ(i)>σ(j) σ(i)<σ(j) ρ(σ(j))−ρ(σ(i)) σ(i)<σ(j) σ(j)−σ(i) Q = (σ) · (ρ) σ(i)<σ(j) 3. Soit τ ∈ Sn la transposition qui échange i et j, avec i < j. Les inversions sont (i i + 1), (i i + 2), . . . , (i j) et (i + 1 j), (i + 2 j), . . . , (j − 1 j), donc leur nombre est (j − i) + (j − i − 1) = 2j − 2j − 1, donc est toujours impair, donc (τ ) = −1. Théorème 4.76 (Formule de Leibnitz). det : M(n × n, K) → K, A = (aij )ij 7→ X σ∈Sn est un déterminant. . Démonstration. P— det est normé. Qn det(En ) = σ∈Sn (σ) · i=1 (σ) · n Y aiσ(i) i=1 aiσ(i) =1 | {z } 0 σ 6= id 1 σ = id — det est alterné. Soit A = (a1 , a2 , . . . , ak , . . . , al , . . . , an )T et soit ak = al , k < l. Montrons que det A = 0. Soit τ ∈ Sn la transposition qui échange k et l et An := {σ ∈ Sn k (σ) = +1} (« sous-groupe alterné de Sn »). De plus, τ 6∈ An car (τ ) = −1, donc Sn = An ∪ An · τ . = 60 P Qn P Qn aiσ(i) − ρ∈An τ i=1 aiρ(i) = σ∈An i=1 aiσ(i) − Qn Qn σ∈An i=1 aiσ(τ (i)) . Comme ak = al =⇒ i=1 aiσ(τ (i)) = i=1 aiσ(i) , donc det A = 0. — det est linéaire à la i-ème ligne. .. . P a + λ·e ai det i σ∈Sn (σ) · (a1σ(1) · a2σ(2) · · · · · (aiσ(i) + = .. . P Qn λ·e aiσ(i) ) · a(i+1)σ(i+1) · . . . σanσ(n) ) = iσ(i) + σ∈Sn (σ) i=1 a .. P . λ σ∈Sn (σ)(a1σ(1) ·· · ··e aiσ(i) a(i+1)σ(i+1) +· · ·+anσ(n) ) = det . + ai .. .. . λ det . e a .. Donc det A = P Qn P σ∈An Qn i=1 i Corollaire 4.77. det(AT ) = det(A) Donc det est linéaire sur chaque colonne. Démonstration. Soit A Q = (aij )ij ∈ M(n × n, K), on a AT = (aji )ij . Donc n T det(A ) = σσ∈Sn (σ) · i=1 aσ(i)i . −1 Remarquons queQ(σ ) · (σ) P = (σ −1 σ) = 1,Qdonc P P n n −1 = σ∈Sn (σ aσ(i)i = σ∈Sn (σ −1 )· i=1 aiσ−1 (i) = σ−1 ∈Sn (σ .1 · i=1 Qn P Qn i=1 aiσ −1 (i) = σ∈Sn (σ) · i=1 aiσ(i) = det(A) 1. Soit A = (aik )ik ∈ M(n × n, K). Pour i, j ∈ {1, . . . , n} Définition 4.78. soit a11 .. . a(i−1)1 0 Aij := a(i+1)1 .. . an1 ... a1(j−1) .. . 0 a1(j+1) .. . ... ... ... ... a(i−1)(j−1) 0 a(i+1)(j−1) .. . ... an(j−1) a1n 0 1 0 a(i−1)(j+1) 0 a(i+1)(j+1) .. . ... ... ... a(i−1)n 0 a(i+1)n 0 an(j+1) ... ann j 2. a# ij := det(Aji ) 3. A# = (a# ij )ij ∈ M(n × n, K) est dite matrice complémentaire de A 4. (A# )T est dite comatrice de A 61 −i 5. a11 .. . a(i−1)1 A0ij := a(i+1)1 .. . an1 ... a1(j−1) a1(j+1) ... .. . a1n ... ... a(i−1)(j−1) a(i+1)(j−1) a(i−1)(j+1) a(i+1)(j+1) ... ... .. . a(i−1)n a(i+1)n ... an(j−1) an(j+1) ... ann ∈ M((n−1)×(n−1), K) en éliminant la i-ème ligne et la j-ème colonne. a Q2 a12 P = σ∈S2 (σ)· i=1 aiσ(i) = (+1)a11 a22 + Exemple 4.79. — 11 a21 a22 (−1)a12 a21 a11 a12 a13 — Soit A = a21 a22 a23 a31 a32 a33 a11 0 a13 On a A22 = 0 1 0 a31 0 a33 a a 11 13 0 A23 = a31 a33 # a32 = det(A23 ) = −a11 a32 + a12 a31 Lemme 4.80. 1. det(Aij ) = (−1)i+j det(A0ij ) 2. A = (a1 . . . an ) avec aj la j-ème colonne de A. Alors det(Aij ) = det(a1 . . . aj−1 ei aj+1 . . . an ) Ce ei est très . swag. Démonstration. 1. Par échange de la (j − 1)-ième colonne et la (i − 1) ligne, Aij a la forme 1 0 .. . 0 ... A0ij 0 0 Donc det(Aik ) = (−1)(i−1)+(j−1) det(A0ij ) = (−1)(i+j) det(A0ij ) 2. det(a1 . . . aj−1 ei aj+1 . . . an ) = det(Aij ) avec des opérations élémentaires de type 2 (donc le déterminant ne change pas) a11 a12 a13 Exemple 4.81. 1. A = a21 a22 a23 a31 a32 a33 62 a11 a12 0 =⇒ det(A23 ) = 0 a31 a32 1 0 = − det(A023 ) − 0 A023 a11 0 a13 2. det(a1 e3 a3 ) = a21 0 a23 a31 1 a33 det(A32 ) 0 1 0 0 = 1 0 a11 = a21 0 a11 0 a31 a12 0 a32 0 a13 0 a23 1 a33 1 = − 0 0 a11 = a21 0 0 a11 a31 0 a13 0 a23 1 0 0 a12 a32 = = Proposition 4.82. Soit A = (aij )ij ∈ M(n × n, K) et soit A# = (a# ij )ij la matrice complémentaire. Alors on a A# · A = A · A# = det(A) · En Démonstration. On a que le coefficient de la i-ème et la k-ième colonne de Pn Pn ligne Pn # # la matrice A# · A est égale à j=1 a# · a = a · det(A ) = a jk ij j=1 ij j=1 ij · ij n X 0 det(a1 . . . ai−1 ej ai+1 . . . an ) = det a1 . . . ai−1 ajk · ei ai+1 . . . an = det A j=1 | {z } =ak Corollaire 4.83. Si A est inversible, alors A−1 = 1 # det A A . Remarque 4.84. Soient A, B ∈ M(n × n, K), alors si B · A = En , alors A · B = En . Démonstration. Soient ΦA : Kn → Kn , x 7→ A · x, ΦB similairement les homomorphismes de A, B. Alors B · A = En =⇒ ΦB ◦ ΦA = idKn =⇒ ΦB surjective =⇒ ΦB est un isomorphisme =⇒ ΦA−1 = ΦB =⇒ ΦA ◦ ΦB = idKn =⇒ A · B = En a11 a12 Exemple 4.85. Soit A = inversible, a21 a22 # # Alors a# 11 = det(A11 ) = a22 , a12 = det(A11 ) = −a12 , a21 = det(A11 ) = # −a21 , a22 = det(A 11 ) = a11 a −a12 a22 −a12 22 1 # −1 =⇒ A =⇒ A = a11 a22 −a12 a21 −a21 a22 −a21 a22 Théorème 4.86 (Développement de Laplace). Soit A = (aij ) ∈ M(n × n, K), n ≥ 2. Alors Pn 1. pour tout i ∈ {1, . . . , n}, det(A) = j=1 (−1)i+j aij · det(A0ij ) Pn 2. pour tout j ∈ {1, . . . , n}, det(A) = i=1 (−1)i+j aij · det(A0ij ) 63 si k 6= i sinon Démonstration. Par la proposition 4.82 , on a det(A) = Pn Pn i+j aij · · det(A0ij ) j=1 aij · det(Aij ) = j=1 (−1) 1 2 3 4 5 6 − 2 Exemple 4.87. 4 5 6 = 1 7 8 9 7 8 9 48) − 2(36 − 42) + 3(32 − 35) = −3 + 12 − 9 = 0 Pn j=1 4 6 + 3 7 9 aij · a# ji = 5 = (45 − 8 Les systèmes d’équations avec n équations peuvent s’écrire sous la forme matricielle A · x = b. On prend A inversible, alors Sol(A, b) = {A−1 · b} Théorème 4.88 (Règle de Cramer). Soit x = (x1 , x2 , . . . , xn ) = A−1 · b l’unique solution d’un système d’équations linéaire A, b. Alors on a xi = det(a1 . . . ai−1 bai+1 . . . an ) det A # Démonstration. Par le corollaire 4.83, A−1 = det1 A ·A# , où A# = (a# ij )ik , aij = det(Aji ) = det(a1 . . . ai−1 ej ai+1 . . . an ) det(a1 ...ai−1 ej ai+1 ...an Donc l’entrée de A−1 à la i-ème ligne et la j-ème colonne est det A =b z }| { n X bj ej ai+1 ...an det(a1 ...ai−1 Pn det(a1 ...ai−1 ej ai+1 ...an j=1 Donc xi = j=1 ·bn = . det A det A Exemple 4.89. Soit le système d’équation 2x1 − 5x2 + 2x3 = 7 x1 + 2x2 − 4x3 =3 3x 1 − 4x2 − 6x3 = 5 2 −5 2 On a A = 1 2 −4 , x = (x1 , x2 , x3 )T , b = (7, 3, 5)T 3 −4 −6 Donc 2 −5 2 det A = 1 2 −4 = 2(−12−16)−(30+8)+3(20−4) = −2·28−38+3·16 = −46 3 −4 −6 on peut donc utliser la règle de Cramer 7 1 x1 = − 3 46 5 −5 2 −4 2 −4 −6 2 1 = 5, x2 = − 1 46 3 =⇒ Sol(A, b) = {(5, 1, 1)T } 64 7 3 5 2 −4 −6 2 1 = 1, x3 = − 1 46 3 −5 7 2 3 = 1 −4 5 Remarque 4.90. Soit R un anneau commutatif unitaire. Alors M(m×n, R) := {A = (aij )ij |aij ∈ R} : — L’addition de matrices est bien définie — La multiplication avec des éléments de R est bien définie On dit que M(m × n, R) est un module sur l’anneau R Si m = n, M(n × n, R), unitaire. P +, ·) est un Qanneau n On définit det(A) = σ∈Sn (σ) · i=1 aiσ(i) , et A# la matrice complémentaire ; on a toujours A# · A = A · A# = det(A) · En . Remarque 4.91. Soit K un corps et soit A ∈ M(m × n, K), alors rg A = r ⇐⇒ il existe une sous-matrice matrice r×r A0 ∈ A avec det(A0 ) 6= 0 et pour tout k > r le déterminant d’une sous-matrice k × k est nul. 1 2 3 4 = 18−20 = −2 6= 0 Exemple 4.92. A = 3 4 , on a rg A = 2 et 5 6 5 6 65 Chapitre 5 Valeurs propres, matrices triangularisables, réduction de Jordan Soit V un K-espace vectoriel et F : V → V un endomorphisme. On veut trouver une base A de V telle que la matrice de F respectivement à la base A a une forme plus simple. x1 3x1 2 2 Exemple 5.1. — F: R →R , F := x2 −x2 Dans la base canonique, la matrice représentante a une forme simple : 3 0 0 −1 — G : R2 → R2 , On a G x1 x2 := x1 + 2x2 2x1 + x2 1 2 2 1 Considérons la base A = (v1 , v2 ) = ((1, 1)T , (1, −1)T ). On aG(v1 ) = 3 0 T T A (3, 3) = 3v1 et G(v2 ) = (−1, 1) = −v2 , donc MA = 0 −1 5.1 Valeur propre, matrice diagonalisable Définition 5.2 (Valeur propre, vecteur propre). Soit V un K-espace vectoriel et F : V → V un endomorphisme et λ ∈ K. On dit que λ est une valeur propre de F s’il existe un vecteur v ∈ V, v 6= 0 tel que F (v) = λ · v. On appelle un tel vecteur vecteur propre. 66 Exemple 5.3. Soit 2 2 Rα : R → R , cos α Rα := sin α − sin α cos α Pour α 6∈ π Z, Rα n’a pas de vecteurs propres. Pour α ≡ π (mod 2π), Rα a λ = −1 comme valeur et tous les vecteurs non-nuls sont propres (donc Rα = − id), et pour α ≡ 0 (mod 2π), Rα = id, λ = 1 est une valeur propre pour tout v ∈ V non nul. Définition 5.4 (Espace propre). Soit F ∈ End(V ) et λ ∈ K. Alors on définit Eig(F ; λ) := {v ∈ V : F (v) = λ · v} l’ espace propre sous λ. Exemple 5.5. Soit V := C ∞ (R, R) et A : C ∞ (R, R) → C ∞ (R, R), f 7→ f 0 . Étudions f (x) := eλ·x , λ ∈ R, f ∈ C ∞ (R, R), f 6= 0. On a A(f ) = λ · f , donc λ ∈ R est une valeur propre de A et eλ·x est un vecteur propre pour λ. Montrons que Eig(A; λ) = {c · eλ·x : c ∈ R}. {c · eλ·x : c ∈ R} ⊆ Eig(A; λ) A(c · eλ·x ) = (c · eλ·x )0 = λ · (c · eλ·x ) =⇒ c · eλ·x ∈ Eig(A; λ) Eig(A; λ) ⊆ {c · eλ·x : c ∈ R} Soit fe ∈ Eig(A; λ), c’est-à-dire que fe0 = λ · fe. Alors (fe · e−λ·x )0 = fe0 · e−λ·x +fe · e−λ·x 0 = λ · fe · e−λ·x +fe(−λ) · e−λ·x = 0 =⇒ ∃c ∈ R, fe · e−λ·x = c =⇒ fe = c · eλ·x . Lemme 5.6. Soit F ∈ End(V ). Alors 1. Eig(F ; λ) est un sous-espace vectoriel 2. λ1 6= λ2 =⇒ Eig(F ; λ1 ) ∩ Eig(F ; λ2 ) = {0} = 0 3. Soient λ1 , . . . , λm différents deux-à-deux de F et soient v1 , . . . vm des vecteurs propres pour λ1 , . . . , λm , alors v1 , . . . , vm sont linéairement indépendants. Démonstration. 1. Eig(F ; λ) 6= ∅ car 0 ∈ Eig(F ; λ), v, w ∈ Eig(F ; λ), donc F (v) = λv et F (w) = λw, donc F (v + w) = F (v) + (w) = λv + λw = λ(v + w) =⇒ v + w ∈ Eig(F ; λ). Et v ∈ Eig(F ; λ), µ ∈ K =⇒ F (µv) = µF (v) = µλv = λ(µv) =⇒ µ · v ∈ Eig(F ; λ) 2. Soit v ∈ Eig(F ; λ1 ) ∩ Eig(F ; λ2 ). Alors F (v) = λ1 v et F (v) = λ · v, donc λ1 6=λ2 λ1 v = λ2 v =⇒ (λ1 − λ2 )v = 0 =⇒ v = 0 3. Par induction. m = 1 Soit v1 un vecteur propre de la valeur propre λ1 . Alors v1 6= 0 et la famille (v1 ) est linéairement indépendante. < m → m Soient λ1 , . . . , λm de telles valeurs propres et v1 , . . . , vm tous 6= 0 tels que F (v1 ) = λi ·vi . On sait que v1 , . . . , wm−1 sont linéairement indépendnats. On veut montrer que v1P , . . . , vm sont linéairement inm dépendants. Il faut donc montrer que i=1 ai vi = 0 =⇒ a1 = · · · = am = 0. Pm Pm Pm En appliquant F , on a F ( i=1 ai vi ) = i=1 ai F (vi ) = i=1 ai λi vi = 0. 67 Ici, λ est quelconque. Eig(F, λ) = {0} si λ n’est pas une valeur propre. Or λm · Pm i=1 ai vi = Pm i=1 ai λm vi = 0, donc Pm i=1 ai (λi − λm )vi = 6=0 v1 ,...vm−1 z }| { ai λi − λm = 0 pour tout i ∈ {1, . . . , m − 1} Donc a1 = lin. indép. Pm vm 6=0 · · · = am−1 = 0, donc am · vm = i=1 a1 v1 = 0 =⇒ am = 0 0 =⇒ Définition 5.7 (Endomorphisme diagonalisable, matrice diagonalisable). — Un endomorphisme F ∈ End(V ) est dit diagonalisable s’il existe une base V qui se compose des vecteurs propres de F . — Une matrice A ∈ M(n × n, K) est dite diagonalisable s’il existe un endomorphisme Kn → Kn , x 7→ A · x qui soit diagonalisable. Remarque 5.8. 1. Soit B = (v1 , . . . , vn ) une base de V . Alors v1 , . . . , vn sont des vecteurs propres de F si et seulement si MBB (F ) est diagonale. 2. A ∈ M(n × n, K) est diagonalisable si et seulement s’il existe S ∈ Gln (K) telle que S · A · S −1 est diagonale. Corollaire 5.9. Soit F ∈ End(V ). Alors si F a n := dim V valeurs propres, F est diagonalisable. Démonstration. Soient λ1 , . . . , λn des valeurs propres de F , différentes deux à deux. Soit vi les vecteurs propres pour λi , i ∈ {1, . . . , n}. Alors v1 , . . . vn sont linéairement indépendants, donc (v1 , . . . , vn ) est une base de vecteurs propres de V , donc F est diagonalisable. Lemme 5.10. Soit F ∈ End(V ). Alors λ est une valeur propre de F si et seulement si det(F − λ idV ) = 0. Démonstration. λ est une valeur propre de F si et seulement s’il existe un v ∈ V, v 6= 0, avec F (v) = λv ⇐⇒ F (v) − λv = 0 ⇐⇒ (F − λ idV )(v) = ∃v6=0 ∃v6=0 0 ⇐⇒ F − λ idV = 0 n’est pas injective ⇐⇒ det(F − λ idV ) = 0 Définition 5.11 (Polynôme caractéristique). Soit dim V = n ∈ N, F ∈ End(V ) et A ∈ M(n × n, K). 1. pF (t) := det(F − t · idV ) est appelé polynôme caractéristique de F 2. pA (t) := det(A − t · En ) est appelé polynôme caractéristque de A Remarque 5.12. 1. Soient A, B ∈ M(n × n, K). Alors pB (t) = pA (t) 2. Soit V un espace vectoriel de dimension n et A une matrice pour l’endomorphisme F : V → V . Alors pA (t) = pF (t) 3. pF (t) est un polynôme de degré n Démonstration. 1. pB (t) = det(B −t·En ) = det(S ·A·S −1 −t·S ·En ·S −1 ) = det(S · (A − tĖn ) · S −1 = det(A − t · En ) = pA (t) 2. Comme précédent 68 3. Soit A ∈ M(n × n, K) la matrice de F . Alors a11 − t a12 ... a1n a21 a22 − t . . . a2n pF (t) = pA (t) = det(A − t · En ) = . .. .. . an1 an2 . . . ann − t P Qn La formule de Leibniz nous dit que det((gbij )ij ) = σ∈Symn (σ) i=1 biσ(i) . Donc ici, = αn · tn + αn−1 · tn−1 + . . . α1 · t + α0 avec αn = (−1)n , αn−1 = (−1)n−1 · (a11 + a22 + ann ) et α0 = det(A). {z } | (A) Pour n = 1, on a pA (t) = |a11 − t| = a11 − t|, pour n = 2, pA (t) = a11 − t a12 = (−1)2 t2 + (−1)1 (a11 + a22 )t + (a11 a22 − a12 a21 ) a21 a22 − t Proposition 5.13. Soit V un K-espace vectoriel de dimension n, F ∈ End(V ) et pF (t) le polynôme caractéristique. Alors 1. deg(pF (t)) = n, deg(pF ) = n 2. Les zéros de pF (t) sont les valeurs propres de F 3. Si B est une base de V et A = MBB (F ), alors pF (t) = pA (t) = |A − t · En | Remarque 5.14. Soit F : V → V linéaire et MBB la matrice représentante. Et l’espace propre de A : Kn → Kn , x 7→ A·x, Eig(A; λ) = {v ∈ Kn : A·v = λ·v} = {v ∈ Kn : (A − λ · En )(v) = 0}. Alors l’espace propre Eig(A; λ) est l’ensemble des solutions du système d’équations linéaire (A − λ · En ) · x = 0. 1. V = R2 , G → V, G(x1 , x2 )T = (x1 + 2x2 , 2x1 + : V 1 2 x2 )T =⇒ G(x) = Ax, A = 2 1 2 On a pG (t) = pA (t) = (1 − t ) − 4 = t2 − 2t − 3 = (t − 3)(t + 1) =⇒ les valeurs propres de G sont −1 et 3. Et Eig(G; 3) = VectR (1, 1)T et Eig(G; −1) = Vect(1, −1)T cos α − sin α 2. Soit Rα : R2 → R2 , x 7→ Rα · x, Rα := =⇒ pRα (t) = sin α cos α (cos α − t)2 + sin2 α = cos2 α − 2 cos α + t2 + sin2 α = t2 − 2t cos α + 1 Donc pRα (t) = ⇐⇒ sin2 α = 0 ⇐⇒ sin α = 0 ∧ cos α = t ⇐⇒ α ∈ {0, ±2π, ±4π, . . .} t=1 Si α n’est pas un multiple de π, il α ∈ {±π, ±3π, ±5π, . . .} t = −1 n’y a pas de valeurspropres. Si α ' 0 (mod 2π), λ = 1 est une valeur propre et Eig(G; 1) = R2 l’espace propre, pour α ' π (mod 2π), λ = −1 est une valeur propre et Eig(G; −1) = R2 l’espace propre. Exemple 5.15. Exemple 5.16 (PageRank). On veut compter le nombre de relations entre deux pages. On a ici 1 en lien avec 2, 3 et 4 ; 2 en lien avec 3 et 4 ; 3 en lien avec 1 ; 4 en lien avec 3. On a 69 page compte 1 2 2 1 3 3 4 2 On ne sait pas si ce sont les pages importantes qui ont des liens, mais n’importe lesquelles. Meilleure idée : k, on pose On ajoute un poids pour chaque nœud. Entre les pages j et xk := X xj mj i→k Dans notre cas précédent, on a m1 = 3, m2 = 2, m3 = 1, m4 = 2. Donc x1 = x13 + x24 , x2 = x31 , x3 = x31 + x22 + x24 , x4 = x31 + x22 . Est-ce que le système possède des solutions ? On a la matrice du système d’équations 0 0 1 12 1 0 0 0 3 A= 1 1 0 1 3 2 2 1 1 0 0 3 2 Donc x = (x1 , x2 , x3 , x4 )T est un vecteur propre pour la valeur propre λ = 1 de A. Vérifions 1 est un valeur propre de toute matrice A = (aij )ij ∈ M(n × Pque n n, Q) avec i=1 aik = 1, ∀j = 1, . . . , n. En effet, la somme de chaque lignes de AT est 1. Mais AT · (1, 1, . . . , 1)T = (1, 1, . . . , 1)T =⇒ λ = 1 est une valeur propre de AT . Mais pAT (t) a t = 1 comme zéro, donc 0 = det(AT − En ) = det((AT − En )T ) = det(A − En ) =⇒ λ = 1 est une valeur propre de A. −1 1 3 A · v = v ⇐⇒ (A − E4 ) · v = 0, A − E5 = 1 −1 → 0 0 0 −1 0 1 1 3 − 12 1 2 1 6 9 12 0 −1 0 1 2 1 2 3 1 3 1 2 0 −1 0 1 2 −1 =⇒ x = (12, 4, 9, 6)T est une valeur propre pour λ = 1 page ancienne idée nouvelle idée 1 2 12 2 1 4 3 3 9 4 2 6 Définition 5.17 (Polynôme). On note K[t] := {(a0 , a1 , . . . ) ∈ K : (ai )i∈N presque tous nuls } l’ensemble des polynômes. Notation 5.18. an tn + an−1 tn−1 + · · · + a1 t + a0 = (a0 , a1 , . . . , an , 0, 0, . . . ) ∈ K[t] 70 Définition 5.19 (Addition de polynômes). + K[t] × K[t] → K[t], (a0 , a1 , . . . ) + (b0 , b1 , . . . ) := (a0 + b0 , a1 + b1 , . . . ) Définition 5.20 (Multiplication de polynômes). · K[t] × K[t] → K[t], (a0 , a1 , . . . ) + (b0 , b1 , . . . ) := (c0 , c1 , . . . ) Avec cn := Pn k=0 ak bn−k ∀n ∈ N. Remarque 5.21. (K[t], +, ·) est un anneau unitaire commutatif. L’élément neutre est (1, 0, 0, . . . ) = 1 P i Définition 5.22 (Degré d’un polynôme). Soit p = ai t ∈ K[t]. On définit max{k : ak 6= 0} p 6= (0, 0, . . . ) deg(p) := −∞ p=0 Remarque 5.23. On a deg(p · q) = deg(p) + deg(q) Proposition 5.24. Soit K[t]k := {p ∈ K[t] : deg(p) ≤ k} l’ensemble des polynômes de degré ≤ k. Alors K[t]k est un K-espace vectoriel de dimension k + 1. Proposition 5.25. Tout polynôme (a0 , . . . , an , 0, 0, . . . ) ∈ K[t] définit une application pe: K → K, x 7→ pe(x) := an xn + · · · + a1 x + a0 . On a K[t] → Map(K, K), p 7→ pe un homomorphisme d’anneau. Remarque 5.26. L’homomorphisme K[t] → Map(K, K), p 7→ pe est injectif si K n’est pas fini. Ce n’est pas le cas si K est fini Exemple 5.27. Avec Z /2 Z. Posons p = (0, 1, 1, 0, 0, . . . ) = t2 + t 6= 0. On a pe: Z /2 Z → Z /2 Z, 0 7→ 02 + 0 = 0, 1 7→ 12 + 1 = 0 Théorème 5.28 (Algorithme d’Euclide). Soient f, g ∈ K[t], g 6= 0. Alors il existent exactement deux polynômes q, r ∈ K[t] tels que f = qg + r avec deg(r) < deg(g) Démonstration. unicité : Supposons f = qg + r = q̂g + r̂ et deg(r) < deg(g), deg(r̂) < deg(g). Montrons que q = q̂, r = r̂. On a (q − q̂)g + (r − r̂) = 0 et deg(r − r̂) < deg(g), donc q − q̂ = 0 et r − rr̂ = 0 donc q = q̂ et r = r̂ existence : Pour f = 0 on choisit q = r = 0. Si f 6= 0, on note f = an tn + · · · + a0 , an 6= 0 et g(t) = bm tm + · · · + b0 , bm 6= 0. Si m > n alors f = 0g + f = qg + r pour q = 0 et r = f , on a bien deg r = deg f < deg g Si m ≤ n. Alors deg f ≥ deg f . Soit q1 := bamn tn−m et soit f1 := f − q1 g, alors deg f1 6= n − 1 < deg f et on définit q2 de façon analogue et f2 := f1 − q2 g, etc. On arrive à un point où la condition 71 n’est plus remplie. Définition 5.29 (Zéro, racine). Soit f ∈ K[t], λ ∈ K est dit zéro ou racine de f si fe(λ) = 0. Lemme 5.30. λ est un zéro de f ⇐⇒ ∃q ∈ K[t] avec f (t − λ)q Démonstration. Soit g := (t − λ) ∈ K[t], deg g = 1. On a ge = 0 =⇒ ∃q, r ∈ K[t] avec f = gq + r et deg(r) < deg(q) = 1 =⇒ r ∈ K. Comme λ est un zéro ⇐⇒ fe)(λ) = 0 ⇐⇒ (e q qe + re)(λ) = 0 ⇐⇒ re(λ) = 0 ⇐⇒ re = 0 ⇐⇒ r = 0. Donc λ est un zéro ⇐⇒ f = gq = q(t − λ). Remarque 5.31. Comme λ1 est un zéro si et seulement si f = q(t − λ1 ), λ2 de même et λ2 6= λ1 , etc. Soient λ1 , . . . , λr différents deux à deux des racines Qr de f . Alors il existe un q ∈ K[t] tel que f = q i=1 (t − λ). Corollaire 5.32. Soit f ∈ K[t], f 6= 0. Alors f a au maxmimum deg f racines. Corollaire 5.33. Soit K un corps non fini. Alors K[t] → Map(K, K), p 7→ pe est injective. Démonstration. Soit f ∈ K[t] avec fe = 0 =⇒ fe(λ) = 0∀λ ∈ K =⇒ fe a un nombre infini de racines différentes deux à deux =⇒ f = 0 Remarque 5.34. Il existe des ponyômes non constants qui n’ont pas de racines — K = R, alors t2 + 1 n’a pas de racines — K = {a1 , . . . , as } =⇒ p := (t − a1 )(t − a2 ) . . . (t − as ) + 1 n’a pas de zéros. Proposition 5.35. 1. Soit f ∈ R[t] un polynôme de degré impair. Alors f a au moins une racine. 2. Toute matrice A ∈ M(n × n, R avec n impair possède une valeur propre 3. Soit F ∈ End(V ) de dimension impair, avec V un espace vectoriel. Alors F possède une valeur propre. Théorème 5.36 (Théorème fondamental de l’Algèbre). Tout polynôme f ∈ C[t], avec deg f ≥ 1 a une racine complexe. Corollaire 5.37. Soit f ∈ C[t] un polynôme de degré n, n ≥ 0. Alors il existe λ1 , . . . , λn ∈ C et a ∈ C tel que f (t) = α(t − λ1 )(t − λ2 ) . . . (t − λn ). Démonstration. Si n = 0, alors f = a. Si n > 1. Alors il existe λ1 ∈ C avec fe(λ1 ) = 0 par le thm.f.A, donc f1 ∈ C[t], deg(f1 ) = deg(f ) − 1 avec f = (t − λ)f1 , et ainsi de suite, on trouve f = (t − λ1 ) . . . (t − λn )α, avec α ∈ K[t]0 . 72 Chapitre 6 Annexe 6.1 Relations d’équivalences Définition 6.1 (Relation). Une relation sur un ensemble X est un sous-ensemble T ⊂ X × X. Notation 6.2. Soit (a, b) ∈ T une relation, on écrit a ∼ b. Définition 6.3 (Relation d’équivalence). Une relation est dite relation d’équivalence si — ∀x ∈ X, x ∼ x (réflexivité) — ∀x, y ∈ X, x ∼ y =⇒ y ∼ x (symétrie) — ∀x, y ∈ X, x ∼ y ∧ y ∼ z =⇒ x ∼ z (transitivité). Exemple 6.4 (Relation d’équivalence). Soit X = R, avec la relation (<), c’està-dire à (a, b), on associe a < b. — a < a ? Non ! — a < b =⇒ b < a ? Non ! — a < b ∧ b < c =⇒ a < c ? Oui ! Ce n’est donc pas une relation d’équivalence, car elle n’est ni réflexive ni symétrique. Avec ≤ ? — a ≤ a ? Oui ! — a ≤ b =⇒ b ≤ a ? Non ! — a ≤ b ∧ b ≤ c =⇒ a ≤ c ? Oui ! Ce n’est pas une relation d’équivalence, elle est uniquement réflexive et transitive. Avec = ? — a = a ? Oui ! — a = b =⇒ b = a ? Oui ! — a = b ∧ b = c =⇒ a = c ? Oui ! = est donc une relation d’équivalence. 73 Définition 6.5 (Classe d’équivalence). La classe d’équivalence de x ∈ X est définie comme [x] := {y ∈ X |y ∼ x } On appelle un élément y ∈ [x] un représentant de [x]. On a alors [y] = [x]. On peut montrer que X est une union disjointe de toutes les classes d’équivalences. Définition 6.6 (Classe Z /2 · Z). On définit Z /m · Z. On a la relation d’équivalence sur Z telle que r ∼ s : ⇐⇒ r ≡ s mod m ⇐⇒ m | r − s. C’est une relation d’équivalence car — x ∼ x, car m | x − x = 0 — x ∼ y =⇒ y ∼ x car m | x − y =⇒ m ÷ y − x — x ∼ y ∧ y ∼ z =⇒ x ∼ z, car m | x − y ∧ m | y − z =⇒ m | (x − y) + (y − z) = x − z. Les classes d’équivalence r ∈ Z [r] := {x ∈ Z |x ∼ r } = {r + m · a ∈ Z |a ∈ Z } = r + m · Z On appelle Z /m · Z l’ensemble des classes des résidus modulo m. Exemple 6.7. Les classes d’équivalence de Z /2 · Z sont [0] = 2 · Z = { nombres pairs } et [1] = 1 + 2 · Z = { nombres impairs } 6.2 Nombres complexes Définition 6.8 (Nombre complexe). Soit C := R × R := {(a, b)| a, b ∈ R} +: ·: Remarque 6.9. (−a, −b) C×C → C (a, b) + (a0 , b0 ) := (a + a0 , b + b0 ) C×C → C (a, b) · (a0 , b0 ) := (a · a0 − b · b0 , a · b0 + a0 · b) 1. (C, +) est un groupe abélien, 0 := (0, 0), −(a, b) = 2. (C∗ =: C \{0}, ·) est un groupe abélien, 1 := (1, 0), (a, b) · −b a a2 +b2 , a2 +b2 . Remarque 6.10. Soit ϕ : R → C, x 7→ (x, 0) =⇒ ϕ est un homomorphisme de corps et R est un sous-corps de C. On identifie R par ϕ(R) ∈ C, on écrit a := ϕ(a) = (a, ) ∀a ∈ R et ı := (0, 1) ∈ C et on écrit a + ı · b = a + b · ı = (a, b) ∈ C ∀a, b ∈ R. Chaque nombre complexe peut s’écrire sous la forme a + ı · b. On a 74 — — — — (a + ı · b) + (a0 + ı · b0 ) = (a + a0 ) + ı · (b + b0 ) (a + ı · b) · (a0 + ı · b0 ) = (a · a0 − b · b0 ) + ı · (a · b0 + a0 · b) 1 l’inverse de a + ı · b 6= 0 st a2 +b 2 · (a − ı · b) √ 2 2 ı = (0 − 1) + ı · (0 + 0) =⇒ ı = −1 =⇒ ı = −1 Définition 6.11 (Conjugué complexe). Soit k : C → C, z := a + ı · b 7→ z̄ := a − ı · b, la conjugation complexe =⇒ k est un isomorphisme de corps. On appelle z̄ le conjugé complexe de z. Définition 6.12 (Norme). On définit |z| pour z = (a, b) = a+ı·b par Pythagore √ √ |z| = a2 + b2 = z · z̄ Démonstration. z · z̄ = (a+ı·b)·(a−ı·b) = a2 −(ı·b)2 = a2 −ı2 ·b2 = a2 +b2 Remarque 6.13 (Inverse). On remarque, pour z ∈ C, z 6= 0 1 z̄ z̄ = = 2 z z · z̄ |z| Définition 6.14 (Coordonnées polaires). Chaque point z ∈ C, Z 6= 0 peut être décrit en coordonnées polaires, par (r, α), avec r := |z| et α = arg(z) l’angle avec l’axe des x Remarque 6.15 (Multiplication des complexes en forme polaire). Soit z1 , z2 deux complexes décrits en formes polaires. On a z1 · z2 = (r1 · r2 , α1 + α2 Théorème 6.16 (Théorème fondamental de l’Algèbre). Soit p(z) = a0 + a1 z + · · · + an · z n , a0 , a1 , . . . , an ∈ C, an 6= 0 de degré n ≥ 1 possède au moins un zéro dans C, c’est-à-dire, ∃z0 ∈ C tel que p(z0 ) = 0. Exemple 6.17. p(z) = 1 + z 2 n’a aucune solution réelle, mais p(ı) = 0 (et p(−ı) = 0) 75