Algèbre 1 : Calculs algébriques & Algèbre linéaire y 1 (0,1) v (-2,1) x b −2 O −1 (1,0) 1 2 −1 Illustration de la base canonique de R2 . Les vecteurs bleu et orange sont les éléments de cette base ; le vecteur vert peut être exprimé en fonction des autres vecteurs, et donc est linéairement dépendant. Sommaire I Éléments de logique et de théorie des ensembles 1 1 Éléments de logique 1.1 Proposition et connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Raisonnement mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 2 Éléments de théorie des ensembles 2.1 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 L’ensemble des entiers naturels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 6 9 II 3 Généralités 3.1 Définitions et opérations . . . . . . 3.2 Degré . . . . . . . . . . . . . . . . 3.3 Dérivées d’un polynôme et racines 3.3.1 Dérivées . . . . . . . . . . . 3.3.2 Racines d’un polynôme . . 4 Arithmétique dans K[X] 4.1 Division euclidienne . . . 4.2 Polynômes irréductibles et 4.3 Décomposition en facteurs 4.3.1 Cas C[X] . . . . . 4.3.2 Cas R[X] . . . . . Polynômes 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 13 13 15 . . . . . . . . . . . . . . P GCD de 2 polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 17 17 17 III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espaces vectoriels 5 Définitions et exemples 5.1 E = {0} . . . . . . . . . . . . . . . . . . . . . . . . 5.2 E = Kn , n ∈ N∗ . . . . . . . . . . . . . . . . . . . . 5.3 K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 L’ensemble des suites à valeurs dans K . . . . . . . 5.5 L’ensemble des applications de T à valeurs dans K . . . . . . . . . . . . . . . . . . . . . . . . . 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 19 20 21 21 6 Sous-espaces vectoriels 22 6.1 Définitions-exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.2 Intersection et somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 6.3 Sous-espace vectoriel engendré par une famille finie de vecteurs . . . . . . . . . . . . . . . . . . . 24 7 Familles génératrices et libres 26 7.1 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 7.2 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2 8 Bases et dimension 8.1 Définitions . . . . . . . . . . . 8.2 Théorèmes fondamentaux . . 8.3 Conséquences du théorème de 8.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 27 27 28 9 Détermination pratique de la dimension d’un espace vectoriel 29 9.1 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 9.2 Calcul du rang d’une famille finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 IV Applications linéaires et Matrices 10 Applications linéaires 10.1 Définitions, propriétés, exemples . . . . . 10.2 Noyau et image d’une application linéaire 10.3 Homothéties, projections, symétries . . . . 10.3.1 Homothéties . . . . . . . . . . . . 10.3.2 Projections . . . . . . . . . . . . . 10.3.3 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 31 32 32 33 33 11 Matrices 35 11.1 Définitions, opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 11.2 Représentation des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 11.3 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3 Première partie Éléments de logique et de théorie des ensembles 1 Chapitre 1 Éléments de logique 1.1 Proposition et connecteurs logiques Définition : Une proposition est un énoncé mathématique (ou non) qui possède l’une des valeurs de vérité suivante : vraie (V) ou fausse (F). Exemples : 1. « Il existe des hommes immortels »F (par expérience). 2. « L’ensemble des nombres entiers naturels premiers est infini »V (démontrable mathématiquement). Négation : Soit P une proposition. P V F non(P) F V non(P) contraire logique de (P). Conjonction et : Soient P et Q deux propositions. P V V F F Q V F V F P et Q V F F F (P et Q) est V si P et Q sont simultanéments V. Disjonction ou : P V V F F Q V F V F P ou Q V V V F (P ou Q) est V si l’une des propositions est V. Implication : ⇒ (P ⇒ Q) est synonyme de (non(P) ou Q) . P V V F F non(P) F F V V Q V F V F P⇒Q V F V V – Le F implique n’importe quoi. – (P ⇒ Q) est F uniquement lorsque P vraie et Q fausse. (P ⇒ Q) V si et seulement si on a : si P est vraie alors Q est vraie. 2 Lorsque (P ⇒ Q) est V : – P est une condition suffisante pour avoir Q. – Q est une condition nécessaire pour avoir P. Equivalence : ⇔ (P ⇔ Q) est synonyme de (P ⇒ Q et Q ⇒ P) . P V V F F Q V F V F P⇒Q V F V V Q⇒P V V F V P⇔Q V F F V (P ⇔ Q) V si et seulement si P et Q ont même valeurs de vérité. Soient P, Q, R trois propositions. – (non(P) et P) F non(non(P)) ⇔ P (non(P) ou P) V – Transitivité : (P ⇒ Q et Q ⇒ R) ⇒ (P ⇒ R) – Contraposée : (P ⇒ Q) ⇔ (non(Q) ⇒ non(P)) 1.2 Quantificateurs ∀ : quantificateur universel (∀x ∈ E, P(x) vraie) signifie littéralement « Pour tout éléments x de E, la proposition P(x) est vraie. » ∃ : quantificateur d’existence (∃x ∈ E, P(x) vraie) signifie « Il existe au moins un élément x de E pour lequel la proposition P(x) est vraie. » Négation : non(∀x ∈ E, P (x)) ⇔ (∃x ∈ E, non(P(x))) non(∃x ∈ E, P (x)) ⇔ (∀x ∈ E, non(P(x))) 1.3 Raisonnement mathématique Fondé sur une succession d’implications qui permet de déduire la conclusion des hypothèses. Principes : 1. Pour montrer qu’une proposition P est vraie, il suffit de montrer que non(P) est fausse. Intérêt : En général il est plus difficile de montrer une proposition du type « ∃x ∈ E, P (x). » 2. Raisonnement par l’absurde : Pour montrer que P est vraie, on raisonne par l’absurde en supposant que P est fausse. On essaie ensuite d’aboutir à une contradiction du type « Q vraie et non(Q) vraie », où Q est une proposition intervenant dans la démonstration. 3. Raisonnement par contraposée : Pour montrer l’implication (P ⇒ Q), il suffit de montrer sa contraposée (non(Q) ⇒ non(P)) (A confirmer avec 1). 3 Chapitre 2 Éléments de théorie des ensembles 2.1 Opérations sur les ensembles Définition : Un ensemble est une collection d’éléments E ensemble. x ∈ E : x est un élément de E. A ⊂ E : A est un ensemble tel que tout élément de A est élément de E. P(E) : L’ensemble des ensembles A ⊂ E. Remarque : A ⊂ E ⇔ A ∈ P(E) x∈E⇔ {x} ⊂ E ⇔ x ∈ P(E) |{z} singleton ∅ : Ensemble sans élément. On a toujours ∅ ⊂ E. A, B ∈ P(E) Exemples : P(∅) = {∅} P({1}) = {∅, {1}} P({1, 2}) = {∅, {1}, {2}, {1, 2}} | {z } paire Intersection ∩ : A ∩ B := {x ∈ E : x ∈ A et x ∈ B} A B A∩B Intersection de deux ensembles A et B, notée A ∩ B 4 Réunion ∪ : A ∪ B := {x ∈ E : x ∈ A ou x ∈ B} A B A∪B Intersection de deux ensembles A et B, notée A ∪ B Différence \ : A \ B := {x ∈ E : x ∈ A et x ∈ / B} = A \ (A \ B) A B A\B Différence de deux ensembles A et B, notée A \ B Cas particulier : Complémentaire de A : c A = E \ A = {x ∈ E : x ∈ / A} E b B A c A Complémentaire de deux ensembles A et B, noté c A 5 Remarque : ∀x ∈ E, (x ∈ A ⇒ x ∈ B) A = B ⇔ A ⊂ BetB ⊂ A Produit cartésien de 2 ensembles E, F défini par : E × F := {(x, y), x ∈ E et y ∈ F } Définition : Le cardinal d’un ensemble E est le nombre d’éléments de E lorsque E est fini et vaut +∞ lorsque E est infini. Exemples : Soient E, F 2 ensembles finis (6= ∅). card(E × F ) = card(E) × card(F ) ∀A, B ∈ P(E), card(A ∪ B) = card(A) + card(B) − card(A ∩ B) card(P(E)) = 2card(E) 2.2 Applications Définition : Soient E, F deux ensembles non vides. Une application (ou fonction) f de E dans F est la donnée d’une partie G de E × F vérifiant : ∀x ∈ E, ∃!y ∈ F, (x, y) ∈ G y est l’image de f par x et on note y = f (x). x est un antécédent de y par f . f: E x −→ F 7−→ f (x) G est appellé le graphe de f défini par : G = {(x, f (x)), x ∈ E} Gf x2 x Définition : Soit f : E → F une application. L’image directe de A ⊂ E par f est définie par : f (A) := {f (x), x ∈ A} ⊂ F L’image réciproque de B ⊂ F est défini par : 6 f −1 (B) = {x ∈ E : f (x) ⊂ B} Exemples : f: −→ 7−→ R x R x2 f (R) = R+ = f (R+ ) = f (R− ) f ([−1, 1]) = [0, 1] f −1 (R) = {x ∈ R : x2 ∈ R} = R f −1 (0) = {x ∈ R : x2 ∈ R} = {0} f −1 ([−1, 1]) = {x ∈ R, x2 ∈ [1−, 1]} = [−1, 1] Propriétés des fonctions Définition : Soit f : E → F une application. On dit que f est injective si tout élément de F possède au plus un antécédent par f , c’est à dire : ∀x, x′ ∈ E, (f (x) = f (x′ ) ⇒ x = x′ ) Utile en pratique On dit que f est surjective si tout élément de F possède au moins au antécédent par f , c’est à dire : ∀y ∈ F, ∃x ∈ E, y = f (x) ou bien f (E) = F On dit que f est bijective si elle est à la fois injective et surjective, c’est à dire : ∀y ∈ F, ∃!x ∈ E, y = f (x) Injection Surjection Bijection b b b b b b b b b b b b b b b b b b b b b b b Définition : Soit f : E → F bijective. On définit l’application réciproque de f , notée f −1 , par : f −1 : F y −→ 7−→ E x tel que f (x) = y On en déduit y = f (x) ⇔ x = f −1 (y) f non injective ⇔ ⇔ non(∀x, x′ ∈ E, f (x) = f (x′ )) ⇒ x = x′ ∃x, x′ ∈ E, f (x) = f (x′ ) et x 6= x′ Exemples : 7 1 1 −1 1. f: R x −→ 7−→ R x2 Ici, f (1) = f (−1) = 1 et 1 6= −1 Donc f n’est pas injective. −1 ∈ / f (R) ⊂ R+ Donc f n’est pas surjective. 2. g: R −→ x 7−→ R+ x2 g n’est pas injective car g(1) = g(−1) et 1 6= −1. √ √ Soit y ∈ R+ , y = ( y)2 = g( y) d’où g surjective. 3. h: R+ −→ x 7−→ R+ x2 Pour tout y ∈ R+ , il existe un unique x ∈ R+ , tel que y = h(x) = x2 √ il s’agit de x = y. y = x2 , x ≥ 0 ⇔ ⇔ ⇔ De plus : h−1 : √ ( y)2 = x2 , x ≥ 0 √ √ ( y − x)( y + x) = 0, x ≥ 0 √ x= y R+ y −→ 7−→ R+ √ y h y=x h−1 1 1 8 Gh et Gh−1 sont symétriques par rapport à y = x. Composition d’application Définition : Soient E, F, G trois ensembles non vides, f : E → F et g : F → G deux applications. La composée de f par g, notée g ◦ f est l’application définie par : g ◦ f : E −→ x − 7 → x E G (g ◦ f )(x) = g[f (x)] f g 7 → f (x) − −→ F 7 → − −→ g[f (x)] G Proposition : Soient f : E → F et g : F → G bijectives. Alors g ◦ f est bijective et (g ◦ f )−1 = f −1 ◦ g −1 . Remarque : G −→ z g −1 7−→ F g −1 (z) −→ E f −1 7−→ f −1 (g −1 (z)) Soit f : E → F bijective. Alors f −1 ◦ f = IdE : E −→ x 7−→ E Application identité de E dans E, et f ◦ f −1 = IdF x En effet, si x ∈ E, (f −1 ◦ f )(x) = f −1 (f (x)) = x 2.3 L’ensemble des entiers naturels Définition : L’ensemble des entiers naturels, noté N, est défini par N = {0, 1, 2, ...}. Axiome (de Peano) : Toute partie non vide de N possède un plus petit élément, c’est à dire : ∀A ∈ P(N)\{∅}, ∃a ∈ A, ∀x ∈ A, a ≤ x. Remarque : Faux pour R, R∗+ ne possède pas de plus petit élément. Principe de récurrence : Soit P (n) une proposition qui dépend de n ∈ N. Alors P (n) est vraie pour tout n ∈ N si et seulement si P (0) vraie et ∀n ∈ N, P (n) ⇒ P (n + 1) vraie . Exemple : ∀n ∈ N, 2n > n. Montrons le résultat par récurrence sur n. n = 0 20 = 1 > 0 vraie. Soit n ∈ N. On suppose que 2n > n. (Hypothèse de récurrence). On a 2n+1 = 2 × 2n ≥ 2(n + 1) > n + 1 d’ou 2n+1 > n + 1 D’après le principe de récurrence, 2n > n. Définition : Soient E, F 2 ensembles. On dit que card(E) ≤card(F ) s’il existe une injection de E dans F . On dit que card(E) ≥card(F ) s’il existe une surjection de E dans F . On dit que card(E) =card(F ) s’il existe une bijection de E sur F . Définition : E est dit au plus dénombrale s’il existe une injection de E dans N, c’est à dire card(E) ≤card(N). Remarque : Si E est au plus dénombrale alors E est fini. (card(E) <card(N) ou E est infini (card(E) = card(N)). 9 Théorème (Formule du binôme de Newton) : Soit n ∈ N∗ . Alors ∀a, b ∈ C, (a + b)n = n X Cnk ak bn−k où Ckn = n! k!(n−k)! k=0 Conséquence : k+1 ∀n ∈ N, ∀k ∈ {0, ..., n}, Cnk + Cnk+1 = Cn+1 Triangle de Pascal : Cnk n=1 n=2 n=3 n n+1 k=0 1 1 1 k=1 1 2 3 1 3 1 - k k+1 Cnk Cnk+1 Cnk+1 10 Deuxième partie Polynômes 11 Chapitre 3 Généralités K = R ou C. 3.1 Définitions et opérations Définition : Un polynôme sur K est une expression du type P = +∞ X an X n où (an )n∈N est une suite de K n=0 nulle à partir d’un certain rang. P = p X n=0 an X n pour un certain p ∈ N avec ∀n > p, an = 0. X est appellée l’indéterminée. On note K[X] l’ensemble des polynômes sur K. Convention : X 0 = 1. +∞ +∞ X X bn X n . an X n , Q = Opérations : Soient P = n=0 n=0 – Addition : P + Q = +∞ X (an + bn )X n k=0 – Produit : P × Q = P Q = +∞ X cn X n où cn = n=0 n X ak bn−k = n=0 X a p bp p+q=k Exemple : (X 2 + 1)(X 2 + 3X + 2) = X 2 (X 2 + 3X + 2) + 1(X 2 + 3X + 2) = X 4 + 3X 3 + 2X 2 + 3X + 2 = X 4 + 3X 3 + 3X 2 + 3X + 2 Composition 0 : P0 Q = +∞ X n=0 an Qn (X → Q dans P ) avec Qn = (Q × Q × ... × Q) {z } | n f ois Théorème : (K[X], +, ×) est un anneau commutatif et unitaire, c’est à dire : (K[X], +, ×) est un groupe commutatif : 1. ∀P, Q ∈ K[X], P + Q = Q + P (commutativité) 2. ∀P, Q, R ∈ K[X], (P + Q) + R = P + (Q + R) (associativité) 3. 0 = +∞ X 0X n est l’élément neutre pour + : P + 0 = P. n=0 12 4. Tout P = +∞ X n=0 an X n ∈ K[X] a un opposé pour + : −P = +∞ X (−an )X n de sorte que P + (−P ) = 0. n=0 X possède les propriétés suivantes : 1. ∀P, Q ∈ K[X], P Q = QP (commutativité) 2. ∀P, Q, R ∈ K[X], (P Q)R = P (QR) (associativité) 3. 1 = X 0 est l’élément neutre pour X : ∀P ∈ K[X], XP = P . 4. X est distributif par rapport à + : ∀P, Q, R ∈ K[X], P (Q + R) = P Q + P R Convention : On identifie le polynôme constant a0 X 0 à la constante a0 ∈ K. On peut aussi plonger K dans K[X] qui devient un sous-anneau de K[X]. Proposition : Le binôme de Newton est valable dans K[X]. Notation : P = P (X) = +∞ X an X n n=0 3.2 Degré Définition : Soit P = +∞ X n=0 an X n ∈ K[X] Le degré de P , noté deg(P ), est défini par : max {n ∈ N : an 6= 0} si P 6= 0 deg(P ) = −∞ si P = 0 Le coefficient dominant de P 6= 0 est adeg(P ) . Exemple : deg(4X 3 + 3X 2 + 5X + 1) = 3 avec adeg(P ) = 4 Convention : ∀n ∈ N, n + (−∞) = (−∞) + n = −∞ ⇒ (−∞) + (−∞) = −∞ ⇒ −∞ < n Proposition : Soient P, Q ∈ K[X] • deg(P + Q) ≤ max(deg(P ), deg(Q)) avec deg(P ) 6= deg(Q) • deg(P Q) = deg(P ) + deg(Q) Corollaire • ∀P, Q ∈ K[X], P Q = 0 ⇒ P = 0 ou Q = 0 (l’anneau K[X] est dit intégré). • Soit P ∈ K[X] {0}. Alors P est inversible dans K[X] si et seulement si P ∈ K[X]\{0} (constante non nulle). 3.3 3.3.1 Dérivées d’un polynôme et racines Dérivées Définition : Soit P = +∞ X n=0 an X n ∈ K = [X] 13 Alors la dérivée de P est définie par : P′ = +∞ X nan X n−1 = +∞ X (n + 1)an+1 X n n=0 n=1 On choisit n = 1, car pour n = 0, le terme est constant. Plus généralement, la dérivée d’ordre k ∈ N de P est définie par : (0) P := P P (k+1) := (P (k) )′ +∞ X nan X n−1 P′ = n=1 P (2) = P ′′ = (P ′ )′ = +∞ X n=2 P (k) = +∞ X n=k n(n − 1)an X n−2 n(n − 1) − (n − k − 1)an X n−k = +∞ X k!Cnk an X n−k = +∞ X k k!Cn+k an+k X n n=k n=k Exemple : P = P (1) = P (2) = P (3) = P (4) = P (5) = donc P (k) X 4 − 3X 3 + 2X 2 + 5X + 4 4X 3 − 9X 2 + 4X + 5 12X 2 − 18X = 4 24X − 18 24 0 = 0 si k ≥ 5 Remarque : Soit P ∈ K[X] ; alors ∀k > deg(P ), P k = 0 Proposition (linéarité) : ∀k ∈ K, ∀P, Q ∈ K[X], ∀α ∈ K, (αP + Q)(k) = αP (k) + Q(k) Théorème (Formule de Leibniz) : ∀n ∈ K, ∀P, Q ∈ K[X], (P Q)(n) = n X Cnk P (k) Q(n−k) k=0 (P Q)′ = P ′ Q + P Q′ (n = 1) (P Q)′′ = P ′′ Q + 2P ′ Q′ + P Q′′ (n = 2) Définition : Soit P ∈ K[X], la fonction polynôme associée à P notée encore P , est définie par : P : K −→ K +∞ X an x n x 7−→ P (n) = n=0 Théorème (Formule de Taylor) : Soient P ∈ K[X] et a ∈ K. Alors P (X) = +∞ +∞ X X P (n) (a) P (n) (a) n (X − a)n ou P (X + a) = X n! n! n=0 n=0 14 3.3.2 Racines d’un polynôme Définition : Soit P ∈ K[X] et soit a ∈ K . • On dit que a est racine (zéro) de P si P (a) = 0 . • Soit n ∈ N. On dit que a est racine d’ordre n (ou multiplicité n) de P si P (a) = ... = P (n−1) (a) = 0. et P (n) (a) 6= 0 ∀k ∈ {0, ..., n − 1}P (k) (a) = 0 et P (n) (a) 6= 0 Exemple : P (X) := X 4 − 4X + 3 a := 1 P (1) = 1−4+3=0 P ′ (X) = 4X 3 − 4 ′ P (1) = 4−4=0 1 racine d’ordre 2 de P P ′′ (X) = 12X 2 P ′′ (1) = 12 6= 0 Remarque : n = 0 dire que a est racine d’ordre 0 est équivalent à dire que P (a) 6= 0, autrement a n’est pas racine de P . Théorème : Soient P ∈ K[X], a ∈ K, n ∈ N. Alors a est racine d’ordre n de P si et seulement si ∀Q ∈ K[X], P (X) = (X − a)n Q(X) et Q(a) 6= 0 Proposition : ∀n ∈ N∗ , ∀P, Q ∈ K[X], P n − Qn = (P − Q) n−1 X P k Qn−1−k k=0 Remarque : P P′ i2πk P ′ (e n ) = = = Xn − 1 nX n−1 i2πk n(e n )n−1 6= 0 On retrouve que les racines nièmes de l’unité sont simples c’est à dire d’ordre 1. Théorème (d’Alembert) : Tout polynôme non constant de P [X] possède au moins une racine. Remarque : • C’est un résultat d’analyse. • Faux sur R : X 2 + 1 ne possède pas de racine dans R, par contre dans C[X], X 2 + 1 = (X − i)(X + i) 15 Chapitre 4 Arithmétique dans K[X] 4.1 Division euclidienne Théorème : Soient A, B ∈ K[X] tel que B 6= 0 Alors il existe un unique couple (Q, R) ∈ K[X]2 tel que A = BQ + R et deg(R) < deg(B) Notation : Q quotient et R reste de la division euclidienne de A par B. Définition : Soient A, B ∈ K[X], B 6= 0 On dit que B divise A, et on note B|A, si le reste de la division euclidienne de A par B est 0, c’est à dire ∃Q ∈ K[X], A = BQ. Exemple : A := X 5 + X 4 + 2X 3 − X 2 −X 5 X3 + X2 0 + X 4 + X 3 − 2X 2 − X4 X2 + X 0 + X 3 − 3X 2 − X − X3 + X 2 0 − 3X − 2X − 1 X 3 + X + 1 =: B X2 + X + 1 +1 +1 +1 A − B(X 2 + X+) = −3X 2 − 2X Donc A = BQ + R avec Q := X 2 + X + 1 et R := −3X 2 − 2X avec deg(R) < deg(B) | {z } | {z } 2 3 Proposition : Si B|A1 et B|A2 alors pour tout P1 , P2 ∈ K[X] : B|A1 P1 + A2 P2 . 4.2 Polynômes irréductibles et P GCD de 2 polynômes Définition : Soit P ∈ K[X] non constant. On dit que P est irréductible dans K[X](ou sur K) si les seuls diviseurs de P sont les a ∈ K∗ et les aP, a ∈ K∗ . Proposition : Tout polynôme de degré 1 est irréductible sur K. Théorème : Soient A, B ∈ K[X], A, B 6= 0 Alors il existe un unique polynôme D unitaire (c’est à dire de coefficient dominant 1) tel que D|A, D|B et D vérifie l’identitié de Bézout : ∃(P, Q) ∈ K[X]2 , P A + P B = D Ainsi, tout diviseur commun à A et B divise D. D est appellé le plus grand diviseur commun à A et B et noté D =PGCD(A, B) Si PGCD(A, B)=1 on dit que A et B sont premiers entre eux. Pour calculer le PGCD de deux polynômes, on utilise l’algorithme d’Euclide (voir TD). 16 Théorème (Gauss) : Soient A, B, C ∈ K[X]\{0}. • PGCD(A, B) = 1 et A|BC ⇒ A|C • PGCD(A, B) = 1 et A, B|C ⇒ A × B|C 4.3 4.3.1 Décomposition en facteurs irréductibles Cas C[X] Théorème : Soit P ∈ C[X], P 6= 0. Alors P se décompose de manière unique, à l’ordre près des facteurs, sous la forme : m Y P (X) = α k (X − ak )m = α(X − a1 )m1 (X − a2 )m2 ... (X − am )mm k=1 où α coefficient dominant de P et les ak sont les m racines de P de multiplicité mk 2 à 2 différents. De plus, les polynômes irréductibles de C[X] sont les polynômes de degré 1. Remarque : Soient A = α m Y (X − ak )mk ∈ C[X]\{0} et B = β k=1 m Y (X − ak )nk ∈ C[X]\{0} k=1 où α, β 6= 0 et ak racine de A ou de B avec mk , nk ∈ N, (mk , nk ) 6= (0, 0). m Y (X − ak )min(mk ,nk ) = D. Alors PGCD(A, B) = k=1 4.3.2 Cas R[X] Théorème : Soit P ∈ R\{0}. Alors P se décompose de manière unique, à l’ordre près des facteurs, sous la forme : P (X) = α m Y (X − ak )mk × k=1 n Y (X 2 + ak X + βk )nk k=1 où α ∈ R , a sont les m racines réelles de P 2 à 2 différents de multiplicité mk , αk , βk ∈ R, αk 2 − 4βk < 0, X 2 + αk + βk = (X − bk )(X − bk ) avec bk 6= bk les 2 racines complexes non réelles de P de multiplicité nk . ∗ Remarque : (X − bk )(X − bk ) = X 2 − (bk + bk )X + bk bk = X 2 − 2Re(bk )X + |bk |2 [X] βk Théorème : Les polynômes irréductibles de R[X] sont les polynômes de degré 1 et les polynômes de degré 2 sans racine réelle. 17 Troisième partie Espaces vectoriels 18 Chapitre 5 Définitions et exemples On se donne un ensemble non vide E que l’on munit de 2 opérations : Addition interne : + : E × E −→ E (x, y) 7−→ x + y Multiplication externe : • : K × E −→ E (λ, x) 7−→ λ.x + et • doivent avoir un certain nombre de propriétés qui font de (E, +, •) un espace vectoriel sur K. Un élément de K est appelé un scalaire, un élément de E un vecteur. 5.1 E = {0} On définit les opérations + et • : 0+0=0 λ.0 = 0 si λ ∈ K 0 vecteur nul de (E, +, •) qui définit un espace vectoriel sur K. 5.2 E = K n , n ∈ N∗ Soit n ∈ N∗ . n−uplet z }| { Définition : Kn := K × ... × K = {(x1 , x2 , ..., xn ), xn ∈ K} {z } | n fois On définit l’addition + dans Kn par : Pour x = (x1 , x2 , ..., xn ) et y = (y1 , y2 , ..., yn ) ∈ Kn x + y := (x1 + y1 , x2 + y2 , ..., xn + yn ) ∈ Kn Pour λ de K : λ.x = (λx1 , λx2 , ..., λxn ) ∈ Kn λxi produit usuel de λ par xi dans K. 19 Exemple : λx (λ > 1) λx2 x+y x 2 + y2 x x2 y y2 x1 λx1 y1 x 1 + y1 Propriétés : Les opérations + et • vérifient les propriétés suivantes : (Kn , +) groupe commutatif. 1. ∀x, y ∈ Kn , x + y = y + x [commutativité] 2. ∀x, y, z ∈ Kn , (x + y) + z = x + (y + z) [associativité] 3. 0Kn : (0, 0, ..., 0) est l’élément neutre de Kn , c’est à dire ∀x ∈ Kn , x + 0Kn = x. 0Kn est appelé le vecteur nul de Kn . 4. Tout élément x de Kn possède un opposé (unique) −x = (−x1 , ..., −xn ) tel que x + (−x) = 0Kn . La multiplication externe vérifie : 1. ∀λ, µ ∈ K, ∀x ∈ Kn , λ.(µ.x) = (λµ).x [associativité de •] 2. ∀λ ∈ K, ∀x, y ∈ Kn , λ.(x + y) = λ.x + λ.y [distributivité à gauche] 3. ∀λ, µ ∈ K, ∀x ∈ Kn , (λ + µ).x = λ.x + µ.x [distributivité à droite] 4. ∀x ∈ Kn , 1.x = x (Kn , +, •) est un espace vectoriel sur K, en abrégé un K-ev. Notations : OK n → 0 λ.x → λx x + (−y) → x − y Remarque : ∀λ ∈ K, λ.0 = 0 ∈ Kn ∀x ∈ Kn , 0.x = 0 ∈ Kn ∀x ∈ Kn , −x = (−x1 , −x2 , ..., −xn ) = (−1).x 5.3 K[X] Addition usuelle dans K[X] : +∞ +∞ X X bn X n . an X n et Q := Soient P = n=0 n=0 20 P +Q= +∞ X n=0 (an − bn )X n Multiplication externe : +∞ X λan X n Soit λ ∈ K, λ.P = n=0 (K[X], +, •) est un K-ev. +∞ X 0X n . 0K[X] polynôme nul = n=0 −P = 5.4 +∞ X (−an )X n . n=0 L’ensemble des suites à valeurs dans K Cet ensemble est noté KN = {(un )n∈N , un ∈ K, ∀n ∈ N}. Soit u ∈ KN , u = (un )n∈N = (u0 , u1 , u2 , ...) α-uplet Addition dans KN : Soient u = (un )n∈N , v = (vn )n∈N ∈ KN u + v := (un + vn )n∈N Multiplication externe : Soit λ ∈ K. λ.u = (λun )n∈N (KN , +, •) est un K-ev. OKN = (0)n∈N = (0, 0, ...) −u = (−un )n∈N 5.5 L’ensemble des applications de T à valeurs dans K Soit T un ensemble non vide (T sera souvent un intervalle de R). L’ensemble des applications de T dans K est noté KT ou F(T, K). f : T −→ K Un élément f de KT est une application t 7−→ f (t) Addition dans KT : f + g : T −→ K Soient f, g ∈ KT , t 7−→ f (t) + g(t) Multiplication externe dans KT : Soient λ ∈ K, f ∈ KT . λ.f : T −→ K t 7−→ (λ.f )(t) = λf (t) Remarque : KN est le cas particulier de KT avec T = N. 0KT : T −→ K application nulle est le vecteur nul de KT . t 7−→ 0 (KT , +, •) est un K-ev. −f : T −→ K d’où f + (−f ) = 0KT t 7−→ −f (t) 21 Chapitre 6 Sous-espaces vectoriels 6.1 Définitions-exemples Définition : Soit F une partie de E. On dit que F est un sous-espace vectoriel de E, en abrégé sev de E, si 1. 0F (vecteur nul de F ) ∈ F 2. ∀λ ∈ K, ∀x, y ∈ F, (λ.x) + y ∈ F Remarque : 2. est équivalente à 1. ∀x, y ∈ F, x + y ∈ F 2. ∀λ ∈ K, ∀x ∈ F, λ.x ∈ F Exemple : 1. {0E } et E sont des sev de E. 2. F := {x = (x1 , x2 , x3 ) ∈ R3 : x1 + x2 + x3 = 0} Montrons que F est un sev de R3 . – 0 = (0, 0, 0) ∈ F car 0 + 0 + 0 = 0 – Soient x, y ∈ F, λ ∈ R. λx + y = (λx1 , λx2 , λx3 ) + (y1 , y2 , y3 ) = (λx1 + y1 , λx2 + y2 , λx3 + y3 ) On a (λx1 + y1 ) + (λx2 + y2 ) + (λx3 + y3 ) = λ(x1 + x2 + x3 ) + (y1 + y2 + y3 ) = λ0 + 0 = 0 G = {x = (x1 , x2 ) ∈ R2 : x1 + x2 = 0} x2 G 1 −1 x1 Droite vectorielle sev de R2 Plus généralement, si λ1 , ..., λn ∈ K : {x = (x1 , x2 , ..., xn ) ∈ Kn : λ1 x1 + λ2 x2 + ... + λn xn = 0} est un sev de Kn . 22 3. Soit n ∈ N∗ . Alors : Kn [X] := {P ∈ K[X] : deg(P ) ≤ n} est un sev de K[X] : – 0 ∈ Kn [X] car deg(0) = −∞ ≤ n. – Soient λ ∈ K, P, Q ∈ Kn [X] : deg(λP + Q) ≤ max(deg(λP ), deg(Q)) ≤ max(deg(P ), deg(Q)) ≤ n d’où λP + Q ∈ Kn [X]. 4. E = RN R-ev des suites réelles. F := {u = (un )n∈N : lim un existe dans R} n→+∞ F est un sev de E. – 0 = (0)n∈N ∈ F car lim 0 = 0. n→+∞ – Soient λ ∈ R, u = (un )n∈N , v = (vn )n∈N ∈ F tel que : lim un = a ∈ R et lim vn = b ∈ R n→+∞ n→+∞ Alors (cf cours d’analyse) : lim (λun + vn ) = λa + b ∈ R n→+∞ d’où λu + v = (λun + vn )n∈N ∈ F 5. E = RR = F(R, R). Soit F := {f ∈ RR : f (0) = 0}. F est un sev de RR . 0 : R −→ R ∈ F car 0(0)=0. t 7−→ 0 – Soient λ ∈ R, f, g ∈ F , c’est à dire f (0) = g(0) = 0. (λ.f + g)(0) = λf (0) + g(0) = 0 d’où λf + g ∈ F . – Remarque : Soit F un sev de E. On peut alors définir une addition dans F : + : F × F −→ F (x, y) 7−→ x + y | {z } addition dans E Une multiplication externe dans F : • : K × F −→ F λ, x 7−→ |{z} λ.x multiplication dans E Ainsi (F, +, •) est lui même un K-ev. 6.2 Intersection et somme de sous-espaces vectoriels Théorème : Soient F, G 2 sev de E(E K-ev). 1. F ∩ G est un sev de E. 2. On définit la somme F + G par : F + G := {y + z, y ∈ F et z ∈ G} Alors F + G est un sev de E. On note F ⊕ G lorsque F ∩ G = {0E } et on appelle alors F ⊕ G la somme directe de F et G. 3. E = F ⊕ G ⇔ ∀x ∈ E, ∃!(y, z) ∈ F × G, x = y + z Exemple : E = R3 , F := {x ∈ R3 : x1 + x2 + x3 = 0} et G := {x ∈ R3 : x2 = 0} 23 F + G? Soitx ∈ R3 , x = (x1 , x2 , −x1 − x2 ) + (0, 0, x1 + x2 + x3 ) | {z } {z } | ∈F ∈G = (0, x2 , −x2 ) + (x1 , 0, x2 + x3 ) | {z } | {z } ∈F ∈G Il n’y a pas d’unicité de la décomposition. F ∩ G = {x ∈ R3 : x1 + x2 + x3 = x2 = 0} = {x ∈ R3 : −x1 = x3 et x2 = 0} = {(x1 , 0, −x1 ), x1 ∈ R} 6= {0} Donc E = F + G mais pas en somme directe. 6.3 Sous-espace vectoriel engendré par une famille finie de vecteurs Définition : Soit E un K-ev. Soit S = (v1 , v2 , ..., vp ) une famille de p vecteurs de E. Alors il existe un plus petit (pour l’inclusion) sev de E contenant S. Il est noté Vect(S)=Vect(v1 , v2 , ..., vp ) et est caractérisé par : ( p ) X Vect(S) = λi v i , λi ∈ K i=1 p X λi vi = λ1 v1 + λ2 v2 + ... + λp vp est appelé une combinaison linéaire avec les vecteurs v1 , v2 , ..., vp affectés i=1 des coefficients λ1 , λ2 , ..., λp . Soit F sev de E, contenant S. p X Alors ∀(λ1 , ..., λp ) ∈ Kp , λi . v i ∈ F |{z} i=1 ∈F Autrement dit, F est stable par combinaison linéaire. D’où si F sev qui contient S alors F contient les combinaisons linéaires de vecteurs de S, donc Vect(S) ⊂ F . Donc Vect(S) est bien le plus petit sev de E contenant S. Exemple : 1. Soit E un K-ev et x ∈ E\{0}. notation z}|{ S := (x). Alors Vect(x) = {λ.x, λ ∈ K} = Kx est la droite vectorielle engendrée par x. x 24 Kx 2. E = R3 , v1 := (1, −1, 0), v2 := (1, 0, −1). Vect(v1 , v2 ) = {λ1 v1 + λ2 v2 , λ1 , λ2 ∈ R} = {λ1 (1, −1, 0) + λ2 (1, 0, −, ); λ1 , λ2 ∈ R} = {(λ1 + λ2 , −λ1 , −λ2 ), λ1 , λ2 ∈ R} Représentation paramétrique = {x ∈ R3 : x1 + x2 + x3 = 0} Représentation cartésienne Soit x ∈ R3 , tel que x1 + x2 + x3 = 0. Alors x = (−x2 − x3 , x2 , x3 ). 3. E = R[X] Soit n ∈ N∗ . Rn [X] = {P ∈ K[X] : deg(P ) ≤ n} n X ak X k , a0 , ..., an ∈ R} ={ k=0 = Vect(1, X, ..., X n ) 4. E = RR Soit F := {f ∈ RR : f 2 fois dérivables sur R et f ′′ + f = 0}. On a sin, cos ∈ F et plus génaralement pour tout λ, µ ∈ R : λ sin +µ cos : R −→ R t 7−→ λ sin(t) + µ cos(t) D’où Vect(sin, cos) ⊂ F . Soit f ∈ F On pose g := f − f (0) cos −f ′ (0) sin g : R −→ R t 7−→ f (t) − f (0) cos(t) − f ′ (0) sin(t) et h := g 2 + (g ′ )2 . h est dérivable sur R, h′ = 2gg ′ + 2g ′ g ′′ = 2g ′ (g + g ′′ ) Or g ′′ = f ′′ − f (0) cos′′ −f ′ (0) sin′′ = −f + f (0) cos +f ′ (0) sin = −g. Alors h′ = 2g ′ (g + g ′′ ) = 0. Donc h est constante. h = h(0) = g(0)2 + (g ′ (0))2 g(0) = f (0) − f (0) cos(0) = 0 g ′ (0) = f ′ (0) − f ′ (0)sin′ (0) = 0 Donc h = 0 sur R, d’où g = 0. D’où f = f (0) cos +f ′ (0) sin Donc F = Vect(cos, sin). 25 Chapitre 7 Familles génératrices et libres 7.1 Familles génératrices Définition : Soit E un K-ev et soit S = (v1 , v2 , ..., vn ) une famille de p vecteurs de E. On dit que S est génératrice si E = Vect(S) , autrement dit si tout vecteur de F est combinaison linéaire de vecteurs de la famille S. Exemple : 1. K = {λ, λ ∈ R} = {λ.1, λ ∈ R} = Vect(1) = K1. Donc (1) est une famille génératrice de K. K2 = {(λ1 , λ2 ), λ1 , λ2 ∈ K} = {λ1 (1, 0) + λ2 (0, 1), λ1 , λ2 ∈ K} = Vect((1, 0), (0, 1)) Donc ((1, 0), (0, 1)) est une famille génératrice de K2 . Plus généralement, pour n ∈ N∗ , (e1 , e2 , ..., en ) de K2 . 1 ≤ i ≤ n est une famille génératrice (f g) de Kn : ei = ( 0, 0, ..., 1 , 0, ..., 0) | {z } ième position En effet, tout x = (x1 , x2 , ...xn ) ∈ Kn se décompose sous la forme : x = x1 (1, 0, ..., 0) + xn (0, 1, 0, ..., 0) + ... + xn (0, 0, ..., 0, 1) n X x i ei . = x1 e1 + x2 e2 + ... + xn en = i=1 Pour n = 3, x = (x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) Donc Kn = Vect(e1 , e2 , ..., en ) 2. Soit n ∈ N∗ . Alors (1, X, ..., X n ) est une famille génératrice de Kn [X]. 3. E = RN le R-ev des suites réelles. Soit F := {u = (un )n∈N : ∀n ∈ N, un+1 = aun } où a ∈ R∗ fixé, c’est à dire F est l’ensemble des suites géométriques de raison a. Soit u ∈ F alors par récurrence sur n ∈ N, un = u0 an . Réciproquement, u = (λan )n∈N , pour λ ∈ R, vérifie un=1 = λan+1 = a(λan ) = aun d’où u ∈ F . Donc F = {(λan )n∈N = λ(an )n∈N , λ ∈ R} = Vect((an )n∈N ) (an )n∈N est une famille génératrice de F . 7.2 Familles libres Définition : Soit E un K-ev. 26 Soit L = (u1 , ..., un ) une famille de n vecteurs de E. On dit que L est libre (ou que les vecteurs de L sont linéairement indépendants si : n X λi u1 = 0 ⇒ ∀i ∈ {1, ..., n}, λi = 0 ∀(λ1 , ..., λn ) ∈ Kn , i=1 On dit que L est liée (ou que les vecteurs de L sont linéairement dépendants si L n’est pas libre, c’est à dire : n X λi v i = 0 ∃(λ1 , ..., λn ) ∈ Kn \ {(0, 0, ..., 0)} tel que i=1 Proposition : L = (u1 , ..., un ) est liée si et seulement si l’un des vecteurs de L s’exprime comme combinaison linéaire des autres. Remarque : 1. Si une famille contient le vecteur nul alors elle est liée. 2. Si l’on ajoute des vecteurs à une famille génératrice, la famille ainsi complété reste génératrice. 3. Si l’on retire des vecteurs à une famille libre, la famille ainsi obtenue reste libre. Exemple : 1. E = Kn , n ∈ N∗ (e1 , e2 , ..., en ) est libre. Pour n = 3, ((1, 0, 0), (0, 1, 0), (0, 0, 1)) est libre dans K3 . Soient α, β, γ ∈ K tel que α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (α, β, γ) = (0, 0, 0) donc α = β = γ = 0. Donc la famille est libre. 2. E = R3 , v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (1, 1, 1) Soient α, β, γ ∈ R tel que αv1 + βv2 + γv3 = 0. = α(1, 0, 0) + β(1, 1, 0) + γ(1, 1, 1) = (α + β + γ, β + γ, γ) = (0, 0, 0) ⇔ α = β = γ = 0 Donc (v1 , v2 , v3 ) est libre. 3. E = RR (1, cos 2 , sin 2 ) est liée car 1 = cos 2 + sin 2 . (1, cos, sin) est libre. En effet : 1 : R −→ R et α, β, γ tel que α1 + β cos +γ sin = 0. t 7−→ 1 Alors ∀t ∈ R, α + β cos(t) + γ sin(t) = 0. Soient t=0:α+β =0 t = π2 : α + γ = 0 t=π :α−β =0 D’où α = β = γ = 0. 27 Chapitre 8 Bases et dimension 8.1 Définitions Définition : Un K-ev est dit de dimension finie s’il possède une famille génératrice finie. Sinon il est dit de dimension infinie. Exemple : 1. Kn , n ∈ N∗ est de dimension finie. Kn [X] est de dimension finie. 2. K[X], KN (suites), KR (fonctions R 7→ K) sont de dimension infinie. Définition : Une famille d’un K-ev E est une base de E si elle est à la fois libre et génératrice. Exemple : 1. ei = (0, ..., 1, ..., 0) i ≤ i ≤ n Alors (e1 , ..., en ) est une base de Kn appelée la base canonique de Kn . 2. (1, X, ..., X n ) est une base de Kn [X]. 3. E = RR = F (R, R) F := {f ∈ RR : f 2 fois dérivables sur R et f ′′ = 0} Alors F est un R-ev dont une base est (1, IdR ), où F sev de RR : clair(exercice) Soit f ∈ R : f ′′ = 0 ⇔ f ′ = a ∈ R(constante) ⇔ f ′ = aId′ ⇔ (f − aId)′ = 0 ⇔ f − aId = b constante Donc f ∈ F ⇔ ∃a, b ∈ Rf = aId + b1 D’où F = Vect(Id, 1) 1 : R −→ R IdR : R −→ R et . t 7−→ 1 t 7−→ t Soient λ, µ ∈ R tel que λId + µ1 = 0 alors ∀t ∈ R, λt + µ = 0 t = 0 : µ = 0 λt + µ = 0 t = 1 : λ + µ = 0 donc λ = µ = 0. Donc (Id, 1) est une base de F . 8.2 Théorèmes fondamentaux Théorème de la base incomplète : Soit E un K-ev engendré par une famille finie S : E = Vect(S) (c’est à dire E est de dimension finie). Soit L = (u1 , ..., up ) une famille libre de E qui n’est pas génératrice. Alors ∃v1 , ..., vq ∈ S, tel que (u1 , ..., up , v1 , ..., vq ) base de E. 28 Lemme 1 : Soient L une famille libre de E et x ∈ E. Alors L ∪ (x) liée si et seulement si x ∈ Vect(L) . Lemme 2 : Soient Bp une famille de E à p vecteurs et Cn une famille de E à n vecteurs. On suppose que Bp ⊂ Vect(Cn ) et p > n . Donc Bp est liée. Théorème de la dimension : Soit E un K-ev de dimension finie tel que E 6= {0}. 1. E possède une base B0 . On note n = card(B0 ). 2. Toutes les bases de E ont mêmes cardinal n. On appelle n la dimension de E et on note dim(E) = n. 3. Toute famille libre L de E a au plus n vecteurs, c’est à dire card(L) 6= n. De plus card(G) = n ⇔ G base de E . 4. Toute famille génératrice G de E a au moins n vecteurs, c’est à dire card(G) ≥ n . De plus card(G) = n ⇔ G base de E . Remarque : Soit E un K-ev de dimension n. Alors toute famille libre à n vecteurs est une base . De même toute famille génératrice à n vecteurs est une base . Utile en pratique ! Exemple : dim(Kn ) = n car (e1 , ..., en ) base (canonique) de Kn . E = R3 : Soient u1 = (1, 0, 0), u2 = (1, 1, 0), u3 = (1, 1, 1) On a (u1 , u2 , u3 ) libre et dim(R3 ) = 3. Donc (u1 , u2 , u3 ) est une base de E = R3 . 8.3 Conséquences du théorème de la dimension Théorème : Soient E un K-ev de dimension finie n ∈ N et F un sev de E. Alors dim(F ) ≤ dim(E) et dim(F ) = dim(E) ⇔ F = E . Convention : dim({0}) = 0. Théorème : Soit E un K -ev de dimension finie. Soient F, G 2 sev de E. Alors dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G) . Corollaire : Soit E un K-ev de dimension finie. Soient F, G 2 sev de E. Alors les assertions suivantes sont équivalentes : 1. E = F ⊕ G 2. E = F + G et dim(E) = dim(F ) + dim(G). 3. F ∩ G = {0} et dim(E) = dim(F ) + dim(G). Exemple : 1. Soit F sev de R2 . – F = {0} – dim(F ) = 1 alors F possède une base de type (x), x ∈ F \{0} Donc F = Rx = droite vectorielle engendrée pour x. – dim(F ) = 2 c’est à dire F = R2 , car dim(R2 ) = 2 29 2. Soient F := {x ∈ R4 : x1 − x2 = x3 − x4 = 0} et G := {x ∈ R4 : x1 + x2 = x3 + x4 = 0}. F, G sont deux sev. ((1, 1, 0, 0), (0, 0, 1, 1)) famille libre de F ((1, −1, 0, 0), (0, 0, −1, 1)) famille libre de G d’où dim(F ) et dim(G) ≥ 2. On a F ∩ G = {0}. Alors : 4 = dim(R4 ) ≤ dim(F ) + dim(G) | {z } | {z } ≥2 ≥2 = dim(F + G) ≤ 4 Donc dim(F ) = dim(G) = 2 et dim(R4 ) = dim(F ) + dim(G) d’où R4 = F ⊕ G. 3. E = R3 ((1, 0, 0), (1, 1, 0), (1, 1, 1)) famille libre de R3 , donc une base de R3 . Remarque : Soit E un K-ev muni d’une base B = (u1 , u2 , ..., un ) n X xi ui Alors ∀x ∈ E, ∃!(x1 , ..., xn ) ∈ Kn tel que x = i=1 Les xi sont appellés les coordonnées de x dans la base B . En effet l’existence des xi vient de B famille génératrice de E. L’unicité est une conséquence de B famille libre car : n n n X X X (xi − yi )ui = 0 ⇒ ∀i ∈ {1, ..., n}, xi = yi . yi u i ⇒ xi ui = x= i=1 8.4 i=1 i=1 Applications Suites récurrentes sur 2 termes : Soient a, b ∈ K, b 6= 0 . On définit F = Fa,b := {(un )n∈N ∈ KN : ∀n ∈ N, un+2 = aun+1 + bun } Proposition : F est un sev de KN , de dimension 2. Soient α, β les solutions (si elles existent) de l’équation x2 = ax + b appelée l’équation cartésienne de F ; Alors : 1. Si α 6= β alors ((αn )n∈N , (β n )n∈N ) base de F . 2. Si α = β alors ((αn )n∈N , (nβ n )n∈N ) base de F . 30 Chapitre 9 Détermination pratique de la dimension d’un espace vectoriel 9.1 Rang d’une famille de vecteurs Définition : Soit (u1 , ..., up ) une famille de p vecteurs de E. Le rang de (u1 , ..., up ) est défini par : rg(u1 , ..., up ) = dim(Vect(u1 , ..., up )) Théorème : 1. rg(u1 , ..., up ) 6= p 2. rg(u1 , ..., up ) = p ⇔ (u1 , ..., up ) est libre. 9.2 Calcul du rang d’une famille finie Proposition :Soit (u1 , u2 , ..., up ) une famille de E. Alors ∀λ2 , ..., λp ∈ K, rg(u1 , u2 , ..., up ) = rg(u1 , u2 + λu1 , ..., up + λp u1 ) Question : Déterminer rg(u1 , ..., up ). Méthode d’élimination de Gauss : 1reétape : On suppose que la première coordonnée dans la base B de l’un des vecteurs ui , par exemple u1,1 6= 0. Sinon on passe à la coordonnée suivante : i ≥ 2 : ui −→ u′i := ui + λi u1 de sorte que u′i,1 = 0 ui,1 ⇔ λi = − u1,1 Alors rg(u1 , u2 , ..., up ) = rg(u1 , u′2 , ..., u′p ). 2eétape : On recommence avec les vecteurs u′i et la deuxième cordonnée ou une suivante ; Par exemple u′2,2 6= 0. i ≥ 3 : u′i −→ u′′i = u′i + λ′i u′2 de sorte que u′i,2 = 0. Alors rg(u1 , u2 , ..., up ) = mg(u1 , u′2 , u′′3 , ..., u′p,p ). On réitère le processus jusqu’à épuisement des vecteurs ou des coordonnées. Proposition : rg(u1 , ..., up ) est le nombre de vecteurs non nuls à la fin du processus d’itérations. Remarque : K[X] le K-ev des polynômes à une indeterminée est de dimension infinie. 31 Quatrième partie Applications linéaires et Matrices 32 Chapitre 10 Applications linéaires 10.1 Définitions, propriétés, exemples Définition : Une application u : E −→ F (E, F 2 K-ev) est dite linéaire si : ∀λ ∈ K, ∀x, y ∈ F, u(λx + y) = λu(x) + u(y) Notation : L(E, F ) désigne l’ensemble des applications linéaires de E dans F . Propriétés : Soit u ∈ L(E, F ). 1. u(0E ) = 0F 2. ∀λ ∈ K, ∀(x, y) ∈ E 2 , u(λx + y) = λu(x) + u(y) Réciproquement, si u : E → F vérifie cette propriété alors u ∈ L(E, F ). n n X X λi u(xi ) λi x i ) = 3. ∀(x1 , ..., xn ) ∈ E n , ∀(λ1 , ..., λn ) ∈ Kn , u( i=1 i=1 Autrement dit, l’image d’une combinaison linéaire de vecteurs de E est égale à la combinaison linéaire des images avec les mêmes coefficients. Exemple : 1. L’application nulle 2. 0 : E −→ F est linéaire. x 7−→ 0F u : K −→ F avec y ∈ F , fixé. t 7−→ ty u ∈ L(K, F ) Soient λ ∈ K, s, t ∈ K. u(λs + t) = (λs + t)y0 = λ(sy0 ) + ty0 = λu(s) + u(t) 3. u : R → R est linéaire si et seulement si ∃a ∈ R, ∀x ∈ R, u(x) = ax Si u ∈ L(R, R), alors pour x ∈ R : u(x) = u(x1) = xu(1) = ax où a := u(1). Réciproquement, cf exemple 2). 4. u : R3 −→ R est linéaire. x 7−→ x1 + x2 + x3 Soient λ ∈ R, x, y ∈ R3 . u(λx + y) = u(λx1 + y1 , λx2 + y2 , λx3 + y3 ) = (λx1 + y1 ) + (λx2 + y2 ) + (λx3 + y3 ) = λ(x1 + x2 + x3 ) + (y1 + y2 + y3 ) = λu(x) + u(y) 33 Plus généralement, pour tout a1 , a2 , a3 ∈ R, alors : u : R3 −→ R x 7−→ a1 x1 + a2 x2 + a3 x3 En fait pour n, p ∈ N∗ , alors : u ∈ L(Rn , Rp ) si et seulement si ∃(aij ) 1≤i<p ∈ Rpn tel que : 1≤<n n X aij xj u(x) = j=1 1≤i<p = (a11 x1 + ... + a1n xn , a21 x1 + ... + a2n xn , ap1 x1 + ... + apn xn ). 5. Soit k ∈ N, alors 6. En effet, ∀λ ∈ K, u : K[X] −→ K[X] est linéaire. P 7−→ P (k) 7. Proposition : Soient u ∈ L(E, F ) et v ∈ L(F, G) où E, F, G 3 K-ev. 1. v ◦ u ∈ L(E, G) 2. Si u est bijective alors u−1 ∈ L(F, E) (L(E, F ), +, •) est un K-ev. 10.2 Noyau et image d’une application linéaire Définition : Soit u ∈ L(E, F ). 1. Le noyau de u, noté Ker(u) ; est défini par : Ker(u) = {x ∈ E : u(x) = 0F } (= u−1 ({0F })) C’est un sev de E. 2. L’image de u, notée Im(u), est définie par : Im(u) = {u(x), x ∈ E} (= u(E) image directe de E par u) C’est un sev de F . Proposition : Soit u ∈ L(E, F ). 1. u est injective si et seulement si Ker(u) = {0E }. 2. u est surjective si et seulement si Im(u) = F . 34 Contre-exemple : u : R −→ R x 7−→ x2 « Ker(u) »= {x ∈ R, u(x) = 0} = {0}. Mais u n’est pas injective, donc cette relation ne marche que pour les applications linéaires. Proposition : Soient E, F 2 K-ev et soit (e1 , ..., en ) une famille de E, n ∈ N∗ . 1. On suppose que u est injective. Alors : (e1 , ..., en )libre ⇔ (u(e1 ), ..., u(en )) libre. 2. On suppose que (e1 , ..., en ) est une famille génératrice de E. Alors : u surjective ⇔ (u(e1 ), ..., u(en )) est génératrice dans F . 3. On suppose que (e1 , ..., en ) est une base de E. Alors : u bijective ⇔ (u(e1 ), ..., u(en )) base de F . Théorème : Soient E, F 2 K-ev tel que dim(E) < +∞ et soit u ∈ L(E, F ) bijective. Alors dim(F ) = dim(E) . Remarque : Si u ∈ L(E, F ) bijective et dim(E) = +∞ alors dim(F ) = +∞. On raisonne par l’absurde avec u−1 ∈ L(F, E) bijective et dim(F ) < +∞ en appliquant le résultat précédent. Théorème (dimension du noyau) : Soit E un K-ev de dimension finie, F un K-ev et u ∈ L(E, F ). Alors dim(E) = dim(Ker(u)) + dim(Im(u)) Théorème : Soient E, F 2 K-ev de même dimension finie. Soit u ∈ L(E, F ). Alors les assertions suivantes sont équivalentes : u injective ⇔ u surjective ⇔ u bijective Remarque :Des exemples 2) et 3) on déduit que R[X] et RN sont des R-ev de dimension finie. 10.3 Homothéties, projections, symétries 10.3.1 Homothéties Définition : L’application h : E −→ E est l’homothétie de rapport λ, avec λ ∈ K, h ∈ L(E, E). x 7−→ λx λx x Homothétie de rapport λ(λ > 1) 35 10.3.2 Projections Soient E un K-ev et F, G 2 sev tel que E = F ⊕ G . Définition : La projection pF sur F parallèlement à G est l’application définie par : pF : E −→ E x 7−→ xF où x = xF + xG |{z} |{z} ∈F ∈G G x xG F xF = pF (x) Projection de x sur F parallèlement à G Proposition : 1. pF ∈ L(E, E), Im(pF ) = {x ∈ E : p(x) = x} = F et Ker(pF ) = G. 2. Soit p ∈ L(E, E) tel que p ◦ p = p. Alors E = Im(p) ⊕ Ker(p) et p est la projection sur Im(p) parallèlement à Ker(p). 10.3.3 Symétries Définition : La symétrie sF sur F par rapport à F parallèlement à G est l’application définie par : sF : E −→ E x 7−→ xF − xG où x = xF + xG |{z} |{z} ∈F ∈G G x xG F −xG sF (x) = xF − xG Symétrie de x sur F par rapport à F parallèlement à G Proposition : 36 1. sF ∈ L(E, E), sF ◦ sF = IdE . F = Ker(sF − IdE ) = {x ∈ E : sF (x) = x} G = Ker(sF + IdE ) = {x ∈ E : sF (x) = −x} 2. Soit s ∈ L(E, E) tel que s ◦ s = IdE . Alors E = Ker(s − IdE ) ⊕ Ker(s + IdE et s est la symétrie par rapport à Ker(s − IdE ) parallèlement à Ker(s + IdE ). 37 Chapitre 11 Matrices 11.1 Définitions, opérations Définition : Soient m, n ∈ N∗ . Une matrice de type (m, n) est un tableau à coefficient dans K à m lignes et n colonnes . On note Mm,n (K) l’ensemble des matrices de type (m, n), et Mn (K) l’ensemble des matrices carrés de type (n, n). A ∈ Mm,n (K), A = [aij ] 1≤i≤m 1≤j≤n a11 a12 · · · a1n a2n a21 a22 A= .. .. .. . . . am1 am2 amn Opérations sur les matrices : Soient A, B ∈ Mm,n (K). A + B = [aij + bij ] 1≤i≤m 1≤j≤n λ.A = [λaij ] 1≤i≤m 1≤j≤n Proposition : (Mm,n (K), +, •) est un K-ev de dimension mn. Produit matriciel : Soient m, n, p ∈ N∗ . Soient A = [aij ] 1≤i≤m ∈ Mm,p (K) et B = [bij ] 1≤i≤p ∈ Mp,n (K). 1≤j≤p 1≤j≤n C = A × B = AB = [cij ] 1≤i≤m ∈ Mm,n (K). 1≤j≤n cij : p X aik bkj « produit »de la ligne i de A par la colonne j de B. k=1 Proposition : × est distributive par rapport à +. ∀A, B ∈ Mm,p (K), ∀c ∈ Mp,n (K) (A + B)C = AC + BC ∀A ∈ Mm,p (K), ∀B, C ∈ Mp,n (K) A(B + C) = AB + BC Remarque : On peut multiplier les matrices carrées de Mn (K). 11.2 Représentation des applications linéaires Soit E un K-ev de dimension n ∈ N∗ , muni d’une base BE = (e1 , ..., en ). 38 Soit F un K-ev de dimension m ∈ N∗ , muni d’une base BF = (f1 , ..., fm ). n m X X x j ej ) = aij fi car u(x) = u( Soit u ∈ L(E, F ). u est déterminée par la donnée des u(ej) = i=1 n X j=1 xj u(ej ). j=1 Définition : La matrice de u par rapport aux bases BE et BF est définie par : A = Mat(u|BE , BF ) = [aij ] 1≤i≤m 1≤j≤n u(e1 ) f1 a11 . . = .. .. fm am1 ··· ··· u(en ) a1n .. . amn Proposition : On a y = u(x) ⇔ Y = AX où A = Mat(u|BE , BF ). Compatibilité avec les opérations : Soient u, v ∈ L(E, F ) et λ ∈ K. Mat(u + v|BE , BF ) = Mat(u|BE , BF ) + Mat(v|BE , BF ) Mat(λu|BE , BF ) = λMat(u|BE , BF ) v : L(E, F ) −→ Mm,n (K) est linéaire. u 7−→ Mat(u|BE , BF ) Elle est bijective. Soit G un K-ev de dimension l ∈ N∗ , muni d’une base BG = (g1 , ..., gl ). Autrement dit : Proposition : Soient u ∈ L(E, F ), v ∈ L(F, G). Alors Mat(v ◦ u|BE , BG ) = Mat(v|BF , BG ) × Mat(u|BE , BF ) ∈ Ml,n (K) ∈ Ml, m (K)× ∈ M m ,n (K) 11.3 Matrices carrées Proposition : L’ensemble Mn (K) des matrices carrées de taille n ∈ N est une algèbre sur K de dimension n2 unitaire mais non commutative si n ≥ 2, c’est à dire : 1. (mn (K), +, •) est un K-ev de dimension n2 . 2. × vérifie : – × est associative, ∀A, B, C ∈ M1 (K)A(BC) = (AB)C – × est non commutative si n ≥ 2. – × est distributive. 1 0 ··· 0 0 1 . . . ... – In := . est l’élément neutre pour ×. . .. .. . . . 0 0 ··· 0 1 C’est à dire ∀A ∈ Mn (K)AIn = In A = A. In est appelée la matrice unité de Mn ( (K). 1 si i = j In = [Sij ]1≤i,j≤n Sij := 0 si i = 6 j AIn = [cij ]1≤i,j≤n oùcij = n X k=1 D’où AIn = A De même In A = A (exercice) =1 aik Skjk=j z}|{ = aij Sjj = aij 39 Proposition : Soient A, B ∈ Mn (K) tel que AB = BA . n X ∗ n Cnk Ak B n−k 1. ∀n ∈ N , (A + B) = k=0 2. ∀n ∈ N∗ , An − B n = (A − B) n−1 X Ak B n−1−k k=0 Remarque : Réciproquement si 1) ou 2) est vérifié par A, B ∈ Mn (K) pour n = 2 alors AB = BA. En effet, si 1) est vérifié : (A + B)2 = A2 + 2AB + B 2 = (A + B)(A + B) = (A + B)A + (A + B)B = A2 + BA + AB + B 2 d’où AB = BA Matrices inversibles : Définition : Une matrice A de Mn (K) est dite inversible s’il existe B ∈ Mn (K) tel que AB = BA = In . Dans ce cas B est unique et est appelée l’inverse de A notée A−1 . On note GLn (K) l’ensemble des matrices inversibles de Mn (K). Théorème : Soit A ∈ Mn (K). 1. A ∈ GLn (K) ⇔ u bijective Ker(A) := {X ∈ Mn,1 (K) : AX = 0} = {0} ⇔ u injective Im(A) := {AX, X ∈ Mn,1 (K)} = Mn,1 (K) ⇔ u surjective ∃B ∈ Mn (K), AB = In ou BA = In . 2. Sont équivalentes : – A∈ / GLn (K). – ∃B ∈ Mn (K), B 6= 0 tel que AB = 0 ou BA = 0. 3. ∀A, B ∈ GLn (K), AB ∈ GLn (K) et (AB)−1 = B −1 A−1 Proposition : Soit A ∈ M2 (K), A = ac bd ! 40 Utile en pratique (inversible : résoudre AX = 0.