Chapitre 5. Applications linéaires §1 Applications linéaires. Soient E , F deux sous espaces vectoriel. Les applications les plus simples f : E → F sont linéaires. Definition : f : E → F est linéaire si, pour tout ~u,~v ∈ E et tout λ ∈ R, on a f (~u + ~v) = f (~u) + f (~v), f (λ~u) = λ · f (~u) . Exemple : A~u = ~v. On varie ~u dans Rn et on obtient une application, linéaire. Théorème. Toute application linéaire s’écrit sous la forme d’un ~u 7→ A~u avec un certain choix de A. Pour retrouver la matrice, il suffit de tester sur la base canonique, puis appliquer linéairement. On utilise E pour désigner la base canonique (~e1 , · · · ,~en ) : de Rn . ~ dans Rn : w ~ = Voici 4 écritures d’un vecteur w x1 x1 x1 x2 x2 x2 .. = x1~e1 + x2~e2 + · · · + xn~en = (~e1 , · · · ,~en ) .. = E .. . . . . xn xn xn par linéarité On applique f : f (~ w) = f (x1~e1 + x2~e2 + · · · + xn~en ) = x1 f (~e1 ) + x2 f (~e2 ) + · · ·+ xn f (~en ) = x1 x1 x1 x2 x2 x2 (f (~e1 ), · · · , f (~en )) .. = (f (~e1 , · · · ,~en )) .. = EA .. . . . . xn xn xn Géométriquement : on considère f comme une transformation de Rn qui transforme un groupe de points en un autre groupe de points. Par exemple il transforme un point/droite/plan à un autre. Exemples x 1 0 x x )= = est la projection 1. f ( y 0 0 y 0 orthogonale du plan sur l’axe des abscisses. x x 2 x +2 2. f ( ) = I2 + = est une translation du y y 1 y +1 plan. cos θ − sin θ 3. Soit Rθ = . Par calcul : sin θ cos θ Rθ r cos φ r cos(θ + φ) = . r sin φ r sin(θ + φ En utilisant les coordonnées polaires du plan on voit que Rθ represente une rotation d’angle θ (orienté) du plan. x 0 −1 x −y π 4. R 2 = = est bien la rotation de y 1 0 y x π/2 = 90o dans le sens direct. 5. 6. 7. 8. x x 1 0 x est la symétrie par = )= f( −y y 0 −1 y rapport à l’axe des abscisses. x λ 0 x λx f( )= = est appelée homothétie de y 0 λ y λy rapport λ > 0 dans le plan, centrée à l’origine. x 2 0 x 1 2x +1 f( )= + = est une homothétie y 0 2 y 0 2y de rapport 2, centrée en (−1; 0) (exo). x x 1 0 x (avec λ > 0) est appelée = )= f( λy y 0 λ y affinité du plan (préservant l’axe des abscisses). Les 3 formes d’un système linéaire 1. d’un système d’équations 2. de produit matriciel A~x = ~b, ou bien, en représentant A par ses colonnes b1 x1 .. .. (~v1 · · · ~vm ) . = . . xm bn 3. de combinaison linéaire : x1~v1 + x2~v2 + · · · + xm~vm = ~b. Interprétation du point 2 : Etant donner une matrice A, on x1 x1 .. .. considère l’application linéaire f : . 7→ A . . Résoudre le xm xm ~ système A~x = b revient à déterminer les antécédents de ~b par f . §2 Image et noyau d’une application linéaire. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... . 7→ . = A~x . xm an1 · · · anm xm §2 Image et noyau d’une application linéaire. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... . 7→ . = A~x . xm an1 · · · anm xm Le noyau de f , noté par Ker (f ), est l’ensemble des antécédents du vecteur ~0 : Ker (f ) = {~x | f (~x) = ~0} = {~x | A~x = ~0} = l’ensemble des solutions du système A~x = ~0 . x Exemple. Soit f = x + y . Quel est le noyau de f ? Et pour y x 1 1 x f = ? y 2 2 y Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f ) est un sous espace vectoriel de Rm . Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R, ~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique f (~u + ~v) = ~0 et f (λ~u) = ~0. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... ~x = . 7→ . = A~x = f (~x) . xm an1 · · · anm xm Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f ) est un sous espace vectoriel de Rm . Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R, ~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique f (~u + ~v) = ~0 et f (λ~u) = ~0. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... ~x = . 7→ . = A~x = f (~x) . xm an1 · · · anm xm L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm } Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f ) est un sous espace vectoriel de Rm . Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R, ~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique f (~u + ~v) = ~0 et f (λ~u) = ~0. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... ~x = . 7→ . = A~x = f (~x) . xm an1 · · · anm xm L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm } Théorème. Pour toute application linéaire f : Rm → Rn , Im(f ) est un sous espace vectoriel de Rn , de plus Im(f ) = h~u1 , · · · , ~um i, où ~uj est la j-ième colonne de A. Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f ) est un sous espace vectoriel de Rm . Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R, ~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique f (~u + ~v) = ~0 et f (λ~u) = ~0. Définition Soit f : Rm → Rn d’une application linéaire, de la forme a11 · · · a1m x1 x1 .. .. . .. ... ~x = . 7→ . = A~x = f (~x) . xm an1 · · · anm xm L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm } Théorème. Pour toute application linéaire f : Rm → Rn , Im(f ) est un sous espace vectoriel de Rn , de plus Im(f ) = h~u1 , · · · , ~um i, où ~uj est la j-ième colonne de A. Preuve. Car Im(f ) = hf (~e1 ), · · · , f (~em )i et f (~ej ) = ~uj , j = 1 · · · , m. Soit A la matrice de f , Base de Im(f ) et Ker (f ) Comment trouver une base de Ker (f ) et une base Im(f ) ? Soit A la matrice de f , Base de Im(f ) et Ker (f ) Comment trouver une base de Ker (f ) et une base Im(f ) ? On A B échelonne , les colonnes non-nulles de B forment une base Id H de Im(f ), et les colonnes de H sous les colonnes nulles de B forment une base de Ker (f ). (pourquoi ?) 1 −1 1 x 1 −1 1 Exemple. f (~x) = 1 0 2 y , donc A = 1 0 2 . 1 1 3 z 1 1 3 0 0 1 −1 1 1 0 1 0 1 1 1 0 1 0 2 1 C2 C2 +C1 C3 C3 −C2 1 2 1 2 0 1 1 3 −→ −→ 1 1 −2 1 0 0 1 1 −1 C C3 −C1 0 1 0 1 −1 1 0 3 0 0 0 0 1 0 0 1 0 0 1 Alors B =??, H =??, une base de Im(f ) ? Une base de Ker (f ) ? Dimension de Im(f ) ? de Im(f ) ? §3 Matrice et Rang de f x x x 7→ 3x − y = A , avec A = Pour f : y y x + 2y §3 Matrice et Rang de f x 1 0 x x 7→ 3x − y = A , avec A = 3 −1. Pour f : y y x + 2y 1 2 On dit aussi que A est la matrice de f dans la base canonique. §3 Matrice et Rang de f x 1 0 x x 7→ 3x − y = A , avec A = 3 −1. Pour f : y y x + 2y 1 2 On dit aussi que A est la matrice de f dans la base canonique. On appelle le rang de f , l’entier suivant (les définitions donnent le même résultat) 1. Le rang de la matrice A (ou bien le nombre de pivots) 2. La dimension de Im(f ) 3. Le nombre de vecteurs dans une base de Im(f ). §3 Matrice et Rang de f x 1 0 x x 7→ 3x − y = A , avec A = 3 −1. Pour f : y y x + 2y 1 2 On dit aussi que A est la matrice de f dans la base canonique. On appelle le rang de f , l’entier suivant (les définitions donnent le même résultat) 1. Le rang de la matrice A (ou bien le nombre de pivots) 2. La dimension de Im(f ) 3. Le nombre de vecteurs dans une base de Im(f ). Théorème du rang. Soit f : Rn → Rm linéaire. Alors dim(Ker (f )) + dim(Im(f )) = n = le nombre de colonnes de A . A B à , on n’a pas changé le nombre Id H de colonnes. dim(Im(f )) = le nombre de colonnes non-nulles de B, dim(Ker (f )) = le nombre de colonnes nulles de B. Preuve. Lorsqu’on échelonne §4. Composition Par l’associativité de la multiplication matricielle, A(Bu) = (AB)u. D’où : Proposition. La composition de deux applications linéaires du plan est à nouveau une application linéaire du plan avec : fA (fA′ (u)) = (AA′ )u. Exemples. 1. Par calcul : Rθ Rα = Rθ+α . Interprétation : Deux rotations successives de même centre peuvent être remplacées par une rotation de la somme desdeux angles. 0 −1 −1 0 2 2. Par calcul : A = ,A = , 1 0 0 −1 1 0 A4 = (A2 )2 = (l’identité). 0 1 3. Rθ R−θ = R−θ Rθ = R0 = I2 . Donc R−θ est la matrice inverse à Rθ . Cas général Lorsqu’on compose des applications linéaires E de base BE f −→ F BF g −→ G BG Quelle est la matrice de la composition g ◦ f ? Théorème de composition. La matrice de g ◦ f est le produit matricielle de la matrice de g avec celle de f . Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M. Cas général Lorsqu’on compose des applications linéaires E de base BE f −→ F BF g −→ G BG Quelle est la matrice de la composition g ◦ f ? Théorème de composition. La matrice de g ◦ f est le produit matricielle de la matrice de g avec celle de f . Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M. g ◦ f (BE ) = g (f (BE )) = g (BF M(f )) = g (BF )M(f ) BG M(g ) M(f ) = BG M(g ) · M(f ) . Donc M = M(g ) · M(f ). Cas général Lorsqu’on compose des applications linéaires E de base BE f −→ F BF g −→ G BG Quelle est la matrice de la composition g ◦ f ? Théorème de composition. La matrice de g ◦ f est le produit matricielle de la matrice de g avec celle de f . Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M. g ◦ f (BE ) = g (f (BE )) = g (BF M(f )) = g (BF )M(f ) BG M(g ) M(f ) = BG M(g ) · M(f ) . Donc M = M(g ) · M(f ). x x +y x y Exemple. Soient f = ,g = . Calculer y y y x g ◦ f et f ◦ g . §5 Injectivité, surjectivité, bijectivité Définition. On dit qu’une application linéaire f : Rn → Rm est injective si deux vecteurs différents ont des images différents surjective Si Im(f ) atteint tout l’espace d’arrivée Rm . bijective (ou bien un automorphisme) si n = m et que f est inversible. §5 Injectivité, surjectivité, bijectivité Définition. On dit qu’une application linéaire f : Rn → Rm est injective si deux vecteurs différents ont des images différents surjective Si Im(f ) atteint tout l’espace d’arrivée Rm . bijective (ou bien un automorphisme) si n = m et que f est inversible. Soit f : Rn → Rm une application linéaire, de matrice A. Théorème d’injectivité. f est injective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un antécédent 2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent 3. Ker (f ) = ~0. 4. L’echelonnement suivant les colonnes de A ne donne pas de colonne nulle. 5. Les vecteurs colonnes de A forment une famille libre. Théorème d’surjectivité. f est surjective ssi l’une des conditions est satisfaite : Soit f : Rn → Rm une application linéaire, de matrice A. Théorème d’injectivité. f est injective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un antécédent 2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent 3. Ker (f ) = ~0. 4. L’echelonnement suivant les colonnes de A ne donne pas de colonne nulle. 5. Les vecteurs colonnes de A forment une famille libre. Théorème d’surjectivité. f est surjective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un antécédent Soit f : Rn → Rm une application linéaire, de matrice A. Théorème d’injectivité. f est injective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un antécédent 2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent 3. Ker (f ) = ~0. 4. L’echelonnement suivant les colonnes de A ne donne pas de colonne nulle. 5. Les vecteurs colonnes de A forment une famille libre. Théorème d’surjectivité. f est surjective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un antécédent 2. Le rang de A est m. Soit f : Rn → Rm une application linéaire, de matrice A. Théorème d’injectivité. f est injective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un antécédent 2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent 3. Ker (f ) = ~0. 4. L’echelonnement suivant les colonnes de A ne donne pas de colonne nulle. 5. Les vecteurs colonnes de A forment une famille libre. Théorème d’surjectivité. f est surjective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un antécédent 2. Le rang de A est m. 3. Im(f ) = Rm . Soit f : Rn → Rm une application linéaire, de matrice A. Théorème d’injectivité. f est injective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un antécédent 2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent 3. Ker (f ) = ~0. 4. L’echelonnement suivant les colonnes de A ne donne pas de colonne nulle. 5. Les vecteurs colonnes de A forment une famille libre. Théorème d’surjectivité. f est surjective ssi l’une des conditions est satisfaite : 1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un antécédent 2. Le rang de A est m. 3. Im(f ) = Rm . 4. Les vecteurs colonnes de A forment une famille génératrice. §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : f (~u1 ) = §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = am1 §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . En les assemblant, on obtient §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . En les assemblant, on obtient : (f (~u1 ), · · · , f (~um )) = §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . En les assemblant, on obtient : a11 · · · a1m .. (f (~u1 ), · · · , f (~um )) = V ... . an1 · · · anm §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . En les assemblant, on obtient : a11 · · · a1m .. (f (~u1 ), · · · , f (~um )) = V ... . an1 · · · anm ou bien f (U ) = VMU ,V (f ) . §6. Matrice dans d’autres bases, application linéaire sur sev Soit f : E → F une application linéaire, avec E , F des sev des Rk . Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une base de F (elles ne sont pas nécessairement les bases canoniques s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i. Alors l’application f est déterminée par son effet sur les ~ui . On les exprime dans les coordonnées de V : a11 a11 f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ... = V ... . am1 am1 f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · . En les assemblant, on obtient : a11 · · · a1m .. (f (~u1 ), · · · , f (~um )) = V ... . an1 · · · anm ou bien f (U ) = VMU ,V (f ) . Cette matrice est appelée la matrice de f dans les bases U , V. Exemples et exercices La matrice d’une application linéaire f qu’on avait calculé avant est tout simplement la matrice de f dans la base canonique. x x (1) f = . Notons E la base canonique de R2 . Alors y x +y ME,E (f ) =??. (2) Soit f : R2 → R2 linéaire telle que f (~e1 ) = −~e2 et 1 f (~e2 ) = ~e1 + 2~e2 . Déterminer la matrice de f ainsi que f . 1 (3) Soit f : R2 → R2 la projection orthogonale vers la droite x − y = 0. Représenter graphiquement l’application.Déterminer −3 f (~e1 ) puis f (~e2 ). Déterminer la matrice de f puis f . 1 Déterminer l’image et le noyau de f . (4) Même exercice avec f la réflexion orthogonale par rapport à la droite x − y = 0, puis avec la rotation d’angle π/4.