Chapitre 5. Applications linéaires

publicité
Chapitre 5. Applications linéaires
§1 Applications linéaires.
Soient E , F deux sous espaces vectoriel. Les applications les plus
simples f : E → F sont linéaires.
Definition : f : E → F est linéaire si, pour tout ~u,~v ∈ E et tout
λ ∈ R, on a
f (~u + ~v) = f (~u) + f (~v),
f (λ~u) = λ · f (~u) .
Exemple : A~u = ~v. On varie ~u dans Rn et on obtient une
application, linéaire.
Théorème. Toute application linéaire s’écrit sous la forme d’un
~u 7→ A~u avec un certain choix de A.
Pour retrouver la matrice, il suffit de tester sur la base canonique,
puis appliquer linéairement.
On utilise E pour désigner la base canonique (~e1 , · · · ,~en ) : de Rn .
~ dans Rn : w
~ =  
Voici
 4 écritures d’un vecteur w
 
x1
x1
x1
x2 
x2 
x2 
 
 
 
 ..  = x1~e1 + x2~e2 + · · · + xn~en = (~e1 , · · · ,~en )  ..  = E  .. .
.
.
.
xn
xn
xn
par linéarité
On applique f : f (~
w) = f (x1~e1 + x2~e2 + · · · + xn~en )
=
x1 f (~e1 ) + x2 f (~e2 ) +
 
 
· · ·+ xn f (~en ) =
x1
x1
x1
x2 
x2 
x2 
 
 
 
(f (~e1 ), · · · , f (~en ))  ..  = (f (~e1 , · · · ,~en ))  ..  = EA  .. .
.
.
.
xn
xn
xn
Géométriquement : on considère f comme une transformation de
Rn qui transforme un groupe de points en un autre groupe de
points. Par exemple il transforme un point/droite/plan à un autre.
Exemples
x
1 0
x
x
)=
=
est la projection
1. f (
y
0 0
y
0
orthogonale du plan sur l’axe des abscisses.
x
x
2
x +2
2. f (
) = I2
+
=
est une translation du
y
y
1
y +1
plan.
cos θ − sin θ
3. Soit Rθ =
. Par calcul :
sin θ cos θ
Rθ
r cos φ
r cos(θ + φ)
=
.
r sin φ
r sin(θ + φ
En utilisant les coordonnées polaires du plan on voit que Rθ
represente une rotation d’angle θ (orienté) du plan.
x
0 −1 x
−y
π
4. R 2
=
=
est bien la rotation de
y
1 0
y
x
π/2 = 90o dans le sens direct.
5.
6.
7.
8.
x
x
1 0
x
est la symétrie par
=
)=
f(
−y
y
0 −1
y
rapport à l’axe des abscisses.
x
λ 0
x
λx
f(
)=
=
est appelée homothétie de
y
0 λ
y
λy
rapport λ > 0 dans le plan, centrée à l’origine.
x
2 0 x
1
2x +1
f(
)=
+
=
est une homothétie
y
0 2 y
0
2y
de rapport 2, centrée en (−1; 0) (exo).
x
x
1 0
x
(avec λ > 0) est appelée
=
)=
f(
λy
y
0 λ
y
affinité du plan (préservant l’axe des abscisses).
Les 3 formes d’un système linéaire
1. d’un système d’équations
2. de produit matriciel A~x = ~b, ou bien, en représentant A par ses
colonnes
   
b1
x1
 ..   .. 
(~v1 · · · ~vm )  .  =  .  .
xm
bn
3. de combinaison linéaire :
x1~v1 + x2~v2 + · · · + xm~vm = ~b.
Interprétation du point 2 : Etant donner
  une matrice
 A, on
x1
x1
 .. 
 .. 
considère l’application linéaire f :  .  7→ A  .  . Résoudre le
xm
xm
~
système A~x = b revient à déterminer les antécédents de ~b par f .
§2 Image et noyau d’une application linéaire.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1
 .. 


 ..
.
..   ... 
 .  7→  .
 = A~x .
xm
an1 · · · anm
xm
§2 Image et noyau d’une application linéaire.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1
 .. 


 ..
.
..   ... 
 .  7→  .
 = A~x .
xm
an1 · · · anm
xm
Le noyau de f , noté par Ker (f ), est l’ensemble des antécédents du
vecteur ~0 :
Ker (f ) = {~x | f (~x) = ~0} = {~x | A~x = ~0}
= l’ensemble des solutions du système A~x = ~0 .
x
Exemple. Soit f
= x + y . Quel est le noyau de f ? Et pour
y
x
1 1
x
f
=
?
y
2 2
y
Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f )
est un sous espace vectoriel de Rm .
Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R,
~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique
f (~u + ~v) = ~0 et f (λ~u) = ~0.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1


 .. 
 ..
.
..   ... 
~x =  .  7→  .
 = A~x = f (~x) .
xm
an1 · · · anm
xm
Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f )
est un sous espace vectoriel de Rm .
Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R,
~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique
f (~u + ~v) = ~0 et f (λ~u) = ~0.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1


 .. 
 ..
.
..   ... 
~x =  .  7→  .
 = A~x = f (~x) .
xm
an1 · · · anm
xm
L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm }
Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f )
est un sous espace vectoriel de Rm .
Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R,
~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique
f (~u + ~v) = ~0 et f (λ~u) = ~0.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1


 .. 
 ..
.
..   ... 
~x =  .  7→  .
 = A~x = f (~x) .
xm
an1 · · · anm
xm
L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm }
Théorème. Pour toute application linéaire f : Rm → Rn , Im(f ) est
un sous espace vectoriel de Rn , de plus Im(f ) = h~u1 , · · · , ~um i, où
~uj est la j-ième colonne de A.
Théorème. Pour toute application linéaire f : Rm → Rn , Ker (f )
est un sous espace vectoriel de Rm .
Preuve. Il faut vérifier que pour tout ~u,~v ∈ Ker (f ) et tout λ ∈ R,
~u + ~v ∈ Ker (f ) et λ~u ∈ Ker (f ). Ou bien f (~u) = ~0 = f (~v) implique
f (~u + ~v) = ~0 et f (λ~u) = ~0.
Définition Soit f : Rm → Rn d’une application linéaire, de la forme
 
 

a11 · · · a1m
x1
x1


 .. 
 ..
.
..   ... 
~x =  .  7→  .
 = A~x = f (~x) .
xm
an1 · · · anm
xm
L’image de f , noté par Im(f ), est l’ensemble Im(f ) = {f (~x) | ~x ∈ Rm }
Théorème. Pour toute application linéaire f : Rm → Rn , Im(f ) est
un sous espace vectoriel de Rn , de plus Im(f ) = h~u1 , · · · , ~um i, où
~uj est la j-ième colonne de A.
Preuve. Car Im(f ) = hf (~e1 ), · · · , f (~em )i et f (~ej ) = ~uj ,
j = 1 · · · , m.
Soit A la matrice de f , Base de Im(f ) et Ker (f )
Comment trouver une base de Ker (f ) et une base Im(f ) ?
Soit A la matrice de f , Base de Im(f ) et Ker (f )








Comment trouver une base de Ker (f ) et une base Im(f ) ? On
A
B
échelonne
, les colonnes non-nulles de B forment une base
Id
H
de Im(f ), et les colonnes de H sous les colonnes nulles de B
forment une base de Ker (f ). (pourquoi ?)

 


1 −1 1
x
1 −1 1
Exemple. f (~x) = 1 0 2 y , donc A = 1 0 2 .
1 1 3
z
1 1 3




0
0
1 −1 1
1 0
1 0
 1 1

 1 0
1
0 2 
1
 C2 C2 +C1 
 C3 C3 −C2 
 1 2

 1 2
0
1
1 3 




−→
−→



 1 1 −2
1
0 0 
1
1
−1


C
C3 −C1 
 0 1
 0 1 −1
1 0  3
0
0 
0
0 1
0 0
1
0 0
1
Alors B =??, H =??, une base de Im(f ) ? Une base de Ker (f ) ?
Dimension de Im(f ) ? de Im(f ) ?








§3 Matrice et Rang
 de f 
x
x
x


7→ 3x − y = A
, avec A =
Pour f :
y
y
x + 2y
§3 Matrice et Rang
 de f 


x
1 0
x
x
7→ 3x − y  = A
, avec A = 3 −1.
Pour f :
y
y
x + 2y
1 2
On dit aussi que A est la matrice de f dans la base canonique.
§3 Matrice et Rang
 de f 


x
1 0
x
x
7→ 3x − y  = A
, avec A = 3 −1.
Pour f :
y
y
x + 2y
1 2
On dit aussi que A est la matrice de f dans la base canonique.
On appelle le rang de f , l’entier suivant (les définitions donnent le
même résultat)
1. Le rang de la matrice A (ou bien le nombre de pivots)
2. La dimension de Im(f )
3. Le nombre de vecteurs dans une base de Im(f ).
§3 Matrice et Rang
 de f 


x
1 0
x
x
7→ 3x − y  = A
, avec A = 3 −1.
Pour f :
y
y
x + 2y
1 2
On dit aussi que A est la matrice de f dans la base canonique.
On appelle le rang de f , l’entier suivant (les définitions donnent le
même résultat)
1. Le rang de la matrice A (ou bien le nombre de pivots)
2. La dimension de Im(f )
3. Le nombre de vecteurs dans une base de Im(f ).
Théorème du rang. Soit f : Rn → Rm linéaire. Alors
dim(Ker (f )) + dim(Im(f )) = n = le nombre de colonnes de A .
A B
à , on n’a pas changé le nombre
Id H
de colonnes. dim(Im(f )) = le nombre de colonnes non-nulles de B,
dim(Ker (f )) = le nombre de colonnes nulles de B.
Preuve. Lorsqu’on échelonne
§4. Composition
Par l’associativité de la multiplication matricielle, A(Bu) = (AB)u.
D’où :
Proposition. La composition de deux applications linéaires du plan
est à nouveau une application linéaire du plan avec :
fA (fA′ (u)) = (AA′ )u.
Exemples.
1. Par calcul : Rθ Rα = Rθ+α . Interprétation : Deux rotations
successives de même centre peuvent être remplacées par une
rotation de la somme
desdeux angles.
0 −1
−1 0
2
2. Par calcul : A =
,A =
,
1 0
0 −1
1 0
A4 = (A2 )2 =
(l’identité).
0 1
3. Rθ R−θ = R−θ Rθ = R0 = I2 . Donc R−θ est la matrice inverse à
Rθ .
Cas général
Lorsqu’on compose des applications linéaires
E
de base BE
f
−→
F
BF
g
−→
G
BG
Quelle est la matrice de la composition g ◦ f ?
Théorème de composition. La matrice de g ◦ f est le produit
matricielle de la matrice de g avec celle de f .
Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M.
Cas général
Lorsqu’on compose des applications linéaires
E
de base BE
f
−→
F
BF
g
−→
G
BG
Quelle est la matrice de la composition g ◦ f ?
Théorème de composition. La matrice de g ◦ f est le produit
matricielle de la matrice de g avec celle de f .
Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M.
g ◦ f (BE ) = g (f (BE )) = g (BF M(f )) = g (BF )M(f )
BG M(g ) M(f ) = BG M(g ) · M(f ) .
Donc M = M(g ) · M(f ).
Cas général
Lorsqu’on compose des applications linéaires
E
de base BE
f
−→
F
BF
g
−→
G
BG
Quelle est la matrice de la composition g ◦ f ?
Théorème de composition. La matrice de g ◦ f est le produit
matricielle de la matrice de g avec celle de f .
Preuve. Nous cherchons une matrice M telle que g ◦ f (BE ) = BG M.
g ◦ f (BE ) = g (f (BE )) = g (BF M(f )) = g (BF )M(f )
BG M(g ) M(f ) = BG M(g ) · M(f ) .
Donc M = M(g ) · M(f ).
x
x +y
x
y
Exemple. Soient f
=
,g
=
. Calculer
y
y
y
x
g ◦ f et f ◦ g .
§5 Injectivité, surjectivité, bijectivité
Définition. On dit qu’une application linéaire f : Rn → Rm est
injective si deux vecteurs différents ont des images différents
surjective Si Im(f ) atteint tout l’espace d’arrivée Rm .
bijective (ou bien un automorphisme) si n = m et que f est
inversible.
§5 Injectivité, surjectivité, bijectivité
Définition. On dit qu’une application linéaire f : Rn → Rm est
injective si deux vecteurs différents ont des images différents
surjective Si Im(f ) atteint tout l’espace d’arrivée Rm .
bijective (ou bien un automorphisme) si n = m et que f est
inversible.
Soit f : Rn → Rm une application linéaire, de matrice A.
Théorème d’injectivité. f est injective ssi l’une des conditions est
satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un
antécédent
2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent
3. Ker (f ) = ~0.
4. L’echelonnement suivant les colonnes de A ne donne pas de
colonne nulle.
5. Les vecteurs colonnes de A forment une famille libre.
Théorème d’surjectivité. f est surjective ssi l’une des conditions
est satisfaite :
Soit f : Rn → Rm une application linéaire, de matrice A.
Théorème d’injectivité. f est injective ssi l’une des conditions est
satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un
antécédent
2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent
3. Ker (f ) = ~0.
4. L’echelonnement suivant les colonnes de A ne donne pas de
colonne nulle.
5. Les vecteurs colonnes de A forment une famille libre.
Théorème d’surjectivité. f est surjective ssi l’une des conditions
est satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un
antécédent
Soit f : Rn → Rm une application linéaire, de matrice A.
Théorème d’injectivité. f est injective ssi l’une des conditions est
satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un
antécédent
2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent
3. Ker (f ) = ~0.
4. L’echelonnement suivant les colonnes de A ne donne pas de
colonne nulle.
5. Les vecteurs colonnes de A forment une famille libre.
Théorème d’surjectivité. f est surjective ssi l’une des conditions
est satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un
antécédent
2. Le rang de A est m.
Soit f : Rn → Rm une application linéaire, de matrice A.
Théorème d’injectivité. f est injective ssi l’une des conditions est
satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un
antécédent
2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent
3. Ker (f ) = ~0.
4. L’echelonnement suivant les colonnes de A ne donne pas de
colonne nulle.
5. Les vecteurs colonnes de A forment une famille libre.
Théorème d’surjectivité. f est surjective ssi l’une des conditions
est satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un
antécédent
2. Le rang de A est m.
3. Im(f ) = Rm .
Soit f : Rn → Rm une application linéaire, de matrice A.
Théorème d’injectivité. f est injective ssi l’une des conditions est
satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au plus un
antécédent
2. Le vecteur ~0 de l’espace d’arrivé a au plus un antécédent
3. Ker (f ) = ~0.
4. L’echelonnement suivant les colonnes de A ne donne pas de
colonne nulle.
5. Les vecteurs colonnes de A forment une famille libre.
Théorème d’surjectivité. f est surjective ssi l’une des conditions
est satisfaite :
1. Un vecteur ~b quelconque de l’espace d’arrivé a au moins un
antécédent
2. Le rang de A est m.
3. Im(f ) = Rm .
4. Les vecteurs colonnes de A forment une famille génératrice.
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :
f (~u1 ) =
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :
f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm =
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :


a11


f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  =
am1
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
En les assemblant, on obtient
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
En les assemblant, on obtient :
(f (~u1 ), · · · , f (~um )) =
§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
En les assemblant, on obtient :

a11 · · · a1m

.. 
(f (~u1 ), · · · , f (~um )) = V  ...
. 
an1 · · · anm

§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
En les assemblant, on obtient :

a11 · · · a1m

.. 
(f (~u1 ), · · · , f (~um )) = V  ...
. 
an1 · · · anm
ou bien f (U ) = VMU ,V (f ) .

§6. Matrice dans d’autres bases, application linéaire sur sev
Soit f : E → F une application linéaire, avec E , F des sev des Rk .
Soit U = (~u1 , · · · , ~un ) une base de E , et V = (~v1 , · · · ,~vm ) une
base de F (elles ne sont pas nécessairement les bases canoniques
s’il y en a). Donc E = h~u1 , · · · , ~un i, F = h~v1 , · · · ,~vm i.
Alors l’application f est déterminée par son effet sur les ~ui . On les
exprime dans les coordonnées de V :




a11
a11




f (~u1 ) = a11~v1 +a21~v2 +· · ·+am1~vm = (~v1 · · · ~vm ) ...  = V  ... .
am1
am1
f (~u2 ) = · · · , f (~u3 ) = · · · , · · · , f (~un ) = · · · .
En les assemblant, on obtient :

a11 · · · a1m

.. 
(f (~u1 ), · · · , f (~um )) = V  ...
. 
an1 · · · anm
ou bien f (U ) = VMU ,V (f ) .
Cette matrice est appelée la matrice de f dans les bases U , V.

Exemples et exercices
La matrice d’une application linéaire f qu’on avait calculé avant est
tout simplement la matrice de f dans la base canonique.
x
x
(1) f
=
. Notons E la base canonique de R2 . Alors
y
x +y
ME,E (f ) =??.
(2) Soit f : R2 → R2 linéaire telle que f (~e1 ) = −~e2 et
1
f (~e2 ) = ~e1 + 2~e2 . Déterminer la matrice de f ainsi que f
.
1
(3) Soit f : R2 → R2 la projection orthogonale vers la droite
x − y = 0. Représenter graphiquement l’application.Déterminer
−3
f (~e1 ) puis f (~e2 ). Déterminer la matrice de f puis f
.
1
Déterminer l’image et le noyau de f .
(4) Même exercice avec f la réflexion orthogonale par rapport à la
droite x − y = 0, puis avec la rotation d’angle π/4.
Téléchargement