Chapitre 27 : Applications linéaires.

publicité
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Chapitre 27 : Applications linéaires.
1
Applications linéaires
1.1
Définitions
Définition 1.1.1
Soit E et F deux K-espaces vectoriels. On dit que f : E → F est linéaire lorsque
1. ∀u, v ∈ E, f (u + v) = f (u) + f (v).
2. ∀λ ∈ K, ∀u ∈ E, f (λu) = λf (u).
L’ensemble des applications linéaires de E dans F est noté L(E, F ).
En particulier si f est linéaire, on a toujours f (0E ) = 0F car f (0 · u) = f (0E ) =
0 · f (u) = 0F .
Définition 1.1.2
– Une application linéaire de E dans E est appelée endomorphisme. On note
L(E) l’espace L(E, E) des endomorphismes de E.
– Une application linéaire de L(E, K) est appelée forme linéaire. L’ensemble
L(E, K) est souvent noté E ∗ et s’appelle le dual de E.
Exemple. L’application E → F u 7→ 0F est linéaire. IdE : E → E u 7→ u est linéaire.
R → Rx 7→ ax est linéaire.
Exercice. Montrer que les seules applications linéaires de R dans R sont les x 7→ ax.
Exemple. L’application R3 → R (x, y, z) 7→ 3x − y est une forme linéaire. L’application
F(R, R) → R f 7→ f (1) est linéaire. De même l’application D 1 (R, R) → F(R, R) f 7→ f ′ .
Proposition 1.1.1
Les assertions suivantes sont équivalentes :
1. f : E → F est linéaire.
2. ∀u, v ∈ E, ∀α, β ∈ K, f (αu + βv) = αf (u) + βf (v)
3. ∀u, v ∈ E, ∀λ ∈ K, f (u + λv) = f (u) + λf (v).
Il est souvent plus rapide d’utiliser le troisième point pour montrer qu’une application
est linéaire.
Plus généralement on a par récurrence
Proposition 1.1.2
L’image par une application linéaire f d’une combinaison linéaire est la combinaison
linéaire des images, avec les mêmes coefficients :
n
n
X
X
λi f (ui )
λi ui ) =
f(
i=1
i=1
J. Gärtner.
1
ECS3 Carnot
1.2
Chapitre 27 — Applications linéaires.
2013/2014
Opérations sur les applications linéaires
1.2.1
Somme, produit par un scalaire
Proposition 1.2.1
L’ensemble L(E, F ) est un sous-espace vectoriel de (F(E, F ), +, ·).
Démonstration : En effet, la fonction nulle est linéaire et si f, g ∈ L(E, F ) et λ ∈ K, alors
f + λg est linéaire car si u, v ∈ E et α ∈ K, on a
(f + λg)(u + αv) = f (u + αv) + λg(u + αv)
= f (u) + αf (v) + λg(u) + λαg(v)
= (f + λg)(u) + α(f + λg)(v)
1.2.2
Composition
Proposition 1.2.2
Si f ∈ L(E, F ) et g ∈ L(F, G) alors g ◦ f ∈ L(E, G).
Démonstration : En effet, si u, v ∈ E et λ ∈ K on a g ◦ f (u + λv) = g(f (u) + λf (v)) =
g(f (u)) + λg(f (v)) = g ◦ f (u) + λg ◦ f (v)
Exemple. L’application f 7→ f ′ (1) est linéaire.
Proposition 1.2.3
Si f, f ′ ∈ L(E, F ), g, g′ ∈ L(F, G) et λ ∈ K alors
1. (g + g′ ) ◦ f = g ◦ f + g′ ◦ f
2. g ◦ (f + f ′ ) = g ◦ f + g ◦ f ′
3. (λg) ◦ f = λ(g ◦ f )
4. g ◦ (λf ) = λ(g ◦ f )
Démonstration : Exercice.
En général, f, g ∈ L(E) ne commutent pas. Par exemple si E = R2 et f (x, y) = (x, 2x)
et g(x, y) = (0, 3y + x) alors g ◦ f (x, y) = (0, 7x) et f ◦ g(x, y) = (0, 0). Par contre si deux
endomorphismes commutent, on a par récurrence
Proposition 1.2.4 (Formule du Binôme de Newton)
Soit n ∈ N et u ∈ L(E). Alors on définit un par u0 = IdE et un+1 = u ◦ un . Si
f, g ∈ L(E) commutent, alors
X n
n
(f + g) =
n
f k ◦ gn−k
k
k=0
J. Gärtner.
2
ECS3 Carnot
1.2.3
Chapitre 27 — Applications linéaires.
2013/2014
Réciproque d’une application linéaire bijective
Définition 1.2.1
Soit f ∈ L(E, F ). Si f est bijective, alors f −1 ∈ L(F, E). On dit alors que f est un
isomorphisme de E vers F . Si E = F on parle alors d’automorphisme.
Démonstration : Soit v, v ′ ∈ F et λ ∈ K. Alors f −1 (v) + λf −1 (v ′ ) est un élément de E
et son image par f est f (f −1 (v) + λf −1 (v ′ )) = f (f −1 (v)) + λf (f −1 (v ′ )) = v + λv ′ =
f (f −1 (v + λv ′ )). Comme f est bijective, on a f −1 (v) + λf −1 (v ′ ) = f −1 (v + λv ′ )).
Définition 1.2.2
Deux K-espaces vectoriels E et F sont isomorphes lorsqu’il existe un isomorphisme de
l’un vers l’autre.
Exemple. R2 et C sont isomorphe puisque (x, y) 7→ x + iy est un isomorphisme.
Définition 1.2.3
L’ensemble des applications linéaires bijectives de E dans E (i.e. des automorphismes
de E) est stable pour la composition. On le note GL(E) et on l’appelle groupe linéaire
de E.
1.2.4
Applications linéaires et formes linéaires
En général, on remontre au cas par cas la proposition suivante :
Proposition 1.2.5
Soit ϕ ∈ L(E, K) et v0 ∈ F . Alors f : E → F , u 7→ ϕ(u) · v0 est linéaire.
Démonstration : Exercice.
Exemple. Puisque (x, y) 7→ 2y − x est linéaire. Avec v0 = (1, 1, −1) on en déduit que
f : R2 → R3 (x, y) 7→ (2y − x, 2y − x, x − 2y) est linéaire.
1.3
Image directe, image réciproque
Proposition 1.3.1
Soit f ∈ L(E, F ). Si A est un sous-espace de E alors f (A) est un sous-espace de F . Si
B est un sous-espace de F alors f −1 (B) est un sous-espace de E.
Démonstration : Comme 0E ∈ A, on a 0F = f (0E ) ∈ f (A). Soit u, v ∈ f (A) et λ ∈ K. Alors
u = f (x) pour x ∈ A et v = f (y) pour y ∈ A. On a u + λv = f (x + λy) ∈ f (A) car A est
un sous-espace.
On a 0E ∈ f −1 (B) car f (0E ) = 0F ∈ B. Si u, v ∈ f −1 (B) et λ ∈ K, alors f (u + λv) =
f (u) + λf (v) ∈ B car B est un sous-espace. Donc u + λv ∈ f −1 (B).
1.4
Noyau, image
Définition 1.4.1
Soit f ∈ L(E, F ).
J. Gärtner.
3
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
1. Im f = f (E) = {f (u), u ∈ E} est un sous-espace vectoriel de F .
2. Ker f = {u ∈ E, f (u) = 0F } = f −1 ({0F }) est un sous-espace vectoriel de E
appelé noyau de f .
Proposition 1.4.1
Soit f ∈ L(E, F ). Alors f (u) = f (u′ ) si et seulement si u − u′ ∈ Ker f . De plus, on a
les équivalences
f surjective ⇔ Im f = F
f injective ⇔ Ker f = {0E }
Démonstration : En effet, f (u) = f (u′ ) si et seulement si f (u − u′ ) = 0 i.e. u − u′ ∈ Ker f .
Si Ker f = {0} alors u = u′ et f est injective. Si f est injective, alors f (u) = 0 = f (0)
entraine que u = 0 donc Ker f ⊂ {0} et Ker f = {0} car c’est un espace vectoriel.
1.5
Exemples d’applications linéaires
1.5.1 Homothéties
Définition 1.5.1
Les homothéties sont les endomorphismes du type hα = αIdE , i.e. u 7→ αu.
Proposition 1.5.1
Les homothéties commutent avec tous les endomorphismes. Si α ∈ K r {0} alors hα est
un isomorphisme de réciproque hα−1 .
DESSIN
1.5.2
Projecteurs
Définition 1.5.2
Soit F, G deux sous-espaces supplémentaires de E. L’application
E = F ⊕ G −→ E
p:
u = v + w 7−→ v
est le projecteur sur F parallèlement à G.
DESSIN
Proposition 1.5.2
Soit E = F ⊕ G et p le projecteur sur F parallèlement à G. Alors
1. p ∈ L(E)
2. Im p = F
3. Ker p = G
4. Ker (p − Id) = {u ∈ E, p(u) = u} = F
5. p ◦ p = p
J. Gärtner.
4
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Démonstration : Linéarité : si u, u′ ∈ E et λ ∈ K. On décompose u = v + w et u′ = v ′ + w′ .
Donc u + λu′ = (v + λv ′ ) + (w + λw′ ) par unicité de la décomposition on a p(u + λu′ ) =
v + λv ′ = p(u) + λp(u′ ).
Noyau : soit u ∈ E, u = v + w. Alors p(u) = 0 ⇔ v = 0 ⇔ u = G Donc Ker u = G.
Image : Im p ⊂ F est trivial. Soit u ∈ F . Alors u = u + 0 donc p(u) = u et u ∈ Im p
Invariants : Si u = p(u) alors u ∈ Im p = F et si u ∈ F alors p(u) = u.
p ◦ p : pour tout u ∈ E on a p ◦ p(u) = p(p(u)) = p(u) car p(u) ∈ F = Ker (p − Id).
Définition 1.5.3
Un projecteur est un endomorphisme f tel qu’il existe une décomposition en somme
directe E = F ⊕ G et f est le projecteur sur F parallèlement à G.
Théorème 1.5.1
Soitf ∈ L(E). Alors f est un projecteur si et seulement si f ◦ f = f . Autrement dit les
projecteurs sont exactement les endomorphismes idempotents.
Démonstration : L’implication directe a déjà été montrée. Pour la réciproque, soit f ∈ L(E)
tel que f ◦f = f . Il faut trouver deux espaces supplémentaires qui conviennent. Mais d’après
la proposition précédente, on est amené à d’intéresser à F = Ker (f − Id) et G = Ker f .
Alors F et G sont des sous-espaces. On a F ∩G = {0}. En effet, si u ∈ F ∩G, alors f (u) = u
et f (u) = 0 donc u = 0.
De plus E = F + G. En effet, si u ∈ E, on écrit la décomposition u = f (u) + u − f (u).
On a f (u) ∈ F car f (f (u)) = f (u) et u − f (u) ∈ G car f (u − f (u)) = f (u) − f (f (u)) =
f (u) − f (u) = 0. On a donc F ⊕ G = E et f est la projection sur F parallèlement à G car
tout u dans E se décompose en u = f (u) + u − f (u).
Définition 1.5.4
Soit p le projecteur sur F selon G. Le projecteur associé à p est le projecteur q sur G
selon F . On a p + q = IdE .
Exemple. Comme cas particulier on a la projection sur E selon {0} qui est l’identité et
la projection associée qui est l’application nulle.
1.5.3
Symétries — hors programme
Définition 1.5.5
Soit E = F ⊕ G. La symétrie par rapport à F selon G est l’application
E = F ⊕ G −→ E
f:
u = v + w 7−→ v − w
DESSIN
Exemple. Cas particulier : la symétrie par rapport à E selon {0} est l’identité et la
symétrie par rapport à {0} selon E est −IdE .
Proposition 1.5.3
Soit f la symétrie par rapport à F selon G.
1. f = 2p − IdE où p est le projecteur sur F selon G. Donc f ∈ L(E).
2. f ◦ f = IdE . Donc f est bijective, de réciproque f .
J. Gärtner.
5
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
3. Im f = E et Ker f = {0}.
4. Ker (f − IdE ) = {u ∈ E, f (u) = u} = F
5. Ker (f + IdE ) = {u ∈ E, f (u) = −u} = G.
Démonstration : Seuls les derniers points ne sont pas clairs. Mais si u = v + w, alors f (u) =
u ⇔ v − w + v + w ⇔ 2w = 0 ⇔ w = 0.
De même f (u) = −u ⇔ v − w = −v − w ⇔ v = 0.
Théorème 1.5.2
Soit f ∈ L(E). Alors f est une symétrie si et seulement si f ◦ f = IdE .
Démonstration : Comme pour les projecteurs, il suffit de montrer la réciproque. Soit f un
endomorphisme involutif. Posons F = Ker (f − IdE ) et G = Ker (f + IdE ). Ce sont des
sous-espaces de E.
Alors F ∩ G = {0} car si u ∈ F ∩ G on a f (u) = u = −u.
Montrons par analyse et synthèse que E = F + G. Soit u ∈ E Si u = v + w avec v ∈ F
1
et w ∈ G, alors f (u) = f (v)+ f (w) = v − w par définition de F et G donc v = (u + f (u) et
2
1
1
1
w = (u − f (u)). Soit u ∈ E. Posons v = (u + f (u)) et w = (u − f (u)). Alors v + w = u
2
2
2
et f (v) = v et f (w) = −w. Donc E = F + G.
Enfin, f est bien la symétrie par rapport à F selon G car si u = v +w on a f (u) = v −w.
Exemple. Soit E = F(R, R). Alors Φ : f 7→ (x 7→ f (−x)) est une symétrie de E. C’est la
symétrie par rapport à l’espace des fonctions paires, selon l’espace des fonctions impaires
car Φ(f ) = f si et seulement si f est paire.
2
Application linéaire en dimension finie
2.1
Détermination d’une application linéaire
Théorème 2.1.1
Soit E un espace de dimension finie p ∈ N∗ . On se donne BE = (e1 , . . . , ep ) une base
de E. Alors pour tout v1 , . . . , vp ∈ F , il existe une unique application linéaire ϕ de E
dans F telle que
∀i ∈ [[ 1 ; p ]] , ϕ(ei ) = vi
Autrement une application linéaire est uniquement déterminée par l’image d’une base.
Démonstration :PPour l’unicité, supposons que ϕ est linéaire et ϕ(ei ) =P
vi pour tout i. Alors
si x ∈ E, x = pi=1 xi ei et on a par linéarité nécessairement ϕ(x) = pi=1 xi vi . Ce qui ne
laisse pas d’ambiguité sur la valeur de ϕ(x).
Pp
Pp
Pour l’existence, soitPϕ l’application définie par x = i=1 xi ei 7→P i=1 xi vi . Alors ϕ
p
p
′
′
′
est linéaire car si x′ =
P
Pp i=1′ xi ei ∈ E et λ ∈ K alors ϕ(x + λx ) = i=1 (xi + λxi )vi =
p
x
v
+
|
ambda
x
.
i=1 i i
i=1 i
De plus on a bien ϕ(ei ) = vi par définition.
Exemple. Dans R2 , (e1 = (1, 1), e2 = (2, 0)) est une base. Soit v1 = (3, 1) et v2 = (4, 5).
Soit ϕ l’unique endomorphisme de R2 tel que ϕ(ei ) = vi . Explicitons ϕ. Soit (x, y) ∈ R2 .
x−y
1
x−y
e2 donc ϕ(x, y) = y(3, 1) +
(4, 5) = (2x + y, (5x − 3y)).
Alors (x, y) = ye1 +
2
2
2
J. Gärtner.
6
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Matrice d’une application linéaire Le théorème ci-dessus permet de justifier le paragraphe qui suit. Si dim E = p ∈ N∗ et dim F = n ∈ N∗ . Soit BE = (e1 , . . . , ep ) et
BF = (f1 , . . . , fn ) des bases de E et F . Alors la donnée d’une application linéaire ϕ est
exactement
Pnla donnée des np scalaires ai,j , i ∈ [[ 1 ; n ]] et j ∈ [[ 1 ; p ]] tels que pour tout j,
ϕ(ej ) = i=1 ai,j fi . C’est donc la donnée d’une matrice A = (ai,j ) ∈ Mn,p (K). On note
A = Mat BF ,BE (ϕ) : cette matrice dépend de l’application linéaire et des bases choisies.
 ϕ(e1 ) . . . ϕ(ep ) 
a1,1 . . . a1,p
 ..
.. 
 .
. 
an,1 . . . an,p
f1
..
.
fn
Exemple. La matrice del’endomorphisme
de R2 défini par ϕ(x, y) = (2x − y, x + y) dans
2 −1
les bases canoniques est
.
1 1
2.2
Image d’une base
Proposition 2.2.1
Soit E un espace de dimension p ∈ N∗ et BE = (e1 , . . . , ep ) une base de E. Soit
ϕ ∈ L(E, F ). Alors
1. ϕ est injective si et seulement si (ϕ(e1 ), . . . , ϕ(ep )) est libre.
2. La famille (ϕ(e1 ), . . . , ϕ(ep )) engendre Im ϕ.
3. ϕ est surjective si et seulement si (ϕ(e1 ), . . . , ϕ(ep )) est génératrice de F .
Pp
Démonstration : Supposons
ϕ injective. Soit
i ) = 0, alors par
Pp
Pp λ1 , . . . , λp ∈ K. Si i=1 λi ϕ(eP
p
linéarité on a ϕ ( i=1 λi ei ) = 0 donc i=1 λi ei ∈ Ker ϕ = {0}. Donc i=1 λi ei = 0 et
comme (e1 , . . . , ep ) est une base, ∀i, λi = 0. Donc la famille des ϕ(ei ) est libre.
P
P
Réciproquement, si cette famille est libre, soit u = λi ei ∈ Ker ϕ. Alors λi ϕ(ei ) = 0
donc ∀i, λi = 0 et u = 0. Donc ϕ est injective.
P
On a clairement
Vect (ϕ(ei )i ) ⊂ Im ϕ. Inversement, si v ∈ Im ϕ, v = ϕ(u) et u = λi ei
P
donc v =
λi ϕ(ei ) ∈ Vect (ϕ(ei )i ).
Remarque. La preuve de cette proposition est un exemple de l’ubiquité des problèmes
d’algèbre linéaire, qui sont souvent « straightforward », une fois que l’on connaît les définition des objets que l’on manipule !
2.3
Isomorphismes en dimension finie
On a donc immédiatement
Proposition 2.3.1
Soit BE = (e1 , . . . , ep ) une base de E et ϕ ∈ L(E, F ). Alors ϕ est un isomorphisme si
et seulement si la famille (ϕ((e1 ), . . . , ϕ(ep )) est une base de F .
Proposition 2.3.2
Soit E un espace de dimension finie. Alors E et F sont isomorphes si et seulement si
F est aussi de dimension finie et dim E = dim F .
J. Gärtner.
7
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Démonstration : Soit BE = (e1 , . . . , ep ) une base de E. Si E et F sont isomorphes, alors on
prend ϕ un isomorphisme de E sur F . Comme (ϕ(e1 ), . . . , ϕ(ep )) est une base de F , on a
dim E = dim F .
Réciproquement, soit BF = (f1 , . . . , fp ) une base de F . Il existe une unique application linéaire telle que ϕ(ei ) = fi pour tout i. D’après la proposition précédente, c’est un
isomorphisme.
Application : tout espace de dimension p est isomorphe à Kp En effet, si E est
p
de dimension p et BP
E = (e1 , . . . , ep ) est une base de E, alors l’application K → E définie
p
par (x1 , . . . , xp ) 7→ i=1 xi ei est un isomorphisme car envoie une base (la base canonique
de Kp ) sur une base.
 
x1
 .. 
Ainsi, via le choix d’une base, les vecteurs x de E sont exactement les colonnes  .  ∈
xp
 
x1
 .. 
Mp,1 (K). On dit que X =  .  est le vecteur colonne de x dans la base BE et on note
xp
X = Mat BE (x).
Proposition 2.3.3
Si E et F sont deux espaces de dimension finie et dim E = dim F . Soit ϕ ∈ L(E, F ).
Alors les assertions suivantes sont équivalentes :
1. ϕ est injective.
2. ϕ est surjective.
3. ϕ est bijective.
Démonstration : En effet, fixons BE une base de E. Si ϕ est injective, alors (ϕ(e1 ), . . . , ϕ(ep ))
est libre dans F de cardinal égal à dim F donc est une base de F et ϕ est bijective, a fortiori
surjective.
De même dans les autres cas.
Proposition 2.3.4
Soit ϕ un isomorphisme de E vers F . Soit (u1 , . . . , um ) une famille de vecteurs de E.
Alors
rg (ϕ(u1 ), . . . , ϕ(um )) = rg (u1 , . . . , um )
Démonstration : Exercice : on pourra se restreindre à Vect (u1 , . . . , um ).
2.4
Théorème du rang
Définition 2.4.1
Si ϕ ∈ L(E, F ) et Im ϕ est de dimension finie, on appelle rang de ϕ cette dimension et
on note
rg (ϕ) = dim Im ϕ
J. Gärtner.
8
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Théorème 2.4.1 (du rang)
Soit E un espace vectoriel de dimension finie. Soit ϕ ∈ L(E, F ). Alors Im ϕ est de
dimension finie et
dim Ker ϕ + dim Im ϕ = dim Ker ϕ + rg ϕ = dim E
Démonstration : Soit G un supplémentaire de Ker ϕ dans E. Soit f : G → Im ϕ l’application
définie par u 7→ ϕ(u). Cette application est bien définie et linéaire. On a en quelque sorte
rendu ϕ bijective. En effet
f est injective : Ker f = {u ∈ G, ϕ(u) = 0} = G ∩ Ker ϕ = {0}.
f est surjective : si v ∈ Im ϕ, il existe u ∈ E tel que v = ϕ(u). u = u′ + u′′ suivant la
décomposition E = Ker ϕ ⊕ G et v = ϕ(u′ ) = f (u′ ).
f est donc un isomorphisme donc comme G est de dimension finie, Im ϕ aussi et
rg ϕ = dim G = dim E − dim Ker ϕ.
Proposition 2.4.1
Soit E et F deux espaces de dimension finie avec dim E = p et dim F = n. Soit
ϕ ∈ L(E, F ) avec rg ϕ = r. Alors
1. Si ϕ est injective, dim E 6 dim F
2. Si ϕ est surjective, alors dim E > dim F
3. r 6 n
4. r 6 p
5. r = n ⇔ ϕ est surjective (Im ϕ = F ).
6. r = p ⇔ ϕ est injective (dim Ker ϕ = 0 par le théorème du rang)
7. r = p = n ⇔ ϕ est un isomorphisme.
8. Si BE = (e1 , . . . , ep ) alors rg (ϕ) = rg (ϕ(e1 ), . . . ϕ(ep )).
3
Formes linéaires et hyperplans
Soit E un espace de dimension finie et BE = (e1 , . . . , en ) une base de E.
Commençons par quelques remarques sur les formes linéaires.
La donnée d’une forme linéaire sur E revient à la donnée des ϕ(ei ) = ai ∈ K. La matrice
d’une forme linéaire est donc une matrice ligne
Mat BE ϕ = a1 . . . an
Définition 3.0.2
On appelle hyperplan tout sous-espace vectoriel de E de dimension n − 1.
C’est donc ce qui généralise les plans (sous-espaces de dimension 2) dans un espace de
dimension 3.
Théorème 3.0.2
Les hyperplans sont exactement les noyaux de formes linéaires non nulles.
Démonstration : Le théorème du rang montre que si ϕ est une forme linéaire non nulle, alors
son noyau est de dimension n − 1.
J. Gärtner.
9
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Réciproquement, soit F un hyperplan de E. Montrons que c’est le noyau d’une forme
linéaire non nulle. Soit (e1 , . . . , en−1 ) une base de F que l’on
P complète en une base BE =
(e1 , . . . , en ) de E. Soit ϕ : E → K l’application qui à x = ni=1 xi ei associe xn ∈ K. Alors
ϕ est linéaire, et ϕ(en ) = 1 donc ϕ n’est pas nulle. De plus on a
x ∈ Ker ϕ ⇔ ϕ(x) = 0 ⇔ x ∈ F
ce qui permet de conclure.
On en déduit que les hyperplans de E sont exactement les parties définies par une
équation du type a1 x1 + · · · + an xn = 0 dans E.
En particulier, on voit que chercher les solutions d’un système linéaire homogène à n
équations et p inconnues revient à déterminer les vecteurs qui sont dans l’intersection de
n hyperplans d’un espace de dimension p. On peut en déduire géométriquement l’interprétation de la dimension de l’espace des solutions : c’est la dimension de l’intersection des
hyperplans.
Exercice. Soit H1 et H2 deux hyperplans de E (dim E = n) définis par H1 = Ker ϕ1 et
H2 = Ker ϕ2 , où les ϕi sont des formes linéaires non nulles. Montrer que H1 = H2 si et
seulement si ϕ1 et ϕ2 sont colinéaires dans l’espace vectoriel L(E, K) i.e. si et seulement si
il existe a ∈ K tel que ϕ1 = aϕ2 .
4
Démonstration du théorème sur les suites récurrentes linéaires d’ordre 2
Nous sommes maintenant en mesure de démontrer le théorème suivant :
Théorème 4.0.3
Soit a, b ∈ R avec b 6= 0. Soit (un ) une suite réelle telle que ∀n ∈ N, un+2 = aun+1 +bun .
Notons (E) l’équation caractéristique x2 = ax + b et ∆ = a2 + 4b son discriminant.
1. Si ∆ > 0, (E) possède deux solutions réelles distinctes q1 et q2 . Alors il existe
λ, µ ∈ R tels que
∀n ∈ N, un = λq1n + µq2n
2. Si ∆ = 0, (E) possède une unique solution q ∈ R. Alors il existe λ, µ ∈ R tels que
∀n ∈ N, un = (λn + µ)q n
3. Si ∆ < 0, (E) possède deux solutions complexes conjuguées z1 = ρeiθ et z2 =
ρe−iθ . Alors il existe λ, µ ∈ R tels que
∀n ∈ N, un = ρn (λ cos(nθ) + µ sin(nθ))
Démonstration : Fixons a et b. Notons S l’ensemble des suites définies par la relation de
récurrence linéaire un+2 = aun+1 + bun . On considère l’application ϕ : S → R2 définie
par ϕ(u) = (u0 , u1 ). Cette application est linéaire et bijective car les suites de S sont
exactement déterminées par leurs deux premier termes. Donc S est de dimension 2. Il nous
reste donc qu’à trouver, suivant les cas, une base de S.
1. Par définition de l’équation caractéristique, les suites (q1n ) et (q2n ) sont dans S. On a
ϕ((qin )) = (1, qi ). Comme q1 6= q2 , la famille ((1, q1 ), (1, q2 )) est libre donc une base
dans R2 . Puisque ϕ est un isomorphisme, ((q1n ), (q2n )) est une base de S. Ce qui est
exactement le résultat annoncé.
J. Gärtner.
10
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
2. Vérifions déjà que (nq n ) est dans S. Comme q est la racine double de x2 − ax − b,
a2
a
et donc a = 2q mais comme a2 + 4b = 0 on a b = −
= −q 2 . Donc
on a q =
2
4
a(n + 1)q n+1 + bnq n = 2(n + 1)q n+2 − nq n+2 = (n + 2)q n+2 donc (nq n ) ∈ S. Comme
ϕ((q n )) = (1, q) et ϕ((nq n )) = (0, q) et q 6= 0, il est clair que la famille ((q n ), (nq n ))
est une base de S.
3. Si on considère des suites complexes, on a (z1n ) et (z2n ) qui sont solutions et indépendantes pour les mêmes raisons. Elles constituent une base du C-ev S, isomorphe à C2 . Si on considère que le R-ev S, il nous faut des suites réelles. Mais
Re (z1n ) = ρn cos nθ et Im (z1n ) = ρn sin nθ. Ces suites sont donc bien dans le R-ev S
par linéarité des parties réelles et imaginaires. De plus ϕ((ρn cos nθ)) = (1, ρ cos θ) et
ϕ((ρn sin nθ)) = (0, ρ sin θ). Mais ρ sin θ = Im z1 6= 0 car z1 ∈
/ R, donc on obtient bien
encore une fois une base de S.
5
Lien avec les matrices
5.1
Matrice d’une application linéaire
Définition 5.1.1
Soit E et F deux espaces vectoriels sur K. BE = (e1 , . . . , ep ) une base de E et BF =
(f1 , . . . , fn ) une P
base de F . Soit ϕ ∈ L(E, F ). Pour tout j ∈ [[ 1 ; p ]], il existe ai,j ∈ K
tels que f (ej ) = ni=1 ai,j fi . Alors la matrice A = (ai,j ) ∈ Mn,p (K) est appelée matrice
de ϕ dans les bases BE et BF , notée Mat BF ,BE (ϕ).
La jième colonne de A donne les coordonnées de ϕ(ej ) dans la base BF .
Lorsque E = F et BE = BF on note A = Mat B (ϕ).
p
n
Remarque.
Pp Si A ∈ Mn,p (K), l’application K → K définie par (x1 , . . . , xp ) 7→ (y1 , . . . , yn )
avec yi = j=1 ai,j xi est appelée application canoniquement associée à A. C’est une
application linéaire, de matrice A dans les bases canoniques.
Exemple.
1. La matrice de f : R3 → R2 définie par f (x, y, z) = (x + 2y − z, y − z)
dans les bases canoniques est
1 2 −1
0 1 −1
2. La matrice de l’identité de E est In dans n’importe quelle base.
3. L’application f : K
[X] définie par P 7→ P (X + 1) vérifie f (X k ) =
n [X] → Kn (X + 1)k = 1 + k1 X + · · · + kk X k d’après la formule du binôme de Newton. La
matrice de f est donc, dans la base canonique


1 1 1 1 . . .
1 1
2
3
n−1
n 
0 1
...

1
1
1
1
1 
. .
.. 
.
.
.
.
.
.
.
. 


.

.
.
.
..
..
.. 
 ..


 ..
.. 
..
..
.
.
.
. 


 ..
.. 
..
..
.
.
.
. 
n
0 ... ... ... ...
0
n
J. Gärtner.
11
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Définition 5.1.2 (Matrice d’une famille de vecteurs)
Soit E un espace de dimension n, de base B. Soit f1 , . . . , fp des vecteurs de E. Notons
(a1,j . . . , an,j ) les coordonnées de fj dans la base B. Alors la matrice de la famille
(f1 , . . . , fp ) relativement à la base B est


a1,1 . . . a1,p

..  ∈ M (K)
Mat B (f1 , . . . , fn ) = A = (ai,j ) =  ...
n,p
. 
an,1 . . . an,p
Exemple. Dans R3 [X], soit P1 = (X − 1)2 , P2 = (X − 2)2 et P3 = X − 3. Alors la matrice
de (P1 , P2 , P3 ) dans la base canonique est


1 −8 −3
−2 12 1 


 1 −6 0 
0
1
0
5.2
Opérations
Proposition 5.2.1
Soit E et F deux espaces de dimension finie et de bases respectives BE et BF . Soit
ϕ, ψ ∈ L(E, F ) et λ ∈ K. Alors
Mat BF ,BE (ϕ + λψ) = Mat BF ,BE (ϕ) + λ Mat BF ,BE (ψ)
Démonstration : Trivial compte tenu de la définition des opérations sur les matrices.
Proposition 5.2.2
L’application Kn → Mn,1 (K) qui à x associe sa colonne de coordonnées dans la base canonique est un isomorphisme. L’application qui à E de dimension n rapporté à une base
B qui associe à x ∈ E sa colonne de coordonnées dans la base B est un isomorphisme
entre E et Mn,1 (K).
Théorème 5.2.1
Soit E un espace de dimension p et BE = (e1 , . . . , ep ) une base. F un espace de dimension n et BF = (f1 , . . . , fn ) une base. L’application Φ : L(E, F ) → Mn,p (K) définie par
ϕ 7→ Mat BF ,BE (ϕ) est un isomorphisme d’espace vectoriel.
Démonstration : Il est clair que Φ est linéaire. Si ϕ ∈ Ker Φ, alors ϕ s’annule sur une base
donc ϕ = 0. Φ est injective.
Pn
Soit A ∈ Mn,p (K). On définit ϕ par ϕ(ej ) = i=1 ai,j fi . Alors Φ(ϕ) = A et Φ est
surjective.
On en déduit
Proposition 5.2.3
Si dim E = p et dim F = n alors dim L(E, F ) = np.
J. Gärtner.
12
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Théorème 5.2.2
Soit E, F, G des espaces de dimensions finies et BE = (e1 , . . . , eq ), BF = (f1 , . . . , fp ) et
BG = (g1 , . . . , gn ) des bases de ces espaces. Si u ∈ L(E, F ) et v ∈ L(F, G) alors
Mat BG ,BE (v ◦ u) = Mat BG ,BF (v) × Mat BF ,BE (u)
Démonstration : Notons A = Mat BG ,BF (v), B = Mat BF ,BE (u) et C = Mat BG ,BE (v ◦ u). On
a, pour j ∈ [[ 1 ; q ]]
!
p
X
v ◦ u(ej ) = v
bk,j fk
k=1
=
=
=
=
p
X
k=1
p
X
Pn
bk,j
k=1
p X
n
X
n
X
ai,k gi
i=1
ai,k bk,j gi
k=1 i=1
!
p
n
X
X
ai,k bk,j
i=1
Mais on a aussi v ◦ u(ej ) =
AB = C.
bk,j v(fk )
i=1 ci,j gi .
!
gi
k=1
Par unicité de l’écriture dans la base BG , on a
En particulier, on peut déduire la proposition suivante de la proposition analogue sur
les application linéaires.
Proposition 5.2.4
1. Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), alors A(BC) = (AB)C.
2. Si A ∈ Mn,p (K) et B, C ∈ Mp,q (K) alors A(B + C) = AB + AC.
3. Si A, B ∈ Mn,p (K) et C ∈ Mp,q (K), alors (A + B)C = AC + BC.
4. Si A ∈ Mn,p (K) et B ∈ Mp,q (K), si λ ∈ K, alors (λA)B = λ(AB) = A(λB).
Proposition 5.2.5
Soit ϕ ∈ L(E, F ) et BE une base de E, BF une base de F . Soit x ∈ E de coordonnées
X ∈ Mp,1 (K) dans la base BE . Alors les coordonnées de y = ϕ(x) dans la base BF sont
données par
Y = Mat BF ,BE (ϕ)X
J. Gärtner.
13
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Démonstration : En effet,


p
X
xj ej 
u(x) = u 
j=1
=
p
X
xj u(ej )
j=1
=
p
X
xj
=
i=1
ai,j fi
i=1
j=1
n
X
n
X


p
X
j=1
!

ai,j xj  fi
Exemple.
La matrice
de f : R4 [X] → R4 [X] P 7→ P (X + 1) est dans la base
canonique


 
1 1 1 1 1
0
0 1 2 3 4
3


 
0 0 1 3 6. Le polynôme P = 2X 4 − X 2 + 3X a pour coordonnées −1 et donc


 
0 0 0 1 4
0
0 0 0 0 1
2
f (P ) a pour coordonnées, dans la base canonique

   
1 1 1 1 1
0
4
0 1 2 3 4  3   9 

   
0 0 1 3 6 −1 = 11

   
0 0 0 1 4  0   8 
0 0 0 0 1
2
2
Proposition 5.2.6
Soit E et F deux espaces de dimension n, de bases BE et BF et ϕ ∈ L(E, F ). Alors ϕ
est un isomorphisme si et seulement si A = Mat BF ,BE (ϕ) est inversible et dans ce cas
Mat BF ,BE (ϕ)−1 = Mat BF ,BE (ϕ−1 )
Démonstration : Si ϕ est un isomorphisme, alors les règles de calcul donnent Mat BF ,BE (ϕ)−1 ×
Mat BF ,BE (ϕ−1 ) = Mat BE ,BE (IdE ) = In et Mat BE ,BF (ϕ−1 )×Mat BF ,BE (ϕ)−1 = Mat BF ,BF (IdF ) =
In . Donc A est inversible et A−1 est la matrice annoncée.
Réciproquement, si A est inversible, notons ψ l’application linéaire de F dans E dont la
matrice dans les bases BF et BE est A−1 . Alors Mat BF ,BF (ϕψ) = In et Mat BE ,BE (ψϕ) = In
Donc ϕ ◦ ψ = IdF et ψ ◦ ϕ = IdE . ϕ est inversible et la matrice est bien celle prévue.
Remarque. En particulier,

1 1
0 1

Exercice. Calculer 
0 0
0 0
0 0
si ϕ est un automorphisme, Mat B (ϕ)−1 = Mat B (ϕ−1 ).

1 1 1
2 3 4
 −1
1 3 6
 .
0 1 4
0 0 1
Nous pouvons maintenant démontrer les propositions laissée en suspend dans le chapitre
sur les matrices :
J. Gärtner.
14
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Proposition 5.2.7
Soit A ∈ Mn (K). Alors A est inversible si et seulement si
∀X ∈ Mn,1 (K), AX = 0 ⇒ X = 0
Démonstration : L’implication directe s’obtient en multipliant par A−1 .
Pour la réciproque soit u l’endomorphisme de Kn canoniquement associé à A. Alors
par hypothèse, u est injective. Comme c’est un endomorphisme en dimension finie, u est
bijective et A est inversible.
Proposition 5.2.8
Soit A, B ∈ Mn (K) telles que AB = In . Alors A et B sont inversibles et A−1 = B.
Démonstration : Soit u l’endomorphisme de Kn canoniquement associé à A et v celui associé
à B. On a uv = Id. On a vu que dans ce cas, v est injective (en exercice) donc en dimension
finie, v est bijective. De même u est surjective donc bijective. A et B sont inversibles et
inverses l’une de l’autre.
5.3
Rang d’une matrice
Définition 5.3.1
Soit A ∈ Mn,p (K). On appelle rang de A le rang de la famille de ses vecteurs colonne
dans Mn,1 (K) et on note rg (A).
Exemple. rg
1 2 0
= 2.
0 2 0
Comme le rang de A ∈ Mn,p (K) est le rang d’une famille de p vecteurs d’un espace de
dimension n, on a
Proposition 5.3.1
Si A ∈ Mn,p (K) alors rg (A) 6 inf(n, p).
Proposition 5.3.2
Soit E un espace de dimension n muni d’une base B et f1 , . . . , fp des vecteurs de E.
Soit A la matrice de ces vecteurs dans la base B. Alors rg (f1 , . . . , fp ) = rg (A).
Démonstration : On utilise l’isomorphisme ϕ entre E et Mn,1 (K) qui a un vecteur associe la colonne de ses coordonnées dans la base B. On a donc un isomorphisme entre
Vect (f1 , . . . , fp ) et Vect (ϕ(f1 ), . . . , ϕ(fp )). Ce qui donne l’égalité des rangs.
Théorème 5.3.1
Soit E et F des espaces vectoriel de dimension finie munis d’une base BE , BF . Soit
ϕ ∈ L(E, F ). Alors rg (ϕ) = rg (Mat BF ,BE (ϕ)). Autrement dit le rang de ϕ est égal au
rang de sa matrice dans n’importe quelle base.
Démonstration : Si BE = (e1 , . . . , ep ) alors Im ϕ = Vect (ϕ(e1 ), . . . , ϕ(ep )), donc d’après la
proposition précédente, rg (ϕ) = rg (ϕ(e1 ), . . . , ϕ(ep )). Mais par définition, Mat BF ,BE (ϕ) =
Mat BF (ϕ(e1 ), . . . , ϕ(ep )). D’où l’égalité des rangs.
On en déduit que
J. Gärtner.
15
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Proposition 5.3.3
A ∈ Mn (K) est inversible si et seulement si rg (A) = n.
Enfin, on admettra la proposition suivante :
Proposition 5.3.4
Soit A ∈ Mn,p (K). Alors rg (A) = rg ( t A). En particulier, le rang de A est aussi la
dimension du sous espace de M1,n (K) engendré par les lignes de A.
Calcul du rang : Pour calculer le rang d’une matrice A (donc aussi d’une famille de
vecteur, d’une application linéaire...) on peut soit expliciter son noyau et sa dimension (ce
qu’on sait déjà faire), soit appliquer l’algorithme du pivot de Gauss à A.
On arrive après opérations élémentaires sur les lignes (et éventuellement sur les colonnes) à une matrice du type


a1,1 a1,2 a1,3 . . . . . . a1,p

a2,2 a2,3 . . . . . . a2,p 



.. 
..


.
.



ar,r . . . ar,p 



0 



.. 

. 
0
 cette matrice est alors facile à trouver en pratique. Par exemple la matrice
 Le rang de
1 2 3 4
0 0 2 2


0 0 1 2 a clairement pour rang 3 : les deux premières colonnes sont liées et indé0 0 0 0
pendentes des deux dernières. De plus C3 et C4 ne sont pas colinéaires. En général, le rang
sera k où k est le nombre de lignes telles que aj,j = 0 avec j ∈ [[ 1 ; r ]].
Exercice. Sur la matrice ci-dessus, utiliser la méthode du Pivot de Gauss pour calculer le
rang.
La justification de cette méthode passe par la
Proposition 5.3.5
Soit A une matrice et B une matrice obtenue à partir de A par opérations élémentaires
sur les lignes ou les colonnes. Alors A et B ont même rang.
Démonstration : Cas des colonnes : on effectue des combinaisons linéaires qui ne changent
pas la dimension de l’espace engendré.
t
Cas des lignes : c’est une conséquence du fait que rg A = rg A.
On obtient une nouvelle justification de l’algorithme qui permet de déterminer si une
matrice est inversible : il suffit de vérifier que son rang est égal à sa taille.
En particulier
Proposition 5.3.6
Si A ∈ Mn,p (K) est de la forme
A=
J. Gärtner.
16
a ∗
0 B
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
avec B ∈ Mn−1,p−1 (K) et a 6= 0, alors rg A = rg B + 1. Si A est triangulaire, elle est
inversible si et seulement si tous ses coefficients diagonaux sont non nuls.
Démonstration : La première assertion en claire en regardant l’espace engendré par les lignes.
La seconde se montre par récurrence.


1
−2
3
0
6
−1
4
−2 −1 −5
.
Exercice. Calculer le rang de A = 
1
2
5
0
7
2 −10 3
3
9
5.4
Détermination du noyau, de l’image : cas pratique
Remarque. On est souvent amené à déterminer noyau et image d’une application linéaire.
Pour déterminer l’image, on peut s’aider du rang, qui est sa dimension. Lorsque l’on trouve
des relation de combinaison linéaire sur les colonnes de sa matrice dans
B, on
 une base 
1 2 −1
trouve au passage des vecteurs du noyau. Par exemple la matrice A =  2 1 −2 est
−5 1 5
clairement de rang 2, son image "clairement" de rang 2 car les deux premières colonnes sont
linéairement indépendantes (le vérifier !) et on a C1 = −C3 . Autrement dit C1 +C3 = 0M3,1 .
 
1
On en déduit que  0  est dans le noyau de A (le vérifier : faire le produit d’une matrice
−1
par une colonne, c’est faire une combinaison linéaire des colonnes, interprétation en terme
d’application linéaire ?). On a trouvé un vecteur non nul du noyau dont on sait qu’il est de
dimension 1 (le rang est 2 et la taille est 3...) Bref, on a déterminé le noyau.
Si on n’est pas convaincu, on peut toujours résoudre le système AX = 0 !
5.5
Dimension de l’ensemble des solutions d’un système linéaire homogène
5.5.1
Interprétation en terme de famille de vecteurs
Imaginons que l’on veuille résoudre un système AX = B. Alors si C1 , . . . , Cp sont les
colonnes de A, on cherche à écrire B comme combinaison linéaire des Cj . Les coefficients
de cette combinaison sont donnés par X.
Le système admet donc une solution si et seulement si B ∈ Vect (C1 , . . . , Cp ). Si cette
famille est libre, il y a au plus une solution. Si cette famille est une base (donc A inversible)
il existe une unique solution qui correspond aux coordonnées de B dans cette base.
Ceci justifie à postériori la discussion sur le nombre de variables indépendantes dans la
détermination des solutions d’un système linéaire après méthode du Pivot.
5.5.2
Interprétation en terme d’application linéaire
Soit ϕ l’application linéaire de Kp dans Kn canoniquement associée à A. Soit y ∈ Kn
de matrice B dans la base canonique. Le système AX = B revient à chercher x ∈ Kp tel
que ϕ(x) = y. Le système est donc compatible si et seulement si y ∈ Im ϕ. Si le système
est homogène, l’ensemble des solutions est Ker ϕ. Si ϕ est injective, le système a au plus
une solution.
J. Gärtner.
17
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014
Soit x0 une solution particulière du système. Alors l’ensemble des solutions est
{x0 + x, x ∈ Ker ϕ}
En effet, si ϕ(x′ ) = y alors ϕ(x′ −x0 ) = 0 et x′ = x+x0 avec x ∈ Ker ϕ. Réciproquement
si x′ = x0 + x avec x ∈ Ker ϕ, alors ϕ(x′ ) = ϕ(x0 ) = y.
On appelle les ensembles du type {x0 } + Ker ϕ des espaces affines de direction Ker ϕ.
6
Polynômes d’endomorphismes, de matrices : calculs
Comme on l’a entraperçu concernant les matrices, l’utilisation de polynômes peut être
utile pour calculer des puissances ou des inverses.
Définition 6.0.1
Soit P ∈ K[X] un polynôme. P = a0 + · · ·+ an X n . E un K-espace vectoriel et u ∈ L(E)
un endomorphisme. On note P (u) l’endomorphisme de E défini par
P (u) =
n
X
ak uk = a0 IdE + a1 u + · · · + an un
k=0
Si de plus P (u) = 0L(E) on dit que P est un polynôme annulateur de u.
Attention ! il ne faut surtout pas oublier que u0 = IdE !
Définition 6.0.2
Soit P ∈ K[X] un polynôme. P = a0 + · · · + an X n . A ∈ Mn (K) une matrice carrée.
On note P (A) la matrice carrée définie par
P (A) =
n
X
ak Ak = a0 In + a1 A + · · · + an An
k=0
Si de plus P (A) = 0Mn (K) on dit que P est un polynôme annulateur de A.
Exemple : projecteur.
On utilise souvent des polynômes annulateurs, pour calculer des puissances de matrices
ou des inverses (c.f. exercices du td sur les matrices !)
Proposition 6.0.1
Soit E un espace de dimension finie et u ∈ L(E). Alors il existe un polynôme annulateur
non nul (i.e. 6= 0K[X] ) de u. De même pour une matrice carrée.
2
Démonstration : Soit n la dimension de E alors (IdE , u, . . . , un ) est une famille de n2 + 1
vecteurs en dimension n2 , donc liée.
Remarque : on peut montrer (c’est completement hors programme) qu’il existe un
polynôme annulateur de degré au plus n.
Applications : calculsde puissances,
d’inverses, qui sont des polynômes en A.
1 3
Exemple : soit A =
. Alors le polynôme X 2 + X − 8 annule A. On a donc
2 −2
1
A(A + I2 ) = A2 + A = 8I2 autrement dit A est inversible, d’inverse (A + I2 ). (Et on
8
retrouve bien la formule déjà vue pour inverser une matrice de taille 2).
J. Gärtner.
18
ECS3 Carnot
Chapitre 27 — Applications linéaires.
2013/2014


0 0
6
Calcul de puissance : Soit A = 1 0 −11. Alors on peut vérifier que P = X 3 −
0 1
6
6X 2 +11X −6 = (X −1)(X −2)(X −3) est annulateur de A. On a pour tout n, par division
euclidienne X n = P Qn + Rn avec Rn un polynôme de degré au plus 2. Rappelons que l’on
peut déterminer R en remarquant que Rn = an X 2 +bn X +cn et que Rn (1) = an +bn +cn =
1, Rn (2) 
= 4an +2bn +cn = 2n et Rn (3) = 9an +3bn
+cn = 3n . On cherche donc à résoudre le
 a + b + c = 1
 a + b + c = 1
4a + 2b + c = 2n qui donne
3a + b
= 2n − 1 D’où
système


n
9a + 3b + c = 3
8a + 2b
= 3n − 1

 a + b + c = 1
3a + b
= 2n − 1

2a
= 3n + 1 − 2n+1
n
n+1
3
3 −2
+1
, bn = 2n − 1 − (3n + 1 − 2n+1 ) et cn = 1 − an − bn .
Bref an =
2
2
Comme P est annulateur, on a P (A) = 0 donc An = P (A)Qn (A) + Rn (A) = Rn (A) =
an A2 + bn A + cn I3 .
J. Gärtner.
19
Téléchargement