Espaces vectoriels, applications linéaires, matrices

publicité
ECS 2, Cours chapitre 8
Octobre 2010
Espaces vectoriels, applications linéaires, matrices
I
Espaces vectoriels, combinaisons linéaires, familles de vecteurs
I.1
Premières définitions
I.1.a
Axiomes
K étant le corps des coefficients ou des scalaires, égal à R ou à C, un K-espace vectoriel (E, +, .) est défini par :
*
un ensemble E dont les éléments sont souvent appelés “vecteurs”,
*
une opération (ou loi de composition interne) + qui est :
associative : ∀u, v, w ∈ E, (u + v) + w = u + (v + w) = u + v + w (on fait les opérations dans l’ordre qu’on veut).
commutative: ∀u, v ∈ E, u + v = v + u (on peut placer les vecteurs dans l’ordre qu’on veut).
−
→
possédant un élément neutre noté 0 ou 0E ou 0 appelé vecteur nul (∀u ∈ E, u + 0 = 0 + u = u).
tout élément u de E possède un opposé, noté −u (tel que u + (−u) = (−u) + u = 0).
*
une opération externe notée . , application de K × E dans E, qui au couple (λ, u) associe un vecteur v = λ.u :
pseudo-associative : ∀(λ, µ) ∈ K2 , ∀u ∈ E, λ.(µ.u) = (λ × µ).u.
pseudo distributive à gauche : ∀(λ, µ) ∈ K2 , ∀u ∈ E, (λ + µ).u = λ.u + µ.u.
pseudo distributive à droite : ∀λ ∈ K , ∀(u, v) ∈ E 2 , λ.(u + v) = (λ.u) + (λ.v).
1 est un pseudo-élément neutre à gauche : ∀u ∈ E, 1.u = u.
Ces axiomes fixent les règles algébriques qui permettent de “gérer” les combinaisons linéaires...
I.1.b
Combinaisons linéaires
Le vecteur w de E est combinaison linéaire des vecteurs u et v de E (ou des vecteurs u1 , u2 , ..., un de E) s’il existe un couple
n
(λ, µ) de K2 , tel que : w = λ.u + µ.v. (ou un n-uplet (λ1 , ...λn ) tel que w =
λk uk ) .
k=1
Théorème : une combinaison linéaire de combinaisons linéaires est une combinaison linéaire.
n
n
n
n
n
Si w′ =
λ′k uk et w′′ =
λ′′k uk alors αw′ + βw” = α
λ′k uk +β
λ′′k uk =
(αλ′k + βλ′′k ) uk
k=1
I.1.c
k=1
k=1
k=1
k=1
Espaces vectoriels de référence
Historiquement, il faut citer les espaces de vecteurs V , associés aux espaces “affines” en géométrie (à tout couple de points (A, B), on
−→
associe un vecteur AB ). Cet exemple est utile pour faire des “dessins” sur des questions relatives aux vecteurs !
On évoquera juste le rôle stratégique de l’étude des vecteurs ou des champs de vecteurs en Physique. En économie, il y a aussi beaucoup de
situations qui obéissent à des “règles linéaires”, dès qu’il y a “proportionnalité”...
Il y a l’ensemble Kn des n-uplets (a1 , a2 , ..., an ), ou l’espace Mn,p (K) des matrices n × p muni des opérations + et . classiques.
Il y a l’ensemble K[X] des polynômes à une indéterminée à coefficients dans K, ( muni des opérations + et . ).
Il y a tous les espaces des applications F(A, K) d’un ensemble quelconque A dans l’ensemble K, (exemple : F(R, R), ensemble des
fonctions numériques définies sur R ou F([a, b], R), ensemble des fonctions définies sur [a, b], F(N, R) ensemble des suites numériques
réelles....et les espaces des applications F(A, E) d’un ensemble A dans un K-espace vectoriel E Les opérations sont définies ainsi :
- si f, g ∈ F(A, K) ou F(A, E), f + g est l’application définie sur A par : x → f(x) + g(x) (on ajoute dans K ou E ).
- si f ∈ F(A, K) ou F(A, E), λ ∈ K, λ.f est définie sur A par : x → λ × f (x) (la multiplication se passe dans K ou E ).
I.1.d
Sous-espaces vectoriels
Si F sous-ensemble de E, F est un sous-espace vectoriel si F est non vide et stable pour + et . :
1. ∀(u, v) ∈ F 2 , u + v ∈ F ; 2. ∀(λ, u) ∈ K × F, λ.u ∈ F
ou encore stable pour les combinaisons linéaires : ∀(u, v) ∈ F 2 , ∀(λ, µ) ∈ K2 , λ.u + µ.v ∈ F
Remarque : dans 99 % des cas, pour démontrer qu’un ensemble, muni d’opérations + et . , possède une structure d’espace vectoriel, on
démontre que c’est un sous-espace vectoriel d’un espace vectoriel E classique. Vérifier que ce sous-espace est non vide, c’est vérifier qu’il
contient le vecteur nul “0E ”. Quelques exemples :
- les espaces C n ([a, b], R) sont des sous-espaces vectoriels de F([a, b], R).
- l’ensemble des suites numériques vérifiant une relation de récurrence linéaire (simple, double, multiple).
- l’ensemble Kn [X] des polynômes de K[X] de degrés inférieurs ou égaux à n.
- si (Ω, F, P ) est un espace probabilisé, l’ensemble des variables aléatoires reélles est un sous-espace vectoriel de l’espace vectoriel
F(Ω, R) des applications de Ω vers R (idem avec les vecteurs aléatoires).
- l’ensemble des solutions d’un système linéaire homogène de n équations à p inconnues (sous-espace de Kp ).
I.2
Familles de vecteurs
I.2.a
Sous-espace vectoriel Vect(ui )i∈I =< (ui )i∈I > engendré par une famille (ui )i∈I
Théorème : Si (ui )i∈I est une famille (finie ou infinie) de vecteurs du K-espace vectoriel E, l’ensemble de toutes les combinaisons linéaires de vecteurs de la famille est un sous-espace vectoriel F noté aussi Vect(ui )i∈I ou < (ui )i∈I >.
Luc Bouttier, Lycée Camille Vernet, Valence
ECS 2, Cours chapitre 8
Espaces vectoriels, applications linéaires, matrices
2
Démonstration : un tel espace est stable par combinaisons linéaires.
Exemples : très souvent, on repère un sous-espace vectoriel (de dimension finie) comme un ensemble de combinaisons linéaires.
I.2.b
Famille génératrice
On dit que ce sous-espace vectoriel F = Vect(ui )i∈I , ensemble de toutes les combinaisons linéaires de vecteurs de la famille,
est engendré par (ui )i∈I ou encore que la famille (ui )i∈I est une famille génératrice de F .
Dans le cas de la famille finie (u1 , u2 , ..., un ), cela s’écrit :
w ∈ Vect(u1 , u2 , ..., un ) = u1 , u2 , ..., un ⇔ ∃(λ1, λ2 , ..., λn ) ∈ Kn tel que w = λ1 u1 + λ2 u2 + ... + λn un
Exemples : l’ensemble des polynômes de K[X] de degrés
inférieurs ou égaux à n est Kn [X] = Vect(1, X, X 2 , ..., X n ),
ab
l’ensemble des matrices symétriques, de la forme b d (a, b, d ∈ K), est S2 (K)=Vect 10 00 , 01 10 , 00 01 ,
I.2.c
Familles libres
La famille finie (u1 , u2 , ..., un ) de n vecteurs de E est libre,
ou encore les n vecteurs u1 , u2 , ..., un sont linéairement indépendants si :
• La combinaison linéaire nulle λ1 u1 + λ2 u2 + ... + λn un = 0E ne peut être obtenue que si λ1 = ... = λn = 0 .
• Ou encore l’équation λ1 u1 + λ2 u2 + ... + λn un = 0E a pour unique solution λ1 = λ2 = ... = λn = 0.
La famille “infinie” (ui )i∈I est une famille libre, si toute famille finie extraite de (ui )i∈I est libre.
I.2.d
Familles liées
La famille finie (u1 , u2 , ..., un ) de vecteurs de E est liée si n’est pas libre, ou encore si les vecteurs u1 , u2 , ..., un sont linéairement dépendants, c’est à dire aussi si :
l’un (au moins) des vecteurs de la famille est combinaison linéaire des autres vecteurs de la famille. C’est à dire
∃j ∈ {1, ..., n}, ∃(a1 , ..., aj−1 , aj+1 , ..., an ) ∈ Kn−1 tel que uj = a1 u1 + ... + aj−1 uj−1 + aj+1 uj+1 + ... + an un
Démonstration :
- si (u1 , u2 , ..., un ) est liée, l’égalité : uj = a1 u1 + ... + aj−1 uj−1 + aj+1 uj+1 + ... + an un fournit un n-uplet (λ1 , ..., λn ) =
(a1 , ..., aj−1 , −1, aj+1 , ..., an ) différent de (0, ..., 0) tel que : λ1 u1 + λ2 u2 + ... + λn un = 0E .
- si λ1 u1 + λ2 u2 + ... + λn un = 0E et (λ1 , ..., λn ) = (0, ..., 0) , ∃k ∈ {1, ..., n} tel que λk = 0, on a une relation de dépendance
λ1
linéaire : uk = − λ
u1 − λλk−1
uk−1 − λλk+1
uk+1 − ... − λλnk un , la famille est donc liée.
k
k
k
Remarque : Si la famille (ui )i∈I est libre et si J ⊂ I , alors la famille extraite (ui )i∈J est libre ; inversement (ui )i∈J liée ⇒ (ui )i∈I liée.
Il suffit de voir qu’une combinaison linéaire de vecteurs de la famille extraite (ui )i∈J peut être prolongée en une combinaison linéaire de
vecteurs de la famille (ui )i∈I en ajoutant des coefficients nuls aux autres vecteurs.
I.2.e
Base
Une base (u1 , u2 , ..., un ) de l’espace vectoriel E est une famille libre et génératrice.
Tout vecteur de E peut s’écrire de façon unique comme combinaison linéaire des vecteurs de la famille :
∀w ∈ E, ∃!(λ1 , λ2 , ..., λn ) ∈ Kn tel que w = λ1 u1 + λ2 u2 + ... + λn un .
Ce n-uplet s’appelle “les coordonnées ou les composantes” du vecteur w dans la base (u1 , u2 , ..., un ).
Plus généralement une base (ui )i∈I (I quelconque, fini ou infini) de l’espace vectoriel E est une famille libre et génératrice : à
tout vecteur w de E correspond une famille de coordonnées ou composantes (λi )i∈I mais dans ces coordonnées seul un nombre
fini de λi n’est pas nul, car on travaille toujours avec des “combinaisons linéaires finies”.
Exemple : (1, X, X 2 , ..., X n , ...) est une base de K(X) , un polynôme est une somme finie de monomes.
I.2.f
Calculs sur les coordonnées ou composantes
Si B = (u1 , ..., un ) est une base
de l’espace vectoriel E, à tout vecteur v de E, qui s’écrit sous la forme x1 u1 + ... + xn un
correspond des coordonnées : v ẍxn1 de Mn,1 (K) ( ou (x1 , ..., xn ) de Kn ) .
y1
Il y a “unicité” des coordonnées : si v ẍxn1 , w ...
, v = w ⇔ ∀i ∈ {1, ..., n} , xi = yi .
y
n y1
λx1...
+µy1
et λv + µw a pour coordonnées: λ ẍxn1 + µ ...
y n = λxn +µyn
I.3
Opérations sur les sous-espaces vectoriels
I.3.a
Intersection
Théorème : si (Fk )k∈I est une famille de sous-espaces vectoriels de l’espace vectoriel E, alors l’intersection
Fk des
k∈I
sous-espaces vectoriels de la famille (finie ou infinie) est un sous espace vectoriel.
Démonstration immédiate : si des vecteurs appartiennent à tous les sous-espaces, une combinaison linéaire de ces vecteurs appartient à
chacun des sous espaces vectoriels stable par combinaison linéaire.
Remarque sur la réunion : si F1 et F2 sont deux sous-espaces vectoriels, alors leur réunion n’est pas un sous-espace vectoriels, (sauf s’il
y a une relation d’inclusion entre les deux sous-espaces).
Luc Bouttier, Lycée Camille Vernet, Valence.
ECS 2, Cours chapitre 8
Espaces vectoriels, applications linéaires, matrices
3
En effet si u est un vecteur de F1 qui n’est pas dans F2 et v est un vecteur de F2 qui n’est pas dans F1 la somme s = u + v des deux
vecteurs n’est pas dans F1 (sinon v = s − u serait dans F1 ) ni dans F2 .
I.3.b
Somme de sous-espaces vectoriels
Si F1 et F2 sont deux sous-espaces vectoriels de E, la somme des sous-espaces F1 + F2 = S est l’ensemble des vecteurs v qui
s’écrivent sous la forme : v = v1 + v2 , avec (v1 , v2 ) ∈ F1 × F2 .
On obtient une famille génératrice de F1 + F2 = S en juxtaposant des familles génératrices ou des bases de F1 et F2 .
Plus généralement, si F1 , F2 ,..., Fn sont n sous-espaces vectoriels, on définit une somme F1 + ... + Fn = S en prenant tous
les vecteurs v qui sont des sommes v1 + ... + vn de vecteurs appartenant respectivement à F1 , ..., Fn .
Une famille génératrice de S s’obtient par juxtaposition de familles génératrices (ou de bases) de F1 , ..., Fn .
I.3.c
Somme directe de sous-espaces vectoriels
1. Somme directe de 2 sous-espaces
Il y a unicité dans la décomposition v = v1 + v2 d’un vecteur de F1 + F2 si et seulement si F1 ∩ F2 = {0E }.
On dit dans ce cas que la somme F1 + F2 est directe, on écrit : F1 + F2 = F1 ⊕ F2 .
2. Somme directe de n sous-espaces
Plus généralement la somme Sn = F1 + F2 + ... + Fn est directe s’il y a unicité de la décomposition de tout vecteur v de Sn
en somme de vecteurs de F1 , F2 , ..., Fn et on écrit dans ce cas : Sn = F1 ⊕ F2 ⊕ ... ⊕ Fn .
Règle : Sn = F1 + F2 + ... + Fn est directe ⇔ Sn−1 = F1 + F2 + ... + Fn−1 est directe et Sn−1 + Fn est directe.
Démonstration : on applique la définition à un vecteur v de Sn−1 + Fn , qui s’écit de façon unique sous la forme v = sn−1 +vn puis à
sn−1 qui s’écrit de façon unique sous la forme sn−1 = v1 + ... + vn−1 .
Donc on a une décomposition unique v = (v1 + ... + vn−1 ) + vn = v1 + ... + vn−1 + vn .
Conséquences :
• S = F1 + ... + Fn est directe ⇔ toute famille (v1 , ..., vn ) de vecteurs non nuls de F1 ×... × Fn est libre.
La propriété est vraie pour n = 2 et on la suppose vraie jusqu’au rang (n−1) : on pose w′ = a1 v1 +... +an−1 vn−1 , avec w′ ∈ Sn−1 ,
et w = w′ + an vn ∈ Sn . La somme Sn−1 + Fn est directe ⇔ (w = 0E ⇒ w′ = 0E et an vn = 0E ), donc en utilisant l’hypothèse
de récurrence, cela équivaut à : a1 v1 = 0E , ..., an−1 vn−1 = 0E et an vn = 0E . D’où la conclusion.
• S = F1 + ...+ Fn est directe ⇔ une base de S s’obtient par juxtaposition de bases de F1 , .., Fn .
La propriété a été établie dans le cas n = 2, elle s’étend par récurrence à une somme de n sous-espaces.
I.3.d
Sous-espaces vectoriels supplémentaires
Définition : F1 et F2 sont deux sous-espaces vectoriels supplémentaires du K-espace vectoriel E si et seulement si la somme
F1 + F2 est directe et égale à E.
Cela implique que F1 ∩ F2 = {0E }. On a encore la propriété caractéristique suivante : tout vecteur u de E se décompose de
façon unique sous forme d’une somme d’un vecteur u1 de F1 et d’un vecteur u2 de F2 , u = u1 + u2 .
I.4
Espace vectoriel de dimension finie
I.4.a
Nombres d’éléments d’une famille1 libre et d’une famille génératrice
Un espace vectoriel E est de dimension finie s’il possède une famille génératrice finie.
Théorème : On peut construire une base de E en partant d’une famille génératrice finie (u1 , u2 , ...., un ) :
si la famille (u1 , u2 , ...., un ) est libre, on a une base, il n’ y a rien de plus à faire.
sinon, l’un des vecteurs, uk par exemple, peut s’écrire comme combinaison linéaire des autres vecteurs de la famille et
Vect(u1 , u2 , ..., un ) = Vect(u1 , ..., uk−1 , uk+1 , ..., un ) : dans toute combinaison linéaire de u1 , u2 , ..., un on peut remplacer uk
par son expression en fonction de u1 , ..., uk−1 , uk+1 , ..., un , donc (u1 , ..., uk−1 , uk+1 , ..., un ) est génératrice
on enlève des vecteurs jusqu’à ce qu’on obtienne “une famille génératrice minimale”, n’étant pas liée, c’est une base.
Théorème : si G = (u1 , ..., up ) est une famille génératrice et L = (v1 , ..., vr ) est libre de E, alors |G| = p ≥ |L| = r.
p
Démonstration : on écrit v1 =
αk uk ( G est génératrice), les coefficients αk n’étant pas tous nuls (v1 = 0 car L est libre). On
k=1
suppose (quite à changer l’ordre des éléments de G) que α1 = 0 : on a alors u1 =
1
α1 v1
−
p
k=2
αk
α1 uk .
La famille G1 = (v1 , u2 , ..., up )
est génératrice car (en remplaçant u1 ) une combinaison linéaire de u1 , ..., up est une combinaison linéaire de v1 , u2 , ..., up ..
Si p = 1, c’est fini, sinon on continue : on suppose que Gh = (v1 , ..., vh , uh+1 , ..., up ) est génératrice (h < p et h < r).
On peut écrire vh+1 =
h
k=1
αk vk +
p
αk uk , les coefficients αh+1 , ..., αp n’étant pas tous nuls ( L est libre ⇒ vh+1 ∈
/ Vect (v1 , ...vh ))
k=h+1
et en supposant (quitte à permuter les p − h derniers vecteurs) que αh+1 = 0, on remplacera dans une combinaison linéaire des éléments de
1
On utilise le mot famille d’éléments lorsque les éléments sont repérés par des indices i ∈ I. Ici I ⊂ N∗ , cette famille est en quelque sorte une suite
(finie ou infinie).
Luc Bouttier, Lycée Camille Vernet, Valence
ECS 2, Cours chapitre 8
Gh , uh+1 =
h
k=1
Espaces vectoriels, applications linéaires, matrices
k
− ααh+1
vk +
1
αh+1 vh+1 −
p
k=h+2
αk
αh+1 uk , on
4
obtiendra une famille génératrice Gh+1 .
Si r > p alors (v1 , ..., vp ) est libre et génératrice donc une base : vp+1 , ..., vr s’expriment comme combinaisons linéaires de v1 , ..., vp et
la famille (v1 , ..., vr ) est liée ! Ceci contredit l’hypothèse, donc r ≤ p.
Et si r ≤ p, les substitutions s’arrêtent lorsque h = r, la famille (v1 , ..., vr , ur+1 , ..., up ) étant génératrice, d’où le théorème
I.4.b
Dimension d’un espace vectoriel
Théorème de la dimension
Si E possède une base (e1 , ..., en ) de n vecteurs, toute autre base a nécessairement n vecteurs et ce nombre n s’appelle la
dimension de E et se note dim(E).
Et si dim(E) = n, alors toute famille libre a au plus n vecteurs ; si elle possède n vecteurs, c’est une base ;
toute famille génératrice a au moins n vecteurs ; si elle possède n vecteurs, c’est une base.
Démonstration : Si on a 2 bases B1 = (e1 , ..., ep ) et B2 = (v1 , ..., vr ) de E, l’une des familles étant une famille génératrice l’autre étant
une base, d’après le théorème précédent on aura à la fois p ≥ r et r ≥ p en inversant les rôles, donc p = r.
Il faut connaître les bases canoniques et dimension de Kn , et Kn [X].
Théorème de la base incomplète
Une famille libre (u1 , u2 , ..., ur ) d’un espace vectoriel de dimension n peut-être complétée en une base de E.
- Si r = n, on a une base (théorème de la dimension).
- sinon il y a au moins un vecteur w de E qui n’est pas combinaison linéaire de u1 , ..., ur : w ∈
/ Vect(u1 , ..., ur ).
On pose alors ur+1 = w , la famille (u1 , u2 , ..., ur , ur+1 ) est libre et on recommence, si r + 1 < n en choisissant un vecteur ur+2 ∈
/
Vect(u1 , ..., ur+1 ) jusqu’à ce qu’on obtienne une famille libre “maximale” (u1 , ..., un ).
I.4.c
Sous-espaces vectoriels supplémentaires
Théorème : tout sous-espace vectoriel F de dimension p de l’espace vectoriel E de dimension n possède (au moins) un
supplémentaire G de dimension n − p.
Si F est un sous-espace vectoriel de E, si (v1 , ..., vp ) est une base de F, la famille libre (v1 , ..., vp ) de vecteurs de E peut être prolongée
en une base (v1 , ..., vn ) de E (cf. théorème de la base incomplète) : si n > p, la famille (vp+1 , ..., vn ) engendre un sous-espace vectoriel
p
n
n
G supplémentaire de F dans E : tout vecteur de E s’écrit de façon unique : u =
αi vi =
αi vi +
αi vi = u1 + u2 , avec
k=1
u1 =
p
αi vi ∈ F et u2 =
k=1
n
k=1
k=p+1
αi vi ∈ G (remarque : dim (G) = n − p).
k=p+1
Théorème : en juxtaposant des bases
supplémentaires
F ′ et F ′′ de E, on obtient une base de E.
′ des sous-espaces
′′
′
′′
′
′′
Si F et F sont supplémentaires, si e1 , ..., ep est une base de F, e1 , ..., eq est une base de F ′′ , par unicité de la décomposition d’un
vecteur quelconque u de E = F ′ ⊕ F ′′ en une somme u′ + u′′ , telle que (u′ , u′′ ) ∈ F ′ × F ′′ , puis de u′ et u′′ en combinaison linéaires
′′
′
′
′′
′′
de e′1 , ..., e′p et e′′
1 , ..., eq , on obtient une décomposition unique de u en combinaison linéaire des vecteurs de e1 , ..., ep , e1 , ..., eq qui est
une base de E et dim (E) = p + q.
Réciproque, si (e1 , ..., en ) est une base de E et p ∈ {1, ..., n}, Vect (e1 , ..., ep ) et Vect (ep+1, ..., en ) sont supplémentaires.
I.4.d
Dimension d’une somme de sous-espaces vectoriels
Théorème : si F1 et F2 sont des sous-espaces vectoriels, dim(F1 + F2 ) = dim(F1 ) + dim(F2 ) − dim(F1 ∩ F2 )
Démonstration : si F1 et F2 sont de dimensions finies p et q , on construit une base de F1 + F2 de la façon suivante :
- On choisit une base de F1 ∩ F2 : (u1 , ..., uk ) .
- On complète cette base (u1 , ..., uk ) en ajoutant des (p − k) vecteurs uk+1 , ..., up pour obtenir une base (u1 , ..., up ) de F1 .
- On complète aussi la base (u1 , ..., uk ) en ajoutant des (q − k) vecteurs up+1 , ..., uq+p−k pour obtenir une base de F2 .
Les p + q − k vecteurs ainsi obtenus forment une famille libre d’une part et engendre F1 + F2 : c’est une base de F1 + F2 .
Conséquences
·
La somme F1 + F2 est directe ⇔ dim(F1 ∩ F2 ) = 0 ⇔ dim(F1 + F2 ) = dim(F1 ) + dim(F2 ).
·
Les sous-espaces F1 et F2 de E sont supplémentaires ⇔ dim(F1 ∩ F2 ) = 0 et dim(F1 ) + dim(F2 ) = dim (E) .
·
Plus généralement F1 + ... + Fn est directe ⇔ dim(F1 + F2 + ... + Fn ) = dim(F1 ) + dim(F2 ) + ... + dim(Fn ).
En effet une famille génératrice de S s’obtient par juxtaposition de bases de F1 , .., Fn , et cette famille est libre si et seulement si la somme
est directe par unicité des décompositions en somme de vecteurs de F1 , .., Fn , et en combinaison linéaire d’éléments de S.
Remarque : dim(F1 + ... + Fn ) ≤ dim(F1 ) + ... + dim(Fn ), il y a égalité si et seulement si la somme est directe.
Je ne donne pas de théorème sur la dimension de la somme de plusieurs sous-espaces vectoriels, il n’y a rien de simple.
Luc Bouttier, Lycée Camille Vernet, Valence.
ECS 2, Cours chapitre 8
II
II.1
Espaces vectoriels, applications linéaires, matrices
5
Applications linéaires
Généralités
II.1.a
Définition
Une application φ du K-espace vectoriel E vers le K-espace vectoriel est dite linéaire (ou K-linéaire) si :
∀(u, v) ∈ E 2 , φ(u + v) = φ(u) + φ(v) ; ∀(λ, u) ∈ K × E, φ(λ.u) = λ.φ(u).
ou encore ce qui est équivalent,
∀(u, v) ∈ K2 , ∀(λ, µ) ∈ E 2 , φ(λ.u + µ.v) = λφ(u) + µφ(v).
Cas particulier : si F = K, on dit aussi que φ est une “forme linéaire”.
Exemples : Parmi les situations innombrables, on peut citer par exemple une application de K3 vers K2 qui au triplé (a, b, c) fait
correspondre le couple (a+c, −a+b −3c). On peut citer en géométrie des transformations sur les “vecteurs” associées à des transformations
du plan (exemple à une rotation du plan de centre C , d’angle α correspond une rotation des vecteurs d’angle α, à une projection des points du
plan sur la droite D correspond à une projection des vecteurs sur une droite vectorielle).
De K[X] vers K[X], étant donné un polynôme P0 , on peut citer les applications Φ : P → Q et Ψ : P → R, qui associent au polynôme
P , le quotient et le reste de P dans la division enclidienne par P0 .
Dans les espaces de fonctions, on peut citer des opérations telles que la dérivation ; si on associe à une fonction l’intégrale de cette fonction
sur un segment [a, b], on a une “forme linéaire”.
II.1.b
Images et images réciproques d’un sous-espace
Théorème 1 : L’image d’un espace vectoriel E (resp. d’un sous-espace vectoriel E ′ de E) par une application linéaire φ de E
vers F est un sous-espace vectoriel Im(φ) = φ(E) de F (resp. φ(E ′ ) ).
En particulier si E = Vect(u1 , u2 , ..., up ) alors Im(φ) = φ(E) = Vect(φ(u1 ), φ(u2 ), ..., φ(up )).
Démonstration : si v′ et v ′′ appartiennent à l’image de E ou E ′ , alors il existe u′ , u′′ ∈ E (ou E ′ ) tels que v′ = φ(u′ ) et v ′′ = φ(u′′ ).
Donc α′ v ′ +α′′ v ′′ est une image car α′ v ′ +α′′ v ′′ = α′ φ(u′ )+α′′ φ(u′′ ) = φ(α′ u′ +α′′ u′′ ) est l’image de u = α′ u′ +α′′ u′′ vecteur de
E ou E ′ . En particulier w combinaison linéaire de u1 , u2 , ..., up son image s’écrit comme combinaison linéaire de φ(u1 ), φ(u2 ), ..., φ(up )
(avec les mêmes coefficients).
Théorème 2 : L’image réciproque d’un espace vectoriel F (resp. d’un sous-espace vectoriel F ′ de F ) par une application
linéaire φ de E vers F est un sous-espace vectoriel φ−1 (F ) de E (resp φ−1 (F ′ )).
En particulier si F ′ = {0F }, l’image réciproque s’appelle le noyau de φ , et se note Ker(φ).
Démonstration : Si u′ et u′′ ∈ φ−1 (F ′ ), image de réciproque de F ′ , les images v′ = φ(u′ ) et v′′ = φ(u′′ ) sont dans F ′ .
Si (α, α′ ) ∈ K2 , v = a′ v ′ +a′′ v ′′ ∈ F ′ et v = α′ φ(u′ )+α′′ φ(u′′ ) = φ(α′ u′ +α′′ u′′ ) est l’image de u = α′ u′ +α′′ u′′ ∈ φ−1 (F ′ ) .
Si u′ et u′′ ∈ Ker(φ) alors φ(α′ u′ +α′′ u′′ ) = α′ φ(u′ )+α′′ φ(u′′ ) = α′ 0E +α′′ 0E = 0E donc (α′ u′ +α′′ u′′ ) ∈ Ker(φ).
Théorème 3 : Application linéaires φ de E vers F injectives, surjectives, bijectives :
1. L’application linéaire φ est surjective si et seulement Im(φ) = F.
(u1 , ..., up , ...) étant une base de E : φ surjective ⇔ Im(φ) = F ⇔ (φ(u1 ), ..., φ(up ), ...) est une famille génératrice de F .
2. L’application linéaire φ est injective si et seulement Ker(φ) est réduit à {0E }.
(u1 , ..., up , ...) étant une base de E : φ injective ⇔ Ker(φ) = {0E } ⇔ (φ(u1 ), ..., φ(up ), ...) est une famille libre de F .
3. L’application linéaire φ est bijective ⇔ Im(φ) = F et Ker(φ) est réduit à {0E }.
(u1 , ..., up , ...) étant une base de E : φ bijective ⇔ (φ(u1 ), ..., φ(up ), ...) est une base de F.
Démonstration :
1. Chercher l’antécédent du vecteur v de F dans E revient à chercher ses coordonnées (x1 , ..., xp ) dans la base (u1 , ..., up ) : on a alors
v = x1 φ(u1 ) + ... + xp φ(up ) et on conclut avec la définition d’une surjection ou d’une famille génératrice ...
2. Si v ∈ F possède déjà un antécédent u, alors : φ(u) = φ(u′ ) ⇔ φ(u − u′ ) = 0F ⇔ u − u′ ∈ Ker(φ) .
Donc φ est injective ⇔ il y a unicité de l’antécédent de n’importe quel vecteur v ⇔ Ker(φ) = { 0E } .
Inversement si u0 ∈ Ker(φ) alors φ(u + u0 ) = φ(u) + φ(u0 ) = φ(u), donc le vecteur v = φ (u) a pour antécédent tout vecteur qui
s’écrit u′ = u + u0 avec u0 ∈ Ker (φ)
Isomorphismes et dimension
Si E et F sont deux espaces vectoriels, tels que dim(E) = p et dim(F ) = n, il ne peut y avoir de bijection linéaire φ de E
vers F que si n = p, puisque l’image d’une base de E est une base de F.
Si dim (E) = dim (F ) , alors d’après le théorème de la dimension, il y a équivalence
φ injective⇔ φ surjective⇔ φ bijective car (φ(u1 ),...,φ(up )) libre⇔ (φ(u1 ),...,φ(up )) génératrice⇔ (φ(u1 ),...,φ(up )) libre.
L’application de E vers Kn ou Mn,1 (K) qui associe au vecteur u ses coordonnées dans une base est un isomorphisme.
II.2
Différents types de morphismes
II.2.a
Notations
On désigne par LK (E, F ) l’ensemble des applications linéaires de E vers F , ou morphismes d’espaces vectoriels [on dit aussi
homomorphismes, ce sont des notions très “structuralistes”]
Luc Bouttier, Lycée Camille Vernet, Valence
ECS 2, Cours chapitre 8
Espaces vectoriels, applications linéaires, matrices
6
Si E = F , on parle de l’ensemble LK (E) = EndK (E) des endomorphismes de l’espace vectoriel E.
LK (E, F ) est muni d’une structure naturelle d’espace vectoriel : si φ et ψ sont deux applications K-linéaires de E vers F , si α
et β sont deux éléments de K, alors αφ + βψ est une application K-linéaire de E vers F .
Démonstration : αφ + βψ est défini par u → αφ(u) + βψ(u) et comme φ et ψ sont linéaires, l’image d’une combinaison linéaire
λu + µv de vecteurs de E sera αφ(λu + µv) + β.ψ(λu + µv) = λ(αφ(u) + βψ(u)) + µ(αφ(v) + βψ(v)).
II.2.b
Composition, bijection, groupe linéaire
1. Si E, F et G sont trois K-espaces vectoriels, si φ et ψ appartiennent respectivement à LK (E, F ) et à LK (F, G) alors la
composée ψ ◦ φ est élément de LK (E, G).
2. Si φ appartient à LK (E, F ) et si φ est bijective, alors φ−1 est linéaire : φ−1 appartient à LK (F, E).
Les applications linéaires bijectives de E vers F sont les isomorphismes de E vers F .
3. L’opération ◦ est une “loi de composition interne” dans LK (E) , qui est associative ( ∀f, g, h ∈ LK (E), f ◦(g◦h) = (f ◦g)◦h),
non commutative, (en général : f ◦g = g◦f), dont l’élément neutre est l’application identique IdE ; les éléments qui possèdent
un symétrique sont les bijections de E dans E, ce sont les “automorphismes” de E, leur ensemble se note aussi GℓK (E)
(groupe linéaire de E).
Remarque : l’ensemble GℓK (E) est stable pour la composition : si f et g sont des bijections linéaires, alors f ◦ g est une bijection linéaire
dont la réciproque est (f ◦ g)−1 = g −1 ◦ f −1 ; si f ∈ GℓK (E) alors f −1 ∈ GℓK (E) et (f −1 )−1 = f.
Démonstration : Pour 1., si u et v sont 2 vecteurs quelconques de E et de F , si λ et µ sont deux coefficients de K alors en utilisant
successivement la linéarité de φ puis celle de ψ , on prouve que ψ ◦ φ est linéaire ainsi
ψ ◦ φ(λu + µv) = ψ(φ(λu + µv)) = ψ(λφ(u) + µφ(v)) = λψ(φ(u)) + µψ(φ(u)) = λψ ◦ φ(u) + µψ ◦ φ(v).
−1
−1
Pour
et bijective,
si φ (v) =
(v′) = u′ , (λ, µ) ∈ K2 ,
2., φ est′ linéaire
u, φ −1
−1
−1
′
′ ′
′
′
φ
λv + λ v = φ
λφ (u) + λ φ (u ) = φ φ
λu + λ u = λu + λ′ u′ = λφ−1 (v) + λ′ φ−1 (v′ )
Pour 3., les propriétés d’associativité, non commutativité, d’élément neutre, la définition de la réciproque, sont “universelles” et s’appliquent
à LK (E ) : Il suffit de montrer que IdE est linéaire (trivial) et que φ ∈ LK (E ) implique φ−1 ∈ LK (E) (cf.2.).
III
III.1
Matrice d’un morphisme φ de LK (E, F )
Introduction
III.1.a
Théorème fondamental
Soient E et F deux K-espaces vectoriels, φ une application linéaire de E vers F , et (ui )i∈I une base de E :
φ est entièrement déterminée par la famille des images (φ(ui ))i∈I dans F .
Inversement à la famille (vi )i∈I de vecteurs de F correspond une application linéaire ψ de E vers F telle que ∀i ∈ I, ψ(ui )=vi .
Démonstration :
n
n
n
Si la base est (u1 , ..., un ), il suffit d’écrire que le vecteur u =
xi ui de E a pour image φ
xi ui =
xi φ(ui ).
i=1
i=1
i=1
Si la base est “infinie”, l’image d’une combinaison linéaire finie de vecteurs de la base (ui )i∈I est aussi une combinaison linéaire finie des
images.
Pour la réciproque, il suffit de voir que la relation : u =
n
i=1
xi ui →
n
xi vi définit une application, et qu’elle est linéaire.
i=1
Exemple : pour savoir dériver un polynôme, il suffit de savoir dériver les polynômes de la base canonique : (1, X, X 2 , ..., X n , ...).
Autre exemple :
L’application φ de R3 dans R4 est définie par : (x, y, z) → (x − y + z, x − y, x + 2y − z, y − z) .
On vérifierait que φ est linéaire.
La base canonique de R3 est B = ((1, 0, 0) , (0, 1, 0) , (0, 0, 1)) ,
On a φ (1, 0, 0) = (1, 1, 1, 0) , φ (0, 1, 0) = (−1, −1, 2, 1) et φ (0, 0, 1) = (1, 0, −1, −1) et
φ (x, y, z) = (x − y + z, x − y, x + 2y − z, y − z) = x (1, 1, 1, 0) + y (−1, −1, 2, 1) + z (1, 0, −1, −1)
= xφ (1, 0, 0) + yφ (0, 1, 0) + zφ (0, 0, 1)
Si on avait voulu que l’application linéaire ψ vérifie :
ψ (1, 0, 0) = (1, 1, 1, 1) , ψ (0, 1, 0) = (1, −1, 1, −1) et ψ (0, 0, 1) = (1, 1, −1, −1) alors on aurait eu :
ψ (x, y, z) = xψ (1, 0, 0) + yψ (0, 1, 0) + zψ (0, 0, 1) = x (1, 1, 1, 1) + y (1, −1, 1, −1) + z (1, 1, −1, −1)
= (x + y + z, x − y + z, x + y − z, x − y − z)
III.1.b
Définition de la matrice d’une application linéaire
Si E et F sont deux K-espaces vectoriels de dimensions finies p et n, munis des bases respectives B1 = (u1 , ..., up ) et
B2 = (v1 , ..., vn ), alors une application linéaire φ de E vers F est entièrement déterminée par la donnée des coordonnées des
images des vecteurs de la base B1 = (u1 , ..., up ) dans la base B2 = (v1 , ..., vn ), donc par une matrice n × p :
Luc Bouttier, Lycée Camille Vernet, Valence.
ECS 2, Cours chapitre 8
Espaces vectoriels, applications linéaires, matrices
7



a1,i
x1
p
 .. 
 .. 
si ∀i ∈ {1, ..., p}, φ(ui ) :  .  dans B2 , et si u : X =  .  dans B1 alors φ(u) = φ
xi ui a pour coordonnées
i=1
an,i
x





p 


y1
a1,1
a1,p
a1,1 · · · a1,p
x1





 
  .. 
dans B2 : Y ==  ...  = x1  ...  + ... + xp  ...  =  ...
  .  = M × X.



M =
yn
a1,1
..
.
···
an,1
···
a1,p
an,p

an,1
an,p
an,1
···
an,p
xp

 est la matrice de φ dans (B1 , B2 ) .


a1,1 · · · a1,p


Réciproquement, partant de la matrice M =  ...
 de dimension n × p, on définit une application φ de E
an,1 · · · an,p


x1


vers F ainsi : si u a pour coordonnées X =  ...  dans B1 , alors v = φ(u) a pour coordonnées Y = M × X dans B2 .
xp
Et cette application est bien linéaire :
si on remplace u par la combinaison linéaire λ1 u1 +λ2 u2 de coordonnées λ1 X1 + λ2 X2 , l’image φ (λ1 u + λ2 u2 ) a les mêmes
coordonnées :M (λ1 X1 + λ2 X2 ) = λ1 M X1 + λ2 MX2 que λ1 φ (u1 ) + λ2 φ (u2 ).
Exemple : les égalités qui suivent s’écrivent avec des matrices
φ (x, y, z) = (x − y + z, x − y, x + 2y − z, y − z) = x (1, 1, 1, 0) + y (−1, −1, 2, 1) + z (1, 0, −1, −1)
= xφ (1, 0, 0) + yφ (0, 1, 0) + zφ (0, 0, 1)
′ ′ ′ ′
enposant
(x
,
y
, z , t ) = φ (x, y,


 z) , on
a avec
 les coordonnées



 





x′
x−y+z
1
−1
1
1 −1 1
x
x


 1 
 y′ 
 −1 
 0   1 −1 0 
x
−
y

 
 ′  =



 
 y  = M  y 
 z 
 x + 2y − z  = x  1  + y  2  + z  −1  =  1 2 −1 
z
z
t′
y−z
0
1
−1
0 1 −1
3
4
M est la matrice de l’application linéaire φ dans les bases canoniques de R et R .
Autre exemple :
L’application f : (x, y, z, t) → (x + y − z − t, x − y + z − t) est-elle linéaire ?
Une réponse simple, consiste à dire que cela s’écrit avec des matrices (dans les bases canoniques de R4 et R2 ) : si u a pour
coordonnées X et φ (u) a pour coordonnées Y, alors


x
′ 
x
x+y−z−t
1 1 −1 −1 
 y  = M X,
Y =
=
=
′

y
x−y+z−t
1 −1 1 −1
z 
t
1 1 −1 −1
donc que c’est l’application linéaire associée canoniquement à la matrice
.
1 −1 1 −1
III.1.c
Un isomorphisme de LK (E, F ) dans Mn,p (K)
La correspondance entre une application linéaire φ de LK (E, F ) (où E et F sont des espaces vectoriels de dimensions finies p
et n, munis de base B1 et B2 ), et la matrice de φ dans les bases B1 et B2 , est bijective. Elle est aussi linéaire : la matrice d’une
combinaison linéaire de morphismes φ et φ′ de LK (E, F ) est la combinaison linéaire des matrices.
Les espaces vectoriels LK (E, F ) et sont isomorphes : comme dim(Mn,p (K)) = np, dim(LK (E, F )) = np.
III.2
Composées d’applications linéaires et produits de matrices
III.2.a
Définition
Soient E, F et G trois K-espaces vectoriels, de dimensions p, n et m munis de bases B1 = (u1 , ..., up ), B2 et B3 .
La matrice P dans les bases B1 et B3 de l’application linéaire ψ ◦ φ de LK (E, G), composée des applications linéaires φ de
LK (E, F ) et ψ de LK (F, G) de matrices M dans les bases B1 et B2 , et N dans les bases B2 et B3 est le produit NM : si
M ∈ Mn,p
(K) et N ∈ Mm,n (K)
 , alors
P = N × M ∈ Mm,p
 (K). (Attention aux formats !)
a1,1 · · · a1,p
b1,1 · · · b1,n


 .

Si M =  ...
, N =  ..
, la j ième colonne de P est formée des composantes de ψ◦φ(uj )
an,1
···
Luc Bouttier, Lycée Camille Vernet, Valence
an,p
bm,1
···
bm,n
ECS 2, Cours chapitre 8
:
Espaces vectoriels, applications linéaires, matrices




b1,1 · · · b1,n
a1,i
c1,j
 ..
 .. 
 .. 
φ(uj ) a pour coordonnées  .  dans B2 , celles de ψ ◦ φ(uj ) sont  .  =  .
an,i
cm,j
bm,1 · · · bm,n
dans B3 .
La h ième composante ch,j de ψ ◦ φ (uj ) vérifie


a1,i
n
 . 
.
b
...
b
(ch,j ) =
bh,k ak,j
 .  = (bh,1 a1,j + ... + bh,n an,j ) =
h,1
h,n
k=1
an,i
 


b1,1 · · · b1,n
a1,1 · · ·
c1,1 · · · c1,p
  ..
  ..
 ..
cette formule définit le produit P = N × M :  .
= .
 .

8


a1,i
  .. 
 . 
an,i
a1,p


.
cm,1 · · · cm,p
bm,1 · · · bm,n
an,1 · · · an,p
III.2.b
Conséquences
La composition des applications linéaires est associative, le produit des matrices aussi : (MN )P = M (N P ).
L’élément neutre de LK (E) pour la composition des applications est l’application identique, qui correspond
à un élément neutre


1 0 ··· ··· 0
 0 1 0 ··· 0 


 ..
.. 
..

.
. 
pour le produit des matrices, c’est la matrice de l’application identique ou matrice unité p× p : Ip =  . 0 1
.
 .. .. . .

.
.
 . .
.
. 0 
0 0 ···
0 1
Les éléments “inversibles” pour la composition des applications sont les bijections, les inverses étant les “réciproques”, et la
matrice d’une réciproque est une matrice inverse pour le produit des matrices.
III.2.c
Matrice inversible, matrice d’une réciproque
Si E et F sont des K-espaces vectoriels de dimension n, et φ un isomorphisme de E vers F munis de bases B1 = (u1 , ..., un )
et B2 = (v1 , ..., vn ) (on a forcément dim (E) = dim (F )), la matrice de la réciproque φ−1 dans les bases B2 et B1 est la matrice
inverse M −1 de la matrice M = (ai,j ) de φ dans
 B1et B2 .


 

y1
a1,1 · · · a1,p
x1
y1



  ..   .. 
Pour déterminer l’antécédent du vecteur w  ...  de F , on résout  ...
 .  =  . .
yn
an,1 · · · an,p
xn
yn

x1


Ce qui donne les coordonnées  ...  de cet antécédent : φ est bijective ⇔ ce système est de Cramer :
xn



x1



la solution de ce système est formée de combinaisons linéaires des coefficients y1 , ..., yn , elle s’écrit  ...  = M −1 


y1
.. .
. 
xn
yn
L’ensemble GlK (E) des automorphismes de E est stable pour ◦, l’ensemble Gln (K) des matrices carrées n × n à coefficients
dans K inversibles est stable pour le produit × des matrices : Gln (K) est le “groupe linéaire” d’ordre n.
Mais attention, si × est associatif, × n’est pas commutatif (sauf exception) et l’inverse de MN est le produit N −1 M −1 .
III.2.d
L’algèbre des matrices carrées Mn (K) ou des endomorphismes LK (E)
*
Distributivité
En plus de la structure d’espace vectoriel, on a une “multiplication” ou “composition” (non commutative, sauf exception). Et
les propriétés faciles à démontrer avec les endomorphismes : f ◦ (g + h) = f ◦ g + f ◦ h ou (f + g) ◦ h = f ◦ h + g ◦ h et sur
les matrices : A × (B + C) = A × B + A × C ou (A + B) × C = A × C + B × C (attention à l’ordre).
*
Puissances et polynômes
On pose : M 1 = M et pour k ∈ N∗ , M k+1 = M × M k = M k × M (ou encore : φ1 = φ, φk+1 = φ ◦ φk = φk ◦ φ ). Pour
cause d’associativité des puissances de M (ou de φ) commutent entre elles.
Lorsque M est inversible, on ajoute souvent : M 0 = In , matrice unité, et (M −1 )k = (M k )−1 = M −k .
On peut faire des combinaisons linéaires de puissances de M (ou de φ), cela revient à définir des “polynômes” de matrices
P (M), élément de Vect(In , M, M 2 , ..., M k , ...) (ou des polynômes d’endomorphismes P (φ)), et les produits de ces polynômes
sont des polynômes (tous les produits commutent dans Vect(In , M, M 2 , ..., M k , ...)).
Comme Vect(In , M, M 2 , ..., M k , ...) est un sous espace de Mn (K) de dimension finie, il existe des familles liées (In , M, ..., M k )
Luc Bouttier, Lycée Camille Vernet, Valence.
ECS 2, Cours chapitre 8
donc des combinaisons linéaires
Espaces vectoriels, applications linéaires, matrices
k
9
ai M i qui donnent la matrice nulle sans que (a0 , ..., ak ) soit nul : si a0 = 0, on trouve facilement
i=0
l’inverse de M en tant élément de Vect(In , M, M 2 , ..., M k , ...)...
*
Binôme : La formule (A + B)n =
n n
k n−k
marche seulement lorsque A et B commutent : AB = BA.
k A B
k=0
Idem pour les endomorphismes. (Démonstration : par récurrence ...).
III.2.e
Transposition
Si A = (ai,j ) ∈ Mn,p (K), sa transposée t A = (aj,i ) ∈ Mp,n (K) est obtenue en “échangeant” lignes et colonnes.
L’application A → t A de dans Mp,n (K) est linéaire bijective, égale à sa réciproque : t (t A) = A.
n
Si C = A × B est t C = t (AB) = t B t A (cf. définition du produit (ci,j ) = (ai,j ) × (bi,j ) ⇔ ∀i, j, ci,j =
ai,k bk,j ...)
k=1
A → t A est un automorphisme de l’espace vectoriel Mn (K), un “anti-automorphisme” pour × (car t (AB) = t B t A ).
On vérifie facilement que A ∈ Gln (K) ⇒ t A ∈ Gln (K) et que t (A−1 ) = t (A−1 ).
Luc Bouttier, Lycée Camille Vernet, Valence
ECS 2, Cours chapitre 8
Espaces vectoriels, applications linéaires, matrices
10
Annexe : un exemple de somme de sous espaces vectoriels
Pour k ∈ N, on pose
fk : x → cos (kx) ,
gk : x → sin (kx)
On note les ensembles
C = Vect{fk , k ∈ N}, S = Vect{gk , k ∈ N}, H = C + S
C, S, H sont des (sous-)espaces vectoriels de l’espace vectoriel des fonctions numériques définies sur R
Remarque : C contient les fonctions constantes “af0 ”.
On a aussi S = Vect{gk , k ∈ N∗ }, g0 est la fonction nulle
On rappelle que cos (−kx) = cos (kx) , sin (−kx) = − sin (kx)
donc si p ∈ Z, x → cos (px) et x → sin (px) appartiennent aussi à H = C + S.
Quelques rappels de formules de trigonométrie
i(p+q)x
eipx +e−ipx eiqx +e−iqx
+ei(p−q)x +ei(q−p)x +ei(−p−q)x
=e
2
2
4
cos((p+q)x)+cos((p−q)x)
cos((q+p)x)+cos((q−p)x)
=
2
2
cos(px) cos (qx)
=
=
sin(px) sin (qx)
=
=
i(p+q)x
eipx −e−ipx eiqx −e−iqx
−ei(p−q)x −ei(q−p)x +ei(−p−q)x
=e
2i
2i
−4
cos((p−q)x)−cos((p+q)x)
cos((q−p)x)−cos((q+p)x)
=
2
2
cos(px) sin (qx)
=
=
i(p+q)x
eipx +e−ipx eiqx −e−iqx
−ei(p−q)x +ei(p−q)x −ei(−p−q)x
=e
2
2i
4i
sin((p+q)x)+sin((p−q)x)
sin((p+q)x)−sin((q−p)x)
=
2
2
Ces produits de fonctions de H sont dans H !
On obtient un théorème de linéarisation
“ Tout produit ou toute puissance de fonctions de H est une fonction de H, c’est à dire une combinaison linéaire de fonctions
trigonométriques fk et gk , k entier naturel.”
Une récurrence immédiate permet de passer des produits aux puissances.
Ce théorème est particulièrement utile dans les calculs d’intégrales par exemple.
On peut même améliorer : si P et I désignent les sous-espaces vectoriels des fonctions paires ou impaires définies sur R,
on remarque que
C = H ∩ P, S = H ∩ I, et la somme C + S est directe !
Exemples de linéarisations :
sin x cos x = sin(2x)
= 12 g2 (x) : sin × cos ∈ S
2
cos(2x)+1
= 12 (f0 + f2 ) (x) , cos2 ∈ C
cos2 (x) =
2
1−cos(2x)
2
sin (x) = 2
= 12 (f0 − f2 ) (x) , sin2 ∈ C
1
3
3
cos (x) = 4 f1 + 4 f3 (x) , cos3 ∈ C
sin3 (x) = 34 g1 − 14 g3 (x) ... sin3 ∈ S
Luc Bouttier, Lycée Camille Vernet, Valence.
Téléchargement