ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Chapitre 27 : Applications linéaires. 1 Applications linéaires 1.1 Définitions Définition 1.1.1 Soit E et F deux K-espaces vectoriels. On dit que f : E → F est linéaire lorsque 1. ∀u, v ∈ E, f (u + v) = f (u) + f (v). 2. ∀λ ∈ K, ∀u ∈ E, f (λu) = λf (u). L’ensemble des applications linéaires de E dans F est noté L(E, F ). En particulier si f est linéaire, on a toujours f (0E ) = 0F car f (0 · u) = f (0E ) = 0 · f (u) = 0F . Définition 1.1.2 – Une application linéaire de E dans E est appelée endomorphisme. On note L(E) l’espace L(E, E) des endomorphismes de E. – Une application linéaire de L(E, K) est appelée forme linéaire. L’ensemble L(E, K) est souvent noté E ∗ et s’appelle le dual de E. Exemple. L’application E → F u 7→ 0F est linéaire. IdE : E → E u 7→ u est linéaire. R → Rx 7→ ax est linéaire. Exercice. Montrer que les seules applications linéaires de R dans R sont les x 7→ ax. Exemple. L’application R3 → R (x, y, z) 7→ 3x − y est une forme linéaire. L’application F(R, R) → R f 7→ f (1) est linéaire. De même l’application D 1 (R, R) → F(R, R) f 7→ f ′ . Proposition 1.1.1 Les assertions suivantes sont équivalentes : 1. f : E → F est linéaire. 2. ∀u, v ∈ E, ∀α, β ∈ K, f (αu + βv) = αf (u) + βf (v) 3. ∀u, v ∈ E, ∀λ ∈ K, f (u + λv) = f (u) + λf (v). Il est souvent plus rapide d’utiliser le troisième point pour montrer qu’une application est linéaire. Plus généralement on a par récurrence Proposition 1.1.2 L’image par une application linéaire f d’une combinaison linéaire est la combinaison linéaire des images, avec les mêmes coefficients : n n X X λi f (ui ) λi ui ) = f( i=1 i=1 J. Gärtner. 1 ECS3 Carnot 1.2 Chapitre 27 — Applications linéaires. 2013/2014 Opérations sur les applications linéaires 1.2.1 Somme, produit par un scalaire Proposition 1.2.1 L’ensemble L(E, F ) est un sous-espace vectoriel de (F(E, F ), +, ·). Démonstration : En effet, la fonction nulle est linéaire et si f, g ∈ L(E, F ) et λ ∈ K, alors f + λg est linéaire car si u, v ∈ E et α ∈ K, on a (f + λg)(u + αv) = f (u + αv) + λg(u + αv) = f (u) + αf (v) + λg(u) + λαg(v) = (f + λg)(u) + α(f + λg)(v) 1.2.2 Composition Proposition 1.2.2 Si f ∈ L(E, F ) et g ∈ L(F, G) alors g ◦ f ∈ L(E, G). Démonstration : En effet, si u, v ∈ E et λ ∈ K on a g ◦ f (u + λv) = g(f (u) + λf (v)) = g(f (u)) + λg(f (v)) = g ◦ f (u) + λg ◦ f (v) Exemple. L’application f 7→ f ′ (1) est linéaire. Proposition 1.2.3 Si f, f ′ ∈ L(E, F ), g, g′ ∈ L(F, G) et λ ∈ K alors 1. (g + g′ ) ◦ f = g ◦ f + g′ ◦ f 2. g ◦ (f + f ′ ) = g ◦ f + g ◦ f ′ 3. (λg) ◦ f = λ(g ◦ f ) 4. g ◦ (λf ) = λ(g ◦ f ) Démonstration : Exercice. En général, f, g ∈ L(E) ne commutent pas. Par exemple si E = R2 et f (x, y) = (x, 2x) et g(x, y) = (0, 3y + x) alors g ◦ f (x, y) = (0, 7x) et f ◦ g(x, y) = (0, 0). Par contre si deux endomorphismes commutent, on a par récurrence Proposition 1.2.4 (Formule du Binôme de Newton) Soit n ∈ N et u ∈ L(E). Alors on définit un par u0 = IdE et un+1 = u ◦ un . Si f, g ∈ L(E) commutent, alors X n n (f + g) = n f k ◦ gn−k k k=0 J. Gärtner. 2 ECS3 Carnot 1.2.3 Chapitre 27 — Applications linéaires. 2013/2014 Réciproque d’une application linéaire bijective Définition 1.2.1 Soit f ∈ L(E, F ). Si f est bijective, alors f −1 ∈ L(F, E). On dit alors que f est un isomorphisme de E vers F . Si E = F on parle alors d’automorphisme. Démonstration : Soit v, v ′ ∈ F et λ ∈ K. Alors f −1 (v) + λf −1 (v ′ ) est un élément de E et son image par f est f (f −1 (v) + λf −1 (v ′ )) = f (f −1 (v)) + λf (f −1 (v ′ )) = v + λv ′ = f (f −1 (v + λv ′ )). Comme f est bijective, on a f −1 (v) + λf −1 (v ′ ) = f −1 (v + λv ′ )). Définition 1.2.2 Deux K-espaces vectoriels E et F sont isomorphes lorsqu’il existe un isomorphisme de l’un vers l’autre. Exemple. R2 et C sont isomorphe puisque (x, y) 7→ x + iy est un isomorphisme. Définition 1.2.3 L’ensemble des applications linéaires bijectives de E dans E (i.e. des automorphismes de E) est stable pour la composition. On le note GL(E) et on l’appelle groupe linéaire de E. 1.2.4 Applications linéaires et formes linéaires En général, on remontre au cas par cas la proposition suivante : Proposition 1.2.5 Soit ϕ ∈ L(E, K) et v0 ∈ F . Alors f : E → F , u 7→ ϕ(u) · v0 est linéaire. Démonstration : Exercice. Exemple. Puisque (x, y) 7→ 2y − x est linéaire. Avec v0 = (1, 1, −1) on en déduit que f : R2 → R3 (x, y) 7→ (2y − x, 2y − x, x − 2y) est linéaire. 1.3 Image directe, image réciproque Proposition 1.3.1 Soit f ∈ L(E, F ). Si A est un sous-espace de E alors f (A) est un sous-espace de F . Si B est un sous-espace de F alors f −1 (B) est un sous-espace de E. Démonstration : Comme 0E ∈ A, on a 0F = f (0E ) ∈ f (A). Soit u, v ∈ f (A) et λ ∈ K. Alors u = f (x) pour x ∈ A et v = f (y) pour y ∈ A. On a u + λv = f (x + λy) ∈ f (A) car A est un sous-espace. On a 0E ∈ f −1 (B) car f (0E ) = 0F ∈ B. Si u, v ∈ f −1 (B) et λ ∈ K, alors f (u + λv) = f (u) + λf (v) ∈ B car B est un sous-espace. Donc u + λv ∈ f −1 (B). 1.4 Noyau, image Définition 1.4.1 Soit f ∈ L(E, F ). J. Gärtner. 3 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 1. Im f = f (E) = {f (u), u ∈ E} est un sous-espace vectoriel de F . 2. Ker f = {u ∈ E, f (u) = 0F } = f −1 ({0F }) est un sous-espace vectoriel de E appelé noyau de f . Proposition 1.4.1 Soit f ∈ L(E, F ). Alors f (u) = f (u′ ) si et seulement si u − u′ ∈ Ker f . De plus, on a les équivalences f surjective ⇔ Im f = F f injective ⇔ Ker f = {0E } Démonstration : En effet, f (u) = f (u′ ) si et seulement si f (u − u′ ) = 0 i.e. u − u′ ∈ Ker f . Si Ker f = {0} alors u = u′ et f est injective. Si f est injective, alors f (u) = 0 = f (0) entraine que u = 0 donc Ker f ⊂ {0} et Ker f = {0} car c’est un espace vectoriel. 1.5 Exemples d’applications linéaires 1.5.1 Homothéties Définition 1.5.1 Les homothéties sont les endomorphismes du type hα = αIdE , i.e. u 7→ αu. Proposition 1.5.1 Les homothéties commutent avec tous les endomorphismes. Si α ∈ K r {0} alors hα est un isomorphisme de réciproque hα−1 . DESSIN 1.5.2 Projecteurs Définition 1.5.2 Soit F, G deux sous-espaces supplémentaires de E. L’application E = F ⊕ G −→ E p: u = v + w 7−→ v est le projecteur sur F parallèlement à G. DESSIN Proposition 1.5.2 Soit E = F ⊕ G et p le projecteur sur F parallèlement à G. Alors 1. p ∈ L(E) 2. Im p = F 3. Ker p = G 4. Ker (p − Id) = {u ∈ E, p(u) = u} = F 5. p ◦ p = p J. Gärtner. 4 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Démonstration : Linéarité : si u, u′ ∈ E et λ ∈ K. On décompose u = v + w et u′ = v ′ + w′ . Donc u + λu′ = (v + λv ′ ) + (w + λw′ ) par unicité de la décomposition on a p(u + λu′ ) = v + λv ′ = p(u) + λp(u′ ). Noyau : soit u ∈ E, u = v + w. Alors p(u) = 0 ⇔ v = 0 ⇔ u = G Donc Ker u = G. Image : Im p ⊂ F est trivial. Soit u ∈ F . Alors u = u + 0 donc p(u) = u et u ∈ Im p Invariants : Si u = p(u) alors u ∈ Im p = F et si u ∈ F alors p(u) = u. p ◦ p : pour tout u ∈ E on a p ◦ p(u) = p(p(u)) = p(u) car p(u) ∈ F = Ker (p − Id). Définition 1.5.3 Un projecteur est un endomorphisme f tel qu’il existe une décomposition en somme directe E = F ⊕ G et f est le projecteur sur F parallèlement à G. Théorème 1.5.1 Soitf ∈ L(E). Alors f est un projecteur si et seulement si f ◦ f = f . Autrement dit les projecteurs sont exactement les endomorphismes idempotents. Démonstration : L’implication directe a déjà été montrée. Pour la réciproque, soit f ∈ L(E) tel que f ◦f = f . Il faut trouver deux espaces supplémentaires qui conviennent. Mais d’après la proposition précédente, on est amené à d’intéresser à F = Ker (f − Id) et G = Ker f . Alors F et G sont des sous-espaces. On a F ∩G = {0}. En effet, si u ∈ F ∩G, alors f (u) = u et f (u) = 0 donc u = 0. De plus E = F + G. En effet, si u ∈ E, on écrit la décomposition u = f (u) + u − f (u). On a f (u) ∈ F car f (f (u)) = f (u) et u − f (u) ∈ G car f (u − f (u)) = f (u) − f (f (u)) = f (u) − f (u) = 0. On a donc F ⊕ G = E et f est la projection sur F parallèlement à G car tout u dans E se décompose en u = f (u) + u − f (u). Définition 1.5.4 Soit p le projecteur sur F selon G. Le projecteur associé à p est le projecteur q sur G selon F . On a p + q = IdE . Exemple. Comme cas particulier on a la projection sur E selon {0} qui est l’identité et la projection associée qui est l’application nulle. 1.5.3 Symétries — hors programme Définition 1.5.5 Soit E = F ⊕ G. La symétrie par rapport à F selon G est l’application E = F ⊕ G −→ E f: u = v + w 7−→ v − w DESSIN Exemple. Cas particulier : la symétrie par rapport à E selon {0} est l’identité et la symétrie par rapport à {0} selon E est −IdE . Proposition 1.5.3 Soit f la symétrie par rapport à F selon G. 1. f = 2p − IdE où p est le projecteur sur F selon G. Donc f ∈ L(E). 2. f ◦ f = IdE . Donc f est bijective, de réciproque f . J. Gärtner. 5 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 3. Im f = E et Ker f = {0}. 4. Ker (f − IdE ) = {u ∈ E, f (u) = u} = F 5. Ker (f + IdE ) = {u ∈ E, f (u) = −u} = G. Démonstration : Seuls les derniers points ne sont pas clairs. Mais si u = v + w, alors f (u) = u ⇔ v − w + v + w ⇔ 2w = 0 ⇔ w = 0. De même f (u) = −u ⇔ v − w = −v − w ⇔ v = 0. Théorème 1.5.2 Soit f ∈ L(E). Alors f est une symétrie si et seulement si f ◦ f = IdE . Démonstration : Comme pour les projecteurs, il suffit de montrer la réciproque. Soit f un endomorphisme involutif. Posons F = Ker (f − IdE ) et G = Ker (f + IdE ). Ce sont des sous-espaces de E. Alors F ∩ G = {0} car si u ∈ F ∩ G on a f (u) = u = −u. Montrons par analyse et synthèse que E = F + G. Soit u ∈ E Si u = v + w avec v ∈ F 1 et w ∈ G, alors f (u) = f (v)+ f (w) = v − w par définition de F et G donc v = (u + f (u) et 2 1 1 1 w = (u − f (u)). Soit u ∈ E. Posons v = (u + f (u)) et w = (u − f (u)). Alors v + w = u 2 2 2 et f (v) = v et f (w) = −w. Donc E = F + G. Enfin, f est bien la symétrie par rapport à F selon G car si u = v +w on a f (u) = v −w. Exemple. Soit E = F(R, R). Alors Φ : f 7→ (x 7→ f (−x)) est une symétrie de E. C’est la symétrie par rapport à l’espace des fonctions paires, selon l’espace des fonctions impaires car Φ(f ) = f si et seulement si f est paire. 2 Application linéaire en dimension finie 2.1 Détermination d’une application linéaire Théorème 2.1.1 Soit E un espace de dimension finie p ∈ N∗ . On se donne BE = (e1 , . . . , ep ) une base de E. Alors pour tout v1 , . . . , vp ∈ F , il existe une unique application linéaire ϕ de E dans F telle que ∀i ∈ [[ 1 ; p ]] , ϕ(ei ) = vi Autrement une application linéaire est uniquement déterminée par l’image d’une base. Démonstration :PPour l’unicité, supposons que ϕ est linéaire et ϕ(ei ) =P vi pour tout i. Alors si x ∈ E, x = pi=1 xi ei et on a par linéarité nécessairement ϕ(x) = pi=1 xi vi . Ce qui ne laisse pas d’ambiguité sur la valeur de ϕ(x). Pp Pp Pour l’existence, soitPϕ l’application définie par x = i=1 xi ei 7→P i=1 xi vi . Alors ϕ p p ′ ′ ′ est linéaire car si x′ = P Pp i=1′ xi ei ∈ E et λ ∈ K alors ϕ(x + λx ) = i=1 (xi + λxi )vi = p x v + | ambda x . i=1 i i i=1 i De plus on a bien ϕ(ei ) = vi par définition. Exemple. Dans R2 , (e1 = (1, 1), e2 = (2, 0)) est une base. Soit v1 = (3, 1) et v2 = (4, 5). Soit ϕ l’unique endomorphisme de R2 tel que ϕ(ei ) = vi . Explicitons ϕ. Soit (x, y) ∈ R2 . x−y 1 x−y e2 donc ϕ(x, y) = y(3, 1) + (4, 5) = (2x + y, (5x − 3y)). Alors (x, y) = ye1 + 2 2 2 J. Gärtner. 6 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Matrice d’une application linéaire Le théorème ci-dessus permet de justifier le paragraphe qui suit. Si dim E = p ∈ N∗ et dim F = n ∈ N∗ . Soit BE = (e1 , . . . , ep ) et BF = (f1 , . . . , fn ) des bases de E et F . Alors la donnée d’une application linéaire ϕ est exactement Pnla donnée des np scalaires ai,j , i ∈ [[ 1 ; n ]] et j ∈ [[ 1 ; p ]] tels que pour tout j, ϕ(ej ) = i=1 ai,j fi . C’est donc la donnée d’une matrice A = (ai,j ) ∈ Mn,p (K). On note A = Mat BF ,BE (ϕ) : cette matrice dépend de l’application linéaire et des bases choisies. ϕ(e1 ) . . . ϕ(ep ) a1,1 . . . a1,p .. .. . . an,1 . . . an,p f1 .. . fn Exemple. La matrice del’endomorphisme de R2 défini par ϕ(x, y) = (2x − y, x + y) dans 2 −1 les bases canoniques est . 1 1 2.2 Image d’une base Proposition 2.2.1 Soit E un espace de dimension p ∈ N∗ et BE = (e1 , . . . , ep ) une base de E. Soit ϕ ∈ L(E, F ). Alors 1. ϕ est injective si et seulement si (ϕ(e1 ), . . . , ϕ(ep )) est libre. 2. La famille (ϕ(e1 ), . . . , ϕ(ep )) engendre Im ϕ. 3. ϕ est surjective si et seulement si (ϕ(e1 ), . . . , ϕ(ep )) est génératrice de F . Pp Démonstration : Supposons ϕ injective. Soit i ) = 0, alors par Pp Pp λ1 , . . . , λp ∈ K. Si i=1 λi ϕ(eP p linéarité on a ϕ ( i=1 λi ei ) = 0 donc i=1 λi ei ∈ Ker ϕ = {0}. Donc i=1 λi ei = 0 et comme (e1 , . . . , ep ) est une base, ∀i, λi = 0. Donc la famille des ϕ(ei ) est libre. P P Réciproquement, si cette famille est libre, soit u = λi ei ∈ Ker ϕ. Alors λi ϕ(ei ) = 0 donc ∀i, λi = 0 et u = 0. Donc ϕ est injective. P On a clairement Vect (ϕ(ei )i ) ⊂ Im ϕ. Inversement, si v ∈ Im ϕ, v = ϕ(u) et u = λi ei P donc v = λi ϕ(ei ) ∈ Vect (ϕ(ei )i ). Remarque. La preuve de cette proposition est un exemple de l’ubiquité des problèmes d’algèbre linéaire, qui sont souvent « straightforward », une fois que l’on connaît les définition des objets que l’on manipule ! 2.3 Isomorphismes en dimension finie On a donc immédiatement Proposition 2.3.1 Soit BE = (e1 , . . . , ep ) une base de E et ϕ ∈ L(E, F ). Alors ϕ est un isomorphisme si et seulement si la famille (ϕ((e1 ), . . . , ϕ(ep )) est une base de F . Proposition 2.3.2 Soit E un espace de dimension finie. Alors E et F sont isomorphes si et seulement si F est aussi de dimension finie et dim E = dim F . J. Gärtner. 7 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Démonstration : Soit BE = (e1 , . . . , ep ) une base de E. Si E et F sont isomorphes, alors on prend ϕ un isomorphisme de E sur F . Comme (ϕ(e1 ), . . . , ϕ(ep )) est une base de F , on a dim E = dim F . Réciproquement, soit BF = (f1 , . . . , fp ) une base de F . Il existe une unique application linéaire telle que ϕ(ei ) = fi pour tout i. D’après la proposition précédente, c’est un isomorphisme. Application : tout espace de dimension p est isomorphe à Kp En effet, si E est p de dimension p et BP E = (e1 , . . . , ep ) est une base de E, alors l’application K → E définie p par (x1 , . . . , xp ) 7→ i=1 xi ei est un isomorphisme car envoie une base (la base canonique de Kp ) sur une base. x1 .. Ainsi, via le choix d’une base, les vecteurs x de E sont exactement les colonnes . ∈ xp x1 .. Mp,1 (K). On dit que X = . est le vecteur colonne de x dans la base BE et on note xp X = Mat BE (x). Proposition 2.3.3 Si E et F sont deux espaces de dimension finie et dim E = dim F . Soit ϕ ∈ L(E, F ). Alors les assertions suivantes sont équivalentes : 1. ϕ est injective. 2. ϕ est surjective. 3. ϕ est bijective. Démonstration : En effet, fixons BE une base de E. Si ϕ est injective, alors (ϕ(e1 ), . . . , ϕ(ep )) est libre dans F de cardinal égal à dim F donc est une base de F et ϕ est bijective, a fortiori surjective. De même dans les autres cas. Proposition 2.3.4 Soit ϕ un isomorphisme de E vers F . Soit (u1 , . . . , um ) une famille de vecteurs de E. Alors rg (ϕ(u1 ), . . . , ϕ(um )) = rg (u1 , . . . , um ) Démonstration : Exercice : on pourra se restreindre à Vect (u1 , . . . , um ). 2.4 Théorème du rang Définition 2.4.1 Si ϕ ∈ L(E, F ) et Im ϕ est de dimension finie, on appelle rang de ϕ cette dimension et on note rg (ϕ) = dim Im ϕ J. Gärtner. 8 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Théorème 2.4.1 (du rang) Soit E un espace vectoriel de dimension finie. Soit ϕ ∈ L(E, F ). Alors Im ϕ est de dimension finie et dim Ker ϕ + dim Im ϕ = dim Ker ϕ + rg ϕ = dim E Démonstration : Soit G un supplémentaire de Ker ϕ dans E. Soit f : G → Im ϕ l’application définie par u 7→ ϕ(u). Cette application est bien définie et linéaire. On a en quelque sorte rendu ϕ bijective. En effet f est injective : Ker f = {u ∈ G, ϕ(u) = 0} = G ∩ Ker ϕ = {0}. f est surjective : si v ∈ Im ϕ, il existe u ∈ E tel que v = ϕ(u). u = u′ + u′′ suivant la décomposition E = Ker ϕ ⊕ G et v = ϕ(u′ ) = f (u′ ). f est donc un isomorphisme donc comme G est de dimension finie, Im ϕ aussi et rg ϕ = dim G = dim E − dim Ker ϕ. Proposition 2.4.1 Soit E et F deux espaces de dimension finie avec dim E = p et dim F = n. Soit ϕ ∈ L(E, F ) avec rg ϕ = r. Alors 1. Si ϕ est injective, dim E 6 dim F 2. Si ϕ est surjective, alors dim E > dim F 3. r 6 n 4. r 6 p 5. r = n ⇔ ϕ est surjective (Im ϕ = F ). 6. r = p ⇔ ϕ est injective (dim Ker ϕ = 0 par le théorème du rang) 7. r = p = n ⇔ ϕ est un isomorphisme. 8. Si BE = (e1 , . . . , ep ) alors rg (ϕ) = rg (ϕ(e1 ), . . . ϕ(ep )). 3 Formes linéaires et hyperplans Soit E un espace de dimension finie et BE = (e1 , . . . , en ) une base de E. Commençons par quelques remarques sur les formes linéaires. La donnée d’une forme linéaire sur E revient à la donnée des ϕ(ei ) = ai ∈ K. La matrice d’une forme linéaire est donc une matrice ligne Mat BE ϕ = a1 . . . an Définition 3.0.2 On appelle hyperplan tout sous-espace vectoriel de E de dimension n − 1. C’est donc ce qui généralise les plans (sous-espaces de dimension 2) dans un espace de dimension 3. Théorème 3.0.2 Les hyperplans sont exactement les noyaux de formes linéaires non nulles. Démonstration : Le théorème du rang montre que si ϕ est une forme linéaire non nulle, alors son noyau est de dimension n − 1. J. Gärtner. 9 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Réciproquement, soit F un hyperplan de E. Montrons que c’est le noyau d’une forme linéaire non nulle. Soit (e1 , . . . , en−1 ) une base de F que l’on P complète en une base BE = (e1 , . . . , en ) de E. Soit ϕ : E → K l’application qui à x = ni=1 xi ei associe xn ∈ K. Alors ϕ est linéaire, et ϕ(en ) = 1 donc ϕ n’est pas nulle. De plus on a x ∈ Ker ϕ ⇔ ϕ(x) = 0 ⇔ x ∈ F ce qui permet de conclure. On en déduit que les hyperplans de E sont exactement les parties définies par une équation du type a1 x1 + · · · + an xn = 0 dans E. En particulier, on voit que chercher les solutions d’un système linéaire homogène à n équations et p inconnues revient à déterminer les vecteurs qui sont dans l’intersection de n hyperplans d’un espace de dimension p. On peut en déduire géométriquement l’interprétation de la dimension de l’espace des solutions : c’est la dimension de l’intersection des hyperplans. Exercice. Soit H1 et H2 deux hyperplans de E (dim E = n) définis par H1 = Ker ϕ1 et H2 = Ker ϕ2 , où les ϕi sont des formes linéaires non nulles. Montrer que H1 = H2 si et seulement si ϕ1 et ϕ2 sont colinéaires dans l’espace vectoriel L(E, K) i.e. si et seulement si il existe a ∈ K tel que ϕ1 = aϕ2 . 4 Démonstration du théorème sur les suites récurrentes linéaires d’ordre 2 Nous sommes maintenant en mesure de démontrer le théorème suivant : Théorème 4.0.3 Soit a, b ∈ R avec b 6= 0. Soit (un ) une suite réelle telle que ∀n ∈ N, un+2 = aun+1 +bun . Notons (E) l’équation caractéristique x2 = ax + b et ∆ = a2 + 4b son discriminant. 1. Si ∆ > 0, (E) possède deux solutions réelles distinctes q1 et q2 . Alors il existe λ, µ ∈ R tels que ∀n ∈ N, un = λq1n + µq2n 2. Si ∆ = 0, (E) possède une unique solution q ∈ R. Alors il existe λ, µ ∈ R tels que ∀n ∈ N, un = (λn + µ)q n 3. Si ∆ < 0, (E) possède deux solutions complexes conjuguées z1 = ρeiθ et z2 = ρe−iθ . Alors il existe λ, µ ∈ R tels que ∀n ∈ N, un = ρn (λ cos(nθ) + µ sin(nθ)) Démonstration : Fixons a et b. Notons S l’ensemble des suites définies par la relation de récurrence linéaire un+2 = aun+1 + bun . On considère l’application ϕ : S → R2 définie par ϕ(u) = (u0 , u1 ). Cette application est linéaire et bijective car les suites de S sont exactement déterminées par leurs deux premier termes. Donc S est de dimension 2. Il nous reste donc qu’à trouver, suivant les cas, une base de S. 1. Par définition de l’équation caractéristique, les suites (q1n ) et (q2n ) sont dans S. On a ϕ((qin )) = (1, qi ). Comme q1 6= q2 , la famille ((1, q1 ), (1, q2 )) est libre donc une base dans R2 . Puisque ϕ est un isomorphisme, ((q1n ), (q2n )) est une base de S. Ce qui est exactement le résultat annoncé. J. Gärtner. 10 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 2. Vérifions déjà que (nq n ) est dans S. Comme q est la racine double de x2 − ax − b, a2 a et donc a = 2q mais comme a2 + 4b = 0 on a b = − = −q 2 . Donc on a q = 2 4 a(n + 1)q n+1 + bnq n = 2(n + 1)q n+2 − nq n+2 = (n + 2)q n+2 donc (nq n ) ∈ S. Comme ϕ((q n )) = (1, q) et ϕ((nq n )) = (0, q) et q 6= 0, il est clair que la famille ((q n ), (nq n )) est une base de S. 3. Si on considère des suites complexes, on a (z1n ) et (z2n ) qui sont solutions et indépendantes pour les mêmes raisons. Elles constituent une base du C-ev S, isomorphe à C2 . Si on considère que le R-ev S, il nous faut des suites réelles. Mais Re (z1n ) = ρn cos nθ et Im (z1n ) = ρn sin nθ. Ces suites sont donc bien dans le R-ev S par linéarité des parties réelles et imaginaires. De plus ϕ((ρn cos nθ)) = (1, ρ cos θ) et ϕ((ρn sin nθ)) = (0, ρ sin θ). Mais ρ sin θ = Im z1 6= 0 car z1 ∈ / R, donc on obtient bien encore une fois une base de S. 5 Lien avec les matrices 5.1 Matrice d’une application linéaire Définition 5.1.1 Soit E et F deux espaces vectoriels sur K. BE = (e1 , . . . , ep ) une base de E et BF = (f1 , . . . , fn ) une P base de F . Soit ϕ ∈ L(E, F ). Pour tout j ∈ [[ 1 ; p ]], il existe ai,j ∈ K tels que f (ej ) = ni=1 ai,j fi . Alors la matrice A = (ai,j ) ∈ Mn,p (K) est appelée matrice de ϕ dans les bases BE et BF , notée Mat BF ,BE (ϕ). La jième colonne de A donne les coordonnées de ϕ(ej ) dans la base BF . Lorsque E = F et BE = BF on note A = Mat B (ϕ). p n Remarque. Pp Si A ∈ Mn,p (K), l’application K → K définie par (x1 , . . . , xp ) 7→ (y1 , . . . , yn ) avec yi = j=1 ai,j xi est appelée application canoniquement associée à A. C’est une application linéaire, de matrice A dans les bases canoniques. Exemple. 1. La matrice de f : R3 → R2 définie par f (x, y, z) = (x + 2y − z, y − z) dans les bases canoniques est 1 2 −1 0 1 −1 2. La matrice de l’identité de E est In dans n’importe quelle base. 3. L’application f : K [X] définie par P 7→ P (X + 1) vérifie f (X k ) = n [X] → Kn (X + 1)k = 1 + k1 X + · · · + kk X k d’après la formule du binôme de Newton. La matrice de f est donc, dans la base canonique 1 1 1 1 . . . 1 1 2 3 n−1 n 0 1 ... 1 1 1 1 1 . . .. . . . . . . . . . . . . .. .. .. .. .. .. .. .. . . . . .. .. .. .. . . . . n 0 ... ... ... ... 0 n J. Gärtner. 11 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Définition 5.1.2 (Matrice d’une famille de vecteurs) Soit E un espace de dimension n, de base B. Soit f1 , . . . , fp des vecteurs de E. Notons (a1,j . . . , an,j ) les coordonnées de fj dans la base B. Alors la matrice de la famille (f1 , . . . , fp ) relativement à la base B est a1,1 . . . a1,p .. ∈ M (K) Mat B (f1 , . . . , fn ) = A = (ai,j ) = ... n,p . an,1 . . . an,p Exemple. Dans R3 [X], soit P1 = (X − 1)2 , P2 = (X − 2)2 et P3 = X − 3. Alors la matrice de (P1 , P2 , P3 ) dans la base canonique est 1 −8 −3 −2 12 1 1 −6 0 0 1 0 5.2 Opérations Proposition 5.2.1 Soit E et F deux espaces de dimension finie et de bases respectives BE et BF . Soit ϕ, ψ ∈ L(E, F ) et λ ∈ K. Alors Mat BF ,BE (ϕ + λψ) = Mat BF ,BE (ϕ) + λ Mat BF ,BE (ψ) Démonstration : Trivial compte tenu de la définition des opérations sur les matrices. Proposition 5.2.2 L’application Kn → Mn,1 (K) qui à x associe sa colonne de coordonnées dans la base canonique est un isomorphisme. L’application qui à E de dimension n rapporté à une base B qui associe à x ∈ E sa colonne de coordonnées dans la base B est un isomorphisme entre E et Mn,1 (K). Théorème 5.2.1 Soit E un espace de dimension p et BE = (e1 , . . . , ep ) une base. F un espace de dimension n et BF = (f1 , . . . , fn ) une base. L’application Φ : L(E, F ) → Mn,p (K) définie par ϕ 7→ Mat BF ,BE (ϕ) est un isomorphisme d’espace vectoriel. Démonstration : Il est clair que Φ est linéaire. Si ϕ ∈ Ker Φ, alors ϕ s’annule sur une base donc ϕ = 0. Φ est injective. Pn Soit A ∈ Mn,p (K). On définit ϕ par ϕ(ej ) = i=1 ai,j fi . Alors Φ(ϕ) = A et Φ est surjective. On en déduit Proposition 5.2.3 Si dim E = p et dim F = n alors dim L(E, F ) = np. J. Gärtner. 12 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Théorème 5.2.2 Soit E, F, G des espaces de dimensions finies et BE = (e1 , . . . , eq ), BF = (f1 , . . . , fp ) et BG = (g1 , . . . , gn ) des bases de ces espaces. Si u ∈ L(E, F ) et v ∈ L(F, G) alors Mat BG ,BE (v ◦ u) = Mat BG ,BF (v) × Mat BF ,BE (u) Démonstration : Notons A = Mat BG ,BF (v), B = Mat BF ,BE (u) et C = Mat BG ,BE (v ◦ u). On a, pour j ∈ [[ 1 ; q ]] ! p X v ◦ u(ej ) = v bk,j fk k=1 = = = = p X k=1 p X Pn bk,j k=1 p X n X n X ai,k gi i=1 ai,k bk,j gi k=1 i=1 ! p n X X ai,k bk,j i=1 Mais on a aussi v ◦ u(ej ) = AB = C. bk,j v(fk ) i=1 ci,j gi . ! gi k=1 Par unicité de l’écriture dans la base BG , on a En particulier, on peut déduire la proposition suivante de la proposition analogue sur les application linéaires. Proposition 5.2.4 1. Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), alors A(BC) = (AB)C. 2. Si A ∈ Mn,p (K) et B, C ∈ Mp,q (K) alors A(B + C) = AB + AC. 3. Si A, B ∈ Mn,p (K) et C ∈ Mp,q (K), alors (A + B)C = AC + BC. 4. Si A ∈ Mn,p (K) et B ∈ Mp,q (K), si λ ∈ K, alors (λA)B = λ(AB) = A(λB). Proposition 5.2.5 Soit ϕ ∈ L(E, F ) et BE une base de E, BF une base de F . Soit x ∈ E de coordonnées X ∈ Mp,1 (K) dans la base BE . Alors les coordonnées de y = ϕ(x) dans la base BF sont données par Y = Mat BF ,BE (ϕ)X J. Gärtner. 13 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Démonstration : En effet, p X xj ej u(x) = u j=1 = p X xj u(ej ) j=1 = p X xj = i=1 ai,j fi i=1 j=1 n X n X p X j=1 ! ai,j xj fi Exemple. La matrice de f : R4 [X] → R4 [X] P 7→ P (X + 1) est dans la base canonique 1 1 1 1 1 0 0 1 2 3 4 3 0 0 1 3 6. Le polynôme P = 2X 4 − X 2 + 3X a pour coordonnées −1 et donc 0 0 0 1 4 0 0 0 0 0 1 2 f (P ) a pour coordonnées, dans la base canonique 1 1 1 1 1 0 4 0 1 2 3 4 3 9 0 0 1 3 6 −1 = 11 0 0 0 1 4 0 8 0 0 0 0 1 2 2 Proposition 5.2.6 Soit E et F deux espaces de dimension n, de bases BE et BF et ϕ ∈ L(E, F ). Alors ϕ est un isomorphisme si et seulement si A = Mat BF ,BE (ϕ) est inversible et dans ce cas Mat BF ,BE (ϕ)−1 = Mat BF ,BE (ϕ−1 ) Démonstration : Si ϕ est un isomorphisme, alors les règles de calcul donnent Mat BF ,BE (ϕ)−1 × Mat BF ,BE (ϕ−1 ) = Mat BE ,BE (IdE ) = In et Mat BE ,BF (ϕ−1 )×Mat BF ,BE (ϕ)−1 = Mat BF ,BF (IdF ) = In . Donc A est inversible et A−1 est la matrice annoncée. Réciproquement, si A est inversible, notons ψ l’application linéaire de F dans E dont la matrice dans les bases BF et BE est A−1 . Alors Mat BF ,BF (ϕψ) = In et Mat BE ,BE (ψϕ) = In Donc ϕ ◦ ψ = IdF et ψ ◦ ϕ = IdE . ϕ est inversible et la matrice est bien celle prévue. Remarque. En particulier, 1 1 0 1 Exercice. Calculer 0 0 0 0 0 0 si ϕ est un automorphisme, Mat B (ϕ)−1 = Mat B (ϕ−1 ). 1 1 1 2 3 4 −1 1 3 6 . 0 1 4 0 0 1 Nous pouvons maintenant démontrer les propositions laissée en suspend dans le chapitre sur les matrices : J. Gärtner. 14 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Proposition 5.2.7 Soit A ∈ Mn (K). Alors A est inversible si et seulement si ∀X ∈ Mn,1 (K), AX = 0 ⇒ X = 0 Démonstration : L’implication directe s’obtient en multipliant par A−1 . Pour la réciproque soit u l’endomorphisme de Kn canoniquement associé à A. Alors par hypothèse, u est injective. Comme c’est un endomorphisme en dimension finie, u est bijective et A est inversible. Proposition 5.2.8 Soit A, B ∈ Mn (K) telles que AB = In . Alors A et B sont inversibles et A−1 = B. Démonstration : Soit u l’endomorphisme de Kn canoniquement associé à A et v celui associé à B. On a uv = Id. On a vu que dans ce cas, v est injective (en exercice) donc en dimension finie, v est bijective. De même u est surjective donc bijective. A et B sont inversibles et inverses l’une de l’autre. 5.3 Rang d’une matrice Définition 5.3.1 Soit A ∈ Mn,p (K). On appelle rang de A le rang de la famille de ses vecteurs colonne dans Mn,1 (K) et on note rg (A). Exemple. rg 1 2 0 = 2. 0 2 0 Comme le rang de A ∈ Mn,p (K) est le rang d’une famille de p vecteurs d’un espace de dimension n, on a Proposition 5.3.1 Si A ∈ Mn,p (K) alors rg (A) 6 inf(n, p). Proposition 5.3.2 Soit E un espace de dimension n muni d’une base B et f1 , . . . , fp des vecteurs de E. Soit A la matrice de ces vecteurs dans la base B. Alors rg (f1 , . . . , fp ) = rg (A). Démonstration : On utilise l’isomorphisme ϕ entre E et Mn,1 (K) qui a un vecteur associe la colonne de ses coordonnées dans la base B. On a donc un isomorphisme entre Vect (f1 , . . . , fp ) et Vect (ϕ(f1 ), . . . , ϕ(fp )). Ce qui donne l’égalité des rangs. Théorème 5.3.1 Soit E et F des espaces vectoriel de dimension finie munis d’une base BE , BF . Soit ϕ ∈ L(E, F ). Alors rg (ϕ) = rg (Mat BF ,BE (ϕ)). Autrement dit le rang de ϕ est égal au rang de sa matrice dans n’importe quelle base. Démonstration : Si BE = (e1 , . . . , ep ) alors Im ϕ = Vect (ϕ(e1 ), . . . , ϕ(ep )), donc d’après la proposition précédente, rg (ϕ) = rg (ϕ(e1 ), . . . , ϕ(ep )). Mais par définition, Mat BF ,BE (ϕ) = Mat BF (ϕ(e1 ), . . . , ϕ(ep )). D’où l’égalité des rangs. On en déduit que J. Gärtner. 15 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Proposition 5.3.3 A ∈ Mn (K) est inversible si et seulement si rg (A) = n. Enfin, on admettra la proposition suivante : Proposition 5.3.4 Soit A ∈ Mn,p (K). Alors rg (A) = rg ( t A). En particulier, le rang de A est aussi la dimension du sous espace de M1,n (K) engendré par les lignes de A. Calcul du rang : Pour calculer le rang d’une matrice A (donc aussi d’une famille de vecteur, d’une application linéaire...) on peut soit expliciter son noyau et sa dimension (ce qu’on sait déjà faire), soit appliquer l’algorithme du pivot de Gauss à A. On arrive après opérations élémentaires sur les lignes (et éventuellement sur les colonnes) à une matrice du type a1,1 a1,2 a1,3 . . . . . . a1,p a2,2 a2,3 . . . . . . a2,p .. .. . . ar,r . . . ar,p 0 .. . 0 cette matrice est alors facile à trouver en pratique. Par exemple la matrice Le rang de 1 2 3 4 0 0 2 2 0 0 1 2 a clairement pour rang 3 : les deux premières colonnes sont liées et indé0 0 0 0 pendentes des deux dernières. De plus C3 et C4 ne sont pas colinéaires. En général, le rang sera k où k est le nombre de lignes telles que aj,j = 0 avec j ∈ [[ 1 ; r ]]. Exercice. Sur la matrice ci-dessus, utiliser la méthode du Pivot de Gauss pour calculer le rang. La justification de cette méthode passe par la Proposition 5.3.5 Soit A une matrice et B une matrice obtenue à partir de A par opérations élémentaires sur les lignes ou les colonnes. Alors A et B ont même rang. Démonstration : Cas des colonnes : on effectue des combinaisons linéaires qui ne changent pas la dimension de l’espace engendré. t Cas des lignes : c’est une conséquence du fait que rg A = rg A. On obtient une nouvelle justification de l’algorithme qui permet de déterminer si une matrice est inversible : il suffit de vérifier que son rang est égal à sa taille. En particulier Proposition 5.3.6 Si A ∈ Mn,p (K) est de la forme A= J. Gärtner. 16 a ∗ 0 B ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 avec B ∈ Mn−1,p−1 (K) et a 6= 0, alors rg A = rg B + 1. Si A est triangulaire, elle est inversible si et seulement si tous ses coefficients diagonaux sont non nuls. Démonstration : La première assertion en claire en regardant l’espace engendré par les lignes. La seconde se montre par récurrence. 1 −2 3 0 6 −1 4 −2 −1 −5 . Exercice. Calculer le rang de A = 1 2 5 0 7 2 −10 3 3 9 5.4 Détermination du noyau, de l’image : cas pratique Remarque. On est souvent amené à déterminer noyau et image d’une application linéaire. Pour déterminer l’image, on peut s’aider du rang, qui est sa dimension. Lorsque l’on trouve des relation de combinaison linéaire sur les colonnes de sa matrice dans B, on une base 1 2 −1 trouve au passage des vecteurs du noyau. Par exemple la matrice A = 2 1 −2 est −5 1 5 clairement de rang 2, son image "clairement" de rang 2 car les deux premières colonnes sont linéairement indépendantes (le vérifier !) et on a C1 = −C3 . Autrement dit C1 +C3 = 0M3,1 . 1 On en déduit que 0 est dans le noyau de A (le vérifier : faire le produit d’une matrice −1 par une colonne, c’est faire une combinaison linéaire des colonnes, interprétation en terme d’application linéaire ?). On a trouvé un vecteur non nul du noyau dont on sait qu’il est de dimension 1 (le rang est 2 et la taille est 3...) Bref, on a déterminé le noyau. Si on n’est pas convaincu, on peut toujours résoudre le système AX = 0 ! 5.5 Dimension de l’ensemble des solutions d’un système linéaire homogène 5.5.1 Interprétation en terme de famille de vecteurs Imaginons que l’on veuille résoudre un système AX = B. Alors si C1 , . . . , Cp sont les colonnes de A, on cherche à écrire B comme combinaison linéaire des Cj . Les coefficients de cette combinaison sont donnés par X. Le système admet donc une solution si et seulement si B ∈ Vect (C1 , . . . , Cp ). Si cette famille est libre, il y a au plus une solution. Si cette famille est une base (donc A inversible) il existe une unique solution qui correspond aux coordonnées de B dans cette base. Ceci justifie à postériori la discussion sur le nombre de variables indépendantes dans la détermination des solutions d’un système linéaire après méthode du Pivot. 5.5.2 Interprétation en terme d’application linéaire Soit ϕ l’application linéaire de Kp dans Kn canoniquement associée à A. Soit y ∈ Kn de matrice B dans la base canonique. Le système AX = B revient à chercher x ∈ Kp tel que ϕ(x) = y. Le système est donc compatible si et seulement si y ∈ Im ϕ. Si le système est homogène, l’ensemble des solutions est Ker ϕ. Si ϕ est injective, le système a au plus une solution. J. Gärtner. 17 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 Soit x0 une solution particulière du système. Alors l’ensemble des solutions est {x0 + x, x ∈ Ker ϕ} En effet, si ϕ(x′ ) = y alors ϕ(x′ −x0 ) = 0 et x′ = x+x0 avec x ∈ Ker ϕ. Réciproquement si x′ = x0 + x avec x ∈ Ker ϕ, alors ϕ(x′ ) = ϕ(x0 ) = y. On appelle les ensembles du type {x0 } + Ker ϕ des espaces affines de direction Ker ϕ. 6 Polynômes d’endomorphismes, de matrices : calculs Comme on l’a entraperçu concernant les matrices, l’utilisation de polynômes peut être utile pour calculer des puissances ou des inverses. Définition 6.0.1 Soit P ∈ K[X] un polynôme. P = a0 + · · ·+ an X n . E un K-espace vectoriel et u ∈ L(E) un endomorphisme. On note P (u) l’endomorphisme de E défini par P (u) = n X ak uk = a0 IdE + a1 u + · · · + an un k=0 Si de plus P (u) = 0L(E) on dit que P est un polynôme annulateur de u. Attention ! il ne faut surtout pas oublier que u0 = IdE ! Définition 6.0.2 Soit P ∈ K[X] un polynôme. P = a0 + · · · + an X n . A ∈ Mn (K) une matrice carrée. On note P (A) la matrice carrée définie par P (A) = n X ak Ak = a0 In + a1 A + · · · + an An k=0 Si de plus P (A) = 0Mn (K) on dit que P est un polynôme annulateur de A. Exemple : projecteur. On utilise souvent des polynômes annulateurs, pour calculer des puissances de matrices ou des inverses (c.f. exercices du td sur les matrices !) Proposition 6.0.1 Soit E un espace de dimension finie et u ∈ L(E). Alors il existe un polynôme annulateur non nul (i.e. 6= 0K[X] ) de u. De même pour une matrice carrée. 2 Démonstration : Soit n la dimension de E alors (IdE , u, . . . , un ) est une famille de n2 + 1 vecteurs en dimension n2 , donc liée. Remarque : on peut montrer (c’est completement hors programme) qu’il existe un polynôme annulateur de degré au plus n. Applications : calculsde puissances, d’inverses, qui sont des polynômes en A. 1 3 Exemple : soit A = . Alors le polynôme X 2 + X − 8 annule A. On a donc 2 −2 1 A(A + I2 ) = A2 + A = 8I2 autrement dit A est inversible, d’inverse (A + I2 ). (Et on 8 retrouve bien la formule déjà vue pour inverser une matrice de taille 2). J. Gärtner. 18 ECS3 Carnot Chapitre 27 — Applications linéaires. 2013/2014 0 0 6 Calcul de puissance : Soit A = 1 0 −11. Alors on peut vérifier que P = X 3 − 0 1 6 6X 2 +11X −6 = (X −1)(X −2)(X −3) est annulateur de A. On a pour tout n, par division euclidienne X n = P Qn + Rn avec Rn un polynôme de degré au plus 2. Rappelons que l’on peut déterminer R en remarquant que Rn = an X 2 +bn X +cn et que Rn (1) = an +bn +cn = 1, Rn (2) = 4an +2bn +cn = 2n et Rn (3) = 9an +3bn +cn = 3n . On cherche donc à résoudre le a + b + c = 1 a + b + c = 1 4a + 2b + c = 2n qui donne 3a + b = 2n − 1 D’où système n 9a + 3b + c = 3 8a + 2b = 3n − 1 a + b + c = 1 3a + b = 2n − 1 2a = 3n + 1 − 2n+1 n n+1 3 3 −2 +1 , bn = 2n − 1 − (3n + 1 − 2n+1 ) et cn = 1 − an − bn . Bref an = 2 2 Comme P est annulateur, on a P (A) = 0 donc An = P (A)Qn (A) + Rn (A) = Rn (A) = an A2 + bn A + cn I3 . J. Gärtner. 19