Complément d’ algèbre linéaire PSI Plan 1 Produit et Somme d’ espaces vectoriels 1.1 Produit d’ espaces vectoriels . . . . . . . 1.2 Somme d’ espaces vectoriels . . . . . . 1.2.1 Définition . . . . . . . . . . . . . . 1.2.2 Somme directe - sous espaces supplémentaires . . . . . . . . . . 1.2.3 Cas de la dimension finie . . . . 1.2.4 Applications linéaires et décomposition en somme directe . . . . 1 1 2 2 2 Formes linéaires - Hyperplans 2.1 Formes Linéaires . . . . . . . . . . . . . 2.2 Hyperplans . . . . . . . . . . . . . . . . . 2.3 Équation d’un hyperplan . . . . . . . . . 2.4 Détermination pratiques de l’équation d’un hyperplan . . . . . . . . . . . . . . . 2.5 Exercices . . . . . . . . . . . . . . . . . . . 15 15 16 16 17 19 20 8 3 Matrices et endomorphismes 3.1 Matrices définies par blocs . . . . . . . . 3.2 Matrice semblables . . . . . . . . . . . . 3.3 Trace d’une matrice . . . . . . . . . . . . 3.4 Trace d’un endomorphisme . . . . . . . 3.5 Polynômes d’ une matrice ,d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 11 11 12 14 4 Sous espaces stables 4.1 Définition . . . . . . . . . . . . . . . . . . 4.2 Décomposition en somme directe de sous espace stables . . . . . . . . . . . . . . . . 21 21 3 5 20 22 ∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗ Dans tout ce chapitre K désigne R ou C. 1 Produit et Somme d’ espaces vectoriels 1.1 Produit d’ espaces vectoriels Soient E 1 , . . . , E n des espace vectoriels sur K . On pose E= n Y E i = {( x1 , ..., xn ) / ∀ i ∈ [[1, n]] x i ∈ E i } . i =1 pour u = ( x1 , . . . , xn ) ∈ E , v = ( y1 , . . . , yn ) ∈ E et λ ∈ K on définit u + v et λv par : u + v = ( x1 + y1 , . . . , xn + yn ) λv = (λ y1 , . . . , λ yn ) to Théorème 1.1. E = n Y E i est un espace vectoriels sur K i =1 Si de plus chaque E i est de dimension finie alors E est aussi de dimension finie et on :a dim E = n X dim E i i =1 Remarque 1.1. Si ( e 1 , . . . , e n ) est une base de E et ( f 1 , . . . , f p ) est une base de F alors , ¡ ¢ ( e 1 , 0), . . . , ( e n , 0), (0, f 1 ), . . . , (0, f p ) est une base E × F Remarque 1.2. Lorsque E 1 = ... = E n = E alors l’espace vectoriel dimension finie alors dim E n = n dim E www.laminehoucin.blogspot.com n Y E i est noté E n . Si E est de i =1 page:1/ 22 Complément d’ algèbre linéaire PSI 1.2 Somme d’ espaces vectoriels 1.2.1 Définition Définition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E . On appelle somme des espaces vectoriels E 1 , E 2 , . . . , E n le sous espace vectoriel de de E ¯ © ª E 1 + E 2 + · · · + E n = x1 + x2 + · · · + xn ¯ ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n On le note également n X E i. k=1 Proposition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E . Alors n X • E i est un sous-espace vectoriel de E. • k=1 n X E i est le plus petit sous espace vectoriel de E qui contient n [ E i . On ecrit alors i =1 k=1 n X à E i = Vect n [ ! Ei i =1 i =1 Preuven: • X E i est l’image de l’application linéaire k=1 ϕ : E1 × E2 × · · · × E n ( x1 , x2 , . . . , x n ) Ce qui montre que n X −→ 7−→ E x1 + x2 + · · · + x n E i est bien un sous-espace vectoriel de E . k=1 • En prenant x j = 0 pour tout j 6= i on constate que n X E i contient chacun des E i . Ainsi i =1 ∀ j ∈ [[1, n]] Ej ⊂ n X Ei i =1 • Si un sous espace vectoriel F contient tous les E i , il contient tous les vecteurs de la forme x1 + x2 + · · · + xn où n n X X x i ∈ E i , donc F contient E i . Ainsi E i est le plus petit sous espace vectoriel de E qui contient tous les E i et on écrit i =1 i =1 n X i =1 à E i = Vect n [ ! Ei i =1 Attention 1.1. On rappelle que l’union d’espaces vectoriels n’est pas, en générale, un espace vectoriel . www.laminehoucin.blogspot.com page:2/ 22 Complément d’ algèbre linéaire PSI Proposition 1.2 (associativité et commutativité). Soient sous-espaces vectoriels d’un K -espaces vectoriel E . On a pour 1 ≤ p < n : n X Ei = i =1 p X n X Ei + i =1 Ei E1, E2, . . . , E n des (associativité) i = p+1 et n X Ei = n X Ei + Ei (Commutativité) i =1 i = p+1 i =1 p X Exemples 1.1. 1. R3 = Vect(1, 0, 0) + Vect(0, 1, 0) + Vect(0, 0, 1) En effet ∀ ( x, y, z) ∈ R3 , ( x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) | {z } | {z } | {z } ∈Vect(1,0,0) ∈Vect(0,0,1) ∈Vect(0,1,0) 2 2. R = Vect(1, 0) + Vect(0, 1) + Vect(1, 1) En effet ∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1) | {z } | {z } | {z } ∈Vect(1,0) ∈Vect(0,1) ∈Vect(1,1) Remarquons qu’on a aussi la décomposition ( x, y) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1) | {z } | | {z } {z } ∈Vect(1,0) ∈Vect(0,1) ∈Vect(1,1) 3 3. Dans E = R , le plan d’équation ( x = 0) et celui d’équation ( y = 0) vérifient R3 = P1 + P2 . En effet ∀ ( x, y, z) ∈ R3 , (0, y, z) + ( x, 0, 0) = ( x, y, z). | {z } | {z } 4. 1.2.2 ∈P2 ∈P1 + M n (K) = Tn + D n + Tn− Somme directe - sous espaces supplémentaires Définition 1.2. On dit que les sous-espaces E 1 , E 2 , . . . , E n sont en somme directe, (ou encore que p X la somme E i est directe) si pour tout ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n i =1 x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0 la somme est alors notée n X E i = E1 ⊕ E2 ⊕ · · · ⊕ E n = i =1 Propriétés 1.1. Si la somme J 6= ; www.laminehoucin.blogspot.com p X i =1 E i est directe alors n M Ei i =1 X E i est directe pour tout J ⊂ [[1, n]] et i∈ J page:3/ 22 Complément d’ algèbre linéaire PSI Proposition 1.3. La somme p X E i est directe si et seulement si l’application i =1 n X ϕ : E 1 × E 2 × · · · × E n −→ Ei i =1 ( x1 , x2 , . . . , xn ) 7−→ x1 + x2 + · · · + xn est un isomorphisme. Preuve : Remarquons d’abord que que par définition de la somme E i , l’application ϕ est une application i =1 linéaire surjective donc : ϕ isomorphisme p X ϕ injective ker ϕ = {0} ∀ ( x1 , x2 , . . . , x n ) ∈ E 1 × E 2 × · · · × E n , x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0 p X E i est directe ⇔ ⇔ ⇔ ⇔ i =1 Proposition 1.4. La somme p X E i est directe si et seulement si tout vecteur x de i =1 compose de manière unique sous la forme x = E i se dé- i =1 x i avec ( x1 , x2 , ..., xn ) ∈ E 1 × E 2 × . . . × E n . En i =1 d’autre termes : ∀x ∈ n X p X p X E i , ∃ ! ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n , x = x1 + x2 + . . . + xn i =1 Preuve : Conséquence directe de l’isomorphisme ϕ dans la proposition précédente. Exemple 1.1. la somme Vect(1, 0) + Vect(0, 1) + Vect(1, 1) n’est pas directe puisqu’on a pas unicité de la décomposition ∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1) | {z } | {z } | {z } | | {z } | {z } {z } ∈Vect(1,0) Proposition 1.5. Si la somme ∈Vect(0,1) n X ∈Vect(1,1) ∈Vect(1,0) ∈Vect(0,1) ∈Vect(1,1) E i est directe alors i =1 ∀ i ∈ [[1, n]] ; E i ∩ n M E j = {0} j =1; j 6= i Notamment pour tout j 6= i E i ∩ E j = {0} www.laminehoucin.blogspot.com page:4/ 22 Complément d’ algèbre linéaire PSI Preuve : n M • Soit x ∈ E i ∩ E j donc x ∈ E i et x = x1 + ...x i−1 + x i+1 + ... + xn avec x i ∈ E i , en faisant passer x de l’autre j =1; j 6= i cotée de l’égalité on obtient x1 + ...x i−1 + (− x) + x i+1 + ... + xn = 0 |{z} ∈E i Or la somme n X E i est directe donc x et tous les x i sont nuls. i =1 n M • Si j 6= i alors E i ∩ E j ⊂ E i ∩ E k = {0}. k=1; k6= i La réciproque est fausse pour n ≥ 3 est vrais pour n = 2 Attention 1.2. Exemple 1.2. Considérons l’exemple R2 = Vect(1, 0) + Vect(0, 1) + Vect(1, 1). La somme n’est pas directe mais Vect(1, 0) ∩ Vect(0, 1) = Vect(1, 0) ∩ Vect(1, 1) = Vect(0, 1) ∩ Vect(1, 1) = {0} 1.2.3 Cas de la dimension finie Proposition 1.6. Si les sous-espaces vectoriels E 1 , ..., E r sont de dimensions finies alors p X Ei i =1 est de dimension finie et on a à dim n X i =1 ! Ei ≤ n X dim E i i =1 avec égalité si et seulement si la somme est directe ; c’est à dire : à ! n n n X X X E i est directe dim Ei = dim E i ⇔ la somme i =1 Preuve : i =1 i =1 Considérons l’application linéaire surjective ϕ : E 1 × E 2 × · · · × E n −→ n X Ei i =1 ( x1 , x2 , . . . , xn ) 7−→ x1 + x2 + · · · + xn • La formule du rang appliquée à ϕ donne à ! à ! à ! n n n n X Y Y X dim E i = dim E i − dim ker ϕ ≤ dim Ei = dim E i =1 i =1 i =1 i =1 • Si laà somme ! est directe alors, daprès la proposition 1.3, ϕ est bijective. D’où dim(E 1 × E 2 × · · · × E n ) = n n X X dim E i . Mais dim(E 1 × E 2 × · · · × E n ) = dim E i , d’où le résultat. i =1 i =1 n X • Réciproquement l’application ϕ est, par définition de E i , surjective. i =1 à ! à ! n n n X X X Si dim Ei = dim E i , alors dim(E 1 × E 2 × · · · × E n ) = dim E i , par suite ϕ est un isomorphisme et i =1 i =1 donc la somme est directe. www.laminehoucin.blogspot.com i =1 page:5/ 22 Complément d’ algèbre linéaire PSI à 1. Si la somme n’est pas directe, dim Remarque 1.3. n X ! Ei < i =1 n X dim E i . i =1 2. On rappelle à ce propos la formule de Grassmann dim(F + G ) = dim F + dim G − dim F ∩ G Proposition 1.7. Soient E de dimension finie et E 1 , E 2 , . . . , E n des sous-espaces vectoriels . ( i) E= n M Ei n X dim E i dim E = i =1 ( ii ) ⇐⇒ n X E i est directe i =1 ⇐⇒ ( iii ) i =1 Preuve : n M i =1 n X E = Ei i =1 à n X n X dim E i dim E = n X ! n X E i alors la somme E i est directe et dim E = dim Ei = dim E i . i =1 i =1 i =1 à i=1 ! n n n X X X ( ii ) ⇒ ( iii ) Supposons ( ii ), donc dim Ei = dim E i = dim E et comme E i est un sous-espace vectoriel de ( i ) ⇒ ( ii ) Si E = E , on en déduit E = n X i =1 à ( iii ) ⇒ ( i ) Supposons ( iii ), donc dim n X E i on conclut que E = i =1 i =1 Ei. i =1 on a E = i =1 n X i =1 n M ! n X Ei = i =1 dim E i ce qui assure que la somme n X E i est directe et puisqu’ i =1 Ei i =1 Pour deux espaces, le théorème devient Corollaire 1.1.½ Soient E de dimension finie et½ F,G deux sous-espaces vectoriels de E . F ∩ G = {0} F +G = E E = F ⊕ G ⇐⇒ ⇐⇒ . dim E = dim F + dim G dim E = dim F + dim G Exemples 1.2. 1. K4 [ X ] = Vect(1 + X , X 3 ) ⊕ Vect(1 + X 2 ) ⊕ Vect( X 4 − X , 1). En effet, la relation λ1 (1 + X ) + λ2 X 3 + λ3 (1 + X 2 ) + λ4 ( X 4 − X ) + λ5 = 0 entraîne λ1 = λ2 = λ3 = λ4 = λ5 = 0 (en regardant les termes dominants.) La somme est donc directe. De plus dim K4 [ X ] = dim Vect(1 + X , X 3 ) + dim Vect(1 + X 2 ) + dim Vect( X 4 − X , 1) 2. Dans l’exemple de la page 3, on avait R3 = P1 + P2 mais la somme n’est pas directe car dim P1 + dim P2 = 4 > dim R3 . www.laminehoucin.blogspot.com page:6/ 22 Complément d’ algèbre linéaire PSI 3. F = Vect λ(1, 0, 0) → et G = Vect λ(0, −1, 1), (0, 1, 1) →. On a F ∩ G = {0} et dim F + dim G = 3. D’où F ⊕ G = R3 . 4. Dans C[ X ], soit (P i ) i∈[[0,n]] une famille de polynômes tels que ∀ i ∈ [[0, n]] , deg P i = i . Cn [ X ] = n M Vect P i i =0 est directe. En effet pour tout (λ1 , . . . λn ) ∈ Cn+1 la relation λ0 P0 + · · · + λn P n = 0 donne en considérant tour à tour les termes de plus haut degré (ce qui revient à faire une récurrence) λn = λn−1 = . . . = λ0 = 0. n X dim Vect(P i ). De plus dim Cn [ X ] = i =0 5. Le sous-espace vectoriel des matrices symétriques et celui des matrices antisymétriques sont supplémentaires dans Mn (K). En effet S n (K ) ∩ An (K ) = {0} (puisque si A ∈ S n (K ) ∩ An (K ), A = t A = − A d’où A = 0). n( n − 1) n( n + 1) De plus, dim An (K ) + dim S n (K ) = + = n2 = dim Mn (K) 2 2 Théorème 1.2 (base adaptée a une somme directe). Soit E un espace vectoriel de dimension finie q M tel que E = E i. i =1 Si pour tout i de [[1, q]], β i désigne une base de E i , et β = l’appelle base adaptée a la décomposition E = q M n [ β i alors β est une base de E . On i =1 E i. i =1 Preuve : Comme la somme est directe on a les β i sont deux à deux disjoints et donc dim E = q X dim E i = i =1 q X Card β i = Card β i =1 Il suffit alors de montrer que β est génératrice. Or, pour x ∈ E , il existe ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n tel que x = x1 + x2 + · · · +, xn . De plus ∀ i ∈ [[1, n]] , x i ∈ E i = Vect(β i ) ⊂ Vect(β), d’où par sommation x ∈ Vect(β). Exemple 1.3. Pour a ∈ K , la base (1, X − a, . . . , ( X − a)n ) de K n [ X ) est adaptée à la décomposition n n M M ¡ ¢ ¡ ¢ K n[X ] = Vect ( X − a)k . Elle ne l’est pas pour la décomposition K n [ X ] = Vect X k i =0 k=0 Réciproquement Théorème 1.3. Soit E un espace vectoriel de dimension finie et de base B . Si (B1 , ..., B q ) est une partition de B et E i = Vect(B i ) pour i = 1, ..., q alors E= q M Ei i =1 B est donc une base adaptée à cette dernière décomposition. www.laminehoucin.blogspot.com page:7/ 22 Complément d’ algèbre linéaire PSI Preuve : Posons B i = ( e(1i) , ..., e(ni)i ). Tout vecteur x ∈ E s’écrit sous la forme x = q X ni X i =1 k=1 | conséquence E = D’autre part q X x(ki) e(ki) donc x ∈ {z ∈E i q X E i par i =1 } Ei. i =1 dim E = Card B = q X Card B i = i =1 Donc E= q M q X dim E i i =1 Ei i =1 Exemple 1.4. β = ( e 1 , e 2 , . . . , e n ) est une base de E si et seulement si E = Par exemple, Kn [ X ] = n M n M Vect( e i ). i =1 ³ ´ Vect X i et R3 = Vect(1, 0, 0) ⊕ Vect(0, 1, 0) ⊕ Vect(0, 0, 1). i =0 Dans le cade des bases adaptée on a la définition suivante : Définition 1.3 (base adaptée a un sous espace vectoriel). Soit E de dimension finie et F un sous-espace vectoriel de E . On dit qu’une base de E est adaptée à F si ses premiers éléments forment une base de F Exemple 1.5. Dans E = R3 , on considère F l’hyperplan d’équation x + y + z = 0. Une base de E adaptée à F est base de E z¡ }| {¢ (1, −1, 0), (−1, 0, 1), (1, 0, 0) | {z } base de F 1.2.4 Applications linéaires et décomposition en somme directe Théorème 1.4. On suppose E = n M E i et on considère pour i ∈ [[1, q]] l’application u i ∈ L(E i , F ) i =1 ∃ ! u ∈ L(E, F ) tel que ∀ i ∈ [[1, n]] , u |E i = u i . u est définie sur E par ∀( x1 , x2 , · · · , xn ) ∈ n Y E i, u( x1 + x2 + · · · + xn ) = u 1 ( x1 ) + u 2 ( x2 ) + · · · + u n ( xn ). i =1 Remarque 1.4. Autrement dit, ce théorème pourrait se résumer à l’assertion : Pour définir une application linéaire sur E il suffit de la définir sur chaque E i www.laminehoucin.blogspot.com page:8/ 22 Complément d’ algèbre linéaire PSI Preuve : Procédons par analyse et synthèse Analyse : Supposons qu’un tel u existe. n X x i où ( x1 , x2 , . . . , x q ) ∈ E 1 × E 2 × · · · × E q Soit x ∈ E , on a alors x = i =1à ! n n n X X X On a par linéarité u( x) = u xi = u( x i ) = u i ( x i ). i =1 i =1 i =1 u, s’il existe, est alors déterminé de façon unique sous la forme u( x) = Synthèse : Tout élément x de E s’écrit de façon unique x = u i ( x i ). i =1 x i . En posant u( x) = i =1 une application de E dans F qui vérifie : — u |E = u i pour tout i de [[1, n]] i n X — u est linéaire : soient deux vecteurs x = x i et y = i =1 et deux scalaires α et β. On a : à u(α x + β y) n X q X = u α n X = xi + β = n X yi i =1 α u i (xi ) + β i =1 = ! yi où ( x1 , x2 , . . . , x q ), ( y1 , y2 , . . . , yq ) ∈ E 1 × E 2 × · · · × E n n X = u α x i + β yi {z } i =1 | ∈E i u i (α x i + β yi ) i =1 n X u i ( x i ), on définit alors i =1 i =1 i =1 n X n X q X par définition de u n X u i ( yi ). ( u i est linéaire ) i =1 α u( x) + β u( y). Remarque 1.5. Si β = ( e 1 , e 2 , . . . , e n ) est une base de E et en posant E i = Vect( e i ), on retrouve qu’une application linéaire est entièrement déterminée par l’image d’une base. Définition 1.4. On suppose E = n M E i , pour i ∈ [[1, n]] on définit l’application linéaire i =1 Pi : x= E n X −→ E xk 7−→ x i k=1 La famille (P1 , . . . , P n ) s’appelle la famille des projecteurs associée à la décomposition E = n M Ei i =1 www.laminehoucin.blogspot.com page:9/ 22 Complément d’ algèbre linéaire PSI Propriétés 1.2. Soit (P1 , . . . , P n ) la famille des projecteurs associée à la décomposition E = n M E i. i =1 Alors pour tout i ∈ [[1, n]] on a 1. P i est un projecteur de E n M 2. I mP i = E i et ker P i = Ek k=1, k6= i n M 3. P i est la projection sur E i parallèlement à Ek. k=1, k6= i 4. n X Pk = I dE k=1 5. Si u ∈ (E, F ) alors u= n X u ◦ Pk k=1 Théorème 1.5. Si u ∈ (E, F ) et G est un supplémentaire de ker u dans E alors u induit un isomorphisme de G sur Im u. Preuve : ½ Notons v : G x −→ 7−→ Im u u ( x) • v est linéaire. • v est injective, en effet : Si x ∈ ker v alors x ∈ G et u( x) = 0, donc x ∈ G ∩ ker u. Or G est ker u sont supplémentaire donc G ∩ ker u = {0} par suite x = 0 et v injective. • v est surjective, en effet : soit y ∈ Im u alors il existe x ∈ E tel que y = u( x). Or E = ker u ⊕ G donc il exit (a, b) ∈ ker u × G tel que x = a + b. Par suite y = u(a) + u( b) = u( b) = v( b). Ainsi |{z} =0 ∀ y ∈ Im( u), ∃ b ∈ G ; y = v( b ) ce qui assure que v est surjective. • On conclut alors v est un isomorphisme de G dans Im u. Corollaire 1.2 (Formule du rang). Si u ∈ L (E, F ) avec E de dimension finie alors u est de rang fini et rg u + dim ker u = dim E Preuve : Soit G un supplémentaire de ker u dans E , le théorème précédent assure que G est isomorphe à I mu et puisque G est de dimension finie (Car c’est un sous espace d’un espace de dimension finie) on a I mu est de dimension finie et dim Im u = dim G D’autre part on a E = G ⊕ ker u donc dim E www.laminehoucin.blogspot.com = dim G + dim ker u = dim Im u + dim ker u = rg u + dim ker u page:10/ 22 Complément d’ algèbre linéaire PSI 2 Formes linéaires - Hyperplans 2.1 Formes Linéaires Définition 2.1. Soit E un K -espace vectoriel . 1. Une formes linéaire sur E est une application linéaire de E dans K 2. On appelle espace dual de E l’espace vectoriel E ∗ = L (E, K ). C’est l’ensemble des formes linéaires sur E . Remarque 2.1. On rappelle qu’en dimension finie dim E = dim E ∗ Proposition 2.1. Une forme linéaire non nulle sur E est toujours surjective Preuve : Soi f une forme linéaire non nulle sur E , puisque Im f est un sous espace vectoriel de K on a 1 ≤ dim Im f ≤ 1 donc dim Im f = 1 = dim K par suite Im f = K et f surjective. Remarque 2.2. En particulier si ϕ ∈ E ∗ est une forme linéaire non nulle sur E alors ∃ u ∈ E \{0}; ϕ( u) = 1 Théorème 2.1. Soient f et g deux formes linéaire sur un un K-espace vectoriel E telles que : ker( g) ⊂ ker( f ) Alors il existe α ∈ K tel que : f = α.g Preuve : • Si g est nulle alors E = ker( g) ⊂ ker( f ) ⊂ E par suite E = ker( f ) et f nulle. • Si g est non nulle, on procède par analyse synthèse : Analyse : Si α existe alors nécessairement α = f ( u) où u ∈ E tel que g( u) = 1 et en remarquant que g( x) est un scalaire f = α.g deviens pour tout x ∈ E ; f ( x − g( x) u) = 0. Synthèse : Soit alors u ∈ E tel que g( u) = 1 et posons α = f ( u) ; on a pour tout x ∈ E : g ( x − g ( x) u ) = g ( x) − g ( x) g ( u ) = g ( x) − g ( x) = 0 Donc x − g( x) u ∈ ker g ⊂ ker f Par suite f ( x − g( x) u) = 0 qui deviens par linéarité f ( x) = f ( u) g( x) = α.g( x) Toute forme linéaire non nulle sur E est de rang 1, donc surjective. Si E est de dimension finie, E ∗ l’est aussi et dim E ∗ = dim E K = dim E www.laminehoucin.blogspot.com page:11/ 22 Complément d’ algèbre linéaire PSI Exemples 2.1. 1. Les formes linéaires sur Kn sont du type ϕ : X = ( x1 , ..., xn ) ∈ Kn 7→ a 1 x1 + · · · + a n xn En effet : Soit C la base canonique de Kn , la matrice de ϕ dans C est de la forme A = Mat C ϕ = (a 1 , ..., a n ) avec a i = ϕ( e i ) donc x1 . ϕ( X ) = A t X = (a 1 , ..., a n ) .. = a 1 x1 + · · · + a n xn xn 2. Soit I un intervalle de R et a, b ∈ I alors δa : f 7→ f (a), I : f 7→ b Z f; a D a : f 7→ f 0 (a) sont des formes linéaires sur, respectivement, C ( I, R), C ( I, R) et C 1 ( I, R). n X x j e j on pose 3. Si E est de dimension finie n, si B = ( e 1 , ..., e n ) une base de E. Pour x = j =1 ϕ j ( x) : x j On définit ainsi n formes linéaires sur E ; on les appelle les formes linéaires coordonnées. De plus (ϕ1 , ..., ϕn ) est une base de E ∗ appelée base duale de B En effet : (ϕ1 , ..., ϕn ) est de cardinale n = dim E ∗ donc il suffit de montrer qu’elle est libre, pour ça, soient λ1 , ..., λn ∈ K tels que λ1 ϕ1 + ... + λn ϕn = 0. En composant avec e j en remarquant que ϕ i ( e j ) = δ i j on obtient λ j = 0, ceci étant pour tout j ∈ [[1, n]] donc notre famille est bien libre. 2.2 Hyperplans E un K -espace vectoriel • On appelle droite de E tout sous espace de dimension 1 • On appelle Plan de E tout sous espace de dimension 2 Définition 2.2. On appelle hyperplan de E , tout sous-espace vectoriel qui est supplémentaire d’une droite vectorielle. En d’autre termes Il existe un vecteur non nul u de E tel que E = H ⊕ Vect( u) Proposition 2.2. Si dim E = n et H sous-espace vectoriel de E alors H hyperplan de E ⇔ dim H = n − 1 Preuve : =⇒: Si H est supplémentaire d’une droite D alors dim H = dim E − dim D = n − 1. www.laminehoucin.blogspot.com page:12/ 22 Complément d’ algèbre linéaire PSI ⇐=: Soit ( e 1 , . . . e n−1 ) une base de H . D’après le théorème de la base incomplète, il existe un vecteur e n tel que ( e 1 , . . . e n ) soit une base de E . D = Vect( e n ) est une droite vectorielle supplémentaire de H . Exemples 2.2. 1. En dimension 3, les hyperplans sont les plans vectoriels, ce qui justifie la nomination en dimension quelconque. 2. En dimension 2, les hyperplans sont les droites vectorielles. Propriétés 2.1. Soit H est un hyperplan de E . Alors 1. ∀ u ∈ E \ H, H ⊕ K.u = E 2. Si F est un sous espace vectoriel contenant H alors ou bien H = F ou bien F = E Remarque 2.3. La première propriété nous donne le droit de choisir la droite D supplémentaire à H sous la forme D = Vect( u) avec u ∈ E \ H La deuxième montre que les hyperplans sont les sous espaces maximaux parmi les sous espaces strictes de E. Proposition 2.3. Soit H un sous-espace vectoriel de E . Les propositions sont équivalentes : 1. H est un hyperplan de E . 2. il existe une forme linéaire ϕ non nulle tel que H = ker ϕ Preuve : 1 =⇒ 2 : Supposons que H est un hyperplan de E, il existe un vecteur non nul u de E tel que E = H ⊕ Vect( u). Soit l’application f : E = H ⊕ Vect( u) → K x = h + λu 7−→ λ Alors f est une forme linéaire sur E , non nulle (puisque f ( u) = 1) telle que ker( f ) = H 2 =⇒ 1 : Supposons qu’il existe une forme linéaire ϕ non nulle tel que H = ker ϕ. Soit u ∈ E \{0} tel que ϕ( u) = 1 . Montrons que E = ker ϕ ⊕ K.u • x ∈ ker ϕ ∩ K.u ⇔ ½ donc ker ϕ ∩ K.u = {0} x = λ u /λ ∈ K ϕ( x) = 0 ½ ⇔ x = λ u /λ ∈ K ⇔ λ=0 x=0 • Pour x ∈ E posons x1 = x − ϕ( x) u et x2 = ϕ( x) u Alors x = x1 + x2 et x2 ∈ K.u et x1 ∈ ker ϕ car ϕ( x1 ) = ϕ( x) − ϕ( x)ϕ( u) = 0 Donc E = ker ϕ + K.u Exemples 2.3. 1. L’ensemble H des polynômes s’annulant en a ∈ K est un hyperplan de K [ X ]. Il suffit de considérer ϕ(P ) = P (a) © ª 2. ( x1 , x2 , . . . , xn ) ∈ K n | a 1 x1 + a 2 x2 + · · · + a n xn = 0 est un hyperplan de K n . www.laminehoucin.blogspot.com page:13/ 22 Complément d’ algèbre linéaire PSI 2.3 Équation d’un hyperplan Proposition 2.4. On suppose dim E = n < +∞. Si l’on note ( x1 , x2 , . . . , xn ) les coordonnées d’un vecteur x de E relativement à une base β, alors H est un hyperplan de E si et seulement si il existe (a 1 , a 2 , . . . , a n ) ∈ K n \{0} tel que : x ∈ H ⇐⇒ n X a i xi = 0 i =1 n X a i x i = 0 s’appelle équation de l’hyperplan H relativement à β. i =1 En dimension finie, la matrice d’une forme linéaire ϕ relativement à β pour E et (1) pour K est (a 1 a 2 . . . a n ). On a alors en notant H = ker ϕ. Preuve : x1 n X . a i xi = 0 x ∈ H ⇐⇒ f ( x) = 0 ⇐⇒ (a 1 a 2 . . . a n ). .. = 0 ⇐⇒ i =1 xn Remarque 2.4. Si H est un hyperplan déquation n X a i x i = 0 alors H est le noyau de la forme i =1 lineaire f: x= E n X → x i e i 7−→ i =1 n X K a i xi i =1 Exemples 2.4. 1. On retrouve qu’une droite vectorielle du plan admet une équation du type ax + b y = 0 2. On retrouve qu’un plan vectoriel de l’espace admet une équation du type ax + b y + cz = 0 © ª 3. P ∈ R2 [ X ] | P (a) = 0 ) est un hyperplan de R2 [ X ] d’équation x + a y + a2 z = 0 dans la base canonique (1, X , X 2 ). Proposition 2.5. Deux équations linéaires si et seulement si elles sont proportionnelles définissent le même hyperplan Preuve : Si (a 1 , a 2 . . . , a n ) = λ( b 1 , b 2 . . . , b n ) où λ 6= 0, alors n X a i x i = 0 ⇐⇒ i =1 n X b i xi = 0 i =1 donc les équation représente bien le même hyperplan (on divise par λ). n n X X Réciproquement : Soient a i x i = 0 et b i x i = 0 deux équations de H et f , g ∈ E ∗ \{0} où (a 1 . . . a n ) est une i =1 i =1 matrice de f et ( b 1 . . . b n ) est une matrice de g. alors ker f = ker g = H et d’ après le théorème 2.1 on a f = λ g donc les équations sont proportionnelles www.laminehoucin.blogspot.com page:14/ 22 Complément d’ algèbre linéaire PSI 2.4 Détermination pratiques de l’équation d’un hyperplan Proposition 2.6. Soit H un hyperplan dont une base est ( e 1 , . . . , e n−1 ). x ∈ H ⇐⇒ detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0 Preuve : Si x ∈ H alors ( x, e 1 , e 2 , . . . , e n−1 ) est liée d’où det( x, e 1 , e 2 , . . . , e n−1 ) = 0. β Réciproquement, si detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0 alors( x, e 1 , e 2 , . . . , e n−1 ) est liée. Mais ( e 1 , e 2 , . . . , e n−1 ) est libre, donc Vect( x, e 1 , e 2 , . . . , e n−1 ) = Vect( e 1 , e 2 , . . . , e n−1 ). Ainsi x ∈ Vect( e 1 , e 2 , . . . , e n−1 ) = H . Remarque 2.5. On retrouve les équation de droites dans le plan et de plan dans l’espace : − 1. Soit A de coordonnées (a, b) dans un repère cartésien R = (Ω, β) et → u de coordonnées ( u 1 , u 2 ) dans β. Alors une équation cartésienne de la droite affine passant par A et dont un vecteur − directeur est → u est : ¯ ¯ ¯ x − a u1 ¯ ¯ ¯ ¯ y − b u2 ¯ = 0 − −v , deux vecteurs 2. Soit A de coordonnées (a, b, c) dans un repère cartésien R = (Ω, β) et → u ,→ libres de coordonnées respective dans β ( u 1 , u 2 , u 3 ) et (v1 , v2 , v3 ). Alors une équation cartésienne de l’unique plan affine passant par A et dont un couple de ¡→ ¢ − → − vecteur directeur est u , v est : ¯ ¯ ¯ x − a u 1 v1 ¯ ¯ ¯ ¯ y − b u 2 v2 ¯ = 0 ¯ ¯ ¯z− c u v ¯ 3 3 2.5 Exercices Exercice 1. trouver une équation de l’hyperplan H engendré par (1, 0, 0, 0, 0), (1, 1, 0, 0, 0), (1, 1, 1, 0, 0), (1, 1, 1, 1, 0). Déterminer une forme linéaire dont il est le noyaux. Exercice 2. Montrer que deux équations d’un même hyperplan sont proportionnelles Exercice 3. dim E = n . 1. Soient H, H 0 deux hyperplans distincts de E . (a) montrer que H + H 0 = E (b) Déduire que dimH ∩ H 0 = n − 2 2. Réciproquement soit F un sous espace de E de dimension n − 2 . Montrer qu ’il existe H, H 0 deux hyperplans distincts de E tels que F = H ∩ H 0 Exercice 4. 1. Si e est un vecteur non nul de E. Montrer qu’il existe une forme linéaire sur E qui vaut 1 en e. \ 2. En déduire que ker ϕ = {0E } ϕ∈E ∗ www.laminehoucin.blogspot.com page:15/ 22 Complément d’ algèbre linéaire PSI 3 Matrices et endomorphismes 3.1 Matrices définies par blocs µ A B Toute matrice M ∈ M np (K) peut s’écrire comme matrices de blocs sous la forme M = C D où A ∈ M q,l (K ), B ∈ M q,p−l (K ), C ∈ Mn− q,l (K ) et D ∈ Mn− q,n−l (K ). ¶ Si B = 0 ou C = 0 on dit que A est triangulaire par blocs. Si B = 0 et C = 0 on dit que A est diagonale par blocs. Proposition 3.1. Sous réserve que les opérations soient bien définies, on a µ µ ¶ µ 0 ¶ µ ¶ A B A B0 A + A 0 B + B0 + 0 = C D C D0 C + C0 D + D0 ¶ µ 0 ¶ µ ¶ A B A B0 A A 0 + BC 0 AB0 + BD 0 × 0 = C D C D0 C A 0 + DC 0 CB0 + DD 0 Corollaire 3.1. Le produit lorsqu’il existe de matrices triangulaires supérieures (respectivement inférieures) par blocs est encore triangulaire supérieure (respectivement inférieure) par blocs. Corollaire 3.2. Soit A ∈ Mn (K), B ∈ M p (K ) et C ∈ Mn,p (K ) on a µ det Preuve : µ Soit M = A C 0 D ¶ µ ¶ C A 0n,p = det = det A × det B B C B A 0 p,n ¶ Posons A0 = µ A 0 0 Iq ¶ , C0 = µ Ip C 0 Iq ¶ et B0 = µ Ip 0 0 B ¶ On vérifie par calcul directe que M = A 0 C 0 B0 0 0 D’où det M = det A × det C × det B0 . 0 Or C est triangulaire donc son déterminant vaut 1 (produit des éléments diagonaux). De plus, en développant A 0 par rapport à sa dernière colonne, il vient µ ¶ A 0 0 det A = det . 0 I q−1 En réitérant, on obtient det A 0 = det A . De même, on a det B0 = det B, d’où le résultat. µ ¶ A C Attention 3.1. En générale det 6 det A det D − det B det C = B D www.laminehoucin.blogspot.com page:16/ 22 Complément d’ algèbre linéaire PSI ¯ ¯1 ¯ ¯2 ¯ ¯ Exemple 3.1. ¯0 ¯ ¯0 ¯ ¯0 3.2 1 5 6 3 4 −2 0 1 0 0 8 3 0 −9 2 ¯ 3¯¯ ¯ ¯ ¯ ¯ 1 0 0¯ 0¯¯ ¯¯ ¯ ¯ 1 1¯¯ ¯¯ 0¯ = ¯¯ × ¯ 8 3 0¯¯ = 6 ¯ ¯ 2 3 ¯ 0¯ −9 2 2¯ ¯ 2¯ Matrice semblables Définition 3.1. Soient A, B ∈ Mn (K). On dit que A est semblable à B s’il existe P ∈ Gl n (K ) tel que B = P −1 AP Proposition 3.2. Soit E un espace vectoriel de dimension finie n • Si u est un endomorphisme E et si B et B 0 sont deux bases de E , les matrices MatB ( u) et MatB0 ( u) sont semblables. • Réciproquement, si A et A 0 sont deux matrices semblables, il existe un endomorphisme f de E et deux bases B et B 0 de E telles que A = MatB ( u) A 0 = MatB0 ( u) et Ainsi : Deux matrices sont semblables si et seulement si elles représentent un même endomorphisme dans des bases différentes. Preuve : • Notons P la matrice de passage de la base B à la base B 0 .D’après la formule de changement de bases pour un endomorphisme , on a : MatB0 ( u) = P −1 MatB ( u)P • Réciproquement, si A et A 0 sont deux matrices semblables,il existe une matrice inversible P ∈ GL n (K) telle que A 0 = P −1 AP. Soit B = ( e 1 , ..., e n ) une base de E. L’isomorphisme L(E ) f M n (K) MatB ( f ) −→ 7−→ assure l’existence d’un endomorphisme f de E tel que Mat f = A et l’existence d’un automorphisme φ de E tel que Mat φ = P. B B (φ est bijective car sa matrice P est inversible). Posons B0 = φ(B) = (φ( e 1 ), ..., φ( e n )) = ( e01 , ..., e0n ) | {z } | {z } e01 e0n Alors, B0 est une base de E (car φ est bijective donc transforme une base en une base ) Dans la suite on va montrer que Mat f = A 0 . Pour cela posons Mat f = (λ i j ) donc B0 B0 ∀ j ∈ [[1, n]] , f ( e0j ) = n X λ i j e0i i =1 En composant avec φ−1 et en remarquant que φ( e i ) = e0i on a ∀ j ∈ [[1, n]] , φ−1 ◦ f ◦ φ( e j ) = n X λi j e i i =1 www.laminehoucin.blogspot.com page:17/ 22 Complément d’ algèbre linéaire PSI ce qui assure que Mat φ−1 ◦ f ◦ φ = (λ i j ) = Mat f B0 B Or Mat φ−1 ◦ f ◦ φ = Mat φ−1 Mat f Mat φ = P −1 AP = A 0 B donc B B B 0 Mat f = A . B0 ¶ µ ¶ 2 −1 1 0 Exercice 5. Montrer que A = et B = sont semblables. 1 0 1 1 µ Solution : Soit f canoniquement associé à A dans R2 . Analyse : On cherche donc une base ( e 1 , e 2 ) de R2 telle que Matβ f = B. Par définition de Matβ f , ils doivent vérifier : f (e1) = e1 + e2 et f (e2) = e2 En posant e 1 = (a, b) et e 2 = ( c, d ), on aboutit à deux systèmes ½ ½ a−b−c =0 a−b−d =0 et c−d =0 c=c Ce qui équivaut à ½ a−b−c =0 c=d ou encore (a, b, c, d ) = ( b + d, b, d, d ) = b(1, 1, 0, 0) + d (1, 0, 1, 1) Synthèse : En considérant par exemple, b = 0 et d = 1, on obtient que e 1 = (1, 0) et e 2 = (1, 1) est bien une base (donc conviennent puisque les calculs précédents sont des équivalences). Remarque 3.1. La relation ∼ definie sur M n (K) par « A ∼ B ⇐⇒ A est semblable à B » est une relation d’équivalencem, c’est à dire 1. La relation est réflexive : ∀ A ∈ Mn (K), A ∼ A, 2. La relation est symétrique : puisque B = P −1 (considérer P = I n ). 2 ∀ ( A, B) ∈ Mn (K), A ∼ ¡ −1 ¢−1 ¡ −1 ¢ −1 AP ⇐⇒ A = PBP = P B ⇐⇒ B ∼ A A P 3 3. La relation est transitive : ∀ ( A, B, C ) ∈ Mn (K), A ∼ B et B ∼ C =⇒ A ∼ C puisque B = P −1 AP et C = Q −1 BQ =⇒ C = Q −1 P −1 APQ = (PQ )−1 A (PQ ) On appelle alors classe de similitude d’une matrice A l’ensemble des matrices semblables A c’est à dire © ª M ∈ Mn (K), | ∃ P ∈ GL n (K ), M = P −1 AP www.laminehoucin.blogspot.com page:18/ 22 Complément d’ algèbre linéaire PSI 3.3 Trace d’une matrice ¡ ¢ Définition 3.2. Soit A = a i, j 1≤ i, j≤n ∈ Mn (K). On appelle trace de la matrice A la somme de ses éléments diagonaux n X tr( A ) = c’est à dire a k,k . k=1 Notation 3.1. On note T r l’application M n (K) −→ K A 7−→ tr( A ) Tr : a b Exemple 3.2. tr d e g h p p n X X X Rappel : a i, j = i =1 j =1 c f = a+e+i i n X a i, j j =1 i =1 « la somme de la somme des lignes est égale à la somme de la somme des colonnes » 1. ∀ A ∈ Mnp (K), tr( t A ) = tr( A ). Proposition 3.3. 2. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), ∀λ ∈ K tr( A + λB) = tr( A ) + λ tr(B). 3. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), tr( AB) = tr(BA ). 4. ∀ A ∈ Mn (K), ∀ P ∈ GL n (K ), tr(P −1 AP ) = tr( A ). (Deux matrices semblables ont la même trace) Preuve : ¡ ¢ ¡ ¢ A = a i, j i, j , B = b i, j i, j 1. A et t A ont la même diagonale donc ont la même trace. 2. Soit λ, µ ∈ K , tr(λ A + µB) = n X (λa k,k + µ b k,k ) = λ k=1 k=1 n X ¡ ¢ 3. Notons AB = c i, j 1≤ i≤n avec c i, j = a i,k b k, j 1≤ j ≤ n n X et a k,k + µ n X n X ¡ ¢ BA = d i, j 1≤ i≤n avec d i, j = b i,k a k, j 1≤ j ≤ n k=1 tr( AB) = = = = = b k,k = λ tr( A ) + µ tr(B) k=1 k=1 n X c ii i =1 n X n X i =1 k=1 n X n X k=1 i =1 n X n X a ik b ki a ki b ik ( i ←→ k) b ik a ki (permutation de sommes ) i =1 k=1 n X d ii i =1 = www.laminehoucin.blogspot.com tr(BA ) page:19/ 22 Complément d’ algèbre linéaire PSI 4. Soit P ∈ Gl n (K ) et A ∈ Mn (K). On a en utilisant la relation précédente ¡ ¢ ¡ ¢ ¡ ¢ tr(P −1 AP ) = tr P −1 ( AP ) = tr ( AP )P −1 = tr A (PP −1 ) = tr( AI n ) = tr A Corollaire 3.3. L’application T r : A 7→ tr( A ) est une forme linéaire sur M n (K) Remarque 3.2. T r est surjective et son noyau est l’ hyperplan de M n (K) donné par { A ∈ M n (K) / tr( A ) = 0} Corollaire 3.4. Soit f ∈ L(E ) et soit A = Matβ f et B = Matβ0 f . On a tr B = tr A Preuve : 3.4 β0 B = P −1 AP avec P = Pβ Trace d’un endomorphisme Définition 3.3. Soit f ∈ L(E ).le nombre tr(Mat f ) ne dépend pas de la base B choisie sur E On B l’appelle trace de f et on le note tr( f ). Ainsi La trace d’un endomorphisme et la trace de sa matrice relativement à une base quelconque de E . Proposition 3.4. Soit f un projecteur de rang r alors tr( f ) = r Preuve : puisque f un projecteur de rang r alors E = ker f ⊕ Im f et dim Im f = r . Soit ( e 1 , . . . , e r ) une base de Im f et ( e r+1 , . . . , e n ) une base de ker f alors la famille B = ( e 1 , . . . , e n ) est une base de E dans laquelle µ ¶ Ir 0 Mat f = 0 0 B Par suite tr f = Mat f = tr I r = r. B 3.5 Polynômes d’ une matrice ,d’un endomorphisme E un K−espace vectoriel Définition 3.4. Soient A ∈ M N (K) une matrice carrée d’ordre n , f ∈ L(E ) une endomorphisme de E et P = m X ak X k k=0 un polynôme. • On définit P ( A ) et P ( f ) par : P ( A) = m X ak Ak k=0 P( f ) = m X ak f k k=0 • On dit que P est un polynôme annulateur de A (Resp de f ) si P ( A ) = 0 (Resp : P ( f ) = 0 ) www.laminehoucin.blogspot.com page:20/ 22 Complément d’ algèbre linéaire PSI Proposition 3.5. Soient A ∈ M N (K) et f ∈ L(E ). Alors pour tous P,Q ∈ K[ X ] et λ ∈ K ona (P + λQ )( A ) = P ( A ) + λQ ( A ); (PQ )( A ) = P ( A )Q ( A ) Exercice 6. On pose 2 A= 2 −1 −2 −3 2 (P + λQ )( f ) = P ( f ) + λQ ( f ) (PQ )( f ) = P ( f )Q ( f ) 1 2 0 1. Montrer que P = ( X − 1)( X + 3) est un polynôme annulateur de A 2. Montrer que A est inversibles et déterminer A −1 en fonction de A 3. Déterminer A n pour n ∈ N Solution : 1. On vérifie que ( A − I 3 )( A + 3 I 3 ) = 0 (∗) 1 1 2. De (∗) ona A 2 + 2 A − 3 I 3 = 0 donc ( A + 2 I 3 ) A = I 3 donc A inversible et A −1 = ( A + 2 I 3 ) 3 3 3. En effectuant la division euclidienne de X n sur le polynôme annulateur P on a X n = QP + ax + b en remplaçant par les racines 1 et -3 de P on obtient ½ a+b =1 −3a + b = (−3)n qui donne a = 4 4.1 1 − (−3)n 3 + (−3)n et b = 1 − b = et en remplaçant par A on obtient A n = aA + bI 3 4 4 Sous espaces stables Définition Définition 4.1. Soit f ∈ L(E ) et F un sous-espace vectoriel de E . On dit que F est stable par f si f (F ) ⊂ F . Exemples 4.1. 1. E et {0} sont stables pour tout endomorphisme de E . 2. Une homothétie stabilise tous les sous-espaces vectoriels de E . La réciproque est d’ailleurs vraie (et constitue un exercice classique.) 3. ker f et Im f sont stables par f . Exercice 7. Exercice 8. Soit f : R[ X ] → R[ X ]; f (P ) = X P 0 + ( X 2 + 1)P 00 . Montrer que Rn [ X ] est stable par f 1. Montrer que l’intersection de sous espaces stables est un sous espace stable 2. Montrer que la somme de sous espaces stables est un sous espace stable Exercice 9. Soient f , g deux endomorphismes qui commutent . montrer que ker f et Im f sont stable par g Proposition 4.1. Soient f , g deux endomorphismes qui commutent . Alors ker P ( f ) et ImP ( f ) sont stable par Q ( g) pour tout P,Q ∈ K[ X ] Définition 4.2. Si F est stable par f alors f F définie de F dans F par ∀ x ∈ F, f F ( x) = f ( x) est un endomorphisme de F appelé endomorphisme induit par f sur F . Attention 4.1. la restriction d’un endomorphisme à un sous-espace vectoriel F n’induit pas forcément un endomorphisme de F . Il faut absolument que f (F ) ⊂ F . www.laminehoucin.blogspot.com page:21/ 22 Complément d’ algèbre linéaire PSI Définition 4.3. Soit F un sous espace stricte d’un espace vectoriel de dimension finie E . On appelle base de E adaptée à F toute base de E de la forme ( e 1 , ..., e p , ..., e n ) où ( e 1 , ..., e p ) est une base de F Proposition 4.2. On suppose E de dimension finie. Soit F un sous-espace vectoriel stricte de E et soit β une base adaptée à F . µ ¶ A B F est stable par f si et seulement si Matβ f est triangulaire supérieure par blocs du type Matβ f = où 0n− p,p C p = dim F . Preuve : Soit β = ( e 1 , e 2 , . . . e n ) une base adaptée à F avec ( e 1 , e 2 , . . . e p ) base de F . F est stable par F si et seulement si ∀ i ∈ [[1, p]] , f ( e i ) ∈ F = Vect( e 1 , e 2 , . . . e p ), ce qui équivaut à dire que sa matrice est µ ¶ A B Matβ f = 0n− p,p C Remarque 4.1. — A représente alors la matrice de f |F dans ( e 1 , . . . , e p ). — Comme A et C sont des matrices carrées, il vient alors det f = det µ A det C . ¶ A 0 p,n− p — En remplaçant l’ordre de la base, on obtient la matrice Matβ f = B C 4.2 Décomposition en somme directe de sous espace stables µ Si F et G sont stables par f et E = F ⊕ G , on a dans une base adaptée Matβ f = suppose que l’on a la décomposition E = i ∈ [[1, p]] , dim E i = n i . q M A O ¶ O Plus généralement, B E i et soit β une base adaptée à cette décomposition. On pose pour i =1 Théorème 4.1. Soit β une base adaptée à une base E = q M Ei. i =1 Les E i sont stables par f si et seulement si Matβ f est diagonale par blocs. Plus précisément, on aura M1 M2 M = Mq où chaque M i ∈ Mn i (K ) représente la matrice de l’endomorphisme induit par E i . Remarque 4.2. Sous les notations du théorème précédent, on a alors det M = q Y det M i . i =1 www.laminehoucin.blogspot.com page:22/ 22