Chapitre 1 Groupes 1.1 1.1.1 Définitions et exemples Groupes : G ensemble non vide muni d’une loi de composition interne notée ∗ g, g 0 ∈ G, g ∗ g 0 est défini comme un élément de G (G, ∗) est un groupe si et seulement si ∗ est associative, possède un élément neutre e, tout élément admet un symétrique. Si de plus ∗ est commutative, (G, ∗) est un groupe commutatif. Si G est un ensemble fini, card G s’appelle l’ordre du groupe. Remarque : l’élément neutre est unique. 1.1.2 Morphisme : (G, ∗), (G0 , 4) deux groupes, f : G → G0 f est un morphisme de groupe si et seulement si ∀(x, y) ∈ G, f (x ∗ y) = f (x)4f (y) Remarque : e élément neutre de G, e0 de G0 On a f (e) = e0 si on note x−1 le symétrique de x f (x−1 ) = f (x)−1 Proposition 1.1.1 : Si f est bijective et morphisme de groupe alors f −1 est un morphisme de G0 sur G. On dit alors que f est un isomorphisme de G sur G0 . Remarque : f : G → G isomorphisme, on dit que f est un automorphisme. 1 1.2 1.2.1 Sous groupes Définition-Propriétés H ⊂ G, (H, ×) groupe pour la loi induite par celle de G. Théorème 1.2.1 (G, ×) un groupe d’élément neutre e. Les propositions suivantes sont équivalentes : 1)H est un sous groupe de G 2)H est stable, e ∈ H et ∀x ∈ H, x−1 ∈ H 3)H est stable, H 6= φ et ∀x ∈ H, x−1 ∈ H 4)H 6= φ et ∀(x, y) ∈ H 2 , xy −1 ∈ H Remarque : H sous groupe de G, K sous groupe de H alors K sous groupe de G Proposition 1.2.2 G, G0 deux groupes f : G → G0 morphisme 1) f (G) est un sous groupe de G0 2) si H 0 sous groupe de G0 alors f −1 (H 0 ) est un sous groupe de G. 3) f injective ⇔ f −1 ({e0 }) = {e}. On note Kerf cet ensemble. Proposition 1.2.3 (G, +) un groupe, H et H 0 des sous groupes de G alors H ∩ H 0 est un sous groupe. Remarque : On peut généraliser à une intersection quelconque de sous groupes. H ∪ H 0 n’est pas un sous groupe en général Proposition 1.2.4 Tous les sous groupes de (Z, +) sont de la forme nZ, n ∈ N 1.2.2 Sous groupe engendré G un groupe, A ⊂ G, existe-t-il un plus petit sous groupe de G contenant A ? C’est à dire si A = {sous \ groupe de G contenant A}, ordonné par ⊂, A possède-t-il un H est un sous groupe. plus petit élément ? H∈A \ H et c’est le plus petit élément de A A ⊂ H pour tout H ∈ A donc A ⊂ H∈A On l’appelle le sous groupe engendré par A. On le note [A] Exemple : (G, ×) un groupe, a ∈ G, [a] = {an , n ∈ Z} Définition 1.2.5 ordre d’un élément Théorème 1.2.6 G groupe fini, a ∈ G L’ordre de a divise l’ordre de G. Théorème 1.2.7 Soit(G, ×) groupe fini d’ordre n, alors ∀a ∈ G, an = e Remarque : notation additive [a] = {na , n ∈ Z}. 2 1.3 1.3.1 Groupe symétrique de {1, . . . , n} : Sn Sn : Proposition 1.3.1 Sn ={bijections de {1, . . . , n} sur lui même}. On pose I = {1, . . . , n}. Sn groupe fini d’ordre n ! Les éléments de Sn s’appellent des permutations. Sn groupe fini d’ordre n ! 1 2 ... ... n notation : σ : σ(n) σ(1) σ(2) 1 2 3 exemple : σ = 3 2 1 Définition 1.3.2 : t ∈ Sn est une transposition s’il existe i, j dans I tq i 6= j , t(i) = j , t(j) = i et ∀k ∈ I\{i, j} , t(k) = k. Proposition 1.3.3 t une transposition de Sn . On a t ◦ t = IdI t−1 = t Définition 1.3.4 1 ≤ i1 , i2 , . . . , ir ≤ n, r ≥ 2 le cycle associé à i1 , . . . , ir est la permutation γ de Sn tq γ(i1 ) = i2 , . . . , γ(ir−1 ) = ir , γ(ir ) = i1 γ(k) = k si k ∈ I\{i1 , . . . , ir } On note γ = (i1 , . . . , ir ) r = longueur du cycle γ Remarque : L’ordre d’un cycle de longueur r et r. si γ = (i1 , . . . , ir ) γ −1 = (ir , ir−1 , . . . , i1 ) Définition 1.3.5 γ = (i1 , . . . , ip ) et γ 0 = (j1 , . . . , jq ) sont disjoints si et seulement si {i1 , . . . , ip } ∩ {j1 , . . . , jq } = φ. remarque : 2 cycles disjoints commutent. 1.3.2 Théorème de décomposition : Théorème 1.3.6 Toute permutation de Sn , n ≥ 2 est un produit pour ◦ de transpositions. L’ensemble des transpositions de Sn engendrent Sn . 1.3.3 Signature d’une permutation : Théorème 1.3.7 Il existe un unique morphisme de (Sn , ◦) dans le groupe multiplicatif {1, −1} tq 1) (t) = −1 pour toute transposition t. 2) si σ ∈ Sn est produit de s transpositions alors (σ) = (−1)s . 3 Définition 1.3.8 (σ) = signature de σ. Remarque : (IdI ) = 1 (σ1 σ2 ) = (σ1 )(σ2 ) (σ −1 = (σ) Calcul pratique d’une signature : a) On décompose σ en produit de transpositions. Y σ(j) − σ(i) b) (σ) = j−i i<j c) si γ est un cycle de longueur r, (γ) = (−1)r+1 4 Chapitre 2 Anneaux et Corps 2.1 2.1.1 Anneau : Définitions : A ensemble muni de 2 lois de composition interne notées par exemple + et ×. (A, +, ×) est un anneau si et seulement si • (A, +) groupe commutatif • • × associative • • • × distributive par rapport à + • • • • × possède un élément neutre noté 1 L’anneau est commutatif si la multipication est commutative. On a les règles de calculs suivantes : 1) 0x = x0 = 0 2) (−x)y = −(xy) où − x = symétrique de x 3) (−x)(−y) = xy Dans un anneau, xy = 0 n’implique pas x = 0 ou y = 0. Définition 2.1.1 a ∈ A , a est un diviseur de 0 si et seulement si a ∈ A\{0} et il existe b ∈ A\{0} tq ab = ba = 0. On pose A∗ = A\{0}. A est un anneau intègre si et seulement si A 6= {0}, A commutatif et A n’admet pas de diviseur de 0. Définition 2.1.2 élément inversible d’un anneau A 6= {0}. a ∈ A, a est inversible si et seulement si il existe b ∈ A tq ab = ba = 1, b est alors unique. On le note a−1 Proposition 2.1.3 L’ensemble des éléments inversibles de A est un groupe multiplicatif. 5 2.1.2 Formules dans un anneau A a) I, J ensembles ! !finis, (ai )i∈I éléments de A , (bj )j∈J éléments de A X X X ai bj = ai bj i∈I j∈J (i,j)∈I×J b) Si A est commutatif, n ∈ N∗ , a, b ∈ A n−1 X n n a − b = (a − b) ak bn−k−1 (a + b)n = n X k=0 Cnk ak bn−k k=0 si A n’est pas commutatif, il suffit d’avoir ab = ba. 2.1.3 Morphisme d’anneau f : A → B est un morphisme d’anneau si et seulement si f (x + y) = f (x) + f (y) et f (1{A} ) = 1B ∀(x, y) ∈ A2 f (xy) = f (x)f (y) Remarque : si a est inversible dans A alors f (a) est inversible dans B et f (a−1 ) = (f (a))−1 2.1.4 Sous anneaux Définition 2.1.4 (A, +, ×) un anneau, B ⊂ A B est un sous anneau de A si et seulement si . B est un sous-groupe additif de A . B est stable pour × . B contient l’élément neutre 1 Proposition 2.1.5 f : A → A0 morphisme d’anneaux, B ⊂ A, B 0 ⊂ A0 . On suppose B sous anneau de A, B 0 sous anneau de A Alors f (B) est un sous anneau de A0 et f −1 (B 0 ) est un sous anneau de A Proposition 2.1.6 Une intersection quelconque de sous anneau de A est un sous \ anneau de A. On peut définir le sous anneau engendré par une partie B comme A B⊂A A anneau 2.2 Corps : On appelle corps tout anneau 6= {0} dont tout élément non nul est inversible. Propriété : Soit (K, +, ×) un corps 6 K\{0} est un groupe multiplicatif K n’admet pas de diviseur 0. Définition 2.2.1 On appelle morphisme de corps tout morphisme des anneaux sous jacants. Définition 2.2.2 K un corps L ⊂ K L est un sous corps de K si et seulement si L est un sous anneau de K qui est un corps ie si et seulement si 1 ∈ L, ∀(x, y) ∈ L2 x − y ∈ L, xy ∈ L ∀x ∈ L\{0} x−1 ∈ L. L’intersection d’une famille de sous corps de K est un sous corps de K. 7 Chapitre 3 Dualité 3.1 Espaces vectoriels de dimension quelconque K un corps. I ensemble quelconque. On appelle famille presque nulle d’éléments de K toute famille (αi )i∈I , αi ∈ K dont le support J = {i ∈ I, αi 6= 0} est fini. On note : K(I) l’ensemble de ces familles K(I) est un sous Kev de KI Définition 3.1.1 Soit E un Kev. ξ = (ei )i∈I ξ est une famille génératrice de E si et seulement si ∀x ∈ E, ∃(αi ) ∈ K(I) X tq x= αi ei i∈I ξ est une famille libre de E si et seulement si ∀(αi )i ∈ K(I) X αi ei = 0 ⇒ ∀i ∈ I, αi = 0 ξ est une base de E si et seulement si ∀x ∈ E, ∃!(αi )i ∈ K(I) , x = X αi ei i∈I 3.2 Espace dual Définition 3.2.1 Soit E un Kev. On appelle forme linéaire sur E toute a.l. de E dans K (K considéré comme un Kev). On note L(E, K) l’ensemble des formes linéaires sur E. L(E, K) : = espace dual de E. On le note E ∗ . Si E admet la base (ei )i∈I alors E ∗ est isomorphe à KI E ' K(I) E ∗ ' KI Définition 3.2.2 E, F, G trois Kev , ϕ : E × F → G application. ϕ est une application bilinéaire si et seulement si : ∀y ∈ F, ϕy : x 7→ ϕ(x, y) est linéaire de E dans G 00 00 00 ∀x ∈ E, ϕx : y 7→ ϕ(x, y) 8 Proposition 3.2.3 E un Kev, E ∗ son dual. E∗ × E → K est bilinéaire L’application ∗ ∗ (y , x) 7→< y , x > On l’appelle “crochet de dualité”. 3.2.1 Orthogonal Théorème 3.2.4 Pour tout x ∈ E, l’ensemble x⊥ = {y ∗ ∈ E ∗ , < y ∗ , x >= 0} est un sev de E ∗ appelé sous espace orthogonal de x. Plus généralement, si A ⊂ E, on pose A⊥ = {y ∗ ∈ E ∗ , ∀a ∈ A, < y ∗ , a >= 0} A⊥ est un sev de E ∗ , appelé sous espace orthogonal de A. Proposition 3.2.5 E ⊥ = {0} Théorème 3.2.6 Pour tout y ∗ ∈ E ∗ , on pose (y ∗ )◦ = {x ∈ E, < y ∗ , x >= 0} (y ∗ )◦ est un sev de E appelé sous espace orthogonal de y ∗ si A∗ ⊂ E ∗ , (A∗ )◦ = {x ∈ E, ∀a∗ ∈ A∗ , < a∗ , x >= 0} (A∗ )◦ est un sev de E, appelé sous espace orthogonal de A∗ . Définition 3.2.7 y ∗ ∈ E ∗ et x ∈ E sont orthogonaux si et seulement si < y ∗ , x >= 0 B ∗ ⊂ E ∗ et A ⊂ E sont orthogonaux si et seulement si ∀y ∗ ∈ B ∗ , ∀x ∈ A, < y ∗ , x >= 0 Proposition 3.2.8 B ∗ et A sont orthogonaux ssi B ∗ ⊂ A⊥ ssi A ⊂ (B ∗ )◦ Proposition 3.2.9 A, B parties de E, si A ⊂ B alors B ⊥ ⊂ A⊥ Proposition 3.2.10 ∀A ⊂ E , A⊥ = (vect A)⊥ Proposition 3.2.11 ∀A ⊂ E , A ⊂ (A⊥ )◦ Remarque : A∗ ⊂ B ∗ ⇒ (B ∗ )◦ ⊂ (A∗ )◦ , (A∗ )◦ = (vect A∗ )◦ , A∗ ⊂ ((A∗ )◦ )⊥ 3.2.2 Bidual Définition 3.2.12 On appelle bidual de l’espace vectoriel E, l’espace dual de E. On le note E ∗∗ . E ∗∗ × E ∗ → K (x∗∗ , y ∗ ) 7→ x∗∗ (y ∗ ) =< x∗∗ , y ∗ > Soit x ∈ E, on pose x̂ : E∗ → K y ∗ 7→< y ∗ , x > =< x̂, y ∗ > x̂ est linéaire. E → E ∗∗ est linéaire x 7→ x̂ On l’appelle application linéaire canonique de E dans E ∗∗ . Théorème 3.2.13 ψ : 9 3.2.3 Transposition : E, F des Kev, u ∈ L(E, F ). F ∗ → E∗ on pose t u : ∗ t y 7→ u(y ∗ ) = y ∗ ◦ u. C’est la transposée de u. Théorème 3.2.14 si u ∈ L(E, F ) alors t u ∈ L(F ∗ , E ∗ ) Autre écriture de la transposée ∀y ∗ ∈ F ∗ ∀x ∈ E (t u(y ∗ ))(x) = y ∗ (u(x)) 00 t ie “ < u(y ∗ ), x >=< y ∗ , u(x) > Théorème 3.2.15 L’application L(E, F ) → L(F ∗ , E ∗ ) est linéaire u 7→t u On l’appelle transposition. Proposition 3.2.16 t 1) Pour tous u ∈ L(E, F ) , v ∈ L(F, G) (v ◦ u) =t u ◦t v. 2) t (IdE ) = IdE ∗ 3) Si u ∈ L(E, F ) est bijective alors t u est bijective et t (u−1 ) = (t u)−1 4) Soit u ∈ L(E, F ) alors Ker(t u) = (Im u)⊥ Corollaire 3.2.17 Si u est surjective alors t u est injective. Théorème 3.2.18 ψE , ψF les applications canoniques E → E ∗∗ , F → F ∗∗ alors pour tout u ∈ L(E, F ), l’élément t (t u) ∈ L (E ∗∗ , F ∗∗ ) vérifie t (t u) ◦ ψE = ψF ◦ u 3.3 Dualité en dimension finie E, F sont des Kev de dimension finie pour tout ce paragraphe. Théorème 3.3.1 dim E = dim E ∗ si E de dimension finie. 3.3.1 Base duale (e1 , . . . , en ) base de E. On définit e∗i ∈ L(E, K) par e∗i (ej ) = δij . (e∗1 , . . . , e∗n ) est la base duale de (e1 , . . . , en ). Proposition 3.3.2 Si E est de dimension finie, (E ∗ )0 = {0} Théorème 3.3.3 ψ : E → E ∗∗ application canonique Si dim E finie alors ψ est un isomorphisme. Théorème 3.3.4 E est un Kev de dimension finie. L’application qui a toute base de E associe sa duale est une bijection de l’ensemble des bases de E sur l’ensemble des bases de E ∗ . 10 Proposition 3.3.5 E, F de dimension finie. La transposition est un isomorphisme de L(E, F ) sur L(F ∗ , E ∗ ). Théorème 3.3.6 E un Kev de dimension finie, E ∗ son dual. Pour tout sous espace vectoriel F de E, on a dim F + dim F ⊥ = dim E et F = (F ⊥ )0 Pour tout sous espace G∗ de E ∗ , on a dim G∗ + dim(G∗ )0 = dim E et G∗ = (G∗0 )⊥ Corollaire 3.3.7 E, F des Kev de dimension finie, u ∈ L(E, F ) rg u = rg t u. 3.4 Transposition et matrices Définition 3.4.1 M = (aij ) 1≤i≤n dans Mnp (K) 1≤j≤p On appelle matrice transposée de M et on note t M , l’élément de Mpn (K) , t M = (bij ) défini par 1≤i≤p 1≤j≤n ∀(i, j) ∈ Np × Nn , bij = aji Théorème 3.4.2 E Kev de dimp > 0, F Kev de dim n > 0 (e1 , ep ) base de E (f1 , . . . , fn ) base de F u ∈ L(E, F ) On note M = M at(f,e) u Alors t M = M at(e∗ ,f ∗ ) t u où e∗ base duale de e et f ∗ base duale de f . Corollaire 3.4.3 1) M →t M est un isomorphisme de Mnp (K) dans Mpn (K) 2) si le produit BA existe alors le produit t At B existe et t (BA) =t At B 3) Si A est une matrice carrée inversible alors t A est inversible et (t A)−1 =t (A−1 ) 11 Chapitre 4 Déterminant 4.1 Applications multilinéaires K = R ou C ou Q dans tout le chapitre. 4.1.1 Définitions K corps commutatif, E1 , . . . , Ep , F des Kev. f : E1 × . . . × Ep → F est p linéaire si et seulement si ∀j ∈ {1, . . . , p}, ∀ak ∈ Ek k ∈ {1, . . . , p}\{j} Ej → F est linéaire l’application x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ap ) Notation : σ ∈ Sn f : Ep → F Ep → F fσ : (x1 , . . . , xp ) 7→ f (xσ(1) , . . . , xσ(p)) Définition 4.1.1 f : E p → F p linéaire f est symétrique si et seulement si ∀σ ∈ Sn , f σ = f f est antisymétrique si et seulement si ∀σ ∈ Sn , (σ)f = f σ f est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p , si ∃i, j ∈ {1, . . . , p} tq i 6= j et xi = xj alors f (x1 , . . . , xp ) = 0 Proposition 4.1.2 {f : E1 ×. . .×Ep → F p linéaires} est un sev de l’ev des applications de E1 × . . . × Ep → F . On le note Lp (E1 , . . . , Ep ; F ) ou Lp (E p , F ) si Ei = E Ap (E, F ) = {f ∈ Lp (E p , F ) , f alternée} est un sev deLp (E p , F ). 00 00 Sp (E, F ) = { f symétrique} est un sev deLp (E p , F ). Proposition 4.1.3 f : E p → F p linéaire f est alternée ⇐⇒ f est antisymétrique 12 4.1.2 Propriétés a) Soit (x1 , . . . , xp ) ∈ E p , on suppose qu’ ∃i ∈ {1, . . . , p} tq xi = 0 alors f (x1 , . . . , xp ) = 0 b) f ∈ Ap (E, F ) p X f (x1 , . . . , xp ) = f (x1 , . . . , xi + λj xj , xi+1 , . . . , xp ) j=1,j6=i c)f ∈ Ap (E, F ) si x1 , . . . , xp sont liés alors f (x1 , . . . , xp ) = 0 conséquence : si E est de dimension finie et dim E < p alors Ap (E, F ) = {0} d)Théorème : f ∈X Lp (E p , F ) On pose A(f ) = (σ)f σ σ∈Sp A(f ) est l’antisymétrisée de f A(f ) est alternée. 4.2 Déterminants E un Kev de dimension finie n. On note An (E, K) = An (E) E admet une base (e1 , . . . , en ) = e E ∗ admet la base duale (e∗1 , . . . , e∗n ) 4.2.1 Déterminant dans la base e Proposition 4.2.1 f : E n → K Qest une forme n linéaire (x1 , . . . , xn ) 7→ ni=1 < e∗i , xi > On considère l’antisymétrisée de f , appelée déterminant dans la base e et notée n Y X dete (x1 , . . . , xn ) = (σ) < e∗i , xσ(i) > σ∈Sn i=1 On a dete (e1 , . . . , en ) = 1 Théorème 4.2.2 An (E) =< dete > Définition 4.2.3 dete (x1 , . . . , xn ) = déterminant dans la base e du système des vecteurs (x1 , . . . , xn ). det(x1 , . . . , xn ) = e X (σ) σ∈Sn = X σ∈Sn 13 (σ) n Y j=1 n Y j=1 < e∗j , xσ(j) > < e∗σ(j) , xj > 4.2.2 Application aux bases d’un espace vectoriel Proposition 4.2.4 Soit E un Kev de dimension non nulle n et a = (a1 , . . . , an ) une base de E. Alors pour toute base e de E, dete (a1 , . . . , an ) 6= 0. Proposition 4.2.5 Soit E un Kev de dimension n ≥ 1. Tout système lié de n vecteurs de E admet un déterminant nul dans toute base de E. Corollaire 4.2.6 E un Kev de dimension n ≥ 1, e base de E. Un système de n vecteurs est libre si et seulement si le déterminant de ce système dans la base e est non nul. 4.2.3 Déterminant d’un endomorphisme Théorème 4.2.7 Soit E un Kev de dimension n ≥ 1 u ∈ L(E) u endomorphisme de E Il existe un unique scalaire, appelé déterminant de u et noté det u, tq ∀f ∈ An (E), ∀(x1 , . . . , xn ) ∈ E n , f (u(x1 ), . . . , u(xn )) = (det u)f (x1 , . . . , xn ). Remarque : dete (u(e1 ), . . . , u(en )) = det u Proposition 4.2.8 E un Kev de dimension n ≥ 1 1) det IdE = 1 2) ∀λ ∈ K , ∀u ∈ L(E) , det(λu) = λn det u 3) ∀u ∈ L(E) , dett u = det u 4)∀(u, v) ∈ L(E)e det v ◦ u = (det v)(det u) Conséquence : Soit E un Kev de dimension finie n ≥ 1 u ∈ L(E) u est inversible si et seulement si det u 6= 0 On a alors det u−1 = (det u)−1 4.2.4 Déterminant d’une matrice carrée Définition 4.2.9 Soit M = (aij )i,j une matrice n × n de K. déterminant de M = det M = déterminant du système des vecteurs colonnes de M dans la base canonique de Kn a11 a12 . . . . . . a1n .. . M = ai1 . . . aij . . . ain . .. an1 . . . . . . . . . ann 14 a11 . . . . . . a1n det M = ... an1 . . . . . . ann det M = X (σ) σ∈Sn = X (σ) σ∈Sn n Y j=1 n Y ajσ(j) aσ(j)j j=1 Remarque : det M = dett M . Propriétés : 1) Si on échange deux colonnes d’une matrice, son déterminant est transformé en son opposé 2)Le déterminant d’une matrice dépend linéairement de chacun de ses vecteurs colonnes 3) Le déterminant d’une matrice ne change pas quand on ajoute à un de ses vecteurs colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si l’un des vecteurs colonnes est combinaison linéaire des autres. 4) idem avec les vecteurs lignes. Théorème 4.2.10 E Kev de dimension finie n ≥ 1 Soit u ∈ L(E), e une base de E, M = mate u Alors det u = det M Remarque : det u est indépendant de la base. Propriété : a) det I = 1 b) ∀λ ∈ K ∀M ∈ Mn (K) det λM = λn det M c) ∀(M, N ) ∈ (Mn (K))2 det N M = det N det M d) M est inversible si et seulement si det M 6= 0 −1 On a alorsdet(M −1 ) = (det M ) . A C e) si M = , det M = det A det B 0 B 15 Chapitre 5 Diagonalisation -Trigonalisation 5.1 Sous espaces propres E est un Kev de dimension finie ou infinie. Rappel : E un Kev, F ⊂ E, u ∈ L(E) F stable par u si et seulement si u(F ) ⊂ F . Définition 5.1.1 : E un Kev, u ∈ L(E) S’il existe λ ∈ K, x ∈ E\{0} tq u(x) = λx alors on dit que λ est une valeur propre de u et que x est un vecteur propre de u, associé à la valeur propre λ. Définition 5.1.2 : Spectre de u = Sp u = {λ ∈ K, λ vp de u} Théorème 5.1.3 u ∈ L(E) , λ ∈ K , E(λ) = Ker(u − λIdE ) λ vp de u ⇔ u − λ IdE non injective ⇔ Ker(u − λ IdE ) 6= {0} Définition 5.1.4 : u ∈ L(E), λ vp de u, E(λ) = Ker(u − λIdE ) est le sous espace propre de u associé à λ. Théorème 5.1.5 : u ∈ L(E), λ1 , ..., λn des valeurs propres deux à deux distinctes de u. Alors la somme E(λ1 ) + ... + E(λn ) est directe. On pose Ei = E(λi ). Généralisation : soit (λi )i∈I une famille de vp deux à deux distinctes de u. On appelle X X Mi l’ensemble des sommes xi où (xi )i∈I parcourt l’ensemble des familles presque i∈I i∈I nulles d’élements de E tq xi ∈ Mi pour tout i ∈ I. La somme des sous espaces propres associés aux λi est directe. X Définition 5.1.6 : u ∈ L(E), Ker(u − λIdE ) est directe. λ∈Spu Lorsque M Ker(u − λIdE ) = E on dit que u est diagonalisable. λ∈Spu 16 Théorème 5.1.7 : u, v ∈ L(E). On suppose u ◦ v = v ◦ u 1) Tout sous espace propre de u est stable par v. 2) Ker u et Im u sont stables par v. 5.2 Diagonalisation - Trigonalisation Notation : E un Kev de dimension finie non nulle n. u ∈ L(E), IdE : M = M ate u, M = (aij )1≤i,j≤n 5.2.1 E → E, I = Matrice unité n × n x → x, e base de E Polynôme caractéristique d’une matrice λ est un vp de u ssi λIdE − u est non inversible ssi λI − M non inversible ssi det(λI − M ) = 0 XI − M est une matrice à coef dans K(X). Son déterminant est un polynôme dont les racines sont les vp de u. On appelle polynôme caractéristique de M , le déterminant de XI − M . On le note χM X − a11 −a12 . . . −a 1n −a21 X − a22 −a2n χM (X) = .. . −an1 ... X − ann Proposition 5.2.1 M et t M ont le même polynôme caractéristique. 5.2.2 Polynôme caractéristique d’un endomorphisme Théorème 5.2.2 : u ∈ L(E), dimE = n ≥ 1 Le polynôme caractéristique de la matrice qui représente u dans une base de E est indépendant du choix de cette base. On l’appelle polynôme caractéristique de u, on le note χu . Les vp de u sont les racines de χu , l’ordre de multiplicité d’une racine λ de χu , est dite multiplicité de la valeur propre λ de u. Proposition 5.2.3 : u et t u ont le même polynôme caractéristique. Théorème 5.2.4 : u ∈ L(E), E 0 sev de E stable par u de dim p ≥ 1. On a u|E0 ∈ L(E 0 ). On pose u0 = u|E0 Alors χu0 divise χu . 17 5.2.3 Détermination pratique des vp et Vp 5.2.4 Valeurs propres et vecteurs propres d’une matrice M ∈ Mn (K) Ce sont les vp et Vp de l’endomorphisme canoniquement associé à M . u : Kn → Kn 5.2.5 M at u = M Endomorphismes diagonalisables Définition 5.2.5 : P est scindé si et seulement si P est constant ou P admet des racines dans K dont la somme des ordres de multiplicité est égale au degré de P . Théorème 5.2.6 : E de dimension n ≥ 1, u ∈ L(E). Les propriétés suivantes sont équivalentes : 1) u est diagonalisable. 2) Il existe e base de E telle que M ate u soit diagonale. 3) Le polynôme caractéristique de u est scindé sur K et pour toute vp de u, la multiplicité est égale à la dimension du sev propre associé. Corollaire 5.2.7 Tout endomorphisme de E Kev de dimension n qui admet n valeurs propres différentes est diagonisable. Définition 5.2.8 : M ∈ Mn (K) M est diagonisable si et seulement si l’endomorphisme canoniquement associé à M est diagonisable. si et seulement si il existe P ∈ Mn (K) inversible, il existe D diagonalisable telle que M = P DP −1 . 5.2.6 Endomorphismes trigonalisables Définition 5.2.9 : E un Kev de dimension n ≥ 1, u ∈ L(E) u est trigonalisable si et seulement si il existe e base de E telle que M ate u est triangulaire. Théorème 5.2.10 : u est trigonalisable si et seulement si χu est scindé sur K. Définition 5.2.11 : M trigonalisable ssi l’endomorphisme de Kn associé à M est trigonalisable ssi il existe P inversible telle que T = P −1 M P avec T triangulaire ssi χM est scindé sur K 18 Chapitre 6 Formes bilinéaires symétriques Formes quadratiques 6.1 Formes bilinéaires symétriques : E est un Kev, E 6= {0}, K = R, C ou Q. Notation : On note B(E) = {formes bilinéaires sur E}. BS(E) = {formes bilinéaires symétriques sur E} Si E est de dimension finie, f ∈ B(E), on note [f ]E = (f (ei , ej ))1≤i,j≤n où E = (ei , . . . , en ) est une base de E. Théorème 6.1.1 : On suppose E de dimension finie. 1) B(E) → Mnn (K) est un isomorphisme vectoriel f 7→ [f ]E et dim B(E) = n2 2) On note Sn (K) = {matrice symétrique n × n sur K} BS(E) → Sn (K)est un isomorphisme d’ev f 7→ [f ]E . dim BS(E) = n(n+1) . 2 Remarque : si E est de dimension finie, E base de E f ∈ B(E) A = [f ]E 19 x1 X = ... xn y1 Y = ... yn On a f (x, y) =t XAY =t Y t AX si de plus, A est symétrique, f (x, y) =t Y AX Changement de base : n n X X 0 si x = xi fi y = yi0 f i i=1 On pose P = M atEF Id. si B = [f ]F , i=1 On a X = P X 0 B =t P AP Applications associées : f ∈ B(E), si x ∈ E, on note E → E∗ y → f (., y) J : E → E∗ x → f (x, .) I: I et J sont linéaires de E dans E ∗ . On suppose que E est de dimension finie. On a : [f ]E = M atE ∗ E I =t M atE ∗ E J I et J sont transposées l’une de l’autre. Définition 6.1.2 : Soit E un Kev de dimension finie. f ∈ B(E) rang de f = rang de I = rang de J Théorème 6.1.3 : Le rang d’une forme bilinéaire sur un ev de dimension finie est égal au rang de la matrice de cette forme dans toute base de E. Définition 6.1.4 : E de dimension n, si rang de f = n, on dit que f est non dégénérée. Sinon f est dite dégénérée. f non dégénérée ⇔ det[f ]E 6= 0. 6.2 Formes quadratiques : E un Kev de dimension finie, f ∈ B(E) f est symétrique si et seulement si ∀ E base de E, [f ]E est symétrique. 20 On pose Q(x) = f (x, x) On a Q(λx) = λ2 Q(x) pour tout x ∈ E, λ ∈ K f (x, y) = 12 (Q(x + y) − Q(x) − Q(y)) pour tout (x, y) ∈ E 2 . Définition 6.2.1 : E de dimension finie Une forme quadratique sur E est une application Q : E → K qui s’exprime dans chaque base de E sous la forme d’un polynôme homogène de degré 2 des variables coordonnées ou est identiquement nul. Théorème 6.2.2 : E de dimension finie, Q : E → K Q est une forme quadratique si et seulement si 1)∀x ∈ E, ∀λ ∈ K Q(λx) = λ2 Q(x) B 2) L’application (x, y) 7−→ 12 (Q(x + y) − Q(x) − Q(y)) est bilinéaire. De plus, on a alors B(x, x) = Q(x). Théorème 6.2.3 L’application qui a toute forme bilinéaire symétrique B fait correspondre la f q associée définie par Q(x) = B(x, x) est un isomorphisme de BS(E) sur l’espace des formes quadratiques sur E Q = f q associé à B B = f b associé à Q ou forme polaire associée à Q rang forme quadratique Q := rang B. discriminant de Q := discriminant de f . 6.3 6.3.1 Orthogonalité Définitions : Définition 6.3.1 : f ∈ BS(E) x et y sont orthogonaux par rapport à f si et seulement si f (x, y) = 0. A⊂E A⊥ = {y ∈ E, ∀x ∈ A, f (x, y) = 0} Proposition 6.3.2 : E de dimension quelconque, f ∈ BS(E) 1) ∀A ⊂ E , A⊥ est un sev de E. 2) {0}⊥ = E 3) (A ∪ B)⊥ = A⊥ ∩ B ⊥ 4) A → A⊥ décroissante pour l’inclusion 5) A⊥ + B ⊥ ⊂ (A ∩ B)⊥ 6) A⊥ = (vect A)⊥ 7) A ⊂ (A⊥ )⊥ . Proposition 6.3.3 : E de dimension quelconque. F, G sev de E (F + G)⊥ = F ⊥ ∩ G⊥ . 21 6.3.2 Noyau : Remarque : si B ∈ BS(E), I=J Définition 6.3.4 : Le noyau de la f q Q sur E est le noyau de l’application I : E → E ∗ associée à la forme polaire B de Q. N = noyau de Q = {x ∈ E, ∀y ∈ E, B(x, y) = 0} = E⊥ Proposition 6.3.5 : si dim E est fini Une f q est non dégénérée si et seulement si sa forme polaire est non dégénérée, si et seulement si son noyau est réduit à {0}. Théorème 6.3.6 E de dimension finie. Q une forme quadratique non dégénérée de forme polaire B. Pour toute forme linéaire ϕ sur E, il existe un unique y ∈ E telle que ϕ(x) = B(x, y) pour tout x ∈ E. Théorème 6.3.7 E de dimension finie. Q une f q non dégénérée. Pour tout sev H de E, on a 1) dim H + dim H ⊥ = n 2) (H ⊥ )⊥ = H. Conséquence : si A ⊂ E (A⊥ )⊥ = Vect A. Remarque : M = (aij ) 1≤1≤m 1≤j≤n rang de M = ordre du plus grand déterminant extrait de M non nul = dim < vect colonnes de M > (S) 1≤i≤n n X aij xj = o j=i rang du système (S) = rang de M Si rang de (S) est r alors l’ensemble des solutions de (S) forme un sev de Kn de dimension n − r. Définition 6.3.8 : E muni d’une forme quadratique q x ∈ E, x est isotrope si et seulement si q(x) = 0 H ⊂ E, H est isotrope si et seulement si H ∩ H ⊥ 6= {o} H est totalement istrope si et seulement si H ⊂ H ⊥ Proposition 6.3.9 : E de dimension finie, H ⊂ E, q f q sur E Si H est non isotrope alors E = H ⊕ H ⊥ . 22 Définition 6.3.10 : E de dimension finie, q f q sur E La base (e1 , . . . , en ) est orthogonale (pour q) si et seulement si ∀i 6= j B(ei , ej ) = 0 La base (e1 , . . . , en ) est orthonormale si et seulement si B(ei , ej ) = δij Théorème 6.3.11 Pour toute forme quadratique q sur un espace vectoriel de dimension finie, il existe une base orthogonale. Il n’existe pas forcément de base orthonormale. Proposition 6.3.12 : Soit E un Kev de dimension finie. Pour toute f q q sur E, ∃ base de E telle que la matrice de q dans cette base soit diagonale i.e telle que l’on ait dans cette base q(x) = n X λi x2i i=1 6.4 Classification des formes quadratiques Définition 6.4.1 2 formes quadratiques q1 et q2 sur E sont équivalentes si et seulement il existe ϕ automorphisme de E telle que ∀x ∈ E, q1 (x) = q2 (ϕ(x)) Théorème 6.4.2 Toute forme quadratique de rang r sur Cn est équivalente à la forme x21 + . . . + x2n Pour toute f q non dégénérée sur Cn , il existe une base orthonormale (r = n). Théorème 6.4.3 (Théorème de la loi d’inertie de sylvester) Soit q une f q sur Rn de rang r. q est équivalente à une forme du type x21 + . . . + x2p − x2p+1 . . . − x2r où p ne dépend que de q. (p, r − p) := signature de q. Définition 6.4.4 Une fq sur Rn est définie positive ssi sa signature est (n, 0) ” ” négative ssi sa signature est (0, n) Une fq de rang r est dite positive ssi sa signature est (r, 0) ” ” négative ssi sa signature est (0, r) au lieu de signature, on dit de type (p, q) 23 Chapitre 7 Espaces Euclidiens 7.1 Définition - Exemples : Un espace euclidien est défini par la donnée - d’un espace vectoriel E de dimension finie sur R - d’une forme quadratique Q définie positive sur E La forme bilinéaire s associée à Q s’appelle le produit scolaire associé à Q 7.2 Métrique associé à un espace euclidien de dim n Théorème 7.2.1 E espace euclidien Q forme quadratique définie positive. On pose N (x) = (Q(x))1/2 N est une norme sur E appelée norme euclidienne associée à (E, Q). On peut alors définir sur E une structure métrique en posant d(x, y) = N (x − y). Théorème 7.2.2 (E, Q) espace euclidien, B la f.b. symétrique associée à Q. Pour tout (x, y) ∈ E 2 , on a (B(x, y))2 ≤ Q(x)Q(y) l’égalité n’étant réalisée que si x et y sont colinéaires, Inégalité de Cauchy Schwarz. 7.3 7.3.1 Propriétés des espaces euclidiens Sous espace euclidien (E, Q) espace euclidien, F sev de E. Q |F est une forme quadratique définie positive qui définit sur F une structure d’espace euclidien. On dit que F est un sous espace euclidien de E. 24 7.3.2 Produit d’espaces euclidiens (E1 , Q1 ) espace euclidien, (E2 , Q2 ) espace euclidien. E = E1 × E2 . x = (x1 , x2 ) 7→ Q(x) = Q1 (x1 ) + Q2 (x2 ) Q est une forme quadratique définie positive sur E (E, Q) espace euclidien produit. B(x, y) = B(x1 , y1 ) + B(x2 , y2 ) 7.3.3 Orthogonalité Théorème 7.3.1 Pour tout espace euclidien (E, Q) de dimension finie, pour tout sev F de E, on a E = F ⊕ F ⊥ On dit que F ⊥ est le supplémentaire orthogonal de F . Théorème 7.3.2 (E, Q) espace euclidien M F1 , . . . , Fk sev deux à deux orthogonaux tq E = Fi i X si x = xi est la décomposition sur les Fi de x on a i Q(x) = n X Q(xi ) i=1 Relation de Parseval Q(x) = n X (B(x, ei ))2 valable pour toute bon i=1 Définition 7.3.3 (E, Q) espace euclidien, e1 , . . . , ep des vecteurs de E (e1 , . . . , ep ) forme un système orthonormal si et seulement si ils sont deux à deux orthogonaux et leur norme égale à 1. ie B(ei , ej ) = δij Remarque : : Un système orthonormal est libre. Toute partie d’un système orthonormal est orthonormal. Théorème 7.3.4 Tout système orthonormal d’un espace euclidien de dimension finie peut être complété en une base orthonormale. Théorème 7.3.5 Procédé d’orthonormalisation de Schmidt. Soit (v1 , . . . , vn ) base quelconque de l’espace euclidien (E, Q) ∃ ! (e1 , . . . , en ) b ◦ n de E tq ∀p ∈ {1, . . . , n} ∀p ∈ {1, . . . , n} B(ep , vp ) > 0 (7.1) < e1 , . . . , ep >=< v1 , . . . , vp > (7.2) 25 7.4 Groupe orthogonal réel (E, Q) espace euclidien. G = {ϕ ∈ L(E), ϕ bijective, ∀(x, y) ∈ E 2 , B(ϕ(x), ϕ(y)) = B(x, y)} (G, ◦) est un groupe appelé groupe orthogonal de Q. On le note 0(Q). Remarque : ∀(x, y) ∈ E 2 B(ϕ(x), ϕ(y)) = B(x, y) ⇔ ∀x ∈ E Q(ϕ(x)) = Q(x) ϕ conserve B ou ϕ conserve Q Définition 7.4.1 Si M vérifie t M M = In , on dit que M est orthogonale. On a (det M )2 = 1 26