Chapitre 1 Groupes

publicité
Chapitre 1
Groupes
1.1
1.1.1
Définitions et exemples
Groupes :
G ensemble non vide muni d’une loi de composition interne notée ∗
g, g 0 ∈ G, g ∗ g 0 est défini comme un élément de G
(G, ∗) est un groupe si et seulement si ∗ est associative, possède un élément neutre e, tout
élément admet un symétrique.
Si de plus ∗ est commutative, (G, ∗) est un groupe commutatif.
Si G est un ensemble fini, card G s’appelle l’ordre du groupe.
Remarque : l’élément neutre est unique.
1.1.2
Morphisme :
(G, ∗), (G0 , 4) deux groupes, f : G → G0
f est un morphisme de groupe si et seulement si
∀(x, y) ∈ G,
f (x ∗ y) = f (x)4f (y)
Remarque : e élément neutre de G, e0 de G0
On a f (e) = e0
si on note x−1 le symétrique de x
f (x−1 ) = f (x)−1
Proposition 1.1.1 : Si f est bijective et morphisme de groupe alors f −1 est un morphisme de G0 sur G.
On dit alors que f est un isomorphisme de G sur G0 .
Remarque : f : G → G isomorphisme, on dit que f est un automorphisme.
1
1.2
1.2.1
Sous groupes
Définition-Propriétés
H ⊂ G, (H, ×) groupe pour la loi induite par celle de G.
Théorème 1.2.1 (G, ×) un groupe d’élément neutre e.
Les propositions suivantes sont équivalentes :
1)H est un sous groupe de G
2)H est stable, e ∈ H et ∀x ∈ H, x−1 ∈ H
3)H est stable, H 6= φ et ∀x ∈ H, x−1 ∈ H
4)H 6= φ et ∀(x, y) ∈ H 2 , xy −1 ∈ H
Remarque : H sous groupe de G, K sous groupe de H alors K sous groupe de G
Proposition 1.2.2 G, G0 deux groupes f : G → G0 morphisme
1) f (G) est un sous groupe de G0
2) si H 0 sous groupe de G0 alors f −1 (H 0 ) est un sous groupe de G.
3) f injective ⇔ f −1 ({e0 }) = {e}.
On note Kerf cet ensemble.
Proposition 1.2.3 (G, +) un groupe, H et H 0 des sous groupes de G alors H ∩ H 0 est
un sous groupe.
Remarque : On peut généraliser à une intersection quelconque de sous groupes.
H ∪ H 0 n’est pas un sous groupe en général
Proposition 1.2.4 Tous les sous groupes de (Z, +) sont de la forme nZ, n ∈ N
1.2.2
Sous groupe engendré
G un groupe, A ⊂ G, existe-t-il un plus petit sous groupe de G contenant A ?
C’est à dire si A = {sous
\ groupe de G contenant A}, ordonné par ⊂, A possède-t-il un
H est un sous groupe.
plus petit élément ?
H∈A
\
H et c’est le plus petit élément de A
A ⊂ H pour tout H ∈ A donc A ⊂
H∈A
On l’appelle le sous groupe engendré par A. On le note [A]
Exemple : (G, ×) un groupe, a ∈ G, [a] = {an , n ∈ Z}
Définition 1.2.5 ordre d’un élément
Théorème 1.2.6 G groupe fini, a ∈ G
L’ordre de a divise l’ordre de G.
Théorème 1.2.7 Soit(G, ×) groupe fini d’ordre n,
alors ∀a ∈ G, an = e
Remarque : notation additive [a] = {na , n ∈ Z}.
2
1.3
1.3.1
Groupe symétrique de {1, . . . , n} : Sn
Sn :
Proposition 1.3.1 Sn ={bijections de {1, . . . , n} sur lui même}. On pose I = {1, . . . , n}.
Sn groupe fini d’ordre n ! Les éléments de Sn s’appellent des permutations.
Sn groupe fini d’ordre n !
1
2 ... ... n
notation : σ :
σ(n)
σ(1) σ(2)
1 2 3
exemple : σ =
3 2 1
Définition 1.3.2 : t ∈ Sn est une transposition s’il existe i, j dans I tq i 6= j , t(i) = j ,
t(j) = i
et ∀k ∈ I\{i, j} , t(k) = k.
Proposition 1.3.3 t une transposition de Sn .
On a t ◦ t = IdI
t−1 = t
Définition 1.3.4 1 ≤ i1 , i2 , . . . , ir ≤ n, r ≥ 2
le cycle associé à i1 , . . . , ir est la permutation γ de Sn tq
γ(i1 ) = i2 , . . . , γ(ir−1 ) = ir , γ(ir ) = i1
γ(k) = k si k ∈ I\{i1 , . . . , ir }
On note γ = (i1 , . . . , ir )
r = longueur du cycle γ
Remarque : L’ordre d’un cycle de longueur r et r.
si γ = (i1 , . . . , ir )
γ −1 = (ir , ir−1 , . . . , i1 )
Définition 1.3.5 γ = (i1 , . . . , ip ) et γ 0 = (j1 , . . . , jq ) sont disjoints si et seulement si
{i1 , . . . , ip } ∩ {j1 , . . . , jq } = φ.
remarque : 2 cycles disjoints commutent.
1.3.2
Théorème de décomposition :
Théorème 1.3.6 Toute permutation de Sn , n ≥ 2 est un produit pour ◦ de transpositions.
L’ensemble des transpositions de Sn engendrent Sn .
1.3.3
Signature d’une permutation :
Théorème 1.3.7 Il existe un unique morphisme de (Sn , ◦) dans le groupe multiplicatif
{1, −1} tq
1) (t) = −1 pour toute transposition t.
2) si σ ∈ Sn est produit de s transpositions alors (σ) = (−1)s .
3
Définition 1.3.8 (σ) = signature de σ.
Remarque :
(IdI ) = 1
(σ1 σ2 ) = (σ1 )(σ2 )
(σ −1 = (σ)
Calcul pratique d’une signature :
a) On décompose σ en produit de transpositions.
Y σ(j) − σ(i)
b) (σ) =
j−i
i<j
c) si γ est un cycle de longueur r, (γ) = (−1)r+1
4
Chapitre 2
Anneaux et Corps
2.1
2.1.1
Anneau :
Définitions :
A ensemble muni de 2 lois de composition interne notées par exemple + et ×.
(A, +, ×) est un anneau si et seulement si
• (A, +) groupe commutatif
• • × associative
• • • × distributive par rapport à +
• • • • × possède un élément neutre noté 1
L’anneau est commutatif si la multipication est commutative.
On a les règles de calculs suivantes :
1) 0x = x0 = 0
2) (−x)y = −(xy)
où − x = symétrique de x
3) (−x)(−y) = xy
Dans un anneau, xy = 0 n’implique pas x = 0 ou y = 0.
Définition 2.1.1 a ∈ A ,
a est un diviseur de 0 si et seulement si a ∈ A\{0} et il
existe b ∈ A\{0} tq ab = ba = 0.
On pose A∗ = A\{0}.
A est un anneau intègre si et seulement si A 6= {0}, A commutatif et A n’admet pas de
diviseur de 0.
Définition 2.1.2 élément inversible d’un anneau A 6= {0}.
a ∈ A, a est inversible si et seulement si il existe b ∈ A tq ab = ba = 1, b est alors unique.
On le note a−1
Proposition 2.1.3 L’ensemble des éléments inversibles de A est un groupe multiplicatif.
5
2.1.2
Formules dans un anneau A
a) I, J ensembles
!
!finis, (ai )i∈I éléments de A , (bj )j∈J éléments de A
X
X
X
ai
bj =
ai bj
i∈I
j∈J
(i,j)∈I×J
b) Si A est commutatif, n ∈ N∗ , a, b ∈ A
n−1
X
n
n
a − b = (a − b)
ak bn−k−1
(a + b)n =
n
X
k=0
Cnk ak bn−k
k=0
si A n’est pas commutatif, il suffit d’avoir ab = ba.
2.1.3
Morphisme d’anneau
f : A → B est
un morphisme d’anneau si et seulement si
f (x + y) = f (x) + f (y)
et f (1{A} ) = 1B
∀(x, y) ∈ A2
f (xy) = f (x)f (y)
Remarque : si a est inversible dans A alors f (a) est inversible dans B et f (a−1 ) = (f (a))−1
2.1.4
Sous anneaux
Définition 2.1.4 (A, +, ×) un anneau, B ⊂ A
B est un sous anneau de A si et seulement si
. B est un sous-groupe additif de A
. B est stable pour ×
. B contient l’élément neutre 1
Proposition 2.1.5 f : A → A0 morphisme d’anneaux, B ⊂ A, B 0 ⊂ A0 . On suppose B
sous anneau de A, B 0 sous anneau de A
Alors f (B) est un sous anneau de A0 et f −1 (B 0 ) est un sous anneau de A
Proposition 2.1.6 Une intersection quelconque de sous anneau de A est un sous
\ anneau
de A. On peut définir le sous anneau engendré par une partie B comme
A
B⊂A
A anneau
2.2
Corps :
On appelle corps tout anneau 6= {0} dont tout élément non nul est inversible.
Propriété : Soit (K, +, ×) un corps
6
K\{0} est un groupe multiplicatif
K n’admet pas de diviseur 0.
Définition 2.2.1 On appelle morphisme de corps tout morphisme des anneaux sous jacants.
Définition 2.2.2 K un corps L ⊂ K
L est un sous corps de K si et seulement si L est un sous anneau de K qui est un corps
ie si et seulement si
1 ∈ L, ∀(x, y) ∈ L2 x − y ∈ L, xy ∈ L
∀x ∈ L\{0} x−1 ∈ L.
L’intersection d’une famille de sous corps de K est un sous corps de K.
7
Chapitre 3
Dualité
3.1
Espaces vectoriels de dimension quelconque
K un corps. I ensemble quelconque.
On appelle famille presque nulle d’éléments de K toute famille (αi )i∈I , αi ∈ K dont le
support J = {i ∈ I, αi 6= 0} est fini. On note :
K(I) l’ensemble de ces familles
K(I) est un sous Kev de KI
Définition 3.1.1 Soit E un Kev.
ξ = (ei )i∈I
ξ est une famille génératrice de E si et seulement si ∀x ∈ E, ∃(αi ) ∈ K(I)
X
tq
x=
αi ei
i∈I
ξ est une famille libre de E si et seulement si ∀(αi )i ∈ K(I)
X
αi ei = 0 ⇒ ∀i ∈ I, αi = 0
ξ est une base de E si et seulement si ∀x ∈ E, ∃!(αi )i ∈ K(I) , x =
X
αi ei
i∈I
3.2
Espace dual
Définition 3.2.1 Soit E un Kev. On appelle forme linéaire sur E toute a.l. de E dans
K (K considéré comme un Kev). On note L(E, K) l’ensemble des formes linéaires sur E.
L(E, K) : = espace dual de E. On le note E ∗ .
Si E admet la base (ei )i∈I alors E ∗ est isomorphe à KI
E ' K(I)
E ∗ ' KI
Définition 3.2.2 E, F, G trois Kev ,
ϕ : E × F → G application.
ϕ est une application bilinéaire si et seulement si :
∀y ∈ F, ϕy : x 7→ ϕ(x, y) est linéaire de E dans G
00
00
00
∀x ∈ E, ϕx : y 7→ ϕ(x, y)
8
Proposition 3.2.3 E un Kev, E ∗ son dual.
E∗ × E → K
est bilinéaire
L’application
∗
∗
(y , x) 7→< y , x >
On l’appelle “crochet de dualité”.
3.2.1
Orthogonal
Théorème 3.2.4 Pour tout x ∈ E, l’ensemble x⊥ = {y ∗ ∈ E ∗ , < y ∗ , x >= 0} est un sev
de E ∗ appelé sous espace orthogonal de x.
Plus généralement, si A ⊂ E, on pose
A⊥ = {y ∗ ∈ E ∗ , ∀a ∈ A, < y ∗ , a >= 0}
A⊥ est un sev de E ∗ , appelé sous espace orthogonal de A.
Proposition 3.2.5 E ⊥ = {0}
Théorème 3.2.6 Pour tout y ∗ ∈ E ∗ , on pose
(y ∗ )◦ = {x ∈ E, < y ∗ , x >= 0}
(y ∗ )◦ est un sev de E appelé sous espace orthogonal de y ∗
si A∗ ⊂ E ∗ ,
(A∗ )◦ = {x ∈ E, ∀a∗ ∈ A∗ , < a∗ , x >= 0}
(A∗ )◦ est un sev de E, appelé sous espace orthogonal de A∗ .
Définition 3.2.7 y ∗ ∈ E ∗ et x ∈ E sont orthogonaux si et seulement si < y ∗ , x >= 0
B ∗ ⊂ E ∗ et A ⊂ E sont orthogonaux si et seulement si
∀y ∗ ∈ B ∗ , ∀x ∈ A, < y ∗ , x >= 0
Proposition 3.2.8 B ∗ et A sont orthogonaux ssi B ∗ ⊂ A⊥ ssi A ⊂ (B ∗ )◦
Proposition 3.2.9 A, B parties de E, si A ⊂ B alors B ⊥ ⊂ A⊥
Proposition 3.2.10 ∀A ⊂ E ,
A⊥ = (vect A)⊥
Proposition 3.2.11 ∀A ⊂ E ,
A ⊂ (A⊥ )◦
Remarque : A∗ ⊂ B ∗ ⇒ (B ∗ )◦ ⊂ (A∗ )◦ , (A∗ )◦ = (vect A∗ )◦ , A∗ ⊂ ((A∗ )◦ )⊥
3.2.2
Bidual
Définition 3.2.12 On appelle bidual de l’espace vectoriel E, l’espace dual de E. On le
note E ∗∗ .
E ∗∗ × E ∗ → K
(x∗∗ , y ∗ ) 7→ x∗∗ (y ∗ ) =< x∗∗ , y ∗ >
Soit x ∈ E, on pose x̂ :
E∗ → K
y ∗ 7→< y ∗ , x > =< x̂, y ∗ >
x̂ est linéaire.
E → E ∗∗
est linéaire
x 7→ x̂
On l’appelle application linéaire canonique de E dans E ∗∗ .
Théorème 3.2.13 ψ :
9
3.2.3
Transposition :
E, F des Kev, u ∈ L(E, F ).
F ∗ → E∗
on pose t u : ∗ t
y 7→ u(y ∗ ) = y ∗ ◦ u.
C’est la transposée de u.
Théorème 3.2.14 si u ∈ L(E, F ) alors t u ∈ L(F ∗ , E ∗ )
Autre écriture de la transposée
∀y ∗ ∈ F ∗ ∀x ∈ E
(t u(y ∗ ))(x) = y ∗ (u(x))
00
t
ie “
< u(y ∗ ), x >=< y ∗ , u(x) >
Théorème 3.2.15 L’application
L(E, F ) → L(F ∗ , E ∗ ) est linéaire
u 7→t u
On l’appelle transposition.
Proposition 3.2.16
t
1) Pour tous u ∈ L(E, F ) , v ∈ L(F, G)
(v ◦ u) =t u ◦t v.
2) t (IdE ) = IdE ∗
3) Si u ∈ L(E, F ) est bijective alors t u est bijective et t (u−1 ) = (t u)−1
4) Soit u ∈ L(E, F ) alors Ker(t u) = (Im u)⊥
Corollaire 3.2.17 Si u est surjective alors t u est injective.
Théorème 3.2.18 ψE , ψF les applications canoniques E → E ∗∗ , F → F ∗∗ alors pour
tout u ∈ L(E, F ), l’élément t (t u) ∈ L (E ∗∗ , F ∗∗ ) vérifie t (t u) ◦ ψE = ψF ◦ u
3.3
Dualité en dimension finie
E, F sont des Kev de dimension finie pour tout ce paragraphe.
Théorème 3.3.1 dim E = dim E ∗ si E de dimension finie.
3.3.1
Base duale
(e1 , . . . , en ) base de E.
On définit e∗i ∈ L(E, K) par
e∗i (ej ) = δij .
(e∗1 , . . . , e∗n ) est la base duale de (e1 , . . . , en ).
Proposition 3.3.2 Si E est de dimension finie, (E ∗ )0 = {0}
Théorème 3.3.3 ψ : E → E ∗∗ application canonique
Si dim E finie alors ψ est un isomorphisme.
Théorème 3.3.4 E est un Kev de dimension finie. L’application qui a toute base de E
associe sa duale est une bijection de l’ensemble des bases de E sur l’ensemble des bases
de E ∗ .
10
Proposition 3.3.5 E, F de dimension finie.
La transposition est un isomorphisme de L(E, F ) sur L(F ∗ , E ∗ ).
Théorème 3.3.6 E un Kev de dimension finie, E ∗ son dual.
Pour tout sous espace vectoriel F de E, on a
dim F + dim F ⊥ = dim E et F = (F ⊥ )0
Pour tout sous espace G∗ de E ∗ , on a
dim G∗ + dim(G∗ )0 = dim E et G∗ = (G∗0 )⊥
Corollaire 3.3.7 E, F des Kev de dimension finie, u ∈ L(E, F )
rg u = rg t u.
3.4
Transposition et matrices
Définition 3.4.1 M = (aij )
1≤i≤n
dans Mnp (K)
1≤j≤p
On appelle matrice transposée de M et on note t M , l’élément de Mpn (K) ,
t
M = (bij )
défini par
1≤i≤p
1≤j≤n
∀(i, j) ∈ Np × Nn , bij = aji
Théorème 3.4.2
E Kev de dimp > 0, F Kev de dim n > 0
(e1 , ep ) base de E (f1 , . . . , fn ) base de F
u ∈ L(E, F )
On note M = M at(f,e) u
Alors t M = M at(e∗ ,f ∗ ) t u
où e∗ base duale de e et f ∗ base duale de f .
Corollaire 3.4.3 1) M →t M est un isomorphisme de Mnp (K) dans Mpn (K)
2) si le produit BA existe alors le produit t At B existe et t (BA) =t At B
3) Si A est une matrice carrée inversible alors t A est inversible et (t A)−1 =t (A−1 )
11
Chapitre 4
Déterminant
4.1
Applications multilinéaires
K = R ou C ou Q dans tout le chapitre.
4.1.1
Définitions
K corps commutatif, E1 , . . . , Ep , F des Kev.
f : E1 × . . . × Ep → F est p linéaire si et seulement si
∀j ∈ {1, . . . , p}, ∀ak ∈ Ek
k ∈ {1, . . . , p}\{j}
Ej → F
est linéaire
l’application
x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ap )
Notation : σ ∈ Sn
f : Ep → F
Ep → F
fσ :
(x1 , . . . , xp ) 7→ f (xσ(1) , . . . , xσ(p))
Définition 4.1.1 f : E p → F p linéaire
f est symétrique si et seulement si ∀σ ∈ Sn , f σ = f
f est antisymétrique si et seulement si ∀σ ∈ Sn , (σ)f = f σ
f est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p ,
si ∃i, j ∈ {1, . . . , p} tq i 6= j et xi = xj alors f (x1 , . . . , xp ) = 0
Proposition 4.1.2 {f : E1 ×. . .×Ep → F p linéaires} est un sev de l’ev des applications
de E1 × . . . × Ep → F .
On le note Lp (E1 , . . . , Ep ; F ) ou Lp (E p , F ) si Ei = E
Ap (E, F ) = {f ∈ Lp (E p , F ) , f alternée} est un sev deLp (E p , F ).
00
00
Sp (E, F ) = {
f symétrique} est un sev deLp (E p , F ).
Proposition 4.1.3 f : E p → F p linéaire
f est alternée ⇐⇒ f est antisymétrique
12
4.1.2
Propriétés
a) Soit (x1 , . . . , xp ) ∈ E p , on suppose qu’ ∃i ∈ {1, . . . , p} tq xi = 0 alors f (x1 , . . . , xp ) = 0
b) f ∈ Ap (E, F )
p
X
f (x1 , . . . , xp ) = f (x1 , . . . , xi +
λj xj , xi+1 , . . . , xp )
j=1,j6=i
c)f ∈ Ap (E, F ) si x1 , . . . , xp sont liés
alors f (x1 , . . . , xp ) = 0
conséquence : si E est de dimension finie et dim E < p
alors Ap (E, F ) = {0}
d)Théorème : f ∈X
Lp (E p , F )
On pose A(f ) =
(σ)f σ
σ∈Sp
A(f ) est l’antisymétrisée de f
A(f ) est alternée.
4.2
Déterminants
E un Kev de dimension finie n.
On note An (E, K) = An (E)
E admet une base (e1 , . . . , en ) = e
E ∗ admet la base duale (e∗1 , . . . , e∗n )
4.2.1
Déterminant dans la base e
Proposition 4.2.1
f : E n → K Qest une forme n linéaire
(x1 , . . . , xn ) 7→ ni=1 < e∗i , xi >
On considère l’antisymétrisée de f , appelée déterminant dans la base e et notée
n
Y
X
dete (x1 , . . . , xn ) =
(σ)
< e∗i , xσ(i) >
σ∈Sn
i=1
On a dete (e1 , . . . , en ) = 1
Théorème 4.2.2 An (E) =< dete >
Définition 4.2.3 dete (x1 , . . . , xn ) = déterminant dans la base e du système des vecteurs
(x1 , . . . , xn ).
det(x1 , . . . , xn ) =
e
X
(σ)
σ∈Sn
=
X
σ∈Sn
13
(σ)
n
Y
j=1
n
Y
j=1
< e∗j , xσ(j) >
< e∗σ(j) , xj >
4.2.2
Application aux bases d’un espace vectoriel
Proposition 4.2.4 Soit E un Kev de dimension non nulle n
et a = (a1 , . . . , an ) une base de E.
Alors pour toute base e de E, dete (a1 , . . . , an ) 6= 0.
Proposition 4.2.5 Soit E un Kev de dimension n ≥ 1.
Tout système lié de n vecteurs de E admet un déterminant nul dans toute base de E.
Corollaire 4.2.6 E un Kev de dimension n ≥ 1, e base de E. Un système de n vecteurs
est libre si et seulement si le déterminant de ce système dans la base e est non nul.
4.2.3
Déterminant d’un endomorphisme
Théorème 4.2.7 Soit E un Kev de dimension n ≥ 1
u ∈ L(E)
u endomorphisme de E
Il existe un unique scalaire, appelé déterminant de u et noté det u, tq ∀f ∈ An (E),
∀(x1 , . . . , xn ) ∈ E n , f (u(x1 ), . . . , u(xn )) = (det u)f (x1 , . . . , xn ).
Remarque : dete (u(e1 ), . . . , u(en )) = det u
Proposition 4.2.8 E un Kev de dimension n ≥ 1
1) det IdE = 1
2) ∀λ ∈ K , ∀u ∈ L(E) , det(λu) = λn det u
3) ∀u ∈ L(E) , dett u = det u
4)∀(u, v) ∈ L(E)e
det v ◦ u = (det v)(det u)
Conséquence : Soit E un Kev de dimension finie n ≥ 1
u ∈ L(E)
u est inversible si et seulement si det u 6= 0
On a alors det u−1 = (det u)−1
4.2.4
Déterminant d’une matrice carrée
Définition 4.2.9 Soit M = (aij )i,j une matrice n × n de K.
déterminant de M = det M
= déterminant du système des vecteurs colonnes de M dans
la base canonique de Kn


a11 a12 . . . . . . a1n
 ..

 .



M =  ai1 . . . aij . . . ain 
 .

 ..

an1 . . . . . . . . . ann
14
a11 . . . . . . a1n det M = ...
an1 . . . . . . ann det M =
X
(σ)
σ∈Sn
=
X
(σ)
σ∈Sn
n
Y
j=1
n
Y
ajσ(j)
aσ(j)j
j=1
Remarque : det M = dett M .
Propriétés :
1) Si on échange deux colonnes d’une matrice, son déterminant est transformé en son
opposé
2)Le déterminant d’une matrice dépend linéairement de chacun de ses vecteurs colonnes
3) Le déterminant d’une matrice ne change pas quand on ajoute à un de ses vecteurs
colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si l’un des
vecteurs colonnes est combinaison linéaire des autres.
4) idem avec les vecteurs lignes.
Théorème 4.2.10 E Kev de dimension finie n ≥ 1
Soit u ∈ L(E), e une base de E, M = mate u
Alors det u = det M
Remarque : det u est indépendant de la base.
Propriété :
a) det I = 1
b) ∀λ ∈ K ∀M ∈ Mn (K) det λM = λn det M
c) ∀(M, N ) ∈ (Mn (K))2 det N M = det N det M
d) M est inversible si et seulement si det M 6= 0
−1
On a alorsdet(M −1
) = (det M ) .
A C
e) si M =
, det M = det A det B
0 B
15
Chapitre 5
Diagonalisation -Trigonalisation
5.1
Sous espaces propres
E est un Kev de dimension finie ou infinie.
Rappel : E un Kev, F ⊂ E, u ∈ L(E)
F stable par u si et seulement si u(F ) ⊂ F .
Définition 5.1.1 : E un Kev, u ∈ L(E)
S’il existe λ ∈ K, x ∈ E\{0} tq u(x) = λx alors on dit que λ est une valeur propre de u
et que x est un vecteur propre de u, associé à la valeur propre λ.
Définition 5.1.2 : Spectre de u = Sp u = {λ ∈ K, λ vp de u}
Théorème 5.1.3 u ∈ L(E) , λ ∈ K , E(λ) = Ker(u − λIdE )
λ vp de u ⇔ u − λ IdE non injective
⇔ Ker(u − λ IdE ) 6= {0}
Définition 5.1.4 : u ∈ L(E), λ vp de u, E(λ) = Ker(u − λIdE ) est le sous espace propre
de u associé à λ.
Théorème 5.1.5 : u ∈ L(E), λ1 , ..., λn des valeurs propres deux à deux distinctes de u.
Alors la somme
E(λ1 ) + ... + E(λn ) est directe.
On pose Ei = E(λi ).
Généralisation
: soit (λi )i∈I une
famille de vp deux à deux distinctes de u. On appelle
X
X
Mi l’ensemble des sommes
xi où (xi )i∈I parcourt l’ensemble des familles presque
i∈I
i∈I
nulles d’élements de E tq xi ∈ Mi pour tout i ∈ I.
La somme des sous espaces propres associés aux λi est directe.
X
Définition 5.1.6 : u ∈ L(E),
Ker(u − λIdE ) est directe.
λ∈Spu
Lorsque
M
Ker(u − λIdE ) = E on dit que u est diagonalisable.
λ∈Spu
16
Théorème 5.1.7 : u, v ∈ L(E). On suppose u ◦ v = v ◦ u
1) Tout sous espace propre de u est stable par v.
2) Ker u et Im u sont stables par v.
5.2
Diagonalisation - Trigonalisation
Notation : E un Kev de dimension finie non nulle n.
u ∈ L(E), IdE :
M = M ate u,
M = (aij )1≤i,j≤n
5.2.1
E → E,
I = Matrice unité n × n
x → x,
e base de E
Polynôme caractéristique d’une matrice
λ est un vp de u
ssi λIdE − u est non inversible
ssi λI − M non inversible
ssi det(λI − M ) = 0
XI − M est une matrice à coef dans K(X). Son déterminant est un polynôme dont les
racines sont les vp de u.
On appelle polynôme caractéristique de M , le déterminant de XI − M . On le note χM
X − a11 −a12
.
.
.
−a
1n
−a21
X − a22
−a2n
χM (X) = ..
.
−an1
...
X − ann Proposition 5.2.1 M et t M ont le même polynôme caractéristique.
5.2.2
Polynôme caractéristique d’un endomorphisme
Théorème 5.2.2 : u ∈ L(E), dimE = n ≥ 1
Le polynôme caractéristique de la matrice qui représente u dans une base de E est indépendant
du choix de cette base. On l’appelle polynôme caractéristique de u, on le note χu . Les vp de
u sont les racines de χu , l’ordre de multiplicité d’une racine λ de χu , est dite multiplicité
de la valeur propre λ de u.
Proposition 5.2.3 : u et t u ont le même polynôme caractéristique.
Théorème 5.2.4 : u ∈ L(E), E 0 sev de E stable par u de dim p ≥ 1.
On a u|E0 ∈ L(E 0 ). On pose u0 = u|E0
Alors χu0 divise χu .
17
5.2.3
Détermination pratique des vp et Vp
5.2.4
Valeurs propres et vecteurs propres d’une matrice
M ∈ Mn (K)
Ce sont les vp et Vp de l’endomorphisme canoniquement associé à M .
u : Kn → Kn
5.2.5
M at u = M
Endomorphismes diagonalisables
Définition 5.2.5 : P est scindé si et seulement si P est constant ou P admet des racines
dans K dont la somme des ordres de multiplicité est égale au degré de P .
Théorème 5.2.6 : E de dimension n ≥ 1, u ∈ L(E). Les propriétés suivantes sont
équivalentes :
1) u est diagonalisable.
2) Il existe e base de E telle que M ate u soit diagonale.
3) Le polynôme caractéristique de u est scindé sur K et pour toute vp de u, la multiplicité est égale à la dimension du sev propre associé.
Corollaire 5.2.7 Tout endomorphisme de E Kev de dimension n qui admet n valeurs
propres différentes est diagonisable.
Définition 5.2.8 : M ∈ Mn (K) M est diagonisable
si et seulement si l’endomorphisme canoniquement associé à M est diagonisable.
si et seulement si il existe P ∈ Mn (K) inversible, il existe D diagonalisable telle que
M = P DP −1 .
5.2.6
Endomorphismes trigonalisables
Définition 5.2.9 : E un Kev de dimension n ≥ 1, u ∈ L(E)
u est trigonalisable si et seulement si il existe e base de E telle que M ate u est triangulaire.
Théorème 5.2.10 : u est trigonalisable si et seulement si χu est scindé sur K.
Définition 5.2.11 :
M trigonalisable ssi l’endomorphisme de Kn associé à M est trigonalisable
ssi il existe P inversible telle que T = P −1 M P avec T triangulaire
ssi χM est scindé sur K
18
Chapitre 6
Formes bilinéaires symétriques
Formes quadratiques
6.1
Formes bilinéaires symétriques :
E est un Kev, E 6= {0}, K = R, C ou Q.
Notation : On note
B(E) = {formes bilinéaires sur E}.
BS(E) = {formes bilinéaires symétriques sur E}
Si E est de dimension finie, f ∈ B(E), on note [f ]E = (f (ei , ej ))1≤i,j≤n où E = (ei , . . . , en )
est une base de E.
Théorème 6.1.1 : On suppose E de dimension finie.
1)
B(E) → Mnn (K) est un isomorphisme vectoriel
f 7→ [f ]E
et dim B(E) = n2
2) On note Sn (K) = {matrice symétrique n × n sur K}
BS(E) → Sn (K)est un isomorphisme d’ev
f 7→ [f ]E .
dim BS(E) =
n(n+1)
.
2
Remarque : si E est de dimension finie, E base de E
f ∈ B(E) A = [f ]E
19


x1


X =  ... 
xn


y1


Y =  ... 
yn
On a f (x, y) =t XAY =t Y t AX
si de plus, A est symétrique, f (x, y) =t Y AX
Changement de base :
n
n
X
X
0
si x =
xi fi y =
yi0 f i
i=1
On pose
P = M atEF Id.
si B = [f ]F ,
i=1
On a X = P X 0
B =t P AP
Applications associées :
f ∈ B(E), si x ∈ E, on note
E → E∗
y → f (., y)
J : E → E∗
x → f (x, .)
I:
I et J sont linéaires de E dans E ∗ .
On suppose que E est de dimension finie.
On a : [f ]E = M atE ∗ E I =t M atE ∗ E J
I et J sont transposées l’une de l’autre.
Définition 6.1.2 : Soit E un Kev de dimension finie.
f ∈ B(E)
rang de f = rang de I = rang de J
Théorème 6.1.3 : Le rang d’une forme bilinéaire sur un ev de dimension finie est égal
au rang de la matrice de cette forme dans toute base de E.
Définition 6.1.4 : E de dimension n, si rang de f = n, on dit que f est non dégénérée.
Sinon f est dite dégénérée.
f non dégénérée ⇔ det[f ]E 6= 0.
6.2
Formes quadratiques :
E un Kev de dimension finie, f ∈ B(E)
f est symétrique si et seulement si ∀ E base de E, [f ]E est symétrique.
20
On pose Q(x) = f (x, x)
On a Q(λx) = λ2 Q(x) pour tout x ∈ E, λ ∈ K
f (x, y) = 12 (Q(x + y) − Q(x) − Q(y)) pour tout (x, y) ∈ E 2 .
Définition 6.2.1 : E de dimension finie
Une forme quadratique sur E est une application Q : E → K qui s’exprime dans chaque
base de E sous la forme d’un polynôme homogène de degré 2 des variables coordonnées
ou est identiquement nul.
Théorème 6.2.2 : E de dimension finie, Q : E → K
Q est une forme quadratique si et seulement si
1)∀x ∈ E, ∀λ ∈ K Q(λx) = λ2 Q(x)
B
2) L’application (x, y) 7−→ 12 (Q(x + y) − Q(x) − Q(y)) est bilinéaire.
De plus, on a alors B(x, x) = Q(x).
Théorème 6.2.3 L’application qui a toute forme bilinéaire symétrique B fait correspondre la f q associée définie par Q(x) = B(x, x) est un isomorphisme de BS(E) sur l’espace
des formes quadratiques sur E
Q = f q associé à B
B = f b associé à Q ou forme polaire associée à Q
rang forme quadratique Q := rang B.
discriminant de Q := discriminant de f .
6.3
6.3.1
Orthogonalité
Définitions :
Définition 6.3.1 : f ∈ BS(E)
x et y sont orthogonaux par rapport à f si et seulement si f (x, y) = 0.
A⊂E
A⊥ = {y ∈ E, ∀x ∈ A, f (x, y) = 0}
Proposition 6.3.2 : E de dimension quelconque, f ∈ BS(E)
1) ∀A ⊂ E , A⊥ est un sev de E.
2) {0}⊥ = E
3) (A ∪ B)⊥ = A⊥ ∩ B ⊥
4) A → A⊥ décroissante pour l’inclusion
5) A⊥ + B ⊥ ⊂ (A ∩ B)⊥
6) A⊥ = (vect A)⊥
7) A ⊂ (A⊥ )⊥ .
Proposition 6.3.3 : E de dimension quelconque.
F, G sev de E
(F + G)⊥ = F ⊥ ∩ G⊥ .
21
6.3.2
Noyau :
Remarque : si B ∈ BS(E),
I=J
Définition 6.3.4 : Le noyau de la f q Q sur E est le noyau de l’application I : E → E ∗
associée à la forme polaire B de Q.
N = noyau de Q
= {x ∈ E, ∀y ∈ E, B(x, y) = 0}
= E⊥
Proposition 6.3.5 : si dim E est fini
Une f q est non dégénérée si et seulement si sa forme polaire est non dégénérée, si et
seulement si son noyau est réduit à {0}.
Théorème 6.3.6 E de dimension finie.
Q une forme quadratique non dégénérée de forme polaire B.
Pour toute forme linéaire ϕ sur E, il existe un unique y ∈ E telle que ϕ(x) = B(x, y)
pour tout x ∈ E.
Théorème 6.3.7 E de dimension finie.
Q une f q non dégénérée.
Pour tout sev H de E, on a
1) dim H + dim H ⊥ = n
2) (H ⊥ )⊥ = H.
Conséquence : si A ⊂ E (A⊥ )⊥ = Vect A.
Remarque : M = (aij )
1≤1≤m
1≤j≤n
rang de M = ordre du plus grand déterminant extrait de M non nul
= dim < vect colonnes de M >
(S)
1≤i≤n
n
X
aij xj = o
j=i
rang du système (S) = rang de M
Si rang de (S) est r alors l’ensemble des solutions de (S) forme un sev de Kn de dimension
n − r.
Définition 6.3.8 : E muni d’une forme quadratique q
x ∈ E, x est isotrope si et seulement si q(x) = 0
H ⊂ E, H est isotrope si et seulement si H ∩ H ⊥ 6= {o}
H est totalement istrope si et seulement si H ⊂ H ⊥
Proposition 6.3.9 : E de dimension finie, H ⊂ E, q f q sur E
Si H est non isotrope alors E = H ⊕ H ⊥ .
22
Définition 6.3.10 : E de dimension finie, q f q sur E
La base (e1 , . . . , en ) est orthogonale (pour q) si et seulement si
∀i 6= j B(ei , ej ) = 0
La base (e1 , . . . , en ) est orthonormale si et seulement si B(ei , ej ) = δij
Théorème 6.3.11 Pour toute forme quadratique q sur un espace vectoriel de dimension
finie, il existe une base orthogonale.
Il n’existe pas forcément de base orthonormale.
Proposition 6.3.12 : Soit E un Kev de dimension finie.
Pour toute f q q sur E, ∃ base de E telle que la matrice de q dans cette base soit diagonale
i.e telle que l’on ait dans cette base
q(x) =
n
X
λi x2i
i=1
6.4
Classification des formes quadratiques
Définition 6.4.1 2 formes quadratiques q1 et q2 sur E sont équivalentes si et seulement
il existe ϕ automorphisme de E telle que ∀x ∈ E, q1 (x) = q2 (ϕ(x))
Théorème 6.4.2 Toute forme quadratique de rang r sur Cn est équivalente à la forme
x21 + . . . + x2n
Pour toute f q non dégénérée sur Cn , il existe une base orthonormale (r = n).
Théorème 6.4.3 (Théorème de la loi d’inertie de sylvester)
Soit q une f q sur Rn de rang r.
q est équivalente à une forme du type x21 + . . . + x2p − x2p+1 . . . − x2r où p ne dépend que de
q.
(p, r − p) := signature de q.
Définition 6.4.4
Une fq sur Rn est définie positive ssi sa signature est (n, 0)
”
”
négative ssi sa signature est (0, n)
Une fq de rang r est dite positive ssi sa signature est (r, 0)
”
”
négative ssi sa signature est (0, r)
au lieu de signature, on dit de type (p, q)
23
Chapitre 7
Espaces Euclidiens
7.1
Définition - Exemples :
Un espace euclidien est défini par la donnée
- d’un espace vectoriel E de dimension finie sur R
- d’une forme quadratique Q définie positive sur E
La forme bilinéaire s associée à Q s’appelle le produit scolaire associé à Q
7.2
Métrique associé à un espace euclidien de dim n
Théorème 7.2.1 E espace euclidien
Q forme quadratique définie positive.
On pose N (x) = (Q(x))1/2
N est une norme sur E appelée norme euclidienne associée à (E, Q).
On peut alors définir sur E une structure métrique en posant
d(x, y) = N (x − y).
Théorème 7.2.2 (E, Q) espace euclidien, B la f.b. symétrique associée à Q. Pour tout
(x, y) ∈ E 2 , on a (B(x, y))2 ≤ Q(x)Q(y)
l’égalité n’étant réalisée que si x et y sont colinéaires,
Inégalité de Cauchy Schwarz.
7.3
7.3.1
Propriétés des espaces euclidiens
Sous espace euclidien
(E, Q) espace euclidien, F sev de E.
Q |F est une forme quadratique définie positive qui définit sur F une structure d’espace
euclidien. On dit que F est un sous espace euclidien de E.
24
7.3.2
Produit d’espaces euclidiens
(E1 , Q1 ) espace euclidien, (E2 , Q2 ) espace euclidien.
E = E1 × E2 .
x = (x1 , x2 ) 7→ Q(x) = Q1 (x1 ) + Q2 (x2 )
Q est une forme quadratique définie positive sur E
(E, Q) espace euclidien produit.
B(x, y) = B(x1 , y1 ) + B(x2 , y2 )
7.3.3
Orthogonalité
Théorème 7.3.1 Pour tout espace euclidien (E, Q) de dimension finie,
pour tout sev F de E, on a E = F ⊕ F ⊥
On dit que F ⊥ est le supplémentaire orthogonal de F .
Théorème 7.3.2 (E, Q) espace euclidien
M
F1 , . . . , Fk sev deux à deux orthogonaux tq E =
Fi
i
X
si x =
xi est la décomposition sur les Fi de x
on a
i
Q(x) =
n
X
Q(xi )
i=1
Relation de Parseval
Q(x) =
n
X
(B(x, ei ))2
valable pour toute bon
i=1
Définition 7.3.3 (E, Q) espace euclidien, e1 , . . . , ep des vecteurs de E
(e1 , . . . , ep ) forme un système orthonormal si et seulement si ils sont deux à deux orthogonaux et leur norme égale à 1. ie B(ei , ej ) = δij
Remarque : : Un système orthonormal est libre.
Toute partie d’un système orthonormal est orthonormal.
Théorème 7.3.4 Tout système orthonormal d’un espace euclidien de dimension finie
peut être complété en une base orthonormale.
Théorème 7.3.5 Procédé d’orthonormalisation de Schmidt.
Soit (v1 , . . . , vn ) base quelconque de l’espace euclidien (E, Q)
∃ ! (e1 , . . . , en ) b ◦ n de E tq
∀p ∈ {1, . . . , n}
∀p ∈ {1, . . . , n}
B(ep , vp ) > 0
(7.1)
< e1 , . . . , ep >=< v1 , . . . , vp >
(7.2)
25
7.4
Groupe orthogonal réel
(E, Q) espace euclidien.
G = {ϕ ∈ L(E), ϕ bijective, ∀(x, y) ∈ E 2 , B(ϕ(x), ϕ(y)) = B(x, y)}
(G, ◦) est un groupe appelé groupe orthogonal de Q. On le note 0(Q).
Remarque : ∀(x, y) ∈ E 2
B(ϕ(x), ϕ(y)) = B(x, y)
⇔ ∀x ∈ E
Q(ϕ(x)) = Q(x)
ϕ conserve B ou ϕ conserve Q
Définition 7.4.1 Si M vérifie t M M = In , on dit que M est orthogonale.
On a (det M )2 = 1
26
Téléchargement