Algèbre linéaire et bilinéaire

publicité
Algèbre linéaire et bilinéaire
Quelques rappels sur les « bases » de l’algèbre linéaire................................ 3
I)
Matrices et applications linéaires ........................................................ 3
II)
Déterminants ........................................................................................ 6
III)
Sommes de sous-espaces vectoriels ................................................. 7
IV)
1)
2)
3)
Premiers éléments de réduction ...................................................... 8
Objectif............................................................................................ 8
Eléments propres ............................................................................. 9
Diagonalisation. Trigonalisation. .................................................. 10
Polynômes d’endomorphisme ....................................................................... 11
I)
Définitions .......................................................................................... 11
II)
Arithmétique des polynômes .............................................................. 11
III)
Le lemme des noyaux..................................................................... 13
IV)
Polynômes annulateurs d’un endomorphisme............................... 13
Réduction d’endomorphismes ....................................................................... 15
I)
1)
2)
3)
Premiers pas ...................................................................................... 15
Recherche de sous-espaces stables ................................................ 15
Critère pour qu’un endomorphisme soit diagonalisable ................ 15
Théorème de Cayley Hamilton...................................................... 15
1)
2)
3)
4)
5)
Réduction de Jordan .......................................................................... 16
Décomposition en sous espaces caractéristiques ........................... 16
Réduction des endomorphismes nilpotent ..................................... 16
Méthode pratique de la réduction des endomorphismes nilpotents 17
Théorème de Jordan ...................................................................... 18
Intérêt de la forme de Jordan ......................................................... 18
II)
Formes Quadratiques .................................................................................... 21
I)
Définitions .......................................................................................... 21
II)
Réduction par la méthode de Gauss................................................... 22
Index des notions ............................................................................................ 23
Quelques rappels sur les « bases » de
l’algèbre linéaire
Dans tout le cours, on notera K  R ou C (corps des scalaires).
I) Matrices et applications linéaires
Notation (E) : La lettre E désigne en général un K-espace vectoriel
de dimension finie. En particulier, si on note d  dim E , une fois
le choix d’une base fait, étudier E revient à étudier K d .
Notation (espace des matrices) : On notera M n, p K  l’espace
vectoriel des matrices à coefficients dans K qui ont n lignes et p
colonnes (et Mn K   Mn,n K  ).
Notation (espace des applications linéaires) : Si E et F sont des
espaces vectoriels (de dimension finie), on note L E, F  l’espace
vectoriel des applications linéaires de E dans F.
Notation (matrices d’une application linéaire) : Si on se donne
e j  et  fi  des bases de E et F, et si
j  1,2,, dim E u e j  
dim E
a
i 1
f alors la matrice
ij i
A  aij 1idim F est appelée matrice de u dans les bases e j  et  f i  .
1 j dim E
On note A  Mate j  fi  u .
Le choix d’une base de l’espace de départ et d’une base de
l’espace d’arrivé fait correspondre bijectivement les applications
linéaires et les matrices.
Bien sûr, L E, F  est un K-espace vectoriel, et on a donc :
Def (addition interne) :
uv: E  F
x  u  v  x   u  x   v x 
Def (produit externe) :
 u : E  F
x    u  x     u x 
Naturellement, correspondent la somme des matrices et la
multiplication par un scalaire.
Def (composition) : On peut enfin composer des applications
linéaires.
u
v
E

F

G
vu: E G
On défini
x  v  u  x   vu x 
Matriciellement correspond à la composition d’applications
linéaires le produit de matrice.
On défini C  A  B par cij   aik bkj .
k
Alors Matek  gi  v  u   Mat f j  gi  v Matek  f j  u  .
Def (inverse) : Si E  F , on note L E   L E, E  et on parle
d’endomorphisme.
u  L E  Est dit inversible s’il existe v  L E  tel que
id : E  E
.
v  u  u  v  id où
xx
L’inverse est usuellement noté u 1 .
Matriciellement lui correspond l’inverse de matrice
(ie A  A1  A1  A  Id ).
Def (ensemble des matrices inversibles) : L’ensemble des matrices
(de Mn K  ) inversibles est noté GLn K  . C’est un groupe non
commutatif pour la multiplication des matrices.
Def (puissance d’application linéaire) : Si u  L E  et k  N , on
note u k  u  u    u k fois. Si k  0 u 0  id .
Def (polynôme d’application linéaire) : Si P  K X  (polynôme à
d
coefficients dans K), disons que P   ai  X i .
i 0
d
Alors P u    ai  u i .
i 0
Def (changement de base) : Si e j  et h j  sont deux bases de E,
et x  E , on note x   x j  e j   y j  h j .
j
 x1 


Def (matrice de passage) : Si X est le vecteur    et Y le
x

 dim E 
 y1 


vecteur    alors X  P  Y où P est appelée matrice de
y

 dim E 
passage de e j  dans h j .
Les colonnes de P sont les coordonnées des vecteurs h j  dans la
base e j  .
On la note Pe j h j  .
 Ff  ,
Def (changement de base des matrices) : Si u : E
e 
j
h j 
i
 gi 
application linéaire :
Mate j  fi  u   P fi  gi   Math j  gi  u  Ph j e j  .
1
Rq : Ph j e j   Pe j h j 
Donc si u  L E  :
Math j  u   Pe j h j   Mate j  u   Pe j h j 
1
Def (matrices semblables) : Si A, B  Mn K  tel qu’il existe
P  GL K  telle que B  P 1  A  P
On dit que A et B sont semblables. (être semblable est une relation
d’équivalence)
Def (relation d’équivalence) :
- réflexif : A et A sont toujours semblable
- symétrique : A et B semblables  B et A semblables
A et B semblables
- transitif :
 A et C semblables
B et C semblables
Def (matrices équivalentes) : A et B sont équivalentes s’il existe
P, Q  GL K  telles que B  Q  A  P (c’est une relation
d’équivalence).
Def (image) : Si u  L E, F  , Imu   ux x  E est un sousespace vectoriel de F appelé image de u.
Def (noyau) : Keru   x  E ux  0 est un sous-espace
vectoriel de E appelé noyau de u.
Def (rang d’une application linéaire) : rgu   dim Im u  est
appelé rang de u.
Théorème du rang : dim E  dim Ker u   dim Im u 
Def (rang d’une matrice) : Si A  M n, p K , son rang est la
dimension de l’espace vectoriel engendré par les vecteurs
colonnes.
Si A  Mate j  fi  u  , alors rg A  rg u .
En fait, il revient au même de dire que deux matrices sont
équivalentes et qu’elles ont même rang.
 I 0
 .
Et donc r  rg A  A est équivalente à  r
 0 0
II) Déterminants
Def (déterminant) : Soit A  aij 1i , jn .
On définit det A 
n
 sign  ai  i  .
 S n
i 1
Sn  bijection de 1,, ndans 1,, n
Si   S n , sign     1  avec

  card i, j  1  i  j  n  i     j 
Rq : On ne peut pas utiliser cette définition dés que n est grand
(sauf n  2 et n  3 ).
En pratique : On utilise les formules de développement par
rapport aux lignes et aux colonnes.
n
det A    1 0  ai0 , j  i0 , j
j 1
i j


Où i , j  det matrice A privée de sa i e ligne et j e colonne .
On peut aussi voir det A  f C1 ,, Cn 
f est n-linéaire et alternée (ie si on intervertit C j1 et C j2 , la valeur
de l’image est transformée et son opposé).
Il en découle alors les opérations sur les lignes et les colonnes
pour le calcul du déterminant.
III)
Sommes de sous-espaces
vectoriels
Def (somme de sous-espaces vectoriels) : Soient F1 , F2 ,, Fp des
sous-espaces vectoriels de E.
On définit la somme :
F1    Fp   Fi  f1    f p i  1,, n f i  Fi 
p
i 1
Def (somme directe) : On dit que cette somme est directe, et on la
p
note : F1  F2    Fp   Fi , si l’une des conditions
i 1
équivalentes suivante est réalisée :


(i) i  1,, p Fi    F j   0
 j i 
 i 1 
(ii) i  2,, p Fi    F j   0
 j 1 
p
(iii) y   Fi
i 1
!x1 ,, x p  F1  Fp
p
y   xi
i 1
(iv) Si 0  x1    x p avec i  1,, p xi  Fi , alors
i  1,, p xi  0
 p  p
(v) dim   Fi    dim Fi
 i 1  i 1
(vi) Si B1 ,, Bp sont des bases de F1 ,, Fp , alors
B  B1  B2    Bp est une base de
p
F
i 1
IV)
i
Premiers éléments de réduction
1) Objectif
Si u  L E  , on cherche une base ei 1  i  n  de E dans
laquelle u est représenté par une matrice « simple ».
Def (stabilité) : On dit qu’un sous-espace vectoriel F de E est
stable par u si : x  F ux  F .
 
Alors, si Mat u F  A la matrice de u est de la forme :
A 0
 .
Matu   
 0 B
Si maintenant E  F1    Fk avec les Fi stables par u.
 
Chaque Fi est équipé d’une base dans laquelle Mat u F  Ai .
i
Si on équipe E de la réunion des bases de F1 , Fk , alors :
 A1 0  0 


 0 A2   
Matu   
   0


0  0 A 
k 

Donc Matu  est « simple » dans cette base (car elle comporte
beaucoup de 0), en tout cas plus simple qu’une matrice
quelconque.
Elle sera d’ailleurs d’autant plus simple que les Ai le seront.
2) Eléments propres
u désigne toujours un endomorphisme de E.
Def (valeur propre) :
On appelle valeur propre de E tout   K tel qu’il existe
x  E  0 avec ux    x . Un tel x est appelé vecteur propre
associé à la valeur propre  .
E  Keru    id   x  E ux     x est appelé sous espace
propre de u associé à la valeur propre  .
Rq : - E est stable par u
- u E    id
 

E
E
, si bien que dans n’importe quelle base de
Mat u E    I d  où d  dim E

On peut définir de la même façon les valeurs propres et vecteurs
propres d’une matrice.
Rq :  valeur propre de u
 Keru    id   0
 u    id non injectif
 u _   id non bijective (car on est en dimension finie)
 det Matu     I n   0
Def (polynôme caractéristique) : Le polynôme unitaire de degré n
u  det X  I n  Matu  est appelé polynôme caractéristique de u.
Si on note Spu  (spectre de u) l’ensemble des valeurs propres de
u, on a donc : Spu     K u    0.
Rq : Supposons que F est un sous-espace stable par u et
E  F G .
Alors :  u divise  u .
F
3) Diagonalisation. Trigonalisation.
u  L E 
Def (matrice diagonalisable) : On dit que u est diagonalisable si il
peut être représenté par une matrice de la forme :
 1  I d1
0 




  
k  I d k 
 0
Prop : u diagonalisable  E   E
Spu 
Prop : On a toujours :
 E     E . Mais la somme ne fait
Sp u 
Sp u
pas toujours E.
Prop : u diagonalisable  u scindé et l’ordre de multiplicité de
chacune de ces racines  est égale à la dimension du sous-espace
vectoriel E associé.
Def (matrice trigonalisable) : On dit que u est trigonalisable s’il
existe une base dans laquelle il est représenté par une matrice
triangulaire.
Prop : u trigonalisable  u scindé.
Polynômes d’endomorphisme
I) Définitions
k
k
i 0
i 0
Si P   ai  X i , on pose Pu    ai  u i
Rq : Mat Pu   PMat u 
P  Q u   Pu   Qu 
P  Q u   Pu   Qu   Qu   Pu 
P  Q  A  P A  Q A
P  Q  A  P A  Q A  Q A  P A
k
P A   ai  Ai .
i 0
II) Arithmétique des polynômes
K X  , l’ensemble des polynômes à coefficients dans K est un
« anneau », ie il est muni de 2 lois internes + et  telles que, en
particulier, K X ,  est un groupe.
Def (anneau euclidien) : Cet anneau est de plus un anneau
euclidien, ie si A, B  K X  sont non nuls, il existe un unique
couple Q, R  K X  tels que A  Q  B  R où R  B (avec
0   ).
Def (multiple) : Si R  0 , on dit que A est un multiple de B, ou
encore B divise A (noté B A ).
Def (polynômes associés) : On dira que deux polynômes
A, B  K X  sont associés s’il existe   K * tel que A    B
Rq : être associé est une relation d’équivalence
Def (polynôme irréductible) : On dira que A K X  est
irréductible si ses seuls diviseurs sont 1 et A, et leurs associés, et
s’il est de degré au moins 1.
Def (idéal) : On dit que I  K X  est un idéal si :
- I Ø
- A, B  I  A  B  I
- P  K X  A  I  P  A  I
Rq : en particulier : 0  I .
Prop : tout idéal de K X  est de la forme I  H , avec
H  K X  .
Prop : 1) Une somme finie d’idéaux est un idéal.
2) Une intersection finie d’idéaux est un idéal.
Def (PGCD, PPCM) : Si P1 , , Pk  K X  , on appelle :
- Plus Grand Diviseur Commun (PGCD) des Pi , un
polynôme D tel que : P1   Pk  D
- Plus Petit Multiple Commun (PPCM) des Pi , un
polynôme M  K X  tel que P1   Pk  M
Rq : D  min Pi  et M  max Pi 
1i  k
1i  k
Def (polynômes premiers entre eux) : Si P1 , , Pk  K X  sont
tels que P1    Pk  1  K X  , on dit que les polynômes
P1 , , Pk sont premiers entre eux (dans leur ensemble).
On dira qu’ils sont premiers entre eux deux à deux si,
i, j 1  i  j  k Pi  Pj  1
Rq : premiers deux à deux  premiers dans leur ensemble
Th de Bezout : Soient P1 , , Pk  K X  et D leur PGCD. Alors il
existe A1 ,, Ak  K X  tels que D  A1  P1    Ak  Pk .
En particulier, s’ils sont premiers entre eux :
1  A1  P1    Ak  Pk .
Rq : En fait, K X  est un anneau factoriel, ie tout P  K X  peut
s’écrire de façon unique (à l’ordre prés, et au choix des associés
prés) comme produit de polynômes irréductibles.
III)
Le lemme des noyaux
Lemme : Soit u  L E  . Si P1 , , Pk  K X  sont premiers entre
eux deux à deux, alors KerP1  Pk u    KerPi u 
k
i 1
Cor : Si P est un polynôme annulateur de u (ie Pu   0 ) qui se
k
décompose sous la forme P   Pi , avec les Pi deux à deux
i 1
premiers entre eux, alors E   KerPi u 
k
i 1
IV)
Polynômes annulateurs d’un
endomorphisme
Soit u  L E  .
On va noter Annu   P  K X  Pu   0.
Rq : Annu  est un idéal de K X  .
Def(polynôme minimal) : Le polynôme unitaire M u tel que
Annu   M u est appelé polynôme minimal de
l’endomorphisme u.
Rq : On a vu qu’il existe un polynôme annulateur de degré n 2 ,
donc M u  n 2 . On verra plus tard qu’en fait 1  M u  n .
Réduction d’endomorphismes
I) Premiers pas
1) Recherche de sous-espaces stables
Rq : Si P  K X  , alors KerPu  est stable par u.
Prop : Si E est un C-espace vectoriel, alors u admet un sousespace vectoriel stable de dimension 1.
Si R est un R-espace vectoriel, alors u admet un sous-espace
vectoriel stable de dimension 1 ou 2.
2) Critère pour qu’un endomorphisme soit
diagonalisable
Prop : Soit u  L E  . u est diagonalisable si et seulement si son
polynôme minimal est scindé à racines simples.
k
Ie M u est de la forme M u    X  i  , où les i sont distincts.
i 1
3) Théorème de Cayley Hamilton
Th (Cayley Hamilton) : Soit u  L E  de polynôme minimal M u
et de polynôme caractéristique  u . Alors  u u   0 . (ce qui est
équivalent à M u  u )
Th :  u et M u ont mêmes facteurs irréductibles (avec des
puissances dans la décomposition à priori différentes).
k
En particulier, si K  C ,  u    X  i 
m  i 
et
i 1
k
M u    X  i 
i 1
r  i 
avec 0  r i   mi  et i distincts.
II) Réduction de Jordan
1) Décomposition en sous espaces
caractéristiques
Def (sous-espace caractéristique) : Si   Spu  et m  sa

multiplicité dans  u , le sous-espace Ker u    id 
sous-espace caractéristique associé à λ.
k
Si  u est scindé,  u    X  i 
m  i 
i 1
m  
 est appelé
, i distincts, le lemme des

noyaux donne que E  Ker u u    Ker u  i  id 
k

Chaque Fi  Ker u  i  id 
Rq : Les  i  u
Fi
mi 
i 1
m i 
 est stable par u.
.
 i  id sont nilpotent.
2) Réduction des endomorphismes
nilpotent
Soit u  L E  un endomorphisme nilpotent.
Def (indice de nilpotence) : Le plus petit indice r  N tel que
u r  0 est appelé indice de nilpotence.
Def (u-cyclique) : En particulier, si pour v  E u p v   0 , on dit
que v est u-cyclique.
On appelle période de v le plus petit r tel que u r v   0 .
La famille v, uv ,, u r 1 v  est libre, et


F  Vect v, uv ,, u
E de dimension r.

r 1
v est un sous-espace vectoriel stable de
 0 1 0  0


    
M r   Mat u F    
  0  dans la base


 1

 0    0


r 1
u v ,, u v , v .
Th : Soit u nilpotent d’indice de nilpotence r.
Alors E  F1    Fk où les Fi sont de la forme




Fi  Vect vi , u vi ,, u ri 1 vi 
0 
 M r1  0 


 
 
 0
dans la base
Mat u   

 
0 


 0
 0 M rk 

 u v ,, uv , v .
k
ri 1
i
i
i
i 1
De plus, k, r1 ,, rk sont uniques.
3) Méthode pratique de la réduction des
endomorphismes nilpotents
Soit u nilpotent d’indice de nilpotence r.
En travaillant avec les noyaux, on remarque que :
0  ker u  ker u 2    ker u r 1  ker u r  E .
On détermine les sous-espaces vectoriels ker u i ,1  i  r
On détermine la base Br   1 ,,  nr  de ker u r \ ker u r 1
Par récurrence, on obtient la base de ker u i \ ker u i 1 :
Bi  Bi 1  u Bi 1    ni1 1 ,,  ni


4) Théorème de Jordan
Notation : Si   K et r  N * , on note
 1 0  0 


0     
J  , r        0 


  1

0   0 


Th (de Jordan) : Soit u  L E  de polynôme caractéristique
scindé. Alors il existe une base de E dans laquelle la matrice est
 J1 0  0 


0    
diagonale par bloc : 
où les J i sont des
   0


0  0 J 
k 

J i , ri  uniques à permutation prés.
En pratique, pour définir la matrice de Jordan, on se place sur
m
chaque sous-espace caractéristique F  ker u    id  et on
applique la méthode vue pour les endomorphismes nilpotent à la
réduction de u    id à F.

5) Intérêt de la forme de Jordan
 J1 0  0 


0    
M 
   0


0  0 J 
k 

n
 J1
0  0 


 0    
n
M 

    0 
 0  0 J n
k 


p
J  , r    Cni  i  J 0, r 
p
i 0
p i
Formes Quadratiques
E est un R espace vectoriel.
I) Définitions
Def (forme bilinéaire symétrique) : On appelle forme bilinéaire
: EE  R
symétrique sur E toute
telle que :
x; y   x; y 
, y0  : E  R
1) Linéaire à gauche : y0  E
est
x  x; y0 
une forme linéaire
x0 , : E  R
2) Linéaire à droite : x0  E
est une
y  x0 ; y 
forme linéaire
3) Symétrique : x, y  E  E x; y    y; x
Rq : Si 3) est vérifié, alors 1)  2)
Def (forme quadratique) : On appelle forme quadratique associée
à une forme bilinéaire symétrique l’application :
q: E  R
x  qx   x; x 
Rq : Si on donne Φ, alors qx  x; x (par def)
Si q est une forme quadratique associée à Φ,
1
  x, y   q  x  y   q x   q y 
2
1
 q  x  y   q x  y 
4
Donc, se donner q suffit pour avoir Φ.
Rq : Si dim E  n et B  e1 ,, en  base de E. x, y  E ,
n
n
i 1
j 1
x   xi  ei , y   y j  e j .
  x, y  
x y
1i , j  n
i
j
 ei , e j 
En posant qij , on fait correspondre à Φ une matrice Q  qij 1i , j n
symétrique.
 x1 
 
De plus, si X     représente x dans B : x; y t X  Q  Y et
x 
 n
qx t X  Q  X .
Si maintenant on change de base : Si B  est une autre base et P la
matrice de passage de B dans B  : Qt P  Q  P
On dit que les matrices Q et Qt P  Q  P , qui représentent une
même forme bilinéaire symétrique dans deux bases différentes,
sont congruentes.
II) Réduction par la méthode de Gauss
Th (Sylvester) : Soit q une forme quadratique sur E de dimension
n. Il existe v1 ,, vn des formes linéaires indépendantes telles
n
que : qx     i  vi x  où  i   1,0,1 .
i 1
2
Si on note r  card i  i  1 et r  card i  i  1, r et r ne
dépendent que de q. r , r  est la signature de q.
Index des notions
addition interne
AlgLin ............................ 3
anneau
AlgLin .................... 11, 12
anneau euclidien
AlgLin .......................... 11
anneau factoriel
AlgLin .......................... 12
application symétrique
AlgLin, CDO ...... 6, 21, 22
bilinéaire
AlgLin, CDO ................ 21
changement de base
AlgLin ............................ 5
composition de fonctions
AlgLin ............................ 4
déterminant
AlgLin ............................ 7
élément symétrisable
StructAlg ............ 6, 21, 22
endomorphisme
StructAlg . 4, 9, 11, 13, 15,
16
ensemble des matrices
inversibles
AlgLin ............................ 4
forme bilinéaire symétrique
AlgLin .................... 21, 22
forme quadratique
AlgLin .................... 21, 22
groupe
StructAlg .................. 4, 11
groupe cyclique
StructAlg ....................... 16
idéal
AlgLin ............... 11, 12, 13
image
AlgLin, StructAlg ....... 6, 7
indice de nilpotence
AlgLin ..................... 16, 17
inverse d’un endomorphisme
AlgLin ............................. 4
lemme des noyaux
AlgLin ..................... 13, 16
loi commutative
StructAlg ......................... 4
loi de composition interne
StructAlg ......................... 4
matrice de passage
AlgLin ....................... 5, 22
matrice diagonalisable
AlgLin ........................... 10
matrice trigonalisable
AlgLin ........................... 10
matrices congruentes
AlgLin ........................... 22
matrices équivalentes
AlgLin ............................. 6
matrices semblables
AlgLin ............................. 6
multiple
AlgLin ........................... 11
noyau
AlgLin, StructAlg ........... 6
ordre d’un groupe
StructAlg ................. 10, 12
permutation
StructAlg ...................... 18
PGCD
AlgLin .......................... 12
polynôme caractéristique
AlgLin .............. 10, 15, 18
polynôme d’application
linéaire
AlgLin ............................ 5
polynôme irréductible
AlgLin .......................... 11
polynôme minimal
AlgLin .................... 13, 15
polynômes associés
AlgLin .... 9, 10, 11, 12, 16
polynômes premiers entre
eux
AlgLin .................... 12, 13
PPCM
AlgLin .......................... 12
produit externe
AlgLin ............................. 3
rang
AlgLin ......................... 6, 7
relation d’équivalence
AlgLin ....................... 6, 11
somme de sous-espaces
vectoriels
AlgLin ............................. 7
somme directe
AlgLin ............................. 8
sous-espace caractéristique
AlgLin ..................... 16, 18
stabilité
AlgLin ............................. 8
Théorème de Bezout
AlgLin ........................... 12
u-cyclique
AlgLin ........................... 16
valeur propre
AlgLin ............................. 9
Téléchargement