Telechargé par etudiant250357

Partie 1 3EA

publicité
1
1.1
Algèbre linéaire
Notions d’espaces vectoriels
La droite vectrielle c’est l’ensemble des nombres
réels, noté R.
Le plan vectoriel R2 . Ses éléments sont des
couples (x1 , x2 ), x1 , x2 décrivent indépendamment
R l’ensemble des nombres réels.
• L’addition :
(x1 , x2 ) + (x01 , x02 ) = (x1 + x01 , x2 + x02 ).
• La multiplication par des scalaires :
λ.(x1 , x2 ) = (λx1 , λx2 ).
En particulier
(x1 , x2 ) = (x1 , 0) + (0, x2 ) = x1 .(1, 0) + x2 .(0, 1).
l’écriture est unique, on dit que ((1, 0), (0, 1))
forme une base de R2 (dite aussi la base
canonique).
Attention l’ordre des composantes du couple est
important si x1 6= x2 , (x1 , x2 ) 6= (x2 , x1 ).
1
Plus généralement, Rn l’ensemble des n-uplets
(x1 , . . . , xn ) :
• L’addition : (x1 , . . . , xn ) + (x01 , . . . , x0n ) =
(x1 + x01 , . . . , xn + x0n ).
• La multiplication par des scalaires :
λ.(x1 , . . . , xn ) = (λx1 , . . . , λxn ).
Comme dans le cas du plan vectoriel, on a
(x1 , . . . , xn ) = (x1 , . . . , 0) + . . . + (0, . . . , xn ) =
x1 (1, . . . , 0) + . . . + xn .(0, . . . , 1).
on dit que (1, 0, . . . , 0), . . . , (0, 0, . . . , 1) forment la
base canonique de Rn .
Le vecteur nul est (0, . . . , 0) ∈ Rn , on le note par
0 et à ne pas confondre avec le scalaire 0.
Comme dans le cas du plan, deux vecteurs
(x1 , . . . , xn ) et (x01 , . . . , x0n ) sont égaux, si,
x1 = x01 , . . . , xn = x0n .
Pour les vecteurs de Rn , dans certains cas, nous
utiliserons une représentaion colonne
2
L’esp. vect. des polynômes de degré ≤ m :
Un polynôme à coefficients réels de degré inférieur
ou égal à m : P (x) = a0 + a1 x + . . . + am xm , les
ai sont les coefficients de P .
Pm [X] désigne l’ensemble des polynômes de degré
inférieur ou égal à m. Cet ensemble peut être
considéré comme un espace vectoriel sur R :
• L’addition : P (x) = a0 + a1 x + . . . + am xm
et Q(x) = b0 + b1 x + . . . + bm xm , alors on
définit le polynôme P + Q par :
(P + Q)(x) =
(a0 + b0 ) + (a1 + b1 )x + . . . + (am + bm )xm
• La multiplication par des scalaires :
(λ.P )(x) = λ.a0 + λ.a1 x + . . . + λ.am xm .
Le monôme X k désigne le polynôme qui à x on
lui associe xk .
Avec la convention X 0 (x) = x0 = 1, un polynôme
de degré m s’écrit :
P = a0 X 0 + a1 X + . . . + am X m .
On dira que (X 0 , X, . . . , X m ) est la base
canonique de l’espace vectoriel Pm [X] .
3
Definition 1 Soit E un ensemble muni d’une
addition + et d’une multiplication par les
scalaires notée . :
• E muni de l’addition est un groupe
commutatif :
i) x, y ∈ E, alors x + y ∈ E, x + y = y + x,
ii) 0 élément neutre : x + 0 = x, iii)
l’élément symétrique : ∀x ; ∃x0 ∈ E tel que
x + x0 = 0 (x0 est dit le symétrique ou
l’opposé de x, souvent noté par −x).
• La multiplication par des scalaires :
∀a ∈ R ; ∀x ∈ E, a.x ∈ E et vérifiant :
- ∀a, b ∈ R ; ∀x ∈ E, a.(b.x) = (ab).x, ab
et la multiplication dans R.
- ∀a, b ∈ R ; ∀x ∈ E,
(a + b).x = a.x + b.x, a + b et l’addition
dans R.
- ∀a ∈ R ; ∀x, y ∈ E,
a.(x + y) = a.x + b.y.
- ∀x ∈ E, 1.x = x.
4
indépendance, systèmes générateurs et bases :
Definition 2 k vecteurs v1 , . . . , vk d’un espace
vectoriel sont dits indépendants, si aucun vecteur
vi ne dépendent des autres vecteurs qui lui sont
Pk
différents : vi 6= j=1,j6=i λj vj .
De cette définition, nous déduisons :
Remarque 3 v1 , . . . , vk sont indépendants, si
a1 , . . . , ak sont des scalaires tels que
a1 v1 + . . . + ak vk = 0, alors a1 = . . . = ak = 0.
A ne pas confondre le 0 vecteur le 0 scalaire.
Exemple 4 (1, 1, 0) et (0, 1, 0) sont deux vecteurs
indépendants de R3 .
Exemple 5 (1, 1, 0), (0, 1, 1) et (1, 2, 1) sont trois
vecteurs dépendants de R3 .
En effet, (1, 2, 1) = (1, 1, 0) + (0, 1, 1).
5
Definition 6 k vecteurs v1 , . . . , vk d’un espace
vectoriel E forment un système générateur de E
(on dit aussi que v1 , . . . , vk engendrent E), si,
tout vecteur de E s’écrit comme combinaison
linéaire de v1 , . . . , vk :
Pour tout vecteur x ∈ E ; il existe des scalaires
a1 , . . . , ak tels que x = a1 .v1 + . . . + ak .vk .
Definition 7 Soient k vecteurs v1 , . . . , vk d’un
espace vectoriel E. B = {v1 , . . . , vk } forme une
base de E, si pour tout vecteur x ∈ E ; il existe un
unique k-uplet de scalaires (a1 , . . . , ak ) tel que
x = a1 .v1 + . . . + ak .vk .
Théorème 8
1) B = (v1 , . . . , vk ) est une
base d’un espace vectoriel E, si, v1 , . . . , vk
sont indépendants et engendrent E.
2) Deux bases ont toujours le même nombre
de vecteurs (ici k). Ce nombre est appelé la
dimension de E et se note par dim(E).
3) Si dim(E) = k et si les vecteurs e1 , . . . , ek
sont indépendants, ou s’ils engendrent E,
alors (e1 , . . . , ek ) est une base de E.
6
Exemple 9
1) (1, 0, 0), (0, 1, 0), (0, 0, 1)
forment une base de R3 : la base
canonique.
2) Considérons les vecteurs
e1 = (1, 0, . . . , 0), . . . , en = (0, 0, . . . , 1) de
Rn (toutes les composantes de ei sont
nulles sauf la ième et qui vaut 1. Alors
e1 , . . . , en forment une base de Rn (dite la
base canonique).
3) Vérifier que v1 = (1, 1, 1), v2 = (1, 0, 1),
v3 = (0, 1, 1) forment une base de R3 .
4) (1, . . . , X m ) est une base de Pm [X].
5) Le polynôme X 0 constant qui vaut 1 est
généralement noté par 1 à ne pas
confondre confondre avec le scalaire l) :
(1, X, . . . , X m ) est une base de Pm [X]
(l’espace vectoriel des plolynômes de degré
inférieur ou égal à m).
6) (1, X, X, X 2 + X) est une base de P2 [X].
7
Sous espaces vectoriels
Definition 10 E étant un espace vectoriel. Un
sous ensemble F non vide de E est dit sous
espace vectoriel de E si F lui même est un espace
vectoriel utilisant la même addition et la même
multiplication par les scalaires que celles de E.
Théorème 11 (critère) E un espace vectoriel,
F ⊂ E est un sous espace vectoriel, si, pour tous
vecteurs x, x0 de F et pour tout scalaire λ,
λ.x + x0 ∈ F .
Exemple 12
1)
F = {(x1 , x2 , x3 ); x1 + x2 − x3 = 0} est un
sous espace vectoriel de R3 .
2) F = {(x1 , x2 , x3 ); x1 + x2 − x3 = 1} n’est
pas un sous espace vectoriel de R3 , car le
vecteur 0 n’est pas dans F .
3) F l’ensemble des polynômes P de degré
inférieur ou égal m vérifiant P (0) = 0 est
un sous espace vectoriel de Pm [X].
8
1.2
Applications linéaires
Les applications linéaires sont présentent dans
plusieurs domaines de la physique et de
l’ingénierie. Elles sont généralement représentées
par des objets qu’on appelle matrices.
Definition 13 Soient E et F deux espaces
vectoriels. Une application f de E dans F est dite
linéaire, si, f (a.x + y) = a.f (x) + f (y) pour tous
vecteurs x, y ∈ E et pour tout scalaire a ∈ R.
Les applications suivantes sont linéaires :
Exemple 14 E = R3 , F = R2 et f : E → F
f (x1 , x2 , x3 ) = (x1 + 2x2 , x1 − x2 + x3 ).
Exemple 15 E = P3 [X], F = P2 [X] et f :
E → F définie par f (P ) = P (0) + 2P 0 .
E = P3 [X], F = P3 [X] et f : E → F définie par
f (P ) = X 3 P (0) + P .
9
Noyau et Image d’une application linéaire :
Definition 16 Soient E et F deux espaces
vectoriels et f une application linéaire de E dans
F.
1) On appelle Noyau de f l’ensemble des
vecteurs x de E pour lesquels f (x) = 0, on
le note Ker(f ) :
Ker(f ) = {x ∈ E; f (x) = 0}.
2) L’image de f est l’ensemble des vecteurs y
de F tels que y = f (x) pour un certain
x ∈ E, on le note par Im(f ) :
Im(f ) = {f (x); x ∈ E}.
Propriété 17
1) Ker(f ) est un sous espace
vectoriel de E.
2) Im(f ) est un sous espace vectoriel de F .
10
Exemple 18 E = R3 , F = R2 et f l’application
linéaire de E → F définie par
f (x1 , x2 , x3 ) = (x1 − x2 , x2 + x3 ). Donnons une
base de Ker(f ) et de Im(f ) :
Ker(f ) =
{(x1 , x2 , x3 ), tel que (x1 − x2 , x2 + x3 ) = (0, 0)},
donc (x1 , x2 , x3 ) ∈ Ker(f ) est équivalent à
x1 = x2 et x3 = −x2 et par conséquent les
vecteurs de Ker(f ) sont de la forme
x = (x2 , x2 , −x2 ) = x2 (1, 1, −1). Donc (1, 1, −1),
est une base de Ker(f ) (dim(Ker(f ) = 1).
Im(f ) =
{f (x1 , x2 , x3 ), avec (x1 , x2 , x3 ) décrivant R3 }.
Comme Im(f ) est un sous espace vectoriel de R2 ,
sa dimension est donc inférieure ou égale à 2.
Mais comme f (1, 0, 0) = (1, 0) et f (0, 0, 1) = (0, 1)
sont dans Im(f ) et que ces deux vecteurs forment
une base de R2 , donc Im(f ) = R2 .
Théorème 19 (Théorème du rang).
f une application linéaire de E dans F . Alors,
dim(Ker(f )) + dim(Im(f )) = dim(E).
11
2
2.1
Calcul matriciel
Notions et règles de calcul
Une matrice est une représentation numérique
d’une application linéaire.
Soit f une application de E dans F .
B = (e1 , . . . , em ), B 0 = (e01 , . . . , e0n ) bases de E et
F respectivement.
Un vecteur x ∈ E s’écrit d’une manière unique
x = x1 e1 + . . . + xm em , de même y ∈ F s’écrit
y = y1 e01 + . . . + yn e0n .
La représentation numérique de x et de y dans ces
deux bases
:



y
x
 1 
 1 
 . 
 . 
[x] =  .. , [y] =  .. , dites




yn
xm
représentation colonne.
12
Exemple 20 L’application linéaire de l’exemple
(18) : f (x) = f (x1 , x2 , x3 ) = (x1 − x2 , x2 + x3 ) =
x1 (1, 0) + x2 (−1, 1) + x3 (0, 1). En terme de
représentation colonne, f est représentée par :


x1



[x] =  x2 
 → [f (x)] =
x3
 




1
−1
0
 + x3 
=
x1   + x2 
0
1
1




x1


1
−1
0
.



x
2


0
1
1
x3


1
−1
0

 est la matrice de f . Ses
0
1
1
colonnes sont [f (e1 )], [f (e2 )] et [f (e3 )], où
e1 = (1, 0, 0), e2 = (0, 1, 0), e1 = (0, 0, 1) (en effet,
[f (x)] = x1 [f (e1 )] + x2 [f (e2 )] + x3 [f (e3 )]).
13
Plus généralement considérons une application
linéaire de E dans F de dimension m et n
respectivement, B = (e1 , . . . , em ),
B 0 = (e01 , . . . , e0n ) deux bases respectives de E et
F.
Comme les vecteurs f (ei ) sont dans F , ils
s’expriment comme combinaisons linéaires des
vecteurs de la base B 0 :
f (e1 ) = a11 e01 + a21 e02 + . . . + an1 e0n ,..,
f (em ) = a1m e01 + a2m e02 + . . . + anm e0n .
Soit x ∈ E, x = x1 e1 + . . . + xm em et utilisons la
linéarité de f , on obtient :
f (x) = x1 f (e1 )+x2 f (e2 )+. . . xm f (em ) = (a11 x1 +
a12 x2 + . . . + a1m xm )e01 + (a21 x1 + a22 x2 + . . . +
a2m xm )e02 + . . . + (an1 x1 + an2 x2 + . . . + anm xm )e0n .
La représentation
de f (x) est le vecteur colonne


a x + a12 x2 + . . . + a1m xm
 11 1

 a21 x1 + a22 x2 + . . . + a2m xm
[f (x)] = 
..


.

an1 x1 + an2 x2 + . . . + anm xm
14







La matric
associée

a
a12
 11

 a21 a22
A=
..
 ..
 .
.

0
à f dans les
bases
B
et
B
:

. . . a1m


. . . a2m 

..
.. .
.
. 

an1 an2 . . . anm
Notons que la jème colonne de A n’est autre que
la représentation [f (ej )] de f (ej ).
On dit que la matrice A est de type n × m.
Autrement dit une matrice à n lignes et à m
colonne. Le coefficient aij correspondant au
terme de la ième ligne et la jème colonnes.
L’opération linéaire f (x) se traduit alors par
[f (x)] = A.[x]
15

a11
a12
...
a1m





  x1 

 a21 a22 . . . a2m   . 

..  =
A.[x] = 
..
..
..  
 ..


 .
.
.
.


xm
an1 an2 . . . anm


a11 x1 + a12 x2 + . . . + a1m xm


..




.




 ak1 x1 + a22 x2 + . . . + akm xm .




..


.


an1 x1 + an2 x2 + . . . + anm xm
Règle (dans la suite on identifie x avec [x] :
ak1 x1 + a22 x2 +
akm xm =
. . . +


(ak1 , . . . , akm ) 

x1
..
.


 = Ak [x] = Ak x, où

xm
Ak = (ak1 , . . . , akm ) est la kème ligne de A.
16


x1


3
2

Exemple 21 E = R , F = R , x = 
 x2 ,
x3


x1 − x2

.
f (x) =
x2 + x3
Considérons B = (e1 , e2 , e3 ), B 0 = (e01 , e02 ) les
bases canoniques de E et F .
La matrice
de f dans

 ces deux bases est :
A=
1
0
−1
1
0
1

Exemple 22 E = P2 [X], F = P2 [X],
f (P ) = XP 0 + P (0).
Dans la base canonique de P2 [X], calculer la
matrice de f .
Exemple 23 E = P2 [X], F = P1 [X],
f (P ) = P 0 .
Dans les bases canoniques de P2 [X] et P1 [X],
calculer la matrice de f .
17
Addition
de matrices :

a
a12 . . . a1m
 11

 a21 a22 . . . a2m
A=
..
..
..
 ..
 .
.
.
.

an1
an2
...
anm




,





b
b12 . . . b1m

 11


 b21 b22 . . . b2m 

B=
..
..
.. , on a alors
 ..

 .
.
.
.


bn1 bn2 . . . bnm
A
+ B =
a + b11 a12 + b12 . . . a1m + b1m
 11

 a21 + b21 a2m + b22 . . . a2m + b2m

..
..
..
..


.
.
.
.

an1 + bn1 an2 + bn2 . . . anm + bnm
Multiplication par les scalaires :
18




.




λa11


 λa21
λ ∈ R, λ.A = 
 ..
 .

λan1
λa12
...
λa1m
λa22
..
.
...
..
.
λa2m
..
.
λan2
...
λanm
19




.



Multiplication de matrices :


a
a12 . . . a1m

 11


 a21 a22 . . . a2m 

A=
..
..
.. ,
 ..

 .
.
.
.


an1 an2 . . . anm


b
b
. . . b1n

 11 12


 b21 b22 . . . b2n 

B=
..
..
.. .
 ..
 .
.
.
. 


bp1
bp2
...
bpn
Le produit
BA de B par
 A est la matrice :

c
. . . c1m

 11
..
.. 
 ..
, avec :
C= .
.
. 


cp1 . . . cpm


a1j


 .. 
cij = (bi1 , . . . , bin )  . 


anj
20
Remarque 24
1) Le produit C = B.A n’est
possible que si le nombre de colonnes de B
est égal au nombre de lignes de A. Si A est
une matrice n × m et B une matrice
p × m, alors C est de type p × m.
2) Si m = p = 1, B devient un vecteur ligne
et A un vecteur colonne, B.A est alors une
matrice 1 × 1, donc un scalaire.
Rappelons qu’une matrice A de type n × m est
une application linéaire de Rm dans Rn
i) L’image de A :
Im(A) = {A.x, x ∈ Rm } est engendré par
les colonnes de A.
ii) Ker(A) dit le noyau de A est l’ensemble
des x tels que Ax = 0.
21
Definition 25 Le rang de la matrice A est la
dimension de Im(A) : Rang(A) = dim(Im(A)).
A étant une matrice n × m (donc une application
linéaire de Rm dans Rn ), d’après le théorème 19,
on a :
Rang(A) + dim(Ker(A)) = m
(1)
Remarque 26 Rang(A) est égal au nombre
maximal de colonne de A indépendantes. On peut
montrer que c’est aussi le nombre de lignes
maximalement indépendantes.
22

1

Exemple 27 A = 
 −1
0
1
3


1 1 
,
1 2
1) Le rang de A est égal à 2. En effet si A(j)
désigne la jème colonne de A, on a A(1) ,
A(2) sont indépendantes et
A(3) = A(1) + 2A(2) .
2) Utilisons (1) et la remarque 26, on en
déduit alors dim(Ker(A)) = 1.


−1



On peut vérifier que  −2 
 forme une
1
base de Ker(A).
23
2.2
Inversibilité, déterminants,
valeurs propres
Definition 28 Une matrice carrée A est dite
inversible, si pour tout vecteur colonne y de Rn ,
le système Ax = y admet une solution unique x.
Théorème 29 A est inversible si, et seulement
si, on a l’une des deux conditions :
a) Rang(A) = n
b) Ker(A) = 0
Un critère permettant de vérifier l’inversiblité
d’une matrice carrée consiste à vérifier si son
déterminant n’est pas nul.
Méthodes de calcul du déterminant :
• La méthode de Cramer : utilisée pour les
matrices à petite taille.
• La méthode de Gauss qui consiste à
triangulariser la matrice.
• La méthode Q.R : A = QR, où Q est une
matrice orthogonale (donc de déterminant
1 et R une matrice triangulaire.
24
Un petit rappel sur la méthode de Cramer :


a11 a12

,
A=
a21 a22
det(A) =

a11
a12
a21
a22
a11

A=
 a21
a31
a13

a22
a23

,

a32
a33
a12
det(A) = a11
a13
a21
a22
a31
a32
= a11
a31
= a11 a22 − a12 a21 .
a22
a23
a32
a33
a22
a23
a32
a33
a12
a13
a22
a23
− a12
− a21
25
a21
a23
a31
a33
a12
a13
a32
a33
+
+
Cas d’une matrice triangulaire :


a
a12 . . . . . . a1n

 11


 0 a22 . . . . . . a2n 

A=
..
..
.. ,
 ..
 .
.
. 
0
.


0
0 . . . 0 ann
det(A) = a11 a22 . . . ann .
Il en est de même pour une matrice triangulaire
inférieure.
26
Valeurs propres et Vecteurs propres :


1 0 ... 0




 0 1 ... 0 

I=
..
..  la matrice identité.
 .. ..
 . .
.
. 


0 0 ... 1
Definition 30 A une matrice n × n, le polynôme
P (λ) = det(λI − A) est dit polynôme
caractéristique de la matrice A. Ses racines sont
dits valeurs propres de A. P (λ) est un
polynôme de degré n, qui s’écrit sous la forme
P (λ) = λn + αn−1 λn−1 + . . . + α0 , où les αi sont
des constantes dépendantes de A.
En remplaçant λ par A dans l’expression du
polynôme caractéristique, on obtient
P (A) = An + αn−1 An−1 + . . . + α0 I (nous avons
utilisé le fait que λ0 = 1 et A0 = I)
Théorème 31 (Théorème de Kayley-Hamilton)
P (A) = 0, ou encore An = an−1 An−1 + . . . + a0 I,
où ai = −αi .
27

Exemple 32 A = 
a11
a12

, les valeurs
a21 a22
propres de A sont les nombres λ tels que
λ − a11
−a12
−a21
λ − a22
=
λ2 − (a11 + a22 )λ + a11 a22 − a12 a21 = 0
28
Definition 33 v ∈ Rn vecteur colonne non nul
est dit vecteur propre de A s’il existe une valeur
propre réelle λ de A tel que Av = λ.v.

Exemple 34 A = 
1
−4
−1
1

, les valeurs
propres sont −1 et 3.

Les vecteurs propres : v1 = 

v2 = 
4a
−a
quelconque.
2a
a

,

, où a est un nombre réel
Propriété 35 Les valeurs propres d’une matrice
diagonale sont les valaurs de la diagonale
29
Quelques matrices particulières :
Les matrices triangulaires :
Matrices
 carrées triangulaires :
a11
0
...

..
..
 ..
 .
.
.


A =  ak1 . . . akk

 ..
..
..
 .
.
.

an1 an2 . . .
triangulaire
inférieure.

a11
..
.
a12
..
.
...
..
.
... ...
..
..
.
.
0
..
.
...
..
.
... ...
...
..
.





A= 0
. . . 0 akk

 ..
..
..
..
 .
.
.
.

0
0 ... ...
triangulaire supérieure.
30
0
..
.
0
..
.











ann
...
..
.
a12
..
.
...
..
.
akn
..
.
0
ann











Propriété 36 Si A une matrice iriangulaire, son
polynôme caractéristique P (λ) s’écrit : P (λ) =
det(λI − A) = (λ − a11 )(λ − a22 ) . . . (λ − ann ), où
les aii sont les termes de la diagonale de A.
Cela veut dire que les valeurs propres d’une
matrice triangulaire sont exactement les termes
de sa diagonale.
31
Transposé d’une matrice :
Soit A une matrice de type n × m, sa transposée
notée par AT est la matrice m × n telle que
(AT )ij = Aji .
Si v = (v1 , . . . , vn ) un vecteur ligne (donc une
matrice 1 × n),
est le vecteur
son transposé

v
 1 
 . 
colonne v T =  .. .


vn
Remarque 37 La ième ligne de AT est le
transposé de la ième colonne de A.


a11 a12 a13



Exemple 38 Si A =  a21 a22 a23 
, alors,
a31 a32 a33


a11 a21 a31


T

A =  a12 a22 a32 
.
a13 a23 a33
32
Les matrices symétriques :
Definition 39 Une matrice S carrée de type
n × n est dite symétrique, si S T = S. Cela veut
dire que Sij = Sji , pour tous i, j.


S11 S12 S13



Exemple 40 S =  S12 S22 S23 
.
S13 S23 S33
Les matrices
diagonales 

δ
 1
 .
∆ =  ..

0
0
..
.
...
..
.
0
..
.
...
0
δn




Definition 41 Une matrice symétrique S est dite
positive (respectivement définie positive) si pour
tout vecteur colonne x, on a xT Sx ≥ 0
(respectivement pour tout vecteur colonne x 6= 0,
xT Sx > 0).
Par la suite, on notera SDP pour désigner une
matrice symétrique définie positive.
33
Exemple 42


1 −1

 est symmetrique positive,
1) S =
−1 1
mais pas définie positive. Pour cela vérifier que
car si x = (x1 x2 ), on a xT Sx = (x1 − x2 )2 , donc
positif pour tout x, mais si on prend x1 = x2 6= 0,
on a xT Sx = 0, donc xT Sx n’est pas strictement
positif pour tout vecteur x 6= (0 0).




x1
2 1 0







2) S =  1 1 0 , x =  x2 
.
x3
0 0 1
i) S = S T , donc S est symétrique
ii) xT Sx = 2x21 + 2x1 x2 + x22 + x23 =
(x1 + x2 )2 + x21 + x23 > 0, pour tout x 6= 0,
donc S est définie positive.
Par conséquent S est SDP .
34
Théorème 43 Une matrice symétrique est
positive (resp. définie positive) si, ses valeurs
propres sont positives (resp. strictement positives).
Exemple 44 Considérons la matrice S définie
ci-dessus et calculons ses valeurs propres.
Ces valeurs propres sont les racines du polynôme
caractéristique :
P (λ) = det(λI − S) =
(λ − 2)
λ−1
0
0
λ−1
λ−2
−1
0
−1
λ−1
0
0
0
λ−1
+
−1
0
0
λ−1
=
=
(λ − 2)(λ − 1)2 − (λ − 1) = (λ − 1)[(λ − 2)(λ − 1) − 1]
= (λ − 1)(λ2 − 3λ + 1).
√
√
3+ 5 3− 5
Les racines de P (λ) sont 1, 2 , 2 qui sont
toutes strictement positives.
35
2.3
Normes de vecteurs et de
matrices
Une norme est un outil qui permet de mesurer des
grandeurs vectorielles ou matricielles.
• Norme Euclidienne : x ∈ Rn ,
p
kxk = x21 + . . . + x2n . kxk = xT x si x est
vecteur ligne et xxT si x est colonne. kxk
est la longueur Euclidienne de x.
• Plus généralement, si S est une matrice
SDP n × n, la norme k.kS sur Rn est
√
définie par kxkS = xT Sx, pour tout
vecteur colonne x de Rn . Pour S = I, on
retrouve la longueur Euclidienne.
• La norme k.kmax :
kxkmax = max{|x1 |, . . . , |xn |}.
• La norme k.k1 : kxk1 = |x1 | + . . . + |xn |.
36
Norme de matrices :
La définition de norme d’une matrice que nous
allons donner est restrictive, dans le sens que nous
allons la construire à partir de la norme
Euclidienne de Rn .
Definition 45 k.k étant la norme Euclidienne de
Rn . Soit A une matrice m × n, on appelle norme
de A le plus petit nombre réel a ≥ 0 tel que pour
tout x, kAxk ≤ akxk. Ce nombre est dit la norme
de A et on le note kAk.
Exemple 46 Exemple de normes :
• La norme de la matrice identité est 1.
• La norme d’une matrice diagonale est la
plus grande valeur absolue des termes de sa
diagonale.
37
Théorème 47
1) Soit S une matrice
symétrique positive, alors la norme de S
est égale à sa plus grande valeur propre. de
plus, on a λmin kxk2 ≤ xT Sx ≤ λmax kxk2 .
2) Soit A une matrice n × n et notons par σ
la plus grande valeur propre de la matrice
symétrique positive AT A, alors la norme
√
de A est égale à σ. σ est dit la plus
grande valeur singulière de A.
38
Téléchargement