1 1.1 Algèbre linéaire Notions d’espaces vectoriels La droite vectrielle c’est l’ensemble des nombres réels, noté R. Le plan vectoriel R2 . Ses éléments sont des couples (x1 , x2 ), x1 , x2 décrivent indépendamment R l’ensemble des nombres réels. • L’addition : (x1 , x2 ) + (x01 , x02 ) = (x1 + x01 , x2 + x02 ). • La multiplication par des scalaires : λ.(x1 , x2 ) = (λx1 , λx2 ). En particulier (x1 , x2 ) = (x1 , 0) + (0, x2 ) = x1 .(1, 0) + x2 .(0, 1). l’écriture est unique, on dit que ((1, 0), (0, 1)) forme une base de R2 (dite aussi la base canonique). Attention l’ordre des composantes du couple est important si x1 6= x2 , (x1 , x2 ) 6= (x2 , x1 ). 1 Plus généralement, Rn l’ensemble des n-uplets (x1 , . . . , xn ) : • L’addition : (x1 , . . . , xn ) + (x01 , . . . , x0n ) = (x1 + x01 , . . . , xn + x0n ). • La multiplication par des scalaires : λ.(x1 , . . . , xn ) = (λx1 , . . . , λxn ). Comme dans le cas du plan vectoriel, on a (x1 , . . . , xn ) = (x1 , . . . , 0) + . . . + (0, . . . , xn ) = x1 (1, . . . , 0) + . . . + xn .(0, . . . , 1). on dit que (1, 0, . . . , 0), . . . , (0, 0, . . . , 1) forment la base canonique de Rn . Le vecteur nul est (0, . . . , 0) ∈ Rn , on le note par 0 et à ne pas confondre avec le scalaire 0. Comme dans le cas du plan, deux vecteurs (x1 , . . . , xn ) et (x01 , . . . , x0n ) sont égaux, si, x1 = x01 , . . . , xn = x0n . Pour les vecteurs de Rn , dans certains cas, nous utiliserons une représentaion colonne 2 L’esp. vect. des polynômes de degré ≤ m : Un polynôme à coefficients réels de degré inférieur ou égal à m : P (x) = a0 + a1 x + . . . + am xm , les ai sont les coefficients de P . Pm [X] désigne l’ensemble des polynômes de degré inférieur ou égal à m. Cet ensemble peut être considéré comme un espace vectoriel sur R : • L’addition : P (x) = a0 + a1 x + . . . + am xm et Q(x) = b0 + b1 x + . . . + bm xm , alors on définit le polynôme P + Q par : (P + Q)(x) = (a0 + b0 ) + (a1 + b1 )x + . . . + (am + bm )xm • La multiplication par des scalaires : (λ.P )(x) = λ.a0 + λ.a1 x + . . . + λ.am xm . Le monôme X k désigne le polynôme qui à x on lui associe xk . Avec la convention X 0 (x) = x0 = 1, un polynôme de degré m s’écrit : P = a0 X 0 + a1 X + . . . + am X m . On dira que (X 0 , X, . . . , X m ) est la base canonique de l’espace vectoriel Pm [X] . 3 Definition 1 Soit E un ensemble muni d’une addition + et d’une multiplication par les scalaires notée . : • E muni de l’addition est un groupe commutatif : i) x, y ∈ E, alors x + y ∈ E, x + y = y + x, ii) 0 élément neutre : x + 0 = x, iii) l’élément symétrique : ∀x ; ∃x0 ∈ E tel que x + x0 = 0 (x0 est dit le symétrique ou l’opposé de x, souvent noté par −x). • La multiplication par des scalaires : ∀a ∈ R ; ∀x ∈ E, a.x ∈ E et vérifiant : - ∀a, b ∈ R ; ∀x ∈ E, a.(b.x) = (ab).x, ab et la multiplication dans R. - ∀a, b ∈ R ; ∀x ∈ E, (a + b).x = a.x + b.x, a + b et l’addition dans R. - ∀a ∈ R ; ∀x, y ∈ E, a.(x + y) = a.x + b.y. - ∀x ∈ E, 1.x = x. 4 indépendance, systèmes générateurs et bases : Definition 2 k vecteurs v1 , . . . , vk d’un espace vectoriel sont dits indépendants, si aucun vecteur vi ne dépendent des autres vecteurs qui lui sont Pk différents : vi 6= j=1,j6=i λj vj . De cette définition, nous déduisons : Remarque 3 v1 , . . . , vk sont indépendants, si a1 , . . . , ak sont des scalaires tels que a1 v1 + . . . + ak vk = 0, alors a1 = . . . = ak = 0. A ne pas confondre le 0 vecteur le 0 scalaire. Exemple 4 (1, 1, 0) et (0, 1, 0) sont deux vecteurs indépendants de R3 . Exemple 5 (1, 1, 0), (0, 1, 1) et (1, 2, 1) sont trois vecteurs dépendants de R3 . En effet, (1, 2, 1) = (1, 1, 0) + (0, 1, 1). 5 Definition 6 k vecteurs v1 , . . . , vk d’un espace vectoriel E forment un système générateur de E (on dit aussi que v1 , . . . , vk engendrent E), si, tout vecteur de E s’écrit comme combinaison linéaire de v1 , . . . , vk : Pour tout vecteur x ∈ E ; il existe des scalaires a1 , . . . , ak tels que x = a1 .v1 + . . . + ak .vk . Definition 7 Soient k vecteurs v1 , . . . , vk d’un espace vectoriel E. B = {v1 , . . . , vk } forme une base de E, si pour tout vecteur x ∈ E ; il existe un unique k-uplet de scalaires (a1 , . . . , ak ) tel que x = a1 .v1 + . . . + ak .vk . Théorème 8 1) B = (v1 , . . . , vk ) est une base d’un espace vectoriel E, si, v1 , . . . , vk sont indépendants et engendrent E. 2) Deux bases ont toujours le même nombre de vecteurs (ici k). Ce nombre est appelé la dimension de E et se note par dim(E). 3) Si dim(E) = k et si les vecteurs e1 , . . . , ek sont indépendants, ou s’ils engendrent E, alors (e1 , . . . , ek ) est une base de E. 6 Exemple 9 1) (1, 0, 0), (0, 1, 0), (0, 0, 1) forment une base de R3 : la base canonique. 2) Considérons les vecteurs e1 = (1, 0, . . . , 0), . . . , en = (0, 0, . . . , 1) de Rn (toutes les composantes de ei sont nulles sauf la ième et qui vaut 1. Alors e1 , . . . , en forment une base de Rn (dite la base canonique). 3) Vérifier que v1 = (1, 1, 1), v2 = (1, 0, 1), v3 = (0, 1, 1) forment une base de R3 . 4) (1, . . . , X m ) est une base de Pm [X]. 5) Le polynôme X 0 constant qui vaut 1 est généralement noté par 1 à ne pas confondre confondre avec le scalaire l) : (1, X, . . . , X m ) est une base de Pm [X] (l’espace vectoriel des plolynômes de degré inférieur ou égal à m). 6) (1, X, X, X 2 + X) est une base de P2 [X]. 7 Sous espaces vectoriels Definition 10 E étant un espace vectoriel. Un sous ensemble F non vide de E est dit sous espace vectoriel de E si F lui même est un espace vectoriel utilisant la même addition et la même multiplication par les scalaires que celles de E. Théorème 11 (critère) E un espace vectoriel, F ⊂ E est un sous espace vectoriel, si, pour tous vecteurs x, x0 de F et pour tout scalaire λ, λ.x + x0 ∈ F . Exemple 12 1) F = {(x1 , x2 , x3 ); x1 + x2 − x3 = 0} est un sous espace vectoriel de R3 . 2) F = {(x1 , x2 , x3 ); x1 + x2 − x3 = 1} n’est pas un sous espace vectoriel de R3 , car le vecteur 0 n’est pas dans F . 3) F l’ensemble des polynômes P de degré inférieur ou égal m vérifiant P (0) = 0 est un sous espace vectoriel de Pm [X]. 8 1.2 Applications linéaires Les applications linéaires sont présentent dans plusieurs domaines de la physique et de l’ingénierie. Elles sont généralement représentées par des objets qu’on appelle matrices. Definition 13 Soient E et F deux espaces vectoriels. Une application f de E dans F est dite linéaire, si, f (a.x + y) = a.f (x) + f (y) pour tous vecteurs x, y ∈ E et pour tout scalaire a ∈ R. Les applications suivantes sont linéaires : Exemple 14 E = R3 , F = R2 et f : E → F f (x1 , x2 , x3 ) = (x1 + 2x2 , x1 − x2 + x3 ). Exemple 15 E = P3 [X], F = P2 [X] et f : E → F définie par f (P ) = P (0) + 2P 0 . E = P3 [X], F = P3 [X] et f : E → F définie par f (P ) = X 3 P (0) + P . 9 Noyau et Image d’une application linéaire : Definition 16 Soient E et F deux espaces vectoriels et f une application linéaire de E dans F. 1) On appelle Noyau de f l’ensemble des vecteurs x de E pour lesquels f (x) = 0, on le note Ker(f ) : Ker(f ) = {x ∈ E; f (x) = 0}. 2) L’image de f est l’ensemble des vecteurs y de F tels que y = f (x) pour un certain x ∈ E, on le note par Im(f ) : Im(f ) = {f (x); x ∈ E}. Propriété 17 1) Ker(f ) est un sous espace vectoriel de E. 2) Im(f ) est un sous espace vectoriel de F . 10 Exemple 18 E = R3 , F = R2 et f l’application linéaire de E → F définie par f (x1 , x2 , x3 ) = (x1 − x2 , x2 + x3 ). Donnons une base de Ker(f ) et de Im(f ) : Ker(f ) = {(x1 , x2 , x3 ), tel que (x1 − x2 , x2 + x3 ) = (0, 0)}, donc (x1 , x2 , x3 ) ∈ Ker(f ) est équivalent à x1 = x2 et x3 = −x2 et par conséquent les vecteurs de Ker(f ) sont de la forme x = (x2 , x2 , −x2 ) = x2 (1, 1, −1). Donc (1, 1, −1), est une base de Ker(f ) (dim(Ker(f ) = 1). Im(f ) = {f (x1 , x2 , x3 ), avec (x1 , x2 , x3 ) décrivant R3 }. Comme Im(f ) est un sous espace vectoriel de R2 , sa dimension est donc inférieure ou égale à 2. Mais comme f (1, 0, 0) = (1, 0) et f (0, 0, 1) = (0, 1) sont dans Im(f ) et que ces deux vecteurs forment une base de R2 , donc Im(f ) = R2 . Théorème 19 (Théorème du rang). f une application linéaire de E dans F . Alors, dim(Ker(f )) + dim(Im(f )) = dim(E). 11 2 2.1 Calcul matriciel Notions et règles de calcul Une matrice est une représentation numérique d’une application linéaire. Soit f une application de E dans F . B = (e1 , . . . , em ), B 0 = (e01 , . . . , e0n ) bases de E et F respectivement. Un vecteur x ∈ E s’écrit d’une manière unique x = x1 e1 + . . . + xm em , de même y ∈ F s’écrit y = y1 e01 + . . . + yn e0n . La représentation numérique de x et de y dans ces deux bases : y x 1 1 . . [x] = .. , [y] = .. , dites yn xm représentation colonne. 12 Exemple 20 L’application linéaire de l’exemple (18) : f (x) = f (x1 , x2 , x3 ) = (x1 − x2 , x2 + x3 ) = x1 (1, 0) + x2 (−1, 1) + x3 (0, 1). En terme de représentation colonne, f est représentée par : x1 [x] = x2 → [f (x)] = x3 1 −1 0 + x3 = x1 + x2 0 1 1 x1 1 −1 0 . x 2 0 1 1 x3 1 −1 0 est la matrice de f . Ses 0 1 1 colonnes sont [f (e1 )], [f (e2 )] et [f (e3 )], où e1 = (1, 0, 0), e2 = (0, 1, 0), e1 = (0, 0, 1) (en effet, [f (x)] = x1 [f (e1 )] + x2 [f (e2 )] + x3 [f (e3 )]). 13 Plus généralement considérons une application linéaire de E dans F de dimension m et n respectivement, B = (e1 , . . . , em ), B 0 = (e01 , . . . , e0n ) deux bases respectives de E et F. Comme les vecteurs f (ei ) sont dans F , ils s’expriment comme combinaisons linéaires des vecteurs de la base B 0 : f (e1 ) = a11 e01 + a21 e02 + . . . + an1 e0n ,.., f (em ) = a1m e01 + a2m e02 + . . . + anm e0n . Soit x ∈ E, x = x1 e1 + . . . + xm em et utilisons la linéarité de f , on obtient : f (x) = x1 f (e1 )+x2 f (e2 )+. . . xm f (em ) = (a11 x1 + a12 x2 + . . . + a1m xm )e01 + (a21 x1 + a22 x2 + . . . + a2m xm )e02 + . . . + (an1 x1 + an2 x2 + . . . + anm xm )e0n . La représentation de f (x) est le vecteur colonne a x + a12 x2 + . . . + a1m xm 11 1 a21 x1 + a22 x2 + . . . + a2m xm [f (x)] = .. . an1 x1 + an2 x2 + . . . + anm xm 14 La matric associée a a12 11 a21 a22 A= .. .. . . 0 à f dans les bases B et B : . . . a1m . . . a2m .. .. . . . an1 an2 . . . anm Notons que la jème colonne de A n’est autre que la représentation [f (ej )] de f (ej ). On dit que la matrice A est de type n × m. Autrement dit une matrice à n lignes et à m colonne. Le coefficient aij correspondant au terme de la ième ligne et la jème colonnes. L’opération linéaire f (x) se traduit alors par [f (x)] = A.[x] 15 a11 a12 ... a1m x1 a21 a22 . . . a2m . .. = A.[x] = .. .. .. .. . . . . xm an1 an2 . . . anm a11 x1 + a12 x2 + . . . + a1m xm .. . ak1 x1 + a22 x2 + . . . + akm xm . .. . an1 x1 + an2 x2 + . . . + anm xm Règle (dans la suite on identifie x avec [x] : ak1 x1 + a22 x2 + akm xm = . . . + (ak1 , . . . , akm ) x1 .. . = Ak [x] = Ak x, où xm Ak = (ak1 , . . . , akm ) est la kème ligne de A. 16 x1 3 2 Exemple 21 E = R , F = R , x = x2 , x3 x1 − x2 . f (x) = x2 + x3 Considérons B = (e1 , e2 , e3 ), B 0 = (e01 , e02 ) les bases canoniques de E et F . La matrice de f dans ces deux bases est : A= 1 0 −1 1 0 1 Exemple 22 E = P2 [X], F = P2 [X], f (P ) = XP 0 + P (0). Dans la base canonique de P2 [X], calculer la matrice de f . Exemple 23 E = P2 [X], F = P1 [X], f (P ) = P 0 . Dans les bases canoniques de P2 [X] et P1 [X], calculer la matrice de f . 17 Addition de matrices : a a12 . . . a1m 11 a21 a22 . . . a2m A= .. .. .. .. . . . . an1 an2 ... anm , b b12 . . . b1m 11 b21 b22 . . . b2m B= .. .. .. , on a alors .. . . . . bn1 bn2 . . . bnm A + B = a + b11 a12 + b12 . . . a1m + b1m 11 a21 + b21 a2m + b22 . . . a2m + b2m .. .. .. .. . . . . an1 + bn1 an2 + bn2 . . . anm + bnm Multiplication par les scalaires : 18 . λa11 λa21 λ ∈ R, λ.A = .. . λan1 λa12 ... λa1m λa22 .. . ... .. . λa2m .. . λan2 ... λanm 19 . Multiplication de matrices : a a12 . . . a1m 11 a21 a22 . . . a2m A= .. .. .. , .. . . . . an1 an2 . . . anm b b . . . b1n 11 12 b21 b22 . . . b2n B= .. .. .. . .. . . . . bp1 bp2 ... bpn Le produit BA de B par A est la matrice : c . . . c1m 11 .. .. .. , avec : C= . . . cp1 . . . cpm a1j .. cij = (bi1 , . . . , bin ) . anj 20 Remarque 24 1) Le produit C = B.A n’est possible que si le nombre de colonnes de B est égal au nombre de lignes de A. Si A est une matrice n × m et B une matrice p × m, alors C est de type p × m. 2) Si m = p = 1, B devient un vecteur ligne et A un vecteur colonne, B.A est alors une matrice 1 × 1, donc un scalaire. Rappelons qu’une matrice A de type n × m est une application linéaire de Rm dans Rn i) L’image de A : Im(A) = {A.x, x ∈ Rm } est engendré par les colonnes de A. ii) Ker(A) dit le noyau de A est l’ensemble des x tels que Ax = 0. 21 Definition 25 Le rang de la matrice A est la dimension de Im(A) : Rang(A) = dim(Im(A)). A étant une matrice n × m (donc une application linéaire de Rm dans Rn ), d’après le théorème 19, on a : Rang(A) + dim(Ker(A)) = m (1) Remarque 26 Rang(A) est égal au nombre maximal de colonne de A indépendantes. On peut montrer que c’est aussi le nombre de lignes maximalement indépendantes. 22 1 Exemple 27 A = −1 0 1 3 1 1 , 1 2 1) Le rang de A est égal à 2. En effet si A(j) désigne la jème colonne de A, on a A(1) , A(2) sont indépendantes et A(3) = A(1) + 2A(2) . 2) Utilisons (1) et la remarque 26, on en déduit alors dim(Ker(A)) = 1. −1 On peut vérifier que −2 forme une 1 base de Ker(A). 23 2.2 Inversibilité, déterminants, valeurs propres Definition 28 Une matrice carrée A est dite inversible, si pour tout vecteur colonne y de Rn , le système Ax = y admet une solution unique x. Théorème 29 A est inversible si, et seulement si, on a l’une des deux conditions : a) Rang(A) = n b) Ker(A) = 0 Un critère permettant de vérifier l’inversiblité d’une matrice carrée consiste à vérifier si son déterminant n’est pas nul. Méthodes de calcul du déterminant : • La méthode de Cramer : utilisée pour les matrices à petite taille. • La méthode de Gauss qui consiste à triangulariser la matrice. • La méthode Q.R : A = QR, où Q est une matrice orthogonale (donc de déterminant 1 et R une matrice triangulaire. 24 Un petit rappel sur la méthode de Cramer : a11 a12 , A= a21 a22 det(A) = a11 a12 a21 a22 a11 A= a21 a31 a13 a22 a23 , a32 a33 a12 det(A) = a11 a13 a21 a22 a31 a32 = a11 a31 = a11 a22 − a12 a21 . a22 a23 a32 a33 a22 a23 a32 a33 a12 a13 a22 a23 − a12 − a21 25 a21 a23 a31 a33 a12 a13 a32 a33 + + Cas d’une matrice triangulaire : a a12 . . . . . . a1n 11 0 a22 . . . . . . a2n A= .. .. .. , .. . . . 0 . 0 0 . . . 0 ann det(A) = a11 a22 . . . ann . Il en est de même pour une matrice triangulaire inférieure. 26 Valeurs propres et Vecteurs propres : 1 0 ... 0 0 1 ... 0 I= .. .. la matrice identité. .. .. . . . . 0 0 ... 1 Definition 30 A une matrice n × n, le polynôme P (λ) = det(λI − A) est dit polynôme caractéristique de la matrice A. Ses racines sont dits valeurs propres de A. P (λ) est un polynôme de degré n, qui s’écrit sous la forme P (λ) = λn + αn−1 λn−1 + . . . + α0 , où les αi sont des constantes dépendantes de A. En remplaçant λ par A dans l’expression du polynôme caractéristique, on obtient P (A) = An + αn−1 An−1 + . . . + α0 I (nous avons utilisé le fait que λ0 = 1 et A0 = I) Théorème 31 (Théorème de Kayley-Hamilton) P (A) = 0, ou encore An = an−1 An−1 + . . . + a0 I, où ai = −αi . 27 Exemple 32 A = a11 a12 , les valeurs a21 a22 propres de A sont les nombres λ tels que λ − a11 −a12 −a21 λ − a22 = λ2 − (a11 + a22 )λ + a11 a22 − a12 a21 = 0 28 Definition 33 v ∈ Rn vecteur colonne non nul est dit vecteur propre de A s’il existe une valeur propre réelle λ de A tel que Av = λ.v. Exemple 34 A = 1 −4 −1 1 , les valeurs propres sont −1 et 3. Les vecteurs propres : v1 = v2 = 4a −a quelconque. 2a a , , où a est un nombre réel Propriété 35 Les valeurs propres d’une matrice diagonale sont les valaurs de la diagonale 29 Quelques matrices particulières : Les matrices triangulaires : Matrices carrées triangulaires : a11 0 ... .. .. .. . . . A = ak1 . . . akk .. .. .. . . . an1 an2 . . . triangulaire inférieure. a11 .. . a12 .. . ... .. . ... ... .. .. . . 0 .. . ... .. . ... ... ... .. . A= 0 . . . 0 akk .. .. .. .. . . . . 0 0 ... ... triangulaire supérieure. 30 0 .. . 0 .. . ann ... .. . a12 .. . ... .. . akn .. . 0 ann Propriété 36 Si A une matrice iriangulaire, son polynôme caractéristique P (λ) s’écrit : P (λ) = det(λI − A) = (λ − a11 )(λ − a22 ) . . . (λ − ann ), où les aii sont les termes de la diagonale de A. Cela veut dire que les valeurs propres d’une matrice triangulaire sont exactement les termes de sa diagonale. 31 Transposé d’une matrice : Soit A une matrice de type n × m, sa transposée notée par AT est la matrice m × n telle que (AT )ij = Aji . Si v = (v1 , . . . , vn ) un vecteur ligne (donc une matrice 1 × n), est le vecteur son transposé v 1 . colonne v T = .. . vn Remarque 37 La ième ligne de AT est le transposé de la ième colonne de A. a11 a12 a13 Exemple 38 Si A = a21 a22 a23 , alors, a31 a32 a33 a11 a21 a31 T A = a12 a22 a32 . a13 a23 a33 32 Les matrices symétriques : Definition 39 Une matrice S carrée de type n × n est dite symétrique, si S T = S. Cela veut dire que Sij = Sji , pour tous i, j. S11 S12 S13 Exemple 40 S = S12 S22 S23 . S13 S23 S33 Les matrices diagonales δ 1 . ∆ = .. 0 0 .. . ... .. . 0 .. . ... 0 δn Definition 41 Une matrice symétrique S est dite positive (respectivement définie positive) si pour tout vecteur colonne x, on a xT Sx ≥ 0 (respectivement pour tout vecteur colonne x 6= 0, xT Sx > 0). Par la suite, on notera SDP pour désigner une matrice symétrique définie positive. 33 Exemple 42 1 −1 est symmetrique positive, 1) S = −1 1 mais pas définie positive. Pour cela vérifier que car si x = (x1 x2 ), on a xT Sx = (x1 − x2 )2 , donc positif pour tout x, mais si on prend x1 = x2 6= 0, on a xT Sx = 0, donc xT Sx n’est pas strictement positif pour tout vecteur x 6= (0 0). x1 2 1 0 2) S = 1 1 0 , x = x2 . x3 0 0 1 i) S = S T , donc S est symétrique ii) xT Sx = 2x21 + 2x1 x2 + x22 + x23 = (x1 + x2 )2 + x21 + x23 > 0, pour tout x 6= 0, donc S est définie positive. Par conséquent S est SDP . 34 Théorème 43 Une matrice symétrique est positive (resp. définie positive) si, ses valeurs propres sont positives (resp. strictement positives). Exemple 44 Considérons la matrice S définie ci-dessus et calculons ses valeurs propres. Ces valeurs propres sont les racines du polynôme caractéristique : P (λ) = det(λI − S) = (λ − 2) λ−1 0 0 λ−1 λ−2 −1 0 −1 λ−1 0 0 0 λ−1 + −1 0 0 λ−1 = = (λ − 2)(λ − 1)2 − (λ − 1) = (λ − 1)[(λ − 2)(λ − 1) − 1] = (λ − 1)(λ2 − 3λ + 1). √ √ 3+ 5 3− 5 Les racines de P (λ) sont 1, 2 , 2 qui sont toutes strictement positives. 35 2.3 Normes de vecteurs et de matrices Une norme est un outil qui permet de mesurer des grandeurs vectorielles ou matricielles. • Norme Euclidienne : x ∈ Rn , p kxk = x21 + . . . + x2n . kxk = xT x si x est vecteur ligne et xxT si x est colonne. kxk est la longueur Euclidienne de x. • Plus généralement, si S est une matrice SDP n × n, la norme k.kS sur Rn est √ définie par kxkS = xT Sx, pour tout vecteur colonne x de Rn . Pour S = I, on retrouve la longueur Euclidienne. • La norme k.kmax : kxkmax = max{|x1 |, . . . , |xn |}. • La norme k.k1 : kxk1 = |x1 | + . . . + |xn |. 36 Norme de matrices : La définition de norme d’une matrice que nous allons donner est restrictive, dans le sens que nous allons la construire à partir de la norme Euclidienne de Rn . Definition 45 k.k étant la norme Euclidienne de Rn . Soit A une matrice m × n, on appelle norme de A le plus petit nombre réel a ≥ 0 tel que pour tout x, kAxk ≤ akxk. Ce nombre est dit la norme de A et on le note kAk. Exemple 46 Exemple de normes : • La norme de la matrice identité est 1. • La norme d’une matrice diagonale est la plus grande valeur absolue des termes de sa diagonale. 37 Théorème 47 1) Soit S une matrice symétrique positive, alors la norme de S est égale à sa plus grande valeur propre. de plus, on a λmin kxk2 ≤ xT Sx ≤ λmax kxk2 . 2) Soit A une matrice n × n et notons par σ la plus grande valeur propre de la matrice symétrique positive AT A, alors la norme √ de A est égale à σ. σ est dit la plus grande valeur singulière de A. 38