L`essentiel du Cours d`Algèbre

publicité
L1 STEP – UFR STEP – Université Paris 7
“Mathématiques 2” – Algèbre
L’essentiel du Cours d’Algèbre
1
Espaces vectoriels
Définition : on appelle espace vectoriel (e.v) sur un corps K (R ou C) un ensemble E muni de deux lois :
• une loi interne, notée “+”, telle que (E, +) est un groupe commutatif (voir Annexe).
• une loi externe, notée “.”, définie de K × E dans E telle que :
– ∀(λ, µ) ∈ K2 , ∀u ∈ E, (λ + µ).u = λ.u + µ.u
– ∀λ ∈ K, ∀(u, v) ∈ E × E, λ.(u + v) = λ.u + λ.v
– ∀(λ, µ) ∈ K2 , ∀u ∈ E, (λ.µ).u = λ.(µ.u)
– ∀u ∈ E, 1K .u = u (1K , élément neutre de K pour le produit, est aussi neutre pour “.”).
Les éléments d’un e.v. sont appelés des vecteurs. Un espace vectoriel peut être de dimension finie ou infinie.
Propriétés élémentaires
– ∀u ∈ E, 0K .u = 0E
– ∀λ ∈ K, λ.0E = 0E
– ∀(λ, u) ∈ K × E, λ.u = 0E ⇒ λ = 0K ou u = 0E
– ∀(λ, x, y) ∈ K∗ E × E, λ.x = λ.y ⇒ x = y
– ∀(λ, µ) ∈ K2 , ∀x ∈ E \ {0E }, λ.x = µ.x ⇒ λ = µ
– ∀λ ∈ K, ∀x ∈ E, λ.(−x) = −(λ.x) = (−λ).x
Sous-espace vectoriel
• Famille d’éléments d’un e.v. : n étant un entier non nul quelconque, on appelle famille finie à n d’éléments de E, et
on note (u1 , . . . , un ) un n-uplet d’éléments de E (les ui ne sont pas forcément distincts).
• Combinaison linéaire (c.l.) : Soit (u1 , . . . , un ) une famille finie d’éléments de E, on appelle combinaison linéaire des
n
P
ui tout vecteur u de E de la forme :
αi ui , où les αi sont des scalaires.
i=1
• Sous-espace vectoriel (s.e.v) : on appelle sous-espace vectoriel de E toute partie A non vide de E, stable par les
deux opérations “+” et “.”, et qui, munie des lois induites, est encore un K–e.v..
• Théorème : Soit A une partie non vide de E. A est un s.e.v. de E ⇐⇒ A est stable par c.l..
• Sous-espace vectoriel engendré
– Définition : soit P une partie quelconque de E. On appelle s.e.v. engendré par P l’intersection de tous les s.e.v
de E contenant P . C’est aussi l’ensemble des combinaisons linéaires (finies) des éléments de P . On le note
V ect(P ) et pour la relation ⊂ c’est le plus petit s.e.v. de E contenant P .
– Théorème : l’intersection d’une famille quelconque de s.e.v. de E est un s.e.v. de E.
• Somme
– Définition : Soient F et G deux s.e.v. de E. On note F + G l’ensemble des éléments z de E tels que ∃ x ∈ E
et ∃ y ∈ F avec z = x + y. F + G est aussi un s.e.v. de E.
– Théorème : dim(F + G) = dimF + dimG − dim(F ∩ G).
• Somme directe
– Définition : Soient F et G deux s.e.v. de E. On dit que F et G sont supplémentaires, et on note E = F ⊕ G,
si tout vecteur de E se décompose de façon unique en la somme d’un vecteur de F et d’un vecteur de G
– Théorème : E = F ⊕ G ⇐⇒ E = F + G et F ∩ G = {0E }.
Espace vectoriel E de dimension finie n
• Famille génératrice de E : il s’agit d’une famille de E telle que E = V ect (x1 , · · · , xn ). On dit qu’un K–e.v. est de
dimension finie s’il admet une famille génératrice finie. Toute famille génératrice de E a au moins n éléments.
• Famille libre : il s’agit d’une famille dont les éléments sont linéairement indépendants. Aucun élément n’est c.l. des
autres. C’est aussi une famille d’éléments telle que la seule c.l. nulle est la combinaison linéaire à coefficients tous
Raphaël Grandin – IPGP – [email protected]
Version du 1er mars 2017
L’essentiel du Cours d’Algèbre
nuls. Dans un e.v. de dimension finie, une famille libre ne peut avoir plus d’éléments qu’une famille génératrice.
Toute famille libre de E a au plus n éléments.
• Base : il s’agit d’une famille libre et génératrice. Tout e.v. de dimension finie admet une base. Toutes les bases ont
le même nombre d’éléments, égal à n, la dimension de E. Toute famille génératrice à n éléments est une base. Toute
famille libre à n éléments est une base. Toute famille génératrice de E contient une base. Tout famille libre de E
peut-être complétée en une base. Dans ce cours, nous considérerons le plus souvent possible des bases orthonormées.
La notion de base orthonormale nécessite de disposer d’un produit scalaire (voir partie 2). La base canonique d’un
e.v. est la base la plus “naturelle” (par exemple {(1, 0); (0, 1)} dans R2 ). On la choisit généralement orthonormée et
directe (règle de la main droite dans R3 ).
• Sous-espace vectoriel : Si F est un s.e.v. de E, alors dimF ≤ dimE.
2
Produit scalaire
Espace vectoriel euclidien
• Définition : Soit E un e.v. réel muni d’un produit scalaire et de dimension finie. On dit que E est un e.v. euclidien.
• Produit scalaire : Soit E un e.v. sur R. On appelle produit scalaire sur R toute forme Φ de E × E dans R :
Φx. : E → R
Φ.x : E → R
– bilinéaire : ∀x ∈ E,
et
sont linéaires.
y 7→ Φ(x, y)
y 7→ Φ(y, x)
– symétrique : ∀(x, y) ∈ E 2 , Φ(x, y) = Φ(y, x)
– définie positive : ∀x ∈ E, Φ(x, x) ≥ 0 et Φ(x, x) = 0 ⇒ x = 0E On le note (x|y), < x, y >, ou encore ~u.~v (ne
pas confondre avec le signe “.” utilisé pour la loi de composition externe).
p
• Norme : ∀x ∈ E la norme de x est définie par : ||x|| = (x|x) .
• Distance euclidienne : ∀(x, y) ∈ E la distance euclidienne entre x et y est définie par : d(x, y) = ||x − y||.
• Propriétés
– ||x|| = 0 ⇒ x = 0E
– ||λ.x|| = |λ| ||x||
– d(x, y) = 0 ⇒ x = y
– d(x, y) = d(y, x) = ||x − y|| = ||y − x||
– ∀(x, y) ∈ E 2 et ∀(α, β) ∈ R2 , ||αx + βy||2 = α2 ||x||2 + 2αβ(x|y) + β 2 ||y||2
– ∀(x, y) ∈ E 2 , |(x|y)| ≤ ||x|| ||y|| (inégalité de Cauchy-Schwarz)
– ∀(x, y) ∈ E 2 , ||x + y|| ≤ ||x|| + ||y|| (inégalité triangulaire)
– ∀(x, y) ∈ E 2 , ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ) (identité du parallélogramme)
– ∀(x, y) ∈ E 2 , ||x + y||2 − ||x − y||2 = 4|(x|y)| (identité de polarisation)
Orthogonalité
• Définition : Soient (x, y) ∈ E 2 , E un e.v. euclidien muni du produit scalaire “|”. On dit que x et y sont orthogonaux
si (x|y) = 0.
• Entre e.v. :
– Définition : Soient F et G deux s.e.v. de E. On dit que F et G sont orthogonaux si ∀(x, y) ∈ F × G, (x|y) = 0.
On appelle orthogonale de F , notée F ⊥ , l’ensemble défini par : F ⊥ = {x ∈ E / ∀y ∈ F, (x|y) = 0}
– Propriétés : F ⊕ F ⊥ = E ; (F ⊥ )⊥ = F ; F ⊂ G ⇒ G⊥ ⊂ F ⊥
• Entre familles :
– Soit (e1 , · · · , en ) une famille de vecteurs de E. On dit que cette famille est orthogonale si ∀(i, j) ∈ [|1, p|] ×
[|1, p|] , (ei , ej ) = 0 pour i 6= j.
– Soit un vecteur e ∈ E \ {0E }. On dit que e est unitaire si ||e|| = 1.
– Une famille est orthonormale si elle est orthogonale et si ses vecteurs sont unitaires.
– Si la famille (e1 , · · · , en ) est orthogonale, alors ||e1 + · · · + en ||2 = ||e1 ||2 + · · · + ||en ||2 (théorème de Pythagore)
– Conséquence : Une famille orthogonale de vecteurs non nuls est libre.
– Corollaire : Une famille orthonormale de vecteurs est libre.
– Si dimE = n, toute famille orthonormale de n vecteurs est une base.
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
2
L’essentiel du Cours d’Algèbre
n
P
xi ei et soit y =
yi ei . Alors,
i=1
i=1
s
n
P
; d(x, y) = ||x − y|| =
(xi − yi )2
– Théorèmes : Soit (e1 , · · · , en ) une base orthonormale (b.o.n.) de E. Soit x =
∀i ∈ [|1, n|] : xi = (x|ei ) ; ||x||2 =
n
P
i=1
x2i ; (x|y) =
n
P
xi yi
i=1
n
P
i=1
• Projection orthogonale
– Equation d’une droite : en 2D, ax + by + c = 0, de vecteur normal (a,b) ; en 3D, ax + by + cz + d = 0 de vecteur
normal (a,b,c) ; etc...
– Définition : soit (d) une droite et P un point hors de (d). On appelle projection orthogonale de P sur (d) le
point P 0 de d tel que : P P 0 ⊥ (d).
−−→
– Distance : la distance du point P à la droite (d) est notée δ{P ; (d)}. Elle est égale à la norme du vecteur P P 0 ,
où P 0 est la projection orthogonale de P sur (d).
– Théorème : la distance du point P de coordonnées (xP ; yP ) à la droite (d) d’équation ax + by + c = 0 est
|axP + byP + c|
√
donnée par : δ{P ; (d)} =
a2 + b2
Produit scalaire hermitien (dans C ≡ R2 )
−−→
• Forme algébrique : z = a + ib avec a = Re(z) et b = Im(z). z est l’affixe de OM (ou de M ) dans le plan complexe.
z̄ = a − ib ; Re(z) = 12 (z + z̄) ;
p−−→ −−→
√
−−→
• Module : |z| = ||OM || = a2 + b2 = OM .OM
• Conjugué :
Im(z) =
1
2i (z
− z̄)
• Produit scalaire (dans C)
– Produit scalaire hermitien (sur C) : (z|z 0 ) = z ∗ z 0 ∈ C
– Norme hermitienne : (z|z) = z ∗ z = |z|2 (s’identifie à la norme classique dans R2 )
1
z
a − ib
– Conséquences : = 2 = 2
; |zz 0 | ≤ |z||z 0 | (Cauchy-Schwarz) ; |z +z 0 | ≤ |z|+|z 0 | (inégalité triangulaire)
z
|z|
a + b2
3
Géométrie dans l’espace (R3 )
u1 !
v1 !
Produit scalaire Soient ~u = u2 et ~v = v2 deux vecteurs de R3 exprimés dans une base orthonormale. Le
u3
v3
produit scalaire s’écrit ~u.~v = u1 v1 + u2 v2 + u3 v3 ∈ R.
Produit vectoriel
• Définition Le produit vectoriel s’écrit ~u ∧ ~v =
• Conséquences
(~u ∧ ~v ) ⊥ ~u
direct (règle de la main droite).
;
~u // ~v ⇐⇒ (~u ∧ ~v ) = ~0 ; Le trièdre (~u; ~v ; w
~ = ~u ∧ ~v ) est
d
||~u ∧ ~v || = ||~u||.||~v ||.| sin(~u, ~v ) ; ||~u ∧ ~v || = aire du parallélogramme.
(~u ∧ ~v ) ⊥ ~v
;
u2 v3 − u3 v2 !
u3 v1 − u1 v3 ∈ R3
u1 v2 − u2 v1
;
• Propriétés
– Anti-symétrie : ~u ∧ ~v = −~v ∧ ~u

 (λ~u) ∧ ~v = λ(~u ∧ ~v ) = ~u ∧ (λ~v )
(~u + ~v ) ∧ w
~ = (~u ∧ w)
~ + (~v ∧ w)
~
– Bilinéarité : Soient λ ∈ R et (~u, ~v , w)
~ ∈ R 3 × R 3 × R3 .

~u ∧ (~v + w)
~ = (~u ∧ ~v ) + (~u ∧ w)
~
Double produit vectoriel
• En général, ~u ∧ (~v ∧ w)
~ 6= (~u ∧ ~v ) ∧ w
~
• En fait, (~u ∧ ~v ) ∧ w
~ = −(~v .w).~
~ u + (~u.w).~
~ v
Produit mixte
• Définition : (~u, ~v , w)
~ = (~u ∧ ~v ).w
~ ∈R
• Interprétation : volume du parallélépipède engendré par {~u, ~v , w}.
~
• Permutation circulaire : (~u, ~v , w)
~ = (w,
~ ~u, ~v ) = (~v , w,
~ ~u)
• Permutation non-circulaire : (~u, ~v , w)
~ = −(~v , ~u, w)
~ = −(~u, w,
~ ~v ) = −(w,
~ ~v , ~u)
• Propriétés
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
3
L’essentiel du Cours d’Algèbre

u1
– (~u, ~v , w)
~ = det  u2
u3
v1
v2
v3

w1
v
w2  = u1 2
v3
w3
v1
w3 +
u
3
v2
w1
v3
w2 +
u
2
v1
w3
– ~u, ~v et w
~ coplanaires ⇐⇒ det(~u, ~v , w)
~ ≡ det(U, V, W ) = 0
w1 w2 (dévpt selon 1ère colonne).
(en notant ~
u, ~
v, w
~ sous la forme de vecteurs colonnes)
– On admettra que cette notion (nullité du déterminant ⇐⇒ dépendance linéaire) peut être extrapolée à Rn .
4
Applications linéaires
Généralités sur les applications
• Définition : la donnée d’une application d’un ensemble E dans un autre ensemble F est la donnée d’un sous-ensemble
G de E × F tel que, ∀x ∈ E, ∃ ! y ∈ F / (x, y) ∈ G. En clair : une application est une fonction de E dans F . Un
élément de l’ensemble de départ ne peut être associé qu’à un unique élement dans l’ensemble d’arrivée (aucun
élément de E ne pointe vers plusieurs éléments de F ).
• Composition ∀x ∈ E, (g ◦ f )(x) = g (f (x)). La loi “◦ ” est associative mais non commutative (a priori).
• Injectivité, surjectivité, bijectivité : : Soit f une application de E dans F .
– On dit que f est injective si tout élément de F a au plus un antécédent ⇐⇒ ∀(x, x0 ) ∈ E 2 , f (x) = f (x0 ) ⇒
x = x0
– On dit que f est surjective si tout élément de F a au moins un antécédent ⇐⇒ ∀y ∈ F, ∃ x ∈ E / f (x) = y
– On dit que f est bijective de E sur F si f est à la fois injective et surjective ⇐⇒ tout élément de F a un unique
antécédent ⇐⇒ ∀y ∈ F, ∃ ! x ∈ E / f (x) = y
• Théorème : f est une bijection de E sur F ssi il existe une fonction g de F dans E telle que g ◦ f = IdE et
f ◦ g = IdF . On note alors g = f −1 .
Applications linéaires
• Définition : Soient E et F deux R-e.v. de dimension finie. Soient BE et BF deux bases de E et F .
L
L’application u de E dans F est linéaire si ∀(x, y) ∈ E × E, ∀(a, b) ∈ R2 , u(ax + by) = a.u(x) + b.u(y).
• Conséquence : u(0E ) = 0F
Image et noyau
– Image : Im(u) = {y ∈ F / ∃ x ∈ E / u(x) = y} ⊂ F
– Noyau : Ker(u) = {x ∈ E / u(x) = 0F } ⊂ E
– Rang : rg(u) = dim Im(u)
Théorèmes
– Im(u) est un s.e.v de F
– Ker(u) est un s.e.v de E
– u injective ⇐⇒ u(BE ) libre ⇐⇒ rg u = dimE ⇐⇒ Ker(u) = {0E }
– u surjective ⇐⇒ u(BE ) génératrice ⇐⇒ rg u = dimF ⇐⇒ Im(u) = F
– u bijective ⇐⇒ u(BE ) base de F ⇐⇒ rg u = dimE = dimF
– Théorème du rang : soit u un app. lin. de E sur F . On a : dimE = dim Ker(u) + dim Im(u)
5
Représentation matricielle des applications linéaires
Définition
Soient E et F deux R-e.v. de dimension finies n et p, respectivement.
• Décomposition : Soient BE = (e1 , e2 , · · · , en ) et BF = (f 1 , f 2 , · · · , f n ) des bases de E et F , respectivement.
∀x ∈ E, la décomposition sur BE est unique : x = x1 .e1 + x2 .e2 + · · · + xn .en
∀y ∈ F , la décomposition sur BF est unique : y = y1 .f 1 + y2 .f 2 + · · · + yn .f p
• Image d’un vecteur par une application linéaire : Soit u une application linéaire de E dans F .
y = u(x)
= u(x1 .e1 + x2 .e2 + · · · + xn .en )
Soit y ∈ Im(u). Alors, ∃ x ∈ E tel que :
L
=
x1 .u(e1 ) + x2 .u(e2 ) + · · · + xn .u(en )
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
4
L’essentiel du Cours d’Algèbre

u(e1 ) =



 u(e2 ) =
En notant :
..

.



u(en ) =
y =
on peut réécrire :
a11 .f 1 + a21 .f 2 + · · · + ap1 .f p
a12 .f 1 + a22 .f 2 + · · · + ap2 .f p
∈F
a1n .f 1 + a2n .f 2 + · · · + apn .f p
(x1 .a11 + x2 .a12 + · · · + xn .a1n ).f 1 + (x1 .a21 + x2 .a22 + · · · + xn .a2n ).f 2 + · · · +
+ · · · + (x1 .ap1 + x2 .ap2 + · · · + xn .apn ).f p



x1
a11 a12 · · · a1n


 a21 a22 · · · a2n   x2 



ou, de façon matricielle : Y =  .
..
..   ..  = AX =⇒ A =  u(e1 ) u(e2 ) · · · u(en ) 
 ..
.
.  . 
xn
ap1 ap2 · · · apn
{z
} | {z }
|
A
X
La matrice A comporte p lignes et n colonnes car elle correspond à une application linéaire de l’e.v. E de dimension
n vers l’e.v. F de dimension p (contre-intuitif !).
La matrice X comporte n lignes, car elle correspond à un vecteur x de E, e.v. de dimension n. La matrice Y fait p
lignes, car elle correspond à un vecteur y de F , e.v. de dimension p.
• Intérêt : La donnée de A suffit à caractériser complètement l’application u :
y = u(x) ⇐⇒ Y = AX
• Composition :
u: E → F
v: F → G
Considérons deux applications linéaires u et v :
et
x 7→ u(x) = y
y 7→ v(y) = z
v◦u: E → G
Il est alors possible de définir l’application composée :
x 7→ v ◦ u(x) = v {u(x)} = z
En notant A et B les matrices représentant les applications u et v dans des bases adaptées (A de BE dans BF , et B
de BF dans BG ), on en déduit :
u(x) = y ⇐⇒ AX = Y
=⇒ v{u(x)} = z ⇐⇒ BY = B(AX) = BAX = Z
v(y) = z ⇐⇒ BY = Z
La matrice BA est donc la représentation de l’application v ◦ u. Attention : la matrice AB n’existe pas forcément,
de même que l’application u ◦ v. La composition, de même que la multiplication matricielle, n’est pas une opération
commutative (en général).
• Remarque : Les coefficients à l’intérieur de la matrice A dépendent du choix des bases BE et BF . Lorsqu’on change
de bases (soit au départ, soit à l’arrivée), les coefficients changent, de sorte que la matrice associée à u va différer.
En toute rigueur, il faudrait noter A ≡ ABE ,BF . Pour déterminer la nouvelle expression de la matrice représentant
u lors d’un changement de base, voir la partie 6.
Opérations sur les matrices
On note Mmn (R) l’ensemble des matrices de dimension m

a11
 a21

Soit A ∈ Mmn (R). On note : A =  .
 ..
am1
lignes et n colonnes à coefficients réels.

a12 · · · a1n
a22 · · · a2n 

..
..  = (aij )1≤i≤m,1≤j≤m
.
. 
am2 · · · amn
• Addition matricielle
– Définition : soient (A, B) ∈ Mnp (R) × Mnp (R).

 
a11 a12 · · · a1n
b11 b12
 a21 a22 · · · a2n   b21 b22
 

A+B =  .
..
.. + ..
..
 ..
.
.   .
.
am1
am2
···
amn
bm1
bm2
···
···
b1n
b2n
..
.
···
bmn


 
 
=
 
a11 + b11
a21 + b21
..
.
a12 + b12
a22 + b22
..
.
···
···
a1n + b1n
a2n + b2n
..
.
am1 + bm1
am2 + bm2
···
amn + bmn
– Remarque : les matrices A et B doivent être de même dimension.
– Propriété : commutativité : A + B = B + A
• Multiplication externe
– Définition : soit A ∈ Mnp (R) et λ ∈ R.
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
5





L’essentiel du Cours d’Algèbre

a11
a21
..
.


λA = λ. 

a12
a22
..
.
···
···
a1n
a2n
..
.


 
 
=
 
λa11
λa21
..
.
λa12
λa22
..
.
···
···
λa1n
λa2n
..
.





λam1 λam2 · · · λamn
am1 am2 · · · amn
– Propriété : distributivité par rapport à l’addition : λ(A + B) = λA + λB
– Remarque : Muni des opérations addition et multiplication externe, on peut montrer que Mnp (R) est espace
vectoriel euclidien isomorphe à Rnp , de dimension n × p.
• Multiplication matricielle
– Définition : soient A ∈ Mmn (R) et B ∈ ×Mnp (R).

b11 b12 · · ·


a11 a12 . . . . a1n
 b21 b22 · · ·
 a21 a22 . . . . a2n   .
.


AB =  .
.
.
..
..  

 ..

.
.
.
 ..
.
am1 am2 . . . . amn
bn1 bn2 · · ·
avec : c22 = a21 b12 + a22 b22 + · · · + a2n bn2
b1p
b2p
.
.
.
.
bnp


c11

  c21
 
 =  ..
  .

cm1
c12
c22
..
.
···
···
c1p
c2p
..
.
cm2
···
cmp
En généralisant : cij =
n
P





aik bkj
k=1
– Remarque : le nombre de colonnes de A doit être égal au nombre de lignes de B. Autrement dit, la multiplication
Amn Bpq n’a de sens que si n = p.
– Propriétés
∗ associativité : A(BC) = (AB)C
∗ en général, non-commutativité : AB 6= BA
– Remarque : dans Mnn (espace des matrices carrées), la matrice identité s’écrit :


1 0 ··· 0
 0 1 ··· 0 


Inn =  . .
.. 
 .. ..
. 
0 0 ··· 1
Elle représente l’élément neutre de Mnn pour la multiplication matricielle : ∀A ∈ Mnn , AInn = Inn A = A.
• Matrice transposée
– Définition : Soit A ∈ Mnp (R). On note AT sa transposée.




A=


a11
a21
.
.
.
.
ap1
a12
a22
.
.
.
.
ap2
....
....
···
a1n
a2n
.
.
.
.
apn


a11


 a12


 =⇒ AT =  ..

 .

a1n
a21
a22
..
.
···
···
ap1
ap2
..
.
a2n
....
apn



 ∈ Mpn (R)

– Remarque : le nombre de colonnes et de lignes de AT est égal au nombre de lignes et de colonnes de A.
– Propriétés :
∗ (AB)T = B T AT
∗ (A + B)T = AT + B T
• Produit scalaire
Soient x = (x1 , x2 , · · · , xn ) et y = (y1 , y2 , · · · , yn ) deux vecteurs de Rn . Soit B = (e1 , e2 , · · · , cn ) la
orthonormale de Rn .



x1
y1
 x2 
 y2



On peut écrire x et y sous la forme de vecteurs colonne : X =  .  ∈ Mn1 (R) ; Y =  .
 .. 
 ..
xn
B
yn
base canonique



 ∈ Mn1 (R)

B
n
Le produit scalaire dans R peut être reconstituté dans Mn1 (R). Il s’écrit alors :
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
6
L’essentiel du Cours d’Algèbre

(x|y) = x1 y1 + x2 y2 + · · · + xn yn = X T Y =
x1
···
x2
y1
y2
..
.



B
xn
yn





B
• Trace
– Définition : La trace d’une matrice carrée A = (aij )1≤i,j≤n est : T r(A) =
n
P
aii (somme éléments diagonaux)
i=1
– Propriétés : T r(A + B) = T r(A) + T r(B) ; T r(λA) = λ.T r(A) ; T r(AT ) = T r(A) ; T r(AB) = T r(BA)
6
Matrice de passage
Expression
Soit E un R-e.v. de dimension finie n. Soient B = (e1 , e2 , · · · , en ) et B 0 = (e01 , e02 , · · · , e0n ) deux bases de E.
Soit x ∈ E. On peut décomposer x dans B ou dans B 0 :
x = x1 e1 + x2 e2 + · · · + xn en = x01 e01 + x02 e02 + · · · + x0n e0n
{z
}
|
|
{z
}
dans B 0
dans B 0
Les n-uplets (x1 , x2 , · · · , xn ) et (x01 , x02 , · · · , x0n ) sont les coordonnés du vecteur x dans les bases B et B 0 .
Le vecteur x ∈ E peut ainsi être associé à deux représentations matricielles, ou vecteurs colonnes :

 0 

x1
x1
 x2 
 x02 




X= . 
et
X 0 =  .  6= X
 .. 
 .. 
xn
x0n
B
B0
De la même manière, les vecteurs (e1 , e2 , · · · , en ) et (e01 , e02 , · · · , e0n ) peuvent aussi être associés à des vecteurs colonnes.
 01
 
 
 
Ainsi :
e
= 1.e01 + 0.e02 + · · · + 0.e0n
1
0
0



 0 
 1 
 0 
 e02 = 0.e01 + 1.e02 + · · · + 0.e0n
 
 
 
EB010 =  .  ; EB020 =  .  ; · · · ; EB0n0 =  .  car
..

 .. 
 .. 
 .. 
.


 0n
e
= 0.e01 + 0.e02 + · · · + 1.e0n
0 B0
0 B0
1 B0
De même :



EB1 = 

1
0
..
.
0






 ; EB2 = 


B
0
1
..
.
0






 ; · · · ; EBn = 


B
0
0
..
.
1

 1
e



 e2


 car





B
en
= 1.e1 + 0.e2 + · · · + 0.en
= 0.e1 + 1.e2 + · · · + 0.en
..
.
=
0.e1 + 0.e2 + · · · + 1.en
Pour relier X et X 0 (c’est à dire passer des coordonnées dans une base aux coordonnées dans l’autre base), il faut
décomposer chaque vecteur de la base B 0 sur la base B :
 01
e
= p11 e1 + p21 e2 + · · · + pn1 en


 02

e
= p12 e1 + p22 e2 + · · · + pn2 en
..

.


 0n
e
= p1n e1 + p2n e2 + · · · + pnn en
d’où :
x
=
=
x0 1.(p11 e1 + p21 e2 + · · · + pn1 en ) + x0 2.(p12 e1 + p22 e2 + · · · + pn2 en ) + · · ·
· · · + x0 n.(p1n e1 + p2n e2 + · · · + pnn en )
(x0 1p11 + x0 2p12 + · · · + x0 np1n )e1 + (x0 1p21 + x0 2p22 + · · · + x0 np2n )e2 + · · ·
· · · + (x0 1pn1 + x0 2pn2 + · · · + x0 npnn )en
Par identification, on peut réécrire le vecteur colonne x :


 0


x1
x 1p11 + x0 2p12 + · · · + x0 np1n
p11
 x2 
 x0 1p21 + x0 2p22 + · · · + x0 np2n 
 p21





X= .  =
 = x0 1  ..
..
 .. 


 .
.
0
0
0
xn B
x 1pn1 + x 2pn2 + · · · + x npnn B
pn1
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7






 + x0 2 


B
p12
p22
..
.
pn2






 + · · · + x0 n 


B
p1n
p2n
..
.
pnn





B
7
L’essentiel du Cours d’Algèbre
On voit alors apparaître naturellement le produit de deux matrices :

 0 
p11 p12 · · · p1n
x1
 p21 p22 · · · p2n   x02 
0



X= .
..
..   ..  = PBB X 0
 ..



.
.
.
pn1 pn2 · · · pnn
x0n
|
{z
} | {z }
0
X0
PBB
0
La matrice PBB est appelée matrice de passage de la base B à la base B 0 . Ses colonnes contiennent les coordonnées
des vecteurs de la base B 0 exprimés dans la base B. En effet
 


 
 : 
0
p1i
0
1
 0 
 p2i 
 1 
 0 
 


 


∀i ∈ [|1, n|], EB0i = p1i EB1 + p2i EB2 + · · · + pni EBn = p1i  .  + p2i  .  + · · · + pni  .  =  . 
 .. 
 .. 
 .. 
 .. 
0
D’où :

PBB
0


=

p11
p21
..
.
p12
p22
..
.
···
···
p1n
p2n
..
.
pn1
pn2
···
pnn
B
0
1
B
pni
B
B



  01
EB
=


EB02
···
EB0n 
Première approche de l’inverse d’une matrice
0
A l’inverse du cheminement précédent, la matrice PBB peut être considérée comme la représentation matricielle d’une
application linéaire f de E dans E (on parle alors d’un endomorphisme). Puisque X et X 0 sont tous les deux les
représentations matricielle du même vecteur x ∈ E, on peut écrire :
0
X = PBB X 0 ⇐⇒ x = f (x)
(?)
idE : E → E
x 7→ f (x) = x
En reprenant le déroulement précédent, mais en choisissant d’exprimer X 0 en fonction de X, nous aurions pu, de
manière équivalente, déterminer l’expression de la matrice de passage de la base B 0 à la base B.
Soit u une application linéaire de E dans F . On note A la représentation matricielle de u dans deux bases BE :
 0

p11 p012 · · · p01n


 p021 p022 · · · p02n 


avec : PBB0 =  .
X 0 = PBB0 X,
..
..  =  EB1 0 EB2 0 · · · EBn0 
 ..
.
. 
0
0
0
pn1 pn2 · · · pnn
Il devient alors évident que l’application f n’est rien d’autre que l’application identité, idE :
De même, la matrice PBB0 est la représentation de l’application identité idE .
0
0
0
(?)
A présent, multiplions l’expression ci-dessus, à gauche, par la matrice PBB . Cela donne : PBB X 0 = PBB PBB0 X = X.
0
0
0 −1
= PBB0
De manière évidente, on aboutit à : PBB PBB0 = Inn . On en déduit que PBB0 est la matrice inverse de PBB : PBB
Or, on l’a vu plus haut, la multiplication matricielle est équivalente à une composition des application sous-jacentes.
De même, puisque, idE ◦ idE = idE , on en déduit que idE = id−1
E (application réciproque).
En résumé :
– la question de l’existence d’une matrice inverse est équivalente à la question de l’existence d’une application
réciproque. On note A−1 l’inverse d’une matrice A.
0
0
– le raisonnement ci-dessus doit être réversible si l’on veut avoir PBB PBB0 = PBB0 PBB = Inn . Ceci n’est possible
que si la dimension de l’espace de départ est égale à la dimension de l’espace d’arrivée. Autrement dit, seules
les matrices carrées peuvent être inversibles.
– une matrice de passage est la représentation matricielle de l’application identité. L’ensemble des matrices de
passage sont donc equivalentes, au sens où elles reflètent la même application sous-jacente.
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
8
L’essentiel du Cours d’Algèbre
Applications linéaires
• Endorphisme : soit u une application linéaire de E dans E. Soient deux bases B et B 0 de E. Soient A et A0 les
représentations matricielles de u dans B et B 0 . Soient x ∈ E, y son image par u, et X, X 0 d’une part, Y , Y 0 d’autre
part, les vecteurs colonnes associés dans les bases B et B 0 .
u: E → E
⇐⇒ Y = AX ⇐⇒ Y 0 = A0 X 0
x 7→ u(x) = y
Y = PBB0 Y 0
B
B0
0
Soient PB0 et PB les matrices de passage associées à B et B . On peut alors écrire :
X = PBB0 X 0
−1
0
B
0 −1
PB
× 0
0 −1
0
0
0
D’où : Y = AX ⇐⇒ PBB Y 0 = APBB X 0
APBB X 0 = A0 X 0
⇐⇒
PBB
PBB Y 0 = Y 0 = PBB
{z
}
|
{z
}
|
Inn
A0 = P −1 AP
D’où : A0 = P −1 AP . On dit que A et A0 sont des matrices semblables. Elles représentent la même application
sous-jacente. Des matrices semblables ont la même trace, le même rang et le même déterminant.
• Morphisme
Considérons maintenant des e.v. de départ
et d’arrivée de dimensions différentes.
u: E → F
Soit u une application linéaire telle que :
.
x 7→ u(x) = y
E est un e.v. de dimension n, F un e.v. de dimension p.
Soit P la matrice de passage de la base (ej )nj=1 vers la base (e0j )nj=1 .
Soit Q la matrice de passage de la base (f i )pi=1 vers la base (f 0i )pi=1 .
Soit A la matrice représentant u, exprimée depuis la base (ej )nj=1 de E vers la base (f i )ni=1 de F .
Soit A0 la matrice représentant u, exprimée depuis la base (e0j )nj=1 de E vers la base (f 0i )ni=1 de F .
Alors : A0 = Q−1 AP . On dit que les matrices sont équivalentes. Deux matrices semblables sont équivalentes (réciproque
fausse en général). Deux matrices sont équivalentes si et seulement si elles ont le même rang.
7
Inverse d’une matrice
Sous-espace vectoriel engendré
• Pré-requis : Soit A une matrice carrée. Elle est associée à une appl. lin. u : E → F , avec dim(E) = dim(F ) = n.


On a vu que : Y = AX, avec A =  u(e1 ) u(e2 ) · · ·



∀x ∈ E, X = 

x1
x2
..
.
u(en ) .



 ⇐⇒ x = x1 e1 + x2 e2 + · · · + xn en . Le vecteur x est donc une c.l. de (e1 , e2 , · · · , en ).

xn B
Y = AX ⇐⇒ y = u(x) = x1 u(e1 ) + x2 u(e2 ) + · · · + xn u(en ). Le vecteur y est une c.l. de (u(e1 ), u(e2 ), · · · , u(en ))
• Théorème : A inversible ⇐⇒ u bijective ⇐⇒ dim {Im(u)} = n
• Interprétation : La famille (u(e1 ), u(e2 ), · · · , u(en )) est génératrice F (sinon dim {Im(u)} < n).
• Conséquences :
A inversible ⇐⇒ les vecteurs (u(e1 ), u(e2 ), · · · , u(en )) sont linéairement indépendants
⇐⇒ Im(u) = F
⇐⇒ dim{Im(u)} = rg(u) = rg(A) = n
⇐⇒ (u(e1 ), u(e2 ), · · · , u(en )) forment une base de F
⇐⇒ (u(e1 ), u(e2 ), · · · , u(en )) sont linéairement indépendants
⇐⇒ det{u(e1 ), u(e2 ), · · · , u(en )} =
6 0
⇐⇒ det(A) 6= 0
• Rang et échelonnement (matrices carrées) : Le calcul du rang d’une matrice s’effectue en essayant d’échelonner la
matrice en lui appliquant une série d’opérations élémentaires (permutation de lignes, addition de lignes, multiplication de ligne par un scalaire, voir partie 7). Si l’on y parvient, le rang de la matrice est égal à la dimension de la
matrice. Sinon, le nombre de ligne nulles donne la dimension du noyau. Le théorème du rang permet d’en déduire
le rang de la matrice, qui est alors égal à la différence entre le nombre total de lignes et le nombre de lignes nulles :
dimE = dim Ker(u) + dim Im(u) = dim Ker(u) + rg(A)
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
(partie 4).
9
L’essentiel du Cours d’Algèbre
Déterminant
• Calcul
– Dimension
2 a b a b
= ad − bc
A=
⇒ det(A) = c d
c d – Dimension
3


a11 a12 a13 a11 a12 a13
a
a32 a33 a22 a23 

a21 a22 a23
+a31 12
+a21 A=
⇒ det(A) = a21 a22 a23 = a11 a22
a
a
a
a
12
13
32
33
a31 a32 a33 a31 a32 a33
– Dimension
 4

a11 a12 a13 a14
a32 a33 a34 a22 a23 a24  a21 a22 a23 a24 

A=
 a31 a32 a33 a34  ⇒ det(A) = a11 a32 a33 a34 + a21 a42 a43 a44 a12 a13 a14 a42 a43 a44 a41 a42 a43 a44
a12 a13 a14 a42 a43 a44 +a31 a12 a13 a14 + a41 a22 a23 a24 a32 a33 a34 a22 a23 a24 • Propriétés :
a13 a23 – det(I) = 1
– det(AB) = det(A) × det(B)
– Lorsque A est inversible, A−1 A = AA−1 = I et det(A) 6= 0. Alors : det(A−1 ) =
1
det(A)
– ∀λ ∈ R, ∀A ∈ Mnn (R), det(λA) = λn det(A)
– ∀λ ∈ R, det(A1 , · · · , λAj , · · · , An ) = λdet(A).
– det(A1 , · · · , A0j + A00j , · · · , An ) = det(A1 , · · · , A0j , · · · , An ) + det(A1 , · · · , A00j , · · · , An ).
Existence de l’inverse
Considérons le système :

 2x + 4y
4x + 9y

−2x − 3y

2
⇐⇒ AX = B avec A =  4
−2
4
9
−3
− 2z
− 3z
+ 7z

−2
−3 
7
= 2
= 8
= 10

;

x
X= y 
z

;

2
B= 8 
10
Interprétons A comme la matrice d’une application linéaire u. Pour simplifier, disons qu’il s’agit d’un endomorphisme
de R3 (i.e. une application linéaire de R3 dans R3 ). Supposons, de plus, que A est exprimée dans une même base de R3
au départ comme à l’arrivée. On la note B. X est alors le vecteur colonne contenant les coordonnées d’un point x de R3 ,
exprimé dans B. Le produit AX = B représente donc l’image y de x par u : AX = B ⇐⇒ u(x) = y.
Résoudre ce système consiste à déterminer l’inconnue x. Dans ces conditions, le système admet une solution si
y ∈ Im(u), c’est à dire si y admet un antécédent par u. Une telle situation est garantie, quel que soit y, dès lors que
Im(u) = R3 , c’est à dire si dim{Im(u)} = rg(u) = rg(A) = 3. Le calcul du rang de A permet donc de vérifier l’existence
de cette solution. Dans le cas de cette matrice carrée, si le rang est égal à la dimension de la matrice, alors cela signifie
que les vecteurs issus des colonnes de la matrice sont linéairement indépendants. Ceci se vérifie simplement en calculant
le déterminant.
Si l’inverse de A existe (∃ A−1 ), cela signifie que le système est inversible. On peut alors écrire :
A−1 ×
AX = B =⇒ A−1 AX = X = A−1 B
Il est à noter que ce raisonnement ne dépend pas de B (ou y).
Calcul pratique
• Opérations élémentaires sur les lignes : Trois opérations importantes sur les lignes peuvent être effectuées sur les
matrices : la permutation, l’addition et la multiplication. Ces matrices sont décrites ci-dessous, en dimension 3
par commodité. La multiplication par ces matrices élémentaires ne modifie pas le déterminant de la matrice ainsi
transformée. Ces opérations s’effectuent, par convention, en multipliant à gauche par des matrices particulières.
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
10
L’essentiel du Cours d’Algèbre

a11
Considérons une matrice : A =  a21
a31
– Permutation

1 0
P1 =  0 0
0 1


0
1
1  =⇒ P1 A =  0
0
0
– Addition



1
1 1 0
P2 =  0 1 0  =⇒ P2 A =  0
0
0 0 1
1
1
0

0
a11
0   a21
a31
1
– Multiplication (λ 6= 0)



λ 0 0
λ
P3 =  0 1 0  =⇒ P3 A =  0
0 0 1
0
– Combinaison de plusieurs
mentaires appropriées :

λ
P = P2 P 3 P1 =  0
0

a11
0
1   a21
0
a31
0
0
1
a12
a22
a32

0 0
a11
1 0   a21
0 1
a31
a12
a22
a32
a12
a22
a32

a13
a23 
a33
 
a13
a11
a23  =  a31
a33
a21
 
a13
a11 + a21
a23  = 
a21
a33
a31
a12
a22
a32
a12
a32
a22

a13
a33  =
6 A
a23

a13 + a23

a23
a33
a12 + a22
a22
a32
 
a13
λa11
a23  =  a21
a33
a31
λa12
a22
a32

λa13
a23 
a33
opérations : il suffit de multiplier successivement (à gauche) par les matrices élé


0 1
λ(a11 + a31 ) λ(a12 + a32 ) λ(a13 + a33 )

0 1  =⇒ P A = 
a31
a32
a33
1 0
a21
a22
a23
• Pivot de Gauss
On procède par multiplication, à gauche, par des matrices élémentaires, dans le but d’échelonner la matrice A, puis
de substituer les lignes, afin d’aboutir à la matrice identité. On opère de la même manière avec la matrice B.




Echelonnement et substitutions


A
B 
I
X 
−−−−−−−−−−−−−−−−−−−−−−−−−→
P×
P×
Si on repart de AX = B =⇒ P AX = P B. Or, P A = I, d’où P = A−1 . On en déduit : X = P B = A−1 B.
Remarque : si, à une étape, une ligne de zéros apparaît, cela signifie que la matrice n’est pas inversible (son rang est
inférieur à sa dimension). On dit que la matrice est singulière.
• Méthode de Gauss-Jordan
La méthode consiste à remplacer B par la matrice identité, et à suivre la même procédure. Le but est de pouvoir
exprimer directement P , qui n’est autre que A−1 :




Echelonnement et substitutions




A
I
I
P
−−−−−−−−−−−−−−−−−−−−−−−−−→
P×
• Méthode des cofacteurs

A
−1
C11

1
1 
T
 C12
=
com(A) =
.
det(A)
det(A) 
 ..
C1n
com(A) = (Cij )1≤n,j≤n
C21
..
.
···
Cn1

..
Cn2
..
.


 où com(A) la matrice des cofacteurs Cij (comatrice) :


.
· · · Cnn

a11
···

..

.


a
···
i−1,1
avec Cij = (−1)i+j det 
 ai+1,1 · · ·


..

.
···
an1
···
a1,j−1
..
.
a1,j+1
..
.
···
ai−1,,j−1
ai+1,,j−1
..
.
ai−1,,j+1
ai+1,,j+1
..
.
···
···
ai−1,n
ai+1,n
..
.
an,j−1
an,j+1
···
ann
a1n
..
.










(déterminant de la matrice après suppression ième ligne et j ème colonne)
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
11
L’essentiel du Cours d’Algèbre
8
Projection orthogonale
• Projection orthogonale à deux dimensions
– Définition : pour x ∈ E et D la droite vectorielle engendrée par x, i.e. D = {λx|λ ∈ R}, la projection de y ∈ E
orthogonalement à D, notée ΠD (y), est caractérisée par les deux propriétés suivantes :
(i) ΠD (y) ∈ D, i.e. ΠD (y) est colinéaire à x ; (ii) y − ΠD (y) est orthogonal ) x.
→
−
xxT
< x|y >
→
−
T
x
;
(ii)
matricielle
(où
a
.
b
≡
a
b)
:
Π
(y)
=
y
D
||x||2
xT x
– Théorème : Soit x ∈ E non nul et y ∈ E. La projection orthogonale de y sur la droite D engendrée par x est
l’unique vecteur z colinéaire à x réalisant le minimum de ||y − z||, i.e. : ΠD (y) = arg min||y − z||
– Expression : (i) vectorielle : ΠD (y) =
z∈D
• Projection orthogonale à trois dimensions
a11 a21
Soit P un plan de R engendré par (a1 , a2 ), i.e. A =
. Soit b un vecteur de R3 ∈ P.
a12 a22
L’expression de p, projeté orthogonale de b sur P, est donnée par : p = P b, avec P = A(AT A)−1 AT .
3
• Projection orthogonale en dimension quelconque
– Définition : Soit F un s.e.v. de E (e.v. euclidien). On appelle projection orthogonale sur F , notée pF la
projection vectorielle sur F parallèlement à F ⊥ .
– Soit A une matrice de taille m × n et soit y ∈ Rm . Si la matrice AT A est inversible, alors la projection
orthogonale de y sur le sous-espace de Rm engendré par les colonnes de A est : A(AT A)−1 AT y .
– On note P la matrice de projection orthogonale, i.e. P = A(AT A)−1 AT . P est carrée, de taille m × m,
symétrique (P = P T ) et idempotente (P 2 = P ). Si y appartient au s.e.v. de Rm engendré par les colonnes de
A, alors P y = y. Si y est orthogonal à ce s.e.v., alors P y = 0.
– Cas particulier : Soit (e1 , · · · , ep ) une b.o.n. de F . Alors, ∀x ∈ E, puisque x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ ,
p
P
on a : pF (x) = x1 =
(x|ei ).ei . Les coordonnées de x sont obtenues par projection orthogonale sur les vecteurs
i=1
de la base.
• Moindres carrés
– Définition : Soit G une matrice de taille m × n telle que GT G soit inversible, et d ∈ Rm . On appelle solution au
sens des moindres carrés de l’équation d = Gm l’unique vecteur m̂ ∈ Rn réalisant le minimum de ||d − Gm||,
i.e. m̂ = arg minn ||d − Gm||.
m̂∈R
– Théorème : la solution des moindres carrés est : m̂ = (GT G)−1 GT d. C’est celle qui minimise la norme 2 de
l’erreur e = d − dˆ entre la prédiction dˆ = Gm̂ et l’observation d.
UE “Mathématiques 2” – L1 STEP – UFR STEP – Université Paris 7
12
Téléchargement