Applications Définition 1.1 Une application f définie sur l`ensemble A et

publicité
Applications
Définition 1.1 Une application f définie sur l’ensemble A et à valeurs dans
l’ensemble B :
f : A → B,
est une loi qui fait correspondre à chaque élément a ∈ A un élément unique
b ∈ B, noté f (a) et appelé image de a par f .
Définition 1.2 Une application f : A → B est injective, ou encore est une
injection, si et seulement si des éléments distincts de A ont des images distinctes
dans B :
a 6= a0 ∈ A ⇒ f (a) 6= f (a0 ) ∈ B,
ou, de manière équivalente (contraposée), si et seulement si :
f (a) = f (a0) ∈ B ⇒ a = a0 ∈ A.
Définition 1.3 Une application f : A → B est surjective, ou encore est une
surjection, si et seulement si chaque élément de B est l’image d’au moins un
élément de A :
∀ b ∈ B, ∃ a ∈ A tel que b = f (a).
Définition 1.4 Une application f : A → B injective et surjective est appelée
bijective :
∀ b ∈ B, ∃ ! a ∈ A tel que b = f (a).
On dit aussi qu’elle est une bijection.
Lois de composition
Définition 1.5 Une loi de composition interne > entre éléments d’un ensemble
E est une application d’une partie A de E 2 (= E × E) dans E :
not
(a, b) ∈ A ⊆ E 2 ⇒ c = >(a, b) = a > b ∈ E.
Lorsque A = E 2, la loi de composition interne est dite partout définie sur E.
Définition 1.6 La loi interne > définie sur E est associative si et seulement si,
pour tout triplet (a1 , a2 , a3 ) d’éléments de E, la relation suivante est satisfaite :
(a1 > a2 ) > a3 = a1 > (a2 > a3 ).
Théorème 1.1 Pour une loi interne > définie sur E et associative, toute combinaison d’éléments de E formée par application répétée de > ne dépend pas du
groupement des éléments impliqués.
Définition 1.7 La loi interne > définie sur E est commutative si et seulement
si, pour tout couple (a1 , a2 ) d’éléments de E, la relation suivante est satisfaite :
a1 > a 2 = a 2 > a 1 .
Théorème 1.2 Si une loi interne > définie sur E est à la fois associative et
commutative, toute combinaison d’éléments de E formée par application répétée
de > ne dépend ni du groupement des éléments, ni de leur ordre.
Définition 1.8 La loi interne > définie sur E possède un élément neutre, noté
e ∈ E, si et seulement si, pour tout a ∈ E, on a :
a > e = e > a = a.
Théorème 1.3 Si une loi interne > définie sur E possède un élément neutre,
alors il est unique.
Définition 1.9 Pour une loi interne > définie sur E et possédant un élément
neutre e, un élément a ∈ E est symétrisable s’il existe un élément a0 ∈ E tel
que :
a > a0 = a0 > a = e.
On dit que a0 est un symétrique de a dans (E, >).
Théorème 1.4 Pour une loi interne > définie sur E, associative et possédant un
élément neutre e, un élément symétrisable admet un seul symétrique.
Théorème 1.5 Pour une loi interne > définie sur E, associative et possédant un
élément neutre e, le composé de deux éléments symétrisables est symétrisable,
et son symétrique est le composé des symétriques dans l’ordre inverse.
Définition 1.10 Pour une loi interne > définie sur E, un élément a ∈ E est
simplifiable à droite si, pour tout x et tout y ∈ E :
x > a = y > a ⇒ x = y.
Il est simplifiable à gauche si, pour tout x et tout y ∈ E :
a > x = a > y ⇒ x = y.
Il est simplifiable s’il est simultanément simplifiable à gauche et à droite.
Théorème 1.6 Pour une loi interne > définie sur E, associative et possédant un
élément neutre e, tout élément symétrisable est simplifiable.
Homomorphisme et isomorphisme de (E, >) dans (E 0, >0 )
Définition 1.11 Un homomorphisme de (E, >) dans (E 0, >0 ) est une application f de E dans E 0 telle que, pour tout (x, y) ∈ E 2, on a :
f (x > y) = f (x) >0 f (y).
Si l’application est bijective, l’homomorphisme est appelé isomorphisme.
Théorème 1.7 Si f est un isomorphisme de (E, >) dans (E 0, >0 ), l’application
réciproque f −1 est un isomorphisme de (E 0, >0 ) dans (E, >).
Groupe
Définition 1.12 Un groupe est un couple (G, >), c’est-à-dire un ensemble G
muni d’une loi interne >, qui satisfait aux axiomes suivants :
G1. La loi > est associative.
G2. Il existe un élément neutre dans (G, >) :
∃ e ∈ G, ∀ a ∈ G, a > e = e > a = a.
G3. Tout élément de (G, >) est symétrisable :
∀ a ∈ G, ∃ a0 ∈ G, a > a0 = a0 > a = e.
Si, en outre, la loi > est commutative, on parlera d’un groupe commutatif.
Théorème 1.8 Soit (G, >), un groupe. Pour tout (a, b) ∈ G2 , l’équation en x
et celle en y :
a>x=b
et
y > a = b,
et
y = b > a0 ,
ont chacune une solution unique :
x = a0 > b
respectivement, où a0 désigne le symétrique de a. De plus, si (G, >) est un
groupe commutatif, ces solutions sont identiques : x = y.
Anneau
Définition 1.13 Étant donné deux lois internes > et ⊥ définies sur un ensemble
E, la loi > est dite distributive à gauche par rapport à la loi ⊥ si, pour tout a, b
et c ∈ E, on a :
a > (b ⊥ c) = (a > b) ⊥ (a > c).
Elle est distributive à droite si :
(b ⊥ c) > a = (b > a) ⊥ (c > a).
Elle est distributive si elle l’est à la fois à gauche et à droite.
Définition 1.14 Un anneau est un triplet (A, +, ×), c’est-à-dire un ensemble A
muni d’une addition et d’une multiplication, qui satisfait aux axiomes suivants :
A1. (A, +) est un groupe commutatif (dont le neutre est noté 0 et appelé élément zéro).
A2. La multiplication est associative.
A3. La multiplication est distributive par rapport à l’addition.
Si, en outre, la multiplication possède un élément neutre (noté 1 et appelé élément
unité), l’anneau est dit unitaire, et si la multiplication est commutative, l’anneau
est dit commutatif.
Règle 1.1 (Distributivité généralisée) Soit (A, +, ×), un anneau, et soient
a1 , a2 , . . . , am et b1 , b2, . . . , bn, des éléments de A. On a :
(a1 + a2 + · · · + am )(b1 + b2 + · · · + bn ) =
m
X
ai
i=1
Règle 1.2
!
n
X
j=1
bj
!
=
m X
n
X
ai bj .
i=1 j=1
Dans un anneau (A, +, ×), la multiplication est distributive par
rapport à la soustraction :
a(b − c) = ab − ac,
et
(a − b)c = ac − bc,
où a, b et c ∈ A.
Règle 1.3 Dans un anneau (A, +, ×), le produit d’un élément quelconque par
0 est égal à 0 :
a 0 = 0 c = 0,
où a et c ∈ A.
Règle 1.4 Dans un anneau (A, +, ×), la règle des signes de l’algèbre classique
est valable :
a(−c) = −ac,
(−b)c = −bc
et
(−a)(−b) = ab,
où a, b et c ∈ A.
Définition 1.15 Soit (A, +, ×), un anneau.
1. S’il existe dans A des éléments a 6= 0 et b 6= 0 tels que ab = 0, ces éléments
a et b sont appelés diviseurs de zéro.
2. Un anneau intègre est un anneau unitaire commutatif sans diviseurs de zéro.
Théorème 1.9 Soit (A, +, ×), un anneau. Les éléments non nuls, non diviseurs
de zéro, se confondent avec les éléments simplifiables pour la multiplication.
Corps – Champ
Définition 1.16 Un corps est un triplet (K, +, ×), c’est-à-dire un ensemble K
muni d’une addition et d’une multiplication, qui satisfait aux axiomes suivants :
X1. (K, +) est un groupe commutatif.
X2. (K0, ×) est un groupe (où 0 désigne l’élément neutre pour l’addition et
K0 désigne K moins cet élément).
X3. La multiplication est distributive par rapport à l’addition.
Si, en outre, la multiplication est commutative, (K0, ×) est un groupe commutatif et le corps est appelé champ.
Théorème 1.10 Soit (K, +, ×), un corps. Pour tout (a, b) ∈ K 2, l’équation
en x et celle en y :
ax = b
ya = b
et
(a 6= 0),
ont chacune une solution unique. De plus, si (K, +, ×) est un champ, ces solutions sont identiques : x = y.
Théorème 1.11 L’ensemble R2 muni des deux opérations + et × définies pour
0
0
tout (a, b) et (a , b ) ∈ R2 par :
0
0
0
0
(a, b) + (a , b ) = (a + a , b + b ),
et
0
0
0
0
0
0
(a, b)(a , b ) = (aa − bb , ab + ba ),
constitue un champ, appelé le champ des nombres complexes et noté C.
6
y
r
Aθ
K
A
3
z
-
x
0
Représentation géométrique de z = x + iy.
6
0
r
Aθ
K
A
Q
Q Q−θ
Q
rQ
3
z
-
Q
s
Q ∗
z
Complexe conjugué de z = reiθ .
z1 + z2
6
z2 z1
3
-
0
Somme de deux nombres complexes z1 = x1 + iy1 et z2 = x2 + iy2 .
z1 z2
6
K
Aθ1 + θ2
A
z A
2A
z
A1
1
θ
θ A
AA2 K
AA 1 A
K
-
0
Produit de deux nombres complexes z1 = r1eiθ1 et z2 = r2eiθ2 .
Espace vectoriel
Définition 2.1 Un espace vectoriel E sur un champ de scalaires (K, +K , ×K )
est un ensemble d’éléments, appelés vecteurs, muni d’une opération d’addition
vectorielle :
V1 et V2 ∈ E ⇒ V1 +E V2 ∈ E,
et d’une opération de multiplication scalaire :
k∈K
et
V ∈E
⇒
k • V ∈ E,
qui satisfait aux axiomes suivants :
A1. (E, +E ) est un groupe commutatif.
A2. La multiplication scalaire est telle que, pour tout (V1 , V2 ) ∈ E 2 et (k1, k2) ∈
K 2, on a :
E1.
(k1 ×K k2 ) • V1 = k1 • (k2 • V1 ).
E2.
1 • V 1 = V1
E3.
(k1 +K k2) • V 1 = (k1 • V1 ) +E (k2 • V1 ).
E4.
k1 • (V1 +E V2 ) = (k1 • V1 ) +E (k1 • V2 ).
(où 1 est l’élément unité du champ K).
R1 k (V1 − V2 ) = k V1 − k V2 .
R2 (k1 − k2) V = k1 V − k2 V .
R3 k 0E = 0E
(où 0E désigne le vecteur nul).
R4 0K V = 0E
(où 0K désigne le scalaire nul).
R5 k V = 0E
⇒
k = 0K ou V = 0E .
R6 (−k) V = k (−V ) = −k V .
6
kz (k > 0)
z 3
3
+
r
K
A
θ
A
-
0
kz (k < 0)
Multiplication d’un nombre complexe z par un réel k > 0 ou k < 0.
Sous-espace vectoriel
Définition 2.2 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide
S de E est un sous-espace vectoriel de E si S est lui-même un espace vectoriel
par rapport aux lois d’addition vectorielle et de multiplication scalaire définies
sur E.
Théorème 2.1 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide
S de E est un sous-espace vectoriel de E si et seulement si il est fermé pour
l’addition vectorielle :
(V, W ) ∈ S 2
⇒
V + W ∈ S,
et pour la multiplication scalaire :
k∈K



et
V ∈S
⇒
k V ∈ S.
⇔
(V, W ) ∈ S 2
et
(k, `) ∈ K 2
⇒
k V + ` W ∈ S.



Théorème 2.2 Soit E, un espace vectoriel sur K. L’intersection S1 ∩S2 de deux
sous-espaces vectoriels S1 et S2 de E est un sous-espace vectoriel de E.
Définition 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux
sous-espaces vectoriels S1 et S2 de E est l’ensemble des vecteurs obtenus en
faisant la somme d’un vecteur de S1 et d’un vecteur de S2 :
S1 + S2 = {V1 + V2 | V1 ∈ S1 et V2 ∈ S2 }.
Théorème 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux
sous-espaces vectoriels S1 et S2 de E est un sous-espace vectoriel de E.
Définition 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux
sous-espaces vectoriels S1 et S2 de E est appelée directe et notée S1 ⊕ S2 si
chaque vecteur V ∈ S1 + S2 peut être décomposé de manière unique en V =
V1 + V2 avec V1 ∈ S1 et V2 ∈ S2.
Théorème 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux
sous-espaces vectoriels S1 et S2 de E est directe si et seulement si S1 ∩ S2 =
{0E }.
Partie génératrice
Définition 2.5 Soit E, un espace vectoriel sur K. Une combinaison linéaire de
m vecteurs V1 , V2 , . . . , Vm de E est un vecteur V ∈ E défini par :
V = k 1 V1 + · · · + km Vm =
m
X
ki V i ,
i=1
où k1, k2, . . . , km sont des scalaires ∈ K.
Définition 2.6 Soit E, un espace vectoriel sur K, et F , une partie non vide de
E. L’ensemble engendré par F , noté L(F ), est l’ensemble de toutes les combinaisons linéaires des vecteurs de F . La partie F est appelée partie génératrice de
L(F ).
Théorème 2.5 Soit E, un espace vectoriel sur K, et F , une partie non vide de
E. L’ensemble L(F ) est un sous-espace vectoriel de E.
Partie libre – Partie liée
Définition 2.7 Soit E, un espace vectoriel sur K. Les m vecteurs V1 , V2 , . . . , Vm
∈ E sont dits linéairement indépendants si :
m
X
ki V i = 0 E ,
ki ∈ K
⇒
k i = 0K ,
1 ≤ i ≤ m.
i=1
Les vecteurs V1 , V2 , . . . , Vm constituent alors une partie libre de E. Si l’égalité :
m
X
ki V i = 0 E ,
ki ∈ K
i=1
est possible avec des scalaires ki non tous nuls, les vecteurs V1, V2 , . . . , Vm sont
dits linéairement dépendants et constituent une partie liée de E.
P1 Un seul vecteur non nul constitue une partie libre.
P2 Des vecteurs linéairement indépendants sont nécessairement non nuls.
Théorème 2.6 Soit E, un espace vectoriel sur K. Les vecteurs V1 , V2 , . . . , Vm ∈
E, avec m ≥ 2, sont linéairement dépendants si et seulement si l’un d’entre eux
est une combinaison linéaire de tous les autres.
Théorème 2.7 Soit E, un espace vectoriel sur K. Les vecteurs non nuls V1 , V2,
. . . , Vm ∈ E, avec m ≥ 2, sont linéairement dépendants si et seulement si l’un
d’entre eux (excepté le premier), par exemple Vj (j > 1), est une combinaison
linéaire des vecteurs précédents :
Vj =
j−1
X
`i Vi .
i=1
Théorème 2.8 Soit E, un espace vectoriel sur K. Si V ∈ E est une combinaison linéaire de m vecteurs linéairement indépendants V1 , V2 , . . . , Vm ∈ E :
V =
m
X
ki V i ,
i=1
alors les coefficients ki ∈ K sont uniques.
Base – Dimension
Définition 2.8 Soit E, un espace vectoriel sur K. Un ensemble de vecteurs
V1 , V2 , . . . , Vm ∈ E est une base de E s’il constitue à la fois une partie libre et
génératrice de E.
Lemme 2.1 Soit E, un espace vectoriel sur K. Si, dans une partie génératrice
{V1 , V2 , . . . , Vm } de E, un des vecteurs, par exemple V1 , est une combinaison
linéaire des autres, alors E est engendré par l’ensemble {V2 , . . . , Vm} obtenu en
supprimant V1 dans la partie génératrice initiale.
Théorème 2.9 (Existence) Un espace vectoriel E sur K engendré de manière
finie possède au moins une base.
Lemme 2.2 Soit E, un espace vectoriel sur K, considérons une partie libre
{W1, W2, . . . , Wn } de E et une partie génératrice {V1 , V2 , . . . , Vm } de E. Le
nombre n de vecteurs linéairement indépendants ne peut surpasser le nombre m
de vecteurs générateurs :
n ≤ m.
Théorème 2.10 (Unicité du nombre de vecteurs d’une base)
Dans un es-
pace vectoriel E sur K engendré de manière finie, toutes les bases ont le même
nombre de vecteurs.
Définition 2.9 Soit E, un espace vectoriel sur K. Le nombre commun de vecteurs des bases de E est appelé la dimension de l’espace vectoriel.
Théorèmes relatifs aux notions de base et de dimension
Théorème 2.11 Pour un espace vectoriel E sur K de dimension n, la dimension
a trois significations équivalentes :
1. Le nombre de vecteurs d’une base.
2. Le nombre minimum de vecteurs d’une partie génératrice.
3. Le nombre maximum de vecteurs d’une partie libre.
Théorème 2.12 Dans un espace vectoriel E sur K de dimension n :
1. Toute partie génératrice de n vecteurs est une base de E.
2. Toute partie libre de n vecteurs est une base de E.
Théorème 2.13 Dans un espace vectoriel E sur K de dimension n :
1. Toute partie génératrice contient une base de E.
2. Toute partie libre est contenue dans une base de E.
Dimension et sous-espace vectoriel
Théorème 2.14 Soit E, un espace vectoriel sur K de dimension n. Si S est un
sous-espace vectoriel de E, alors :
dim S ≤ n.
Si dim S = n, alors S est l’espace vectoriel E tout entier.
Théorème 2.15 Dans un espace vectoriel E sur K de dimension finie, considérons deux sous-espaces vectoriels S1 et S2 de dimension p et q, respectivement, et tels que S1 ∩ S2 = {0E }. Si {V1, . . . , Vp } désigne une base de S1
et {W1, . . . , Wq } une base de S2 , alors l’ensemble de vecteurs {V1 , . . . , Vp ,
W1, . . . , Wq } constitue une base de S1 ⊕ S2. En particulier, on a :
dim (S1 ⊕ S2 ) = dim S1 + dim S2 .
Cas général (loi modulaire) :
dim S1 + dim S2 = dim (S1 + S2) + dim (S1 ∩ S2 ).
L’espace des coordonnées K n (par rapport à une base)
Définition 2.10 Soient n ensembles Ai, i = 1, 2, . . . , n. Le produit cartésien
des ensembles Ai , noté A1 × A2 × · · · × An , est un nouvel ensemble construit
à partir des Ai et tel que chacun de ses éléments est un n-uplet dont la ième
composante est dans Ai :
A1 × A2 × · · · × An = {(x1, x2, . . . , xn ) | xi ∈ Ai , 1 ≤ i ≤ n}.
Tout espace vectoriel E sur un champ K est isomorphe à l’espace K n des
coordonnées (par rapport à une base quelconque de E).
Application linéaire
Définition 3.1 Étant donné deux espaces vectoriels E et F de dimension finie
sur un même champ de scalaires K, on appelle application linéaire de E dans F
tout homomorphisme f de l’espace vectoriel E dans l’espace vectoriel F , c’està-dire toute application f de E dans F qui conserve les deux opérations d’un
espace vectoriel :
L1.
f (V + W ) = f (V ) + f (W ),
L2.
f (k V ) = k f (V ),
pour tout V et W ∈ E et tout k ∈ K.








⇔
f (k V + ` W ) = k f (V ) + ` f (W ),
pour tout V et W ∈ E et tout k et ` ∈ K.






P1 L’image du vecteur nul de E par une application linéaire est le vecteur nul
de F :
f (0E ) = 0F .
P2 Une application linéaire conserve les relations linéaires :
!
n
n
X
X
ki f (Vi),
ki V i =
f
i=1
où Vi ∈ E et ki ∈ K, 1 ≤ i ≤ n.
i=1
Z6
V = (x, y, z)
•
(0, 0, 0)
y
Y+
x
-X
•
f (V ) = (x, y, 0)
Projection de R3 sur le plan (X, Y ).
Image et noyau
Définition 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur un
même champ de scalaires K. L’image d’une application linéaire f de E dans F
est le sous-ensemble de F constitué des images des vecteurs de E :
Imf = f (E) = {f (V ) ∈ F | V ∈ E}.
Le noyau d’une application linéaire f de E dans F est le sous-ensemble de E
constitué des vecteurs de E qui ont pour image le vecteur nul de F :
Kerf = {V ∈ E | f (V ) = 0F }.
Théorème 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K. Pour une application linéaire f de E dans F ,
Imf est un sous-espace vectoriel de F et Kerf est un sous-espace vectoriel de
E.
Définition 3.3 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K, et f , une application linéaire de E dans F . La
dimension ρ du sous-espace Imf est appelée le rang de f et la dimension ν du
sous-espace Kerf est appelée la nullité de f .
Théorème 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K. Si f est une application linéaire de E dans F
avec E de dimension n, le rang ρ et la nullité ν de f sont reliés par la relation :
ρ + ν = n.
Corollaire 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K. Pour une application linéaire f de E dans F , le
rang de f (c’est-à-dire ρ), vérifie :
ρ ≤ min{dim E, dim F }.
Opérations sur les applications linéaires
Définition 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K, et soient f et g, deux applications linéaires de
E dans F . La somme f + g des applications f et g est l’application qui associe
à chaque vecteur V ∈ E le vecteur f (V ) + g(V ) ∈ F :
(f + g)(V ) = f (V ) + g(V ).
(1)
Le produit k f de l’application f par le scalaire k ∈ K est l’application qui
associe à chaque vecteur V ∈ E le vecteur k f (V ) ∈ F :
(k f )(V ) = k f (V ).
(2)
L’ensemble LK (E, F ) des applications linéaires d’un espace vectoriel E
dans un espace vectoriel F sur un même champ K muni des opérations
d’addition vectorielle (1) et de multiplication scalaire (2) constitue un espace vectoriel sur K, noté LK (E, F ).
Définition 3.5 Soient E, F et G, trois espaces vectoriels de dimension finie sur
un même champ de scalaires K, et soient f , une application linéaire de E dans
F , et h, une application linéaire de F dans G. Le composé h ◦ f des applications
f et h est l’application de E dans G définie par :
(h ◦ f )(V ) = h(f (V )),
pour tout V ∈ E.
(3)
Dans le cas particulier où E = F = G, l’ensemble LK (E, E) des opérateurs
linéaires sur E muni de l’addition (1) et de la loi de composition (3) constitue
un anneau unitaire, mais pas un anneau intègre.
Théorème 3.3 Soient E, F et G, trois espaces vectoriels de dimension finie sur
un même champ de scalaires K, et soient f , une application linéaire de E dans
F , et h, une application linéaire de F dans G. Le rang de h ◦ f vérifie :
rang (h ◦ f ) ≤ min{rang h, rang f }.
Application linéaire bijective
Théorème 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K, et f , une application linéaire de E dans F .
L’application linéaire f est injective si et seulement si Kerf = {0E }.
Théorème 3.5 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K, et f , une application linéaire de E dans F .
L’application linéaire f est surjective si et seulement si Im f = F .
Théorème 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur
un même champ de scalaires K, et f , une application linéaire de E dans F .
L’application linéaire f est bijective si et seulement si Kerf = {0E } et Im f =
F . Dans ce cas :
ρ = dim E = dim F.
Définition 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur un
même champ de scalaires K. Une application linéaire f : E → F est inversible
s’il existe une application linéaire f −1 : F → E telle que f −1 ◦ f = 1E et
f ◦ f −1 = 1F .
Théorème 3.7 Soient E et F , deux espaces vectoriels de dimension finie sur un
même champ de scalaires K. Une application linéaire f : E → F est inversible
si et seulement si elle est bijective.
Représentation matricielle d’une application linéaire
– En : espace vectoriel de dimension n sur K,
– Fm : espace vectoriel de dimension m sur K,
– BE = {V1, V2 , . . . , Vn } : base de En,
– BF = {W1, W2, . . . , Wm } : base de Fm ,
– f : application linéaire de En dans Fm.
Décomposition unique de V ∈ En dans BE :
V =
n
X
xj ∈ K.
xj V j ,
(1)
j=1
Par linéarité de f :
f (V ) =
n
X
xj f (Vj ).
(2)
j=1
({f (V1), f (V2), . . . , f (Vn)} constitue une partie génératrice de Imf )
Décomposition unique de f (Vj ), 1 ≤ j ≤ n, dans BF :
f (Vj ) =
m
X
aij Wi,
aij ∈ K.
(3)
i=1
(f complètement déterminée par les mn aij ∈ K)
Matrice (représentation matricielle) de f par rapport à BE et BF :


 a11 a12 . . . a1n 




 a21 a22 . . . a2n 


A=
 = [aij ]
 ..
.
.
.. 
..

 .




am1 am2 . . . amn
(colonne j de A contient les coordonnées de f (Vj ) dans BF )
(4)
Théorème 4.1 Soient En et Fm , deux espaces vectoriels de dimension finie n
et m, respectivement, sur un même champ de scalaires K, et soit LK (En, Fm ),
l’ensemble des applications linéaires de En dans Fm . Si En et Fm sont rapportés à des bases BE et BF , respectivement, alors il existe une bijection entre
LK (En, Fm) et l’ensemble des matrices d’éléments de K à m lignes et n colonnes.
Généralités sur les matrices
– Une matrice rectangulaire de dimensions m × n sur K, définie par (4), est
un tableau à m lignes et à n colonnes d’éléments aij ∈ K.
– Si m = n, la matrice est dite carrée d’ordre n. Ses éléments diagonaux sont
ceux situés sur la diagonale principale, à savoir aii pour 1 ≤ i ≤ n.
– Une matrice-colonne (encore appelée vecteur-colonne ou, plus brièvement,
vecteur) est une matrice à une seule colonne (n = 1).
– Une matrice-ligne (encore appelée vecteur-ligne) est une matrice à une
seule ligne (m = 1).
– Il découle du Théorème 4.1 que deux matrices A = [aij ] et B = [bij ] sont
égales si et seulement si leurs éléments homologues sont égaux :
A=B
⇔
aij = bij ,
∀ i, j.
Elles ont donc mêmes dimensions.
– La transposée de la matrice A, notée AT , est la matrice obtenue en permutant lignes et colonnes :
soit donc :


 a11 a21 . . . am1 




 a12 a22 . . . am2 


AT = 
,
 ..
.
.
.. 
..

 .




a1n a2n · · · amn
AT = [a0ij ]
avec
a0ij = aji .
La transposée d’une matrice de dimensions m × n est donc une matrice de
dimensions n × m. En particulier, la transposée d’un vecteur(-colonne) est
un vecteur-ligne et réciproquement.
– Une matrice est symétrique si elle est égale à sa transposée :
A = AT
⇔
aij = aji
∀ i, j.
Elle est nécessairement carrée et ses éléments hors de la diagonale principale sont égaux deux à deux.
– Dans le cas du champ des complexes C, on appelle matrice hermitienne
e:
une matrice A égale à sa transposée conjuguée, notée A
e
A=A
⇔
aij = a∗ji
∀ i, j.
Une matrice hermitienne est nécessairement carrée et ses éléments diagonaux sont réels. Notons qu’une matrice hermitienne réelle est symétrique.
Toute propriété démontrée pour les matrices hermitiennes complexes est
donc valable pour les matrices symétriques réelles. Par contre la théorie
des matrices symétriques complexes est différente de celle des matrices
hermitiennes.
– Les opérations de transposition et de transposition conjuguée sont involutives, c’est-à-dire qu’elles se détruisent lorsqu’elles sont appliquées deux
fois :
T
ee
AT = A
et
A
= A.
– Une matrice diagonale est une matrice carrée dont tous les éléments hors
de la diagonale sont nuls :
aij = 0K
Elle est notée :
pour i 6= j.

a11 0K


 0K a22

diag(a11 , a22 , . . . , ann ) = 
 ..
..
 .
.


0K 0K

· · · 0K 


· · · 0K 

.
. . . ... 



· · · ann
Si tous les éléments diagonaux valent 1, on obtient la matrice unité d’ordre
n:
1n = diag(1, 1, · · · , 1),
qui correspond à 1En , l’opérateur linéaire unité sur En (rapporté à la base
BE ) :
1En (V ) = V pour tout V ∈ En .
En effet :
1En (Vj ) = Vj ,
1 ≤ j ≤ n,
implique :
1En (Vj ) =
n
X
aij Vi
avec
i=1
pour 1 ≤ j ≤ n.


 aij = 0K pour i 6= j,

 a = 1,
jj
– Une matrice triangulaire inférieure est une matrice carrée dont tous les
éléments au-dessus de la diagonale principale sont nuls :
aij = 0K
soit :

 a11 0K


 a21 a22


 ..
..
 .
.


an1 an2
pour i < j,

· · · 0K 


· · · 0K 

.
. . . ... 



· · · ann
De même, une matrice triangulaire supérieure est une matrice carrée dont
tous les éléments en-dessous de la diagonale principale sont nuls :
aij = 0K
pour i > j,
soit :

a11 a12


 0K a22


 ..
..
 .
.


0K 0K

· · · a1n 


· · · a2n 

.
. . . ... 



· · · ann
De plus, une matrice triangulaire est dite normalisée si ses éléments diagonaux valent 1.
– La matrice nulle 0m,n de dimensions m × n est la matrice dont tous les
éléments sont nuls. Elle correspond à l’application nulle ω : En → Fm :
ω(V ) = 0Fm pour tout V ∈ En.
En effet :
ω(Vj ) = 0Fm ,
1 ≤ j ≤ n,
implique :
ω(Vj ) =
m
X
aij Wi
avec aij = 0K
i=1
La matrice carrée nulle 0n,n sera notée 0n.
∀ i, j.
– Une matrice est antisymétrique si elle est égale à l’opposé de sa transposée :
A = −AT
⇔
aij = −aji
∀ i, j.
Une matrice antisymétrique est nécessairement carrée et ses éléments diagonaux sont nuls.
– Dans le cas du champ des complexes C, une matrice est dite antihermitienne si elle est égale à l’opposé de sa transposée conjuguée :
e
A = −A
⇔
aij = −a∗ji
∀ i, j.
Elle est carrée et ses éléments diagonaux sont imaginaires purs.
– Si A est une matrice symétrique réelle, alors la matrice B = i A est
antihermitienne car :
e = −i AT = −i A = −B.
B
– Si A est une matrice antisymétrique réelle, alors la matrice B = i A est
hermitienne car :
e = −i AT = i A = B.
B
Multiplication matricielle
Le produit C = AB d’une matrice A = [aki] de dimensions ` × m par une matrice B = [bij ] de dimensions m × n est une matrice C = [ckj ] de dimensions
` × n telle que :
m
X
ckj =
aki bij ,
i=1
pour 1 ≤ k ≤ ` et 1 ≤ j ≤ n.
Dans le cas particulier où m = n, l’ensemble MK (n) des matrices carrées
d’ordre n muni de l’addition matricielle et de la multiplication matricielle
constitue un anneau unitaire, mais pas un anneau intègre.
Propriété 4.1 La matrice transposée d’un produit C = AB est le produit des
matrices transposées dans l’ordre inverse :
C T = B T AT .
Propriété 4.2 Le produit de deux matrices triangulaires inférieures (supérieures)
est une matrice triangulaire inférieure (supérieure). De plus, si les facteurs sont
normalisés, le produit est normalisé.
Propriété 4.3 Le produit de deux matrices diagonales est une matrice diagonale. De plus, ce produit est commutatif.
Décomposition par blocs (sous-matrices)
Il est parfois commode de décomposer une matrice en blocs, encore appelés
sous-matrices. On obtient par exemple des matrices diagonales par blocs :


 A11 0p,n−p 
A = diag(A11, A22) = 
,
0n−p,p A22
où A, A11 et A22 sont des matrices carrées d’ordre n, p et n − p, respectivement.
Les règles d’addition, de multiplication et de transposition s’étendent aux blocs.
Ainsi, par exemple, le produit :
m
n
donne :
m
n

p
q
 A11

A21

A12 

A22
p
q

s
 B11

B21
s

t
B12 

B22
t
 A11B11 + A12B21

A21B11 + A22B21


A11B12 + A12B22 

A21B12 + A22B22
où les dimensions des différentes sous-matrices ont été indiquées. Le transposé
du premier facteur donne :
p
q

m
T
 A11

AT12
n

AT21 

T
A22
Rang – Matrice inverse
Définition 4.1
Le rang d’une matrice est le nombre maximum de colonnes
linéairement indépendantes.
Théorème 4.2 Dans une matrice A = [aij ] de dimensions m × n, le nombre
maximum de colonnes linéairement indépendantes est égal au nombre maximum
de lignes linéairement indépendantes.
Définition 4.2 Une matrice carrée d’ordre n est singulière si son rang r est
inférieur à son ordre :
r < n.
Elle est non singulière, ou encore, régulière si son rang est égal à son ordre :
r = n.
Théorème 4.3 Le rang d’une matrice est l’ordre maximum d’une sous-matrice
carrée non singulière.
Théorème 4.4 Une matrice carrée est non singulière si et seulement si elle est
la représentation matricielle d’une application linéaire bijective.
Définition 4.3 Une matrice carrée A d’ordre n est inversible s’il existe une
matrice carrée A−1 d’ordre n telle que AA−1 = A−1A = 1n . La matrice A−1 est
appelée l’inverse de A.
Une matrice carrée est non singulière si et seulement si elle est inversible.
Propriété 4.4 La matrice inverse d’un produit C = AB est le produit des
matrices inverses dans l’ordre inverse :
C −1 = B −1A−1.
Propriété 4.5 Le rang d’un produit de matrices est inférieur au rang de chaque
facteur :
rang AB ≤ min{rang A, rang B}.
Changement de bases
Soient :
– En : espace vectoriel de dimension n sur K,
– Fm : espace vectoriel de dimension m sur K,
– BE = {V1, V2 , . . . , Vn } : base de En,
– BF = {W1, W2, . . . , Wm } : base de Fm ,
– f : application linéaire de En dans Fm.
– A : matrice de f par rapport à BE et BF .
Soient :
– B E = {V 1, V 2 , . . . , V n } : nouvelle base de En,
– B F = {W 1 , W 2 , . . . , W m } : nouvelle base de Fm .
−→ Matrice de f par rapport aux nouvelles bases B E et B F à partir de A :
A = Q−1AP ,
où :
– P = [pij ] est la matrice de transition (d’ordre n non singulière) de la base
BE à la base B E :
Vj =
n
X
pij Vi ,
1 ≤ j ≤ n,
i=1
– Q = [qij ] est la matrice de transition (d’ordre m non singulière) de la base
BF à la base B F :
Wj =
m
X
i=1
qij Wi,
1 ≤ j ≤ m.
Matrices équivalentes et semblables
Définition 4.4 Deux matrices A et B de dimensions m × n sont équivalentes,
E
ce qu’on note A = B, s’il existe une matrice carrée G non singulière d’ordre m
et une matrice carrée H non singulière d’ordre n telles que A = GBH.
Définition 4.5 Deux matrices A et B carrées d’ordre n sont semblables, ce
S
qu’on note A = B, s’il existe une matrice carrée G non singulière d’ordre n
telle que A = GBG−1 .
Téléchargement