Couple constitué par deux éléments s et t : (s, t).

publicité
Ensemble
– Collection quelconque d’éléments.
– Couple constitué par deux éléments s et t : (s, t).
– Produit cartésien de deux ensembles S et T :
S × T = {(s, t) | s ∈ S et t ∈ T }.
Application
f : A → B telle que ∀ a ∈ A, ∃ ! b ∈ B : b = f (a).
(une et une seule flèche part de chaque point de A.)
– Application injective : au plus une flèche arrive en chaque point de B.
– Application surjective : au moins une flèche arrive en chaque point de B.
– Application bijective : une et une seule flèche arrive en chaque point de B.
– Application réciproque (bijective) :
f −1 : B → A
telle que
f −1(b) = a
ssi
f (a) = b.
Loi de composition
– Loi de composition interne ⊤ entre éléments d’un ensemble E : application
d’une partie A de E 2 dans E :
not
(a, b) ∈ A ⊆ E 2 ⇒ c = ⊤(a, b) = a ⊤ b ∈ E.
Si A = E 2, loi de composition interne et partout définie sur E.
Loi de composition
– Loi de composition interne ⊤ entre éléments d’un ensemble E : application
d’une partie A de E 2 dans E :
not
(a, b) ∈ A ⊆ E 2 ⇒ c = ⊤(a, b) = a ⊤ b ∈ E.
Si A = E 2, loi de composition interne et partout définie sur E.
– Associativité : ∀ a1 , a2 , a3 ∈ E : (a1 ⊤ a2 ) ⊤ a3 = a1 ⊤ (a2 ⊤ a3 ).
(associativité ⇒ complète associativité)
– Commutativité : ∀ a1 , a2 ∈ E : a1 ⊤ a2 = a2 ⊤ a1 .
(associativité et commutativité ⇒ complète commutativité)
– Elément neutre : ∃ e ∈ E, ∀ a ∈ E : a ⊤ e = e ⊤ a = a.
(existence d’un neutre ⇒ unicité du neutre)
– Elément symétrisable : a ∈ E tel que ∃ a′ ∈ E : a ⊤ a′ = a′ ⊤ a = e.
(associativité, neutre et élément symétrisable ⇒ unicité du symétrique)
notation additive : −a (opposé)
notation multiplicative : a−1 (inverse)
– Elément simplifiable :
a ∈ E simplifiable à droite si : ∀ x, y ∈ E : x ⊤ a = y ⊤ a ⇒ x = y.
a ∈ E simplifiable à gauche si : ∀ x, y ∈ E : a ⊤ x = a ⊤ y ⇒ x = y.
a ∈ E simplifiable si simplifiable à gauche et à droite.
(si associativité et neutre, alors symétrisable ⇒ simplifiable)
Homomorphisme – isomorphisme
Homomorphisme de (E, ⊤) dans (E ′ , ⊤′ ) : application f de E dans E ′ telle
que, pour tout (x, y) ∈ E 2 :
f (x ⊤ y) = f (x) ⊤′ f (y).
Isomorphisme : homomorphisme bijectif.
Théorème 1.7 f isomorphisme ⇒ f −1 isomorphisme.
Groupe
Couple (G, ⊤) (c’est-à-dire un ensemble G muni d’une loi interne ⊤)
qui satisfait aux axiomes suivants :
G1. La loi ⊤ est associative.
G2. Il existe un élément neutre dans (G, ⊤).
G3. Tout élément de (G, ⊤) est symétrisable.
En outre, ⊤ commutative ⇒ groupe commutatif.
Théorème 1.8 Dans un groupe, l’équation en x et celle en y :
a⊤x=b
et
y ⊤ a = b,
et
y = b ⊤ a′ ,
ont chacune une solution unique :
x = a′ ⊤ b
respectivement, où a′ désigne le symétrique de a. De plus x = y si le groupe est
commutatif.
Anneau
Triplet (A, +, ×) (c’est-à-dire un ensemble A muni d’une addition et d’une
multiplication) qui satisfait aux axiomes suivants :
A1. (A, +) est un groupe commutatif.
A2. Multiplication associative.
A3. Multiplication distributive par rapport à l’addition :
a(b + c) = ab + ac
et
(b + c)a = ba + ca.
En outre, multiplication commutative ⇒ anneau commutatif.
multiplication possède un neutre ⇒ anneau unitaire.
Diviseurs de zéro : Éléments a 6= 0 et b 6= 0 dans A tels que ab = 0.
anneau unitaire commutatif sans diviseurs de zéro ⇒ anneau intègre.
Théorème 1.9 Dans un anneau, les éléments non nuls, non diviseurs de zéro,
se confondent avec les éléments simplifiables pour la multiplication.
Corps – Champ
Triplet (K, +, ×) (c’est-à-dire un ensemble K muni d’une addition et d’une
multiplication) qui satisfait aux axiomes suivants :
X1. (K, +) est un groupe commutatif.
X2. (K0, ×) est un groupe (où 0 est l’élément neutre pour l’addition).
X3. Multiplication distributive par rapport à l’addition :
a(b + c) = ab + ac
et
(b + c)a = ba + ca.
En outre, multiplication commutative ⇒ (K0, ×) groupe commutatif
⇒ champ.
Espace vectoriel E sur un champ de scalaires (K, +K , ×K )
Ensemble de vecteurs muni d’une opération d’addition vectorielle :
V1
et V2 ∈ E
⇒
V1 +E V2 ∈ E
et d’une opération de multiplication scalaire :
k∈K
et
V ∈E
⇒
k•V ∈E
qui satisfait aux axiomes suivants :
A1. (E, +E ) est un groupe commutatif.
A2. La multiplication scalaire est telle que :
E1.
(k1 ×K k2 ) • V1 = k1 • (k2 • V1 )
E2.
1 • V1 = V1
E3.
(k1 +K k2) • V 1 = (k1 • V1 ) +E (k2 • V1 )
E4.
k1 • (V1 +E V2 ) = (k1 • V1 ) +E (k1 • V2 )
(où 1 est l’élément unité du champ K)
pour tout (V1 , V2 ) ∈ E 2 et (k1, k2 ) ∈ K 2.
Sous-espace vectoriel d’un espace vectoriel E
Sous-ensemble non vide S de E qui est lui-même un espace vectoriel par rapport
aux lois d’addition vectorielle et de multiplication scalaire définies sur E.
Théorème 2.1 S (non vide) sous-espace vectoriel de E
⇔
(V, W ) ∈ S 2
k∈K
et
⇒
V ∈S
V +W ∈S
⇒
kV ∈S
⇔
(V, W ) ∈ S 2
et
(k, ℓ) ∈ K 2
⇒
k V + ℓ W ∈ S.
Remarque : Tout sous-espace vectoriel contient 0E .
Théorème 2.2 S1 et S2 sous-espaces vectoriels de E
⇒
S1 ∩ S2 sous-espace vectoriel.
Somme de deux sous-espaces vectoriels S1 et S2 :
S1 + S2 = {V1 + V2 | V1 ∈ S1 et V2 ∈ S2 }.
Théorème 2.3 S1 et S2 sous-espaces vectoriels de E
⇒
S1 + S2 sous-espace vectoriel.
Somme directe de deux sous-espaces vectoriels S1 et S2 (S1 ⊕ S2) :
Si V ∈ S1 +S2 peut être décomposé de manière unique en V = V1 +V2
avec V1 ∈ S1 et V2 ∈ S2.
Théorème 2.4
S1 ⊕ S2
⇔
S1 ∩ S2 = {0E }.
Combinaison linéaire
V ∈ E combinaison linéaire de m vecteurs V1 , V2 , . . . , Vm de E :
m
X
V = k1 V1 + · · · + km Vm =
ki Vi
i=1
où k1, k2, . . . , km ∈ K.
Partie génératrice
Soit F , une partie non vide de E :
– L(F ) : ensemble engendré par F (ensemble de toutes les combinaisons
linéaires des vecteurs de F ).
– F : partie génératrice de L(F ).
Théorème 2.5 L(F ) sous-espace vectoriel de E.
Partie libre
V1 , V2, . . . , Vm ∈ E linéairement indépendants :
m
X
ki Vi = 0E ,
ki ∈ K
⇒
ki = 0 K ,
1 ≤ i ≤ m.
i=1
Partie liée
V1 , V2, . . . , Vm ∈ E linéairement dépendants :
m
X
i=1
ki Vi = 0E ,
ki ∈ K,
possible avec des ki non tous nuls.
P1. Un seul vecteur non nul constitue une partie libre.
P2. Des vecteurs linéairement indépendants sont nécessairement non nuls.
Théorème 2.6 V1 , V2 , . . . , Vm ∈ E (m ≥ 2) sont linéairement dépendants si
et seulement si l’un d’entre eux est combinaison linéaire des autres.
Théorème 2.7
V1 , V2 , . . . , Vm ∈ E (m ≥ 2) non nuls sont linéairement
dépendants si et seulement si l’un d’entre eux (excepté le premier) est combinaison linéaire des précédents.
Théorème 2.8 Si V ∈ E est combinaison linéaire de m vecteurs linéairement
indépendants V1 , V2 , . . . , Vm ∈ E :
V =
m
X
ki Vi ,
i=1
alors les ki ∈ K sont uniques.
Base
Un ensemble de vecteurs V1 , V2 , . . . , Vm ∈ E est une base de E s’il constitue à
la fois une partie libre et génératrice de E.
On suppose : E engendré de manière finie et E 6= {0E }.
Lemme 2.1 Si, dans une partie génératrice {V1 , V2, . . . , Vm } de E, un des
vecteurs est combinaison linéaire des autres, alors E est engendré par l’ensemble
obtenu en supprimant ce vecteur dans la partie génératrice initiale.
(En particulier, on peut supprimer un vecteur nul.)
Théorème 2.9 (Existence)
possède au moins une base.
Un espace vectoriel engendré de manière finie
Lemme 2.2 Soient {W1, W2 , . . . , Wn }, une partie libre de E, et {V1 , V2 , . . . ,
Vm }, une partie génératrice de E :
n ≤ m.
Théorème 2.10 (Unicité du nombre de vecteurs d’une base) Si E est engendré de manière finie, toutes les bases ont le même nombre de vecteurs.
Dimension
Le nombre commun de vecteurs des bases de E est appelé la dimension de E.
Théorème 2.11 La dimension n de E représente :
1. Le nombre de vecteurs d’une base.
2. Le nombre minimum de vecteurs d’une partie génératrice.
3. Le nombre maximum de vecteurs d’une partie libre.
Théorème 2.12 Dans E de dimension n :
1. Toute partie génératrice de n vecteurs est une base de E.
2. Toute partie libre de n vecteurs est une base de E.
Théorème 2.13 Dans E de dimension n :
1. Toute partie génératrice contient une base de E.
2. Toute partie libre est contenue dans une base de E.
Théorème 2.14 Soit E de dimension n. Si S est un sous-espace vectoriel de E,
on a :
dim S ≤ n,
et si dim S = n, alors S = E.
Théorème 2.15 Soient E de dimension finie et S1 et S2 , deux sous-espaces
vectoriels de dimension p et q tels que S1 ∩ S2 = {0E }. Si {V1 , . . . , Vp } désigne
une base de S1 et {W1, . . . , Wq } une base de S2 , alors l’ensemble de vecteurs
{V1 , . . . , Vp , W1, . . . , Wq } constitue une base de S1 ⊕ S2. En particulier, on a :
dim (S1 ⊕ S2 ) = dim S1 + dim S2 .
Loi modulaire : si S1 ∩ S2 6= {0E }, alors :
dim (S1 + S2 ) = dim S1 + dim S2 − dim (S1 ∩ S2).
L’espace des coordonnées K n (par rapport à une base)
Soient :
– Un espace vectoriel E sur K de dimension n.
– Une base {V1, V2, . . . , Vn } de E.
– L’ensemble K n = {(k1, k2 , . . . , kn ) | ki ∈ K, 1 ≤ i ≤ n} muni de :
(k1, k2, . . . , kn ) + (ℓ1, ℓ2, . . . , ℓn ) = (k1 + ℓ1 , k2 + ℓ2, . . . , kn + ℓn ),
et
a (k1, k2 , . . . , kn) = (a k1 , a k2, . . . , a kn ), a ∈ K.
P
– L’application f : E → K n qui associe à V = ni=1 ki Vi ∈ E ses coordonnées par rapport à la base {V1 , V2 , . . . , Vn } :
f (V ) = (k1, k2, . . . , kn ) ∈ K n.
Alors :
– K n est un espace vectoriel sur K.
– f est une bijection de E dans K n .
– f est un homomorphisme :
f (V + W ) = f (V ) + f (W ) et f (a V ) = a f (V ),
pour tout V, W ∈ E et pour tout a ∈ K.
En conclusion :
Tout espace vectoriel E sur un champ K
est isomorphe
à l’espace K n des coordonnées
(par rapport à une base quelconque de E).
Application linéaire f d’un espace vectoriel E dans un espace vectoriel F (sur K)
Application de E dans F qui conserve les deux opérations d’un espace vectoriel :
L1.
f (V + W ) = f (V ) + f (W )
L2.
f (k V ) = k f (V )
pour tout V et W ∈ E et tout k ∈ K.
Cas particuliers :
– F = E : opérateur linéaire opérant dans E.
– F = K : forme linéaire sur K.
Propriétés :
P1. f (0E ) = 0F .
n
P
P
ki Vi = ni=1 ki f (Vi)
P2. f
(conservation des relations linéaires).
i=1
Remarques :
– L1 et L2 ⇔ f (k V + ℓ W ) = k f (V ) + ℓ f (W )
(pour tout V et W ∈ E et tout k et ℓ ∈ K).
– f = g ⇔ f (V ) = g(V )
(pour tout V ∈ E).
Image d’une application linéaire f : E → F
Imf = f (E) = {f (V ) ∈ F | V ∈ E} ⊆ F .
Noyau d’une application linéaire f : E → F
Kerf = {V ∈ E | f (V ) = 0F } ⊆ E.
Théorème 3.1
Imf sous-espace vectoriel de F .
Kerf sous-espace vectoriel de E.
Rang et nullité
– Rang de f : ρ = dim Imf .
– Nullité de f : ν = dim Kerf .
Théorème 3.2
ρ + ν = n (où n = dim E).
Corollaire 3.1
ρ ≤ min{dim E, dim F }.
Opérations sur les applications linéaires
– Somme de deux applications linéaires f : E → F et g : E → F :
f +g :E →F
def
tel que (f + g)(V ) = f (V ) + g(V )
∀V ∈E
– Produit d’une application linéaire f : E → F par un scalaire k ∈ K :
kf :E→F
def
tel que (k f )(V ) = k f (V )
∀V ∈E
– Composition de deux applications linéaires f : E → F et h : F → G :
h◦f :E →G
def
tel que (h ◦ f )(V ) = h(f (V ))
∀V ∈E
Remarques :
– f + g, k f et h ◦ f sont des applications linéaires.
– LK (E, F ) (l’ensemble des applications linéaires de E dans F ), muni de
la somme et du produit est un espace vectoriel sur K, noté LK (E, F ).
– LK (E, E) (l’ensemble des opérateurs linéaires sur E), muni de la somme
et de la composition est un anneau unitaire, mais pas un anneau intègre.
Théorème 3.3
rang (h ◦ f ) ≤ min{rang h, rang f }.
Application linéaire bijective
Théorème 3.4
f est injective si et seulement si Kerf = {0E }.
(dans ce cas ρ = dim E ≤ dim F )
Théorème 3.5
f est surjective si et seulement si Im f = F .
(dans ce cas ρ = dim F ≤ dim E)
Théorème 3.6
f est bijective si et seulement si Kerf = {0E } et Im f = F .
(dans ce cas ρ = dim E = dim F )
Application linéaire inversible
Une application linéaire f : E → F est inversible s’il existe une application
linéaire f −1 : F → E telle que f −1 ◦ f = 1E et f ◦ f −1 = 1F .
Théorème 3.7
f est inversible si et seulement si elle est bijective.
Représentation matricielle d’une application linéaire
– En : espace vectoriel de dimension n sur K,
– Fm : espace vectoriel de dimension m sur K,
– BE = {V1, V2 , . . . , Vn } : base de En,
– BF = {W1, W2, . . . , Wm } : base de Fm ,
– f : application linéaire de En dans Fm.
Décomposition unique de V ∈ En dans BE :
V =
n
X
xj ∈ K.
xj Vj ,
(1)
j=1
Par linéarité de f :
f (V ) =
n
X
xj f (Vj ).
(2)
j=1
({f (V1), f (V2), . . . , f (Vn)} constitue une partie génératrice de Imf )
Décomposition unique de f (Vj ), 1 ≤ j ≤ n, dans BF :
f (Vj ) =
m
X
aij Wi,
aij ∈ K.
(3)
i=1
(f complètement déterminée par les mn aij ∈ K)
Matrice (représentation matricielle) de f par rapport à BE et BF :


 a11 a12 . . . a1n 




 a21 a22 . . . a2n 


A=
 = [aij ]
 ..
.
.
..
.. 
 .





am1 am2 . . . amn
(colonne j de A contient les coordonnées de f (Vj ) dans BF )
(4)
Théorème 4.1 Une fois les bases fixées, à toute application linéaire correspond
une et une seule matrice, et réciproquement.
( → Bijection entre LK (En, Fm), l’ensemble des applications linéaires de En
dans Fm , et MK (n, m), l’ensemble des matrices d’éléments de K à m lignes et
n colonnes.)
Généralités sur les matrices
– Matrice carrée d’ordre n : m = n.
– Matrice transposée de A : AT = [a′ij ] avec a′ij = aji .
– Matrice symétrique : A = AT .
e (transposée conjuguée).
– Matrice hermitienne : A = A
– Matrice diagonale : matrice carrée avec aij = 0K pour i 6= j.
– Matrice unité 1n : matrice diagonale telle que aii = 1 pour tout i.
– Matrice nulle 0m,n : aij = 0K pour tout i, j.
– Matrice triangulaire inférieure : matrice carrée avec aij = 0K pour i < j.
(normalisée : aii = 1 pour tout i)
– Matrice triangulaire supérieure : matrice carrée avec aij = 0K pour i > j .
(normalisée : aii = 1 pour tout i)
Opérations sur les matrices
– Somme de A = [aij ] et B = [bij ] :
A + B = [aij + bij ]
– Produit (scalaire) de A = [aij ] par k ∈ K :
k A = [k aij ]
Remarques :
– MK (n, m) (l’ensemble des matrices de de dimensions m × n), muni de la
somme et du produit scalaire est un espace vectoriel sur K, noté MK (n, m).
– MK (n, m) et LK (En, Fm ) (l’espace des applications linéaires de En dans
Fm ) sont isomorphes.
Opérations sur les matrices
– Somme de A = [aij ] et B = [bij ] :
A + B = [aij + bij ]
– Produit (scalaire) de A = [aij ] par k ∈ K :
k A = [k aij ]
– Produit (matriciel) de A = [aki] de dimensions ℓ × m
par B = [bij ] de dimensions m × n :
AB = C = [ckj ]
de dimensions ℓ × n, telle que :
ckj =
m
X
aki bij
i=1
Remarques :
– MK (n, m) (l’ensemble des matrices de de dimensions m × n), muni de la
somme et du produit scalaire est un espace vectoriel sur K, noté MK (n, m).
– MK (n, m) et LK (En, Fm ) (l’espace des applications linéaires de En dans
Fm ) sont isomorphes.
– MK (n) (l’ensemble des matrices carrées d’ordre n), muni de la somme et
du produit matriciel est un anneau unitaire, mais pas un anneau intègre.
Rang d’une matrice
Le rang d’une matrice est égal au nombre maximum de colonnes linéairement
indépendantes.
Théorème 4.2 Dans une matrice A de dimensions m×n, le nombre maximum
de colonnes linéairement indépendantes est égal au nombre maximum de lignes
linéairement indépendantes.
Le rang d’une matrice est donc aussi égal au nombre maximum de lignes linéairement indépendantes.
Matrice singulière et régulière
Une matrice carrée d’ordre n est singulière si son rang r est inférieur à son ordre :
r < n.
Une matrice carrée d’ordre n est non singulière, ou encore, régulière si son rang
r est égal à son ordre :
r = n.
Théorème 4.3 Le rang d’une matrice est l’ordre maximum d’une sous-matrice
carrée non singulière.
Matrice inversible – Matrice inverse :
Une matrice carrée A d’ordre n est inversible s’il existe une matrice carrée A−1
d’ordre n telle que AA−1 = A−1A = 1n
La matrice A−1 est appelée l’inverse de A
Une matrice carrée est donc non singulière si et seulement si elle est inversible
Propriété 4.5
rang AB ≤ min{rang A, rang B}
Téléchargement