algebre1

publicité
Algèbre 1 : Calculs algébriques & Algèbre
linéaire
y
1
(0,1)
v
(-2,1)
x
b
−2
O
−1
(1,0)
1
2
−1
Illustration de la base canonique de R2 . Les vecteurs bleu et orange sont les éléments de cette base ; le vecteur
vert peut être exprimé en fonction des autres vecteurs, et donc est linéairement dépendant.
Sommaire
I
Éléments de logique et de théorie des ensembles
1
1 Éléments de logique
1.1 Proposition et connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Raisonnement mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
3
3
2 Éléments de théorie des ensembles
2.1 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 L’ensemble des entiers naturels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
4
6
9
II
3 Généralités
3.1 Définitions et opérations . . . . . .
3.2 Degré . . . . . . . . . . . . . . . .
3.3 Dérivées d’un polynôme et racines
3.3.1 Dérivées . . . . . . . . . . .
3.3.2 Racines d’un polynôme . .
4 Arithmétique dans K[X]
4.1 Division euclidienne . . .
4.2 Polynômes irréductibles et
4.3 Décomposition en facteurs
4.3.1 Cas C[X] . . . . .
4.3.2 Cas R[X] . . . . .
Polynômes
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
13
13
13
15
. . . . . . . . . . . . . .
P GCD de 2 polynômes
irréductibles . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
16
16
17
17
17
III
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Espaces vectoriels
5 Définitions et exemples
5.1 E = {0} . . . . . . . . . . . . . . . . . . . . . . . .
5.2 E = Kn , n ∈ N∗ . . . . . . . . . . . . . . . . . . . .
5.3 K[X] . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4 L’ensemble des suites à valeurs dans K . . . . . . .
5.5 L’ensemble des applications de T à valeurs dans K
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
19
20
21
21
6 Sous-espaces vectoriels
22
6.1 Définitions-exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Intersection et somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3 Sous-espace vectoriel engendré par une famille finie de vecteurs . . . . . . . . . . . . . . . . . . . 24
7 Familles génératrices et libres
26
7.1 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
7.2 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2
8 Bases et dimension
8.1 Définitions . . . . . . . . . . .
8.2 Théorèmes fondamentaux . .
8.3 Conséquences du théorème de
8.4 Applications . . . . . . . . . .
. . . . . . . .
. . . . . . . .
la dimension
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
27
27
28
9 Détermination pratique de la dimension d’un espace vectoriel
29
9.1 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
9.2 Calcul du rang d’une famille finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
IV
Applications linéaires et Matrices
10 Applications linéaires
10.1 Définitions, propriétés, exemples . . . . .
10.2 Noyau et image d’une application linéaire
10.3 Homothéties, projections, symétries . . . .
10.3.1 Homothéties . . . . . . . . . . . .
10.3.2 Projections . . . . . . . . . . . . .
10.3.3 Symétries . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
31
32
32
33
33
11 Matrices
35
11.1 Définitions, opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
11.2 Représentation des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
11.3 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3
Première partie
Éléments de logique et de théorie des
ensembles
1
Chapitre 1
Éléments de logique
1.1
Proposition et connecteurs logiques
Définition : Une proposition est un énoncé mathématique (ou non) qui possède l’une des valeurs de vérité
suivante : vraie (V) ou fausse (F).
Exemples :
1. « Il existe des hommes immortels »F (par expérience).
2. « L’ensemble des nombres entiers naturels premiers est infini »V (démontrable mathématiquement).
Négation : Soit P une proposition.
P
V
F
non(P)
F
V
non(P) contraire logique de (P).
Conjonction et : Soient P et Q deux propositions.
P
V
V
F
F
Q
V
F
V
F
P et Q
V
F
F
F
(P et Q) est V si P et Q sont simultanéments V.
Disjonction ou :
P
V
V
F
F
Q
V
F
V
F
P ou Q
V
V
V
F
(P ou Q) est V si l’une des propositions est V.
Implication : ⇒
(P ⇒ Q) est synonyme de (non(P) ou Q) .
P
V
V
F
F
non(P)
F
F
V
V
Q
V
F
V
F
P⇒Q
V
F
V
V
– Le F implique n’importe quoi.
– (P ⇒ Q) est F uniquement lorsque P vraie et Q fausse.
(P ⇒ Q) V si et seulement si on a : si P est vraie alors Q est vraie.
2
Lorsque (P ⇒ Q) est V :
– P est une condition suffisante pour avoir Q.
– Q est une condition nécessaire pour avoir P.
Equivalence : ⇔
(P ⇔ Q) est synonyme de (P ⇒ Q et Q ⇒ P) .
P
V
V
F
F
Q
V
F
V
F
P⇒Q
V
F
V
V
Q⇒P
V
V
F
V
P⇔Q
V
F
F
V
(P ⇔ Q) V si et seulement si P et Q ont même valeurs de vérité.
Soient P, Q, R trois propositions.
– (non(P) et P) F
non(non(P)) ⇔ P
(non(P) ou P) V
– Transitivité : (P ⇒ Q et Q ⇒ R) ⇒ (P ⇒ R)
– Contraposée : (P ⇒ Q) ⇔ (non(Q) ⇒ non(P))
1.2
Quantificateurs
∀ : quantificateur universel
(∀x ∈ E, P(x) vraie) signifie littéralement « Pour tout éléments x de E, la proposition P(x) est vraie. »
∃ : quantificateur d’existence
(∃x ∈ E, P(x) vraie) signifie « Il existe au moins un élément x de E pour lequel la proposition P(x) est
vraie. »
Négation :
non(∀x ∈ E, P (x)) ⇔ (∃x ∈ E, non(P(x)))
non(∃x ∈ E, P (x)) ⇔ (∀x ∈ E, non(P(x)))
1.3
Raisonnement mathématique
Fondé sur une succession d’implications qui permet de déduire la conclusion des hypothèses.
Principes :
1. Pour montrer qu’une proposition P est vraie, il suffit de montrer que non(P) est fausse.
Intérêt : En général il est plus difficile de montrer une proposition du type « ∃x ∈ E, P (x). »
2. Raisonnement par l’absurde : Pour montrer que P est vraie, on raisonne par l’absurde en supposant
que P est fausse. On essaie ensuite d’aboutir à une contradiction du type « Q vraie et non(Q) vraie », où
Q est une proposition intervenant dans la démonstration.
3. Raisonnement par contraposée : Pour montrer l’implication (P ⇒ Q), il suffit de montrer sa contraposée (non(Q) ⇒ non(P)) (A confirmer avec 1).
3
Chapitre 2
Éléments de théorie des ensembles
2.1
Opérations sur les ensembles
Définition : Un ensemble est une collection d’éléments E ensemble.
x ∈ E : x est un élément de E.
A ⊂ E : A est un ensemble tel que tout élément de A est élément de E.
P(E) : L’ensemble des ensembles A ⊂ E.
Remarque : A ⊂ E ⇔ A ∈ P(E)
x∈E⇔
{x} ⊂ E ⇔ x ∈ P(E)
|{z}
singleton
∅ : Ensemble sans élément. On a toujours ∅ ⊂ E.
A, B ∈ P(E)
Exemples :
P(∅) = {∅}
P({1}) = {∅, {1}}
P({1, 2}) = {∅, {1}, {2}, {1, 2}}
| {z }
paire
Intersection ∩ :
A ∩ B := {x ∈ E : x ∈ A et x ∈ B}
A
B
A∩B
Intersection de deux ensembles A et B, notée A ∩ B
4
Réunion ∪ :
A ∪ B := {x ∈ E : x ∈ A ou x ∈ B}
A
B
A∪B
Intersection de deux ensembles A et B, notée A ∪ B
Différence \ :
A \ B := {x ∈ E : x ∈ A et x ∈
/ B} = A \ (A \ B)
A
B
A\B
Différence de deux ensembles A et B, notée A \ B
Cas particulier :
Complémentaire de A : c A = E \ A = {x ∈ E : x ∈
/ A}
E
b
B
A
c
A
Complémentaire de deux ensembles A et B, noté c A
5
Remarque :
∀x ∈ E, (x ∈ A ⇒ x ∈ B)
A = B ⇔ A ⊂ BetB ⊂ A
Produit cartésien de 2 ensembles E, F défini par :
E × F := {(x, y), x ∈ E et y ∈ F }
Définition : Le cardinal d’un ensemble E est le nombre d’éléments de E lorsque E est fini et vaut +∞
lorsque E est infini.
Exemples :
Soient E, F 2 ensembles finis (6= ∅).
card(E × F ) = card(E) × card(F )
∀A, B ∈ P(E), card(A ∪ B) = card(A) + card(B) − card(A ∩ B)
card(P(E)) = 2card(E)
2.2
Applications
Définition : Soient E, F deux ensembles non vides.
Une application (ou fonction) f de E dans F est la donnée d’une partie G de E × F vérifiant :
∀x ∈ E, ∃!y ∈ F, (x, y) ∈ G
y est l’image de f par x et on note y = f (x).
x est un antécédent de y par f .
f:
E
x
−→ F
7−→ f (x)
G est appellé le graphe de f défini par :
G = {(x, f (x)), x ∈ E}
Gf
x2
x
Définition : Soit f : E → F une application.
L’image directe de A ⊂ E par f est définie par :
f (A) := {f (x), x ∈ A} ⊂ F
L’image réciproque de B ⊂ F est défini par :
6
f −1 (B) = {x ∈ E : f (x) ⊂ B}
Exemples :
f:
−→
7−→
R
x
R
x2
f (R) = R+ = f (R+ ) = f (R− )
f ([−1, 1]) = [0, 1]
f −1 (R) = {x ∈ R : x2 ∈ R} = R
f −1 (0) = {x ∈ R : x2 ∈ R} = {0}
f −1 ([−1, 1]) = {x ∈ R, x2 ∈ [1−, 1]} = [−1, 1]
Propriétés des fonctions
Définition : Soit f : E → F une application.
On dit que f est injective si tout élément de F possède au plus un antécédent par f , c’est à dire :
∀x, x′ ∈ E, (f (x) = f (x′ ) ⇒ x = x′ )
Utile en pratique
On dit que f est surjective si tout élément de F possède au moins au antécédent par f , c’est à dire :
∀y ∈ F, ∃x ∈ E, y = f (x) ou bien f (E) = F
On dit que f est bijective si elle est à la fois injective et surjective, c’est à dire :
∀y ∈ F, ∃!x ∈ E, y = f (x)
Injection
Surjection
Bijection
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
Définition : Soit f : E → F bijective. On définit l’application réciproque de f , notée f −1 , par :
f −1 :
F
y
−→
7−→
E
x tel que f (x) = y
On en déduit y = f (x) ⇔ x = f −1 (y)
f non injective ⇔
⇔
non(∀x, x′ ∈ E, f (x) = f (x′ )) ⇒ x = x′
∃x, x′ ∈ E, f (x) = f (x′ ) et x 6= x′
Exemples :
7
1
1
−1
1.
f:
R
x
−→
7−→
R
x2
Ici, f (1) = f (−1) = 1 et 1 6= −1
Donc f n’est pas injective.
−1 ∈
/ f (R) ⊂ R+
Donc f n’est pas surjective.
2.
g:
R −→
x 7−→
R+
x2
g n’est pas injective car g(1) = g(−1) et 1 6= −1.
√
√
Soit y ∈ R+ , y = ( y)2 = g( y) d’où g surjective.
3.
h:
R+ −→
x 7−→
R+
x2
Pour tout y ∈ R+ , il existe un unique x ∈ R+ , tel que y = h(x) = x2
√
il s’agit de x = y.
y = x2 , x ≥ 0 ⇔
⇔
⇔
De plus :
h−1 :
√
( y)2 = x2 , x ≥ 0
√
√
( y − x)( y + x) = 0, x ≥ 0
√
x= y
R+
y
−→
7−→
R+
√
y
h
y=x
h−1
1
1
8
Gh et Gh−1 sont symétriques par rapport à y = x.
Composition d’application
Définition : Soient E, F, G trois ensembles non vides, f : E → F et g : F → G deux applications. La
composée de f par g, notée g ◦ f est l’application définie par :
g ◦ f : E −→
x −
7 →
x
E
G
(g ◦ f )(x) = g[f (x)]
f
g
7 → f (x)
−
−→ F
7 →
−
−→
g[f (x)]
G
Proposition : Soient f : E → F et g : F → G bijectives.
Alors g ◦ f est bijective et (g ◦ f )−1 = f −1 ◦ g −1 .
Remarque :
G −→
z
g −1
7−→
F
g
−1
(z)
−→ E
f −1
7−→
f −1 (g −1 (z))
Soit f : E → F bijective.
Alors f −1 ◦ f =
IdE :
E −→
x 7−→
E
Application identité de E dans E, et f ◦ f −1 = IdF
x
En effet, si x ∈ E, (f −1 ◦ f )(x) = f −1 (f (x)) = x
2.3
L’ensemble des entiers naturels
Définition : L’ensemble des entiers naturels, noté N, est défini par N = {0, 1, 2, ...}.
Axiome (de Peano) : Toute partie non vide de N possède un plus petit élément, c’est à dire :
∀A ∈ P(N)\{∅}, ∃a ∈ A, ∀x ∈ A, a ≤ x.
Remarque : Faux pour R, R∗+ ne possède pas de plus petit élément.
Principe de récurrence : Soit P (n) une proposition qui dépend de n ∈ N. Alors P (n) est vraie pour tout
n ∈ N si et seulement si P (0) vraie et ∀n ∈ N, P (n) ⇒ P (n + 1) vraie .
Exemple :
∀n ∈ N, 2n > n.
Montrons le résultat par récurrence sur n.
n = 0 20 = 1 > 0 vraie.
Soit n ∈ N. On suppose que 2n > n. (Hypothèse de récurrence).
On a 2n+1 = 2 × 2n ≥ 2(n + 1) > n + 1 d’ou 2n+1 > n + 1
D’après le principe de récurrence, 2n > n.
Définition : Soient E, F 2 ensembles. On dit que card(E) ≤card(F ) s’il existe une injection de E dans F .
On dit que card(E) ≥card(F ) s’il existe une surjection de E dans F .
On dit que card(E) =card(F ) s’il existe une bijection de E sur F .
Définition : E est dit au plus dénombrale s’il existe une injection de E dans N, c’est à dire card(E) ≤card(N).
Remarque : Si E est au plus dénombrale alors E est fini. (card(E) <card(N) ou
E est infini (card(E) = card(N)).
9
Théorème (Formule du binôme de Newton) : Soit n ∈ N∗ . Alors
∀a, b ∈ C, (a + b)n =
n
X
Cnk ak bn−k où Ckn =
n!
k!(n−k)!
k=0
Conséquence :
k+1
∀n ∈ N, ∀k ∈ {0, ..., n}, Cnk + Cnk+1 = Cn+1
Triangle de Pascal :
Cnk
n=1
n=2
n=3
n
n+1
k=0
1
1
1
k=1
1
2
3
1
3
1
-
k
k+1
Cnk
Cnk+1
Cnk+1
10
Deuxième partie
Polynômes
11
Chapitre 3
Généralités
K = R ou C.
3.1
Définitions et opérations
Définition : Un polynôme sur K est une expression du type P =
+∞
X
an X n où (an )n∈N est une suite de K
n=0
nulle à partir d’un certain rang.
P =
p
X
n=0
an X n pour un certain p ∈ N avec ∀n > p, an = 0. X est appellée l’indéterminée.
On note K[X] l’ensemble des polynômes sur K.
Convention : X 0 = 1.
+∞
+∞
X
X
bn X n .
an X n , Q =
Opérations : Soient P =
n=0
n=0
– Addition : P + Q =
+∞
X
(an + bn )X n
k=0
– Produit : P × Q = P Q =
+∞
X
cn X n où cn =
n=0
n
X
ak bn−k =
n=0
X
a p bp
p+q=k
Exemple :
(X 2 + 1)(X 2 + 3X + 2)
= X 2 (X 2 + 3X + 2) + 1(X 2 + 3X + 2)
= X 4 + 3X 3 + 2X 2 + 3X + 2
= X 4 + 3X 3 + 3X 2 + 3X + 2
Composition 0 : P0 Q =
+∞
X
n=0
an Qn (X → Q dans P )
avec Qn = (Q × Q × ... × Q)
{z
}
|
n f ois
Théorème : (K[X], +, ×) est un anneau commutatif et unitaire, c’est à dire :
(K[X], +, ×) est un groupe commutatif :
1. ∀P, Q ∈ K[X], P + Q = Q + P (commutativité)
2. ∀P, Q, R ∈ K[X], (P + Q) + R = P + (Q + R) (associativité)
3. 0 =
+∞
X
0X n est l’élément neutre pour + : P + 0 = P.
n=0
12
4. Tout P =
+∞
X
n=0
an X n ∈ K[X] a un opposé pour + : −P =
+∞
X
(−an )X n de sorte que P + (−P ) = 0.
n=0
X possède les propriétés suivantes :
1. ∀P, Q ∈ K[X], P Q = QP (commutativité)
2. ∀P, Q, R ∈ K[X], (P Q)R = P (QR) (associativité)
3. 1 = X 0 est l’élément neutre pour X :
∀P ∈ K[X], XP = P .
4. X est distributif par rapport à + :
∀P, Q, R ∈ K[X], P (Q + R) = P Q + P R
Convention : On identifie le polynôme constant a0 X 0 à la constante a0 ∈ K. On peut aussi plonger K dans
K[X] qui devient un sous-anneau de K[X].
Proposition : Le binôme de Newton est valable dans K[X].
Notation : P = P (X) =
+∞
X
an X n
n=0
3.2
Degré
Définition : Soit P =
+∞
X
n=0
an X n ∈ K[X]
Le degré de P , noté deg(P ), est défini par :
max {n ∈ N : an 6= 0} si P 6= 0
deg(P ) =
−∞ si P = 0
Le coefficient dominant de P 6= 0 est adeg(P ) .
Exemple :
deg(4X 3 + 3X 2 + 5X + 1) = 3
avec adeg(P ) = 4
Convention :
∀n ∈ N, n + (−∞) = (−∞) + n = −∞
⇒ (−∞) + (−∞) = −∞
⇒ −∞ < n
Proposition : Soient P, Q ∈ K[X]
• deg(P + Q) ≤ max(deg(P ), deg(Q)) avec deg(P ) 6= deg(Q)
• deg(P Q) = deg(P ) + deg(Q)
Corollaire
• ∀P, Q ∈ K[X], P Q = 0 ⇒ P = 0 ou Q = 0 (l’anneau K[X] est dit intégré).
• Soit P ∈ K[X] {0}. Alors P est inversible dans K[X] si et seulement si P ∈ K[X]\{0} (constante non
nulle).
3.3
3.3.1
Dérivées d’un polynôme et racines
Dérivées
Définition : Soit P =
+∞
X
n=0
an X n ∈ K = [X]
13
Alors la dérivée de P est définie par :
P′ =
+∞
X
nan X n−1 =
+∞
X
(n + 1)an+1 X n
n=0
n=1
On choisit n = 1, car pour n = 0, le terme est constant.
Plus généralement, la dérivée d’ordre k ∈ N de P est définie par :
(0)
P := P
P (k+1) := (P (k) )′
+∞
X
nan X n−1
P′ =
n=1
P (2) = P ′′ = (P ′ )′ =
+∞
X
n=2
P (k) =
+∞
X
n=k
n(n − 1)an X n−2
n(n − 1) − (n − k − 1)an X n−k =
+∞
X
k!Cnk an X n−k =
+∞
X
k
k!Cn+k
an+k X n
n=k
n=k
Exemple :
P
=
P (1) =
P (2) =
P (3) =
P (4) =
P (5) =
donc P (k)
X 4 − 3X 3 + 2X 2 + 5X + 4
4X 3 − 9X 2 + 4X + 5
12X 2 − 18X = 4
24X − 18
24
0
= 0 si k ≥ 5
Remarque :
Soit P ∈ K[X] ; alors ∀k > deg(P ), P k = 0
Proposition (linéarité) :
∀k ∈ K, ∀P, Q ∈ K[X], ∀α ∈ K, (αP + Q)(k) = αP (k) + Q(k)
Théorème (Formule de Leibniz) :
∀n ∈ K, ∀P, Q ∈ K[X], (P Q)(n) =
n
X
Cnk P (k) Q(n−k)
k=0
(P Q)′ = P ′ Q + P Q′ (n = 1)
(P Q)′′ = P ′′ Q + 2P ′ Q′ + P Q′′ (n = 2)
Définition : Soit P ∈ K[X], la fonction polynôme associée à P notée encore P , est définie par :
P : K −→ K
+∞
X
an x n
x 7−→ P (n) =
n=0
Théorème (Formule de Taylor) :
Soient P ∈ K[X] et a ∈ K. Alors
P (X) =
+∞
+∞
X
X
P (n) (a)
P (n) (a) n
(X − a)n ou P (X + a) =
X
n!
n!
n=0
n=0
14
3.3.2
Racines d’un polynôme
Définition : Soit P ∈ K[X] et soit a ∈ K .
• On dit que a est racine (zéro) de P si P (a) = 0 .
• Soit n ∈ N. On dit que a est racine d’ordre n (ou multiplicité n) de P si P (a) = ... = P (n−1) (a) = 0. et
P (n) (a) 6= 0
∀k ∈ {0, ..., n − 1}P (k) (a) = 0 et P (n) (a) 6= 0
Exemple : P (X) := X 4 − 4X + 3
a := 1

P (1)
= 1−4+3=0 



P ′ (X) = 4X 3 − 4

′
P (1)
= 4−4=0
1 racine d’ordre 2 de P


P ′′ (X) = 12X 2



P ′′ (1) = 12 6= 0
Remarque : n = 0 dire que a est racine d’ordre 0 est équivalent à dire que P (a) 6= 0, autrement a n’est pas
racine de P .
Théorème : Soient P ∈ K[X], a ∈ K, n ∈ N.
Alors a est racine d’ordre n de P si et seulement si ∀Q ∈ K[X], P (X) = (X − a)n Q(X) et Q(a) 6= 0
Proposition : ∀n ∈ N∗ , ∀P, Q ∈ K[X], P n − Qn = (P − Q)
n−1
X
P k Qn−1−k
k=0
Remarque :
P
P′
i2πk
P ′ (e n )
=
=
=
Xn − 1
nX n−1
i2πk
n(e n )n−1 6= 0
On retrouve que les racines nièmes de l’unité sont simples c’est à dire d’ordre 1.
Théorème (d’Alembert) : Tout polynôme non constant de P [X] possède au moins une racine.
Remarque :
• C’est un résultat d’analyse.
• Faux sur R : X 2 + 1 ne possède pas de racine dans R, par contre dans C[X], X 2 + 1 = (X − i)(X + i)
15
Chapitre 4
Arithmétique dans K[X]
4.1
Division euclidienne
Théorème : Soient A, B ∈ K[X] tel que B 6= 0
Alors il existe un unique couple (Q, R) ∈ K[X]2 tel que A = BQ + R et deg(R) < deg(B)
Notation : Q quotient et R reste de la division euclidienne de A par B.
Définition : Soient A, B ∈ K[X], B 6= 0
On dit que B divise A, et on note B|A, si le reste de la division euclidienne de A par B est 0, c’est à dire
∃Q ∈ K[X], A = BQ.
Exemple :
A := X 5 + X 4 + 2X 3 − X 2
−X 5
X3 + X2
0 + X 4 + X 3 − 2X 2
− X4
X2 + X
0 + X 3 − 3X 2 − X
− X3
+ X
2
0 − 3X − 2X
− 1 X 3 + X + 1 =: B
X2 + X + 1
+1
+1
+1
A − B(X 2 + X+) = −3X 2 − 2X
Donc A = BQ + R avec Q := X 2 + X + 1 et R := −3X 2 − 2X avec deg(R) < deg(B)
| {z } | {z }
2
3
Proposition : Si B|A1 et B|A2 alors pour tout P1 , P2 ∈ K[X] : B|A1 P1 + A2 P2 .
4.2
Polynômes irréductibles et P GCD de 2 polynômes
Définition : Soit P ∈ K[X] non constant. On dit que P est irréductible dans K[X](ou sur K) si les seuls
diviseurs de P sont les a ∈ K∗ et les aP, a ∈ K∗ .
Proposition : Tout polynôme de degré 1 est irréductible sur K.
Théorème : Soient A, B ∈ K[X], A, B 6= 0
Alors il existe un unique polynôme D unitaire (c’est à dire de coefficient dominant 1) tel que D|A, D|B et
D vérifie l’identitié de Bézout :
∃(P, Q) ∈ K[X]2 , P A + P B = D
Ainsi, tout diviseur commun à A et B divise D.
D est appellé le plus grand diviseur commun à A et B et noté D =PGCD(A, B)
Si PGCD(A, B)=1 on dit que A et B sont premiers entre eux. Pour calculer le PGCD de deux polynômes,
on utilise l’algorithme d’Euclide (voir TD).
16
Théorème (Gauss) : Soient A, B, C ∈ K[X]\{0}.
• PGCD(A, B) = 1 et A|BC ⇒ A|C
• PGCD(A, B) = 1 et A, B|C ⇒ A × B|C
4.3
4.3.1
Décomposition en facteurs irréductibles
Cas C[X]
Théorème : Soit P ∈ C[X], P 6= 0. Alors P se décompose de manière unique, à l’ordre près des facteurs,
sous la forme :
m
Y
P (X) = α
k
(X − ak )m = α(X − a1 )m1 (X − a2 )m2 ... (X − am )mm
k=1
où α coefficient dominant de P et les ak sont les m racines de P de multiplicité mk 2 à 2 différents.
De plus, les polynômes irréductibles de C[X] sont les polynômes de degré 1.
Remarque : Soient A = α
m
Y
(X − ak )mk ∈ C[X]\{0} et B = β
k=1
m
Y
(X − ak )nk ∈ C[X]\{0}
k=1
où α, β 6= 0 et ak racine de A ou de B avec mk , nk ∈ N, (mk , nk ) 6= (0, 0).
m
Y
(X − ak )min(mk ,nk ) = D.
Alors PGCD(A, B) =
k=1
4.3.2
Cas R[X]
Théorème : Soit P ∈ R\{0}. Alors P se décompose de manière unique, à l’ordre près des facteurs, sous la
forme :
P (X) = α
m
Y
(X − ak )mk ×
k=1
n
Y
(X 2 + ak X + βk )nk
k=1
où α ∈ R , a sont les m racines réelles de P 2 à 2 différents de multiplicité mk , αk , βk ∈ R, αk 2 − 4βk <
0, X 2 + αk + βk = (X − bk )(X − bk ) avec bk 6= bk les 2 racines complexes non réelles de P de multiplicité nk .
∗
Remarque : (X − bk )(X − bk ) = X 2 − (bk + bk )X + bk bk = X 2 − 2Re(bk )X +
|bk |2
[X]
βk
Théorème : Les polynômes irréductibles de R[X] sont les polynômes de degré 1 et les polynômes de degré
2 sans racine réelle.
17
Troisième partie
Espaces vectoriels
18
Chapitre 5
Définitions et exemples
On se donne un ensemble non vide E que l’on munit de 2 opérations :
Addition interne :
+ : E × E −→ E
(x, y) 7−→ x + y
Multiplication externe :
• : K × E −→ E
(λ, x) 7−→ λ.x
+ et • doivent avoir un certain nombre de propriétés qui font de (E, +, •) un espace vectoriel sur K. Un
élément de K est appelé un scalaire, un élément de E un vecteur.
5.1
E = {0}
On définit les opérations + et • :
0+0=0
λ.0 = 0
si λ ∈ K
0 vecteur nul de (E, +, •) qui définit un espace vectoriel sur K.
5.2
E = K n , n ∈ N∗
Soit n ∈ N∗ .
n−uplet
z
}|
{
Définition : Kn := K × ... × K = {(x1 , x2 , ..., xn ), xn ∈ K}
{z
}
|
n fois
On définit l’addition + dans Kn par :
Pour x = (x1 , x2 , ..., xn ) et y = (y1 , y2 , ..., yn ) ∈ Kn
x + y := (x1 + y1 , x2 + y2 , ..., xn + yn ) ∈ Kn
Pour λ de K : λ.x = (λx1 , λx2 , ..., λxn ) ∈ Kn
λxi produit usuel de λ par xi dans K.
19
Exemple :
λx (λ > 1)
λx2
x+y
x 2 + y2
x
x2
y
y2
x1
λx1
y1
x 1 + y1
Propriétés :
Les opérations + et • vérifient les propriétés suivantes :
(Kn , +) groupe commutatif.
1. ∀x, y ∈ Kn , x + y = y + x [commutativité]
2. ∀x, y, z ∈ Kn , (x + y) + z = x + (y + z) [associativité]
3. 0Kn : (0, 0, ..., 0) est l’élément neutre de Kn , c’est à dire ∀x ∈ Kn , x + 0Kn = x. 0Kn est appelé le
vecteur nul de Kn .
4. Tout élément x de Kn possède un opposé (unique) −x = (−x1 , ..., −xn ) tel que x + (−x) = 0Kn .
La multiplication externe vérifie :
1. ∀λ, µ ∈ K, ∀x ∈ Kn , λ.(µ.x) = (λµ).x [associativité de •]
2. ∀λ ∈ K, ∀x, y ∈ Kn , λ.(x + y) = λ.x + λ.y [distributivité à gauche]
3. ∀λ, µ ∈ K, ∀x ∈ Kn , (λ + µ).x = λ.x + µ.x [distributivité à droite]
4. ∀x ∈ Kn , 1.x = x
(Kn , +, •) est un espace vectoriel sur K, en abrégé un K-ev.
Notations : OK n → 0
λ.x → λx
x + (−y) → x − y
Remarque :
∀λ ∈ K, λ.0 = 0 ∈ Kn
∀x ∈ Kn , 0.x = 0 ∈ Kn
∀x ∈ Kn , −x = (−x1 , −x2 , ..., −xn ) = (−1).x
5.3
K[X]
Addition usuelle dans K[X] :
+∞
+∞
X
X
bn X n .
an X n et Q :=
Soient P =
n=0
n=0
20
P +Q=
+∞
X
n=0
(an − bn )X n
Multiplication externe :
+∞
X
λan X n
Soit λ ∈ K, λ.P =
n=0
(K[X], +, •) est un K-ev.
+∞
X
0X n .
0K[X] polynôme nul =
n=0
−P =
5.4
+∞
X
(−an )X n .
n=0
L’ensemble des suites à valeurs dans K
Cet ensemble est noté KN = {(un )n∈N , un ∈ K, ∀n ∈ N}.
Soit u ∈ KN , u = (un )n∈N = (u0 , u1 , u2 , ...) α-uplet
Addition dans KN :
Soient u = (un )n∈N , v = (vn )n∈N ∈ KN
u + v := (un + vn )n∈N
Multiplication externe :
Soit λ ∈ K.
λ.u = (λun )n∈N
(KN , +, •) est un K-ev.
OKN = (0)n∈N = (0, 0, ...)
−u = (−un )n∈N
5.5
L’ensemble des applications de T à valeurs dans K
Soit T un ensemble non vide (T sera souvent un intervalle de R). L’ensemble des applications de T dans K
est noté KT ou F(T, K).
f : T −→ K
Un élément f de KT est une application
t 7−→ f (t)
Addition dans KT :
f + g : T −→ K
Soient f, g ∈ KT ,
t 7−→ f (t) + g(t)
Multiplication externe dans KT :
Soient λ ∈ K, f ∈ KT .
λ.f : T −→ K
t 7−→ (λ.f )(t) = λf (t)
Remarque : KN est le cas particulier de KT avec T = N.
0KT : T −→ K
application nulle est le vecteur nul de KT .
t 7−→ 0
(KT , +, •) est un K-ev.
−f : T −→ K
d’où f + (−f ) = 0KT
t 7−→ −f (t)
21
Chapitre 6
Sous-espaces vectoriels
6.1
Définitions-exemples
Définition : Soit F une partie de E.
On dit que F est un sous-espace vectoriel de E, en abrégé sev de E, si
1. 0F (vecteur nul de F ) ∈ F
2. ∀λ ∈ K, ∀x, y ∈ F, (λ.x) + y ∈ F
Remarque :
2. est équivalente à
1. ∀x, y ∈ F, x + y ∈ F
2. ∀λ ∈ K, ∀x ∈ F, λ.x ∈ F
Exemple :
1. {0E } et E sont des sev de E.
2. F := {x = (x1 , x2 , x3 ) ∈ R3 : x1 + x2 + x3 = 0}
Montrons que F est un sev de R3 .
– 0 = (0, 0, 0) ∈ F car 0 + 0 + 0 = 0
– Soient x, y ∈ F, λ ∈ R.
λx + y = (λx1 , λx2 , λx3 ) + (y1 , y2 , y3 ) = (λx1 + y1 , λx2 + y2 , λx3 + y3 )
On a (λx1 + y1 ) + (λx2 + y2 ) + (λx3 + y3 ) = λ(x1 + x2 + x3 ) + (y1 + y2 + y3 ) = λ0 + 0 = 0
G = {x = (x1 , x2 ) ∈ R2 : x1 + x2 = 0}
x2
G
1
−1
x1
Droite vectorielle sev de R2
Plus généralement, si λ1 , ..., λn ∈ K : {x = (x1 , x2 , ..., xn ) ∈ Kn : λ1 x1 + λ2 x2 + ... + λn xn = 0} est un sev
de Kn .
22
3. Soit n ∈ N∗ . Alors :
Kn [X] := {P ∈ K[X] : deg(P ) ≤ n} est un sev de K[X] :
– 0 ∈ Kn [X] car deg(0) = −∞ ≤ n.
– Soient λ ∈ K, P, Q ∈ Kn [X] :
deg(λP + Q) ≤ max(deg(λP ), deg(Q))
≤ max(deg(P ), deg(Q)) ≤ n
d’où λP + Q ∈ Kn [X].
4. E = RN R-ev des suites réelles.
F := {u = (un )n∈N : lim un existe dans R}
n→+∞
F est un sev de E.
– 0 = (0)n∈N ∈ F car lim 0 = 0.
n→+∞
– Soient λ ∈ R, u = (un )n∈N , v = (vn )n∈N ∈ F tel que :
lim un = a ∈ R et lim vn = b ∈ R
n→+∞
n→+∞
Alors (cf cours d’analyse) :
lim (λun + vn ) = λa + b ∈ R
n→+∞
d’où λu + v = (λun + vn )n∈N ∈ F
5. E = RR = F(R, R).
Soit F := {f ∈ RR : f (0) = 0}.
F est un sev de RR .
0 : R −→ R
∈ F car 0(0)=0.
t 7−→ 0
– Soient λ ∈ R, f, g ∈ F , c’est à dire f (0) = g(0) = 0.
(λ.f + g)(0) = λf (0) + g(0) = 0
d’où λf + g ∈ F .
–
Remarque : Soit F un sev de E.
On peut alors définir une addition dans F :
+ : F × F −→ F
(x, y) 7−→ x + y
| {z }
addition dans E
Une multiplication externe dans F :
• : K × F −→ F
λ, x 7−→ |{z}
λ.x
multiplication dans E
Ainsi (F, +, •) est lui même un K-ev.
6.2
Intersection et somme de sous-espaces vectoriels
Théorème : Soient F, G 2 sev de E(E K-ev).
1. F ∩ G est un sev de E.
2. On définit la somme F + G par :
F + G := {y + z, y ∈ F et z ∈ G}
Alors F + G est un sev de E.
On note F ⊕ G lorsque F ∩ G = {0E } et on appelle alors F ⊕ G la somme directe de F et G.
3. E = F ⊕ G ⇔ ∀x ∈ E, ∃!(y, z) ∈ F × G, x = y + z
Exemple : E = R3 , F := {x ∈ R3 : x1 + x2 + x3 = 0} et G := {x ∈ R3 : x2 = 0}
23
F + G?
Soitx ∈ R3 , x = (x1 , x2 , −x1 − x2 ) + (0, 0, x1 + x2 + x3 )
|
{z
}
{z
}
|
∈F
∈G
= (0, x2 , −x2 ) + (x1 , 0, x2 + x3 )
| {z }
|
{z
}
∈F
∈G
Il n’y a pas d’unicité de la décomposition.
F ∩ G = {x ∈ R3 : x1 + x2 + x3 = x2 = 0}
= {x ∈ R3 : −x1 = x3 et x2 = 0}
= {(x1 , 0, −x1 ), x1 ∈ R} 6= {0}
Donc E = F + G mais pas en somme directe.
6.3
Sous-espace vectoriel engendré par une famille finie de vecteurs
Définition : Soit E un K-ev.
Soit S = (v1 , v2 , ..., vp ) une famille de p vecteurs de E.
Alors il existe un plus petit (pour l’inclusion) sev de E contenant S.
Il est noté Vect(S)=Vect(v1 , v2 , ..., vp ) et est caractérisé par :
( p
)
X
Vect(S) =
λi v i , λi ∈ K
i=1
p
X
λi vi = λ1 v1 + λ2 v2 + ... + λp vp est appelé une combinaison linéaire avec les vecteurs v1 , v2 , ..., vp affectés
i=1
des coefficients λ1 , λ2 , ..., λp .
Soit F sev de E, contenant S.
p
X
Alors ∀(λ1 , ..., λp ) ∈ Kp ,
λi . v i ∈ F
|{z}
i=1
∈F
Autrement dit, F est stable par combinaison linéaire.
D’où si F sev qui contient S alors F contient les combinaisons linéaires de vecteurs de S, donc Vect(S) ⊂ F .
Donc Vect(S) est bien le plus petit sev de E contenant S.
Exemple :
1. Soit E un K-ev et x ∈ E\{0}.
notation
z}|{
S := (x). Alors Vect(x) = {λ.x, λ ∈ K} = Kx est la droite vectorielle engendrée par x.
x
24
Kx
2. E = R3 , v1 := (1, −1, 0), v2 := (1, 0, −1).
Vect(v1 , v2 ) = {λ1 v1 + λ2 v2 , λ1 , λ2 ∈ R}
= {λ1 (1, −1, 0) + λ2 (1, 0, −, ); λ1 , λ2 ∈ R}
= {(λ1 + λ2 , −λ1 , −λ2 ), λ1 , λ2 ∈ R} Représentation paramétrique
= {x ∈ R3 : x1 + x2 + x3 = 0} Représentation cartésienne
Soit x ∈ R3 , tel que x1 + x2 + x3 = 0.
Alors x = (−x2 − x3 , x2 , x3 ).
3. E = R[X] Soit n ∈ N∗ .
Rn [X] = {P ∈ K[X] : deg(P ) ≤ n}
n
X
ak X k , a0 , ..., an ∈ R}
={
k=0
= Vect(1, X, ..., X n )
4. E = RR
Soit F := {f ∈ RR : f 2 fois dérivables sur R et f ′′ + f = 0}.
On a sin, cos ∈ F et plus génaralement pour tout λ, µ ∈ R :
λ sin +µ cos : R −→ R
t 7−→ λ sin(t) + µ cos(t)
D’où Vect(sin, cos) ⊂ F .
Soit f ∈ F On pose g := f − f (0) cos −f ′ (0) sin
g : R −→ R
t 7−→ f (t) − f (0) cos(t) − f ′ (0) sin(t)
et h := g 2 + (g ′ )2 .
h est dérivable sur R, h′ = 2gg ′ + 2g ′ g ′′ = 2g ′ (g + g ′′ )
Or g ′′ = f ′′ − f (0) cos′′ −f ′ (0) sin′′ = −f + f (0) cos +f ′ (0) sin = −g.
Alors h′ = 2g ′ (g + g ′′ ) = 0.
Donc h est constante. h = h(0) = g(0)2 + (g ′ (0))2
g(0) = f (0) − f (0) cos(0) = 0
g ′ (0) = f ′ (0) − f ′ (0)sin′ (0) = 0
Donc h = 0 sur R, d’où g = 0.
D’où f = f (0) cos +f ′ (0) sin
Donc F = Vect(cos, sin).
25
Chapitre 7
Familles génératrices et libres
7.1
Familles génératrices
Définition : Soit E un K-ev et soit S = (v1 , v2 , ..., vn ) une famille de p vecteurs de E.
On dit que S est génératrice si E = Vect(S) , autrement dit si tout vecteur de F est combinaison linéaire
de vecteurs de la famille S.
Exemple :
1. K = {λ, λ ∈ R} = {λ.1, λ ∈ R} = Vect(1) = K1.
Donc (1) est une famille génératrice de K.
K2 = {(λ1 , λ2 ), λ1 , λ2 ∈ K} = {λ1 (1, 0) + λ2 (0, 1), λ1 , λ2 ∈ K}
= Vect((1, 0), (0, 1))
Donc ((1, 0), (0, 1)) est une famille génératrice de K2 .
Plus généralement, pour n ∈ N∗ , (e1 , e2 , ..., en ) de K2 .
1 ≤ i ≤ n est une famille génératrice (f g) de Kn :
ei = ( 0, 0, ..., 1 , 0, ..., 0)
| {z }
ième position
En effet, tout x = (x1 , x2 , ...xn ) ∈ Kn se décompose sous la forme :
x = x1 (1, 0, ..., 0) + xn (0, 1, 0, ..., 0) + ... + xn (0, 0, ..., 0, 1)
n
X
x i ei .
= x1 e1 + x2 e2 + ... + xn en =
i=1
Pour n = 3, x = (x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1)
Donc Kn = Vect(e1 , e2 , ..., en )
2. Soit n ∈ N∗ . Alors (1, X, ..., X n ) est une famille génératrice de Kn [X].
3. E = RN le R-ev des suites réelles.
Soit F := {u = (un )n∈N : ∀n ∈ N, un+1 = aun } où a ∈ R∗ fixé, c’est à dire F est l’ensemble des suites
géométriques de raison a.
Soit u ∈ F alors par récurrence sur n ∈ N, un = u0 an .
Réciproquement, u = (λan )n∈N , pour λ ∈ R, vérifie un=1 = λan+1 = a(λan ) = aun d’où u ∈ F .
Donc F = {(λan )n∈N = λ(an )n∈N , λ ∈ R}
= Vect((an )n∈N )
(an )n∈N est une famille génératrice de F .
7.2
Familles libres
Définition : Soit E un K-ev.
26
Soit L = (u1 , ..., un ) une famille de n vecteurs de E.
On dit que L est libre (ou que les vecteurs de L sont linéairement indépendants si :
n
X
λi u1 = 0 ⇒ ∀i ∈ {1, ..., n}, λi = 0
∀(λ1 , ..., λn ) ∈ Kn ,
i=1
On dit que L est liée (ou que les vecteurs de L sont linéairement dépendants si L n’est pas libre, c’est
à dire :
n
X
λi v i = 0
∃(λ1 , ..., λn ) ∈ Kn \ {(0, 0, ..., 0)} tel que
i=1
Proposition : L = (u1 , ..., un ) est liée si et seulement si l’un des vecteurs de L s’exprime comme combinaison
linéaire des autres.
Remarque :
1. Si une famille contient le vecteur nul alors elle est liée.
2. Si l’on ajoute des vecteurs à une famille génératrice, la famille ainsi complété reste génératrice.
3. Si l’on retire des vecteurs à une famille libre, la famille ainsi obtenue reste libre.
Exemple :
1. E = Kn , n ∈ N∗
(e1 , e2 , ..., en ) est libre.
Pour n = 3, ((1, 0, 0), (0, 1, 0), (0, 0, 1)) est libre dans K3 .
Soient α, β, γ ∈ K tel que α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (α, β, γ) = (0, 0, 0) donc α = β = γ = 0.
Donc la famille est libre.
2. E = R3 , v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (1, 1, 1)
Soient α, β, γ ∈ R tel que αv1 + βv2 + γv3 = 0.
= α(1, 0, 0) + β(1, 1, 0) + γ(1, 1, 1)
= (α + β + γ, β + γ, γ) = (0, 0, 0) ⇔ α = β = γ = 0
Donc (v1 , v2 , v3 ) est libre.
3. E = RR
(1, cos 2 , sin 2 ) est liée car 1 = cos 2 + sin 2 .
(1, cos, sin) est libre. En effet :
1 : R −→ R
et α, β, γ tel que α1 + β cos +γ sin = 0.
t 7−→ 1
Alors ∀t ∈ R, α + β cos(t) + γ sin(t) = 0.
Soient
t=0:α+β =0
t = π2 : α + γ = 0
t=π :α−β =0
D’où α = β = γ = 0.
27
Chapitre 8
Bases et dimension
8.1
Définitions
Définition : Un K-ev est dit de dimension finie s’il possède une famille génératrice finie. Sinon il est dit
de dimension infinie.
Exemple :
1. Kn , n ∈ N∗ est de dimension finie.
Kn [X] est de dimension finie.
2. K[X], KN (suites), KR (fonctions R 7→ K) sont de dimension infinie.
Définition : Une famille d’un K-ev E est une base de E si elle est à la fois libre et génératrice.
Exemple :
1. ei = (0, ..., 1, ..., 0) i ≤ i ≤ n
Alors (e1 , ..., en ) est une base de Kn appelée la base canonique de Kn .
2. (1, X, ..., X n ) est une base de Kn [X].
3. E = RR = F (R, R)
F := {f ∈ RR : f 2 fois dérivables sur R et f ′′ = 0}
Alors F est un R-ev dont une base est (1, IdR ), où
F sev de RR : clair(exercice)
Soit f ∈ R :
f ′′ = 0 ⇔ f ′ = a ∈ R(constante)
⇔ f ′ = aId′ ⇔ (f − aId)′ = 0
⇔ f − aId = b constante
Donc f ∈ F ⇔ ∃a, b ∈ Rf = aId + b1
D’où F = Vect(Id, 1)
1 : R −→ R
IdR : R −→ R
et
.
t 7−→ 1
t 7−→ t
Soient λ, µ ∈ R tel que λId + µ1 = 0 alors ∀t ∈ R, λt + µ = 0
t = 0 : µ = 0 λt + µ = 0
t = 1 : λ + µ = 0 donc λ = µ = 0.
Donc (Id, 1) est une base de F .
8.2
Théorèmes fondamentaux
Théorème de la base incomplète : Soit E un K-ev engendré par une famille finie S : E = Vect(S) (c’est
à dire E est de dimension finie).
Soit L = (u1 , ..., up ) une famille libre de E qui n’est pas génératrice.
Alors ∃v1 , ..., vq ∈ S, tel que (u1 , ..., up , v1 , ..., vq ) base de E.
28
Lemme 1 : Soient L une famille libre de E et x ∈ E.
Alors L ∪ (x) liée si et seulement si x ∈ Vect(L) .
Lemme 2 : Soient Bp une famille de E à p vecteurs et Cn une famille de E à n vecteurs.
On suppose que Bp ⊂ Vect(Cn ) et p > n .
Donc Bp est liée.
Théorème de la dimension : Soit E un K-ev de dimension finie tel que E 6= {0}.
1. E possède une base B0 . On note n = card(B0 ).
2. Toutes les bases de E ont mêmes cardinal n.
On appelle n la dimension de E et on note dim(E) = n.
3. Toute famille libre L de E a au plus n vecteurs, c’est à dire card(L) 6= n. De plus
card(G) = n ⇔ G base de E .
4. Toute famille génératrice G de E a au moins n vecteurs, c’est à dire card(G) ≥ n .
De plus card(G) = n ⇔ G base de E .
Remarque : Soit E un K-ev de dimension n.
Alors toute famille libre à n vecteurs est une base .
De même toute famille génératrice à n vecteurs est une base .
Utile en pratique !
Exemple :
dim(Kn ) = n car (e1 , ..., en ) base (canonique) de Kn .
E = R3 : Soient u1 = (1, 0, 0), u2 = (1, 1, 0), u3 = (1, 1, 1)
On a (u1 , u2 , u3 ) libre et dim(R3 ) = 3.
Donc (u1 , u2 , u3 ) est une base de E = R3 .
8.3
Conséquences du théorème de la dimension
Théorème : Soient E un K-ev de dimension finie n ∈ N et F un sev de E.
Alors dim(F ) ≤ dim(E) et dim(F ) = dim(E) ⇔ F = E .
Convention : dim({0}) = 0.
Théorème : Soit E un K -ev de dimension finie.
Soient F, G 2 sev de E. Alors dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G) .
Corollaire : Soit E un K-ev de dimension finie.
Soient F, G 2 sev de E. Alors les assertions suivantes sont équivalentes :
1. E = F ⊕ G
2. E = F + G et dim(E) = dim(F ) + dim(G).
3. F ∩ G = {0} et dim(E) = dim(F ) + dim(G).
Exemple :
1. Soit F sev de R2 .
– F = {0}
– dim(F ) = 1 alors F possède une base de type (x), x ∈ F \{0}
Donc F = Rx = droite vectorielle engendrée pour x.
– dim(F ) = 2 c’est à dire F = R2 , car dim(R2 ) = 2
29
2. Soient F := {x ∈ R4 : x1 − x2 = x3 − x4 = 0} et G := {x ∈ R4 : x1 + x2 = x3 + x4 = 0}.
F, G sont deux sev.
((1, 1, 0, 0), (0, 0, 1, 1)) famille libre de F
((1, −1, 0, 0), (0, 0, −1, 1)) famille libre de G
d’où dim(F ) et dim(G) ≥ 2.
On a F ∩ G = {0}.
Alors :
4 = dim(R4 ) ≤ dim(F ) + dim(G)
| {z } | {z }
≥2
≥2
= dim(F + G) ≤ 4
Donc dim(F ) = dim(G) = 2 et dim(R4 ) = dim(F ) + dim(G)
d’où R4 = F ⊕ G.
3. E = R3
((1, 0, 0), (1, 1, 0), (1, 1, 1)) famille libre de R3 , donc une base de R3 .
Remarque : Soit E un K-ev muni d’une base B = (u1 , u2 , ..., un )
n
X
xi ui
Alors ∀x ∈ E, ∃!(x1 , ..., xn ) ∈ Kn tel que x =
i=1
Les xi sont appellés les coordonnées de x dans la base B .
En effet l’existence des xi vient de B famille génératrice de E.
L’unicité est une conséquence de B famille libre car :
n
n
n
X
X
X
(xi − yi )ui = 0 ⇒ ∀i ∈ {1, ..., n}, xi = yi .
yi u i ⇒
xi ui =
x=
i=1
8.4
i=1
i=1
Applications
Suites récurrentes sur 2 termes :
Soient a, b ∈ K, b 6= 0 .
On définit F = Fa,b := {(un )n∈N ∈ KN : ∀n ∈ N, un+2 = aun+1 + bun }
Proposition : F est un sev de KN , de dimension 2.
Soient α, β les solutions (si elles existent) de l’équation x2 = ax + b appelée l’équation cartésienne de F ;
Alors :
1. Si α 6= β alors ((αn )n∈N , (β n )n∈N ) base de F .
2. Si α = β alors ((αn )n∈N , (nβ n )n∈N ) base de F .
30
Chapitre 9
Détermination pratique de la
dimension d’un espace vectoriel
9.1
Rang d’une famille de vecteurs
Définition : Soit (u1 , ..., up ) une famille de p vecteurs de E.
Le rang de (u1 , ..., up ) est défini par :
rg(u1 , ..., up ) = dim(Vect(u1 , ..., up ))
Théorème :
1. rg(u1 , ..., up ) 6= p
2. rg(u1 , ..., up ) = p ⇔ (u1 , ..., up ) est libre.
9.2
Calcul du rang d’une famille finie
Proposition :Soit (u1 , u2 , ..., up ) une famille de E.
Alors ∀λ2 , ..., λp ∈ K, rg(u1 , u2 , ..., up ) = rg(u1 , u2 + λu1 , ..., up + λp u1 )
Question : Déterminer rg(u1 , ..., up ).
Méthode d’élimination de Gauss :
1reétape : On suppose que la première coordonnée dans la base B de l’un des vecteurs ui , par exemple
u1,1 6= 0.
Sinon on passe à la coordonnée suivante :
i ≥ 2 : ui −→ u′i := ui + λi u1 de sorte que u′i,1 = 0
ui,1
⇔ λi = −
u1,1
Alors rg(u1 , u2 , ..., up ) = rg(u1 , u′2 , ..., u′p ).
2eétape : On recommence avec les vecteurs u′i et la deuxième cordonnée ou une suivante ;
Par exemple u′2,2 6= 0.
i ≥ 3 : u′i −→ u′′i = u′i + λ′i u′2 de sorte que u′i,2 = 0.
Alors rg(u1 , u2 , ..., up ) = mg(u1 , u′2 , u′′3 , ..., u′p,p ).
On réitère le processus jusqu’à épuisement des vecteurs ou des coordonnées.
Proposition : rg(u1 , ..., up ) est le nombre de vecteurs non nuls à la fin du processus d’itérations.
Remarque : K[X] le K-ev des polynômes à une indeterminée est de dimension infinie.
31
Quatrième partie
Applications linéaires et Matrices
32
Chapitre 10
Applications linéaires
10.1
Définitions, propriétés, exemples
Définition : Une application u : E −→ F (E, F 2 K-ev) est dite linéaire si :
∀λ ∈ K, ∀x, y ∈ F, u(λx + y) = λu(x) + u(y)
Notation : L(E, F ) désigne l’ensemble des applications linéaires de E dans F .
Propriétés : Soit u ∈ L(E, F ).
1. u(0E ) = 0F
2. ∀λ ∈ K, ∀(x, y) ∈ E 2 , u(λx + y) = λu(x) + u(y)
Réciproquement, si u : E → F vérifie cette propriété alors u ∈ L(E, F ).
n
n
X
X
λi u(xi )
λi x i ) =
3. ∀(x1 , ..., xn ) ∈ E n , ∀(λ1 , ..., λn ) ∈ Kn , u(
i=1
i=1
Autrement dit, l’image d’une combinaison linéaire de vecteurs de E est égale à la combinaison linéaire des
images avec les mêmes coefficients.
Exemple :
1. L’application nulle
2.
0 : E −→ F
est linéaire.
x 7−→ 0F
u : K −→ F
avec y ∈ F , fixé.
t 7−→ ty
u ∈ L(K, F )
Soient λ ∈ K, s, t ∈ K.
u(λs + t) = (λs + t)y0
= λ(sy0 ) + ty0 = λu(s) + u(t)
3. u : R → R est linéaire si et seulement si ∃a ∈ R, ∀x ∈ R, u(x) = ax
Si u ∈ L(R, R), alors pour x ∈ R :
u(x) = u(x1) = xu(1) = ax où a := u(1).
Réciproquement, cf exemple 2).
4.
u : R3 −→ R
est linéaire.
x 7−→ x1 + x2 + x3
Soient λ ∈ R, x, y ∈ R3 .
u(λx + y) = u(λx1 + y1 , λx2 + y2 , λx3 + y3 ) = (λx1 + y1 ) + (λx2 + y2 ) + (λx3 + y3 ) = λ(x1 + x2 + x3 ) +
(y1 + y2 + y3 ) = λu(x) + u(y)
33
Plus généralement, pour tout a1 , a2 , a3 ∈ R, alors :
u : R3 −→ R
x 7−→ a1 x1 + a2 x2 + a3 x3
En fait pour n, p ∈ N∗ , alors :
u ∈ L(Rn , Rp ) si et seulement si ∃(aij ) 1≤i<p ∈ Rpn tel que :
1≤<n


n
X
aij xj 
u(x) = 
j=1
1≤i<p
= (a11 x1 + ... + a1n xn , a21 x1 + ... + a2n xn , ap1 x1 + ... + apn xn ).
5. Soit k ∈ N, alors
6.
En effet, ∀λ ∈ K,
u : K[X] −→ K[X]
est linéaire.
P 7−→ P (k)
7.
Proposition : Soient u ∈ L(E, F ) et v ∈ L(F, G) où E, F, G 3 K-ev.
1. v ◦ u ∈ L(E, G)
2. Si u est bijective alors u−1 ∈ L(F, E)
(L(E, F ), +, •) est un K-ev.
10.2
Noyau et image d’une application linéaire
Définition : Soit u ∈ L(E, F ).
1. Le noyau de u, noté Ker(u) ; est défini par :
Ker(u) = {x ∈ E : u(x) = 0F } (= u−1 ({0F }))
C’est un sev de E.
2. L’image de u, notée Im(u), est définie par :
Im(u) = {u(x), x ∈ E} (= u(E) image directe de E par u)
C’est un sev de F .
Proposition : Soit u ∈ L(E, F ).
1. u est injective si et seulement si Ker(u) = {0E }.
2. u est surjective si et seulement si Im(u) = F .
34
Contre-exemple :
u : R −→ R
x 7−→ x2
« Ker(u) »= {x ∈ R, u(x) = 0} = {0}.
Mais u n’est pas injective, donc cette relation ne marche que pour les applications linéaires.
Proposition : Soient E, F 2 K-ev et soit (e1 , ..., en ) une famille de E, n ∈ N∗ .
1. On suppose que u est injective. Alors :
(e1 , ..., en )libre ⇔ (u(e1 ), ..., u(en )) libre.
2. On suppose que (e1 , ..., en ) est une famille génératrice de E. Alors :
u surjective ⇔ (u(e1 ), ..., u(en )) est génératrice dans F .
3. On suppose que (e1 , ..., en ) est une base de E. Alors :
u bijective ⇔ (u(e1 ), ..., u(en )) base de F .
Théorème : Soient E, F 2 K-ev tel que dim(E) < +∞ et soit u ∈ L(E, F ) bijective.
Alors dim(F ) = dim(E) .
Remarque : Si u ∈ L(E, F ) bijective et dim(E) = +∞ alors dim(F ) = +∞.
On raisonne par l’absurde avec u−1 ∈ L(F, E) bijective et dim(F ) < +∞ en appliquant le résultat précédent.
Théorème (dimension du noyau) : Soit E un K-ev de dimension finie, F un K-ev et u ∈ L(E, F ).
Alors dim(E) = dim(Ker(u)) + dim(Im(u))
Théorème : Soient E, F 2 K-ev de même dimension finie.
Soit u ∈ L(E, F ). Alors les assertions suivantes sont équivalentes :
u injective ⇔ u surjective ⇔ u bijective
Remarque :Des exemples 2) et 3) on déduit que R[X] et RN sont des R-ev de dimension finie.
10.3
Homothéties, projections, symétries
10.3.1
Homothéties
Définition : L’application
h : E −→ E
est l’homothétie de rapport λ, avec λ ∈ K, h ∈ L(E, E).
x 7−→ λx
λx
x
Homothétie de rapport λ(λ > 1)
35
10.3.2
Projections
Soient E un K-ev et F, G 2 sev tel que E = F ⊕ G .
Définition : La projection pF sur F parallèlement à G est l’application définie par :
pF : E −→ E
x 7−→ xF où x = xF + xG
|{z} |{z}
∈F
∈G
G
x
xG
F
xF = pF (x)
Projection de x sur F parallèlement à G
Proposition :
1. pF ∈ L(E, E), Im(pF ) = {x ∈ E : p(x) = x} = F et Ker(pF ) = G.
2. Soit p ∈ L(E, E) tel que p ◦ p = p.
Alors E = Im(p) ⊕ Ker(p) et p est la projection sur Im(p) parallèlement à Ker(p).
10.3.3
Symétries
Définition : La symétrie sF sur F par rapport à F parallèlement à G est l’application définie par :
sF : E −→ E
x 7−→ xF − xG où x = xF + xG
|{z} |{z}
∈F
∈G
G
x
xG
F
−xG
sF (x) = xF − xG
Symétrie de x sur F par rapport à F parallèlement à G
Proposition :
36
1. sF ∈ L(E, E), sF ◦ sF = IdE .
F = Ker(sF − IdE ) = {x ∈ E : sF (x) = x}
G = Ker(sF + IdE ) = {x ∈ E : sF (x) = −x}
2. Soit s ∈ L(E, E) tel que s ◦ s = IdE .
Alors E = Ker(s − IdE ) ⊕ Ker(s + IdE et s est la symétrie par rapport à Ker(s − IdE ) parallèlement à
Ker(s + IdE ).
37
Chapitre 11
Matrices
11.1
Définitions, opérations
Définition : Soient m, n ∈ N∗ .
Une matrice de type (m, n) est un tableau à coefficient dans K à m lignes et n colonnes .
On note Mm,n (K) l’ensemble des matrices de type (m, n), et Mn (K) l’ensemble des matrices carrés de
type (n, n).
A ∈ Mm,n (K), A = [aij ] 1≤i≤m
1≤j≤n


a11 a12 · · · a1n


a2n 
 a21 a22
A=
..
.. 

 ..
 .
.
. 
am1 am2
amn
Opérations sur les matrices :
Soient A, B ∈ Mm,n (K).
A + B = [aij + bij ] 1≤i≤m
1≤j≤n
λ.A = [λaij ] 1≤i≤m
1≤j≤n
Proposition :
(Mm,n (K), +, •) est un K-ev de dimension mn.
Produit matriciel : Soient m, n, p ∈ N∗ .
Soient A = [aij ] 1≤i≤m ∈ Mm,p (K) et B = [bij ] 1≤i≤p ∈ Mp,n (K).
1≤j≤p
1≤j≤n
C = A × B = AB = [cij ] 1≤i≤m ∈ Mm,n (K).
1≤j≤n
cij :
p
X
aik bkj « produit »de la ligne i de A par la colonne j de B.
k=1
Proposition :
× est distributive par rapport à +.
∀A, B ∈ Mm,p (K), ∀c ∈ Mp,n (K)
(A + B)C = AC + BC
∀A ∈ Mm,p (K), ∀B, C ∈ Mp,n (K)
A(B + C) = AB + BC
Remarque : On peut multiplier les matrices carrées de Mn (K).
11.2
Représentation des applications linéaires
Soit E un K-ev de dimension n ∈ N∗ , muni d’une base BE = (e1 , ..., en ).
38
Soit F un K-ev de dimension m ∈ N∗ , muni d’une base BF = (f1 , ..., fm ).
n
m
X
X
x j ej ) =
aij fi car u(x) = u(
Soit u ∈ L(E, F ). u est déterminée par la donnée des u(ej) =
i=1
n
X
j=1
xj u(ej ).
j=1
Définition : La matrice de u par rapport aux bases BE et BF est définie par :
A = Mat(u|BE , BF ) = [aij ] 1≤i≤m
1≤j≤n
u(e1 )
f1
a11
.  .
= ..  ..
fm
am1

···
···
u(en )

a1n
.. 
. 
amn
Proposition : On a y = u(x) ⇔ Y = AX où A = Mat(u|BE , BF ).
Compatibilité avec les opérations :
Soient u, v ∈ L(E, F ) et λ ∈ K.
Mat(u + v|BE , BF ) = Mat(u|BE , BF ) + Mat(v|BE , BF )
Mat(λu|BE , BF ) = λMat(u|BE , BF )
v : L(E, F ) −→ Mm,n (K)
est linéaire.
u 7−→ Mat(u|BE , BF )
Elle est bijective.
Soit G un K-ev de dimension l ∈ N∗ , muni d’une base BG = (g1 , ..., gl ).
Autrement dit :
Proposition : Soient u ∈ L(E, F ), v ∈ L(F, G). Alors
Mat(v ◦ u|BE , BG ) = Mat(v|BF , BG ) × Mat(u|BE , BF )
∈ Ml,n (K)
∈ Ml, m (K)× ∈ M m ,n (K)
11.3
Matrices carrées
Proposition : L’ensemble Mn (K) des matrices carrées de taille n ∈ N est une algèbre sur K de dimension
n2 unitaire mais non commutative si n ≥ 2, c’est à dire :
1. (mn (K), +, •) est un K-ev de dimension n2 .
2. × vérifie :
– × est associative, ∀A, B, C ∈ M1 (K)A(BC) = (AB)C
– × est non commutative si n ≥ 2.
– × est distributive.


1 0 ··· 0


0 1 . . . ... 


– In :=  .
 est l’élément neutre pour ×.
. .. .. 
 . . . 0
0 ··· 0 1
C’est à dire ∀A ∈ Mn (K)AIn = In A = A.
In est appelée la matrice unité de Mn (
(K).
1 si i = j
In = [Sij ]1≤i,j≤n
Sij :=
0 si i =
6 j
AIn = [cij ]1≤i,j≤n oùcij =
n
X
k=1
D’où AIn = A
De même In A = A (exercice)
=1
aik Skjk=j
z}|{
= aij Sjj = aij
39
Proposition :
Soient A, B ∈ Mn (K) tel que AB = BA .
n
X
∗
n
Cnk Ak B n−k
1. ∀n ∈ N , (A + B) =
k=0
2. ∀n ∈ N∗ , An − B n = (A − B)
n−1
X
Ak B n−1−k
k=0
Remarque : Réciproquement si 1) ou 2) est vérifié par A, B ∈ Mn (K) pour n = 2 alors AB = BA.
En effet, si 1) est vérifié :
(A + B)2 = A2 + 2AB + B 2
= (A + B)(A + B) = (A + B)A + (A + B)B
= A2 + BA + AB + B 2 d’où AB = BA
Matrices inversibles :
Définition : Une matrice A de Mn (K) est dite inversible s’il existe B ∈ Mn (K) tel que AB = BA = In .
Dans ce cas B est unique et est appelée l’inverse de A notée A−1 .
On note GLn (K) l’ensemble des matrices inversibles de Mn (K).
Théorème : Soit A ∈ Mn (K).
1.
A ∈ GLn (K) ⇔ u bijective
Ker(A) := {X ∈ Mn,1 (K) : AX = 0} = {0} ⇔ u injective
Im(A) := {AX, X ∈ Mn,1 (K)} = Mn,1 (K) ⇔ u surjective
∃B ∈ Mn (K), AB = In ou BA = In .
2. Sont équivalentes :
– A∈
/ GLn (K).
– ∃B ∈ Mn (K), B 6= 0 tel que AB = 0 ou BA = 0.
3. ∀A, B ∈ GLn (K), AB ∈ GLn (K) et (AB)−1 = B −1 A−1
Proposition : Soit A ∈ M2 (K), A =
ac
bd
!
40
Utile en pratique (inversible : résoudre AX = 0.
Téléchargement