Polycopié - Julian Tugaut

publicité
Bases indispensables des Mathématiques
Julian Tugaut 1
3 septembre 2014
1. Si vous avez des remarques ou des questions, envoyez-moi un message à [email protected]
ii
Table des matières
Table des matières
iii
Liste des figures
xi
Avant-propos
Objectifs . . . . . . . . . . . . . . . .
À qui s’adresse le polycopié ? . . . .
La présentation . . . . . . . . . . . .
Sources . . . . . . . . . . . . . . . .
Ensembles et structures algébriques .
Trigonométrie et nombres complexes
Algèbre linéaire . . . . . . . . . . . .
Analyse . . . . . . . . . . . . . . . .
I
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algèbre générale
1
1
1
1
2
2
3
3
4
7
1 Ensembles, parties d’un ensemble
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Vocabulaire, notations . . . . . . . . . . . . . . . . . .
1.3 Opérations sur les parties d’un ensemble . . . . . . . .
1.3.1 Intersection de deux ensembles . . . . . . . . .
1.3.2 Réunion de deux ensembles . . . . . . . . . . .
1.3.3 Propriétés de distributivité . . . . . . . . . . . .
1.3.4 Complémentaire d’un sous-ensemble . . . . . . .
1.4 Quantificateurs . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Négation d’une proposition avec quantificateurs
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Structures algébriques
2.1 Lois de composition interne . .
2.1.1 Propriétés . . . . . . . .
2.1.1.1 Commutativité
2.1.1.2 Associativité .
2.1.1.3 Élément neutre
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
10
10
12
13
14
16
16
17
.
.
.
.
.
19
19
19
19
20
20
iv
TABLE DES MATIÈRES
2.2
2.3
2.4
2.5
2.6
II
2.1.2 Inverse . . . . . . .
Groupe . . . . . . . . . . .
2.2.1 Quelques exemples
Anneau . . . . . . . . . .
2.3.1 Distributivité . . .
2.3.2 Définition . . . . .
Corps . . . . . . . . . . .
2.4.1 Définition . . . . .
2.4.2 Exemples . . . . .
Espaces vectoriels . . . . .
2.5.1 Définition . . . . .
2.5.2 Exemple . . . . . .
Exercices . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Trigonométrie et nombres complexes
3 Trigonométrie
3.1 Fonctions circulaires . . . . . . . . . . . . . . . . . . . .
3.1.1 Droite réelle et cercle trigonométrique . . . . . . .
3.1.2 Fonctions circulaires . . . . . . . . . . . . . . . .
3.2 Formules de trigonométrie . . . . . . . . . . . . . . . . .
3.2.1 Formules d’addition . . . . . . . . . . . . . . . . .
3.2.2 Valeurs particulières . . . . . . . . . . . . . . . .
3.2.3 Formules de duplication . . . . . . . . . . . . . .
3.2.4 Formules essentielles pour l’intégration . . . . . .
3.2.5 Linéarisation . . . . . . . . . . . . . . . . . . . .
3.2.6 Factorisation . . . . . . . . . . . . . . . . . . . .
3.2.7 Transformation de a cos(x) + b sin(x) . . . . . . .
3.3 Fonctions trigonométriques . . . . . . . . . . . . . . . . .
3.3.1 Rappel : Étude d’une fonction de la variable réelle
3.3.2 Études de limites . . . . . . . . . . . . . . . . . .
3.3.3 Fonctions sinus et arcsinus . . . . . . . . . . . . .
3.3.4 Fonction cosinus . . . . . . . . . . . . . . . . . .
3.3.5 Fonction tangente . . . . . . . . . . . . . . . . . .
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Nombres complexes
4.1 Corps des nombres complexes, (C, +, ×) . . . . . . . . .
4.1.1 Écriture algébrique d’un nombre complexe . . . .
4.1.2 Autres constructions de C . . . . . . . . . . . . .
4.1.2.1 C = R2 avec une multiplication adéquate
4.1.2.2 C est un sous-espace vectoriel de M2 (R)
4.1.2.3 Théorie de Galois . . . . . . . . . . . . .
21
21
22
22
22
23
24
24
25
25
25
26
28
31
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
33
34
36
37
38
39
39
39
40
40
41
41
41
43
44
45
46
.
.
.
.
.
.
49
49
49
50
50
50
50
TABLE DES MATIÈRES
4.2
4.3
4.4
4.5
III
v
Calculs de base dans C . . . . . . . . . . . . . . . . .
4.2.1 Interprétation géométrique . . . . . . . . . . .
Équations du second degré dans C . . . . . . . . . .
4.3.1 Résolution de z 2 = Z . . . . . . . . . . . . . .
4.3.1.1 Si Z ∈ R+ . . . . . . . . . . . . . . .
4.3.1.2 Si Z ∈ R∗− . . . . . . . . . . . . . . .
4.3.1.3 Si Z ∈
/R . . . . . . . . . . . . . . .
4.3.2 Résolution générale . . . . . . . . . . . . . . .
Nombres complexes de module 1 . . . . . . . . . . . .
4.4.1 Groupe (U, ×) . . . . . . . . . . . . . . . . . .
4.4.2 Forme trigonométrique d’un complexe non nul
Exercices . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algèbre linéaire
51
51
53
53
53
53
53
54
55
55
56
56
59
5 Espaces vectoriels
5.1 Généralités . . . . . . . . . . . . .
5.2 Somme de sous-espaces vectoriels .
5.3 Familles libres, génératrices et bases
5.4 Dimension d’un espace vectoriel . .
5.5 Exercices . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
62
62
63
64
. . . . . .
. . . . . .
vectoriel .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
70
71
73
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
75
76
76
77
77
78
78
79
79
81
8 Pivot de Gauss
8.1 Résolution des systèmes d’équations linéaires . . . . . . . . . . . .
8.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.1.2 Résolution par la méthode de la substitution . . . . . . . .
83
83
83
84
6 Applications linéaires
6.1 Définitions et premières propriétés
6.1.1 Isomorphismes . . . . . .
6.2 Application linéaire et sous-espace
6.3 Exercices . . . . . . . . . . . . . .
.
.
.
.
.
7 Calcul matriciel
7.1 Définitions . . . . . . . . . . . . . . .
7.2 Règles de calcul . . . . . . . . . . . .
7.2.1 Multiplication par un scalaire
7.2.2 Somme de deux matrices . . .
7.2.3 Produit de deux matrices . . .
7.2.4 Puissance d’une matrice . . .
7.2.5 Inversion d’une matrice . . . .
7.2.6 Transposée d’une matrice . .
7.3 Matrice d’une application linéaire . .
7.4 Exercices . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
vi
TABLE DES MATIÈRES
8.2
8.3
8.4
8.5
8.6
Approche de la méthode du pivot
Notations . . . . . . . . . . . . .
Règles de choix des pivots . . . .
Remarques finales . . . . . . . . .
Exercices . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
87
88
89
89
9 Déterminant
9.1 Les propriétés du déterminant . . . . . . . . . . . . . . . . . . . .
9.2 Le calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Pour une matrice de taille 1 . . . . . . . . . . . . . . . . .
9.2.2 Pour une matrice de taille 2 . . . . . . . . . . . . . . . . .
9.2.3 Pour une matrice de taille 3 . . . . . . . . . . . . . . . . .
9.2.4 Pour une matrice de taille quelconque . . . . . . . . . . . .
9.2.4.1 Si la matrice est diagonale . . . . . . . . . . . . .
9.2.4.2 Si la matrice est triangulaire . . . . . . . . . . . .
9.2.4.3 Opérations élémentaires sur les lignes et les colonnes
9.2.4.4 Le développement par rapport à une ligne ou à
une colonne . . . . . . . . . . . . . . . . . . . . .
9.2.5 Pour une matrice de taille n non définie . . . . . . . . . .
9.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10 Réduction des endomorphismes
10.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . .
10.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . .
10.1.2 Matrices diagonales ou triangulaires par blocs . . .
10.1.3 Puissances d’un endomorphisme . . . . . . . . . . .
10.1.4 Polynômes d’un endomorphisme . . . . . . . . . . .
10.2 Réduction des endomorphismes . . . . . . . . . . . . . . .
10.2.1 Éléments propres d’un endomorphisme . . . . . . .
10.2.2 Cas de plusieurs valeurs propres . . . . . . . . . . .
10.2.3 Compléments . . . . . . . . . . . . . . . . . . . . .
10.2.4 Éléments propres d’une matrice carrée . . . . . . .
10.2.5 Polynôme caractéristique . . . . . . . . . . . . . . .
10.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . .
10.3.1 Endomorphismes et matrices diagonalisables . . . .
10.3.2 Théorème fondamental . . . . . . . . . . . . . . . .
10.4 Triangularisation . . . . . . . . . . . . . . . . . . . . . . .
10.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . .
10.4.2 Théorème . . . . . . . . . . . . . . . . . . . . . . .
10.4.3 Exercice . . . . . . . . . . . . . . . . . . . . . . . .
10.5 Applications de la diagonalisation . . . . . . . . . . . . . .
10.5.1 Calcul de la puissance énième d’une matrice carrée
10.5.2 Exponentielle d’une matrice carrée . . . . . . . . .
10.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
91
91
92
92
93
93
93
93
94
94
96
99
99
101
101
101
101
103
103
105
105
105
106
106
106
107
108
109
109
109
109
109
110
110
110
110
TABLE DES MATIÈRES
IV
vii
Analyse
113
11 Nombres entiers naturels et applications
11.1 Nombres entiers naturels . . . . . . . . . . . . . . . . . . .
11.1.1 Construction de N . . . . . . . . . . . . . . . . . .
11.2 Différentes formes de récurrence . . . . . . . . . . . . . . .
11.2.1 Récurrence simple . . . . . . . . . . . . . . . . . . .
11.2.2 Récurrence à partir d’un certain rang . . . . . . . .
11.2.3 Récurrence double . . . . . . . . . . . . . . . . . .
11.2.4 Récurrence complète . . . . . . . . . . . . . . . . .
11.2.5 Récurrence finie . . . . . . . . . . . . . . . . . . . .
11.2.6 Récurrence descendante . . . . . . . . . . . . . . .
11.3 Suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . .
11.3.2 Suites définies à l’aide d’une relation de récurrence
11.3.3 Suites extraites . . . . . . . . . . . . . . . . . . . .
11.3.4 Suites arithmétiques . . . . . . . . . . . . . . . . .
11.3.5 Suites géométriques . . . . . . . . . . . . . . . . . .
11.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12 Séries numériques
12.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . .
12.1.1 Définition . . . . . . . . . . . . . . . . . . . . . .
12.1.2 Remarques . . . . . . . . . . . . . . . . . . . . . .
12.1.2.1 Correspondance entre suites et séries . .
12.1.2.2 Changement d’un nombre fini de termes
12.1.2.3 Convergence vers 0 . . . . . . . . . . . .
12.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . .
12.1.4 Espace vectoriel . . . . . . . . . . . . . . . . . . .
12.1.5 Séries alternées . . . . . . . . . . . . . . . . . . .
12.1.5.1 Critère spécial des séries alternées . . . .
12.2 Séries à termes réels positifs . . . . . . . . . . . . . . . .
12.2.1 Théorème général de comparaison . . . . . . . . .
12.2.2 Séries de référence . . . . . . . . . . . . . . . . .
12.2.2.1 Séries géométriques . . . . . . . . . . . .
12.2.2.2 Séries de Riemann . . . . . . . . . . . .
12.2.3 Comparaison logarithmique . . . . . . . . . . . .
12.3 Séries à termes réels ou complexes . . . . . . . . . . . . .
12.4 Comparaison entre une série et une intégrale . . . . . . .
12.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
115
115
115
116
116
116
116
116
116
117
117
117
117
117
118
118
118
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
121
121
121
121
122
122
122
123
123
124
125
125
126
126
126
128
129
131
132
13 Calcul intégral
135
13.1 Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . 135
13.1.1 Fonctions continues par morceaux . . . . . . . . . . . . . . 135
viii
TABLE DES MATIÈRES
13.2
13.3
13.4
13.5
13.1.2 Intégrale d’une fonction en escalier . . . . . . . . .
13.1.3 Intégrale d’une fonction continue par morceaux . .
13.1.4 Sommes de Riemann . . . . . . . . . . . . . . . . .
Intégration et dérivation . . . . . . . . . . . . . . . . . . .
13.2.1 Primitive et intégrale d’une fonction continue . . .
13.2.2 Méthodes d’intégration . . . . . . . . . . . . . . . .
13.2.2.1 Intégration par parties . . . . . . . . . . .
13.2.2.2 Changement de variable . . . . . . . . . .
13.2.2.3 Règles de Bioche . . . . . . . . . . . . . .
13.2.2.4 Quelques primitives usuelles . . . . . . . .
Intégrales généralisées . . . . . . . . . . . . . . . . . . . .
Espaces L1 (R) et L2 (R) . . . . . . . . . . . . . . . . . . .
13.4.0.5 Fonctions égales presque partout . . . . .
13.4.1 Espace L1 (R) des fonctions sommables (intégrables)
13.4.2 Espace L2 (R) des fonctions de carré sommable . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14 Équations différentielles
14.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . .
14.2 Théorème de Cauchy-Lipschitz . . . . . . . . . . . . . . .
14.3 Équations différentielles linéaires . . . . . . . . . . . . . .
14.3.1 Définition . . . . . . . . . . . . . . . . . . . . . .
14.3.2 Espace affine - Espace vectoriel . . . . . . . . . .
14.3.3 Équations différentielles linéaires du premier ordre
cients constants . . . . . . . . . . . . . . . . . . .
14.3.4 Définition . . . . . . . . . . . . . . . . . . . . . .
14.3.4.1 Résolution de l’équation homogène . . .
14.3.4.2 Recherche d’une solution particulière . .
14.3.5 Équations différentielles linéaires du premier ordre
cients non constants . . . . . . . . . . . . . . . .
14.3.5.1 Définition . . . . . . . . . . . . . . . . .
14.3.5.2 Résolution de l’équation homogène . . .
14.3.5.3 Recherche d’une solution particulière . .
14.4 Non linéaires du premier ordre . . . . . . . . . . . . . . .
14.4.1 Équations à variables séparées . . . . . . . . . . .
14.4.2 Exemple . . . . . . . . . . . . . . . . . . . . . . .
14.4.3 Équations homogènes . . . . . . . . . . . . . . . .
14.4.4 Équations de Bernoulli . . . . . . . . . . . . . . .
14.5 Linéaires du 2e ordre à coeffs constants . . . . . . . . . .
14.5.1 Définition . . . . . . . . . . . . . . . . . . . . . .
14.5.2 Résolution de l’équation homogène . . . . . . . .
14.5.3 Recherche d’une solution particulière . . . . . . .
14.5.3.1 Méthode de la variation de la constante
14.5.3.2 Astuce pour trouver la bonne sortie . . .
.
.
.
.
.
à
.
.
.
.
à
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
. . . .
. . . .
. . . .
. . . .
coeffi. . . .
. . . .
. . . .
. . . .
coeffi. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
136
138
141
142
142
142
142
143
144
144
144
145
146
147
147
148
151
151
151
152
152
152
152
152
153
153
154
154
154
154
155
155
155
156
156
156
156
157
157
157
157
TABLE DES MATIÈRES
14.6 Linéaires du 2e ordre à coeffs non constants . . . . . .
14.6.1 Définition . . . . . . . . . . . . . . . . . . . . .
14.6.2 Deux exemples très simples . . . . . . . . . . .
14.6.3 Méthode générale de résolution de ces équations
14.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .
ix
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
157
157
158
158
158
15 Suites et séries de fonctions
15.1 Convergences simple, uniforme et absolue . . . . . . . . . . . . . .
15.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . .
15.1.1.1 Pour les suites de fonctions . . . . . . . . . . . .
15.1.1.2 Pour les séries de fonctions . . . . . . . . . . . .
15.1.2 Stabilité des propriétés des fonctions par passage à la limite
15.1.3 Théorèmes d’interversions des limites . . . . . . . . . . . .
15.1.4 Continuïté de la limite . . . . . . . . . . . . . . . . . . . .
15.1.5 Convergence absolue d’une série de fonctions . . . . . . . .
15.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161
161
161
161
162
162
163
163
164
165
16 Séries entières
16.1 Rayon de convergence . . . . . . . . . . . . . . . . . .
16.1.1 Définitions . . . . . . . . . . . . . . . . . . . . .
16.1.2 Calcul pratique . . . . . . . . . . . . . . . . . .
16.1.3 Exemples de rayons de convergence . . . . . . .
16.1.4 Disque de convergence . . . . . . . . . . . . . .
16.1.5 Opération algébrique . . . . . . . . . . . . . . .
16.1.5.1 Somme et combinaisons linéaires . . .
16.1.5.2 Produit de Cauchy . . . . . . . . . . .
16.2 Série entière d’une variable réelle . . . . . . . . . . . .
16.2.1 Intervalle de convergence . . . . . . . . . . . . .
16.2.2 Intégration et dérivation terme à terme . . . . .
16.2.3 Fonctions développables en série entière . . . . .
16.2.4 Développements classiques . . . . . . . . . . . .
16.2.4.1 Développements connus . . . . . . . .
16.2.4.2 Intégration d’un développement connu
16.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
167
167
167
168
168
169
169
169
170
170
171
171
172
172
172
173
173
.
.
.
.
.
.
.
.
175
175
175
176
176
177
177
177
178
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17 Séries de Fourier
17.1 Coefficients de Fourier . . . . . . . . . . . . . . . . . . .
17.1.1 Généralités . . . . . . . . . . . . . . . . . . . . .
17.1.2 Coefficients de Fourier sous forme complexe . . .
17.1.3 Coefficients de Fourier sous forme trigonométrique
17.1.4 Série de Fourier . . . . . . . . . . . . . . . . . . .
17.1.4.1 Définition . . . . . . . . . . . . . . . . .
17.1.4.2 Sommes partielles . . . . . . . . . . . .
17.1.5 Étude de la suite des coefficients de Fourier . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
TABLE DES MATIÈRES
17.1.5.1 Linéarité . . . . . . . . . . . . . . .
17.1.5.2 Bornitude . . . . . . . . . . . . . . .
17.1.5.3 Convergence vers 0 en l’infini . . . .
17.1.5.4 Coefficients de Fourier d’une dérivée
17.2 Convergence en moyenne quadratique . . . . . . . . .
17.2.1 L’espace préhilbertien C2π . . . . . . . . . . .
17.2.2 Convergence en moyenne quadratique . . . . .
17.3 Convergence ponctuelle . . . . . . . . . . . . . . . . .
17.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
178
178
178
178
179
179
180
181
182
Table des figures
1.1
1.2
1.3
1.4
1.5
1.6
Intersection de deux ensembles . . . . . . . . . . . . . .
Réunion de deux ensembles . . . . . . . . . . . . . . .
Distributivité de l’intersection par rapport à la réunion
Distributivité de la réunion par rapport à l’intersection
Complémentaire d’un sous-ensemble . . . . . . . . . . .
Première loi de Morgan . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
12
13
14
15
15
3.1
3.2
3.3
3.4
3.5
Droite réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cercle trigonométrique . . . . . . . . . . . . . . . . . . . . . . . .
Graphes des fonctions sinus (à gauche) et arcsinus (à droite). . . .
Graphes des fonctions cosinus (à gauche) et arccosinus (à droite).
Graphes des fonctions tangente (à gauche) et arctangente (à droite).
33
33
44
45
46
4.1
Plan muni d’un repère orthonormal direct . . . . . . . . . . . . .
52
12.1 Comparaison entre une série et une intégrale . . . . . . . . . . . . 131
xi
xii
TABLE DES FIGURES
Avant-propos
Pour le cours de “Bases indispensables des mathématiques”, nous avons rédigé
une nouvelle version du polycopié. Cet avant-propos sert à présenter le polycopié,
ses objectifs, ses sources et son organisation.
Objectifs
Le présent ouvrage sert avant tout de support pour le cours associé, à savoir le
module “Bases indispensables des mathématiques”, dans le cadre du bloc “Bases
des connaissances différenciées” à Télécom Saint-Étienne.
Toutefois, l’objectif même du cours est irréalisable puisqu’il s’agit de balayer en
quinze heures les notions essentielles vues en deux années de classes préparatoires
aux grandes écoles. Le cours en lui-même n’aborde donc qu’une petite portion de
ces notions. Le polycopié sert à palier aux éventuelles lacunes et à présenter les
notions qui seront utilisées lors de la scolarité à Télécom Saint-Étienne.
À qui s’adresse le polycopié ?
Le polycopié est à destination des étudiants n’ayant pas fait le cycle préparatoire aux grandes écoles qui pourront trouver ici un balayage complet des notions
de mathématiques qui leur seront indispensables.
Le polycopié s’adresse aussi aux étudiants issus des classes préparatoires aux
grandes écoles. Ils disposeront ainsi d’un ouvrage sur lequel s’adosser durant leur
scolarité à Télécom Saint-Étienne.
La présentation
Le polycopié est avant tout tourné vers le côté théorique des mathématiques
mais il contient des exemples ainsi que de nombreux exercices non corrigés. Nous
avons souhaité que le présent ouvrage soit aussi structuré que possible. Par ailleurs,
nous avons fait en sorte que le polycopié soit aussi complet que possible tout en
gardant une taille raisonnable (moins de deux cents pages).
Conséquemment, le polycopié ne nécessite pas d’avoir des connaissances pous1
2
Avant-propos
sées en mathématiques pour être abordé. Il repart en effet de zéro et permet un
rafraîchissement des bases.
Sources
L’on ne crée pas un cours ex nihilo. Ainsi, à tout seigneur tout honneur, nous
présentons ici les différentes sources qui nous ont servi pour la création du présent
ouvrage. D’abord, les cours des professeurs Thorigny et Chapon de MPSI et de
MP du lycée Claude Gellée à Épinal ont été d’une grande aide. Nous nous sommes
également inspirés du cours au département GEA de l’IUT Nancy-Charlemagne
du Professeur des Universités Monnez. Les deux livres de Gourdon (“les maths
en tête”) ont été d’une aide précieuse pour l’écriture du polycopié. Le précédent
polycopié du cours, par le Professeur des Universités Alata, a été une base indispensable de l’actuelle version du polycopié. Enfin, il nous faut citer le livre
“Cours de Mathématiques Algèbre première année” écrit par Liret et Martinais
ainsi que le cours “Calculs et Mathématiques” du Maître de Conférences Maubon
à l’Université Henri Poincaré de Nancy.
Ensembles et structures algébriques
La première partie part de rien pour présenter la source des mathématiques
(du point de vue Bourbakiste) à savoir la théorie des ensembles et le langage
propre à ceux-ci. Le chapitre suivant est destiné à aborder les différentes structures
algébriques.
Ensembles, parties d’un ensemble
Ce premier chapitre présente le langage des ensembles et il est essentiel de
le lire avant d’aborder le cours de probabilités. En effet, la compréhension des
ensembles permet de mieux saisir la notion d’évènement. Et, une très grande
maîtrise de la théorie des ensembles est un point positif pour aborder les notions
plus compliquées d’algèbre de Boole et de tribu qui sont vues dans le module de
probabilités approfondies au quatrième semestre.
Structures algébriques
Les structures algébriques peuvent paraître inutiles au premier abord mais elles
ont l’intérêt de relier différents objets ayant des propriétés similaires et ainsi de
prouver plusieurs résultats en une fois. Par ailleurs, la compréhension de l’algèbre
linéaire présuppose de bien saisir la notion de corps. Nous avons choisi de ne pas
présenter la notion d’algèbre (espace vectoriel plus anneau).
Avant-propos
3
Trigonométrie et nombres complexes
La deuxième partie du polycopié s’intéresse à la trigonométrie et aux nombres
complexes. Il a été choisi de ne pas en parler en cours magistral et de faire un
unique TD sur cette partie. Nous pensons effectivement que ces notions doivent
être considérées comme acquises. Si elles ne le sont pas, nous invitons très fortement les étudiants à travailler cette partie du cours. En effet, les nombres complexes et la trigonométrie serviront en cours de “Signaux et systèmes discrets”
ainsi qu’en cours de “Mathématiques des signaux et des systèmes”.
Trigonométrie
Nous présentons ici la trigonométrie du point de vue géométrique et essayons
autant que faire se peut de fournir des preuves géométriques.
Nombres complexes
Dans ce quatrième chapitre, nous insistons sur les nombres complexes de module égal à 1 puisque ces nombres sont à la base de la transformée de Fourier et
de la transformée de Fourier discrète.
Algèbre linéaire
La troisième partie du polycopié traite d’algèbre linéaire. Il peut être noté
que l’algèbre bilinéaire est passée sous silence. Il s’agit d’un choix délibéré. Nous
pensons effectivement qu’il ne faut pas surcharger le cours.
Espaces vectoriels
Le premier chapitre de la partie “algèbre linéaire” présente la notion d’espaces
vectoriels. Il présuppose de maîtriser le chapitre sur les structures algébriques. Ce
chapitre est nécessaire à la compréhension des chapitres subséquents.
Applications linéaires
Certains cours présentent le calcul matriciel puis font le lien avec les applications linéaires. Nous avons ici choisi de mettre l’accent sur les applications
linéaires. Aussi, nous insistons pour que les étudiants fassent le lien entre l’application linéaire et la matrice associée.
La compréhension de la notion d’application linéaire est au cœur du cursus à
Télécom Saint-Étienne. Les distributions vues en cours de “Mathématiques des signaux et des systèmes” sont ainsi des applications linéaires sur un espace vectoriel.
Le calcul des moments d’une variable aléatoire réelle, en cours de “Probabilités”
repose sur une application linéaire. Enfin, ne pas maîtriser la linéarité peut poser
4
Avant-propos
des soucis à la compréhension des systèmes LIT dans le cours “Signaux et systèmes
discrets”.
Calcul matriciel
Le calcul matriciel est essentiel en algèbre linéaire puisqu’il permet de résoudre
des questions difficiles par le calcul. Il est important de le comprendre pour aborder
sereinement le cours de “Calcul numérique” et le logiciel matlab, très utilisé dans
l’industrie.
Pivot de Gauss
Le pivot de Gauss est un outil du calcul matriciel très puissant. Il permet la
résolution des systèmes linéaires, l’inversion des matrices et il facilite le calcul
des déterminants. Nous avons choisi de présenter le pivot de Gauss pour résoudre
exactement les systèmes. En “calcul numérique”, le pivot vous sera présenté différemment. Il faut comprendre que dans le présent cours, l’objet est la résolution
exact des systèmes alors qu’en “calcul numérique”, vous effectuerez des résolutions
approchées.
Déterminant
La notion de déterminant est essentielle pour effectuer la réduction des endomorphismes. Plus exactement, pour connaître les valeurs propres d’une matrice,
il faut savoir calculer un déterminant. Et, ces valeurs propres sont essentielles en
physique.
Réduction des endomorphismes
L’objet de ce chapitre est la diagonalisation des matrices. En effet, on peut
comprendre plus facilement le comportement d’un système linéaire après que l’on
a diagonalisé la matrice sous-jacente. La triangularisation est également présentée
mais nous insistons plus sur la diagonalisation.
Analyse
La quatrième et dernière partie de ce cours traite de l’analyse. Plus exactement,
elle aborde les suites, les séries, l’intégration, les équations différentielles ainsi que
les suites et séries de fonctions dont les séries entières et les séries de Fourier.
Nombres entiers naturels et applications
Ce premier chapitre présente les suites numériques après avoir brièvement
donné la construction de l’ensemble des entiers naturels. La compréhension des
Avant-propos
5
suites numériques est à la base même de la compréhension du cours de “Signaux
et Systèmes Discrets”.
Séries numériques
L’intérêt principal de ce chapitre est de présenter les résultats classiques sur les
séries numériques. Ces séries seront utilisées aussi bien en “Probabilités” (premier
semestre), en “Signaux et Systèmes Discrets” (deuxième semestre) et en “Probabilités approfondies” (quatrième semestre).
Calcul intégral
Le calcul intégral est essentiel en physique. Nous avons ici choisi de ne présenter
que le calcul intégral en dimension un. Toutefois, certains exercices traitent de
la dimension deux. Par ailleurs, nous ne présentons pas l’intégration au sens de
Lebesgue. Nous estimons en effet qu’une compréhension fine de la différence entre
l’intégration au sens de Riemann (via les fonctions en escalier) et de l’intégration
au sens de Lebesgue (via les fonctions étagées) ne présentent aucun intérêt pour
des futurs ingénieurs. De plus, pour les fonctions classiques, les deux intégrations
coïncident.
Le calcul intégral est essentiel pour les modules “Probabilités”, “Mathématiques des
signaux et des systèmes”, “Signaux et Systèmes Discrets” et “Signaux Aléatoires”.
Équations différentielles
Les équations différentielles interviennent en physique et dans le module “Mathématiques des signaux et des systèmes”. Nous insistons ici sur les équations
différentielles linéaires, lesquelles peuvent se résoudre via la transformée de Laplace - qui est le pendant analogique de la transformée en z que vous étudierez en
“Signaux et Systèmes Discrets”.
Suites et séries de fonctions
Le traitement du signal est fondé sur la décomposition d’une fonction en somme
de fonctions typiques. La compréhension des séries de fonctions est donc essentielle
pour les modules de traitement du signal.
Séries entières
Le chapitre sur les séries entières fournit les résultats principaux sur ces séries.
Une bonne compréhension de ce chapitre permet de comprendre la transformée
en z d’une suite numérique.
6
Avant-propos
Séries de Fourier
Le chapitre sur les séries de Fourier prend tout son intérêt dans les cours de
“Mathématiques des signaux et des systèmes” et de “Signaux et Systèmes Discrets”.
Première partie
Algèbre générale
7
Chapitre 1
Ensembles, parties d’un ensemble
1.1
Définition
Définition 1.1 (Ensemble). On appelle ensemble toute collection d’objets, ces
objets étant appelés “éléments de l’ensemble”. Ce qui caractérise le fait qu’une
collection d’objets est un ensemble est que pour tout objet que l’on peut considérer,
cet objet est ou n’est pas élément de l’ensemble.
Exemple 1.2. L’ensemble des étudiants de TSE. On sait reconnaître si quelqu’un
est un étudiant de TSE ou ne l’est pas.
1.2
Vocabulaire, notations
Notation 1.3 (Appartenance). Soit E un ensemble. Soit a un objet.
Si a est élément de E, on note a ∈ E.
Si a n’est pas un élément de E, on note a ∈
/ E.
Définition 1.4 (Inclusion). Soient E et F deux ensembles. F est inclus dans E,
noté F ⊂ E, si et seulement si tout élément de F est élément de E.
On dit aussi que F est une partie de E.
Définition 1.5 (Égalité). Soient E et F deux ensembles. On dit que les ensembles
E et F sont égaux, et on note E = F , si et seulement si E ⊂ F et F ⊂ E.
Définition 1.6 (Ensemble des parties d’un ensemble). Soit E un ensemble. Soit
F un autre ensemble. On peut reconnaître si F est inclus dans E ou non. Si
F ⊂ E, alors F est dit élément de P(E), ensemble des parties de E, ensemble des
ensembles qui sont inclus dans E.
Propriété 1.7. F ⊂ E ⇐⇒ ∀a ∈ F, a ∈ E ⇐⇒ F ∈ P(E).
Soit F un ensemble. Alors F ∈
/ P(E) si et seulement s’il existe au moins un
élément de F qui n’est pas un élément de E.
9
10
CHAPITRE 1. ENSEMBLES, PARTIES D’UN ENSEMBLE
Propriété 1.8. Il y a toujours au moins deux ensembles dans P(E) : E et ∅
(l’ensemble sans élément, ensemble vide).
En particulier, ∅ ∈ P(∅). Ainsi, P(∅) = {∅} 6= ∅.
Définition 1.9 (Produit cartésien de deux ensembles). Soient deux ensembles E
et F . Leur produit cartésien, noté E × F est égal à {(x, y) : x ∈ E, y ∈ F }.
Définition 1.10. Une proposition est un énoncé mathématique pour lequel il n’y
a que deux éventualités.
L’énoncé est vrai mathématiquement ou l’énoncé est faux mathématiquement.
Définition 1.11 (Prédicat). Le prédicat est une proposition dépendant d’un élément x parcourant un ensemble E.
1.3
Opérations sur les parties d’un ensemble
Les mathématiques sont une science logico-formelle. Nous présentons donc
maintenant les opérations logiques élémentaires, traduites en langage ensembliste.
1.3.1
Intersection de deux ensembles
Définition 1.12. On appelle intersection de deux ensembles A et B l’ensemble
des éléments communs à A et à B.
Notation 1.13. L’intersection de deux ensembles A et B est notée A ∩ B.
Plus formellement, on peut écrire :
A ∩ B = {ω : ω ∈ A , ω ∈ B}
ou
ω ∈ A ∩ B ⇐⇒ ω ∈ A et ω ∈ B .
Il peut être pratique d’utiliser un diagramme de Venn pour se représenter l’intersection de deux ensembles :
1.3. OPÉRATIONS SUR LES PARTIES D’UN ENSEMBLE
11
Figure 1.1 – Intersection de deux ensembles
Exemple 1.14 (Ensemble fini petit). Soit Ω := {a, b, c, d, e, f, g, h, i} un ensemble de lettres. Soient les deux sous-ensembles de Ω : A := {a, b, c, d, e} et
B := {c, d, e, f, g}.
Alors, on a : A ∩ B = {c, d, e}.
Exemple 1.15 (Ensemble fini grand). Soit Ω l’ensemble des ingénieurs formés
en France. Soit A le sous-ensemble des ingénieurs exerçant dans l’industrie. Soit
B l’ensemble des ingénieurs diplômés de TSE.
Alors, A ∩ B est l’ensemble des ingénieurs diplômés de TSE qui travaillent dans
l’industrie.
Définition 1.16 (Ensembles disjoints). On dit que deux ensembles A et B sont
disjoints lorsque leur intersection est vide : ils n’ont aucun élément en commun.
En d’autres termes, on dit que A et B sont disjoints si l’on a A ∩ B = ∅.
On présente maintenant les propriétés basiques de l’intersection.
Propriété 1.17 (Commutativité). Soient deux ensembles A et B.
Alors A ∩ B = B ∩ A.
Propriété 1.18 (Associativité). Soient trois ensembles A, B et C.
Alors :
A ∩ (B ∩ C) = (A ∩ B) ∩ C =: A ∩ B ∩ C .
Propriété 1.19. Soit un ensemble A. Alors, on a A ∩ A = A.
Propriété 1.20. Soit un ensemble A. Alors, on a A ∩ ∅ = ∅.
12
CHAPITRE 1. ENSEMBLES, PARTIES D’UN ENSEMBLE
1.3.2
Réunion de deux ensembles
Définition 1.21. On appelle réunion de deux ensembles A et B l’ensemble des
éléments qui sont dans A ou (au sens inclusif ) qui sont dans B.
Notation 1.22. La réunion de deux ensembles A et B est notée A ∪ B.
Plus formellement, on peut écrire :
A ∪ B = {ω : ω ∈ A ou ω ∈ B}
ou
ω ∈ A ∪ B ⇐⇒ ω ∈ A ou ω ∈ B .
Il peut être pratique d’utiliser un diagramme de Venn pour se représenter la
réunion de deux ensembles :
Figure 1.2 – Réunion de deux ensembles
On remarque dans ce diagramme que l’on a
A∩B ⊂A⊂A∪B
et A ∩ B ⊂ B ⊂ A ∪ B .
Exemple 1.23 (Ensembles finis petits). Soient les deux ensembles de lettres :
A := {a, b, c, d, e} et B := {c, d, e, f, g}.
Alors, on a : A ∪ B = {a, b, c, d, e, f, g}.
Exemple 1.24 (Ensembles finis grands). Soit A l’ensemble des ingénieurs diplômés de TSE et soit B l’ensemble des ingénieurs exerçant dans l’industrie.
Alors A ∪ B est l’ensemble des ingénieurs qui travaillent dans l’industrie ou qui
sont diplômés de TSE.
On présente maintenant les propriétés basiques de la réunion.
1.3. OPÉRATIONS SUR LES PARTIES D’UN ENSEMBLE
13
Propriété 1.25 (Commutativité). Soient deux ensembles A et B.
Alors A ∪ B = B ∪ A.
Propriété 1.26 (Associativité). Soient trois ensembles A, B et C.
Alors :
A ∪ (B ∪ C) = (A ∪ B) ∪ C =: A ∪ B ∪ C .
Propriété 1.27. Soit un ensemble A. Alors, on a A ∪ A = A.
Propriété 1.28. Soit un ensemble A. Alors, on a A ∪ ∅ = A.
1.3.3
Propriétés de distributivité
Nous avons vu les propriétés de la réunion et celles de l’intersection. Nous
présentons maintenant les propriétés de l’intersection par rapport à la réunion et
réciproquement les propriétés de la réunion par rapport à l’intersection. Considérons trois ensembles A, B et C quelconques. Alors :
Propriété 1.29. L’intersection est distributive par rapport à la réunion :
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .
Démonstration. Prouvons d’abord A ∩ (B ∪ C) ⊂ (A ∩ B) ∪ (A ∩ C). Soit ω ∈
A ∩ (B ∪ C). Par définition, ω appartient à A. De même, ω appartient à B ∪ C.
Ainsi, ω appartient à B ou il appartient à C. Si ω appartient à B, alors ω ∈ A ∩ B
d’où ω ∈ (A ∩ B) ∪ (A ∩ C). Si ω appartient à C, alors ω ∈ A ∩ C d’où ω ∈
(A ∩ B) ∪ (A ∩ C).
Prouvons maintenant A ∩ (B ∪ C) ⊃ (A ∩ B) ∪ (A ∩ C). Soit ω ∈ (A ∩ B) ∪
(A ∩ C). Alors, ω ∈ A ∩ B ou ω ∈ A ∩ C. Si ω ∈ A ∩ B, alors ω ∈ A. Mais aussi,
ω ∈ B ⊂ B ∪ C. Donc ω ∈ A ∩ (B ∪ C). De même, si ω ∈ A ∩ C, alors ω ∈ A.
Mais aussi, ω ∈ C ⊂ B ∪ C. Donc ω ∈ A ∩ (B ∪ C).
La preuve est achevée en appliquant la Définition 1.5.
Cette propriété se voit bien lorsque l’on regarde sur un diagramme de Venn :
Figure 1.3 – Distributivité de l’intersection par rapport à la réunion
14
CHAPITRE 1. ENSEMBLES, PARTIES D’UN ENSEMBLE
Propriété 1.30. La réunion est distributive par rapport à l’intersection :
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) .
Démonstration. Prouvons d’abord A ∪ (B ∩ C) ⊂ (A ∪ B) ∩ (A ∪ C). Soit ω ∈
A ∪ (B ∩ C). Par définition, ω appartient à A ou ω appartient à B ∩ C. Si ω ∈ A,
alors ω ∈ A ∪ B et ω ∈ A ∪ C. Ainsi, on a ω ∈ (A ∪ B) ∩ (A ∪ C). Si ω ∈ B ∩ C,
alors ω ∈ B ⊂ A ∪ B et ω ∈ C ⊂ A ∪ C. Ainsi, on a ω ∈ (A ∪ B) ∩ (A ∪ C).
Prouvons maintenant A ∪ (B ∩ C) ⊃ (A ∪ B) ∩ (A ∪ C). Soit ω ∈ (A ∪ B) ∩
(A ∪ C). Par définition, ω ∈ A ∪ B. Donc ω appartient à A ou ω appartient à B.
Si ω ∈ A, alors ω ∈ A ∪ (B ∩ C). Si ω ∈
/ A, alors ω ∈ B. Or, ω ∈ A ∩ C. Comme
ω∈
/ A, on a ω ∈ C d’où ω ∈ B ∩ C ⊂ A ∪ (B ∩ C).
La preuve est achevée en appliquant la Définition 1.5.
Cette propriété se voit bien lorsque l’on regarde sur un diagramme de Venn :
Figure 1.4 – Distributivité de la réunion par rapport à l’intersection
1.3.4
Complémentaire d’un sous-ensemble
Définition 1.31. Soit un ensemble Ω 1 . Soit A un sous-ensemble de Ω.
On appelle complémentaire de A dans Ω l’ensemble des éléments de Ω qui n’appartiennent pas à A.
Notation 1.32. Le complémentaire de A est noté A ou Ac .
On préfère la notation Ac car A désigne la fermeture de A en topologie.
Plus formellement, on a :
Ac = {ω ∈ Ω : ω ∈
/ A}
ou
ω ∈ Ac ⇐⇒ ω ∈
/ A.
Il peut être pratique d’utiliser un diagramme de Venn pour se représenter le complémentaire d’un sous-ensemble :
1. comme l’univers des évènements en probabilités
1.3. OPÉRATIONS SUR LES PARTIES D’UN ENSEMBLE
15
Figure 1.5 – Complémentaire d’un sous-ensemble
On présente maintenant les propriétés classiques de la complémentation. On
utilise ici la notation A pour des raisons de facilité d’écriture.
Propriété 1.33. Soit un ensemble Ω et soit A un sous-ensemble de Ω.
Alors, A = A.
Propriété 1.34. Soit un ensemble Ω.
Alors, Ω = ∅. De même, on a ∅ = Ω.
Propriété 1.35. Soit un ensemble Ω et soit A un sous-ensemble de Ω.
Alors, A ∩ A = ∅ et A ∪ A = Ω.
Théorème 1.36 (Lois de Morgan). Soit un ensemble Ω et soient A et B deux
sous-ensembles de Ω.
Alors, on a
A∩B =A∪B
(1.1)
et
A∪B =A∩B.
(1.2)
Les Relations (1.1) et (1.2) s’illustrent particulièrement bien en regardant les
diagrammes de Venn associés :
Figure 1.6 – Première loi de Morgan
16
CHAPITRE 1. ENSEMBLES, PARTIES D’UN ENSEMBLE
pour (1.1).
Exercice 1.37. Prouver (1.2) avec des diagrammes de Venn.
Exercice 1.38. Démontrer rigoureusement (sans utiliser de diagramme de Venn)
le Théorème 1.36.
Exemple 1.39. Soit Ω := {a, b, c, d, e, f, g, h, i} un ensemble de lettres. Soient les
deux sous-ensembles de Ω : A := {a, b, c, d, e} et B := {c, d, e, f, g}.
Alors, on a Ac = {f, g, h, i} et B c = {a, b, h, i}.
Mais aussi, A ∩ B = {c, d, e} et A ∪ B = {a, b, c, d, e, f, g}.
Enfin, on a
Ac ∩ B c = {h, i} = (A ∪ B)c
ainsi que
1.4
Ac ∪ B c = {a, b, f, g, h, i} = (A ∩ B)c .
Quantificateurs
Définition 1.40. L’expression “∀x ∈ E : P (x)” signifie {x ∈ E : P (x)} = E.
Pour tout élément x de E, la proposition P (x) est vraie.
Si la véracité de ceci est constatée, on peut en conclure que la propriété “∀x ∈ E :
P (x)” est vraie. Cette proposition dépend de E.
Remarque 1.41. Ici, x a un rôle de variable muette. On peut remplacer x par
y, z, θ, ânkhamon...
Définition 1.42. L’expression “∃x ∈ E : P (x)” signifie {x ∈ E : P (x)} 6= ∅. Il
existe un élément x de E tel que la proposition P (x) est vraie.
Si la véracité de ceci est constatée, on peut en conclure que la propriété “∃x ∈ E :
P (x)” est vraie. Cette proposition dépend de E.
1.4.1
Négation d’une proposition avec quantificateurs
Notation 1.43. Si P est une proposition, non-P désigne sa négation.
Si P (x) est un prédicat, non-P (x) désigne sa négation.
non-[∀x ∈ E : P (x)] : ceci équivaut à : {x ∈ E : P (x)} 6= E ce qui équivaut
à {x ∈ E : non − P (x)} 6= ∅ = [∃x ∈ E : non − P (x)].
En tenant compte de non-[non − P (x)] = P (x), on a aussi non-[∃x ∈ E : P (x)] =
[∀x ∈ E : non − P (x)].
Théorème 1.44. Pour prendre la négation d’une proposition écrite avec un nombre
fini de quantificateurs et un prédicat, il suffit d’échanger, en respectant les ordres,
les quantificateurs ∀ et ∃ et de les faire intervenir sur la négation du prédicat.
Exemple 1.45. non-[∀x ∈ E ∃y ∈ F ∀z ∈ G P (x, y, z)]
= [∃x ∈ E ∀y ∈ F ∃z ∈ G non − P (x, y, z)].
1.5. EXERCICES
1.5
17
Exercices
Exercice 1
Soient E et F deux ensembles et f une application bijective de E sur F .
Justifier avec le plus grand soin la définition de l’application réciproque g = f −1
de f , que cette application est bijective et les résultats : g ◦f = IdE et f ◦g = IdF .
Exercice 2
Trouver une condition nécessaire et suffisante pour que les trois ensembles A,
B et C de E vérifient A ∩ B = A ∩ C et A ∪ B = A ∪ C.
Exercice 3
Soient E et F deux ensembles, A et B deux parties de E, C et D deux parties
de F , f une application de E dans F .
a) Montrer que, si A ⊂ B, f (A) ⊂ f (B) et que, si C ⊂ D, f −1 (C) ⊂ f −1 (D).
b) Montrer que si A ⊂ f −1 (f (A)) alors f (f −1 (f (A))) = f (A).
c) Montrer que f (A ∩ B) ⊂ f (A) ∩ f (B).
Exercice 4
Soient E et F deux ensembles et f une application de E dans F . Montrer que
les conditions suivantes sont équivalentes :
– f est injective.
– ∀A, B ⊂ E, f (A) = f (B) implique A = B.
– ∀A ⊂ E, A = f −1 (f (A)).
– ∀A, B ⊂ E, f (A ∩ B) = f (A) ∩ f (B).
18
CHAPITRE 1. ENSEMBLES, PARTIES D’UN ENSEMBLE
Chapitre 2
Structures algébriques
L’intérêt des structures algébriques est de pouvoir regrouper différents objets
pour leur appliquer des résultats systématiques.
2.1
Lois de composition interne
On considère E un ensemble non vide : E 6= ∅.
Définition 2.1. Une loi de composition interne, notée ∗, sur E est définie par la
donnée d’une application de E × E dans E :
E×E → E
ϕ :
.
(a, b) 7→ ϕ(a, b) =: a ∗ b
Exemple 2.2. On prend E = N, ou E = Z, ou E = Q, ou E = R, ou E = C.
Voici quelques lois de composition interne sur l’ensemble E :
– ∗ = + : l’addition.
– ∗ = × : la multiplication.
Exemple 2.3. On peut prendre E l’ensemble des fonctions indéfiniment dérivables et à support compact. Alors, le produit de convolution est une loi de composition interne.
2.1.1
Propriétés
Lorsque les lois de composition interne satisfont de bonnes propriétés, on dispose de structures algébriques pour lesquels de nombreux résultats sont obtenus.
Listons les propriétés classiques des lois de composition interne.
2.1.1.1
Commutativité
Définition 2.4. La loi de composition interne ∗ est dite commutative si et seulement si pour tous les éléments a et b de l’ensemble E, on a a ∗ b = b ∗ a.
19
20
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
Exemple 2.5. L’addition est commutative dans R : x + y = y + x.
Contre-exemple 2.6. La soustraction n’est pas commutative dans R : 1 − 2 6=
2 − 1.
2.1.1.2
Associativité
Définition 2.7. La loi de composition interne ∗ est dite associative si et seulement
si pour tous les éléments a, b et c de l’ensemble E, on a
a ∗ (b ∗ c) = (a ∗ b) ∗ c .
On peut alors écrire a ∗ b ∗ c.
Exemple 2.8. La multiplication est associative dans R∗+ : (x×y)×z = x×(y×z) =
x × y × z.
Contre-exemple 2.9. La division n’est pas associative dans R∗+ : 1 =
2.1.1.3
4
2
2
6=
4
2
2
= 4.
Élément neutre
Définition 2.10. La loi de composition interne ∗ sur E admet un élément neutre
si et seulement si
∃e ∈ E ∀a ∈ E : a ∗ e = e ∗ a = a .
Exemple 2.11. 0 est l’élément neutre de l’addition dans R. 1 est celui de la
multiplication dans R.
Contre-exemple 2.12. Le produit de convolution n’admet pas d’élément neutre
dans l’ensemble des fonctions à support compact. En effet, cet élément neutre est
δ0 qui est une distribution mais pas une fonction.
Propriété 2.13. Si la loi ∗ sur E admet un élément neutre, cet élément neutre
est unique.
Démonstration. Soient e1 et e2 deux éléments neutres pour la loi de composition
interne ∗. On a alors
e1 ∗ e2 = e2
car e1 est un élément neutre. De même, on a
e1 ∗ e2 = e1
car e2 est un élément neutre. Il vient : e1 = e2 .
2.2. GROUPE
2.1.2
21
Inverse
Définition 2.14. Soit E un ensemble non vide. On suppose qu’il est muni d’une
loi de composition interne ∗. On suppose que ∗ admet un élément neutre e. On
dit que a ∈ E est inversible pour la loi de composition interne ∗ s’il existe a′ ∈ E
tel que
a ∗ a′ = a′ ∗ a = e .
Exemple 2.15. Tous les réels sont inversibles pour l’addition dans R.
Contre-exemple 2.16. 0 n’est pas inversible pour la multiplication dans R.
Propriété 2.17. Soit E un ensemble non vide. On suppose qu’il est muni d’une
loi de composition interne associative ∗. On suppose que ∗ admet un élément
neutre e. Si a ∈ E admet un inverse pour ∗, alors cet inverse est unique.
Démonstration. On suppose qu’il existe a′ ∈ E et a′′ ∈ E tels que
a ∗ a′ = a′ ∗ a = e et a ∗ a′′ = a′′ ∗ a = e .
On a alors
L’associativité nous donne
a′′ ∗ (a ∗ a′ ) = a′′ ∗ e .
(a′′ ∗ a) ∗ a′ = a′′ ∗ e .
Or, a′′ ∗ a = e. Il vient
e ∗ a′ = a′′ ∗ e .
Par définition de l’élément neutre, on trouve a′ = a′′ .
2.2
Groupe
On introduit ici la structure de groupe. Celle-ci joue un grand rôle applicatif. En effet, de nombreuses propriétés chimiques et biologiques proviennent des
groupes d’invariance des composants chimiques ou des protéïnes. Ils sont aussi à
la base de la théorie de Galois.
Définition 2.18. On dit que le couple (E, ∗) est un groupe si les cinq axiomes
suivants sont vérifiés.
1. E est un ensemble non vide.
2. ∗ est une loi de composition interne sur l’ensemble E.
3. ∗ est associative.
4. ∗ admet un élément neutre.
5. Tout élément de E est inversible pour la loi ∗.
22
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
Définition 2.19. Si de plus, la loi de composition interne ∗ est commutative, on
dit que (E, ∗) est un groupe abélien 1 ou un groupe commutatif.
Remarque 2.20. Si la loi ∗ est une addition, son élément neutre est noté 0E
(spécifier le zéro peut être utile en algèbre linéaire). L’inverse d’un élément a est
alors noté −a.
Remarque 2.21. Si la loi ∗ est une multiplication, son élément neutre est noté
1E . L’inverse d’un élément a est alors noté a−1 .
Remarque 2.22. Si un ensemble dispose à la fois d’une addition et d’une multiplication, on note E∗ := E \ {0E }.
2.2.1
Quelques exemples
– (Z, +) est un groupe abélien.
– (R∗ , ×) est un groupe abélien.
– (E, ◦) est un groupe non commutatif où E est l’ensemble des transformations
du plan laissant invariante une figure géométrique donnée et où ◦ est la
composition.
2.3
Anneau
On va ici présenter la structure d’anneau, qui apparaît naturellement quand on
fait du calcul matriciel. Il s’agit d’un ensemble muni de deux lois de composition
interne ayant certaines bonnes propriétés.
2.3.1
Distributivité
On présente la distributivité d’une loi par rapport à une deuxième loi.
Définition 2.23. Soit E un ensemble muni de deux lois de composition interne
∗ et T . On dit que la loi T est distributive par rapport à la loi ∗ si et seulement
si pour tous les éléments a, b et c de l’ensemble E, on a
aT (b ∗ c) = (aT b) ∗ (aT c) et (a ∗ b)T c = (aT c) ∗ (bT c) .
Remarque 2.24. Si T est commutative, il suffit de vérifier une seule des deux
égalités.
Remarque 2.25. Si ∗ est une addition et T une multiplication, cela revient à
avoir
a(b + c) = ab + ac et (a + b)c = ac + bc .
1. du mathématicien Abel
2.3. ANNEAU
2.3.2
23
Définition
On dit que le triplet (E, ∗, T ) est un anneau si les cinq axiomes suivants sont
vérifiés.
1. (E, ∗) est un groupe abélien.
2. T est une loi de composition interne sur l’ensemble E.
3. T est associative.
4. T admet un élément neutre.
5. T est distributive par rapport à ∗.
En d’autres termes, le triplet (E, ∗, T ) est un anneau s’il vérifie les dix axiomes
suivants :
1. E est un ensemble non vide.
2. ∗ est une loi de composition interne sur l’ensemble E.
3. ∗ est associative.
4. ∗ admet un élément neutre.
5. Tout élément de E est inversible pour la loi ∗.
6. ∗ est commutative.
7. T est une loi de composition interne sur l’ensemble E.
8. T est associative.
9. T admet un élément neutre.
10. T est distributive par rapport à ∗.
Remarque 2.26. Notons bien que l’on n’a pas demandé l’inversibilité de tous les
éléments de E pour la loi T . D’ailleurs, l’élément neutre pour ∗ ne peut pas être
inversible pour T dès que l’ensemble E contient au moins deux éléments.
Démonstration. Soit a un élément quelconque de E et e l’élément neutre pour la
première loi de composition interne, ∗. On a alors
(aT e) ∗ (aT e) = aT (e ∗ e)
= aT e .
Or, aT e est inversible pour la loi de composition interne ∗. On note b cet inverse.
Il vient
b ∗ (aT e ∗ aT e) = (b ∗ aT e) ∗ aT e = e ∗ aT e = aT e .
Or,
b ∗ (aT e ∗ aT e) = b ∗ aT e = e .
On en déduit aT e = e pour tout a ∈ E. Si e est inversible pour T , il existe donc
e′ ∈ E tel que e′ T e = eT où eT est l’élément neutre pour T . Or, e′ T e = e. On
trouve eT = e. Puis, pour tous les éléments x et y dans E, on a
(x ∗ y)T e = (x ∗ y)T eT = x ∗ y
et (x ∗ y)T e = e .
24
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
On a donc x ∗ y = e. En particulier, e ∗ x = e. Or, e ∗ x = x. Il vient donc que
l’ensemble E contient un unique élément, ce qui est faux par hypothèse.
Un exemple classique d’anneau est celui de l’ensemble des matrices carrées réelles
de taille n × n, avec n ∈ N∗ . Un certain nombre d’éléments de cet anneau ne sont
d’ailleurs pas inversibles.
2.4
Corps
La structure de corps est LA structure algébrique sur laquelle on se place
pour effectuer des calculs. Ainsi, l’enjeu du corps des complexes est de faire de la
géométrie dans le plan uniquement par le calcul. De la même manière, le corps
des quaternions permet de faire de la géométrie dans l’espace 2 .
2.4.1
Définition
On dit que le triplet (E, ∗, T ) est un corps si les six axiomes suivants sont
vérifiés.
1. (E, ∗) est un groupe abélien.
2. T est une loi de composition interne sur l’ensemble E.
3. T est associative.
4. T admet un élément neutre.
5. T est distributive par rapport à ∗.
6. Tous les éléments de E∗ := E \ {e∗ } sont inversibles pour T .
En d’autres termes, le triplet (E, ∗, T ) est un corps s’il vérifie les onze axiomes
suivants :
1. E est un ensemble non vide.
2. ∗ est une loi de composition interne sur l’ensemble E.
3. ∗ est associative.
4. ∗ admet un élément neutre e∗ .
5. Tout élément de E est inversible pour la loi ∗.
6. ∗ est commutative.
7. T est une loi de composition interne sur l’ensemble E.
8. T est associative.
9. T admet un élément neutre.
10. T est distributive par rapport à ∗.
11. Tous les éléments de E∗ := E \ {e∗ } sont inversibles pour T .
2. On ne peut pas faire de géométrie par de simples calculs en dimension supérieure ou égale
à quatre, d’après le théorème de Frobenius.
2.5. ESPACES VECTORIELS
2.4.2
25
Exemples
La plupart des corps que l’on considère sont (Q, +, ×), (R, +, ×) et (C, +, ×).
On notera Q, R et C, pour simplifier.
2.5
Espaces vectoriels
Un espace vectoriel est un espace vectoriel par rapport à un corps K.
2.5.1
Définition
Soit (K, +, ×) un corps. On note 0K et 1K les éléments neutres pour l’addition
et la multiplication. On dit que le triplet (E, +, .) est un espace vectoriel sur le
corps K si les six axiomes suivants sont vérifiés
1. (E, +) est un groupe abélien.
2. . est une loi de composition externe sur E : pour tout λ ∈ K et pour tout
v ∈ E, λ.v ∈ E.
3. Pour tout λ ∈ K, pour tous v1 , v2 ∈ E, λ.(v1 + v2 ) = λ.v1 + λ.v2 .
4. Pour tous λ, µ ∈ K, pour tout v ∈ E, (λ + µ).v = λ.v + µ.v.
5. Pour tous λ, µ ∈ K, pour tout v ∈ E, (λ × µ).v = λ. (µ.v).
6. Pour tout v ∈ E, 1K .v = v.
En d’autres termes, le triplet (E, +, .) est un espace vectoriel sur le corps K si les
onze axiomes suivants sont vérifiés
1. E est un ensemble non vide.
2. + est une loi de composition interne sur l’ensemble E.
3. + est associative.
4. + admet un élément neutre 0E .
5. Tout élément de E est inversible pour la loi +.
6. + est commutative.
7. . est une loi de composition externe sur E : pour tout λ ∈ K et pour tout
v ∈ E, λ.v ∈ E.
8. Pour tout λ ∈ K, pour tous v1 , v2 ∈ E, λ.(v1 + v2 ) = λ.v1 + λ.v2 .
9. Pour tous λ, µ ∈ K, pour tout v ∈ E, (λ + µ).v = λ.v + µ.v.
10. Pour tous λ, µ ∈ K, pour tout v ∈ E, (λ × µ).v = λ. (µ.v).
11. Pour tout v ∈ E, 1K .v = v.
Remarque 2.27. L’addition sur K est différente de l’addition sur E.
26
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
2.5.2
Exemple
Exemple 2.28. Soit V l’ensemble des fonctions d’un ensemble non vide X vers
un corps K. On définit l’addition de deux fonctions et la multiplication par un
scalaire de la façon suivante :
(f + g)(x) := f (x) + g(x)
et (λ.f )(x) := λ × f (x) .
Alors, V muni de ces deux lois est un espace vectoriel sur le corps K.
Démonstration.
1. V est non vide car X est non vide. On peut alors définir
la fonction qui associe 0 à tout élément de X. Appelons 0V cette fonction.
2. L’addition ainsi définie est une loi de composition interne. En effet,
f + g est une fonction de X dans K donc appartient à V .
3. L’addition est commutative. En effet,
[f + g] (x)
= f (x) + g(x)
= g(x) + f (x)
= [g + f ] (x)
par définition de l’addition dans V
par commutativité dans K
par définition de l’addition dans V .
4. L’addition est associative. En effet,
[(f + g) + h] (x)
= [f + g] (x) + h(x)
= (f (x) + g(x)) + h(x)
= f (x) + (g(x) + h(x))
= f (x) + [g + h] (x)
= [(f + (g + h)] (x)
par définition de l’addition dans V
par définition de l’addition dans V
par associativité de l’addition dans K
par définition de l’addition dans V
par définition de l’addition dans V .
5. L’addition admet un élément neutre. En effet, pour tout f ∈ V , on a
[f + 0V ] (x)
= f (x) + 0V (x)
= f (x) + 0
= f (x)
= [f ] (x)
par définition de l’addition dans V
par définition de 0V
par définition de l’élément neutre dans K
par définition de l’addition dans V .
De même, on a 0V + f = f + 0V = f par commutativité.
2.5. ESPACES VECTORIELS
27
6. Tout élément de V est inversible pour l’addition. En effet, soit −1
l’inverse de 1 pour l’addition dans le corps K. Alors,
[f + (−1).f ] (x)
= f (x) + [(−1).f ] (x)
= f (x) + (−1) × f (x)
= 1 × f (x) + (−1) × f (x)
= (1 + (−1)) × f (x)
= 0 × f (x)
=0
= 0V (x)
addition dans V
multiplication par un scalaire
élément neutre pour la multiplication dans K
distributivité dans K
par définition de −1
élément neutre pour l’addition
définition de 0V .
7. Par définition, pour tout f ∈ V et pour tout α ∈ K, α.f ∈ V .
8. Pour tous f, g ∈ V , pour tout α ∈ K, on a α.(f + g) = α.f + α.g. En
effet,
[α.(f + g)] (x)
= α × {[f + g] (x)}
= α × {f (x) + g(x)}
= α × f (x) + α × g(x)
= [α.f ] (x) + [α.g] (x)
= [α.f + α.g] (x)
multiplication par un scalaire
addition dans V
distributivité dans K
multiplication par un scalaire
addition dans V .
9. Pour tout f ∈ V , pour tous α, β ∈ K, on a (α + β) .f = α.f + β.f . En
effet,
[(α + β) .f ] (x)
= (α + β) × f (x)
= α × f (x) + β × f (x)
= [α.f ] (x) + [β.f ] (x)
= [α.f + β.f ] (x)
multiplication par un scalaire
distributivité dans K
multiplication par un scalaire
addition dans V .
10. Pour tout f ∈ V , pour tous α, β ∈ K, on a α. (β.f ) = (α × β) .f . En effet,
[α. (β.f )] (x)
= α × [β.f ] (x)
= α × [β × f (x)]
= (α × β) × f (x)
= [(α × β) .f ] (x)
multiplication par un scalaire
multiplication par un scalaire
associativité de la multiplication dans K
multiplication par un scalaire .
11. Pour tout f ∈ V , 1.f = f . En effet,
[1.f ] (x)
= 1 × f (x) multiplication par un scalaire
= f (x)
élément neutre pour l’addition .
28
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
Comme on vient de le voir, il est difficile de montrer qu’un ensemble est
un espace-vectoriel. En général, pour montrer que l’on a un espace vectoriel, on
montre que c’est un sous-espace vectoriel d’un espace vectoriel plus gros (et surtout bien connu).
Définition 2.29. Soit un espace vectoriel (E, +, .) sur un corps (K, +, ×). On dit
que (F, +, .) est un sous-espace vectoriel de (E, +, .) si les cinq axiomes suivants
sont vérifiés
1. F 6= ∅.
2. Pour tous les éléments x et y dans F, x + y ∈ F.
3. 0E ∈ F.
4. Pour tout x ∈ F, −x ∈ F.
5. Pour tout λ ∈ K et pour tout v ∈ F, λ.v ∈ F.
Il suffit donc de reconnaître un espace-vectoriel connu puis de montrer les cinq
axiomes pour avoir un sous-espace vectoriel donc un espace vectoriel.
2.6
Exercices
Exercice 1
Dans chacun des cas suivants, préciser si la loi ∗ est une loi de composition
interne sur E et alors si elle est associative, commutative et s’il existe un élément
neutre :
– E = R et a ∗ b := a.
– E = R et a ∗ b := a2 + b2 .
– E = R et a ∗ b := a+b
.
2
– E = Z et a ∗ b := 3a√+ b.
– E = R+ et a ∗ b := ab.
– E = R∗+ et a ∗ b := a1 + 1b .
Exercice 2
Dans l’ensemble R des nombres réels, on définit une loi de composition interne
par a ∗ b := a + b + ab.
a) Déterminer les propriétés de cette loi.
b) Cette loi est-elle distributive par rapport à l’addition ?
c) Cette loi est-elle distributive par rapport à la multiplication ?
Exercice 3
Dans chacun des cas suivants, préciser si la loi ∗ est une loi de composition
interne sur E. En déterminer les propriétés.
2.6. EXERCICES
p
√
– E = [1; +∞[ et x ∗ y := xy + x2 − 1p y 2 − 1.
√
– E = [−1; 1] et x ∗ y := xy − 1 − x2 1 − y 2 .
x+y
.
– E =] − 1; 1[ et x ∗ y := 1+xy
29
30
CHAPITRE 2. STRUCTURES ALGÉBRIQUES
Deuxième partie
Trigonométrie et nombres
complexes
31
Chapitre 3
Trigonométrie
3.1
3.1.1
Fonctions circulaires
Droite réelle et cercle trigonométrique
Rappel 3.1. À partir d’une droite du plan, en positionnant deux points 0 et 1
sur cette droite, on obtient tout nombre réel :
Figure 3.1 – Droite réelle
Le positionnement de 1 sur la droite par rapport à 0 revient à orienter la droite.
Rappel 3.2. On se donne un cercle de centre 0 et de rayon 1.
Figure 3.2 – Cercle trigonométrique
33
34
CHAPITRE 3. TRIGONOMÉTRIE
Le choix de l’orientation des axes perpendiculaires en O détermine l’orientation
du plan. Deux orientations sont possibles : le sens des aiguilles d’une montre et
le sens contraire.
Orienter le plan ou orienter le cercle de centre O et de rayon 1 est équivalent.
En trigonométrie, on utilise l’orientation du sens trigonométrique.
−
→ −
→
Soit M un point du cercle trigonométrique avec (O, i , j ) un repère orthonormal
−→ −
−→ −−→
→
direct du plan : OA = i . Alors, l’angle (OA, OM ) est défini. De plus, l’application
−→ −−→
M 7→ (OA, OM ) définit une bijection du cercle trigonométrique sur l’ensemble des
angles de vecteurs non nuls.
Proposition 3.3. Il existe une surjection de R sur le cercle trigonométrique. Soit
ϕ cette application. Alors : ϕ(x) = ϕ(y) est équivalent à y ≡ x(2π).
Définition 3.4 (π). Soit A′ le point diamètralement opposé à A sur le cercle
trigonométrique. π est le plus petit élément réel positif x tel que ϕ(x) = A′ .
Remarque 3.5. On peut définir π de beaucoup d’autres façons.
3.1.2
Fonctions circulaires
Définissons ici les fonctions cosinus, sinus,
tangente et cotangente. On pose
−→
−−→
−
→
→
−
−
→ −
→
i := OA et j := OB. Alors, O, i , j est un repère orthonormal direct du
plan.
On se donne un réel x. Et, on pose M (x) := ϕ(x). M (x) est alors un point du
−
→ −
→
cercle trigonométrique. En associant à M (x) ses coordonnées dans (O, i , j ), on
peut alors définir deux applications de R dans R appelées cosinus et sinus.
Définition
3.6 (Cosinus de x). On appelle cosinus du réel x l’abscisse dans le
−
→ −
→
repère O, i , j du point M (x). C’est aussi la distance OH(x) où H(x) est le
projeté orthogonal de M (x) sur la droite (OA).
Notation 3.7. Le cosinus de x est noté cos(x).
Définition
3.8 (Sinus de x). On appelle sinus du réel x l’ordonnée dans le repère
−
→ −
→
O, i , j du point M (x). C’est aussi la distance M (x)H(x).
Notation 3.9. Le sinus de x est noté sin(x).
On en déduit immédiatement quelques propriétés.
Propriété 3.10. Pour tout x ∈ R, cos(x) ∈ [−1; 1] et sin(x) ∈ [−1; 1].
Pour tout x ∈ R, M (x) = (cos(x), sin(x)).
On a de plus la formule fondamentale suivante.
3.1. FONCTIONS CIRCULAIRES
35
Proposition 3.11. Pour tout x ∈ R, on a cos2 (x) + sin2 (x) = 1.
Démonstration. Le triangle OM (x)H(x) est rectangle en H(x). On peut donc
appliquer le théorème de Pythagore qui nous donne
OM (x)2 = OH(x)2 + H(x)M (x)2 = cos2 (x) + sin2 (x) .
Or, M (x) est sur le cercle trigonométrique donc OM (x) = 1, ce qui achève la
preuve.
On définit ensuite la tangente comme suit.
Définition 3.12. Soit x ∈ R. On appelle N (x) l’intersection entre la droite
(OM (x)) et la droite
droite (OB) passant par A. Ce point N (x)
parallèle à la
existe dès que x ∈
/ π2 + kπ ; k ∈ Z .
Alors, la tangente de x est définie comme étant l’ordonnée du point N (x).
Notation 3.13. La tangente de x est notée tan(x).
On remarque immédiatement un lien entre la tangente, le cosinus et le sinus.
Proposition 3.14. Pour tout x ∈
/ π2 + kπ ; k ∈ Z , on a
tan(x) =
sin(x)
.
cos(x)
Démonstration. Les droites (H(x)M (x)) et (AN (x)) sont parallèles (car toutes les
deux parallèles à la droite (OB)). Conséquemment, on peut appliquer le théorème
de Thalès 1 et l’on en déduit
H(x)M (x)
OH(x)
=
,
OA
AN (x)
ce qui donne immédiatement
cos(x)
sin(x)
=
.
1
tan(x)
La preuve est terminée.
On définit ensuite la cotangente comme suit.
Définition 3.15. Soit x ∈ R. On appelle P (x) l’intersection entre la droite
(OM (x)) et la droite parallèle à la droite (OA) passant par B. Ce point P (x)
existe dès que x ∈
/ {kπ ; k ∈ Z}.
Alors, la cotangente de x est définie comme étant l’abscisse du point P (x).
Notation 3.16. La cotangente de x est notée cot(x).
1. Il est en fait plus honnête de parler d’axiome.
36
CHAPITRE 3. TRIGONOMÉTRIE
On remarque immédiatement un lien entre la cotangente, le sinus et le cosinus.
Proposition 3.17. Pour tout x ∈
/ {kπ ; k ∈ Z}, on a
cot(x) =
cos(x)
.
sin(x)
Démonstration. Les droites (K(x)M (x)) et (BP (x)) sont parallèles (car toutes les
deux parallèles à la droite (OA)). Conséquemment, on peut appliquer le théorème
de Thalès et l’on en déduit
K(x)M (x)
OK(x)
=
,
OB
BN (x)
ce qui donne immédiatement
sin(x)
cos(x)
=
.
1
cot(x)
La preuve est terminée.
Ainsi, si x ∈
/ k π2 ; k ∈ Z , on a tan(x) cot(x) = 1.
3.2
Formules de trigonométrie
On rappelle d’abord
cos2 (x) + sin2 (x) = 1 .
(3.1)
En divisant cette formule par cos2 (x), il vient :
1 + tan2 (x) =
pour tout x ∈
/
π
2
1
,
cos2 (x)
(3.2)
+ kπ ; k ∈ Z .
Propriété 3.18 (Formule de relèvement). Soient deux réels a et b tels que a2 +b2 =
1. Alors il existe x ∈ R tel que a = cos(x) et b = sin(x).
Démonstration. On considère le point M (a, b) d’abscisse a et d’ordonnée b. vu que
l’on dispose de l’égalité a2 + b2 = 1, on en déduit que la distance de O à M (a, b)
est 1. En d’autres termes, M (a, b) est sur le cercle trigonométrique. On appelle x
−→ −−−−−−→
l’angle entre les vecteurs OA et OM (a, b). Il vient immédiatement M (a, b) = ϕ(x)
d’où a = cos(x) et b = sin(x).
Propriété 3.19 (Parité et imparité). Pour tout x ∈ R, on a cos(−x) = cos(x) et
sin(−x) = sin(x).
3.2. FORMULES DE TRIGONOMÉTRIE
37
La preuve est immédiate une fois que l’on a remarqué H(−x) = H(x) et
K(−x) = −K(x) (le symétrique par rapport au point O du point K(x)). Une
conséquence directe est la suivante pour tous les réels tels que les deux quantités
suivantes sont définies
tan(−x) = − tan(x) et
cot(−x) = − cot(x) .
Propriété 3.20 (Périodicité). Pour tout x ∈ R, on a cos(x + 2π) = cos(x) et
sin(x + 2π) = sin(x).
Cette propriété est une conséquence directe de ϕ(x + 2π) = ϕ(x). En effet,
effectuer une rotation d’angle 2π radians laisse la figure inchangée. Au contraire,
effectuer une rotation de π radians revient à prendre la symétrie par rapport au
point O. Il vient immédiatement
Propriété 3.21. Pour tout x ∈ R, on a cos(x + π) = − cos(x) et sin(x + π) =
− sin(x).
On en déduit les deux résultats suivants de périodicité.
tan(x + π) = tan(x) et
cot(x + π) = cot(x) ,
(3.3)
si x est dans le domaine de définition de chacune des deux fonctions. En utilisant
ces propriétés, il vient
Propriété 3.22. Pour tout x ∈ R, on a cos(π − x) = − cos(x) et sin(π − x) =
sin(x). Et, si x est dans le domaine de définition de la fonction tangente, on a
tan(π − x) = − tan(x). Et de même, cot(π − x) = − cot(x).
π
Propriété 3.23 (Échange
entre
cosinus
et
sinus).
Pour
tout
x
∈
R,
cos
−
x
=
2
sin(x) et sin π2 − x = cos(x).
La preuve est laissée au lecteur. L’idée est de se restreindre à l’intervalle 0; π2
en utilisant la périodicité et la parité de la fonction cosinus. On en déduit aussitôt :
π
− x = cot(x) ,
tan
2
π
pour tout x ∈
/ k2 ; k ∈ Z .
3.2.1
Formules d’addition
On donne ici les formules à connaître par cœur sur le cosinus et le sinus. Soient
a et b deux réels. On a alors
cos(a + b) = cos(a) cos(b) − sin(a) sin(b) ,
(3.4)
sin(a + b) = sin(a) cos(b) + sin(b) cos(a) .
(3.5)
et
Donnons les preuves de ces formules.
38
CHAPITRE 3. TRIGONOMÉTRIE
Démonstration. Par définition, les coordonnées de M (a) et de M (a + b) sont
M (a) = (cos(a), sin(a)) et M (a + b) = (cos(a + b), sin(a + b)) .
−−−−→
→
−
On pose maintenant ia := OM
(a). On souhaite considérer un nouveau repère
−
→ −
→
→
−
→
−
orthonormal direct O, ia , ja . Il faut pour cela que les vecteurs ia et ja soient
→
−
→
−
orthogonaux et que la norme de ja soit 1. Il vient ainsi ja = ± (− sin(a), cos(a)).
→
−
Comme on souhaite que le repère soit direct, on obtient ja = (− sin(a), cos(a)).
Ensuite, par définition, le point M (a + b) se déduit du point M (a) en effectuant
une rotation
b. Conséquemment, les coordonnées du point M (a + b) dans
d’angle
−
→ −
→
le repère O, ia , ja sont cos(b) et sin(b). Il vient donc
−−−−−−−→
→
−
→
−
OM (a + b) = cos(b) ia + sin(b) ja
= cos(b) (cos(a), sin(a)) + sin(b) (− sin(a), cos(a)) .
−−−−−−−→
Par identification avec OM (a + b) = (cos(a + b), sin(a + b)), on a (3.4) et (3.5).
De ces formules, on en déduit immédiatement
et
3.2.2
cos(a − b) = cos(a) cos(b) + sin(a) sin(b) ,
sin(a − b) = sin(a) cos(b) − sin(b) cos(a) ,
tan(a) + tan(b)
tan(a + b) =
,
1 − tan(a) tan(b)
tan(a) − tan(b)
tan(a − b) =
1 + tan(a) tan(b)
Valeurs particulières
Grâce aux formules précédentes, on en déduit déjà des valeurs particulières, à
savoir par cœur :
Angles (radians) 0 π6 π4 π3 π2
Angles (degrés)
0 30 45 60 90
Sinus
0
1
Cosinus
1
0
Tangente
0
+∞
Cotangente
+∞
0
3.2. FORMULES DE TRIGONOMÉTRIE
39
Exercice 3.24. Compléter le tableau.
3.2.3
Formules de duplication
On présente ici une formule qui dérive de (3.4) et de (3.5) :
cos(2x) = 2 cos2 (x) − 1 = 1 − 2 sin2 (x) et
sin(2x) = 2 sin(x) cos(x) .
(3.6)
On a également cos(2x) = cos2 (x) − sin2 (x) (mais cette formule est moins importante). De la formule (3.6), on en déduit
Propriété 3.25. Pour tout x ∈ R, on a
cos2 (x) =
1 + cos(2x)
2
et
sin2 (x) =
1 − cos(2x)
.
2
Exercice 3.26. Prouver la Propriété 3.25
On a également
tan2 (x) =
3.2.4
1 − cos(2x)
.
1 + cos(2x)
Formules essentielles pour l’intégration
Pour intégrer des fractions rationnelles de fonctions circulaires, on utilise la
formule de Bioche (voir Proposition 13.33 à la page 144). Parfois,
on est obligé
x
d’exprimer les fonctions circulaires en fonction de x 7→ tan 2 pour effectuer un
changement de variable adéquat.
Proposition 3.27. Pour tout x ∈ R, on a
cos(x) =
avec t := tan
x
2
1 − t2
1 + t2
et
sin(x) =
2t
,
1 + t2
. Et, si les quantités sont définies, on peut écrire
tan(x) =
2t
1 − t2
et
cot(x) =
1 − t2
.
2t
Exercice 3.28. Prouver la Proposition 3.27.
3.2.5
Linéarisation
Il peut être pratique de linéariser des expressions pour pouvoir intégrer (pour
le calcul des séries de Fourier dans le cours de Mathématiques des Signaux et des
40
CHAPITRE 3. TRIGONOMÉTRIE
Systèmes par exemple). On a alors besoin des formules
cos(a + b) + cos(a − b)
,
2
cos(a − b) − cos(a + b)
sin(a) sin(b) =
,
2
sin(a + b) + sin(a − b)
sin(a) cos(b) =
2
1
−
cos(2a)
.
tan2 (a) =
1 + cos(2a)
cos(a) cos(b) =
et
3.2.6
Factorisation
Au contraire, pour étudier le signe d’une somme, il peut être judicieux de
factoriser :
a+b
a−b
cos(a) + cos(b) = 2 cos
cos
,
2
2
a+b
a−b
cos(a) − cos(b) = −2 sin
sin
,
2
2
a+b
a−b
sin(a) + sin(b) = 2 sin
cos
,
2
2
a−b
a+b
sin(a) − sin(b) = 2 sin
cos
,
2
2
sin(a + b)
sin(a − b)
et tan(a) + tan(b) =
, tan(a) − tan(b) =
.
cos(a) cos(b)
cos(a) cos(b)
Ces formules se prouvent en utilisant l’astuce
a=
3.2.7
a+b a−b
+
2
2
et b =
a+b a−b
−
.
2
2
Transformation de a cos(x) + b sin(x)
On considère la fonction f définie par
f (x) := a cos(x) + b sin(x) ,
où a et b sont deux réels. On cherche à transformer f (x) sous une forme plus
simple à étudier.
Théorème 3.29. Soient a et b deux réels tels que a2 + b2 =
6 0. Alors, on peut
écrire
√
a cos(x) + b sin(x) = a2 + b2 cos (x − θ) ,
où θ est tel que cos(θ) =
√ a
a2 +b2
et sin(θ) =
√ b
.
a2 +b2
3.3. FONCTIONS TRIGONOMÉTRIQUES
41
Ce théorème se prouve en utilisant la Propriété 3.18.
Exercice 3.30. Résoudre l’équation
√
√
2 3 cos(x) − 6 sin(x) = 2 6 .
Solution : x =
3.3
7π
12
+ 2kπ avec k ∈ Z.
Fonctions trigonométriques
On va étudier les fonctions cosinus, sinus et tangente ainsi que les fonctions
réciproques.
3.3.1
Rappel : Étude d’une fonction de la variable réelle
Soit une fonction f que l’on cherche à étudier. Rappelons comment on procède
à son étude.
D’abord, on donne son ensemble de définition. Puis, l’on s’intéresse à l’ensemble
d’étude. En effet, en utilisant des propriétés comme la périodicité, la parité, la
symétrie par rapport à une droite, on peut se restreindre à un petit intervalle.
Puis, sur l’ensemble d’étude, il faut
1. Simplifier l’expression de f (x).
2. Calculer l’expression de f (x).
3. Étudier les variations de la fonction f .
4. Étudier les limites aux bornes.
5. Tracer la courbe.
3.3.2
Études de limites
Établissons ici quelques résultats de limites. Plus spécifiquement, on donne les
dérivées des fonctions trigonométriques.
Théorème 3.31. On a la limite suivante :
lim
h→0
sin(h)
= 1.
h
Démonstration. Pour prouver que l’on a
sin(h)
= 1,
h→0
h
lim
(3.7)
on utilise en général le résultat suivant : sin′ (x) = cos(x). Toutefois, pour montrer
que la dérivée de la fonction sinus est la fonction cosinus, on se sert de (3.7).
Présentons maintenant une preuve honnête de (3.7).
42
CHAPITRE 3. TRIGONOMÉTRIE
Comme la fonction sinus est impaire, on suppose sans rien changer à la généralité
que x est positif.
Plaçons-nous dans le cercle trigonométrique. On appelle O le point de coordonnées
(0; 0), A := (1, 0), M (x) := (cos(x); sin(x)) et N (x) := (1; tan(x)). On appelle
aussi H(x) la projection de M (x) sur la droite des abscisses : H(x)
(cos(x);0).
−:=
−−−−−−→
Le triangle M (x)H(x)A est rectangle en H(x) donc on en déduit M (x)H(x) ≤
−−−−→
M (x)A puisque l’hypoténuse est le côté le plus long d’un triangle rectangle.
Ceci se traduit ainsi :
−−−−→
sin(x) ≤ M (x)A .
Comme le chemin le plus court entre deux points est un segment
droite,
−de
on
−−−→
en déduit que l’arc de cercle reliant A à M (x) est plus long que M (x)A. Par
définition, la longueur de cet arc est x. Il vient :
sin(x) ≤ x .
On peut maintenant prouver que l’aire de la section d’angle x est égale à x2 . En
effet, si x = 2π 1q avec q ∈ N∗ , l’aire de la section est égale à πq = x2 puis l’on peut
étendre aux angles de la forme x = 2πr avec r ∈ Q∗ . Enfin, l’on étend à R par
l’absurde.
Or, cette section de disque est incluse dans le triangle OAN (x). L’aire du triangle
est donc plus grande que l’aire de la section, à savoir x2 . Or, l’aire du triangle
vaut : 12 × Base × Hauteur = 21 × 1 × tan(x). Il vient :
sin(x) ≤ x ≤ tan(x) .
On rappelle que l’on a
tan(x)
x
=
sin(x)
x
×
cos(x) ≤
1
cos(x)
d’où
sin(x)
≤ 1.
x
La continuïté de la fonction cosinus en 0 achève la preuve.
Puis, pour prouver que sin′ (x) = cos(x), on écrit :
sin(x + h) − sin(x)
1
= {sin(x) (cos(h) − 1) + cos(x) sin(h)} .
h
h
En utilisant les formules trigonométriques, on obtient :
sin2 h2
cos(h) − 1
h sin h2
.
= −2
= − sin
h
h
h
2
2
La limite (3.7) implique alors la convergence de
de (3.7) à nouveau implique
cos(h)−1
h
vers 0. Puis, l’application
sin(x + h) − sin(x)
= cos(x) .
h→0
h
lim
3.3. FONCTIONS TRIGONOMÉTRIQUES
43
On prouve de la même manière
cos(x + h) − cos(x)
cos(x) (cos(h) − 1) − sin(x) sin(h)
=
→ − sin(x) .
h
h
Toutefois, pour prouver (3.7), on a utilisé la continuïté en 0 de la fonction cosinus
puis pour prouver sin′ (x) = cos(x), on a utilisé la continuïté en 0 de la fonction
sinus. Pour cela, on utilise la décroissance
de la fonction cosinus. Puis, l’on étudie
la suite u de terme général cos 2πn . Les formules trigonométriques donnent
un+1 =
r
1 + un
.
2
Conséquemment, l’on a
|1 − un+1 | = 1 − un+1
=
≤
n
1 − 1+u
q2
=
n
1 + 1+u
2
|1 − un |
1 − un
q
q
= 1+un
n
2 1 + 1+u
2
1
+
2
2
1
1
|1 − un | ≤ n .
2
2
Donc cos 2πn tend vers 0. Puis, comme la fonction est décroissante par définition,
on en déduit sa continuïté en 0. La continuïté de la fonction sinus en 0 vient de
l’inégalité 0 ≤ sin(x) ≤ x pour x positif. La preuve est désormais achevée.
3.3.3
Fonctions sinus et arcsinus
La fonction sinus est définie, continue et dérivable (voir le paragraphe précédent) sur R. Elle est de plus 2π-périodique. On se restreint donc à l’intervalle
[−π; π]. Puis, l’imparité nous permet de nous restreindre à [0; π]. Enfin, comme
sin(π − x) = sin(x), on sait que la
verticale d’équation (x = π2 ) est axe de
droite
symétrie. On se restreint alors à 0; π2 . Par ailleurs, on note que la fonction sinus
réalise une bijection de − π2 ; π2 dans [−1; 1]. Sa réciproque est appelée arcsinus
et estnotée arcsin. La fonction arcsinus est définie, continue, dérivable de [−1; 1]
dans − π2 ; π2 .
Après étude, on obtient les courbes :
44
CHAPITRE 3. TRIGONOMÉTRIE
Figure 3.3 – Graphes des fonctions sinus (à gauche) et arcsinus (à droite).
Proposition 3.32. Pour tout x ∈ [−1; 1], on a
sin (arcsin(x)) = x
et
cos (arcsin(x)) =
√
1 − x2 .
Démonstration. La première égalité provient de la définition de la fonction arcsinus en tant que bijection réciproque de la fonction sinus de l’intervalle [−1; 1]
dans − π2 ; π2 . La seconde vient de l’égalité
cos2 (arcsin(x)) = 1 − sin2 (arcsin(x)) ,
√
d’où cos (arcsin(x)) = ± 1 − x2 . Or, le cosinus est positif sur l’intervalle − π2 ; π2
ce qui achève la preuve.
3.3.4
Fonction cosinus
La fonction cosinus est définie, continue et dérivable sur R. Elle est de plus 2πpériodique. On se restreint donc à l’intervalle [−π; π]. Puis, la parité nous permet
de nous restreindre à [0; π]. Enfin, comme cos(π − x) = cos(x), on sait que
point
le
π
π
de coordonnées 2 , 0 est centre de symétrie. On se restreint alors à 0; 2 . Par
ailleurs, on note que la fonction cosinus réalise une bijection de [0; π] dans [−1; 1].
Sa réciproque est appelée arccosinus et est notée arccos. La fonction arccosinus
est définie, continue, dérivable de [−1; 1] dans [0; π].
Après étude, on obtient les courbes :
3.3. FONCTIONS TRIGONOMÉTRIQUES
45
Figure 3.4 – Graphes des fonctions cosinus (à gauche) et arccosinus (à droite).
Proposition 3.33. Pour tout x ∈ [−1; 1], on a
cos (arccos(x)) = x
et
sin (arccos(x)) =
√
1 − x2 .
Exercice 3.34. Prouver les deux égalités dans la Proposition précédente.
3.3.5
Fonction tangente
La fonction tangente est définie, continue et dérivable
π π sur R. Elle est de plus
π-périodique. On se restreint donc
à
l’intervalle
− 2 ; 2 . Puis, l’imparité nous
π
permet de nous restreindre
àπ π0; 2 . Par ailleurs, on note que la fonction tangente
réalise une bijection de − 2 ; 2 dans R. Sa réciproque est appelée arctangente
et
notée
arctan. La fonction arctan est définie, continue, dérivable de R dans
est
π π
−2; 2 .
Après étude, on obtient les courbes :
46
CHAPITRE 3. TRIGONOMÉTRIE
Figure 3.5 – Graphes des fonctions tangente (à gauche) et arctangente (à droite).
3.4
Exercices
Exercice 1
Sachant que sin(α) =
1
4
et
π
2
< α < π, calculer cos(α) et tan(α).
Exercice 2
Montrer que les expressions suivantes, quand elles existent, ont une valeur
constante :
cos3 (x) − sin3 (x) cos3 (x) + sin3 (x)
– A=
+
.
cos(x) − sin(x)
cos(x) + sin(x)
– B = (1 − sin(x))(1 + sin(x))(1 + tan2 (x)).
Exercice 3
Résoudre chacune des équations suivantes :
= cos π4 − x .
– cos 2x − 3π
2
π
– cos 2x + π4 + cos x + 12
= 0.
π
π
– cos x + 4 + sin 2x − 3 = 0.
– sin(2x) = cos x2 .
– √
tan(x) tan(2x) = 1.
– 3 tan(x) = 2 sin(x).
– cos3 (x) + sin3 (x) = 1.
3.4. EXERCICES
47
Exercice 4
Calculer sin
Exercice 5
7π
12
, cos
7π
12
, tan
7π
12
, sin
On se donne α et β tels que tan(α) =
1
5
π
12
, cos
π
12
et tan(β) =
et tan
1
.
239
7π
12
.
Calculer γ = 4α − β.
Exercice 6
Démontrer l’identité
1 − cos2 (a) − cos2 (b) − cos2 (c) + 2 cos(a) cos(b) cos(c)
b+c−a
a+b−c
a+c−b
a+b+c
sin
sin
sin
.
= 4 sin
2
2
2
2
Exercice 7
Un circuit électrique est soumis à deux tensions : 3 cos(2πf t) et 4 sin(2πf t).
Montrer que la tension somme, 3 cos(2πf t) + 4 sin(2πf t), peut s’écrire :
r cos(2πf t + ϕ) avec r > 0
48
CHAPITRE 3. TRIGONOMÉTRIE
Chapitre 4
Nombres complexes
4.1
Corps des nombres complexes, (C, +, ×)
Le corps (R, +, ×) est commutatif. Ce corps possède un défaut. Il n’est pas
algébriquement clos. En d’autres termes, il existe des équations réelles qui n’ont
pas de solution Par exemple, l’équation
x2 + 1 = 0
n’admet pas de solution dans R bien que tous les coefficients soient des réels. La
question que l’on se pose est alors la suivante : peut-on obtenir un corps, noté
provisoirement (K, +, ×) tel que R ⊂ K, tel que l’addition et la multiplication
dans K coïncident avec l’addition et la multiplication pour les réels dans R. Il
faut aussi que ce corps soit algébriquement clos (tout du moins que l’équation
x2 + 1 = 0 admette une solution) et commutatif. De plus, on souhaite que le corps
soit le plus petit possible.
On peut construire un tel corps à partir de ces impératifs. On montre qu’il existe,
à isomorphisme près, un et un seul corps répondant à cette question, appelé corps
des complexes et noté C.
4.1.1
Écriture algébrique d’un nombre complexe
Pour tout a ∈ R, a est un complexe.
Soit i une solution de l’équation x2 + 1 = 0 dans C. Comme C est un corps, a + bi
est un complexe pour tous a, b ∈ R. Tout nombre z pouvant se mettre sous la
forme a + ib est un élément de C.
Soient (a, b) ∈ R2 et (a′ , b′ ) ∈ R2 . On pose z := a+ib et z ′ := a′ +ib′ . Par définition
de C, on a z + z ′ ∈ C et zz ′ ∈ C. On cherche à calculer ces deux complexes :
z + z ′ = (a + ib) + (a′ + ib′ ) = (a + a′ ) + i(b + b′ ) .
À nouveau, z + z ′ est de la forme λ + iµ avec λ, µ ∈ R. De même :
zz ′ = (a + ib) (a′ + ib′ ) = (aa′ − bb′ ) + i (ab′ + a′ b) .
49
50
CHAPITRE 4. NOMBRES COMPLEXES
Ainsi, zz ′ peut aussi se mettre sous la forme λ + iµ avec λ, µ ∈ R.
On considère alors K := {a + ib : a, b ∈ R}. On vérifie que K est un corps commutatif dans lequel l’équation x2 + 1 = 0 admet une solution. On peut donc
prendre
C := {a + ib : a, b ∈ R}
4.1.2
Autres constructions de C
On peut construire C de manière plus rigoureuse.
4.1.2.1
C = R2 avec une multiplication adéquate
Pour tout (a, b) ∈ R2 et pour tout (a′ , b′ ) ∈ R2 , on pose
(a, b) + (a′ , b′ ) := (a + a′ , b + b′ ) ,
et
(a, b) × (a′ , b′ ) = (aa′ − bb′ , ab′ + a′ b) .
On identifie (1, 0) à 1C et (0, 1) à i.
Exercice 4.1. Montrer que muni de ces deux lois de composition internes, R2 est
un corps commutatif dans lequel l’équation x2 + 1 = 0 admet une solution.
4.1.2.2
C est un sous-espace vectoriel de M2 (R)
On considère l’anneau (et espace-vectoriel) M2 (R) des matrices carrées de
taille deux. On identifie 1 à la matrice identité
1 0
,
1C :=
0 1
et l’on identifie le nombre complexe i à la matrice
0 −1
.
i :=
1 0
On peut vérifier que l’on a i2 = −1C .
4.1.2.3
Théorie de Galois
Soient P et Q deux polynômes réels. On dit que P et Q sont équivalents si
l’on a
P (X) − Q(X) = (X 2 + 1)D(X) ,
où D est un polynôme réel. On identifie 1 à la classe d’équivalence du polynôme
1. En d’autres termes :
P (X) − 1
1C := P ∈ R[X] :
∈ R[X] .
X2 + 1
4.2. CALCULS DE BASE DANS C
51
De même, on identifie i avec la classe d’équivalence du polynôme X :
P (X) − X
i := P ∈ R[X] :
∈ R[X] .
X2 + 1
(X)−X
Soit P un polynôme quelconque qui vérifie P X
∈ R[X]. Alors, il existe un
2 +1
2
polynôme réel D tel que l’on ait P (X) = X + (X + 1)D(X). D’où :
P (X)2 =
X2
|{z}
+2X(X 2 + 1)D(X) + (X 2 + 1)2 D(X)2
=−1+(X 2 +1)
= −1 + X 2 + 1
1 + 2XD(X) + (X 2 + 1)D(X)2 .
Par conséquent, P 2 est dans la classe d’équivalence du polynôme −1. En d’autres
termes : i2 = −1C .
4.2
Calculs de base dans C
Définition 4.2. Soit un complexe z = x + iy. On appelle son conjugué, et l’on
note z, le complexe
z = x − iy .
Propriété 4.3. Soient deux complexes z1 et z2 . Alors z1 + z2 = z1 + z2 . De plus :
z1 z2 = z1 × z2 .
Définition 4.4. Soit un complexe z = x + iy. x est appelé la partie réelle de z :
x = ℜ(z) = Re(z).
Définition 4.5. Soit un complexe z = x + iy. y est appelé la partie imaginaire de
z : y = ℑ(z) = Im(z).
On a les résultats suivants :
– Pour tout z = x + iy ∈ C, zz = x2 + y 2 ≥ 0.
z
z
– Pour tout z 6= 0, z −1 = z1 = x2 +y
2 = zz .
Proposition 4.6. Pour tout z ∈ C et pour tout λ ∈ R, on note λ.z := λ × z.
Alors, (C, +, .) est un espace vectoriel sur R. Et, sa dimension est deux. Une base
de C sur R est (1, i).
4.2.1
Interprétation géométrique
On rapporte le plan à un repère orthonormal direct (O,~i, ~j) :
52
CHAPITRE 4. NOMBRES COMPLEXES
Figure 4.1 – Plan muni d’un repère orthonormal direct
Tout point du plan est alors défini par le couple (x, y) de ses coordonnées dans
le repère (O,~i, ~j). À chacun de ces points du plan, on peut donc associer un couple
de réels et conséquemment un complexe z = x + iy. Tout point M du plan est
donc défini par un nombre complexe z, appelé affixe du point M .
On peut alors interpréter la conjugaison d’un complexe comme la symétrie par
rapport à l’axe des abscisses. Si z est réel, alors le point M (z) associé est sur l’axe
des abscisses. Si z est un imaginaire pur (c’est-à-dire si sa partie réelle est nulle),
le point associé est sur l’axe des ordonnées.
Rappelons la définition du module d’un complexe.
Définition
4.7. Soit
p
√ un complexe z = x + iy. On appelle module de z la quantité
2
2
|z| := x + y = zz.
On remarque : z −1 =
z
.
|z|2
Propriété 4.8. Pour tous les complexes z1 , z2 , on a |z1 z2 | = |z1 ||z2 |.
Démonstration. En effet, l’on a :
|z1 z2 | =
p
z1 × z2 × z1 × z2 ,
par définition. Puis, comme le conjugué d’un produit est le produit des conjugués,
il vient
√
|z1 z2 | = z1 × z2 × z1 × z2 .
La commutativité nous donne
√
√
√
|z1 z2 | = z1 × z1 × z2 × z2 = z1 z1 z2 z2 ,
ce qui achève la preuve.
4.3. ÉQUATIONS DU SECOND DEGRÉ DANS C
53
Propriété 4.9. Soit un complexe z. Alors |ℜ(z)| ≤ |z| et |ℑ(z)| ≤ |z|
Cette propriété est immédiate après que l’on a remarqué |z|2 = ℜ(z)2 + ℑ(z)2 .
Propriété 4.10. Soient z1 et z2 deux complexes. On a alors |z1 + z2 |2 = |z1 |2 +
|z2 |2 + 2ℜ (z1 z2 ).
4.3
Équations du second degré dans C
On appelle équation du second degré dans C toute équation qui peut se mettre
sous la forme
az 2 + bz + c = 0 ,
où a, b et c sont des complexes. Et, a 6= 0. L’inconnue est ici z.
4.3.1
Résolution de z 2 = Z
On commence par résoudre l’équation
z2 = Z
(4.1)
où Z est un complexe quelconque.
4.3.1.1
Si Z ∈ R+
Ici, Z√= X ≥ 0. Si X > 0, l’équation (4.1) a deux solutions réelles : z =
et z = − X. Si Z = 0, il y a une unique solution : z = 0.
4.3.1.2
√
X
Si Z ∈ R∗−
Ici, z ne peut pas être réel car son carré est un réel négatif. On peut toutefois
écrire Z = −X avec X > 0 puis l’équation devient
√ 2
2
z = (−1) × X = i X .
√
√
On a donc deux solutions distinctes à l’équation (4.1) : i −Z et −i −Z.
4.3.1.3
Si Z ∈
/R
Ici, Z = X + iY avec X, Y ∈ R et Y 6= 0. On recherche z sous la forme d’un
complexe z = x + iy avec x, y ∈ R. On a alors
x2 − y 2 + 2ixy = X + iY .
On obtient donc deux équations :
x2 − y 2 = X
(4.2)
54
CHAPITRE 4. NOMBRES COMPLEXES
et
2xy = Y .
2
2
On remarque par ailleurs : |Z| = |z | = |z| . Or, |Z| =
2
x + y 2 . On a donc une troisième équation
√
x2 + y 2 = X 2 + Y 2
√
(4.3)
X 2 + Y 2 et |z|2 =
(4.4)
Combinée avec l’équation (4.2), il vient
√
√
−X + X 2 + Y 2
X + X2 + Y 2
2
2
et y =
.
x =
2
2
Enfin, d’après l’équation (4.3), le signe de xy est celui de Y . Il y a donc deux
solutions à l’équation (4.1) :
s
s
√
√
2
2
X + X +Y
−X + X 2 + Y 2
z1 =
+ iǫ
2
2
s
s
√
√
X + X2 + Y 2
−X + X 2 + Y 2
et z2 = −
− iǫ
,
2
2
avec ǫ = 1 si Y > 0 et ǫ = −1 si Y < 0.
4.3.2
Résolution générale
On considère maintenant l’équation générale
az 2 + bz + c = 0 .
où a 6= 0. On commence par diviser par a. Il vient
c
b
z2 + z + = 0 .
a
a
Puis, l’on utilise la forme canonique et l’on obtient
2
b
c
b2
z+
+ − 2 = 0.
2a
a 4a
Cette équation peut donc se mettre sous la forme
2
b2 − 4ac
b
=
.
z+
2a
4a2
On est ainsi ramené au cas de l’équation (4.1). On procède donc comme suit pour
résoudre une telle équation.
1. On calcule ∆ := b2 − 4ac.
2. Si ∆ = 0, on a une unique solution : z0 = − ab .
3. Si ∆ 6= 0, on calcule δ, une racine complexe de ∆.
et z2 = −b+δ
.
4. On a alors deux solutions : z1 = −b−δ
2a
2a
4.4. NOMBRES COMPLEXES DE MODULE 1
4.4
55
Nombres complexes de module 1
Notation 4.11. L’ensemble des nombres complexes de module 1 est noté U :
U := {z ∈ C : |z| = 1} .
4.4.1
Groupe (U, ×)
Muni de la multiplication, U est un groupe. En effet :
1. U 6= ∅ car 1 ∈ U.
2. ∀z1 , z2 ∈ U, on a |z1 z2 | = |z1 ||z2 | = 1 d’où z1 × z2 ∈ U.
3. La multiplication est associative dans C donc dans U.
4. Pour tout z ∈ U, 1 × z = z et de plus 1 ∈ U.
5. Pour tout z ∈ U, |z| = 1 6= 0 donc z est inversible dans C. On note z −1 cet
1
inverse. On a |z −1 | = |z|
= 1 donc z −1 ∈ U.
La multiplication étant commutative dans C, on en déduit que (U, ×) est un
groupe abélien.
Propriété 4.12. Pour tout z ∈ U, il existe θ ∈ R tel que z = cos(θ) + i sin(θ).
Démonstration. Pour tout z ∈ U, z ∈ C. Donc, on peut écrire z = x + iy avec
x, y ∈ R. Or, |z| = 1 donc x2 + y 2 = 1. D’après le théorème de relèvement, il existe
θ dans R tel que x = cos(θ) et y = sin(θ).
Définition 4.13. L’angle θ est appelé l’argument du complexe z = cos(θ)+i sin(θ).
On note θ = arg(z).
Notation 4.14. Pour simplifier l’écriture, on écrit :
eiθ := cos(θ) + i sin(θ) .
Remarque 4.15. L’exponentielle complexe est en fait plus profonde qu’une vulgaire notation.
Propriété 4.16. Pour tous les réels θ1 , θ2 , on a ei(θ1 +θ2 ) = eiθ1 eiθ2 .
Démonstration. Par définition, on a
ei(θ1 +θ2 ) = cos (θ1 + θ2 ) + i sin (θ1 + θ2 )
= (cos θ1 cos θ2 − sin θ1 sin θ2 ) + i (cos θ1 sin θ2 + sin θ1 cos θ2 ) .
Or, par le calcul, il vient
eiθ1 eiθ2 = (cos θ1 + i sin θ1 ) × (cos θ2 + i sin θ2 )
= cos θ1 cos θ2 + i sin θ1 cos θ2 + i cos θ1 sin θ2 + i2 sin θ1 sin θ2
= (cos θ1 cos θ2 − sin θ1 sin θ2 ) + i (cos θ1 sin θ2 + sin θ1 cos θ2 )
= ei(θ1 +θ2 ) .
56
CHAPITRE 4. NOMBRES COMPLEXES
Propriété 4.17 (Formules d’Euler). Pour tout θ ∈ R, on a
1 iθ
1 iθ
cos θ =
et sin θ =
e + e−iθ
e − e−iθ .
2
2i
On peut se servir de cette formule pour linéariser des polynômes trigonométriques.
Propriété 4.18 (Formule de Moivre). Pour tout θ ∈ R et pour tout n ∈ N, on a
(cos θ + i sin θ)n = cos(nθ) + i sin(nθ).
4.4.2
Forme trigonométrique d’un complexe non nul
Soit un nombre complexe non nul z quelconque. On a alors
z
z = |z| .
|z|
Or, le module de
z
|z|
est 1 donc il existe θ dans R tel que
z = |z|eiθ = |z| (cos θ + i sin θ) .
Définition 4.19. Soit un complexe non nul quelconque z. On suppose que l’on
peut écrire z = ρeiθ . Alors, ρ est le module de z et θ est son argument. On le note
θ = arg(z).
Remarque 4.20. On observe que l’on a e2iπ = 1 donc l’argument d’un complexe
n’est pas unique. Il est défini à 2π-près.
Propriété 4.21. Pour tous z1 , z2 ∈ C, arg(z1 z2 ) = arg(z1 ) + arg(z2 ).
4.5
Exercices
Exercice 1
Résoudre dans C chacune des équations suivantes :
1. z 2 − 5(1 + i)z + 17i = 0.
2. z 2 − (2i + 1)z + i − 1 = 0.
3. z 2 + 2(1 + i)z + 4i = 0.
4. z 2 − 6z + 11 = 0.
5. iz 2 − 2iz + i − 2 = 0.
6. 2z 2 − (3 + 2i)z + 5 = 0.
√
2
7. z2 − 3z + 2 = 0.
8. z 2 + 8(1 − i)z − 34i = 0.
9. z 2 − (5 + 2i)z + 5(1 + i) = 0.
10. z 2 − 2z + 1 − 2i = 0.
11. z 4 = −119 + 120i.
12. z 6 − 2z 3 cos(θ) + 1 = 0.
4.5. EXERCICES
57
Exercice 2
Montrer que pour tout nombre complexe z de module 1, distinct de 1, le
1+z
nombre i 1−z
est réel.
Exercice 3
Résoudre dans C l’équation z = z 2 .
Exercice 4
Résoudre dans C le système x2 = y, y 2 = z et z 2 = x.
Exercice 5
Résoudre dans C : (2z + 1)4 = (z − 1)4 .
Exercice 6
Soit u = e
+ cos
cos 2π
7
Exercice 7
2iπ
7
. On pose S := u + u2+ u4 . Calculer
S+S
et SS. En déduire
8π
2π
4π
8π
+ cos 7 et sin 7 + sin 7 + sin 7 .
4π
7
Soit
Montrer que Cn =
1√
2n 3
n
X
1
kπ
Cn =
.
cos
k
2
3
k=1
.
sin nπ
3
58
CHAPITRE 4. NOMBRES COMPLEXES
Troisième partie
Algèbre linéaire
59
Chapitre 5
Espaces vectoriels
Les espaces vectoriels considérés dans ce chapitre sont définis sur un sous-corps
de C. En pratique : K = R ou K = C.
5.1
Généralités
Définition 5.1. On appelle K-espace vectoriel ou espace vectoriel sur K un ensemble E muni d’une loi de composition interne (notée +) et d’une loi externe
(notée .) admettant K comme ensemble de scalaires opérant via cette loi de composition externe. Les deux lois et l’ensemble E vérifient :
– (E, +) est un groupe abélien.
– λ.(x + y) = λ.x + λ.y.
– (λ + µ).x = λ.x + µ.x.
– λ.(µ.x) = (λµ).x.
– 1.x = x.
Remarque 5.2. Une conséquence de cette définition est que λ.x = 0 si et seulement si λ = 0 ou x = 0.
Les ensembles suivants sont des K-espaces vectoriels : Kn , F (Ω, K), K[X].
Définition 5.3. Les éléments d’un espace vectoriel s’appellent des vecteurs. Ceux
du corps K s’appellent des scalaires.
Notation 5.4. On écrit E au lieu de (E, +, .). Et, on écrit λx au lieu de λ.x.
Définition 5.5. Soit E un espace vectoriel sur K. Soit F ⊂ E. On dit que F est
un sous-espace vectoriel de E si F est un espace vectoriel sur K.
Proposition 5.6. Soit E un espace vectoriel sur K et F ⊂ E. Alors, F est un
sous-espace vectoriel de E si et seulement si
1. F 6= ∅.
2. ∀x, y ∈ F, ∀λ ∈ K, λx + y ∈ F.
61
62
CHAPITRE 5. ESPACES VECTORIELS
Remarque 5.7. On montre rarement directement qu’un ensemble muni de deux
lois est un espace vectoriel. Pour le prouver, on montre qu’il s’agit d’un sous-espace
vectoriel d’un espace vectoriel connu.
5.2
Somme de sous-espaces vectoriels
Définition 5.8. Soit E un espace vectoriel sur un corps K. Soient F et G deux
sous-espaces vectoriels de E. On définit un nouveau sous-espace vectoriel de E
comme suit :
F + G := {v + w : v ∈ F , w ∈ G} .
Notation 5.9. Si tout vecteur de E s’écrit de manière unique comme la somme
d’un vecteur de F et d’un vecteur de G, on dit que la somme est directe et l’on
note E = F ⊕ G.
Proposition 5.10. Soient F et G deux sous-espaces vectoriels de E. Alors, E =
F ⊕ G si et seulement si E = F + G et F ∩ G = {0}.
5.3
Familles libres, génératrices et bases
On commence par définir ce qu’est une combinaison linéaire.
Définition 5.11. Soit (xi )i∈I une famille de vecteurs de l’espace vectoriel E. I est
un ensemble d’indices fini ou infini. On appelle combinaison linéaire des vecteurs
(xi )i tout vecteur y ∈ E de la forme
X
y=
λi xi ,
i∈J
où J est une partie finie de I.
Il est important d’insister sur la finitude du nombre de termes dans la somme.
Une somme infinie n’est pas une combinaison linéaire 1 .
Définition 5.12. On dit que la famille (xi )i est libre si et seulement si toute
combinaison linéaire nulle de ces vecteurs a nécessairement tous ses coefficients
nuls. En d’autres termes, si l’on a
λ i1 x i1 + · · · + λ in x in = 0 ,
alors λi1 = · · · = λin = 0.
Définition 5.13. La famille de vecteurs (xi )i est liée si elle n’est pas libre. En
d’autres termes, il existe des indices i1 , · · · , in et des scalaires λi1 , · · · , λin non
nuls tels que λi1 xi1 + · · · + λin xin = 0.
1. Par exemple, π n’est pas un rationel bien qu’il puisse être mis sous la forme d’une somme
infinie de rationnels.
5.4. DIMENSION D’UN ESPACE VECTORIEL
63
Cette définition équivaut à dire que l’un des vecteurs de la famille est combinaison linéaire des autres.
Exercice 5.14. On considère l’espace vectoriel E des applications de R dans R.
1) La famille (fα )α∈R est-elle libre avec fα (x) := |x − α|.
2) Même question pour la famille (gα )α∈R avec gα (x) := eαx .
Définition 5.15. La famille (ei )i est génératrice si tout vecteur de E est combinaison linéaire de cette famille. Pour tout x ∈ E, ∃i1 , · · · , in ∈ I et ∃λi1 , · · · , λin ∈ R
tels que x = λi1 xi1 + · · · + λin xin .
Définition 5.16. La famille (ei )i est une base de E si c’est une famille libre et
génératrice.
En d’autres termes, tout vecteur est une combinaison linéaire unique de la
famille (ei )i .
Proposition 5.17. Soit E un K-espace vectoriel admettant une base (ei )i∈I . Alors
tout vecteur xPde E s’écrit de manière unique comme combinaison linéaire des
(ei )i∈I : x = i∈I xi ei . Les (xi )i∈I s’appellent les coordonnées de x dans la base
(ei )i∈I .
Démonstration. Soit x un vecteur de E. Comme la
Pfamille (ei )i∈I est génératrice, il
existe des coefficients (xi )i∈I tels que l’on ait x = i∈I xi ei . Supposons
P maintenant
′
que cette écriture ne soit
pas
unique,
c’est-à-dire
que
l’on
ait
x
=
i∈I xi ei . Par
P
définition, on a alors i∈I (xi − x′i ) ei = 0. Comme la famille (ei )i∈I est libre, on
en déduit xi = x′i pour tout i.
L’existence d’une base est assurée par l’axiome du choix 2 et l’on ne la démontrera donc pas. Remarquons toutefois qu’on peut se passer de l’axiome du choix
lorsque l’on considère un espace vectoriel E de dimension finie. La prochaine section aborde justement la notion de dimension.
5.4
Dimension d’un espace vectoriel
Définition 5.18. On dit qu’un K-espace vectoriel E est de dimension finie s’il
existe une famille génératrice finie de E. Si tel n’est pas le cas, on dit que E est
de dimension infinie.
Par exemple, K est un K-espace vectoriel de dimension finie. De même, (1, i)
est une famille génératrice de l’espace vectoriel C sur le corps R donc C est de
dimension finie sur R. En outre, comme C s’identifie à un plan, intuitivement, C
est de dimension deux sur R. On va maintenant expliciter ce qu’est la dimension
d’un espace vectoriel de dimension finie.
2. Cet axiome implique que tout produit non vide d’ensembles non vides est non vide. C’est
naturel... Mais il implique également le paradoxe de Banach-Tarski selon lequel on peut découper
une boule de volume 1 puis réassembler les morceaux de la boule de sorte à avoir deux boules
de volume 1.
64
CHAPITRE 5. ESPACES VECTORIELS
Théorème 5.19. Soit E un K-espace vectoriel de dimension finie. Toutes les
bases de E ont même cardinal, n.
Définition 5.20. Ce cardinal n est la dimension de l’espace vectoriel E sur le
corps K. On le note aussi dimK E.
Par exemple, comme (1, i) est une base de C sur le corps R, on en déduit que
C est de dimension deux sur R.
Également, on en déduit que si F est un sous-espace vectoriel d’un espace vectoriel
E, alors on a dimK F ≤ dimK E.
S’il n’y a pas de confusion possible quant au corps K, on écrit simplement dim au
lieu de dimK .
Proposition 5.21. Soit E un K-espace vectoriel de dimension finie n ∈ N∗ .
Alors :
– Tout système libre de n vecteurs de E est une base de E.
– Tout système générateur de n vecteurs de E est une base de E.
Cette proposition permet de prouver qu’une famille est une base sans avoir à
vérifier les deux axiomes.
Proposition 5.22. Soit E un K-espace vectoriel de dimension finie n ∈ N∗ .
Soient E1 , · · · , Ek k sous-espaces vectoriels de E. Alors, on a équivalence entre les
deux propositions suivantes :
– E = E1 ⊕ · · · ⊕ Ek .
P
– E = E1 + · · · + Ek et n = nk=1 dimK Ek .
Proposition 5.23. Soit E un K-espace vectoriel (non nécessairement de dimension finie). Soient E1 et E2 deux sous-espaces vectoriels de E de dimension finie.
Alors, l’espace vectoriel E1 + E2 est de dimension finie et l’on a de plus
\ dimK (E1 + E2 ) = dimK E1 + dimK E1 − dimK E1 E2 .
Cette égalité porte le nom de formule de Grassmann.
Remarque 5.24. Soit E un K-espace vectoriel de dimension finie. Soient E1 et
E2 deux sous-espaces vectoriels de E. Les trois propositions suivantes sont équivalentes :
(i) E = E1 ⊕ E2 .
T
(ii) dim E = dim E1 + dim E2 et E1 E2 = {0}.
(iii) dim E = dim E1 + dim E2 et E = E1 + E2 .
On dit alors que E2 est un supplémentaire de E1 .
5.5
Exercices
Sauf précision, K désigne Q, R ou C.
5.5. EXERCICES
65
Exercice 1
Soient a0 , · · · , an n + 1 nombres réels deux à deux distincts, éléments de [0; 1],
avec a0 = 0 et an = 1. Pour tout i ∈ [[0; n]], on note fi la fonction définie sur [0; 1]
par fi (x) := |x − ai |.
Montrer que (fi )0≤i≤n est une famille libre du R-espace vectoriel E := C 0 ([0; 1], R).
Exercice 2
Soit ω un nombre complexe non nul. À tout entier relatif p, on associe la
fonction fp définie sur R, à valeurs complexes, par fp (x) = epωx . Pour tout entier
naturel n, on note In = {p ∈ Z : |p| ≤ n}. Montrer que, pour tout entier naturel
n, la famille (fp )p∈In est une famille libre du C-espace vectoriel des applications
de R dans C.
Exercice 3
E = K3 . Dans chacun des cas suivants, déterminer si (x1 , x2 , x3 ) est une base
de E, K-espace vectoriel :
– x1 = (1, −1, 0), x2 = (1, 0, 1) et x3 = (1, 2, 3).
– x1 = (1, 0, −1), x2 = (0, 1, 0) et x3 = (1, 1, 0).
– x1 = (1, 2, 3), x2 = (2, 3, 1) et x3 = (3, 1, 2).
– x1 = (1, 1, −1), x2 = (1, −1, 1) et x3 = (−1, 1, 1).
Exercice 4
E = K4 . Déterminer la dimension de chacun des sous-espaces F, G, F ∩ G et
F + G du K-espace vectoriel E et donner une base de chacun d’eux :
e1 = (1, 2, 3, 4), e2 = (2, 2, 2, 6), e3 = (0, 2, 4, 4), e4 = (1, 0, −1, 2) et e5 =
(2, 3, 0, 1). F = Vect (e1 , e2 , e3 ). G = Vect (e4 , e5 ).
66
CHAPITRE 5. ESPACES VECTORIELS
Chapitre 6
Applications linéaires
Après la notion d’espace vectoriel, voici celle d’application linéaire. Dans le
cadre des espaces vectoriels de dimension finie, les applications linéaires et les
matrices - que l’on verra dans le chapitre suivant - ont des liens très étroits.
6.1
Définitions et premières propriétés
Dans cette section, E et F sont des K-espaces vectoriels.
Définition 6.1. Une application linéaire de E dans F est une application f :
E −→ F telle que f (x + y) = f (x) + f (y) pour tous les éléments x, y ∈ E et
f (λx) = λf (x) pour tout x ∈ E et pour tout λ ∈ K.
Définition 6.2. Si F = K, on dit que f est une forme linéaire sur E.
Remarque 6.3. Si l’on fait λ = 0 dans l’égalité f (λx) = λf (x), alors il vient
f (0) = 0.
Propriété 6.4. Si x1 , · · · , xn sont des vecteurs appartenant à E et si λ1 , · · · , λn
sont des scalaires, alors on a f (λ1 x1 + · · · + λn xn ) = λ1 f (x1 ) + · · · + λn f (xn ).
Exemple 6.5. L’application identité de E dans E, qui - à un vecteur x - lui
associe lui-même, est une application linéaire.
Exemple 6.6. Si E est l’espace vectoriel des fonctions de classe C ∞ sur un intervalle I de R et à valeurs dans R, alors l’application D de E dans E qui à toute
fonction f associe sa dérivée f ′ est linéaire.
Proposition 6.7. Soient f et g des applications linéaires de E dans F et soit
λ ∈ K. Les applications f + g et λf définies par (f + g)(x) := f (x) + g(x) et
(λf )(x) := λf (x) sont linéaires.
67
68
CHAPITRE 6. APPLICATIONS LINÉAIRES
Démonstration. Soient x et y des vecteurs de E. On a alors
(f + g)(x + y) = f (x + y) + g(x + y)
= f (x) + f (y) + g(x) + g(y)
= f (x) + g(x) + f (y) + g(y)
= (f + g)(x) + (f + g)(y) .
De même, pour tout µ ∈ K, on a
(f + g)(µx) = f (µx) + g(µx)
= µf (x) + µg(x)
= µ (f (x) + g(x))
= µ(f + g)(x) .
Il s’ensuit que l’application f + g est linéaire. On démontre la linéarité de λf de
la même manière.
Ainsi, l’ensemble des applications linéaires de E dans F est un espace vectoriel.
Les projections et les symétries sont des applications linéaires utiles en géométrie
au même titre que l’homothétie.
Soient E1 et E2 des sous-espaces vectoriels supplémentaires de E. On rappelle que
tout vecteur x ∈ E s’écrit de manière unique x = x1 + x2 , où x1 ∈ E1 et x2 ∈ E2 .
Définition 6.8 (Projection). Soit p de E dans lui-même l’application définie par
p(x) := x1 pour tout x ∈ E. Cette application est linéaire. On l’appelle la projection
sur E1 parallèlement à E2 .
Remarque 6.9. Remarquons que l’on a p(x) = 0 si et seulement si x ∈ E2 et
p(x) = x si et seulement si x ∈ E1 .
Également, on a p ◦ p(x) = p(x).
Définition 6.10 (Symétrie). Soit s l’application linéaire définie par s(x) := x1 −
x2 . On l’appelle la symétrie par rapport à E1 parallèlement à E2 .
Remarque 6.11. Remarquons que l’on a s(x) = −x si et seulement si x ∈ E2 et
s(x) = x si et seulement si x ∈ E1 .
Également, on a s ◦ s(x) = x.
Définition 6.12. Soit n un entier supérieur ou égal à deux. Si f est une application de E dans Kn , les composantes de f sont les applications f1 , f2 , · · · , fn de
E dans K définies par f (x) =: (f1 (x), f2 (x), · · · , fn (x)) pour tout x ∈ E.
Proposition 6.13. Soit n un entier supérieur ou égal à deux. Si f est une application de E dans Kn , alors l’application f est linéaire si et seulement si ses
composantes f1 , f2 , · · · , fn sont des formes linéaires.
6.1. DÉFINITIONS ET PREMIÈRES PROPRIÉTÉS
69
Démonstration. Soient x, y des vecteurs de E et λ un élément de K. Par définition
des composantes de f , on a
f (x + y) = (f1 (x + y), f2 (x + y), · · · , fn (x + y))
ainsi que
f (λx) = (f1 (λx), f2 (λx), · · · , fn (λx)) .
De plus, d’après les règles de calcul dans un espace vectoriel produit, on a
f (x) + f (y) = (f1 (x) + f1 (y), f2 (x) + f2 (y), · · · , fn (x) + fn (y))
et
λf (x) = (λf1 (x), λf2 (x), · · · , λfn (x)) .
On en déduit que l’application f est linéaire si et seulement si ses composantes sont
linéaires c’est-à-dire si ce sont des formes linéaires vu que ce sont des applications
à valeurs dans K.
Théorème 6.14. Supposons E de dimension n ≥ 1. Soient (e1 , · · · , en ) une base
de E et u1 , · · · , un des vecteurs de F. Soit f de E dans F l’application définie par
f (x) := x1 u1 + · · · + xn un où x1 , · · · , xn sont les coordonnées de x dans la base
(e1 , · · · , en ). Alors l’application f est linéaire. De plus, f est l’unique application
linéaire de E dans F telle que f (ei ) = ui pour tout i ∈ [[1; n]].
Démonstration. Soient x, y ∈ E et λ ∈ K. Notons x1 , · · · , xn et y1 , · · · , yn les
scalaires tels que x = x1 e1 + · · · + xn en et y = y1 e1 + · · · + yn en . Il vient
x + y = (x1 + y1 )e1 + · · · + (xn + yn )en
et
λx = λx1 e1 + · · · + λxn en .
On en déduit f (λx) = λx1 u1 + · · · + λxn un = λf (x) et
f (x + y) = (x1 + y1 )u1 + · · · + (xn + yn )un
= (x1 u1 + · · · + xn un ) + (y1 u1 + · · · + yn un )
= f (x) + f (y) .
L’application f est donc linéaire et par définition de f , on a f (ei ) = ui pour tout
i ∈ [[1; n]].
Démontrons maintenant l’unicité d’une telle application linéaire f . Pour cela,
supposons que g est une application linéaire de E dans F vérifiant aussi g(ei ) = ui
pour tout i ∈ [[1; n]]. Puisque l’application g est linéaire, on a pour tous les éléments
x1 , · · · , xn ∈ K,
g(x1 e1 + · · · + xn en ) = x1 g(e1 ) + · · · + xn g(en ) = x1 u1 + · · · + xn un .
Il s’ensuit f (x1 e1 + · · · + xn en ) = g(x1 e1 + · · · + xn en ) pour tout (x1 , · · · , xn ) ∈ Kn
et donc g(x) = f (x) pour tout x ∈ E puisque E est engendré par les vecteurs
e1 , · · · , en . Cela signifie que f = g.
70
CHAPITRE 6. APPLICATIONS LINÉAIRES
Ce théorème est important : il donne un procédé pour construire des applications linéaires. De plus il met en évidence la propriété suivante.
Propriété 6.15. Si E est de dimension finie, deux applications linéaires f et g de
E dans F sont égales si et seulement si elles coïncident sur chaque vecteur d’une
base de E.
Proposition 6.16. Soit n un entier positif et soit f de Kn dans K une application.
L’application f est linéaire si et seulement s’il existe a1 , · · · , an dans K tels que
f (x1 , · · · , xn ) = a1 x1 + · · · + an xn
pour tous x1 , · · · , xn ∈ K.
Si n et p sont des entiers positifs, on sait que les applications linéaires de Kn
dans Kp sont les applications dont chaque composante est une forme linéaire sur
Kn . Grâce à cette dernière proposition, nous sommes donc en mesure de décrire
toutes les applications linéaires de Kn dans Kp .
6.1.1
Isomorphismes
Intéressons-nous maintenant aux applications linéaires bijectives et en particulier, cherchons à les caractériser.
Définition 6.17. Un isomorphisme de E sur F est une application linéaire de E
dans F qui est bijective.
Proposition 6.18. Si f est un isomorphisme de E sur F, alors la bijection réciproque f −1 est un isomorphisme de F sur E.
Démonstration. L’application f −1 est bijective. Il reste donc à montrer qu’elle est
linéaire. Soient y, y ′ ∈ F. Puisque l’application f est bijective, il existe x, x′ ∈ E
uniques tels que f (x) = y et f (x′ ) = y ′ . Par définition de l’application f −1 , il vient
x = f −1 (y) et x′ = f −1 (y ′ ) d’où x + x′ = f −1 (y) + f −1 (y ′ ). L’application f étant
linéaire, on en déduit f (x + x′ ) = f (x) + f (x′ ), c’est-à-dire f (x + x′ ) = y + y ′ .
Le vecteur x + x′ est ainsi l’unique antécédent par f du vecteur y + y ′ . Il s’ensuit
f −1 (y + y ′ ) = x + x′ , c’est-à-dire f −1 (y + y ′ ) = f −1 (y) + f −1 (y ′ ).
De la même manière, pour tout y ∈ F et pour tout λ ∈ K, on a
f f −1 (λx) = λx
= λf f −1 (x)
= f λf −1 (x) .
d’où f −1 (λx) = λf −1 (x).
Définition 6.19. On dit que E et F sont isomorphes ou que E est isomorphe à
F s’il existe un isomorphisme de E sur F.
6.2. APPLICATION LINÉAIRE ET SOUS-ESPACE VECTORIEL
71
Proposition 6.20. Supposons E de dimension n ≥ 1. Soit (e1 , · · · , en ) une base
de E et soit f de E dans F une application linéaire. L’application f est un isomorphisme si et seulement si (f (e1 ), · · · , f (en )) est une base de F.
Corollaire 6.21. Supposons E et F de dimension finie. Alors E et F sont isomorphes si et seulement si dim E = dim F.
En particulier, si n est un entier naturel, alors E est de dimension n si et
seulement si E est isomorphe à Kn . Ainsi, Kn est un exemple fondamental d’espace
vectoriel.
Proposition 6.22. Soit G un K-espace vectoriel. Si f est une application linéaire
de E dans F et si g est une application linéaire de F dans G, alors g ◦ f est une
application linéaire de E dans G
Exercice 6.23. Démontrer la Proposition 6.22.
6.2
Application linéaire et sous-espace vectoriel
Dans cette section, E et F sont des K-espaces vectoriels et f est une application
linéaire de E dans F.
On rappelle que si G est une partie de E, alors l’image de G par f est la partie
f (G) constituée des éléments de F de la forme f (x), où x est un élément de G.
Proposition 6.24. Soit G un sous-espace vectoriel de E. Alors, f (G) est un
sous-espace vectoriel de F.
Démonstration. Soient y, y ′ deux éléments de f (G) et λ un scalaire. Montrons que
λy + y ′ est un élément de f (G).
Par définition, il existe x, x′ deux éléments de G tels que f (x) = y et f (x′ ) = y ′ .
Alors, λx + x′ est un élément de G. De plus, il vient
f (λx + x′ ) = λy + y ′ .
Donc, λy + y ′ est l’image par f d’un élément de G, ce qui achève la preuve.
Proposition 6.25. Si G est le sous-espace vectoriel de E engendré par les vecteurs
u1 , · · · , un alors f (G) est le sous-espace vectoriel de F engendré par les vecteurs
f (u1 ), · · · , f (un ).
Exercice 6.26. Démontrer la proposition précédente.
Définition 6.27. On appelle image de f le sous-espace vectoriel de F, f (E).
Notation 6.28. L’image de f est notée Im f .
72
CHAPITRE 6. APPLICATIONS LINÉAIRES
Si E est de dimension n ≥ 1 et si (e1 , · · · , en ) est une base de E, alors la
Proposition 6.25 afirme que Im f est engendrée par f (e1 ), · · · , f (en ). Il s’ensuit
que si E est de dimension finie, alors Im f est de dimension finie et l’on a de plus
dim Im f ≤ dim E.
Proposition 6.29. L’ensemble des vecteurs x ∈ E tels que f (x) = 0 est un
sous-espace vectoriel de E.
Démonstration. Soient x, x′ deux éléments de E tels que f (x) = f (x′ ) = 0 et soit
λ ∈ K. Alors, on a f (λx + x′ ) = λf (x) + f (x′ ) = 0. Ceci achève la preuve.
Définition 6.30. Ce sous-espace vectoriel est appelé le noyau de f .
Notation 6.31. Le noyau de f est noté Ker f 1 .
Proposition 6.32. L’application f est injective si et seulement si Ker f = {0}.
Démonstration. Si f est injective, 0 admet un unique antécédent par f et il s’agit
de 0 d’où Ker f = {0}.
Inversement, soient x, x′ deux éléments de E tels que f (x) = f (x′ ). On a alors
f (x − x′ ) = 0. Si Ker f = {0}, il vient x − x′ = 0 d’où x = x′ ce qui montre
l’injectivité de f .
Théorème 6.33 (Théorème de la dimension 2 ). Supposons que E est de dimension
finie. Alors, on a
dim E = dim Ker f + dim Im f .
Démonstration. Comme le noyau de f est un sous-espace vectoriel de E, il admet
un supplémentaire, que l’on note G. Soit l’application linéaire g de G dans Im f
définie par g(x) := f (x). Montrons que cette application linéaire g estTbijective.
Soit x un élément de Ker g. Par définition, g(x) = 0 = f (x) d’où x ∈ G Ker f =
{0}. Ainsi, il vient Ker g = {0} ce qui montre l’injectivité de g. Il suffit maintenant
de prouver sa surjectivité. Soit y un élément de Im f . Par définition, il existe x ∈ E
tel que f (x) = y. Or, G ⊕ Ker f donc x = x1 + x2 où x1 ∈ G et x2 ∈ Ker f .
D’où y = f (x) = f (x1 ) + f (x2 ). Par définition de Ker f , on a f (x2 ) = 0 d’où
g(x1 ) = f (x1 ) = y ce qui achève de prouver la surjectivité de l’application linéaire
g. On en déduit que G et Im f sont isomorphes donc de même dimension. Puis,
comme G ⊕ Ker f , on a
dim E = dim Ker f + dim G
= dim Ker f + dim Im f .
Corollaire 6.34. Supposons que les deux espaces vectoriels E et F sont de même
dimension. Alors, les trois propositions suivantes sont équivalentes :
1. vient du mot allemand “Kern” qui signifie “noyau”.
2. Ce théorème est parfois appelé à tort le théorème du rang.
6.3. EXERCICES
73
– f est un isomorphisme.
– f est une application linéaire injective.
– f est une application linéaire surjective.
Exercice 6.35. Démontrer le corollaire.
6.3
Exercices
Exercice 1
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E.
Montrer l’équivalence entre les quatre propriétés suivantes :
– E = Im(f ) + Ker(f ).
– E = Im(f ) ⊕ Ker(f ).
– Im(f ) = Im(f 2 ).
– Ker(f ) = Ker(f 2 ).
Exercice 2
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de
E. Lorsque dim Im(f ) = 1, montrer qu’il existe un scalaire λ et un seul tel que
f 2 = λf . On désigne par e l’identité sur E. Pour quelles valeurs de µ dans K,
f − µe est un automorphisme (endomorphisme bijectif) de E ?
Déterminer alors (f − µe)−1 .
Exercice 3
Soient F et G des sous-espaces vectoriels supplémentaires dans un K-espace
vectoriel E. Soit p la projection associée : Im(p) = F et Ker(p) = G.
Quels sont les endomorphismes de E qui commutent avec p ?
74
CHAPITRE 6. APPLICATIONS LINÉAIRES
Chapitre 7
Calcul matriciel
Dans ce chapitre, K est un corps commutatif. Plus exactement, K désigne Q
ou R ou C.
Dans les deux premières sections, on présente les matrices et le calcul qui leur est
associé. On a choisi de repousser à la fin du chapitre les liens profonds qui existent
entre les matrices et les applications linéaires.
7.1
Définitions
Définition 7.1. Soient n et p deux entiers strictement positifs. Une matrice n × p
à coefficients dans K est un tableau d’éléments de K à n lignes et à p colonnes,
que l’on note




a1,1 · · · a1,p
a1,1 · · · a1,p
 ..
..  .
..  ou  ..
...
...
 .
 .
. 
. 
an,1 · · · an,p
an,1 · · · an,p
En version abrégée, on note aussi cette matrice : (ai,j )1≤i≤n .
1≤j≤p
Les ai,j s’appellent les coefficients de la matrice, le premier indice étant celui de
la ligne et le second celui de la colonne.
Soient A = (ai,j )1≤i≤n et B = (bi,j )1≤i≤n deux matrices n × p. On a l’égalité
1≤j≤p
1≤j≤p
A = B si et seulement si a
i,j = bi,jpourtout i ∈
[[1; n]] et pour tout j ∈ [[1; p]].
2 5
2 3
ne sont pas égales.
et
Par exemple, les matrices
3 7
5 7
Notation 7.2. L’ensemble des matrices n × p à coefficients dans le corps K se
note Mn,p (K).
Notation 7.3. Si n = p, l’ensemble des matrices n × n à coefficients dans K se
note Mn (K).
75
76
CHAPITRE 7. CALCUL MATRICIEL
Définition 7.4. Une matrice qui a le même nombre de colonnes et de lignes est
dite carrée.
Définition 7.5. Soit A = (ai,j ) 1≤i≤n une matrice carrée. Les nombres ai,i s’ap1≤j≤n
pellent les coefficients diagonaux de A.
Définition 7.6. On dit qu’une matrice est diagonale lorsqu’elle est carrée et que
ses coefficients non diagonaux sont nuls.
Définition 7.7. On dit qu’une matrice A est triangulaire supérieure (respectivement inférieure) lorsqu’elle est carrée et que ses coefficients non diagonaux endessous (respectivement au-dessus) de la diagonale sont nuls.
2 3
est carrée.
Exemple 7.8. 1. La matrice
5 7
2 0
est diagonale.
1. La matrice
0 7
2 3
est triangulaire supérieure.
1. La matrice
0 7
2 0
est triangulaire inférieure.
1. La matrice
5 7
Définition 7.9. Une matrice à une ligne s’appelle une matrice-ligne. Si A =
(ai,j )1≤i≤n est une matrice n × p, la i-ème ligne de la matrice A est la matrice1≤j≤p
ligne (ai,1 , · · · , ai,p ).
Définition 7.10. Une matrice à une colonne s’appelle une matrice-colonne. Si
A = (ai,j )1≤i≤n est une matrice n × p, la j-ème colonne de la matrice A est la
1≤j≤p 

a1,j
 a2,j 


matrice-colonne  .. .
 . 
an,j
2 3
est (5, 7) et sa première
Exemple 7.11. La deuxième ligne de la matrice
5 7
2
.
colonne est
5
7.2
7.2.1
Règles de calcul
Multiplication par un scalaire
Si A = (ai,j )1≤i≤n est un élément de Mn,p (K) et si λ ∈ K, on note λA la
1≤j≤p
matrice de Mn,p (K) dont le coefficient à la i-ème ligne et à la j-ème colonne est
λai,j .
7.2. RÈGLES DE CALCUL
77
Exemple 7.12. Soit la matrice
8 12 20 28
.
Alors 4A =
44 52 68 76
7.2.2
2 3 5 7
11 13 17 19
.
Somme de deux matrices
Soient A = (ai,j )1≤i≤n et B = (bi,j )1≤i≤n deux éléments de Mn,p (K). On note
1≤j≤p
1≤j≤p
A + B la matrice de Mn,p (K) dont le coefficient à la i-ème ligne et à la j-ème
colonne est ai,j + bi,j .
De la même manière, on note A − B la matrice de Mn,p (K) dont le coefficient à
la i-ème ligne et à la j-ème colonne est ai,j − bi,j .




7
6
5
4
2 0 −1 1
2
1
0 .
Exemple 7.13. Soient A =  1 −1 0 1  et B =  3
−1 −2 −3 −4
0 0 −2 3
Alors, on a




−5 −6 −6 −3
9
6
4
5
1
1
1  et A − B =  −2 −3 −1 1  .
A+B = 4
1
2
1
7
−1 −2 −5 −1
7.2.3
Produit de deux matrices
Nous allons maintenant définir le produit de deux matrices. Ce calcul est moins
intuitif puisqu’il est adapté à la composition des applications linéaires.


b1


Définition 7.14. Soient A = (a1 , · · · , ap ) une matrice de M1,p et B =  ... 
bp
une matrice de Mp,1 . Le produit de A par B, noté AB est la matrice 1 × 1 dont
le coefficient est
a 1 b 1 + · · · + ap b p .
 
4

5 , alors AB = (32).
Exemple 7.15. Si A = (1, 2, 3) et B =
6
Définition 7.16. Soient A une matrice de Mn,p et B une matrice de Mp,1 . Le
produit de A par B, noté AB, est la matrice n×1 dont la i-ème ligne est le produit
de la i-ème ligne de A par la matrice-colonne B.
 
4
1
2 3

5 . Alors AB =
et B =
Exemple 7.17. Soient A =
−5 −7 11
6
32
.
11
78
CHAPITRE 7. CALCUL MATRICIEL
Définition 7.18. Soient A une matrice de Mn,p et B une matrice de Mp,q . Le
produit de A par B, noté AB, est la matrice n × q dont le coefficient à la i-ème
ligne et à la j-ème colonne est le produit de la i-ème ligne de A par la j-ème
colonne de B.


4 0 1
1
2 3
et B =  5 2 1 . Alors AB =
Exemple 7.19. Soient A =
−5 −7 11
6 1 0
32 7
3
.
11 −3 −12
Proposition 7.20 (Associativité du produit matriciel). Soient A ∈ Mn,p (K),
B ∈ Mp,q (K) et C ∈ Mq,r (K). Alors, on a A(BC) = (AB)C.
Exercice 7.21. Vérifier l’associativité du produit matriciel.
Notation 7.22. Pour tout n ∈ N, on note In la matrice carrée n × n dont les
termes diagonaux sont tous égaux à 1 et dont les termes non diagonaux sont nuls.
Lemme 7.23. Pour toute matrice carrée n × n, A, on a A × In = In × A = A
7.2.4
Puissance d’une matrice
Soient A une matrice carrée et k ∈ N∗ . On définit la puissance k-ème de A
comme suit :
A0 := In ,
puis, par récurrence, on pose
Ak+1 := A × Ak .
7.2.5
Inversion d’une matrice
Définition 7.24. Soit A une matrice carrée n × n. On dit que la matrice A est
inversible s’il existe B ∈ Mn (K) telle que AB = BA = In .
Lemme 7.25. Soit A une matrice inversible de Mn (K). Il existe une unique
matrice, que l’on note A−1 telle que AA−1 = A−1 A = In .
Démonstration. Soient B et C deux matrices carrées n × n telles que l’on ait
AB = In
et CA = In .
On a alors C = CIn = C(AB) = (CA)B = In B = B.
Proposition 7.26. Soient A et B deux matrices carrées n × n inversibles. On a
alors (AB)−1 = B −1 A−1 .
Démonstration. On vérifie (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 B = In et de
même (AB)(B −1 A−1 ) = A(B −1 B)A−1 = AA−1 = In .
Remarque 7.27. Il existe des matrices non inversibles (tout comme il existe des
applications linéaires non bijectives).
7.3. MATRICE D’UNE APPLICATION LINÉAIRE
7.2.6
79
Transposée d’une matrice
Définition 7.28. Soit A = (ai,j )1≤i≤n une matrice de Mn,p (K). On appelle trans1≤j≤p
posée de A la matrice de Mp,n (K) dont le coefficient à l’intersection de la ligne i
et de la colonne j est aj,i .
Notation 7.29. La transposée de la matrice A est notée AT .


1 −5
1
2 3
. Alors, AT =  2 −7 .
Exemple 7.30. Soit A =
−5 −7 11
3 11
Propriété 7.31. Soient A et B deux matrices de taille n × p. Soit λ ∈ K. Alors,
on a
(AT )T = A , (λA)T = λAT et (A + B)T = AT + B T .
Propriété 7.32. Soient A une matrice n × p et B une matrice p × q. Alors, on a
(AB)T = B T AT .
Propriété 7.33. Soit A une matrice carrée inversible, alors AT est inversible et
de plus (AT )−1 = (A−1 )T .
7.3
Matrice d’une application linéaire
Dans cette section, E et F sont des K-espaces vectoriels de dimension finie.
On pose p := dim E ≥ 1 et n := dim F ≥ 1. Soit (e1 , · · · , ep ) (respectivement
(f1 , · · · , fn )) une base de E (respectivement F).
Définition 7.34. Soit f une application linéaire de E dans F. La matrice de f
dans les bases (e1 , · · · , ep ) et (f1 , · · · , fn ) est la matrice appartenant à Mn,p (K),
dont les coefficients de la j-ème colonne sont les coordonnées du vecteur f (ej )
dans la base (f1 , · · · , fn ).
Définition 7.35. Si F = E et si fi = ei pour tout i ∈ [[1; n]], alors la matrice de
f dans les bases (e1 , · · · , en ) et (e1 , · · · , en ) s’appelle plus simplement la matrice
de f dans la base (e1 , · · · , en ).
Exemple 7.36. La matrice de l’application linéaire identité est In dans n’importe
quelle base de E.
Exemple 7.37. Soit f de R2 dans R3 l’application linéaire définie par f (x, y) :=
(x+y, −x+2y, y)pour tout
(x, y) ∈ R2 . Alors, sa matrice dans les bases canoniques
1 1
2
3

−1 2 .
de R et R est
0 1
80
CHAPITRE 7. CALCUL MATRICIEL
Proposition 7.38. Soient f et g des applications linéaires de E dans F et soit
λ ∈ K. Si A (respectivement B) est la matrice de f (respectivement g) dans les
bases (e1 , · · · , ep ) et (f1 , · · · , fn ), alors la matrice de λf + g dans ces bases est la
matrice λA + B.
Grâce à la proposition qui suit, nous allons voir que la matrice d’une application linéaire f permet de calculer les coordonnées de f (x) lorsqu’on connaît celles
de x.
Proposition 7.39. Soit f une application linéaire de E dans F et soit A sa
matrice dans les bases (e1 , · · · , ep ) et (f1 , · · · , fn ). Si x = x1 e1 + · · · + xp ep et si
f (x) = y1 f1 + · · · + yn fn , on note




y1
x1




X :=  ...  et Y :=  ...  .
yn
xp
On a alors Y = AX.
Exercice 7.40. Démontrer la proposition précédente.
Exemple 7.41. Soit (e1 , e2 , e3 ) la base canonique de R3 
et soit
1
linéaire dont la matrice dans la base (e1 , e2 , e3 ) est égale à  −1
2
pour tous les réels x, y et z, on a

  

x + 2y + z
x
1 2 1
 −1 0 1   y  =  −x + z  .
2x + 3y + z
z
2 3 1
f
2
0
3
l’application

1
1 . Alors,
1
On a donc f (x, y, z) = (x + 2y + z, −x + z, 2x + 3y + z).
Dans la proposition suivante, G est un K-espace vectoriel de dimension q ≥ 1.
Soit (g1 , · · · , gq ) une base de G.
Proposition 7.42. Soit f une application linéaire de E dans F et soit g une application linéaire de F dans G. On note A la matrice de f dans les bases (e1 , · · · , ep )
et (f1 , · · · , fn ). On note B celle de g dans les bases (f1 , · · · , fn ) et (g1 , · · · , gq ).
Alors la matrice de g ◦ f dans les bases (e1 , · · · , ep ) et (g1 , · · · , gq ) est la matrice
BA.
Démonstration. Soit x un vecteur de E. Notons x1 , · · · , xp ses coordonnées dans
la base (e1 , · · · , ep ), (y1 , · · · , yn ) celles de f (x) dans la base (f1 , · · · , fn ) et enfin
(z1 , · · · , zq ) celles de g◦f (x) dans la base (g1 , · · · , gq ). Notons X, Y, Z les matricescolonnes correspondantes.
On peut donc écrire Y = AX et Z = BY d’où Z = B(AX) = (BA)X, ce qui
achève la preuve.
7.4. EXERCICES
81
Théorème 7.43. Soit f une application linéaire de E dans lui-même et soit A
sa matrice dans la base (e1 , · · · , ep ). L’application f est un isomorphisme si et
seulement si la matrice A est inversible. De plus, dans ce cas, la matrice de f −1
dans la base (e1 , · · · , ep ) est la matrice A−1 .
7.4
Exercices
Exercice 1
ω1 , ω2 et ω3 désignant les trois racines complexes de l’équation
x3 − px
 + q = 0,

ω1 ω2 ω3
ω1 ω2 ω3
et B :=  ω2 ω3 ω1 .
calculer AB et BA avec A :=
ω2 ω3 ω1
ω3 ω1 ω2
Exercice 2

0 1
 −1 0
On donne les trois matrices A := 
 0 0
0 0


0 0 0 1
 0 0 −1 0 

et C := 
 0 1 0 0  et l’on rappelle
−1 0 0 0
les relations


0
0 0
 0
0 0 
, B := 
 −1
0 −1 
0
1 0

1 0 0 0
 0 1 0 0
que I := 
 0 0 1 0
0 0 0 1
0
0
0
−1

1
0
0
0

0
1 

0 
0

. Vérifier

i) A2 = B 2 = C 2 = −I.
ii) BC = −CB = A.
iii) CA = −AC = B.
iv) AB = −BA = C.
Exercice 3 (Oulipo)
Effectuer le produit des

le
a
 un
a
le avait
deux matrices formées de mots suivantes :


chat
rat
lion
le
un   mangé dévoré dégusté 
poisson fromage touriste
un
Exercice 4
Soit A une matrice de taille n × n telle que A2 = A et A 6= In . Montrer que A
n’est pas inversible.
82
CHAPITRE 7. CALCUL MATRICIEL
Exercice 5
On considère ci-dessous des applications de Rn dans Rm données par des formules. Vérifier si elles sont linéaires et écrire leur matrice dans les bases canoniques. Identifier dans chaque cas le noyau et l’image de f .
2x + y
x
.
=
1. f
6y + 4x
y


x+y
x
=  2x − y .
2. f
y
−4x + 5y
 
x
3x
+
2y
+
z
.
3. f  y  =
2y + 5z
z

  
λx + y + z
x
4. f  y  =  x + λy + z .
x + y + λz
z

  
y−t
x
 y   x+z 

 
5. f 
 z  =  y − t .
x+z
t
Chapitre 8
Pivot de Gauss
8.1
8.1.1
Résolution des systèmes d’équations linéaires
Définition
Le problème est le suivant. On se donne une matrice A à n lignes et à p
colonnes ainsi qu’une matrice B à n lignes et à une colonne et l’on cherche à
résoudre l’équation linéaire
AX = B ,
où X est un vecteur colonne à p lignes de la forme



X := 

x1
x2
..
.
xp



.

On cherche tous les vecteurs colonnes qui satisfont l’égalité AX = B. En d’autres
termes, on considère un système de n équations à p inconnues et chaque équation
est linéaire en chacune des p inconnues :


a1,1 x1 + a1,2 x2 · · · + a1,p xp


 a2,1 x1 + a2,2 x2 · · · + a2,p xp
.. .. .. .. .. .. .. .. ..

. . . . . . . . .


 a x + a x ··· + a x
n,1 1
n,2 2
n,p p
= b1
= b2
.. ..
. .
= bn
Ce système est linéaire car chaque équation est de la forme ax + by + cz + dt = e
(si p = 4). En particulier, il ne figure ni produit, ni puissance des inconnues.
L’objet de ce chapitre est de décrire une méthode systématique et rapide de résolution de ce type de système. Cette méthode est le pivot de Gauss.
83
84
8.1.2
CHAPITRE 8. PIVOT DE GAUSS
Résolution par la méthode de la substitution
Avant de présenter la méthode du pivot, on résout un système de quatre équations à quatre inconnues par la méthode de la substitution, la méthode naturelle :

x+y+z+t=0



x + 2y + 3z + 4t = 2
.
x + 4y + 9z + 16t = 4



x + 8y + 27z + 64t = 8
On dit souvent “paramétrer, c’est résoudre.” Résolvons donc en paramétrant t en
fonction des variables x, y et z. On se sert pour cela de la dernière équation. Le
système est donc

x+y+z+t=0



x + 2y + 3z + 4t = 2
.
x + 4y + 9z + 16t = 4



1
t = 81 − 64
x − 81 y − 27
z
64
On remplace ensuite t par son expression dans les trois autres équations :
 63
56
x + 64
y + 37
z = − 18

64

 64
15
24
x + 16
y + 21
z = 23
16
16
.
3
9
x + 2y + 4 z = 2

4


1
x − 81 y − 27
z
t = 81 − 64
64
On simplifie l’écriture comme suit.

63x + 56y + 37z = −8



5x + 8y + 7z = 8
.
3x + 8y + 9z = 8



1
t = 81 − 64
x − 81 y − 27
z
64
On paramètre maintenant z en fonction de x et y à partir de la troisième équation :

63x + 56y + 37z = −8



5x + 8y + 7z = 8
.
z = 98 − 31 x − 98 y



1
t = 81 − 64
x − 81 y − 27
z
64
On remplace ensuite z par son expression dans les deux premières équations :
 152
x + 208
y = − 368

9
9

 83
16
128
x
+
y
=
−
3
9
9
.
z = 89 − 31 x − 98 y



1
t = 81 − 64
x − 81 y − 27
z
64
On simplifie l’écriture comme suit.

57x + 26y = −46



3x + 2y = 2
z = 98 − 31 x − 98 y



1
x − 81 y −
t = 81 − 64
.
27
z
64
8.2. APPROCHE DE LA MÉTHODE DU PIVOT
85
On paramètre maintenant y en fonction de x à partir de la deuxième équation :

= −46

 57x + 26y

3
y = 1 − 2x
.
z = 89 − 31 x − 98 y



1
t = 81 − 64
x − 81 y − 27
z
64
On remplace ensuite y par son expression dans la première équation :

18x = −72



y = 1 − 32 x
.
8
1
8

 z = 19 − 31 x − 91y

t = 8 − 64 x − 8 y − 27
z
64
On trouve alors x = −4 puis
3
y = 1 + 4 = 7.
2
Ensuite, on calcule z :
z=
8 1
8
+ 4 − 7 = −4
9 3
9
et enfin
1
1
27
1
+ 4 − 7 + 4 = 1.
8 64
8
64
On est parvenu à résoudre ce système d’équations mais l’on a fait un grand nombre
de calculs. Cette méthode n’est donc absolument pas raisonnable et l’on ne s’en
sert que si l’on a deux équations et deux inconnues. Subséquemment, on présentera
la méthode la plus rapide qui soit pour résoudre les systèmes d’équations linéaires.
t=
8.2
Approche de la méthode du pivot
Pour appréhender la méthode du pivot de Gauss, on va d’abord l’illustrer avec
le même exemple que précédemment. On considère le système (S0 ) :

x + y + z + t = 0



x + 2y + 3z + 4t = 2
.
(S0 ) :
x
+ 4y + 9z + 16t = 4



x + 8y + 27z + 64t = 8
On commence par numéroter

x +



x +
(S0 ) :
x
+



x +
les équations de 1 à 4 comme suit.
y
2y
4y
8y
+ z
+ 3z
+ 9z
+ 27z
+ t =
+ 4t =
+ 16t =
+ 64t =
0
2
4
8
(E1 )
(E2 )
.
(E3 )
(E4 )
86
CHAPITRE 8. PIVOT DE GAUSS
Intéressons-nous plus particulièrement à (E1 ) et à (E2 ). À partir de ces deux équations, il est facile de fabriquer de nouvelles relations qui doivent être satisfaites.
Par exemple, retranchons (E1 ) à (E2 ). On obtient une nouvelle équation (E2′ ) :
y + 2z + 3t = 2 .
Inversement, si (E1 ) et (E2′ ) sont satisfaites, (E2 ) l’est aussi (il suffit d’ajouter
(E1 ) à (E2′ )). On peut donc remplacer les deux équations (E1 ) et (E2 ) par les
deux équations (E1 ) et (E2′ ). Ainsi, à la résolution du système (S0 ), on substitue
la résolution du système équivalent (S0′ ) :

x + y + z + t = 0
(E1 )



y + 2z + 3t = 2
(E2′ )
(S0′ ) :
.
x + 4y + 9z + 16t = 4
(E3 )



x + 8y + 27z + 64t = 8
(E4 )
Nous avons éliminé l’inconnue x de la deuxième équation. Notre stratégie est
maintenant la suivante : on va effectuer une opération analogue à la précédente
pour éliminer l’inconnue x des équations (E3 ) et (E4 ). On obtient le nouveau
système

x + y + z + t = 0
(E1′ )



y + 2z + 3t = 2
(E2′ )
(S1 ) :
,
3y + 8z + 15t = 4
(E3′ )



7y + 26z + 63t = 8
(E4′ )
en ayant posé (E1′ ) := (E1 ). La variable x ne figure plus que dans la première
équation. Nous allons maintenant faire une démarche similaire pour que la variable
y ne figure plus que dans une seule équation elle aussi. Pour cela, nous allons nous
servir de la deuxième équation (comme pivot).
On remplace ici (E1′ ) par (E1′′ ) := (E1′ ) − (E2′ ), (E3′ ) par (E3′′ ) := (E3′ ) − 3 × (E2′ ) et
(E4′ ) par (E4′′ ) := (E4′ ) − 7 × (E2′ ). Et, on pose (E2′′ ) := (E2′ ). Le nouveau système
est alors

x
− z − 2t = −2
(E1′′ )



y + 2z + 3t = 2
(E2′′ )
(S2 ) :
.
2z + 6t = −2
(E3′′ )



12z + 42t = −6
(E4′′ )
On se sert maintenant de la troisième équation comme pivot pour éliminer la
variable z des équations 1, 2 et 4. On pose ici :
1
× (E3′′ ) ,
2
(E2′′′ ) := (E2′′ ) − (E3′′ ) ,
(E4′′′ ) := (E4′′ ) − 6 × (E3′′ ) ,
et (E3′′′ ) := (E3′′ )
(E1′′′ ) := (E1′′ ) +
8.3. NOTATIONS
87
On obtient le nouveau système :

x



y
(S3 ) :



+ t = −3
− 3t = 4
2z + 6t = −2
6t = 6
(E1′′′ )
(E2′′′ )
.
(E3′′′ )
(E4′′′ )
Enfin, faisons disparaître la variable t, sauf dans la dernière équation :
1
(E1′′′′ ) := (E1′′′ ) − × (E4′′′ ) ,
6
1
′′′′
′′′
(E2 ) := (E2 ) + × (E4′′′ ) ,
2
(E3′′′′ ) := (E3′′′ ) − (E4′′′ ) ,
et (E4′′′′ ) := (E4′′′ )
ce qui nous donne le nouveau système

x



y
(S4 ) :
2z



= −4
= 7
= −8
6t = 6
(E1′′′′ )
(E2′′′′ )
.
(E3′′′′ )
(E4′′′′ )
On trouve donc une unique solution :
x = −4 ,
y = 7,
z = −4 et t = 1 .
On retrouve la solution obtenue avec la méthode de la substitution. Toutefois, on
a effectué des calculs beaucoup moins compliqués et on en a effectué moins.
8.3
Notations
Pour améliorer le confort de la lecture, on présente la méthode du pivot comme
suit. On forme le tableau des coefficients du système, en séparant les coefficients
du second membre par une ligne verticale :
1
1
1
1
1 1 1 0
2 3 4 2
4 9 16 4
8 27 64 8
(E1 )
(E2 )
(E3 )
(E4 )
On choisit le premier élément de la première ligne (qu’on encadre), appelé premier
pivot. On conserve la ligne correspondante (ici, la première) et on soustrait à
chacune des autres le multiple adéquat de la première de manière à annuler le
coefficient dans la première colonne. Ainsi, on obtient le tableau
1
0
0
0
1 1 1 0
1 2 3 2
3 8 15 4
7 26 63 8
(E1′ ) := (E1 )
(E2′ ) := (E2 ) − (E1 )
(E3′ ) := (E3 ) − (E1 )
(E4′ ) := (E4 ) − (E1 )
88
CHAPITRE 8. PIVOT DE GAUSS
On choisit alors un deuxième pivot, à savoir l’élément à la deuxième colonne et à
la deuxième ligne, qu’on encadre. Puis, on élimine les coefficients de cette colonne
dans les trois autres lignes, comme précédemment. Pour ne pas oublier qu’on a
déjà utilisé un pivot dans la première ligne, on laisse l’encadrement autour du
premier élément de la première ligne. On obtient alors
1
0
0
0
0
1
0
0
−1 −2 −2
2
3
2
2
6 −2
12 42 −6
(E1′′ ) := (E1′ ) − (E2′ )
(E2′′ ) := (E2′ )
(E3′′ ) := (E3′ ) − 3 × (E2′ )
(E4′′ ) := (E4′ ) − 7 × (E2′ )
On choisit maintenant le troisième élément de la troisième ligne comme pivot :
1
0
0
0
0
1
0
0
0
0
2
0
1 −3
−3 4
6 −2
6
6
(E1′′′ ) := (E1′′ ) + 21 (E3′′ )
(E2′′′ ) := (E2′′ ) − (E3′′ )
(E3′′′ ) := (E3′′ )
(E4′′′ ) := (E4′′ ) − 6 × (E3′′ )
Enfin, on choisit le quatrième élément de la quatrième ligne comme pivot :
1
0
0
0
0
1
0
0
0
0
2
0
0
0
0
6
−4
7
−8
6
(E1′′′′ ) := (E1′′′ ) − 61 (E4′′′ )
(E2′′′′ ) := (E2′′′ ) + 21 (E4′′′ )
(E3′′′′ ) := (E3′′′ ) − (E4′′′ )
(E4′′′′ ) := (E4′′′ )
La réduction du tableau est achevée (on ne peut plus choisir de nouveau pivot).
On peut alors réécrire le système transformé correspondant :

x
= −4
(E1′′′′ )



y
= 7
(E2′′′′ )
(S4 ) :
,
2z
= −8
(E3′′′′ )



6t = 6
(E4′′′′ )
et l’on termine facilement la résolution du système.
Remarque 8.1. Dans cet exemple, on a pris tous les pivots sur la diagonale et
dans l’ordre. Ce n’est pas toujours le cas. Ici, on a procédé comme ceci car cela
facilitait les calculs.
8.4
Règles de choix des pivots
Dans le choix successif des pivots, on doit respecter les règles suivantes :
Règle numéro un : Les pivots sont choisis dans la partie à gauche du trait
vertical dans le tableau.
Règle numéro deux : On ne peut pas choisir un pivot dans une ligne ou une
8.5. REMARQUES FINALES
89
colonne où il y a déjà un pivot.
Règle numéro trois : Un pivot doit correspondre à un élément non nul du tableau.
Dans le respect de ces règles, tous les choix sont possibles, et il y a donc de multiples variantes suivant le choix des pivots. Si l’on cherche une résolution exacte
(comme c’est le cas ici, on choisit généralement les pivots les plus simples possibles). Au contraire, en analyse numérique où les calculs sont approchés, on prend
les pivots les plus grands possibles en valeur absolue.
La réduction du tableau des coefficients est terminée lorsqu’on ne peut plus choisir
un nouveau pivot en respectant les règles ci-dessus.
8.5
Remarques finales
Les équations correspondant aux lignes où figure un pivot sont appelées “équations principales”. Les autres, celles correspondant aux lignes où ne figure pas de
pivot sont appelées “équations auxiliaires”. Symétriquement, les inconnues correspondant aux colonnes où figure un pivot sont appelées “inconnues principales” et
les autres sont appelées “inconnues auxiliaires”.
Ce sont les équations auxiliaires qui servent pour discuter de l’existence de solutions. Ces équations n’ont que des 0 dans la partie gauche du tableau. Si le terme
de droite est nul dans une équation auxiliaire, l’équation peut être supprimée. Si
le terme est non nul, le système n’admet tout simplement pas de solution.
8.6
Exercices
Exercice 1
Calculer l’inverse des matrices suivantes :


1 2 −3
1 2
, B :=  0 1 2 
A :=
2 5
0 0 1

2
2 3
et C :=  1 −1 0 
−1 2 1
Exercice 2
Résoudre le système linéaire suivant

 3x + 2y + z = 3
x + 3y + 2z = 0

2x + y + 3z = −3

90
CHAPITRE 8. PIVOT DE GAUSS
Exercice 3
Déterminer le nombre a pour que le système linéaire suivant ait une solution

x − 3y − 4t = 1



−x + 3y + z + 2t = 2
−3x − y + 2z − 3t = a



7x − y − z − 4t = −4
On suppose maintenant que a prend cette valeur. Y a-t-il une ou plusieurs solutions ? Y a-t-il une solution pour laquelle y vaut 3 ? Si oui, écrire cette solution.
Exercice 4
Résoudre le système linéaire suivant

 3x + 2y − z = 2
2x + 5y + 4z = 3

3x + 7y + 4z = 1
Exercice 5
Résoudre le système linéaire suivant

 x + 2y + 4z = 4
3x + y + 2z = 6

5x + 5y + 10z = 6
Chapitre 9
Déterminant
Comme son nom l’indique, le déterminant détermine.
Ainsi, à une matrice A ou à une application linéaire f , on peut associer un scalaire
que l’on nomme déterminant. Et l’on a :
Théorème 9.1. Soit une matrice A (respectivement une application linéaire f ).
Son déterminant est nul si et seulement si la matrice A (respectivement l’application linéaire f ) n’est pas inversible (respectivement n’est pas bijective).
Le déterminant peut également être utilisé pour inverser une matrice même si
la méthode la plus simple pour inverser est le pivot de Gauss.
9.1
Les propriétés du déterminant
On définit maintenant le déterminant et l’on donne ses propriétés classiques.
On se place dans l’espace des matrices carrées n × n avec n ∈ N∗ .
Définition 9.2. Le déterminant est la seule forme n-linéaire alternée (ou antisymétrique, ce qui revient au même) sur Kn telle que le déterminant de la base
canonique est égal à 1.
Cette définition est rigoureuse mais certains termes n’ont pas encore été définis.
On les précise maintenant.
Soient n vecteurs de Kn , V1 , · · · , Vn . À ces n vecteurs, on associe un scalaire que
l’on nomme Dét (V1 , · · · , Vn ).
Définition 9.3. Le déterminant est une forme n-linéaire ce qui signifie que pour
tout i ∈ [[1; n]], l’application Vi 7→ Dét (V1 , · · · , Vn ) est une forme linéaire sur Kn .
Il reste à expliquer le terme “alternée”.
Définition 9.4. Le déterminant est une forme n-linéaire alternée ce qui signifie
que pour tous les indices 1 ≤ i < j ≤ n, pour tous les vecteurs V1 , · · · , Vn de Kn ,
on a alors :
Dét (V1 , · · · , Vi−1 , Vj , Vi+1 , · · · , Vj−1 , Vi , Vj+1 , Vn ) = −Dét (V1 , · · · , Vn ) .
91
92
CHAPITRE 9. DÉTERMINANT
Définition 9.5. Le déterminant d’une matrice correspond au déterminant des
colonnes de la matrice. Mais aussi, il correspond au déterminant des lignes de la
matrice.
Propriété 9.6. Soit une matrice A. On a alors Dét A = Dét AT .
Il est important d’avoir vu au moins une fois la définition “calculatoire” du
déterminant. Soit donc A une matrice carrée de taille n × n dont on note ai,j le
coefficient associé à la ligne i et à la colonne j. Alors, il vient
Dét A =
X
σ∈Sn
ǫ(σ)
Y
ai,σ(i) ,
1≤i≤n
où Sn est l’ensemble des permutations de [[1; n]]. Cette formule peut sembler opaque
mais elle a l’avantage de souligner qu’il y a exactement n! termes dans la somme.
Ici, ǫ(σ) est la signature de la permutation et traduit le côté alterné du déterminant. Comme vu précédemment, si on échange deux vecteurs, un −1 apparaît en facteur. Donc, si on fait k échanges, on a (−1)k en facteurs. Justement,
ǫ(σ) = (−1)Nombre d’inversions de σ .
Proposition 9.7. Le déterminant est un morphisme de groupe de (Mn (K), ×)
dans (K, ×). En d’autres termes, soient deux matrices A et B. Alors, on a
Dét (AB) = Dét A × Dét B
En particulier, on a Dét (AB) = Dét (BA).
Exercice 9.8. Soient deux matrices A et P . On suppose que la matrice P est
inversible. Prouver que l’on a Dét (P AP −1 ) = Dét (A).
De l’exercice précédent, on en déduit que l’on peut définir le déterminant d’un
endomorphisme comme étant le déterminant de n’importe laquelle de ses matrices
représentatives.
9.2
Le calcul du déterminant
La formule calculatoire n’est pas pratique à mettre en œuvre. On procède
autrement.
9.2.1
Pour une matrice de taille 1
Soit a ∈ K. On pose A := (a) la matrice de taille 1×1. Alors, il vient Dét A = a.
9.2. LE CALCUL DU DÉTERMINANT
9.2.2
93
Pour une matrice de taille 2
Notation 9.9. En dimension supérieure ou égale à 2, on écrit


a1,1 · · · a1,p a1,1 · · · a1,p

..  =: ..
.. .
...
...
Dét  ...

.
. .
an,1 · · · an,p an,1 · · · an,p
a b
Soient a, b, c, d quatre éléments de K. On a alors c d
9.2.3
Pour une matrice de taille 3
= ad − bc.
La méthode de Sarrus permet de calculer simplement et à coup sûr le déterminant d’une matrice de taille 3 × 3. La méthode ressemble d’ailleurs à la méthode
de calcul en dimension 2.


L1
a1,1 a1,2 a1,3


L2 .
a2,1 a2,2 a2,3
On se donne une matrice A =
L3
a3,1 a3,2 a3,3
On réécrit les lignes L1 et L2 en dessous de la ligne L3 . Puis on somme les trois
diagonales qui ont la forme \ avant de retrancher les trois diagonales qui ont la
forme /. Ainsi,
a1,1 a1,2 a1,3 a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3
a3,1 a3,2 a3,3 + a2,1 a3,2 a1,3
+ a3,1 a1,2 a2,3
− a1,3 a2,2 a3,1
− a2,3 a3,2 a1,1
− a3,3 a1,2 a2,1 .
Remarque 9.10. Il est important de préciser que la méthode de Sarrus ne fonctionne qu’en dimension trois. En effet, en dimension trois, utiliser 2 × 3 permutations permet de toutes les décrire (puisqu’elles sont au nombre de 3! = 6) mais
en dimension supérieure, on n’a jamais 2 × n = n!.
9.2.4
Pour une matrice de taille quelconque
9.2.4.1
Si la matrice est diagonale
Le déterminant d’une matrice diagonale est le produit de ses éléments diagonaux.
94
CHAPITRE 9. DÉTERMINANT
9.2.4.2
Si la matrice est triangulaire
Le déterminant d’une matrice triangulaire (supérieure ou inférieure) est le
produit de ses éléments diagonaux.
9.2.4.3
Opérations élémentaires sur les lignes et les colonnes
On se sert ici du caractère alterné du déterminant. En effet, si on prend i et j
tels que 1 ≤ i < j ≤ n ainsi que n vecteurs V1 · · · Vn de Kn , alors :
Dét (V1 , · · · , Vi−1 , Vj , Vi+1 , · · · , Vj−1 , Vi , Vj+1 , Vn ) = −Dét (V1 , · · · , Vn ) .
Et, si jamais Vi = Vj , on a alors


Dét V1 , · · · , Vi−1 , Vi , Vi+1 , · · · , Vj−1 , Vj , Vj+1 , Vn  = −Dét (V1 , · · · , Vn ) ,
|{z}
|{z}
=Vj
=Vi
ce qui se traduit par
Dét (V1 , · · · , Vn ) = 0 .
Conséquemment, en utilisant la linéarité du déterminant pour chaque ligne, quels
que soient les indices 1 ≤ i < j ≤ n, quels que soient les vecteurs V1 , · · · , Vn et
quel que soit le scalaire λ ∈ K, on a
Dét (V1 , · · · , Vi−1 , Vi + λVj , Vi+1 , · · · , Vj−1 , Vj , Vj+1 , · · · , Vn )
= Dét (V1 , · · · , Vi−1 , Vi , Vi+1 , · · · , Vj−1 , Vj , Vj+1 , · · · , Vn )
+ λDét (V1 , · · · , Vi−1 , Vj , Vi+1 , · · · , Vj−1 , Vj , Vj+1 , · · · , Vn )
= Dét (V1 , · · · , Vi−1 , Vi , Vi+1 , · · · , Vj−1 , Vj , Vj+1 , · · · , Vn ) .
Ainsi, si l’on cherche à calculer le déterminant d’une matrice



A=

L1
L2
..
.
Ln



,

9.2. LE CALCUL DU DÉTERMINANT
95
on peut tout aussi bien regarder celui de la matrice


L1


L2


..




.




Li−1


 1 × Li + λ × Lj 




Li+1
.

..


.




L


j−1


Lj




Lj+1




.
.


.
Ln
Les recommandations faites pour les opérations sur les lignes et les colonnes sont
les mêmes que celles faites pour le pivot de Gauss. On peut également permuter
les lignes et les colonnes mais en n’oubliant pas de multiplier par −1 à chaque fois
qu’on échange deux lignes (ou deux colonnes), ce −1 étant le fruit du caractère
alterné du déterminant. Grâce à la linéarité du déterminant sur chacun des n
vecteurs, on peut aussi factoriser. En effet, si une des lignes, disons L1 sans rien
changer à la généralité (car on peut permuter) est telle que L1 = λ × L̃1 alors, on
a:
L = λ × L̃ L̃ 1 1
1 L L
2
2 =
λ
.. .
..
. Ln Ln
Cela fonctionne aussi avec les colonnes.
Remarque 9.11. Toutefois, il est important de ne pas oublier qu’on ne peut
pas dire Dét (λ × A) = λDét (A) puisque c’est absolument faux. En fait, on a
Dét (λ × A) = λn Dét (A).
Les opérations élémentaires sur les lignes et les colonnes de la matrice permettent avant tout de simplifier pour ensuite utiliser l’arcane suprême du calcul
à savoir le développement par rapport à une ligne ou à une colonne.
C’est pourquoi son utilisation se doit d’être judicieuse. De manière générale, le
but est d’avoir le plus de 0 possible.
Une astuce qui peut s’avérer utile lorsque l’on a une grande matrice avec peu de
paramètres est de regarder si la somme des éléments de chaque colonne (ou ligne)
est identique. Si tel est le cas, on rajoute toutes les autres lignes à la première afin
d’avoir une ligne constituée de n fois le même élément d’où on peut se ramener à
simplifier via les techniques précédentes.
96
9.2.4.4
CHAPITRE 9. DÉTERMINANT
Le développement par rapport à une ligne ou à une colonne
Soit une matrice A de taille n ≥ 2 dont les coefficients sont ai,j (ligne i et
colonne j).

a1,1
a2,1
..
.





a
A =  i−1,1
 ai,1

ai+1,1
 .
 ..
an,1
···
···
···
···
···
···
···
···
a1,j−1
a2,j−1
..
.
a1,j
a2,j
..
.
a1,j+1
a2,j+1
..
.
···
···
a1,n
a2,n
..
.





ai−1,n 

a1,n 

ai+1,n 
.. 
. 
an,n
···
···
···
···
ai−1,j−1 ai−1,j ai−1,j+1
ai,j−1
ai,j
ai,j+1
ai+1,j−1 ai+1,j ai+1,j+1
..
..
..
.
.
.
···
an,j−1
an,j
an,j+1 · · ·
Définissons maintenant Ãi,j comme suit :

a1,1 · · · a1,j−1
a1,j+1
 a2,1 · · · a2,j−1
a2,j+1
 .
..
.
 .
..
.
···
 .

i,j
à = ai−1,1 · · · ai−1,j−1 ai−1,j+1

ai+1,1 · · · ai+1,j−1 ai+1,j+1
 .
..
..
 ..
···
.
.
an,1 · · · an,j−1
an,j+1
···
···
···
···
···
···
···

a1,n
a2,n
..
.






ai−1,n 

ai+1,n 
.. 
. 
an,n
Cela consiste simplement à barrer la ligne i et la colonne j.
Il peut sembler facile voire triviale d’enlever une ligne et une colonne mais il est
important d’apporter un soin particulier à l’écriture de cette matrice. Maintenant,
regardons le calcul du déterminant de A en développant par rapport à la première
colonne (on verra ensuite pour la colonne j) :


a1,j
a1,1
.
 . 
 ..
 . 
 .



Dét (A) = Dét  ai,1  ; · · · ;  ai,j
 . 
 .
 .. 
 ..
an,j
an,1


a1,n

 .. 

 . 



 ; · · · ;  ai,n 

 . 

 .. 


an,n


a1,1
 .. 
 . 


Notons (e1 , · · · , en ) la base dans laquelle on travaille. On a donc  ai,1  =
 . 
 .. 
an,1
Pn
a
e
.
i=1 i,1 i
9.2. LE CALCUL DU DÉTERMINANT
97
Par la linéarité du déterminant sur chacun des vecteurs, on obtient :


a1,j
a1,2
 ..
  .. 
 .
  . 
X


 
Dét (A) =
ai,1 Dét ei ,  ai,2  ; · · · ;  ai,j
 .
  . 
1≤i≤n
 ..
  .. 
an,j
an,2



a1,n

 .. 

 . 



 ; · · · ;  ai,n 

 . 

 .. 


an,n
En utilisant les opérations élémentaires sur les
 colonnes,
 on peut remplacer chaque
a1,j
 .. 
 . 


 ai−1,j 


colonne Cj par Cj − ai,j C1 = Cj − ai,j ei =  0 . D’où :


 ai+1,j 
 . 
 .. 
an,j

a1,2
  .. 
  . 

 
  ai−1,2 
X

 
Dét (A) =
ai,1 Dét ei ,  0  , · · ·

 
1≤i≤n
  ai+1,2 
  . 
  .. 
an,2



a1,j
 .. 
 . 


 ai−1,j 


, 0 ,···


 ai+1,j 
 . 
 .. 
an,j


a1,n
 .. 
 . 


 ai−1,n 


,  0 


 ai+1,n 
 . 
 .. 

an,n
ce qui se traduit par
X
Dét (A) =
ai,1 1≤i≤n
0
..
.
a1,2
..
.
0 ai−1,2
1
0
0 ai+1,2
..
..
.
.
0 an,2
···
..
.
···
···
···
..
.
···
a1,j
..
.
···
..
.
ai−1,j · · ·
0
···
ai+1,j · · ·
..
..
.
.
an,j · · ·
a1,n
..
.
ai−1,n
0
ai+1,n
..
.
an,n
On va maintenant permuter les lignes. D’abord, on inverse la ligne i et la ligne
(i − 1). Puis la ligne (i − 1) (la nouvelle, c’est-à-dire celle qui était en position i
avant) avec la ligne (i − 2), et ainsi de suite jusqu’à la seconde et la première.
Ainsi, on a ramené la ligne i en première position sans toucher à l’ordre des (n−1)
autres lignes.
On a été obligé de faire i − 1 transpositions pour cela.
98
CHAPITRE 9. DÉTERMINANT
Par conséquent, on doit multiplier par (−1)i−1
1
0
0 a1,2
.
..
.
.
.
X
Dét (A) =
ai,1 (−1)i+1 0 ai−1,2
1≤i≤n
0 ai+1,2
.
..
..
.
0 a
= (−1)i+1 . D’où :
n,2
···
···
..
.
···
···
..
.
···
0
a1,j
..
.
···
···
..
.
ai−1,j · · ·
ai+1,j · · ·
..
..
.
.
an,j · · ·
0
a1,n
..
.
ai−1,n
ai+1,n
..
.
an,n
Or, en reprenant la définition calculatoire du déterminant, on se sert du produit
des ai,σ(i) où σ est une permutation. Comme a2,1 = · · · = an,1 = 0, on ne somme
que sur les permutations qui fixent 1 ce qui revient à considérer les permutations
de [[2; n]] et donc, on a clairement :
1
0
···
0
···
0 a1,2 · · · a1,j · · · a1,n 0 a1,2 · · · a1,j · · · a1,n .
..
..
..
.. .
.
.
.
.
.
.
.
.
.
.
. .
..
..
..
..
.. .
ai−1,2 · · · ai−1,j · · · ai−1,n 0 ai−1,2 · · · ai−1,j · · · ai−1,n = ai+1,2 · · · ai+1,j · · · ai+1,n 0
a
·
·
·
a
·
·
·
a
.
i+1,2
i+1,j
i+1,n .. ..
..
..
.
..
..
..
..
.. ..
. .
.
.
..
.
.
.
.
. an,2 · · · an,j · · · an,n 0 a
··· a
··· a
n,2
n,j
n,n
ce qui est égal à Dét(Ãi,1 ). Ainsi, le développement par rapport à la première
colonne donne
n
X
Dét (A) =
ai,1 (−1)i+1 Dét (Ãi,1 )
i=1
Maintenant, si on avait voulu faire le développement par rapport à la colonne j,
on aurait d’abord permuter les colonnes pour se ramener à un développement par
rapport à la première colonne. Pour cela, on permute la colonne j avec la (j − 1),
puis la (j − 1) avec la (j − 2) et ainsi de suite jusqu’à la seconde avec la première.
Pour faire ceci, on utilise j − 1 transpositions, donc on multiplie par (−1)j−1 (qui
donnera donc (−1)i+j une fois multiplié à (−1)i+1 ) d’où la formule générale :
a1,1 · · · a1,j−1
a1,j+1 · · · a1,n a2,1 · · · a2,j−1
a
·
·
·
a
2,j+1
2,n .
..
..
.. .
.
·
·
·
.
.
·
·
·
. X
i+j ai,j (−1) ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n Dét (A) =
1≤i≤n
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n .
.. ..
..
..
. .
···
.
···
a
··· a
a
··· a
n,1
n,j−1
n,j+1
n,n
Cette méthode fonctionne en toute dimension et elle sera donc préférée à la méthode de Sarrus. De même, la définition barbare du déterminant ne sert jamais
dans le calcul.
9.3. EXERCICES
9.2.5
99
Pour une matrice de taille n non définie
Ici, il faut composer avec les deux précédentes méthodes. La plupart du temps,
il faut se ramener, par des opérations élémentaires, à un nombre suffisant de 0
dans la matrice pour calculer plus simplement.
Ensuite, avec un développement par rapport à une ligne ou à une colonne (un
développement judicieux évidemment, typiquement la première ligne ou la dernière ou même la première colonne ou la dernière), on peut obtenir une relation
de récurrence. À partir d’une telle relation, c’est de l’analyse.
Par ailleurs, dans le cadre d’une récurrence, on peut se servir du déterminant de
taille 1 pour l’implémenter.
9.3
Exercices
Exercice 1
1 2
Calculer les déterminants 2 5
Exercice 2
2 5 et 3 7 .
1 2 −1 2
3 −1 Calculer les déterminants 2 5 4 et 1 −3 1 .
3 7 4 −1 2
2 Exercice 3
Calculer le déterminant de la matrice (a − b)In + bJn où In est la matrice
identité tandis que Jn est la matrice de taille n × n constituée uniquement de 1.
Exercice 4
Calculer
1 2
5 4
1. 0 1
3 1
3 0
0 2
2. 2 4
3 2
les déterminants suivants :
3 4 3 2 .
0 2 0 0 1 1 1 1 .
5 1 4 1 100
3. CHAPITRE 9. DÉTERMINANT
1
1
3
0
1
0
1
2
1
2
2 3 4
1 0 2
2 1 0
0 −1 2
1 1 2
.
Chapitre 10
Réduction des endomorphismes
Dans tout ce chapitre, on se donne un corps K et un espace vectoriel E. On
rappelle qu’un endomorphisme de E est une application linéaire de E dans E.
10.1
10.1.1
Sous-espaces stables
Définition
Définition 10.1. Soit u un endomorphisme de E et F un sous-espace vectoriel
de E. On dit que F est stable par u (ou que u stabilise F) si pour tout x ∈ F,
u(x) ∈ F.
Si F est stable par u, la restriction u1 de u à F définie par u1 (x) := u(x) pour
tout x ∈ F est un endomorphisme de F.
Théorème 10.2. Soient u et v deux endomorphismes de E qui commutent :
u ◦ v = v ◦ u. Alors, Ker u et Im u sont stables par v.
Démonstration. Soit x ∈ Ker u. Par définition, u(x) = 0 donc v◦u(x) = v (u(x)) =
v(0) = 0. Et, comme u et v commutent, on a u (v(x)) = v ◦ u(x) = 0 d’où
v(x) ∈ Ker u.
′
′
Soit x ∈ Im u. Par définition,
il

 existe x ∈ E tel que x = u(x ). D’où v (x) =
v ◦ u(x′ ) = u ◦ v(x′ ) = u v(x′ ) = u(y ′ ) ∈ Im u.
| {z }
:=y ′
10.1.2
Matrices diagonales ou triangulaires par blocs
Théorème 10.3. On suppose que E est de dimension finie égale à n. On se donne
deux sous-espaces vectoriels supplémentaires : E = E1 ⊕ E2 avec dim E1 = n1 et
dim E2 = n2 = n − n1 .
S
On se donne une base adaptée B : B = B1 B2 où B1 est une base de E1 et B2
est une base de E2 .
101
102
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES
1) Alors un endomorphisme u de E stabilise E1 si et seulement si sa matrice dans
la base B est de la forme
A B
M=
(0) D
où A est une matrice carrée de taille n1 × n1 et D est une matrice carrée de taille
n2 × n2 .
2) De plus, on a
Dét M = Dét A × Dét D .
Exercice 10.4. Démontrer la première partie du théorème.
La seconde partie du théorème se démontre comme suit.
Démonstration. On définit les restrictions u1 et u2 de u aux sous-espaces vectoriels
E1 et E2 .
On définit maintenant deux nouveaux endomorphismes de E : v1 et v2 . Soit x ∈ E
quelconque. On peut écrire x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . On pose alors :
v1 (x) := u1 (x1 ) + x2 = u(x1 ) + x2 .
et
v2 (x) := x1 + u2 (x2 ) = x1 + u(x2 ) .


On en déduit alors v2 (v1 (x)) = v2 (v1 (x1 + x2 )) = v2 u(x1 ) +x2  = u(x1 ) +
| {z }
u(x2 ) = u(x) pour tout x ∈ E.
∈E1
A (0)
(0) In2
et la matrice de
La matrice de v1 dans la base adaptée B est M1 =
I n1 B
v2 est M2 =
. On a donc M = M1 × M2 . D’après les propriétés du
(0) D
déterminant, on en déduit
Dét M = Dét M1 × Dét M2 .
Or, en développant successivement par rapport à la dernière colonne, on obtient
Dét M1 = Dét A. Et, en développant successivement par rapport à la première
colonne, il vient Dét M2 = Dét D ce qui achève la preuve.
Théorème 10.5. On suppose que l’on a E = E1 ⊕ · ·S
· ⊕ Ep avec dim Ei = ni pour
tout i ∈ [[1; p]]. On se donne une base adaptée B = pi=1 Bi . Un endomorphisme
u de E stabilise chacun des sous-espaces E1 , · · · , Ep si et seulement si sa matrice
M dans la base B est un tableau diagonal de matrices carrées A1 , · · · , Ap de taille
n1 × n1 , · · · , np × np . De plus, dans ce cas, on a Dét M = Dét A1 × · · · × Dét Ap .
Pour démontrer ce théorème, on procède comme précédemment.
10.1. SOUS-ESPACES STABLES
10.1.3
103
Puissances d’un endomorphisme
Définition 10.6. Soit u un endomorphisme fixé de l’espace vectoriel E. On définit
sa puissance par récurrence :
– u0 := 1E .
– un+1 := u ◦ un .
Deux puissances d’un même endomorphisme commutent entre elles : un ◦ up =
un+p = up ◦ un .
Proposition 10.7. Soit un endomorphisme u. Alors :
{0} ⊂ Ker u ⊂ Ker u2 ⊂ · · · ⊂ Ker up ⊂ Ker up+1 ⊂ · · ·
Démonstration. Soit x ∈ Ker up . Alors up+1 (x) = u (up (x)) = u(0) = 0.
Exercice 10.8. Démontrer que s’il existe un entier p ∈ N tel que Ker up =
Ker up+1 alors Ker up = Ker up+r pour tout r ∈ N.
On a des résultats similaires avec les images des puissances d’un endomorphisme.
Proposition 10.9. Soit un endomorphisme u. Alors :
E ⊃ Im u ⊃ Im u2 ⊃ · · · ⊃ Im up ⊃ Im up+1 ⊃ · · ·
Exercice 10.10. Démontrer la Proposition.
Définition 10.11. L’endomorphisme u de E est dit nilpotent s’il existe p ∈ N tel
que l’on ait up = 0.
Définition 10.12. L’endomorphisme nilpotent u de E a pour ordre de nilpotence
p0 := min {p ∈ N : up = 0}.
10.1.4
Polynômes d’un endomorphisme
Définition 10.13. Soit un endomorphisme de E, u. On dit qu’un polynôme P
annule u si l’on a P (u) = 0 c’est-à-dire si pour tout x ∈ E, on a P (u)(x) = 0.
Proposition 10.14 (Existence du polynôme minimal). On suppose ici que E est
de dimension finie. Soit u un endomorphisme de E. Il existe un polynôme X - que
l’on appelle polynôme minimal de u - tel que les deux propositions suivantes sont
équivalentes pour tout polynôme P :
– Le polynôme P annule u.
– Le polynôme X divise P .
Remarque 10.15. Pour tout polynôme P , pour tout endomorphisme u de E, u
et P (u) commutent donc les espaces vectoriels Ker P (u) et Im P (u) sont stables
par u.
104
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES
Théorème 10.16. Soit u un endomorphisme de E et soient P et Q deux polynômes premiers entre eux (qui n’ont pas de racine commune). Alors :
Ker P Q(u) = Ker P (u) ⊕ Ker Q(u) .
Démonstration. Étape 1. Soit x ∈ Ker P (u). Par définition, P (u)(x) = 0. D’où
P Q(u)(x) = (P × Q) (u)(x) = (Q × P ) (u)(x) = Q(u) [P (u)(x)] = Q(u)(0) = 0 .
On en déduit Ker P (u) ⊂ Ker P Q(u) et de même Ker Q(u) ⊂ Ker P Q(u) d’où
Ker P (u) + Ker Q(u) ⊂ Ker P Q(u).
Étape 2. Soit x ∈ Ker P Q(u). Comme P et Q sont premiers entre eux, il existe
deux polynômes réels A et B tels que AP + BQ = 1. D’où
1E = A(u) ◦ P (u) + B(u) ◦ Q(u) ,
où 1E désigne l’identité sur E. On applique à x et l’on trouve :
x = (A × P )(u)(x) + (B × Q)(u)(x) .
{z
} |
{z
}
|
:=x2
:=x1
On peut vérifier facilement que l’on a P (u)(x1 ) = 0 et Q(u)(x2 ) = 0 d’où
x1 ∈ Ker P (u) et x2 ∈ Ker Q(u). Conséquemment, on a l’inclusion inverse :
Ker P Q(u) ⊂ Ker P (u) + Ker Q(u) d’où Ker P Q(u) = Ker P (u) + Ker Q(u).
T
Étape 3. Soit x ∈ Ker P (u) Ker Q(u). On rappelle l’égalité de l’Étape 2 :
x = (A × P )(u)(x) + (B × Q)(u)(x) .
Or, x ∈ Ker P (u) donc (A × P )(u)(x) = 0. De même, (B × Q)(u)(x) = 0. On en
déduit x = 0. Ceci achève la preuve.
On regarde maintenant une extension de ce résultat.
Théorème 10.17. Soit u un endomorphisme de E et soient P1 , · · · , Pk k polynômes premiers entre eux deux à deux. Alors :
Ker (P1 × · · · × Pk ) (u) = Ker P1 (u) ⊕ · · · ⊕ Ker Pk (u) .
Exemple 10.18. Soit un endomorphisme u de E. On suppose u4 = 1E . On va
décomposer E en somme directe de sous-espaces vectoriels dans le cas où le corps
de base est R.
On introduit le polynôme P par P (X) := X 4 − 1. On peut écrire P (X) = (X −
1)(X + 1)(X 2 + 1). Ces polynômes sont premiers entre eux, deux à deux. Il vient
ainsi :
E = Ker (1E − u) ⊕ Ker (1E + u) ⊕ Ker 1E + u2 .
Exercice 10.19. Décomposer E de la même manière sur le corps de base C.
10.2. RÉDUCTION DES ENDOMORPHISMES
10.2
10.2.1
105
Réduction des endomorphismes
Éléments propres d’un endomorphisme
Proposition 10.20. Soit un endomorphisme u de E. On suppose que u stabilise
une droite vectorielle (sous-espace vectoriel de dimension un) D de E : u (D) ⊂ D.
Alors, il existe λ ∈ K tel que u(x) = λx pour tout vecteur x ∈ D.
Il est important de préciser que la valeur λ ne dépend pas du vecteur x considéré.
Définition 10.21. La valeur λ s’appelle une valeur propre de u.
Tout vecteur non nul x de la droite vectorielle D est appelé un vecteur propre de
u.
Définition 10.22. L’ensemble des valeurs propres de u est appelé le spectre de u
et on le note Sp(u).
Définition 10.23. Le sous-espace propre associé à la valeur propre λ pour l’endomorphisme u est le sous-espace vectoriel de E
Eλ (u) := {x ∈ E : u(x) = λx} = Ker (u − λ1E ) ,
la réunion de tous les vecteurs propres de u pour λ et du vecteur nul.
On remarque que Eλ (u) est stable par u car u et u − λ1E commutent.
Remarque 10.24. Si u et v commutent, les sous-espaces vectoriels propres pour
u sont stables par v.
Le résultat suivant n’est valable qu’en dimension finie 1 .
Proposition 10.25. On suppose que E est de dimension finie. La valeur λ ∈ K
est une valeur propre de u si et seulement si Ker (u − λ1E ) est différent de {0}.
En d’autres termes, u − λ1E n’est pas inversible.
10.2.2
Cas de plusieurs valeurs propres
Théorème 10.26. Soit un endomorphisme u de E et soient λ1 , · · · , λp p valeurs
propres deux à deux distinctes de u. Alors :
– Toute famille (x1 , · · · , xp ) de vecteurs propres pour u associés respectivement
à λ1 , · · · , λp est libre.
– Les sous-espaces vectoriels Eλ1 (u), · · · , Eλp (u) sont en somme directe.
1. En dimension infinie, il faut faire de la théorie spectrale.
106
10.2.3
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES
Compléments
Soit un endomorphisme u de E. Soit λ une valeur propre de u et x un vecteur
propre associé.
p
Alors, pour tout p ∈ N, up (x) =
x (par récurrence). Ainsi, si P est un polynôme
Pλ
r
de K[X] de la forme P (X) = k=0 αk X k , on a
P (u)(x) =
r
X
k=0
On en déduit :
k
αk u (x) =
r
X
αk λk x = P (λ)x .
k=0
Proposition 10.27. Si λ est une valeur propre de u, pour tout polynôme P , P (λ)
est une valeur propre de P (u).
Si u annule un certain polynôme P : P (u) = 0, alors les valeurs propres de u sont
à rechercher parmis les racines de P .
10.2.4
Éléments propres d’une matrice carrée
Définition 10.28. Soit M une matrice carrée de taille n × n. On dit que λ ∈ K
est une valeur propre de M s’il existe un vecteur colonne non nul X ∈ Kn tel que
l’on ait M X = λX.
X est alors un vecteur propre de M associé à la valeur propre λ.
Définition 10.29. Le sous-espace propre de M associé à la valeur propre λ est
alors Ker (M − λIn ) = {X ∈ Kn : M X = λX}.
Remarque 10.30. Supposons que M soit la matrice de l’endomorphisme u de E,
espace vectoriel 
de dimension
n, dans la base B = (e1 , · · · , en ). Soit λ ∈ K. On

x1
 x2 


considère X :=  ..  ∈ Kn . X est un vecteur propre de M associé à λ si et
 . 
x
Pnn
seulement si ~x := i=1 xi ei ∈ E est un vecteur propre de u associé à λ.
En conclusion, deux matrices semblables - représentant le même endomorphisme relativement à deux bases différentes - ont les mêmes valeurs propres et
leurs sous-espaces propres associés à la même valeur propre ont même dimension.
Définition 10.31. Le spectre d’une matrice M de taille n × n est l’ensemble de
ses valeurs propres : Sp(M ) = {λ1 , · · · , λp }.
10.2.5
Polynôme caractéristique
Soit un espace vectoriel E de dimension finie n. On se donne une base B. Soit
u un endomorphisme de E. Il est représenté par une matrice carrée M dans la
base B. Soit λ ∈ K. On sait que λ est une valeur propre de u (ou de M ) si et
seulement si u − λ1E n’est pas inversible, ce qui équivaut à Dét (u − λ1E ) = 0.
10.3. DIAGONALISATION
107
Définition 10.32. On appelle polynôme caractéristique de u (respectivement de
M ) le polynôme de degré n :
Pu (X) = PM (X) = Dét (u − X1E ) = Dét (M − XIn ) .
Proposition 10.33. Les valeurs propres de u (respectivement de M ) sont les
racines de son polynôme caractéristique.
Remarque 10.34. Deux matrices carrées semblables ont le même polynôme caractéristique - à savoir celui de l’endomorphisme qu’elles représentent.
Définition 10.35. Soit λ une valeur propre de u (ou de M ). On appelle multiplicité m de la valeur propre λ l’ordre de multiplicité de λ en tant que racine du
polynôme caractéristique Pu (ou PM ) de u (ou de M ).
En d’autres termes, on a Pu (X) = (X − λ)m Q(X), Q(λ) 6= 0.
Proposition 10.36. On a m ≥ dim Eλ (u) ≥ 1.
Théorème 10.37 (Théorème de Cayley-Hamilton). Le polynôme caractéristique
de tout endomorphisme d’un espace E, de dimension finie, annule cet endomorphisme : Pu (u) = 0. De même : PM (M ) = 0.
La preuve de ce théorème n’est pas donnée. Vérifions toutefois cette assertion
en dimension égale à 2.
a b
. Par calcul, il vient
Exemple 10.38. Soit une matrice M =
c d
a−X
b
= X 2 − (a + d)X + (ad − bc).
PM (X) = c
d−X Conséquemment, on a
a b
+ (ad − bc)I2
− (a + d)
PM (M ) =
c d
2
2
a + ad ab + bd
a + bc ab + bd
−
=
ac + dc ad + d2
ca + dc bc + d2
ad − bc
0
+
0
ad − bc
0 0
.
=
0 0
10.3
a b
c d
2
Diagonalisation
Dans le reste du chapitre, E est un espace vectoriel de dimension finie n, de
base B.
108
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES
10.3.1
Endomorphismes et matrices diagonalisables
Définition 10.39. Soit u un endomorphisme de E représenté par la matrice M
dans la base B. On dit que u (ou M ) est diagonalisable s’il existe une base B ′ de
vecteurs propres pour u. Ceci équivaut à dire que M est semblable à une matrice
diagonale D : M = P DP −1 où P est la matrice de passage de la base B à la base
B′ .
Proposition 10.40. L’endomorphisme u est diagonalisable si et L
seulement si E
est égal à la somme directe des sous-espaces propres de u : E = ki=1 Eλi (u) où
λ1 , · · · , λk sont les valeurs propres deux à deux distinctes de u.
Dans ces conditions, on peut associer à la décomposition de E en somme directe
une
Lfamille de projecteurs (p
P1 , · · · , pk ) avec pi projection sur Eλi (u) parallèlement
à kj=1 Eλj (u). Alors, u = ki=1 λi pi .
j6=i
Remarque 10.41. L’endomorphisme u est diagonalisable si et seulement si la
somme des dimensions des sous-espaces propres pour u est égale à la dimension
de E.
Exemple 10.42. On a un cas particulier lorsque l’endomorphisme admet n valeurs propres distinctes, ce qui revient à dire que son polynôme caractéristique est
scindé sur K à racines simples :
Pu (X) = (X − λ1 ) × · · · × (X − λn ) .
Alors, u est diagonalisable et chacun de ses sous-espaces propres est une droite
vectorielle.
Démonstration. En effet, dim Eλi (u) ≥ 1 par définition d’une valeur propre. Par
conséquent,
n
X
dim Eλi (u) ≥ n .
i=1
Or, les sous-espaces vectoriels Eλi (u) sont en somme directe donc
n
X
dim Eλi (u) = n
i=1
et chacun des sous-espaces vectoriels est de dimension un (donc est une droite
vectorielle).
Remarque 10.43. Pour que u soit diagonalisable, il n’est pas nécessaire qu’il
admette n valeurs propres.
10.4. TRIANGULARISATION
10.3.2
109
Théorème fondamental
Théorème 10.44. Un endomorphisme de E est diagonalisable si et seulement si
l’endomorphisme annule un polynôme scindé à racines simples.
Démonstration. Soient λ1 , · · · , λp les valeurs propres deux à deux distinctes de u.
Alors les polynômes
entre eux deux à deux.
Q X − λ1 , · · · , X − λp sont premiersL
On pose P (X) := pi=1 (X −λi ). On a alors Ker P (u) = pi=1 Ker (u − λi 1E ). Puis,
par définition, u estL
diagonalisable si et seulement si E = Eλ1 (u) ⊕ · · · ⊕ Eλp (u) ce
qui équivaut à E = pi=1 Ker (u − λi 1E ). Ainsi, u est diagonalisable si et seulement
si E = Ker P (u) ce qui équivaut à P (u) = 0 où P est un polynôme scindé à racines
simples.
Remarque 10.45. Tous les endomorphismes ne sont pas diagonalisables.
10.4
10.4.1
Triangularisation
Définition
Définition 10.46. Soit u un endomorphisme de E représenté par la matrice M
dans la base B. On dit que u (ou M ) est triangularisable (ou trigonalisable) s’il
existe une base B ′ dans laquelle la matrice de u est triangulaire supérieure ou
inférieure. Alors, M = P T P −1 où T est triangulaire supérieure ou inférieure et
P est la matrice de passage de B à B ′ .
10.4.2
Théorème
Théorème 10.47. Tout endomorphisme dont le polynôme caractéristique est
scindé est triangularisable.
Immédiatement, on en déduit que si le corps de base K est C, alors tout
endomorphisme de E est triangularisable. De même, toute matrice complexe est
triangularisable.
Corollaire 10.48. Un endomorphisme est triangularisable si et seulement s’il
annule un polynôme scindé.
Remarque 10.49. Certaines matrices ne sont pas triangularisables sur R. Par
exemple, les matrices de rotation ne le sont pas (leurs valeurs propres ne sont pas
réelles).
10.4.3
Exercice

−2 −1 2
Triangulariser la matrice A =  −15 −6 11 .
−14 −6 11

110
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES
10.5
Applications de la diagonalisation
On regarde uniquement la diagonalisation des matrices carrées. On a des résultats similaires mais plus compliqués dans le cas de la triangularisation.
10.5.1
Calcul de la puissance énième d’une matrice carrée
Si M est diagonalisable, on a M

λ1

 0
M =P .
 ..
0
On peut démontrer par récurrence :
= P DP −1 où D est une matrice diagonale :

0 ··· 0
. . . .. 
λ2
.  −1
P .
... ...
0 
· · · 0 λn

10.5.2
λk1
0

 0
M k = P Dk P −1 = P  .
 ..
0
λk2
...
···

0
.. 
.  −1
P .
...
0 
0 λkn
···
...
Exponentielle d’une matrice carrée
la matrice du paragraphe précédent. Par définition, on a exp(M ) :=
P∞On1reprend
k
k=0 k! M . Conséquemment, il vient :
∞
X
1
P
exp(M ) =
k!
k=0
10.6





λk1
0
0
..
.
λk2
...
0
···

0
.. 
.  −1
P = P
...
0 
0 λkn
···
...





e λ1
0
0
..
.
e λ2
...
0
···

0
.. 
.  −1
P .
...
0 
0 e λn
···
...
Exercices
Exercice 1
Dire si les matrices suivantes sont diagonalisables, et si oui, donner une base
de diagonalisation.
4
2
.
1. A1 :=
−3 −1
1 2
.
2. A2 :=
2 1
0 −1
.
3. A3 :=
1 0
10.6. EXERCICES
4. A4 :=
5. A5 :=
6. A6 :=
2 −3
3 −4
5 1
−1 3
4 −8
2 −4
111
.
.
.
Exercice 2
Mêmes questions avec les matrices suivantes :


1 1 1
1. A1 :=  1 3 1 .
1 1 1


2 1 −2
2. A2 :=  4 4 −7 .
3 3 −5


1 1 0
3. A3 :=  0 1 0 .
0 1 1


−5 −8 −16
4. A4 :=  12 15 28 .
−4 −4 −7


3 1 −1
5. A5 :=  1 5 −1 .
0 2 2


1
0
0
4 .
6. A6 :=  −2 7
2 −6 −3
Exercice 3
Réduire les matrices suivantes en fournissant à chaque fois la matrice de passage et son inverse :


1 1 0
1. A1 :=  0 1 0 .
0 1 1


3 1 −1
2. A2 :=  1 5 −1 .
0 2 2


1 1 1
3. A3 :=  −1 3 2 .
0 0 2
112
CHAPITRE 10. RÉDUCTION DES ENDOMORPHISMES

1 1 0
4. A4 :=  1 1 −1 .
0 1 1


1 1 2
5. A5 :=  1 3 −1 .
−6 2 8


−1 2 2
6. A6 :=  −1 2 1 .
−1 1 2

Exercice 4

4 −1 −2
Soit la matrice C := 13  2 1 −2 . Quelle est la limite de C n quand n
1 −1 1
tend vers l’infini ?

Quatrième partie
Analyse
113
Chapitre 11
Nombres entiers naturels et
applications
11.1
11.1.1
Nombres entiers naturels
Construction de N
Définition 11.1. N est un ensemble non vide tel qu’il existe une injection s de N
dans N tel que tout élément de N, sauf un, que l’on note 0, admet un antécédent.
Si une partie A de N vérifie 0 ∈ A et pour tout n ∈ A, s(n) ∈ A alors A = N.
Définition 11.2 (Addition). Pour tout n ∈ N, 0 + n = n + 0 = n. Pour tous les
éléments n et m dans N, on a n + s(m) := s(n + m).
En d’autres termes, n+(m+1) :=(n+m)+1.
Définition 11.3 (Multiplication). Pour tout n ∈ N, n × 0 = 0 × n = 0. Pour tout
n, m ∈ N, on a n × s(m) := nm + n.
Ainsi définies, l’addition et la multiplication sont des lois de composition internes sur N.
Notation 11.4. On écrit 1 := s(0) et pour tout n ∈ N, s(n) = s(n + 0) =
n + s(0) = n + 1.
L’addition est commutative, associative et possède un élément neutre, 0.
Exercice 11.5. Le couple (N, +) est-il un groupe ?
La multiplication est commutative, associative et possède un élément neutre,
1.
Exercice 11.6. Le couple (N, ×) est-il un groupe ?
115
116 CHAPITRE 11. NOMBRES ENTIERS NATURELS ET APPLICATIONS
Définition 11.7 (Puissances dans N). On introduit les puissances ainsi : n0 = 1
si n 6= 0. 0n = 0 si n 6= 0.
Pour tous n, m dans N, on a ns(m) := nm × n.
Pour tous n, m, p dans N, on a (n × m)p = np × mp . Et : nm+p = nm × np . De
plus, nmp = (nm )p .
Définition 11.8 (Factorielle). 0! = 1. Et, pour tout n ∈ N, on a s(n)! = s(n)×n!.
11.2
11.2.1
Différentes formes de récurrence
Récurrence simple
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. On vérifie
– P (0) est vrai.
– Pour tout n ∈ N, si P (n) est vrai alors P (n + 1) est vrai.
Conclusion : pour tout n ∈ N, P (n) est vrai.
11.2.2
Récurrence à partir d’un certain rang
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. Soit p ∈ N
fixé. On vérifie
– P (p) est vrai.
– Pour tout n ∈ N, si P (n) est vrai alors P (n + 1) est vrai.
Conclusion : pour tout n ∈ N, si n ≥ p, alors P (n) est vrai.
11.2.3
Récurrence double
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. Soit p ∈ N
fixé. On vérifie
– P (p) et P (p + 1) sont vrais.
– Pour tout n ∈ N, si P (n) et P (n + 1) sont vrais alors P (n + 2) est vrai.
Conclusion : pour tout n ∈ N, si n ≥ p, alors P (n) est vrai.
11.2.4
Récurrence complète
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. On vérifie
– P (0) est vrai.
– Pour tout n ∈ N, si P (0), · · · , P (n) sont vrais alors P (n + 1) est vrai.
Conclusion : pour tout n ∈ N, P (n) est vrai.
11.2.5
Récurrence finie
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. On vérifie
– P (0) est vrai.
11.3. SUITES
117
– Pour tout n ∈ N, n ≤ p avec p ∈ N∗ , si P (n) est vrai alors P (n + 1) est vrai.
Conclusion : pour tout n ∈ [[0; p + 1]], P (n) est vrai.
11.2.6
Récurrence descendante
Soit P (n) un prédicat dont le paramètre n désigne un entier naturel. Soit p ∈ N
fixé. On vérifie
– P (p) est vrai.
– Pour tout n ∈ N avec n ≤ p, si P (n) est vrai alors P (n − 1) est vrai.
Conclusion : pour tout n ∈ [[0; p]], alors P (n) est vrai.
11.3
11.3.1
Suites
Définition
Une suite d’éléments de E est une application, notée u de N vers E. On note
un := u(n). On dispose de quelques
variantes où la suite n’est définie qu’à partir
1
d’un certain rang. Exemple : n n∈N∗ .
11.3.2
Suites définies à l’aide d’une relation de récurrence
Soit un ensemble E et une fonction f de E dans E. Soit a un élément du
domaine de définition de E. On définit la suite u par
u0 := a
et
un+1 := f (un ) .
La seule condition pour que cette suite soit bien définie est que l’on ait un dans
le domaine de définition de f pour tout n ∈ N.
Exemple 11.9 (Avec une fonction homographique). Soient (a, b, c, d) ∈ R4 avec
c 6= 0. On prend u0 := α 6= − dc . Pour tout n ∈ N, un+1 = f (un ) avec f (x) := ax+b
.
cx+d
11.3.3
Suites extraites
Soit (xn )n une suite d’éléments de E. Une suite (yn )n est dite extraite de la
suite (xn )n si et seulement s’il existe une application strictement croissante ϕ de
N dans N telle que yn = xϕ(n) .
Exemple 11.10. Les suites (x2n )n et (x2n+1 )n sont deux suites extraites de la
suite (xn )n .
118 CHAPITRE 11. NOMBRES ENTIERS NATURELS ET APPLICATIONS
11.3.4
Suites arithmétiques
Il s’agit d’une suite définie par une relation de récurrence :
u0 = a
et pour tout n ∈ N, on a
un+1 = un + r
où r est la raison de la suite u.
La suite (un )n est entièrement définie par la donnée de u0 = a et de la raison r.
En effet, pour tout n ∈ N, on a un = u0 + n × r. On peut aussi calculer la somme
des premiers termes de la suite comme suit :
Sn :=
n
X
p=0
11.3.5
up =
n
X
(a + pr) = (n + 1)a +
p=0
n(n + 1)r
n+1
=
(u0 + un ) .
2
2
Suites géométriques
Il s’agit d’une suite définie par une relation de récurrence :
u0 = a
et pour tout n ∈ N, on a
un+1 = un × q
où q est la raison de la suite u.
La suite (un )n est entièrement définie par la donnée de u0 = a et de la raison q.
En effet, pour tout n ∈ N, on a un = u0 q n . On peut aussi calculer la somme des
premiers termes de la suite comme suit :
Sn :=
n
X
up =
p=0
n
X
u0 q p = u0
p=0
1 − q n+1
,
1−q
si q 6= 1. Si q = 1, on est ramené au cas de la suite arithmétique. Pour obtenir ce
résultat, on utilise l’inégalité de Bernoulli :
a
n+1
−b
n+1
= (a − b)
n
X
ap bn−p .
(11.1)
p=0
Exercice 11.11. Prouver (11.1) par récurrence.
11.4
Exercices
Exercice 1
Soient p et n des entiers naturels non nuls tels que p ≤ n. Montrer que pCnp =
p−1
nCn−1
.
11.4. EXERCICES
119
Exercice 2
Exprimer
en fonction de n :
P
– Pnk=1 kCnk .
– Pnk=1 (−1)k+1 kCnk .
n
1
k
–
k=1 k+1 Cn .
Exercice 3
Soient p et n des entiers naturels tels que 0 ≤ p ≤ n. En utilisant le développement de (1 + X + X)n , montrer que l’on a
p
X
p−k
Cnk Cn−k
= 2p Cnp .
k=0
De même, déterminer
p
X
p−k
.
(−1)k Cnk Cn−k
k=0
Exercice 4
Montrer que, pour tout entier naturel n :
1+
n
X
k=1
k × k! = (n + 1)!
Exercice 5
d’éléments (p, n) d’éléments de N×N∗ , on associe le nombre Sp (n) =
PnAu couple
p
k=1 k . L’objet de cet exercice est de déterminer Sp (n).
1) Pour tout entier naturel non nul n, déterminer S0 (n) et S1 (n).
2) Soit un entier naturel non nul fixé. En utilisant le développement de (n + 1)p+1 ,
déterminer une relation de récurrence entre la suite finie (Sk (n))0≤k≤p−1 et Sp (n).
3) Utiliser ce résultat pour déterminer Sp (n) pour p ∈ [[2; 3]].
Exercice 6
1) Soient a et b deux nombres complexes. On définit la suite (un )n de nombres
complexes
par (u0 , u1 ) ∈ C2 et pour tout n ∈ N, un+2 = aun+1 + bun . On note
E := (un )n ∈ CN : un+2 = aun+1 + bun . Montrer que (E, +) est un groupe et
que pour tout u ∈ E, pour tout λ ∈ C, λu ∈ E.
2) Soient (αn )n et (βn )n les deux suites éléments de E telles que α0 = β1 = 1 et
α1 = β0 = 0. Montrer que pour tout u ∈ E, un = u0 αn + u1 βn .
3) Soit (vn )n une suite géométrique de premier terme v0 = 1 et de raison r. À
quelle condition sur r la suite (vn )n est-elle un élément de E ?
120 CHAPITRE 11. NOMBRES ENTIERS NATURELS ET APPLICATIONS
4) On suppose qu’il existe deux raisons r1 et r2 distinctes possibles pour une telle
suite (vn )n . Montrer qu’alors, pour toute suite u de E, il existe un couple unique
(λ, µ) ∈ C2 tel que un = λr1n + µr2n .
5) On suppose ici qu’il existe une unique raison r0 possible pour une telle suite
(vn )n . Montrer qu’alors la suite (nr0n )n est également élément de E et que pour
toute suite (un )n de E, il existe un couple unique (λ, µ) ∈ C2 tel que un =
λnr0n + µr0n .
Chapitre 12
Séries numériques
12.1
12.1.1
Généralités
Définition
Soit une suite de réels ou de complexes, (un )n∈N .
Définition 12.1.
P On définit (Sn )n≥0 , la suite des sommes partielles. Pour tout
n ∈ N : Sn := nk=0 uk . On dit que la série de terme général un converge si la
suite (Sn )n converge.
Notation 12.2. La série de terme générale un est aussi notée (
Définition 12.3. La limite de la série est S définie par
S := lim Sn = lim
n→∞
n→∞
n
X
k=0
uk =:
∞
X
P
un ).
uk .
k=0
12.1.2
Remarques
12.1.2.1
Correspondance entre suites et séries
Il yPa une correspondance bijective entre les suites et les séries. En effet, toute
série ( un ) est en fait la suite des sommes partielles.
P
Réciproquement, toute suite (un ) peut être considérée comme une série ( vn ).
On pose v0 := u0 et
vn := un − un−1 ,
pour tout n ≥ 1. En effet, on a alors
n
X
k=0
vk = u0 + (u1 − u0 ) + · · · + (un − un−1 ) = un .
121
122
CHAPITRE 12. SÉRIES NUMÉRIQUES
12.1.2.2
Changement d’un nombre fini de termes
P
Si on change un nombre fini de termes de la série ( un ), on ne change pas
la nature de cette série (convergente ou divergente). En revanche, si la série est
convergente, on change la somme de celle-ci.
12.1.2.3
Convergence vers 0
P
Pour que la série ( un ) soit convergente,
il est nécessaire que la suite (un )n
P
tende vers 0. En effet, si la série ( un ) converge, cela signifie que la suite des
sommes partielles (Sn )n converge vers une limite S. Puis, comme un = Sn − Sn−1 ,
on en déduit que un converge vers S − S = 0.
Cette condition n’est pas suffisante. On en donne un exemple par la suite.
12.1.3
Exemples
P
Contre-exemple 12.4. Soit la série
u
avec un := n1 pour tout n ∈
n
n≥1
∗
N . La suite (un )n tend vers 0 quand n tend vers l’infini. Toutefois, la série est
divergente.
Démonstration. On pose Tn := S2n . Alors, T0 = S1 = 1. Puis :
Tn+1 = S2n+1 = S2n +
n+1
2X
k=2n +1
1
2n
≥ Tn + n+1 .
k
2
|{z}
≥
1
2n+1
Conséquemment, on obtient Tn ≥ 1 + n2 . Ainsi, la suite de terme général S2n
converge vers l’infini. Comme un ≥ 0, on en déduit la croissance de la suite de
terme générale Sn . Ceci achève la preuve.
Donnons maintenant un exemple de série convergente.
Exemple 12.5. Pour tout n ≥ 1, on pose un :=
position en éléments simples et l’on obtient
un =
1
.
n(n+1)
On procède à une décom-
1
1
−
.
n n+1
D’où
Sn =
n X
1
k=1
1
−
k k+1
Donc, la série
P
=
1
1
1 1
1
1
1−
+
+· · ·+
= 1−
−
−
−→ 1 .
2
2 3
n n+1
n+1
1
n≥1 n(n+1)
est convergente et sa somme vaut 1.
12.1. GÉNÉRALITÉS
12.1.4
123
Espace vectoriel
Propriété 12.6 (sommePde sériesPconvergentes). Soient deux séries réelles ou
complexes convergentes ( un ) et ( vn ). Alors, la série de terme général un + vn
est convergente et l’on a de plus
∞
X
(un + vn ) =
n=0
∞
X
un +
n=0
∞
X
vn .
n=0
P
Propriété 12.7. Soit une série réelle ou complexe convergente ( un ). Soit λ ∈
C. Alors, la série de terme général λun est convergente et de plus
∞
X
(λun ) = λ
n=0
∞
X
un .
n=0
Exercice 12.8. Démontrer les Propriétés 12.6 et 12.7.
Propriété 12.9. La somme d’une série convergente et d’une série divergente est
une série divergente.
Remarque 12.10. On ne peut rien dire sur la somme de deux séries divergentes.
Exemple 12.11. On pose un := 1 et vn := 1. Les deux séries de terme général
un et vn sont divergentes (car les suites (un )n et (vn )n ne tendent pas vers 0) et
leur somme est divergente.
Contre-exemple 12.12. On pose un := 1 et vn := −1. Les deux séries de terme
général un et vn sont divergentes (car les suites (un )n et (vn )n ne tendent pas vers
0) mais leur somme est convergente.
P
Propriété 12.13. Soit une série réelle ou complexe divergente ( un ). Soit λ ∈
C∗ . Alors, la série de terme général λun est divergente.
Remarque 12.14. Dans la Propriété 12.13, on suppose λ non nul. En effet, si
l’on prenait λ = 0, on aurait pas forcément
∞
X
(λun ) = λ
n=0
∞
X
un .
n=0
Par exemple, avec un := 1, on a 0 dans le terme de gauche et 0 × +∞ dans celui
de droite.
12.1.5
Séries alternées
Définition 12.15. Une série réelle
signe constant.
P
n≥0
un est dite alternée si (−1)n un est de
124
12.1.5.1
CHAPITRE 12. SÉRIES NUMÉRIQUES
Critère spécial des séries alternées
Théorème 12.16. Soit une série réelle alternée, (
hypothèses suivantes :
– Le terme général un tend vers 0.
– La suite (|un |)n est décroissante.
P
Alors, la série ( un ) converge.
P
un ). On se donne les deux
Démonstration. On suppose, sans rien changer à la généralité : u2n > 0 et u2n+1 <
0. On a alors :
S2n+2 − S2n = u2n+2 + u2n+1 = |u2n+2 | − |u2n+1 | < 0
car la suite (|un |)n est décroissante. Ainsi, la suite (S2n )n est décroissante. De
même, la suite (S2n+1 )n est croissante. Puis, on remarque S2n − S2n+1 = −u2n+1 >
0. De plus, la quantité S2n − S2n+1 tend vers 0. Conséquemment, les deux suites
sont adjacentes donc convergent vers une même limite ce qui achève la preuve du
Théorème.
Proposition 12.17. Sous les hypothèses du Théorème 12.16, la somme totale est
encadrée par les sommes partielles consécutives et le reste est en valeur absolue
majoré par P
la valeur absolue du
Ppremier terme négligé. En d’autres termes, si on
note Sn := nk=0 uk et S∞ := ∞
k=0 uk , il vient
Sn ≤ S∞ ≤ Sn+1
ou
Sn+1 ≤ S∞ ≤ Sn
ainsi que
∞
X
u
k = |S∞ − Sn | ≤ |un+1 | .
k=n+1
De plus, le signe de S∞ est celui de u0 .
Exercice 12.18. Démontrer la Proposition 12.17.
P
(−1)n−1
. C’est une série alternée
Exemple 12.19. On regarde la série
n≥1
n
dont la valeur absolue du terme général tend vers 0 en décroissant. La série est
12.2. SÉRIES À TERMES RÉELS POSITIFS
125
donc convergente. On calcule maintenant sa limite comme suit.
∞
X
(−1)k−1
k=1
k
=
∞
X
(−1)k
k=0
k+1
= lim
n→∞
= lim
n→∞
= lim
n→∞
n
X
(−1)k
k+1
k=0
n Z 1
X
(−t)k dt
k=0 0
n
1X
Z
Z
(−t)k dt
0
k=0
1
1 − (−t)n+1
= lim
dt
n→∞ 0
1+t
Z 1
dt
= log(2) ,
=
0 1+t
après application du théorème de convergence dominé de Lebesgue.
12.2
Séries à termes réels positifs
On se restreint maintenant aux séries à termes réels positifs. En effet, on peut
permuter les termes d’une telle série alors que l’on ne peut pas forcément lorsque
la série est générale.
12.2.1
Théorème général de comparaison
P
Proposition 12.20. Soit une série
n≥0 un à termes réels positifs. Cette série
converge si et seulement si la suite (Sn )n des sommes partielles est majorée. Alors,
cette série a pour somme :
S = lim Sn = sup Sn .
n→+∞
n∈N
Démonstration. Si la série converge, la suite des sommes partielles est convergente
donc bornée et en particulier, elle est majorée.
La suite des sommes partielles est croissante car on a Sn+1 − Sn = un ≥ 0. Donc,
si la suite des sommes partielles est majorée, elle est convergente et sa limite est
son supremum ce qui achève la preuve.
P
P
Proposition 12.21. Soient deux séries à termes réels positifs
u
et
αn . On
n
P
suppose αn > 0 pour tout n ∈ N et un = O (αn ). Alors, si
αn converge, la série
de terme général un converge aussi.
126
CHAPITRE 12. SÉRIES NUMÉRIQUES
Démonstration. Sous les hypothèses de la Proposition 12.21, il existe M > 0 tel
que un ≤ M αn . D’où
Sn =
n
X
k=0
uk ≤ M
n
X
k=0
αk ≤ M
∞
X
αk .
k=0
La suiteP
des sommes partielles est donc majorée. On en déduit la convergence de
la série
un d’après la Proposition 12.20.
P
P
Proposition 12.22. Soient
deux
séries
à
termes
réels
positifs
u
et
vn . On
n
P
P
suppose un ∼ vn . Alors,
vn converge si et seulement si
un converge aussi.
Exercice 12.23. Prouver la Proposition 12.22
12.2.2
Séries de référence
On va se servir de la précédente section pour déterminer si des séries sont
convergentes ou divergentes. Pour cela, on a besoin de quelques séries de référence.
12.2.2.1
Séries géométriques
Ici, le terme général correspond à une suite géométrique :
un = q n , q ≥ 0 .
La suite des sommes partielles est
Sn = 1 + q + · · · + q n =
1 − q n+1
,
1−q
P
si q 6= 1. Si q = 1, on a Sn = n + 1 −→ +∞. Donc, si q = 1, la série
un diverge.
Puis, si q > 1, on a q n+1 −→ +∞ d’où Sn −→ +∞. Ainsi, la série diverge.
1
. La série converge donc. On peut
Si 0 ≤ q < 1, on a q n → 0 d’où Sn → 1−q
résumer ceci dans le résultat suivant.
P
Théorème 12.24. La série géométrique
q n avec q ≥ 0 converge si et
n≥0
P
1
n
seulement si 0 ≤ q < 1 et alors sa somme est ∞
n=0 q = 1−q .
12.2.2.2
Séries de Riemann
On présente ici la série de Riemann. Il s’agit aussi de la première définition de
la fonction ζ de Riemann.
P
1
Théorème 12.25. Soit α ∈ R. La série
converge si et seulement si
α
n≥1 n
α > 1.
12.2. SÉRIES À TERMES RÉELS POSITIFS
127
Démonstration. On peut prouver facilement ce résultat en utilisant le théorème
de comparaison avec une intégrale à savoir le Théorème 12.40. On va toutefois le
démontrer d’une autre manière.
Soit n ≥ 1 et α 6= 0. On a
!
−α
1
α
α 1
1+
= − α+1 .
−1 ∼−
α
n
nn
n
1
1
1
− α = α
α
(n + 1)
n
n
D’où l’on obtient l’équivalence
1
nα+1
1
∼
α
1
1
1
−
α
n
(n + 1)α
.
1
−
(n + 1)α−1
=: vn .
Puis, pour α 6= 1, il vient
1
1
∼
α
n
α−1
nα−1
On calcule la somme partielle de la série de terme générale vn :
Sn′
n
X
1
:=
vk =
α−1
k=1
1−
1
(n + 1)α−1
.
P
1
donc elle est majorée d’où la série
vn
Si α > 1, la suite Sn′ converge vers α−1
converge. La proposition 12.21 donne la convergence de la série de Riemann en
α > 1.
P
Réciproquement, si α < 1, la série
vn diverge d’où la divergence de la série de
Riemann en α < 1.
P1
Enfin, si α = 1, on est ramené au cas de la série harmonique
dont on a déjà
n
vu la divergence, voir le Contre-exemple 12.4 à la page 122.
Remarque 12.26. En d’autres termes, la fonction ζ définie par
ζ(α) :=
∞
X
n−α
n=1
n’est définie que si α > 1. On peut, à vrai dire, définir cette fonction sur le demiplan des complexes de partie réelle strictement supérieure à 1.
Vous pourrez voir définie la fonction zêta en dehors de ce demi-plan. TOUTEFOIS, la fonction de Riemann et la série de Riemann ne coïncident que sur ce
demi-plan.
128
CHAPITRE 12. SÉRIES NUMÉRIQUES
12.2.3
Comparaison logarithmique
On va maintenant comparer les quotients successifs entre deux séries, ce qui
nous donnera deux tests très utiles pour déterminer la nature (divergence ou
convergence) d’une série.
Théorème 12.27. Soient deux suites (un ) et (vn ) de réels strictement positifs tels
que, à partir du rang n0 , on a
∀n ≥ n0 ,
un+1
αn+1
≤
.
un
αn
Alors, un est dominé par αn : un = O (αn ).
Démonstration. Pour tout n ≥ n0 , on a
un = un 0 ×
un0 +1
un
× ··· ×
.
un 0
un−1
L’hypothèse du Théorème nous donne
u n ≤ un 0 ×
αn
un
αn0 +1
× ··· ×
= 0 αn .
αn0
αn−1
αn0
Ceci achève la preuve.
On obtient alors les deux tests suivants.
P
Théorème 12.28 (Critère de d’Alembert). Soit
un une série dont le terme
général un est un réel positif strictement. On suppose qu’il existe
un+1
−→ l .
un
Alors, si l < 1, la série
ne peut pas conclure.
P
un converge. Et, si l > 1, la série diverge. Si l = 1, on
P
Théorème 12.29 (Critère de Cauchy). Soit
un une série dont le terme général
un est un réel positif strictement. On suppose qu’il existe
√
n
un −→ l .
Alors, si l < 1, la série
ne peut pas conclure.
P
un converge. Et, si l > 1, la série diverge. Si l = 1, on
La preuve des deux théorèmes est laissée à l’attention du lecteur. Il s’agit d’un
bon exercice quant à l’utilisation des epsilons. On termine cette section en donnant
deux exemples.
12.3. SÉRIES À TERMES RÉELS OU COMPLEXES
129
Exemple 12.30 (Développement en série entière de l’exponentielle). Soit x ∈ R+
n
fixé. On pose un := xn! . On applique d’abord le critère de d’Alembert :
x
un+1
−→ 0 < 1 .
=
un
n+1
P xn
. On peut ainsi définir une fonction.
On en déduit la convergence de la série
n!
Une question naturelle est la continuïté ou non d’une série de fonctions continues.
On ne répondra pas à cette question dans ce chapitre.
On applique maintenant le critère de Cauchy :
√
n
x
un = √
.
n
n!
√
n√
Or, d’après la formule de Stirling, n! = nen 2πn (1 + o(1)). Aussi, il vient n n! ∼
√
n
. D’où n un converge vers 0. Il s’ensuit la convergence de la série.
e
On remarque ici qu’il est plus facile d’utiliser le critère de d’Alembert.
Exemple 12.31. On pose un := 2n12 . On applique d’abord le critère de d’Alembert :
2
un+1
2n
1
= (n+1)2 = 2n+1 −→ 0 < 1 .
un
2
2
P 1
On en déduit la convergence de la série
2.
2n
On applique maintenant le critère de Cauchy :
√
n
un =
1
−→ 0 < 1 .
2n
D’où la convergence de la série.
Ici, le critère de Cauchy était
plus simple à appliquer. On aurait aussi pu
1n
n2
n
noter : 2 > 2 d’où un = O 2 .
12.3
Séries à termes réels ou complexes
On va maintenant s’adosser autant que faire se peut aux séries à termes réels
strictement positifs.
P
Définition 12.32. Soit
un une série à terme général réel ou complexe.
On
P
dit que la série est absolument convergente si la série des modules
|un | est
convergente.
Remarque 12.33. Cette définition s’étend aux espaces vectoriels normés en général d’où l’on parle dans ce cours de convergence absolue dans le cas d’une série
de fonctions.
130
CHAPITRE 12. SÉRIES NUMÉRIQUES
Théorème 12.34. Toute série réelle ou complexe absolument convergente est
convergente. De plus, on dispose de l’inégalité triangulaire
∞
∞
X X
u ≤
|u | .
n=0 n n=0 n
P
Démonstration. Soit une série réelle ou complexe
un .POn suppose qu’elle est
absolumentP
convergente. Pour tout n ∈ N, on pose Sn := nk=0 uk . La convergence
de la série
un est équivalente à la convergence de la suite (Sn ). Montrons que
la suite (Sn ) est de Cauchy. Soient n, p ∈ N∗ . Alors :
n+p
X
uk .
|Sn+p − Sn | = k=n+1
On peut ensuite utiliser l’inégalité triangulaire car on a un nombre fini de termes
et l’on obtient
n+p
∞
X
X
|uk | ≤
|uk | ,
|Sn+p − Sn | ≤
k=n+1
k=n+1
P
car
|uk | est convergente.
P∞ Puis, comme la série est absolument convergente, on
en déduit que le reste k=n+1 |uk | tend vers 0 quand n est grand. Ainsi, pour tout
ǫ > 0, il existe n assez grand tel que |Sn+p − Sn | < ǫ pour tout p ∈ N. La suite
(Sn ) est ainsi de Cauchy. Comme les espaces R P
et C sont complets, on en déduit
que la suite (Sn )n est convergente donc la série
un converge.
P∞
Puis, on remarque : |Sn | ≤ k=0 |uk | pour tout n ∈ N, ce qui achève la preuve.
Remarque 12.35. Ce théorème est vrai dans tout espace vectoriel normé complet,
ce qui est le cas des espaces vectoriels de dimension fini et des espaces classiques
en théorie de la mesure.
P
sin(n) Exemple 12.36. La série n≥1 sin(n)
≤ n12 et la
converge
absolument
car
n2
n2 P 1
2
converge vers ζ(2) = π6 .
série
n2
P
(−1)n
Contre-exemple 12.37. La série
converge (vers log(2)) sans être
n≥1
n
P
1
diverge.
absolument convergente car la série ∞
n=1 n
Définition 12.38. Une série convergente mais non absolument convergente est
dite semi-convergente.
De telles séries ont des comportements bizarres.
Théorème 12.39 (Théorème de réarrangement de Riemann). Soit une série
P
un àSvaleurs réelles. On suppose qu’elle est semi-convergente. Alors, pour tout
A ∈ R {−∞; +∞}, il existe une bijection ϕ de N dans N telle que
n
X
k=0
uϕ(k) −→ A .
12.4. COMPARAISON ENTRE UNE SÉRIE ET UNE INTÉGRALE
On ne peut donc pas écrire
X
131
un .
n∈N
Ce théorème sert à illustrer l’humilité qu’il faut avoir quand on traite avec la
notion d’infini.
12.4
Comparaison entre une série et une intégrale
On dit souvent que l’intégration est une sommation. Dans cette section, on se
sert de cette façon de voir.
Théorème 12.40 (Cas des séries à termes réels positifs). Soit f une fonction de
R+ dans R. On suppose que f est continue par morceaux, positive et décroissante.
Rn
P
Alors, la série n≥1 wn converge avec wn := n−1 f (t)dt − f (n).
P
On en déduit que la série n≥1 f (n) converge si et seulement si la fonction f est
intégrable sur [0; +∞[.
Démonstration. On commence par faire un dessin :
Figure 12.1 – Comparaison entre une série et une intégrale
Comme f est décroissante, pour tout t ∈ [n−1; n], on a f (n) ≤ f (t) ≤ f (n−1)
d’où
Z n
Z n
Z n
Z n
f (n)dt ≤
f (t)dt ≤
f (n−1)dt ⇐⇒ f (n) ≤
f (t)dt ≤ f (n−1) .
n−1
n−1
n−1
n−1
On obtient ainsi
0 ≤ wn ≤ vn := f (n − 1) − f (n) .
La quantité vn est positive et l’on a
n
X
k=0
vk = (f (0) − f (1)) + (f (1) − f (2)) + · · · + (f (n − 1) − f (n))
= f (0) − f (n) −→ f (0) − l ,
132
CHAPITRE 12. SÉRIES NUMÉRIQUES
avec l :=
lim f (x). Cette limite existe car f est positive (donc minorée) et
P
décroissante. Donc la série
vn converge ce qui nous donne immédiatement la
P
convergence de la série
wn .
x→+∞
Sachant que la série
X Z
n≥1
n
n−1
f (t)dt − f (n)
Rn
P
converge, la série n≥1 f (n) converge si et seulement si la série n≥1 n−1 f (t)dt
converge, ce qui équivaut à l’intégrabilité sur [0; +∞[ de la fonction f car la
fonction f est positive.
P
Exemple 12.41. P
La fonction f définie par fR(x) := x1 est positive, décroissante
n
1
sur [1; +∞[. Donc wn converge, avec wn := n−1 dtt − n1 = log(n)−log(n−1)−
.
n
Pn
On
Pn en1déduit la convergence de la suite Sn définie par Sn := k=1 wk = log(n) −
k=1 k . On note
1
1
γ := lim 1 + + · · · + − log(n) .
n→+∞
2
n
Il s’agit de la constante d’Euler.
Mais, la fonction
f n’est pas intégrable sur R d’où la divergence de la série harP
1
monique, n≥1 n .
Exercice 12.42 (Séries de Bertrand). Soient α et β deux réels. On pose : un :=
P
log(n)β
. Déterminer la convergence de la série
un en fonction de α et β.
nα
Théorème 12.43 (Cas des séries réelles ou complexes). Soit f de R+ dans C de
classe C 1 telle que f ′ est intégrable sur R+ .
Rn
P
Alors, la série n≥1 wn est absolument convergente, avec wn := n−1 f (t)dt−f (n).
12.5
Exercices
Exercice 1
Étudier la convergence des séries de terme général :
n
1. 1 + n1 − e.
2. 2 log (n3 + 1) + 3 log (n2 + 1).
√
√
3. n n + 1 − n n.
6.
an
.
1+a2n
n
(−1)
√
.
n2 +n
n
(−1)
.
log(n)
7.
1!+···+n!
.
(n+2)!
4.
5.
12.5. EXERCICES
8.
1
.
log(n)log(n)
9.
√
10.
133
(−1)n
.
n+(−1)n
q
1+
(−1)n
√
n
− 1.
Exercice 2
1
1
4
2
Soit la suite de terme général uP
n := (n + n ) 4 − P (n) 3 où P est un polynôme.
À quelle condition sur P la série
un converge-t-elle ?
Exercice 3
(−1)n
Quelle est la nature de la série de terme général log 1 + √
Exercice 4
Soit α > 0. Étudier la série de terme général √ (−1)
α
n
n +(−1)n
Exercice 5
Calculer les sommes des séries suivantes :
P∞
1
1.
k=2 k2 −1 .
P∞
1
2.
k=1 k(k+1)(k+2) .
P∞
1
3.
k=0 k3 +8k2 +17k+10 .
P∞
1
4.
k=2 log 1 − k2 .
P∞
p n
5.
n=p Cn x .
.
n(n+1)
.
134
CHAPITRE 12. SÉRIES NUMÉRIQUES
Chapitre 13
Calcul intégral
13.1
Intégration sur un segment
Soient a et b deux réels tels que a < b. Dans cette section, on va s’intéresser à
l’intégration sur le segment [a; b].
13.1.1
Fonctions continues par morceaux
Définition 13.1. On appelle subdivision du segment [a; b] toute suite finie σ =
(xi )0≤i≤n strictement croissante telle que x0 = a et xn = b.
Définition 13.2. On appelle “pas de la subdivision” σ, le nombre
Π(σ) := sup (xi+1 − xi ) .
i∈[[0;n]]
Exemple 13.3. On donne une subdivision particulière. Soit n ∈ N∗ et pour tout
0
= b−a
. Ainsi, on obtient xi = a + i b−a
.
i ∈ [[0; n]], on a xi+1 − xi = Π(σ) = xn −x
n
n
n
Définition 13.4. Une fonction ϕ définie sur [a; b], à valeurs réelles, est dite en
escalier sur [a; b] si et seulement s’il existe une subdivision σ = (xi )0≤i≤n de [a; b]
telle que pour tout i ∈ [[0; n−1]], la restriction de la fonction ϕ à l’intervalle ouvert
]xi ; xi+1 [ est constante.
On a donc : pour tout i ∈ [[0; n − 1]], pour tout x ∈]xi ; xi+1 [, ϕ(x) = λi et pour
tout i ∈ [[0; n]], ϕ(x) = µi .
Définition 13.5. On dit que la subdivision σ = (xi )0≤i≤n est une subdivision
subordonnée à ϕ ou attachée à ϕ.
Théorème 13.6. On note E ([a; b]; R) l’ensemble des fonctions en escalier sur
[a; b]. Cet ensemble muni de l’addition et de la multiplication par un scalaire est
un espace vectoriel sur R. Si on le munit de l’addition et du produit, c’est un
anneau. Ainsi, (E ([a; b]; R) , +, ×, .) est une algèbre sur R.
135
136
CHAPITRE 13. CALCUL INTÉGRAL
Définition 13.7. On dit qu’une fonction f définie sur R est en escalier sur R
si et seulement si f est en escalier sur un segment de R et nulle en dehors de ce
segment.
Notation 13.8. On note E (R; R) l’ensemble des fonctions en escalier sur R.
Proposition 13.9. (E (R; R) , +, ×, .) est une algèbre sur R.
Proposition 13.10. Soit f une fonction continue par morceaux sur [a; b]. Cette
fonction f est alors bornée sur [a; b].
Démonstration. Soit σ = (xi )0≤i≤n la suite strictement croissante d’éléments de
[a; b] telle que x0 = a, xn = b et contenant tous les points de discontinuïté de f .
Alors σ est une subdivision de [a; b] telle que pour tout i ∈ [[0; n − 1]], la restriction
de f à ]xi ; xi+1 [ est continue sur ]xi ; xi+1 [.
Pour tout i ∈ [[0; n − 1]], on définit alors la fonction fi par fi (x) := f (x) pour
tout x ∈]xi ; xi+1 [, fi (xi ) = lim+ f (x) et fi (xi+1 ) = lim− f (x). La fonction fi est
x→xi+1
x→xi
définie sur [xi ; xi+1 ] et continue sur [xi ; xi+1 ]. La fonction fi est donc bornée sur
[xi ; xi+1 ]. On en déduit la bornitude de f .
Propriétés 13.11. 1. Toute fonction en escalier sur [a; b] est continue par morceaux sur [a; b].
2. Si f est une fonction continue par morceaux sur [a; b] et sur [b; c] (avec a <
b < c) alors f est continue par morceaux sur [a; c].
3. Si f est une fonction continue par morceaux sur [a; b], alors f + , f − et |f | le
sont également où l’on a f + := max (f ; 0) et f − = max (−f ; 0).
Théorème 13.12. Étant donnée une fonction f définie, continue par morceaux
sur le segment [a; b], pour tout réel ǫ > 0, il existe deux fonctions en escalier sur
[a; b], ϕ et ψ telles que ϕ ≤ f ≤ ψ et ψ − ϕ ≤ ǫ.
13.1.2
Intégrale d’une fonction en escalier
Définition 13.13. Soit ϕ une fonction en escalier sur [a; b]. Soit σ = (xi )0≤i≤n
une subdivision de [a; b] subordonnée à ϕ. Pour tout i ∈ [[0; n − 1]], il existe λi ∈ R
tel que pour tout x ∈]xi ; xi+1 [.
Alors, on définit l’intégrale de ϕ sur [a; b] par
I[a;b] (ϕ) =
n−1
X
i=0
λi (xi+1 − xi ).
Propriété 13.14. I[a;b] (ϕ) est un réel, indépendant de la subdivision σ subordonnée à ϕ.
13.1. INTÉGRATION SUR UN SEGMENT
137
Démonstration. Pour tout k ∈ [[0; n − 1]], pour tout y ∈]xk ; xk+1 [, pour tout x ∈
]xk ; y[, ϕ(x) = λk et pour tout x ∈ [y; xk+1 ], ϕ(x) = λk . Et :
λk (y − xk ) + λk (xk+1 − y) = λk (xk+1 − xk ).
Les valeurs ϕ(xk ), k ∈ [[0; n − 1]], pour toute subdivision σ = (xk )0≤k≤n−1 de [a; b]
subordonnée à ϕ n’interviennent pas dans le calcul de I[a;b] (ϕ).
I[a;b] (ϕ) est un nombre indépendant des valeurs prises par ϕ en un nombre fini de
points de [a; b]. Si ϕ et ψ sont en escalier sur [a; b] et si # {x ∈ [a; b] : ϕ(x) 6= ψ(x)}
est élément de N, alors I[a;b] (ϕ) = I[a;b] (ψ).
Propriété 13.15. L’application ϕ 7→ I[a;b] (ϕ) est une application linéaire de l’espace des fonctions en escalier sur [a; b] dans R.
Démonstration. Soient ϕ et ψ deux fonctions en escalier sur [a; b] et soit λ un réel.
Soit σ = (xk )0≤k≤n−1 une subdivision de [a; b] subordonnée à ϕ et ψ. Alors, pour
tout k ∈ [[0; n − 1]], pour tout x ∈]xk ; xk+1 [, ϕ(x) = λk et ψ(x) = µk .
On a :
(λϕ + ψ) (x) = λλk + µk .
Pn−1
Pn−1
Par définition, I[a;b] (ϕ) = k=0 λk (xk+1 − xk ) et I[a;b] (ψ) = k=0
µk (xk+1 − xk ).
D’où
I[a;b] (λϕ + ψ) =
=
n−1
X
k=0
n−1
X
(λλk + µk ) (xk+1 − xk )
[λλk (xk+1 − xk ) + µk (xk+1 − xk )]
k=0
n−1
X
=λ
k=0
λk (xk+1 − xk ) +
= λI[a;b] (ϕ) + I[a;b] (ψ) .
n−1
X
k=0
µk (xk+1 − xk )
Propriété 13.16. Si ϕ est une fonction en escalier positive sur [a; b], alors l’intégrale de ϕ sur [a; b], I[a;b] (ϕ), est positive.
Démonstration. Pour tout k ∈ [[0; n − 1]], λk ≥ 0 d’où λk (xk+1 − xk ) ≥ 0. On en
déduit la positivité de I[a;b] (ϕ).
On en déduit automatiquement que si deux fonctions en escalier sur [a; b], ϕ
et ψ sont telles que ϕ ≤ ψ, alors I[a;b] (ϕ) ≤ I[a;b] (ψ). Pour ce faire, on remarque
ψ = (ψ − ϕ) + ϕ, puis la positivité de l’intégrale de ψ − ϕ et la linéarité de
l’intégrale achèvent la preuve.
138
CHAPITRE 13. CALCUL INTÉGRAL
Propriété 13.17 (Relation de Chasles). Soient trois réels a < b < c. La fonction
ϕ est en escalier sur [a; c] si et seulement si elle est en escalier sur [a; b] et sur
[b; c]. De plus, il vient :
I[a;c] (ϕ) = I[a;b] (ϕ) + I[b;c] (ϕ) .
Il suffit de choisir une subdivision σ de [a; c] comprenant b pour faire la preuve.
13.1.3
et
Intégrale d’une fonction continue par morceaux
Soit f une fonction définie, continue par morceaux sur [a; b]. On pose
I − (f ) = I[a;b] (ϕ) : ϕ en escalier sur [a; b] telle que ϕ ≤ f
I + (f ) = I[a;b] (ψ) : ψ en escalier sur [a; b] telle que f ≤ ψ .
La fonction f est bornée sur [a; b]. En notant m := inf (f ) et M := sup(f ), on a
[a;b]
[a;b]
pour tout x ∈ [a; b] : m ≤ f (x) ≤ M . Soient ϕ0 et ψ0 les fonctions en escalier sur
[a; b] définies par ϕ0 (x) := m et ψ0 (x) := M pour tout x ∈ [a; b]. On a
ϕ0 ≤ f ≤ ψ 0 .
Conséquemment, I[a;b] (ϕ0 ) ∈ I − et I[a;b] (ψ0 ) ∈ I + . Or, le calcul nous donne
I[a;b] (ϕ0 ) = m(b − a) et I[a;b] (ψ0 ) = M (b − a).
On en déduit que I − (f ) et I + (f ) sont deux parties non vides de R. Soient ϕ et
ψ deux fonctions en escalier sur [a; b] vérifiant ϕ ≤ f ≤ ψ. En particulier, ϕ ≤ ψ
d’où I[a;b] (ϕ) ≤ I[a;b] (ψ).
Par conséquent, tout élément de I − (f ) est minorant de I + (f ) et tout élément de
I + (f ) est majorant de I − (f ). Ainsi, I − (f ) est une partie non vide majorée de
R. Par construction de R 1 , elle admet une borne supérieure I1 (f ). Et de même,
I + (f ) est une partie non vide minorée de R. Elle admet donc une borne inférieure
I2 (f ). De plus, on a
m(b − a) ≤ I1 (f ) ≤ I2 (f ) ≤ M (b − a) .
Or, d’après le Théorème 13.12, pour tout ǫ > 0, il existe deux fonctions en escalier
ϕǫ et ψǫ telles que 0 ≤ ψǫ − ϕǫ ≤ ǫ. Il vient I[a;b] (ϕǫ ) ∈ I − et I[a;b] (ψǫ ) ∈ I + . On
en déduit
0 ≤ I2 (f ) − I1 (f ) ≤ I[a;b] (ψǫ − ϕǫ ) ≤ I[a;b] (ǫ) = ǫ(b − a) .
En conséquence, I2 (f ) = I1 (f ).
Cette
valeur commune est appelée l’intégrale sur [a; b] de la fonction f , notée
R
f
.
[a;b]
Toutes les propriétés vraies pour l’intégrale d’une fonction en escalier le sont
également pour l’intégrale d’une fonction continue par morceaux.
1. Corps contenant Q et dont toute partie non vide et majorée admet une borne supérieure.
13.1. INTÉGRATION SUR UN SEGMENT
139
R
Propriétés 13.18. 1. L’intégrale [a;b] f est un réel indépendant des valeurs prises
par f en un nombreRfini de points de [a; b].
2. La fonction f 7→ [a;b] f est une application linéaire de l’ensemble des fonctions
continues par morceaux sur [a; b] dans R.
R3. SoientRf et g deux fonctions continues par morceaux sur [a; b]. Si f ≤ g alors
f ≤ [a;b] g.
[a;b]
Propriété 13.19 (Inégalité triangulaire). Soit f une fonction définie, continue
par morceaux sur [a; b]. Alors, on a
Z
Z
|f | .
f ≤
[a;b]
[a;b]
Démonstration. La fonction |f | est également continue par morceaux et l’on a de
plus : −|f | ≤ f ≤ |f |. Par conséquent, on dispose de l’inégalité
Z
Z
Z
−|f | ≤
f≤
|f | .
[a;b]
[a;b]
La linéarité de l’intégrale nous donne
Z
Z
−
|f | ≤
[a;b]
[a;b]
[a;b]
f≤
Z
[a;b]
|f | .
Ceci achève la preuve.
Proposition 13.20 (Relation de Chasles). Soient a, b, c trois réels vérifiant a <
b < c. Soit f une fonction définie, continue par morceaux sur [a; c]. Cette fonction
est donc définie, continue par morceaux sur [a; b] et sur [b; c]. La réciproque est
vraie. De plus, on a
Z
Z
Z
f=
f+
f.
[a;c]
[a;b]
[b;c]
Proposition 13.21 (Inégalité de la moyenne 2 ). Soient f et g deux fonctions
continues par morceaux sur [a; b], alors la fonction f g est continue par morceaux
sur [a; b]. De plus, on a
Z
Z
f g ≤ sup |f |
|g|
[a;b]
[a;b]
[a;b]
Exercice 13.22. En procédant comme dans la preuve de la Propriété 13.19, démontrer l’inégalité de la moyenne.
Remarque, en prenant g = 1[a;b] , on retrouve
Z
≤ sup |f |(b − a) .
f
[a;b]
2. Cas particulier de l’inégalité de Hölder.
[a;b]
140
CHAPITRE 13. CALCUL INTÉGRAL
Théorème 13.23 (Théorème fondamental). Soit une fonction f définie, continue à valeurs réelles positives sur le segment [a; b]. Cette fonction est nulle si et
seulement si son intégrale est nulle.
Démonstration. On sait déjà que si f est nulle alors son intégrale est nulle. Il reste
à prouver que si son intégrale est nulle, elle est nulle. On procède par contraposée.
Soit une fonction f continue par morceaux, positive et non nulle. Il existe donc
x0 ∈ [a; b] tel que f (x0 ) > 0. La fonction f est continue en x0 . En choisissant
ǫ := f (x2 0 ) > 0, il existe α > 0 tel que ]x0 − α; x0 + α[⊂ [a; b] et tel que pour tout
x ∈]x0 − α; x0 + α[, on a |f (x) − f (x0 )| < f (x2 0 ) . Il vient
3f (x0 )
f (x0 )
< f (x) <
,
2
2
si x ∈]x0 − α; x0 + α[.
Soit ϕ la fonction en escalier sur [a; b] définie par
– Pour tout x ∈ [a; x0 − α], ϕ(x) = 0.
– Pour tout x ∈ [x0 − α; x0 + α], ϕ(x) = f (x2 0 ) .
– Pour tout x ∈ [xR0 + α; b], ϕ(x) = 0.
R
Le calcul nous donne [a;b] ϕ = αf (x0 ). Or, α > 0 et f (x0 ) > 0 donc [a;b] ϕ > 0.
Puis, comme ϕ ≤ f , on obtient la positivité stricte de l’intégrale de f sur [a; b].
Proposition 13.24 (Inégalité de Cauchy-Schwarz 3 ). Soient f et g deux fonctions
définies, continues sur le segment I = [a; b] alors :
sZ
Z
sZ
f g ≤
f2
g2 .
I
I
I
De plus, il y a égalité si et seulement si les deux fonctions sont colinéaires.
Démonstration. Si f est identiquement nulle, l’inégalité est vérifiée.
Si f n’est pas identiquement nulle, la fonction f 2 est continue, positive et non
identiquement nulle. Donc, d’après le théorème fondamental, l’intégrale de f 2
n’est pas égale à 0. De plus, pour tout λ ∈ R, (λf + g)2 est une fonction continue
sur [a; b] et à valeurs dans R+ . Il vient ainsi :
Z
(λf + g)2 ≥ 0
I
On développe (λf + g)2 et l’on utilise la linéarité de l’intégrale. On en déduit
Z
Z
Z
2
2
f + 2λ f g + g 2 ≥ 0 ,
P (λ) := λ
I
3. Ne pas confondre Schwarz avec Schwartz
I
I
13.1. INTÉGRATION SUR UN SEGMENT
141
pour tout λ ∈ R. P est un trinôme du second degré en λ et il est de signe constant.
Conséquemment, son discriminant est négatif ou nul ce qui équivaut à
Z
fg
I
2
≤
Z
2
I
f ×
Z
g2 .
I
De plus, il y a égalité si et seulement s’il existe λ0 tel que P (λ0 ) = 0 ce qui signifie
Z
(λ0 f + g)2 = 0 .
I
D’après le théorème fondamental, il vient λ0 f + g = 0. La preuve est achevée.
On donne maintenant une extension de la notion d’intégrale. Soit I un intervalle de R et f une fonction définie, continue
sur I, à valeurs
R
R bpar morceaux
2
réelles. Pour tout (a; b) ∈ I , si a ≤ b, on pose a f := [a;b] f . Si a > b, on pose
R
Rb
f.
f
:=
−
[a;b]
a
Toutes les propriétés précédentes sont encore vraies.
13.1.4
Sommes de Riemann
Dans ce paragraphe, on donne quelques résultats classiques sur l’approximation
de l’intégrale d’une fonction f continue par une somme de Riemann de la fonction
f subordonnée à une subdivision σ de [a; b]. Les preuves sont omises car elles sont
trop techniques. On ne présente d’ailleurs pas les résultats généraux.
Pour tout n ∈ N, on considère la subdivision de pas constant égal à
.
(xk )0≤k≤n définie par xk = a + k b−a
n
b−a
n
: σn =
Définition 13.25. La n-ième somme de Riemman associée à la fonction f sur le
segment [a; b] est définie par
n
n
1X
1X
Rn (f ) :=
f (xk ) =
f
n k=0
n k=0
b−a
a+k
n
Théorème 13.26. On a la convergence suivante :
Z
1
f.
lim Rn (f ) =
n→+∞
b − a [a;b]
En d’autres termes, on a
n
1X
lim
f
n→+∞ n
k=0
b−a
a+k
n
1
=
b−a
Z
f.
[a;b]
.
142
CHAPITRE 13. CALCUL INTÉGRAL
Exemple 13.27. Soit p ∈ N∗ . Pour tout n ∈ N∗ , on pose
Sp (n) :=
n−1
X
kp.
k=0
On cherche un équivalent pour n tendant vers l’infini de Sp (n).
Pour ce faire, on remarque
n−1
Sp (n)
1X
=
np+1
n k=0
p
k
.
n
On introduit la fonction fp (x) := xp . Ainsi, il vient
n−1
1X
Sp (n)
=
fp
np+1
n k=0
Donc Sp (n) est équivalent à
13.2
13.2.1
Z
1
k
1
−→
.
fp =
n
1 − 0 [0;1]
p+1
np+1
.
p+1
Intégration et dérivation
Primitive et intégrale d’une fonction continue
Soit f une fonction définie, continue sur [a; b] (a <Rb). Pour
R tout x ∈ [a; b], la
x
fonction f est définie, continue sur [a; x] et le nombre a f = [a;x] f est défini.
Définition 13.28. Une fonction F définie sur [a; b] est une primitive de f sur
[a; b] si et seulement si F est dérivable sur [a; b] et telle que F ′ = f .
Théorème 13.29. Étant donnés une fonction f définie, continue Rsur un intervalle
x
I de R, à valeurs réelles, et un élément a de I, la fonction x 7→ a f est l’unique
primitive de f sur I qui s’annule en a.
Exercice 13.30. Démontrer le théorème.
On peut utiliser ce résultat pour calculer une intégrale :
Z b
Z b
f (t)dt = F (b) − F (a) = [F (t)]ba
f=
a
a
13.2.2
Méthodes d’intégration
13.2.2.1
Intégration par parties
Soient u et v deux fonctions de classe C 1 sur un segment [a; b]. On a alors
(uv)′ (x) = u′ (x)v(x) + u(x)v ′ (x) .
13.2. INTÉGRATION ET DÉRIVATION
143
Conséquemment, on a
u(x)v ′ (x) = (uv)′ (x) − u′ (x)v(x) .
On en déduit
Z
b
′
Z
Z
b
b
(uv) (t)dt −
u′ (t)v(t)dt
a
a
Z b
u′ (t)v(t)dt .
= [u(t)v(t)]ba −
u(t)v (t)dt =
a
′
a
Rb
Le problème est le suivant : lorsqu’on doit effectuer le calcul de a f (t)dt, il faut
identifier les fonctions u et v telles que f = uv ′ et telles que l’intégrale de u′ v soit
plus facile à calculer que celle de f .
13.2.2.2
Changement de variable
Étant données une fonction f définie, continue sur R ou sur un intervalle I de
R et une fonction ϕ à valeurs dans I, de classe C 1 sur le segment [α; β], on a
Z
Z
ϕ(β)
f (t)dt =
ϕ(α)
β
α
(f ◦ ϕ)(t)ϕ′ (t)dt
R ϕ(x)
Démonstration. Soit F la fonction définie par F (x) := ϕ(α) f (t)dt. La fonction
Rx
F est la composée de ϕ et de la fonction F0 (x) := ϕ(α) f (t)dt, de fonction dérivée
f . Ainsi :
F ′ (x) = ϕ′ (x) × (F0′ ◦ ϕ) (x) = (f ◦ ϕ)(x)ϕ′ (x) .
Conséquemment, on a
F (x) =
Z
x
α
(f ◦ ϕ)(t)ϕ′ (t)dt + C, C ∈ R .
Rx
R ϕ(α)
Or, F (α) = ϕ(α) f (t)dt = 0 = C. On en déduit F (x) = α (f ◦ ϕ)(t)ϕ′ (t)dt. En
particulier, en prenant x = β, on trouve le résultat.
Rπ
Exemple 13.31. On cherche à calculer J = 02 sin3 (x)dx. On remarque : J =
Rπ
2
(1 − cos2 (x)) sin(x)dx. On pose y := cos(x) d’où dy = − sin(x)dx. Il vient
0
J =−
Z
0
2
1
(1 − y )dy =
Z
Exercice 13.32. Montrer que l’on a
1
0
y3
(1 − y )dy = y −
3
2
Rπ
2
0
sin(x)
dx
1+cos(x)
= log(2).
1
0
=
2
.
3
144
CHAPITRE 13. CALCUL INTÉGRAL
13.2.2.3
Règles de Bioche
Les règles de Bioche sont utilisées lorsque l’on cherche à intégrer une fraction
rationnelle de fonctions trigonométriques (cosinus, sinus, tangente). L’idée est de
faire un changement de variable adéquat. Les règles de Bioche nous disent quel
est le bon changement de variable à faire.
Propriété 13.33. Soit f une fonction de la forme f (t) = G(cos(t), sin(t)) où G
est une fraction rationnelle à deux variables. On pose
dω(t) := f (t)dt .
dω est une forme différentielle.
– Si dω(−t) = dω(t), on applique le
– Si dω(π − t) = dω(t), on applique
– Si dω(π + t) = dω(t), on applique
– Sinon, on applique le changement
changement de variable y := cos(t).
le changement de variable y := sin(t).
le changement de variable
y := tan(t).
t
de variable y := tan 2 .
Il est important de ne pas oublier le dt. Ainsi, d(−t) = −dt, d(π − t) = −dt,
d(π + t) = dt. Pour le quatrième changement de variable, on rappelle
cos(t) =
où y = tan
t
2
1 − y2
,
1 + y2
sin(t) =
2y
1 + y2
et
tan(t) =
.
13.2.2.4 Quelques primitives usuelles
R
– R tan(x)dx = − log | cos(x)|.
– sin(x)1cos(x) dx = log | tan(x)|.
R
– R tan2 (x)dx = tan(x)
−x.
1
dx = log tan x2 .
– sin(x)
R 1
dx = log tan x2 + π4 .
– cos(x)
R 1
– cosh(x)
dx = 2 arctan(ex ).
R dx
– a2 +x2 = a1 arctan xa .
x−a R
1
.
– x2dx
= 2a
log x+a
−a2
13.3
Intégrales généralisées
Définition 13.34.
Z
∞
a
Et, si f est non bornée en a
Z b
a
f (x)dx = lim
R→∞
f (x)dx = lim
ǫ→0
Z
Z
R
f (x)dx
a
b
f (x)dx.
a+ǫ
2y
1 − y2
13.4. ESPACES L1 (R) ET L2 (R)
145
Si ces limites existent, on dit que l’intégrale correspondante converge (ou est
convergente), sinon elle diverge (ou est divergente).
Exemple
R ∞ 113.35. On considère l’intégrale de Riemann (avec a > 0) :
– Ra xα dx converge si α > 1 et diverge sinon.
a
– 0 x1α dx converge si 0 ≤ α < 1 et diverge sinon.
On en déduit un critère de convergence très utile :
R∞
– si pour x → ∞, on a f (x) ≃ x1α alors l’intégrale a f (x)dx converge si
α > 1 et diverge sinon.
Ra
– si pour x → 0, on a f (x) ≃ x1α alors 0 f (x)dx converge si 0 ≤ α < 1 et
diverge sinon.
Par extension, on définit (définition au sens standard)
– Pour c borné quelconque
Z
∞
−∞
f (x)dx = lim
′
R →∞
Z
c
f (x)dx + lim
R→∞
−R′
Z
R
f (x)dx,
c
– et, si f non bornée en x = c ∈ ]a, b[
Z
b
f (x)dx = lim
ǫ→0
a
Z
c−ǫ
f (x)dx + lim
′
ǫ →0
a
Z
b
f (x)dx.
c+ǫ′
On utilise souvent une définition alternative de ces intégrales généralisées dite au
sens de la partie principale (ou valeur principale) de Cauchy :
PP
Z
∞
f (x)dx = lim
R→∞
−∞
Z
R
f (x)dx
−R
et, si f non bornée en x = c ∈ ]a, b[
PP
Z
b
f (x)dx = lim
a
ǫ→0
Z
c−ǫ
f (x)dx +
a
Z
b
f (x)dx
c+ǫ
Si l’intégrale converge au sens standard, elle converge aussi en partie principale
et les deux définitions donnent la même valeur de l’intégrale. Une intégrale peut
converger en PP sans converger au sens standard.
13.4
Espaces L1(R) et L2(R)
On suppose dans cette section que nous travaillons avec des fonctions de R
dans C. On a alors :
– f = fx + ify intégrable si et seulement si fx et fy sont intégrables.
R
R
– f (t)dt = f (t)dt.
146
13.4.0.5
CHAPITRE 13. CALCUL INTÉGRAL
Fonctions égales presque partout
Définition 13.36. Soit un intervalle I de R avec #I > 1. On note a := inf I ≥
−∞ et b := sup I ≤ +∞. Alors, la longueur de l’intervalle I est
l (I) := b − a .
Éventuellement, cette longueur peut être égale à +∞.
Définition 13.37. Soit un ensemble A ⊂ R. On dit que A est négligeable (ou de
mesure nulle) si pour tout ǫ > 0, il existe une famille d’intervalles {Inǫ ; n ∈ N}
telle que #Inǫ > 1 pour tout n ainsi que
A⊂
[
n∈N
Inǫ
et
∞
X
l (Inǫ ) < ǫ .
n=0
Propriété 13.38. Tout ensemble dénombrable (en bijection avec N) est de mesure
nulle. En particulier, Q est négligeable.
Démonstration. On montre déjà que tout ensemble dénombrable E est de mesure
nulle. En effet, on peut écrire
: E = {xn ; n ∈ N}. Il suffit alors de considérer
ǫ
ǫ
ǫ
In := xn − 2n+1 ; xn + 2n+1 .
Puis, pour tout r ∈ Q, on écrit r = pq avec p premier avec q et q > 0. On considère
alors la fonction f (r) := 2q (2p + 1). Q est donc en bijection avec Z, qui est en
bijection avec N en prenant la fonction f (n) := 2n + 1 si n ≥ 0 et f (n) := −2n si
n < 0.
Exemple 13.39 (Ensemble triadique de Cantor). Soit un intervalle I := [a; b].
Alors, on introduit le nouvel ensemble :
b−a [
b−a
T (I) = T ([a; b]) := a; a +
a+2
;b .
3
3
En d’autres termes, on enlève le tiers central de l’intervalle.
considère
S Puis, si l’on
Sk
k
plusieurs intervalles disjoints I1 , · · · , Ik , on définit : T
p=1 Ip :=
p=1 T (Ip ).
On considère alors la suite d’ensembles définie par A0 := [0; 1] et An+1 := T (An ).
Cette suite converge vers un ensemble, que l’on appelle ensemble triadique de Cantor. Sa mesure est nulle par construction. Mais cet ensemble n’est pas dénombrable
puisqu’il est en bijection avec R.
Conséquemment, un ensemble peut ne pas être dénombrable tout en étant de
mesure nulle.
Définition 13.40. Soient f et g deux fonctions définies sur un intervalle I. On
dit que f et g sont égales presque partout si {x ∈ I : f (x) 6= g(x)} est de mesure
nulle. On note alors : “f = g p.p.”
13.4. ESPACES L1 (R) ET L2 (R)
13.4.1
147
Espace L1 (R) des fonctions sommables (intégrables)
Définition 13.41. On appelle espace L1 (R), l’espace des fonctions f dites sommables (ou intégrables au sens de Lebesgue) telles que :
Z
|f (x)| dx < ∞.
R
Remarque 13.42. L’intégrale au sens de Lebesgue est différente de l’intégrale au
sens de Riemann qui a été présentée au début du chapitre. Au lieu d’approximer
les fonctions par des fonctions en escalier, on les approxime par des fonctions dites
étagées. L’intégrale au sens de Lebesgue d’une fonction continue par morceaux est
la même que l’intégrale au sens de Riemann.
Remarque 13.43. En fait, ce n’est pas un espace de fonctions, mais un espace
de classe d’équivalence de fonctions. On choisit de ne pas donner d’importance à
ce “détail”.
R
Théorème 13.44. Pour toute fonction dans L1 (R), on pose ||f ||1 = R |f (x)| dx.
C’est une norme sur L1 (R).
Définition 13.45. Soit (fn )n∈N une suite d’éléments de L1 (R). On dit que (fn )n∈N
converge vers f dans L1 (R) si et seulement si :
lim ||fn − f ||1 = 0.
n→∞
On parle aussi de convergence en moyenne :
Z
lim
|fn (x) − f (x)| dx = 0 .
n→∞
R
Théorème 13.46. Toute suite de Cauchy de L1 (R) converge. En d’autres termes,
L1 (R) est complet.
13.4.2
Espace L2 (R) des fonctions de carré sommable
L’espace L2 (R) contient de nombreuses fonctions permettant de modéliser les
signaux d’énergie finie ou encore les fonctions d’ondes de la mécanique quantique.
Définition 13.47. On appelle L2 (R) l’espace vectoriel sur C des classes d’équivalence des fonctions de carré intégrable :
Z
Z
2
|f (x)| dx =
f (x)f (x)dx < ∞.
R
Exemple 13.48.
2. x 7→
√
1
x(1+x2 )
1. x 7→
R
sin x
x
∈ L2 (R) et x 7→
∈ L1 (R) et x 7→
√
1
x(1+x2 )
sin x
x
∈
/ L2 (R).
∈
/ L1 (R).
148
CHAPITRE 13. CALCUL INTÉGRAL
Théorème 13.49. Pour tous les éléments f et g de L2 (R), on pose
Z
hf, gi :=
f (x)g(x)dx .
R
C’est un produit scalaire. La norme associée est :
Z
1/2
1/2
2
||f ||2 = hf, f i =
|f (x)| dx
.
R
Définition 13.50. Soit (fn )n∈N une suite d’éléments de L2 (R). On dit que (fn )n∈N
converge vers f dans L2 (R) si et seulement si :
lim ||fn − f ||2 = 0.
n→∞
On parle aussi de convergence en moyenne quadratique :
Z
lim
|fn (x) − f (x)|2 dx = 0 .
n→∞
R
Théorème 13.51. L2 (R) est un espace de Hilbert 4 .
13.5
Exercices
Exercice 1
Calculez les primitives et intégrales suivantes :
Z
1.
xsin(2x)dx.
Z
2.
xn log xdx, avec n ∈ Z.
Z
3.
cos x log (1 + cos x)dx.
Z
4.
sin (log x)dx.
Z 1√
1 − x2 dx.
5.
0
Z 1
1
dx
6.
2 2
0 (1 + x )
Z π
2
1
7.
dx
0 cos x + sin x
Z π
2
8.
sin x cos2 xdx
0
4. Un espace vectoriel muni d’un produit scalaire et complet est dit de Hilbert.
13.5. EXERCICES
9.
10.
11.
12.
13.
14.
15.
Z
Z
Z
Z
Z
Z
Z
2
1
π
4
r
x − 1 dx
x+1 x
cos2 xdx
0
4x3 − 4x2 + 13x
dx
4x2 − 4x + 5
sin (3x) cos (5x)dx
1
dx
+ 2x + 2)(x2 + 2x + 5)
(x2
x3 exp (x + 1)dx
sin x cosh xdx
Exercice 2
Calculer en passant en coordonnées polaires les intégrales :
Z Z
1. A =
exp (−(x2 + y 2 )) dxdy où (∆) = {(x, y) / x ≥ 0, y ≥ 0}.
(∆)
Z Z
x2 y 2 exp (−(x2 + y 2 )) dxdy.
2. B =
3. C =
4. D =
Z
(∆)
+∞
exp (−x2 ) dx.
0
Z
+∞
x2 exp (−x2 ) dx.
0
149
150
CHAPITRE 13. CALCUL INTÉGRAL
Chapitre 14
Équations différentielles
14.1
Définitions
Définition 14.1 (Équation différentielle). Une équation différentielle d’ordre n
est une relation entre la variable t et les dérivées d’ordre 0, 1 · · · , n d’une fonction
inconnue x de t. On l’écrit symboliquement :
F t, x(t), x′ (t), · · · , x(n) (t) = 0 .
(14.1)
Définition 14.2 (Résolution). Résoudre cette équation, c’est à la fois donner un
intervalle I ⊂ R et une fonction x sur I telle que (14.1) soit vérifiée pour tout
t ∈ I.
14.2
Théorème de Cauchy-Lipschitz
Définition 14.3 (Rappel). Une fonction F est lipschitzienne si et seulement s’il
existe α > 0 tel que |F (x) − F (y)| ≤ α|x − y|.
√
Contre-exemple 14.4. La fonction x 7→ x n’est pas lipschitzienne sur R+ .
Théorème 14.5 (Théorème de Cauchy-Lipschitz). On considère l’équation différentielle du premier ordre : dtd x(t) = F (t, x(t)). On demande également une
condition au bord : x(t0 ) = x0 . On suppose que la fonction F est continue et lipschitzienne pour la deuxième variable. Alors, cette équation différentielle admet
une unique solution.
Remarque 14.6 (Phénomène de Peano). Il faut bien vérifier que la fonction
est lipschitzienne sinon un phénomène de Peano peut apparaître à savoir la nonunicité de la solution.
Exemple 14.7. On considère l’équation différentielle
p
x′ (t) = 2 x(t) ,
151
152
CHAPITRE 14. ÉQUATIONS DIFFÉRENTIELLES
avec x(0) = 0. On cherche à résoudre sur t ≥ 0. Alors, pour tout t0 ≥ 0, la
fonction suivante est bien une solution de l’équation différentielle avec problème
au bord :
x(t0 ) (t) := (t − t0 )2 1t≥t0 .
14.3
Équations différentielles linéaires
14.3.1
Définition
Définition 14.8 (Équation différentielle linéaire). Une équation différentielle linéaire est une équation différentielle telle que la fonction sous-jacente soit linéaire (donc lipschitzienne) pour chacune des coordonnées x(t), x′ (t), · · · , x(n) (t).
En d’autres termes, c’est une équation différentielle de la forme :
an (t)x(n) (t) + a(n−1) (t)x(n−1) (t) + · · · + a1 (t)x′ (t) + a0 (t)x(t) = s(t) .
Notation 14.9. Les fonctions a0 , a1 , · · · , an sont les coefficients de l’équation. La
fonction s est le second membre de l’équation (ou la sortie).
14.3.2
Espace affine - Espace vectoriel
Définition 14.10. L’équation homogène associée à cette équation différentielle
est
an (t)x(n) (t) + a(n−1) (t)x(n−1) (t) + · · · + a1 (t)x′ (t) + a0 (t)x(t) = 0 .
On a simplement enlevé le second membre.
Théorème 14.11. Soit S0 l’ensemble des solutions de l’équation homogène associée et S l’ensemble des solutions de l’équation avec second membre. Alors S0 est
un espace vectoriel de dimension n. Et, pour tous x1 , x2 ∈ S, on a x1 − x2 ∈ S0 .
Ainsi, il suffit de résoudre l’équation homogène et de trouver une solution particulière xp et l’on a S = xp + S0 . On dit que S est un espace affine.
14.3.3
Équations différentielles linéaires du premier ordre
à coefficients constants
14.3.4
Définition
Définition 14.12. On considère ici une équation de la forme
x′ (t) + ax(t) = s(t) ,
où a ∈ R et s est une fonction continue par morceaux de R dans R.
Remarque 14.13 (Espace affine). On sait que l’espace des solutions est un espace
affine de dimension 1. On résout donc l’équation homogène et l’on cherche ensuite
une solution particulière.
14.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES
14.3.4.1
153
Résolution de l’équation homogène
L’équation homogène est ici x′ (t) + ax(t) = 0.
Théorème 14.14. Les solutions de cette équation sont toutes de la forme t 7→
λe−at où λ ∈ R est une constante.
Démonstration. Soit x une solution de l’équation homogène associée. On pose
y(t) := x(t)e+at . On a alors :
y ′ (t) = x′ (t)eat + ax(t)eat = (x′ (t) + ax(t)) eat = 0 .
La fonction y est donc constante et égale à λ. Or, x(t) = y(t)e−at .
Remarque 14.15. On résout en fait l’équation caractéristique X + a = 0.
14.3.4.2
Recherche d’une solution particulière
Méthode de la variation de la constante On cherche une solution particulière xp sous la forme xp (t) := λ(t)e−at . On est ainsi amené à résoudre
′
λ(t)e−at + aλ(t)e−at = s(t) ,
ce qui donne en fait
λ′ (t) = s(t)eat .
Il suffit ensuite de primitiver. On trouve ainsi une solution particulière
xp (t) = e
−at
Z
t
s(u)eau du .
0
La solution générale de l’équation initiale est donc
x(t) =
C+
Z
t
au
s(u)e du e−at ,
0
où C est une constante.
Astuce pour trouver la bonne sortie L’idée à retenir est que l’entrée et
la sortie ne diffèrent que peu. Ainsi, si la sortie est une fonction polynômiale,
l’entrée est aussi une fonction polynômiale. Si l’on a un logarithme en sortie, on a
du logarithme en entrée. Si la sortie est une fonction trigonométrique, l’entrée est
aussi une fonction trigonométrique. Idem avec les exponentielles. Et, si la sortie
est une fraction rationnelle, l’entrée contient des fractions rationnelles et/ou des
logarithmes et/ou des arctangentes.
154
CHAPITRE 14. ÉQUATIONS DIFFÉRENTIELLES
14.3.5
Équations différentielles linéaires du premier ordre
à coefficients non constants
14.3.5.1
Définition
On considère ici une équation de la forme
a(t)x′ (t) + b(t)x(t) = s(t) .
La fonction a ne doit pas être oubliée.
Remarque 14.16. L’espace des solutions n’est pas forcément affine. Il y a en
effet des soucis si a s’annule. On se place donc sur un intervalle où a ne s’annule
pas et l’on se ramène alors à une équation de la forme
x′ (t) + c(t)x(t) = s(t) .
Propriété 14.17. Alors, l’espace des solutions est un espace affine de dimension 1. On résout donc l’équation homogène et l’on cherche ensuite une solution
particulière.
14.3.5.2
Résolution de l’équation homogène
Définition 14.18. L’équation homogène est ici x′ (t) + c(t)x(t) = 0.
Théorème 14.19. Les solutions de cette équation sont toutes de la forme t 7→
λe−C(t) où C est une primitive de c.
Démonstration. Soit x une solution de l’équation homogène associée. On pose
y(t) := x(t)eC(t) . On a alors :
y ′ (t) = x′ (t)eC(t) + C ′ (t)x(t)eC(t) = (x′ (t) + c(t)x(t)) eC(t) = 0 .
La fonction y est donc constante et égale à λ. Or, x(t) = y(t)e−C(t) .
14.3.5.3
Recherche d’une solution particulière
Méthode de la variation de la constante On cherche une solution particulière xp sous la forme xp (t) := λ(t)e−C(t) . On est ainsi amené à résoudre
′
λ(t)e−C(t) + aλ(t)e−C(t) = s(t) ,
ce qui donne en fait
λ′ (t) = s(t)eC(t) .
Il suffit ensuite de primitiver. On trouve ainsi une solution particulière
Z t
−C(t)
xp (t) = e
s(u)eC(u) du .
0
La solution générale de l’équation initiale est donc
Z t
C(u)
s(u)e
du e−C(t) ,
x(t) = µ +
0
où µ ∈ R.
14.4. NON LINÉAIRES DU PREMIER ORDRE
14.4
155
Non linéaires du premier ordre
Bon nombre d’équations utiles ne sont pas linéaires. L’équation régissant la
charge et la décharge de la cathode dans une batterie de lithium n’est pas linéaire.
Exemple 14.20. Une équation très simplifiée qui intervient dans les modèles
biologiques :
d
x(t) = −∇V (x(t))
dt
où V est un potentiel non-convexe.
14.4.1
Équations à variables séparées
Définition 14.21. Une équation à variables séparées est une équation dans laquelle la fonction sous-jacente F est de la forme F (t, x, x′ ) = f1 (t)f2 (x)x′ . Une
telle équation se met donc sous la forme g(x(t))x′ (t) = h(t). En utilisant la notation physicienne, il vient :
g(x(t))d(x(t)) = h(t)dt .
Propriété 14.22. Il suffit d’intégrer. Soit G une primitive de g et soit H une
primitive de h. On intègre de t0 à t :
G(x(t)) − G(x(t0 )) = H(t) − H(t0 ) .
Ainsi, si G est une bijection, on peut écrire
x(t) = G−1 {G(x(t0 )) + H(t) − H(t0 )} .
14.4.2
Exemple
On considère l’équation :
d
x(t) = −V ′ (x(t)) ,
dt
avec V (x) :=
x4
4
−
x2
.
2
On a alors :
On intègre la fonction x 7→
1
1
1
− 12 x−1
− 21 x+1
d’où
x
dx(t)
= dt .
x(t) − x(t)3
1
x−x3
log |x(t)| −
en décomposant en éléments simples :
1
log x(t)2 − 1 = t + λ ,
2
où λ est une constante. On prend l’exponentielle, on inverse et il vient
Ce
−t
d’où
x(t) = ± √
1
,
1 − αe−2t
avec α > 0 .
q
1−
1
x−x3
=
1
x(t)2
=
156
14.4.3
CHAPITRE 14. ÉQUATIONS DIFFÉRENTIELLES
Équations homogènes
Définition 14.23 (Équation homogène). Une équation homogène est de la forme
x(t)
′
x (t) = f
.
t
Propriété 14.24. On pose : y(t) :=
ment, l’équation initiale devient
x(t)
t
c’est-à-dire x(t) = ty(t). Conséquem-
ty ′ (t) + y(t) = f (y(t)) ,
ce qui est une équation à variables séparées :
dy(t)
dt
=
.
f (y(t)) − y(t)
t
14.4.4
Équations de Bernoulli
Définition 14.25 (Équation de Bernoulli). Une équation de Bernoulli est une
équation de la forme
x′ (t) + a(t)x(t) = b(t)x(t)α , α 6= 1 , α 6= 0 .
Propriété 14.26. On fait le changement de variable : y(t) := x(t)β où β sera
1
choisi subséquemment. Ainsi, x(t) = y(t) β . L’équation devient :
1
α
1
1 ′
y (t)y(t) β −1 + a(t)y(t) β = b(t)y(t) β .
β
1
Puis, en multipliant par y(t)1− β , on a
α+β−1
1 ′
y (t) + a(t)y(t) = b(t)y(t) β .
β
On choisit donc β := 1 − α et l’équation en y est linéaire.
14.5
14.5.1
Linéaires du 2e ordre à coeffs constants
Définition
Définition 14.27. On considère ici une équation de la forme
x′′ (t) + ax′ (t) + bx(t) = s(t) .
Propriété 14.28 (Espace affine). On sait que l’espace des solutions est un espace
affine de dimension 2. On résout donc l’équation homogène et l’on cherche ensuite
une solution particulière.
14.6. LINÉAIRES DU 2E ORDRE À COEFFS NON CONSTANTS
14.5.2
157
Résolution de l’équation homogène
L’équation homogène est ici x′′ (t) + ax′ (t) + bx(t) = 0.
Définition 14.29 (Équation caractéristique). L’équation caractéristique associée
est X 2 + aX + b = 0. On note ∆ := a2 − 4b. Trois cas :
1. Si ∆ > 0, il y a deux solution réelles r1 et r2 .
2. Si ∆ = 0, il y a une unique solution réelle r0 .
3. Si ∆ < 0, il y a deux solutions complexes reiϕ et re−iϕ
Théorème 14.30. Si ∆ > 0, alors S0 = Vect (t 7→ er1 t ; t 7→ er2 t ).
Si ∆ = 0, alors S0 = Vect (t 7→ ter0 t ; t 7→ er0 t ).
Si ∆ < 0, alors S0 = Vect (t 7→ cos (ϕt) ert ; t 7→ sin (ϕt) ert ).
14.5.3
Recherche d’une solution particulière
Notation 14.31. On note (e1 ; e2 ) une base de l’espace vectoriel S0 .
14.5.3.1
Méthode de la variation de la constante
On cherche une solution particulière xp sous la forme xp (t) := λ1 (t)e1 (t) +
λ2 (t)e2 (t) où les deux fonctions λ1 et λ2 doivent vérifier
′
λ1 (t)e′1 (t) + λ′2 (t)e′2 (t) = s(t)
.
λ′1 (t)e1 (t) + λ′2 (t)e2 (t) = 0
On obtient alors λ′1 (t) =
14.5.3.2
e2 (t)s(t)
e′1 (t)e2 (t)−e1 (t)e′2 (t)
1 (t)s(t)
et λ′2 (t) = − e′ (t)e2e(t)−e
.
′
1 (t)e (t)
1
2
Astuce pour trouver la bonne sortie
L’idée à retenir est que l’entrée et la sortie ne diffèrent que peu. Ainsi, si la
sortie est une fonction polynômiale, l’entrée est aussi une foncion polynômiale. Si
l’on a un logarithme en sortie, on a du logarithme en entrée. Si la sortie est une
fonction trigonométrique, l’entrée est aussi une fonction trigonométrique. Idem
avec les exponentielles. Et, si la sortie est une fraction rationnelle, l’entrée contient
des fractions rationnelles et/ou des logarithmes et/ou des arctangentes.
14.6
14.6.1
Linéaires du 2e ordre à coeffs non constants
Définition
Définition 14.32. Une équation différentielle linéaire du second ordre avec coefficients non constants est une équation de la forme
a(t)x′′ (t) + b(t)x′ (t) + c(t)x(t) = s(t) .
158
CHAPITRE 14. ÉQUATIONS DIFFÉRENTIELLES
14.6.2
Deux exemples très simples
On peut considérer l’équation
x′′ (t) = tx(t) ,
et l’équation
t2 x′′ (t) + tx′ (t) + (t2 − 1)x(t) = 0 .
14.6.3
Méthode générale de résolution de ces équations
Théorème 14.33. Il n’y a pas de méthode générale pour résoudre ces équations
et il n’y en aura jamais.
Démonstration. Voir le livre “Théorie de Galois” d’Yvan Gozard, plus précisément
la dernière page, dans le paragraphe “Théorie de Galois différentielle”.
Exemple 14.34. L’équation x′′ (t) = tx(t) ne peut pas être résolue.
Remarque 14.35. Un bon nombre de fonctions sont définies comme étant des
solutions à certaines équations. Exemple : les fonctions de Bessel.
14.7
Exercices
Exercice 1
Résoudre chacune des équations différentielles suivantes :
1)
2)
3)
4)
5)
6)
7)
x′ (t) − 3x(t) = 2.
x′ (t) + 2x(t) = e2t .
x′ (t) + x(t) = log(t).
x′ (t) − 5x(t) = e5t .
x′ (t) + 3t2 x(t) = t2 .
x′ (t) − x(t) = sin(t).
(1 + t2 )x′ (t) − tx(t) = 1 + t + t2 .
Exercice 2
Résoudre les systèmes différentiels suivants :
14.7. EXERCICES
159
S1 :
x′1 (t) = 4x1 (t)
+ 2x2 (t) + 2t + 2
′
x2 (t) = −3x1 (t) − x2 (t) + t2 + 1
S2 :
x′1 (t) = 3x1 (t)
+ 2x2 (t) + te5t
x′2 (t) = −2x1 (t) + 7x2 (t) + 2te5t
S3
 ′
x (t)


 ′1
x2 (t)
:
x′ (t)


 ′3
x4 (t)
=
=
=
=
2x1 (t)
x1 (t)
x1 (t)
x1 (t)
+
+
+
+
x2 (t)
2x2 (t)
x2 (t)
x2 (t)
+
+
+
+
x3 (t)
x3 (t)
2x3 (t)
x3 (t)
+
+
+
+
x4 (t)
x4 (t)
x4 (t)
2x4 (t)
Exercice 3
Résoudre ces différentes équations différentielles du premier ordre :
1) tx′ (t) − 2x(t) − t4 = 0.
2) 2tx′ (t) + x(t) = 1t .
p
√
3) x′ (t) 1 − t2 = 1 − x(t)2 .
4) x′ (t) tan(t) = x(t).
5) x′ (t) = 2tx(t)2 .
p
6) x(t) − 2t x′ (t) = x(t).
7) tx′ (t) − x(t) − x(t)3 = 0.
Exercice 4
Résoudre ces différentes équations différentielles du second ordre :
1)
2)
3)
4)
5)
6)
x′′ (t) − 3x′ (t) + 2x(t) = 2e−t .
x′′ (t) − 4x′ (t) + 4x(t) = (3t − 1)e2t .
x′′ (t) + x(t) = cos(2t).
t2 (log(t) − 1) x′′ (t) − tx′ (t) + x(t) = 0.
t2 x′′ (t) + tx′ (t) − x(t) = t2 .
t2 x′′ (t) − t(t + 2)x′ (t) + (t + 2)x(t) = −t(t + 1).
160
CHAPITRE 14. ÉQUATIONS DIFFÉRENTIELLES
Chapitre 15
Suites et séries de fonctions
Dans ce chapitre, sauf mention du contraire, les fonctions considérées seront
de A dans R ou C où A est une partie de R ou de C.
P
Le cas des séries de
fonctions
f
se ramène au cas d’une suite de fonctions
n
n≥0
P
(Sn )n avec Sn := nk=1 fk .
15.1
Convergences simple, uniforme et absolue
15.1.1
Définitions
15.1.1.1
Pour les suites de fonctions
Définition 15.1. On dit que la suite de fonctions (fn )n converge simplement vers
la fonction f de A dans C si
∀x ∈ A , lim fn (x) = f (x) .
n→∞
Mais encore, cela signifie :
∀x ∈ A , ∀ǫ > 0, ∃px ∈ N ∀p ≥ px ⇒ |fp (x) − f (x)| < ǫ .
Ici, l’entier px dépend de x.
Définition 15.2. On dit que la suite de fonctions (fn )n converge uniformément
vers f sur A si
||fn − f ||∞ := sup |fn (x) − f (x)| −→ 0
x∈A
quand n tend vers l’infini. Soit encore :
∀ǫ > 0, ∃pA ∈ N ∀p ≥ pA ⇒ ∀x ∈ A , |fp (x) − f (x)| < ǫ .
Ici, l’entier p est le même pour tous les éléments de A.
Remarque 15.3. La suite (fn )n ne converge pas uniformément vers f sur A si
et seulement s’il existe une suite (xn )n d’éléments de A telle que fn (xn ) − f (xn )
ne converge pas vers 0 quand n tend vers l’infini.
161
162
CHAPITRE 15. SUITES ET SÉRIES DE FONCTIONS
Définition 15.4. On dit que la suite de fonctions (fn )n converge uniformément
sur tout compact de A vers f si
sup |fn (x) − f (x)| −→ 0
x∈K
quand n tend vers l’infini où K désigne n’importe quel ensemble fermé et borné
inclus dans A. Soit encore :
∀ǫ > 0, ∃pK ∈ N ∀p ≥ pK ⇒ ∀x ∈ K , |fp (x) − f (x)| < ǫ .
Remarque 15.5. La convergence uniforme d’une suite de fonctions entraîne sa
convergence simple mais la réciproque est fausse.
15.1.1.2
Pour les séries de fonctions
P
Définition 15.6. On dit que la série de fonctions ( n≥0 fn ) converge simplement
vers f sur A si la suite des sommes partielles (Sn )n converge simplement vers f
sur A.
P
Définition 15.7. On dit que la série de fonctions ( n≥0 fn ) converge uniformément vers f sur A si la suite des sommes partielles (Sn )n converge uniformément
vers f sur A.
P
Définition 15.8. On dit que la série de fonctions ( n≥0 fn ) converge uniformément vers f sur tout compact de A si la suite des sommes partielles (Sn )n converge
uniformément vers f sur tout compact de A.
Remarque 15.9. La convergence uniforme d’une série de fonctions entraîne sa
convergence simple mais la réciproque est fausse.
15.1.2
Stabilité des propriétés des fonctions par passage à
la limite
Définition 15.10. Ici, B(A) désigne l’espace des fonctions bornées de A dans C.
Définition 15.11. On le munit de la norme uniforme. On d’autres termes, on
pose
||f ||∞ := sup |f (x)|
x∈A
Propriété 15.12. Si une suite (fn )n de B(A) converge uniformément sur A vers
f , alors f est également un élément de B(A).
Démonstration. Pour tout n ∈ N, il existe Kn > 0 tel que pour tout x ∈ A,
|fn (x)| ≤ Kn . D’autre part, pour ǫ := 1, il existe p ∈ N tel que pour tout n ≥ p,
pour tout x ∈ A, |fn (x) − f (x)| ≤ 1.
15.1. CONVERGENCES SIMPLE, UNIFORME ET ABSOLUE
163
En particulier, pour n = p, pour tout x ∈ A, |fp (x) − f (x)| ≤ 1. l’inégalité
triangulaire nous donne immédiatement
|f (x)| = |fp (x) + (f (x) − fp (x))|
≤ |f (x)| + |fp (x) − f (x)|
≤ Kp + 1 .
Donc f est bornée sur A.
15.1.3
Théorèmes d’interversions des limites
Théorème 15.13. Soit une suite de fonctions (fn )n de A dans C. Soit a ∈ A.
On suppose que la suite (fn )n converge uniformément vers f sur A et que l’on a
lim fn (x) = λn .
x→a
Alors, on a
lim fn (x) = lim λn .
x→a
n→∞
D’où la formule d’interversion des limites
lim lim fn (x) = lim lim fn (x) ,
x→a n→∞
n→∞ x→a
l’existence de ces deux limites étant assurée par les hypothèses.
P
Corollaire 15.14. Soit une série de fonctions
(
n≥0 fn ) de A dans C. Soit a ∈ A.
P
On suppose que la série de fonctions ( n≥0 fn ) converge uniformément vers S sur
A et que l’on a
lim fn (x) = λn .
x→a
Alors, on a
lim
x→a
∞
X
fn (x) = lim
n→∞
n=0
D’où la formule d’interversion des limites
lim
x→a
∞
X
n=0
fn (x) =
∞
X
n=0
∞
X
λn .
n=0
lim fn (x) ,
x→a
l’existence de ces deux limites étant assurée par les hypothèses.
15.1.4
Continuïté de la limite
À partir du Théorème 15.13, on obtient les résultats suivants sur la limite
d’une suite de fonctions qui converge uniformément.
164
CHAPITRE 15. SUITES ET SÉRIES DE FONCTIONS
Théorème 15.15. On suppose que la suite de fonctions (fn )n converge uniformément vers f sur A. De plus, chaque fonction fn est continue au point a. Alors
f est continue au point a.
Corollaire 15.16. On suppose que la suite de fonctions (fn )n converge uniformément vers f sur A. De plus, chaque fonction fn est continue sur A. Alors f
est continue sur A.
Remarque 15.17. Les deux résultats précédents restent vrais si la convergence
est uniforme sur tout compact au lieu d’être uniforme sur A.
Ces résultats concernent les suites de fonctions. On peut les tracter aux séries
de fonctions.
P
Théorème 15.18. On suppose que la série de fonctions ( n≥0 fn ) converge uniformément vers S sur A. De plus, chaque fonction fn est continue au point a.
Alors f est continue au point a.
P
Corollaire 15.19. On suppose que la série de fonctions ( n≥0 fn ) converge uniformément vers S sur A. De plus, chaque fonction fn est continue sur A. Alors
f est continue sur A.
Remarque 15.20. Les deux résultats précédents restent vrais si la convergence
est uniforme sur tout compact au lieu d’être uniforme sur A.
15.1.5
Convergence absolue d’une série de fonctions
On présente maintenant un autre type de convergence pour les séries de fonctions. Ce type de convergence est parfois appelé “convergence normale” pour faire
référence au mot “norme”. On va parler ici de convergence absolue, pour faire le
lien avec les séries d’éléments d’un espace vectoriel normé (ce que l’on ne présente
pas dans ce cours).
P
Définition 15.21. Soit une série de fonctions ( n≥0 fn ) où fn est bornée de A
dans C. On pose donc ||fn ||∞ := sup |fn (x)|.
x∈A
On dit que la série de fonctions
converge
absolument pour la norme infinie sur A
P
si la série numérique
converge.
||f
||
n ∞
n≥0
P
Propriété 15.22. La série de fonctions ( n≥0 fn ) converge absolument pour la
P
norme infinie sur A si et seulement si on peut trouver une série
α
man
n≥0
P
jorante et convergente. Ici, on dit que la série
n≥0 αn est majorante si l’on
a
|fn (x)| ≤ αn ,
pour tout n ∈ N et pour tout x ∈ A.
15.2. EXERCICES
165
P
Définition 15.23. Soit une série de fonctions ( n≥0 fn ) où fn est bornée de A
dans C.
On dit que la série de fonctions converge
P absolument pour la norme infinie sur tout
compact de A si la série numérique
n≥0 ||fn ||K converge où l’on a ||fn ||K :=
sup |fn (x)|, K étant un compact quelconque de A.
x∈K
P
Théorème 15.24. Soit une série de fonctions ( n≥0 fn ) où fn est bornée de A
dans C. On suppose que cette série est absolument convergente pour la norme
infinie. Alors, la série converge uniformément sur A.
15.2
Exercices
Exercice 1
Soit α ∈ R et fn (x) := nα x(1 − x)n pour x ∈ [0; 1].
1) Trouver la limite simple des fonctions fn .
2) Y a-t-il convergence uniforme ?
Exercice 2
On pose fn (x) := xn (1 − x) et gn (x) := xn sin(πx).
1) Montrer que la suite (fn )n converge uniformément vers la fonction nulle sur
[0; 1].
2) En déduire qu’il en est de même pour la suite (gn )n (on utilisera la concavité
de la fonction sinus sur l’intervalle [0; , π]).
Exercice 3
Soit fn (x) := n cosn (x) sin(x).
1) Chercher la limite simple, f des fonctions fn .
Z π
Z π
2
2
2) Vérifier que
f (t)dt 6= lim
fn (t)dt.
0
n∞
0
Exercice 4
la convergence simple, uniforme, de la série de fonctions : f (x) =
P∞1) Étudier
−nx
ne
.
n=0
2) Calculer f (x) lorsque la série converge (intégrer terme à terme).
Exercice 5
Montrer, pour x > 0 :
P∞
(−1)n
n=0 n+x
=
R1
tx−1
dt.
t=0 t+1
166
CHAPITRE 15. SUITES ET SÉRIES DE FONCTIONS
Chapitre 16
Séries entières
16.1
16.1.1
Rayon de convergence
Définitions
Définition 16.1. On
! appelle “série entière” toute série de fonctions qui est de
X
la forme
an z n où z est une variable complexe et chaque coefficient an est
n≥0
indépendant de z.
Propriété 16.2. Soit
X
an z n
n≥0
!
une série entière. Soit un réel strictement po-
n
sitif ρ tel que la suite (|a
est bornée. Alors, pour tout complexe z tel que
n |ρ )n |z|
n
.
|z| < ρ, on a |an z | = O
ρ
Exercice 16.3. Démontrer la propriété ci-dessus.
!
X
Définition 16.4. Soit
an z n une série entière. On définit son rayon de
n≥0
convergence R ∈ [0; +∞] de la façon suivante :
(
!
)
X
R := sup ρ > 0 :
|an |ρn converge.
(16.1)
n≥0
Proposition 16.5. Soit
X
n≥0
an z n
!
une série entière de rayon de convergence
R1 . On définit les deux quantités suivantes :
n
o
R2 := sup ρ > 0 : lim |an |ρn = 0
n→∞
(16.2)
et
R3 := sup {ρ > 0 : (|an |ρn )n est bornée.}
167
(16.3)
168
CHAPITRE 16. SÉRIES ENTIÈRES
Alors, R1 = R2 = R3 . On peut donc aussi bien définir le rayon de convergence
d’une série entière par (16.1), par (16.2) ou par (16.3).
Démonstration.
De façon
évidente, R1 ≤ R2 ≤ R3 . En effet, pour tout r ≥ 0, si
P
n
n
la série
n≥0 |an |r n converge, on en déduit la convergence de |an |r vers 0. Et,
une suite convergente étant bornée, on en déduit la bornitude de la suite (an rn )n .
Donc, si r < R1 , on a r ≤ R2 d’où R1 ≤ R2 et de même R2 ≤ R3 . Il reste donc à
prouver que l’on a R3 ≤ R1 .
Soit r ≥ 0 tel que r < R3 . Soit maintenant ρ ∈]r; R3 [. On a alors
n
n
r
r
|an |r = |an |ρ
≤M
ρ
ρ
n
n
P n r
n
car la suite (|an |ρ )n est bornée. Or, la série géométrique
converge.
n ρ
P
n
On en déduit la convergence de la série
n≥0 |an |r n c’est-à-dire r ≤ R1 d’où
R3 ≤ R1 ce qui achève la preuve.
16.1.2
Calcul pratique
On applique la règle de d’Alembert.
P
n
Théorème 16.6. Soit
série entière telle que pour tout n ∈ N,
n≥0 an z n une
an+1 . Alors, R = 1 .
an 6= 0. Supposons qu’il existe L := lim L
n∞
an n+1
z
|
|
Démonstration. 1) Si |z| < L1 , on a |an+1
= |a|an+1
|z| −→ L|z| < 1. La série
|an z n |
n|
P
1
n
n≥0 an z n converge donc et l’on en déduit |z| ≤ R d’où L ≤ R.
P
z n+1 |
|an+1 |
n
=
|z|
−→
L|z|
>
1.
La
série
2) Si |z| > L1 , on a |an+1
a
z
n
n
n≥0
|an z |
|an |
n
diverge donc et l’on en déduit |z| ≥ R d’où L1 ≥ R ce qui achève de prouver
R = L1 .
16.1.3
Exemples de rayons de convergence
Exemple 16.7. On considère la série entière
1
−→ 0 d’où R = +∞.
n+1
Exemple 16.8. On considère la série entière
n + 1 −→ +∞ d’où R = 0.
Exemple 16.9. On considère la série entière
d’où R = 1.
P
P
zn
n≥0 n!
n≥0
X
n≥0
. Alors,
an+1
an
=
n!
(n+1)!
=
n!z n . Alors,
an+1
an
=
(n+1)!
n!
=
z n . Alors,
an+1
an
= 1 −→ 1
!
16.1. RAYON DE CONVERGENCE
169
Exercice!16.10. Calculer
les rayons!de convergence des séries entières
!
X
X zn
X
nz n ,
2n z n .
et
n
n≥0
n≥0
n≥0
On donne maintenant un exemple moins trivial.
Exemple 16.11. On considère la série entière
X
n≥0
!
esin(n) z n . Ici,
e−1 ≤ esin(n) ≤ e .
!
!
X
X
Les deux séries
e−1 z n et
ez n ont pour rayon de convergence R = 1
n≥0
n≥0
!
X
esin(n) z n .
donc de même pour
n≥0
16.1.4
Disque de convergence
P
n
Définition 16.12. Soit
a
z
une série entière complexe de rayon de
n
n≥0
convergence R. On appelle “disque de convergence” de cette série le disque ouvert de centre 0 et de rayon R : D(0; R) = {z ∈ C : |z| < R}.
P
n
Théorème 16.13. 1) Pour tout complexe z tel que |z| > R, la série
n≥0 an z
diverge.
P
n
2) Pour tout complexe z tel que |z| < R, la série
converge.
n≥0 |an ||z|
P
n
3) La somme de la série entière, S(z) := n≥0 an z est continue sur D(0; R).
Démonstration.
1. Si |z| > R, la suite (an |z|n )n ne tend pas vers 0. Donc la série
P
n
diverge.
n≥0 an z
P
n
2. Si |z| < R, la série
converge d’après la définition de R.
n≥0 |an ||z|
3. Soit K un compact
inclusdans D(0; R). Posons ρ := sup
ρ <
P
P z∈K |z|. nAlors,
n
R d’où la série
donc la série de fonctions
converge
n≥0 |an |ρ
n≥0 an z
absolument pour la norme infinie. On en déduit que la fonction S est continue sur
D(0; R).
16.1.5
Opération algébrique
16.1.5.1
Somme et combinaisons linéaires
!
!
X
X
an z n et
bn z n deux séries entières de rayons respectifs
Soient
n≥0
R1 > 0 et R2 > 0.
n≥0
170
CHAPITRE 16. SÉRIES ENTIÈRES
La série entière
X
(an + bn ) z n
n≥0
!
a un rayon de convergence R ≥ min {R1 ; R2 }.
De plus, pour tout z ∈ C, pour tous les complexes λ et µ, on a
∞
X
n
(λan + µbn ) z = λ
n=0
∞
X
n
an z + µ
n=0
si |z| < min {R1 ; R2 }.
∞
X
bn z n ,
n=0
16.1.5.2
Produit de Cauchy
P
P
n
n
Soient
et
deux séries entières de rayons respectifs
n≥0 an z
n≥0 bn z
R1 > 0 et R2 > 0.
P
On définit une nouvelle série entière : n≥0 cn z n avec
cn :=
n
X
ak bn−k .
k=0
n
P
Alors,
a un rayon de convergence R tel que R ≥ min {R1 ; R2 }. De
n≥0 cn z
plus, pour tout z ∈ C tel que |z| < min {R1 ; R2 }, on a
!
!
∞
∞
∞
X
X
X
cn z n =
an z n ×
bn z n
n=0
n=0
Exercice 16.14. On pose : exp(z) :=
n=0
∞
X
zn
n!
′
′
′
z et z , on a : exp(z + z ) = exp(z) exp(z ).
. Montrer que pour tous les complexes
n=0
Exemple 16.15. On considère la série entière (
On remarque
n−1
X
an =
bk cn−k
P∞
n=1
an z n ) avec an :=
Pn
1
k=1 k .
k=1
P
xn
avec bk = et cn−k = 1. La série entière
a un rayon de convergence
n≥1
n
P ∞ xn
RP
1 = 1 et
pour tout x ∈] − 1; 1[, n=1 n = − log(1 − x). Et, la série
P∞entière
n
a un rayon de convergence R2 = 1 et pour tout x ∈] − 1; 1[, n=1 xn =
n≥1 x
P∞
1
n
.
Donc
la
série
entière
(
n=1 an z ) a un rayon de convergence R ≥ 1. De
1−x
plus, pour tout x ∈] − 1; 1[, on a
!
!
∞
∞
∞
n
X
X
X
x
log(1 − x)
an x n =
xn = −
.
×
n
1−x
n=1
n=1
n=1
1
k
16.2
Série entière d’une variable réelle
On se restreint maintenant à la variable réelle.
16.2. SÉRIE ENTIÈRE D’UNE VARIABLE RÉELLE
16.2.1
171
Intervalle de convergence
P
n
Définition 16.16. Soit ( ∞
n=0 an x ) une série entière réelle : x ∈ R et an ∈ R
pour tout n ∈ N. Soit R son rayon de convergence. L’intervalle de convergence de
la série entière est ] − R; R[.
P
n
Proposition 16.17. Soit ( ∞
n=0 an x ) une série entière réelle : x ∈ R et an ∈ R
pour toutPn ∈ N. Soit R son rayon de convergence. Alors pour tout x ∈] − R; R[,
n
la série ∞
n=0 |an ||x| converge.
16.2.2
Intégration et dérivation terme à terme
P
n
Théorème 16.18. Soit ( ∞
n=0 an x ) une série entière réelle : x ∈ R et an ∈ R
pour tout n ∈ N. Soit R son rayon de convergence.
Alors, on peut intégrer terme à terme la somme de cette série entière sur l’intervalle de convergence ] − R; R[. En d’autres termes, pour tout x ∈] − R; R[, on
a
!
Z x X
∞
∞
X
an n+1
n
an t dt =
x
n+1
0
n=0
n=0
Ce résultat se prouve facilement àP
partir de la convergence absolue pour la
n
norme infinie de la série de fonctions ( ∞
n=0 an x ).
P
n
Théorème 16.19. Soit ( ∞
n=0 an x ) une série entière réelle : x ∈ R et an ∈ R
pour tout n ∈ N. Soit R son rayon de convergence.
Alors, on peut dériver terme à terme la somme de cette série entière sur l’intervalle
de convergence ] − R; R[. En d’autres termes, pour tout x ∈] − R; R[, on a
∞
∞
X
d X
an x n =
nan xn−1
dx n=0
n=1
Ce résultat se prouve en montrant que P
le rayon de convergence de la série
P∞
∞
n−1
n
na
x
)
est
égal
à
celui
de
la
série
(
n
n=1
n=0 an x ).
P
n
Corollaire 16.20. Soit f : x 7→ f (x) := ∞
n=0 an x la somme d’une série entière
de rayon de convergence R > 0.
Alors, f est de classe C ∞ sur ] − R; R[ avec de plus :
(
∀p ∈ N , ∀x ∈] − R; R[ f
(p)
(x) =
∞
X
n=p
n(n − 1) · · · (n − (p − 1))an xn−p .
En particulier, on a
ap =
1 (p)
f (0) .
p!
172
CHAPITRE 16. SÉRIES ENTIÈRES
16.2.3
Fonctions développables en série entière
Définition 16.21. Une fonction f à valeurs réelles, définie au voisinage de 0 est
dite développable
en série entière au voisinage de 0 P
s’il existe r > 0 et une série
P
n
n
entière
tels que ∀x ∈] − R; R[, f (x) = ∞
n≥0 an x
n=0 an x .
Propriété 16.22. Ainsi, pour que f soit développable en série entière en 0, il
faut que
1. f soit C ∞ au voisinage de 0.
P
(n)
2. La seule série entière possible est sa série de Taylor en 0 : n≥0 f n!(0) xn .
Cette série entière doit avoir un rayon de convergence R > 0.
P
(n)
3. De plus, on doit avoir (ce n’est pas immédiat) : f (x) = n≥0 f n!(0) xn ce
qui équivaut à
Z x
(x − t)n n+1
f (t)dt = 0
lim
n∞ 0
n!
pour tout x ∈] − R; R[.
1
Contre-exemple 16.23. La fonction f : x 7→ f (x) := e− x2 1x≥0 est de classe C ∞
mais elle n’est pas développable en série entière. On a lim+ f (x) = f (0) = 0. Et,
pour tout p ∈ N, on a
x→0
1
f (p) (x) = Q(x)e− x2 1x≥0 ,
où Q est une fraction rationnelle. On a donc f (p) (0) = 0 pour tout p ∈ N. Or, on
n’a pas
∞
X
1
0.xn = e− x2 1x≥0 ,
n=0
si x > 0.
16.2.4
Développements classiques
On présente ici les développements en série entière classiques.
16.2.4.1
Développements connus
∞
X
xn
1. exp(x) =
2. sinh(x) =
n=0
∞
X
3. cosh(x) =
n=0
∞
X
n=0
4. sin(x) =
n!
, pour tout x ∈ R.
x2n+1
, pour tout x ∈ R.
(2n + 1)!
x2n
, pour tout x ∈ R.
(2n)!
∞
X
(−1)n x2n+1
n=0
(2n + 1)!
, pour tout x ∈ R.
16.3. EXERCICES
5. cos(x) =
6.
1
=
1−x
∞
X
(−1)n x2n
n=0
∞
X
n=0
(2n)!
, pour tout x ∈ R.
xn , pour tout x ∈] − 1; 1[.
7. log(1 − x) = −
8.
173
∞
∞
X
xn
n=1
n
pour tout x ∈] − 1; 1[.
X
1
=
(−x)n pour tout x ∈] − 1; 1[.
1 + x n=0
9. log(1 + x) =
α
∞
X
(−1)n−1 xn
n=1
∞
X
10. (1 + x) = 1 +
n=1
16.2.4.2
n
Qn−1
k=0
pour tout x ∈] − 1; 1[.
(α − k) n
x pour tout x ∈] − 1; 1[ et α ∈ R.
n!
Intégration d’un développement connu
On connaît le développement de la fonction f (x) :=
f (x) =
∞
X
2 n
(−x ) =
n=0
∞
X
1
.
1+x2
On a
(−1)n x2n ,
n=0
pour tout x ∈] − 1; 1[. Puis, on intègre et il vient
arctan(x) =
∞
X
(−1)n x2n+1
n=0
2n + 1
,
pour tout x ∈] − 1; 1[.
16.3
Exercices
Exercice 1
Dire si les affirmations suivantes sont vraies ou fausses. En donner une démonstration ou un contre-exemple.
P
P
1. Les séries
an z n et (−1)n an z n ont même rayon de convergence.
P
P
2. Les séries
an z n et (−1)n an z n ont même domaine de convergence.
Exercice 2
Trouver le rayon de convergence de la série entière
1. an −→ l 6= 0.
P∞
n=0
an z n avec
174
CHAPITRE 16. SÉRIES ENTIÈRES
2. La suite (an )n est périodique non nulle.
3. an :=
nn
.
n!
4. an2 = n! et ak = 0 si
√
k∈
/ N.
Exercice 3
Développer en séries entières les fonctions suivantes :
1. log(1 + x + x2 ).
2. (x − 1) log(x2 − 5x + 6).
√
3. x log(x + x2 + 1).
4.
5.
x−2
.
x3 −x2 −x+1
q
1−x
.
1+x
Chapitre 17
Séries de Fourier
17.1
17.1.1
Coefficients de Fourier
Généralités
On appelle CM2π l’espace vectoriel complexe des fonctions 2π-périodiques
continues par morceaux de R dans C.
Proposition 17.1. Étant donnée une fonction g continue par morceaux, définie
sur un intervalle de longueur 2π, I := [a; a + 2π], avec g(a) = g(a + 2π), il existe
une seule fonction f de CM2π qui coïncide avec g sur [a; a + 2π]. Et, pour tout
k ∈ Z, ∀x ∈ [a + 2kπ; a + 2kπ + 2π], on a f (x) = g(x − 2kπ).
Proposition 17.2. L’intégrale de toute fonction f ∈ CM2π sur une période 2π
ne dépend pas de la borne de départ. En d’autres termes, pour tout a ∈ R, on a
Z
a+2π
f (t)dt =
a
Z
2π
f (t)dt .
0
Démonstration. En effet, on peut écrire
Z
a+2π
f (t)dt =
a
Z
0
f (t)dt +
a
=−
Z
Z
a
Z
2π
f (t)dt +
0
f (t)dt +
0
a
f (t)dt +
=−
0
Z 2π
f (t)dt ,
=
Z
Z
0
ce qui achève la preuve.
175
2π
Z
a+2π
f (t)dt
2π
f (t)dt +
0
2π
f (t)dt +
0
Z
Z
a
f (t + 2π)dt
0
a
f (t)dt
0
176
17.1.2
CHAPITRE 17. SÉRIES DE FOURIER
Coefficients de Fourier sous forme complexe
Définition 17.3. Pour f ∈ CM2π , on définit la suite complexe fˆ := fˆ(n)
n∈Z
par
Z π
1
fˆ(n) := cn (f ) =
f (t)e−int dt .
2π −π
Propriété 17.4. Il s’agit donc du produit scalaire entre la fonction f et la fonction
en (t) := eint divisé par la norme au carré de en . On peut ainsi écrire
cn (f ) =
hf ; en i
.
||en ||2
Propriété 17.5. Pour tout n ∈ Z, cn (f ) = c−n (f ).
Exercice 17.6. Prouver la Propriété 17.5.
Propriété 17.7. Soit g(t) := f (−t). Pour tout n ∈ Z, cn (g) = c−n (f ).
Démonstration. En effet, on a
Z π
Z π
1
1
−int
cn (g) =
e
g(t)dt =
e−int f (−t)dt .
2π −π
2π −π
On applique le changement de variable u := −t et il vient
Z −π
Z π
1
1
inu
e f (u)du =
e−i(−n)u f (u)du = c−n (f ) .
cn (g) = −
2π π
2π −π
Propriété 17.8. De la Propriété 17.7, on en déduit que si f est paire alors
c−n (f ) = cn (f ). De même, si f est impaire alors c−n (f ) = −cn (f ).
17.1.3
Coefficients de Fourier sous forme trigonométrique
Définition 17.9. Pour f ∈ CM2π , pour tout n ∈ N∗ , on définit an (f ) par
Z
1 π
an (f ) =
f (t) cos(nt)dt .
π −π
Propriété 17.10. Il s’agit donc du produit scalaire entre la fonction f et la fonction t 7→ cos(nt) divisé par la norme au carré de la fonction t 7→ cos(nt).
Définition 17.11. Pour f ∈ CM2π , on définit a0 (f ) par
Z π
1
f (t)dt .
a0 (f ) =
2π −π
17.1. COEFFICIENTS DE FOURIER
177
Propriété 17.12. Il s’agit donc du produit scalaire entre la fonction f et la fonction t 7→ 1 divisé par la norme au carré de la fonction t 7→ 1.
Définition 17.13. Pour f ∈ CM2π , pour tout n ∈ N∗ , on définit bn (f ) par
Z
1 π
f (t) sin(nt)dt .
bn (f ) =
π −π
Propriété 17.14. Il s’agit donc du produit scalaire entre la fonction f et la fonction t 7→ sin(nt) divisé par la norme au carré de la fonction t 7→ sin(nt).
On peut lier cn (f ) avec an (f ) et bn (f ) :
Proposition 17.15. On observe c0 (f ) = a0 (f ) et pour tout n ∈ N∗ , cn (f ) =
an (f )−ibn (f )
n (f )
et c−n (f ) = an (f )+ib
.
2
2
Réciproquement, an (f ) = cn (f ) + c−n (f ) et bn (f ) = i(cn (f ) − c−n (f )) pour tout
n ∈ N∗ .
Exercice 17.16. Démontrer la Proposition 17.15.
17.1.4
Série de Fourier
17.1.4.1
Définition
À tout élément f de CM2π , on associe sa série de Fourier :
!
X
cn (f )eint
n∈Z
ou encore
X
an (f ) cos(nt) + bn (f ) sin(nt)
n≥0
!
.
Remarque 17.17. Cette série correspond à la somme des vecteurs orthogonaux
qui constituent le signal f .
17.1.4.2
Sommes partielles
On définit la suite des sommes partielles (Sp (f ))p∈N associées à la série de
Fourier de f :
Sp (f ) =
p
X
cn (f )e
int
n=1
n=−p
= a0 (f ) +
= c0 (f ) +
p
X
p
X
cn (f )eint + c−n (f )e−int
(an (f ) cos(nt) + bn (f ) sin(nt)) .
n=1
Propriété 17.18. Si f est paire, bn (f ) = 0 d’où Sp (f ) = a0 (f )+
Propriété 17.19. Si f est impaire, an (f ) = 0 d’où Sp (f ) =
p
X
an (f ) cos(nt).
n=1
Pp
n=1 bn (f ) sin(nt).
178
CHAPITRE 17. SÉRIES DE FOURIER
17.1.5
Étude de la suite des coefficients de Fourier
On rappelle fˆ(n) = cn (f ).
17.1.5.1
Linéarité
L’application f 7→ fˆ est linéaire sur CM2π . En d’autres termes :
cn (λf + g) = λcn (f ) + cn (g) ,
pour toutes les fonctions f et g dans CM2π et pour toute constante complexe λ.
17.1.5.2
Bornitude
La suite fˆ est bornée :
Z π
1
ˆ sup f (n) ≤
|f (t)| dt
2π −π
n∈Z
Cette inégalité se démontre facilement en utilisant l’inégalité triangulaire.
17.1.5.3
Convergence vers 0 en l’infini
En outre, cn (f ) tend vers 0 quand n tend vers ±∞. Pour démontrer cette limite, on peut montrer que la suite fˆ est de carré sommable (comme on le fera dans
la section 17.2) mais on peut aussi procéder comme suit. On regarde uniquement
le cas où n tend vers +∞. L’ensemble des fonctions 2π-périodiques dérivables et
de dérivées continues étant dense dans CM2π , on peut supposer sans rien changer
à la généralité que l’on a f dérivable.
Z π
1
cn (f ) =
f (t)e−int dt .
2π −π
On procède à une intégration par parties :
Z π
Z π
1
e−int
1
1
′
−int
cn (f ) =
f (t)
+
f (t)e
dt =
f ′ (t)e−int dt .
2π
−in
2iπn −π
2iπn −π
On a donc
17.1.5.4
1
|cn (f )| ≤
2πn
Z
π
−π
|f ′ (t)| dt −→ 0 .
Coefficients de Fourier d’une dérivée
Théorème 17.20. Si f de R dans C est une fonction 2π-périodique continue sur
R et de classe C 1 par morceaux alors, pour tout n ∈ Z, on a
cn (f ′ ) = incn (f ) .
17.2. CONVERGENCE EN MOYENNE QUADRATIQUE
179
Démonstration. On calcule simplement
Z π
1
′
cn (f ) =
f ′ (t)e−int
2π −π
Z π
1
1 −int π
−
f (t)e−int dt
(−in)
f (t)e
=
−π
2π
2π
−π
Z
in π
=
f (t)e−int dt
2π −π
= incn (f ) .
On peut aller plus loin en procédant par récurrence
Théorème 17.21. Si f de R dans C est une fonction 2π-périodique de classe
C k−1 sur R et de classe C k par morceaux alors, pour tout n ∈ Z, on a
cn (f (k) ) = (in)k cn (f ) .
En particulier, cn (f ) est négligeable devant |n|−k .
Exercice 17.22. Prouver le théorème 17.21.
17.2
Convergence en moyenne quadratique
On considère ici des fonctions continues. L’idée est ici d’aborder la série de
Fourier comme la décomposition orthogonale de la fonction f .
17.2.1
L’espace préhilbertien C2π
Définition 17.23. On note C2π l’espace vectoriel des fonctions de R dans C
continues, 2π-périodiques. On le munit du produit scalaire complexe
Z π
1
hf ; gi :=
f (t)g(t)dt
2π −π
pour tous f, g ∈ C2π . À ce produit scalaire, on associe la norme
s Z
π
1
|f (t)|2 dt .
||f ||2 :=
2π −π
||f ||2 s’appelle la moyenne quadratique de f sur [−π; π].
Proposition 17.24. La famille (en )n∈Z est orthonormale avec en (t) := eint .
180
CHAPITRE 17. SÉRIES DE FOURIER
Démonstration. Si n 6= p, on a
Et, si n = p, on a
1
hen ; ep i =
2π
Z
1
hen ; en i =
2π
Z
Ainsi, on a
Sp (f ) =
p
X
π
ei(n−p)t = 0 .
−π
π
ei(n−n)t = 1 .
−π
cn (f )en =
p
X
−p
−p
hf ; en i en .
Alors, Sp (f ) est en fait la projection orthogonale de f sur le sous-espace vectoriel
Vect (e−p , · · · , e−1 , e0 , e1 , · · · , ep ). On note Pp ce sous-espace vectoriel
corresPp qui int
pond à l’ensemble des polynômes trigonométriques du type t 7→ −p αn e . On
en déduit d (f ; Pp ) = ||f − Sp (f )||2 d’où aussi
||f ||22 = ||Sp (f )||22 + d (f ; Pp )2 ≥ ||Sp (f )||22 .
On obtient alors l’inégalité de Bessel :
p
X
n=−p
|cn (f )|2 ≤ ||f ||22 ,
pour tout p ∈ N. En particulier, on en déduit que la suite
P
p
2
n=−p |cn (f )|
est bornée. Or elle est croissante donc elle converge et l’on a de plus
∞
X
|cn (f )|2 ≤ ||f ||22 .
n∈N
n=−∞
17.2.2
Convergence en moyenne quadratique
Théorème 17.25. Pour tout élément f de CM2π , la suite des sommes partielles
de Fourier (Sp (f ))p∈N converge vers f dans l’espace préhilbertien C2π . En d’autres
termes :
Z π
1
|Sp (f )(t) − f (t)|2 dt = 0 .
lim ||Sp (f ) − f ||2 = lim
p→∞
p→∞ 2π −π
Corollaire 17.26 (Formule de Parseval). Pour tout élément f de CM2π , on a
Z π
∞
X
1
2
|f (t)| dt =
|cn (f )|2 .
2π −π
n=−∞
Sous forme trigonométrique, on a
Z π
∞
1X
1
2
2
|f (t)| dt = |a0 (f )| +
|an (f )|2 + |bn (f )|2 .
2π −π
2 n=1
17.3. CONVERGENCE PONCTUELLE
181
De même, on a
1
2π
Z
π
f (t)g(t)dt =
−π
∞
X
cn (f )cn (g) .
n=−∞
Exemple 17.27. Soit f une fonction 2π-périodique paire telle que f (x) = x2 pour
tout x ∈ [−π; π]. On calcule sa série de Fourier comme suit.
Comme f est paire, bn (f ) = 0 et si n ∈ N∗ ,
Z
1 π
f (t) cos(nt)dt
an (f ) =
π 0
Z π
1
=
t2 cos(nt)dt
π 0
π
Z π
1 2 sin(nt)
2
=
t
t sin(nt)dt
−
π
n
nπ 0
0
Z π
2
t sin(nt)dt
=−
nπ 0
π
Z π
2
cos(nt)
2
cos(nt)dt
−t
=−
− 2
nπ
n
nπ 0
0
2
= 2 (−1)n .
n
Puis, a0 (f ) =
π2
.
3
La formule de Parseval nous donne donc
1
2π
Z
π4 1 X 4
t dt =
+
.
9
2 n=1 n4
−π
On en déduit par ailleurs
17.3
∞
π
4
∞
X
π4
1
=
n4
90
n=1
Convergence ponctuelle
Théorème 17.28. Soit f une fonction 2π-périodique de R dans C, continue sur
R et de classe C 1 par morceaux. Alors la famille des coefficients de Fourier de f
est sommable. En d’autres termes, on a
X
|cn (f )| < ∞ .
n=−∞
De plus, pour tout x ∈ R, on a
f (x) = lim Sp (f )(x) .
p→∞
182
CHAPITRE 17. SÉRIES DE FOURIER
17.4
Exercices
Exercice 1
Calculer le développement des fonctions f 2π-périodiques telles que :
1. f (x) = π − |x| sur ] − π, π[.
2. f (x) = π − x sur ]0, 2π[.
3. f (x) = x2 sur ]0, 2π[.
4. f (x) = max(0, sin x).
5. f (x) = | sin x|3 .
Exercice 2
Montrer que pour tout x ∈ R,
∞
8 X sin2 (nx)
| sin x| =
.
π n=1 4n2 − 1
Exercice 3
Soit f la fonction 2π-périodique telle que f (x) = ex sur [−π; π[.
1) Chercher le développement en série de Fourier de f .
P
P∞ (−1)n
1
′
2) En déduire les sommes des séries S = ∞
n=1 n2 +1 et S =
n=1 n2 +1 .
Exercice 4
1) Donner le développement en série de Fourier de la fonction 2π-périodique
ax
définie sur ]0,
P2π[ para f (x) := e avec
Pa 6= 0.
2) Calculer n≥1 a2 +n2 . En déduire n≥1 n12 .
X
a
3) Que vaut lim
2
a→+∞
a + n2
n≥1
Téléchargement