cplex - Pierre L. Douillet

publicité
Algèbre linéaire et variable complexe
Pierre L. Douillet
18 novembre 2016
Ce polycopié regroupe les notes de cours correspondant aux modules E1-cplex:2001/2002, E1cplex:2002/2003 et A1-cplex:2002/2003. Le cours 2001/2002 portait sur les parties 2, 3, 4, 5
tandis que le cours 2002/2003 portait sur les parties 1, 2, 3, 5. Autrement dit la partie "séries
génératrices" a été repoussée en 2ème année pour faire place à des rappels d’algèbre linéaire.
Table des matières
1 Algèbre linéaire
1.1 Le signe = . . . . . . . . . . . . .
1.2 Équations affines et matrices . .
1.3 Déterminant 2 × 2 . . . . . . . .
1.4 Déterminant 3 × 3 . . . . . . . .
1.5 Le déterminant mesure le volume
1.6 Valeurs propres, vecteurs propres
1.6.1 Matrice de rotation 2 × 2
1.6.2 Matrice d’impédance . . .
2 Les
2.1
2.2
2.3
2.4
2.5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
nombres complexes comme action sur
Multiplier un vecteur par un nombre . . .
Espace vectoriel, espace affine . . . . . . .
Conjugaison et module . . . . . . . . . . .
Angles et cercles . . . . . . . . . . . . . .
Racines carrées . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
les points d’un
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
8
8
10
10
11
11
plan
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
14
14
15
16
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Cycles et homographies
3.1 Similitudes . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Homographies : définitions . . . . . . . . . . . . . . . .
3.4 Un exemple : l’algorithme de la racine carrée (Newton)
3.5 Les homographies conservent les cycles . . . . . . . . .
3.6 Sphère de Riemann . . . . . . . . . . . . . . . . . . . .
3.7 Récurrences homographiques . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
19
20
21
21
22
4 Séries génératrices
4.1 Définition et rappels sur les séries . . . . . . .
4.2 Propriétés élémentaires des séries génératrices
4.3 Exemples élémentaires . . . . . . . . . . . . .
4.4 Les polynômes de Chebyschev . . . . . . . . .
4.5 Séries génératrices et stats-probas . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
26
26
26
27
5 Séries de Fourier
5.1 Quelques rappels . . . . . . . . . . . . . . . .
5.2 Produit scalaire . . . . . . . . . . . . . . . . .
5.3 Gramm-Schmidt par l’exemple . . . . . . . .
5.4 Parseval par l’exemple . . . . . . . . . . . . .
5.5 Projections orthogonales et inégalité de Bessel
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
30
31
32
3
4
TABLE DES MATIÈRES
Table des figures
1.1
Un circuit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.1
2.2
2.3
Diviser un segment en 7 parties égales. . . . . . . . . . . . . . . . . . . . . . . . .
Théorème de l’angle au centre. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Racine carrée d’un nombre complexe. . . . . . . . . . . . . . . . . . . . . . . . . .
13
15
16
3.1
3.2
Un carré et son image par homographie. . . . . . . . . . . . . . . . . . . . . . . .
Un cercle et sa projection stéréographique. . . . . . . . . . . . . . . . . . . . . . .
22
23
5
6
TABLE DES FIGURES
Chapitre 1
Algèbre linéaire
1.1
Le signe =
Definition 1.1.1. identité. On appelle identité une règle de substitution toujours valable. Ainsi
la règle :
a−b
a+b
∀a, b : sin a − sin b = 2 sin
cos
2
2
indique que le membre de gauche peut, en toutes circonstances, être remplacé par le membre
de droite (règle de factorisation). L’échange des membres de gauche et de droite conduit à la
substitution réciproque (règle de linéarisation).
Definition 1.1.2. affectation. En informatique, l’écriture x := 2 veut dire que, désormais, la
lettre x ne désigne plus une variable abstraite, mais le nombre 2.
Definition 1.1.3. équation. On appelle équation une situation pour laquelle on se demande
quelles sont les valeurs des lettres qui vérifient une relation particulière.
Corollary 1.1.4. Résoudre une équation consiste à déterminer toutes les solutions d’une équation.
Remark 1.1.5. Lorsque l’on enseigne à un ordinateur, il convient de distinguer soigneusement les
trois notions. Cela s’appelle l’informatique. Lorsque l’on enseigne à des étudiants, ils sont sensés
se débrouiller par eux mêmes en utilisant le contexte. Cela s’appelle les mathématiques.
1.2
Équations affines et matrices
Remark 1.2.1. Écriture matricielle. L’objectif est de réécrire une équation affine à plusieurs
variables sous la forme A X = B et de déterminer les situations où cette équation peut se
réécrire en X = A−1 B, conduisant à une solution et une seule.
Definition 1.2.2. matrice. On réécrit un système tel que
2x + 3y = 8
4x − y = 2
sous la forme
2 3
4 −1
x
y
=
8
2
La matrice d’un système est donc le tableau rectangulaire des coefficients des inconnues.
Definition 1.2.3. produit matriciel. Le produit M1 M2 de deux matrices (dans cet ordre) est
défini lorsque les lignes de M1 ont la même longueur que les colonnes de M2 . Cela revient à dire
que le nombre des colonnes de M1 est égal au nombre des lignes de M2 . En pareil cas, un élément
du produit est le produit scalaire d’une ligne de M1 par une colonne de M2 .
7
1.4. Déterminant 3 × 3
8
Exercise 1.2.4. Soient deux matrices, A de taille (m, n) et B de taille (p, q). A quelle condition
a-t-on l’existence des deux produits A B et B A ? Et alors, quelle est la condition supplémentaire
pour qu’ils aient mêmes dimensions ?
Remark 1.2.5. Méthode pratique. Il est recommandé de disposer le produit de deux matrices
sous la forme :
t
u
v
w
a b
at + bv au + bw
c d
ct + dv cu + dw
Theorem 1.2.6. Le produit de matrices est associatif : les produits (A B) C et A (B C) existent
en même temps et alors sont égaux.
Theorem 1.2.7. Si l’on se limite aux matrices carrées d’une taille donnée, et si l’on définit
l’addition case par case, les règles algébriques usuelles continuent d’être valable, à l’exception du
fait que la multiplication n’est plus commutative.
Exercise 1.2.8. Vérifier que la matrice nulle est neutre pour l’addition. Quelle est la matrice
neutre pour la multiplication ? Quel sens donner à l’écriture A + 4 ?
Exercise 1.2.9.
que A2 − 5 A
+ 6 donne la
Vérifier
matrice nulle dans les deux cas suivants :
2 0
0
1
lorsque A =
ou lorsque A =
.
0 3
−6 −5
Exercise 1.2.10. Déterminer toutes les matrices de taille 2 × 2 telles que A2 − 5 A + 6 = 0.
1.3
Déterminant 2 × 2
Definition 1.3.1. coA (matrice complémentaire). Pour une matrice carrée de taille 2, on pose :
d −b
a b
=
co
−c a
c d
Definition 1.3.2. déterminant. Pour une matrice carrée de taille 2, on pose :
a b
= ad − bc
det
c d
Theorem 1.3.3. Pour toute matrice carrée, on a M coM = coM M = det M I
Exercise 1.3.4. Vérifier en posant le calcul.
Theorem 1.3.5. Le déterminant détermine si une matrice est inversible.
Theorem 1.3.6. Le déterminant dtu produit de deux matrices carrées est le produit des déterminants.
Exercise 1.3.7. Vérifier en posant le calcul. Puis retrouver la démonstration générale...
1.4
Déterminant 3 × 3
1. Présentation. On considère le système suivant, à

 ax + by + cz
dx + ey + f z

gx + hy + j z
trois équations et trois inconnues :
= u
= v
= w
Si l’on avait c = f = j = 0, ce serait un système à deux inconnues : on peut donc supposer
que l’un des coefficients est non nul (dans ce qui suit, on suppose c 6= 0).
1.4. Déterminant 3 × 3
9
2. Par combinaisons linéaires, on obtient la condition nécessaire :
(a f − d c) x + (b f − e c) y = t f − u c
(g c − a j) x + (c h − b j) y = c v − j t
et, par de nouvelles combinaisons linéaires, à :
[(g c − a j) (b f − e c) − (a f − d c) (c h − b j)] x = [() () − () ()]
3. On constate que c 6= 0 se met en facteur, et on trouve :
(aej + bf g + cdh − af h − bdj − ceg) x = (uej + bf w + cvh − uf h − bvj − cew)
Ce résultat peut être mémorisé par la
a b
d e
g h
règle de Sarrus,
u b
c f x = v e
w h
j et conduit à
c f j Theorem 1.4.1. Cramer. La quantité ∆ = (aej + bf g + cdh − af h − bdj − ceg) détermine les
systèmes affines ayant une solution et une seule. Celle-ci est alors égale à
xj = ∆j ÷ ∆, j = 1 · · · 3
Exercise 1.4.2. Le point clef est que chacun des trois calculs (pour chacune des indéterminées)
conduit au même dénominateur. Vérifier que tel est bien le cas.
Exercise 1.4.3. Les calculs précédents établissent des conditions nécessaires. Vérifier qu’elles
sont suffisantes.
Exercise 1.4.4. Vérifier que le déterminant d’un produit de matrices 3 × 3 est bien encore le
produit des déterminants.
Definition 1.4.5. cofacteur. Le cofacteur de Ajk est le facteur de cet élément dans le développement du déterminant de A.
Definition 1.4.6. mineur. Le déterminant mineur associé à Aij est le déterminant plus petit
obtenu en supprimant la ligne et la colonne de Ajk .
Theorem 1.4.7. Le cofacteur de Ajk est égal au mineur associé, affecté du signe + ou − selon
que l’élément occupe une place paire (j + k pair) ou une place impaire (j + k impair).
Definition 1.4.8. matrice complémentaire. Chaque ligne de la matrice coA est formée des
cofacteurs associés à une colonne de A.
1 2 3 Example 1.4.9. Soit A = 5 2 7 . Alors la matrice complémentaire est :
−1 2 2 2 3 2 3 2 7 −
2 7 2 2 2
2
8 1 3 −10 2
5 7 1 3 −
8 −1 2 −1 2 − 5 7 = −17 5
12 −4 −8 5 2 1 2 1 2 −1 2 − −1 2 5 2 Theorem 1.4.10. On a A coA = coA A = det A I3
Exercise 1.4.11. Les valeurs diagonales viennent de la définition même. Qu’en est-il pour les
autres éléments ?
Exercise 1.4.12. Calcul d’inverses variés.
10
1.5
1.6. Valeurs propres, vecteurs propres
Le déterminant mesure le volume
Theorem 1.5.1. En dimension n = 2, le déterminant mesure la surface du parallélogramme
construit sur les deux vecteurs.
Démonstration. On a la formule :
−→ −→ 2
2
2
2
M1 M2 + (M1 , M2 ) = (x1 y2 − x2 y1 ) + (x1 x2 + y1 y2 )
= x21 + y12 × x22 + y22
Comme le produit scalaire est le produit des longueurs par le cosinus, le déterminant est le
produit des longueurs par le sinus (par continuité, le signe reste constant et ne dépend que de
l’orientation du repère).
Definition 1.5.2. En dimension n, le déterminant mesure l’hyper-volume construit sur les n
vecteurs.
Theorem 1.5.3. changement de variable dans une intégrale. Le déterminant de la matrice jacobienne mesure la façon dont se transforme le volume élémentaire au dessus duquel on calcule
l’intégrale.
Remark 1.5.4. Rappel n = 1. On a :
Z
t=φ(b)
Z
u=b
f (t) dt =
(f ◦ φ) (u) × φ0 (u) du
u=a
t=φ(a)
R t=9
R u=3
Exercise 1.5.5. Vérifier que t=1 t3 dt = 41 94 − 44 = 1640 et comparer avec u=1 u6 2u du =
2
7
7 = 1640.
7 3 −1
Rb
Exercise 1.5.6. Calculer a √ 1
dx par changement de variable.
(b−x)(x−a)
Proposition 1.5.7. Jacobien en polaire. On a les relations :
dρ
cos θ −ρ sin θ
dx
x = ρ cos θ
=
;
dθ
sin θ ρ cos θ
dy
y = ρ sin θ
;
Jac = ρ
Exercise 1.5.8. Retrouver la formule du jacobien en coordonnées sphériques.
Exercise 1.5.9. On considère la pyramide définie par x > 0, y > 0, z > 0, 1 > x + y +
z. Vérifier que le changement de variables u = x + y + z, v = (x + y) / (x + y + z) et w =
x/ (x + y) transforme l’intérieur de la pyramide en l’intérieur d’un cube. Utiliser le jacobien de
la transformation pour retrouver le volume de la pyramide.
2
R +∞
Proposition 1.5.10. intégrale de Gauss. L’existence de I = −∞ exp − x2 dx est assurée par
convergence dominée. Et on obtient :
2
2
2
Z +∞
Z +∞
Z
y
x + y2
x
2
dx
dy =
exp −
dx dy
I =
exp −
exp −
2
2
2
−∞
−∞
R2
2
2
Z
Z ∞
Z +π
ρ
ρ
2
ρ dρ dθ =
dρ
=
exp −
exp −
dθ = 2π
2
2
R2
0
−π
1.6
Valeurs propres, vecteurs propres
Definition 1.6.1. Pour commencer, un "vecteur propre" est un vecteur non nul (ce qui importe,
c’est sa direction).
Remark 1.6.2. Rappel. Un espace vectoriel est un ensemble sur lequel le mode d’opération "naturel" est les combinaisons linéaires.
1.6.1. Matrice de rotation 2 × 2
11
Definition 1.6.3. Définition : application linéaire. C’est une application d’un espace vectoriel
dans un autre qui est compatible avec les opérations (l’image d’une somme est la somme des
images et, plus généralement, l’image d’une combinaison linéaire est la combinaison linéaire des
images).
Definition 1.6.4. Définition. Si φ : E ,→ E est une application linéaire, on dit que le vecteur
non nul v est vecteur propre associé à la valeur propre λ lorsque φ (v) = λ v.
Definition 1.6.5. Définition : équation caractéristique. Il y a équivalence entre "v est vecteur
propre" et (φ − λ id) (v) = 0 et donc équivalence avec
det (φ − λ id) = 0
Le nom "caractéristique" vient de ce que cette équation est indépendante de la base choisie pour
écrire les équations. En effet, on a M̂ = P −1 M P et donc
det M̂ − λ = det P −1 M P − P −1 λ P = det P −1 det (M − λ) det P = det (M − λ)
1.6.1
Matrice de rotation 2 × 2
1. On sait que les rotations de centre O dans le plan euclidien ont pour matrice M =
cos θ − sin θ
.
sin θ cos θ
2. Leur polynôme caractéristique est :
χM (λ) = det (M − λ) = λ2 − 2 cos θ λ + 1
3. Les valeurs propres sont donc cos
θ ± i sin θ = exp (±i θ). Un peu de calcul montre que
1
. Il n’est pas inutile de normaliser la matrice de passage
les vecteurs propres sont
±i
qui s’écrit alors
1
1
1
1
1 −i
−1
P =√
; P =√
2 +i −i
2 1 +i
4. Et l’on voit que P −1 M P est une matrice diagonale, dont les éléments sont les valeurs
propres.
1.6.2
Matrice d’impédance
Figure 1.1 – Un circuit.
1. Il est bien connu qu’un circuit éléctrique comme celui de la Fig. 1.1 peut être décrit
"selon les branches" ou bien "selon les mailles". La première méthode est plus facile à
automatiser (description composant par composant), tandis que la deuxième nécessite une
identification préalable des "mailles indépendantes".
12
1.6. Valeurs propres, vecteurs propres
2. Une fois la liste des mailles établies, la mise en équation est aisée, et conduit à :

 


E1
R+ρ
−ρ
0
i1
 E2  =  −ρ
R + 2ρ
−ρ   i2 
E3
−ρ
R+ρ
i3
La matrice m×m intervenant dans cette équation (matrice d’impédance) a pour éléments
diagonaux Zjj les résistances de maille (c’est à dire la somme de toutes les résistances appartenant à la maille j), tandis que les autres éléments Zjk sont les opposés des résistances
de branche (les résistances communes aux mailles j et k).
3. Une telle matrice est évidemment symétrique (et donc ses valeurs propres sont réelles).
Comme de plus ces matrices sont à diagonale dominante, les valeurs propres sont positives.
4. Pour l’exemple donné, ... (à traiter en TD !)
Chapitre 2
Les nombres complexes comme action
sur les points d’un plan
2.1
Multiplier un vecteur par un nombre
L’objectif de cette section est de rappeler le mode d’emploi d’un certain nombre de notions
de géométrie. La question du bien fondé de ces notions "élémentaires" est une question tout à
fait intéressante (et tout à fait difficile). Nous nous limiterons à faire remarquer que ces notions
"ne peuvent pas être totalement infondées" car elles font partie, d’une manière ou d’une autre
des réflexes acquis qui permettent la vie quotidienne.
Remark 2.1.1. L’un des grands progrès de la géométrie a consisté à "introduire des nombres"
et à remplacer autant que possible les problèmes de géométrie par des problèmes (algèbre ou
analyse) concernant les nombres.
Definition 2.1.2. Un repère cartésien (O, ~u, ~v ) sert à décrire les points M du plan par M =
O + x ~u + y ~v . L’opération (x, ~v ) 7→ x ~v , pour x nombre et ~v vecteur, est donc fondamentale.
Definition 2.1.3. Produit d’un vecteur par un nombre. On procède par étapes.
1. On définit n ~v , pour n ∈ N par le fait de mettre bout à bout n vecteurs égaux à ~v . En
particulier 0 ~v = ~0 et 1 ~u = ~u.
2. La multiplication par un entier négatif consiste à reporter les vecteurs dans le sens opposé,
et l’on a donc n ~v + (−n) ~v = ~0.
3. Multiplier un vecteur ~v par la fraction nd (avec d > 0) consiste à calculer n d1 ~v , tandis que
diviser un vecteur par un entier (non-nul !) consiste à appliquer le théorème de Thalès : on
construit le segment [A; C] en reportant d fois un segment issu lui aussi de A, mais situé
sur une autre droite. Les droites parallèles à la droite (BC) et passant par les subdivisions
équidistantes de [A, C] découpent le segment [A, B] en segments égaux.
C
B
A
Figure 2.1 – Diviser un segment en 7 parties égales.
13
14
2.3. Conjugaison et module
4. Le produit λ ~v , pour λ ∈ R s’obtient en encadrant λ par des rationnels de plus en plus
proche et en passant à la limite sur les points obtenus.
5. Les produits λ ~v introduits jusqu’ici conservent la direction du vecteur (ou amènent ce
vecteur sur ~0). L’introduction des complexes permettra les changements de direction.
6. Encore une fois, ce qui précède est destiné à décrire ce qui se passe, et pas à en démontrer
le bien-fondé.
2.2
Espace vectoriel, espace affine
Definition 2.2.1. On rappelle qu’un espace vectoriel est un ensemble pour lequel l’opération
"naturelle" est la combinaison linéaire, donnant un vecteur a ~v + b w
~ à partir des deux vecteurs
~v et w.
~
Definition 2.2.2. Un espace affine est un ensemble pour lequel l’opération "naturelle" est le
barycentre (combinaisons linéaire dont la somme des masses vaut 1), donnant un point a M + b P
à partir des deux points M et P .
Remark 2.2.3. L’illustration la plus simple des espaces vectoriels est une droite passant par
l’origine. Toutes les combinaisons linéaires restent sur la droite.
Remark 2.2.4. L’illustration la plus simple des espaces affines est une droite parallèle à la précédente. Si cette droite affine ne passe pas par l’origine, seules les combinaisons linéaires a M + b P
de masse totale a + b = 1 restent sur la droite, les autres sortent de la droite, et viennent se
placer sur une autre parallèle, dépendant de la valeur de a + b.
Exercise 2.2.5.
P Soient M1 · · · Mn des points du plan et a1 · · · an des coefficients. Montrer que
l’expression Pj aj Mj définit un objet intrinsèqueP(c’est à dire indépendant du repère) si et
seulement si
aj = 0 (définissant un vecteur) ou
aj = 1 (définissant un point).
2.3
Conjugaison et module
Definition 2.3.1. On définit i par i ~v est le vecteur obtenu en faisant pivoter ~v d’un quart de
tour.
Proposition 2.3.2. On a donc i2 = −1, parce que un quart de tour suivi d’un autre quart de
tour, cela fait un demi-tour.
Definition 2.3.3. conjugaison. Si l’on regarde le plan "par en-dessous", l’orientation change et
i est remplacé par −i : c’est la conjugaison, définie par a + i b = a − i b (pour a, b ∈ R).
Theorem 2.3.4. conjugaison. On a z1 + z2 = z1 + z2 et z1 × z2 = z1 × z2 .
Démonstration. En effet, la conjugaison consiste à regarder le même spectacle, mais en se plaçant
soit d’un côté du plan, soit de l’autre côté.
Definition 2.3.5. On pose <z = x (partie réelle) et =z = y (partie imaginaire). On remarquera
que la partie imaginaire est un réel (c’est ennuyeux, mais c’est comme cela).
Proposition 2.3.6. Formules. <z =
1
2
(z + z) et =z =
1
2i
(z − z).
Theorem 2.3.7. Théorème de Pythagore. On a OM 2 = x2 + y 2 = (x + i y) (x − i y) = z z.
p
√
Definition 2.3.8. module. On pose |z| = z z = x2 + y 2 .
Exercise 2.3.9. Calculer les modules de 3 + 4i, 5 + 12i, 2 + i, 56 − 33i.
Proposition 2.3.10. module. On a ∀z ∈ C : 0 ≤ |z| et (z = 0) ⇔ (|z| = 0).
Exercise 2.3.11. Trouver z tel que |z + 5| = |z − i|.
2.4. Angles et cercles
15
Exercise 2.3.12. Montrer que, pour tous z1 , z2 ∈ C, on a : |z1 + z2 |2 +|z1 − z2 |2 = 2 |z1 |2 + |z2 |2 .
Interprétation géométrique ?
Theorem 2.3.13. inverse. Tout complexe non nul possède un inverse, à savoir
1
z.
|z|2
Remark 2.3.14. rappel: un théorème n’est pas quelque chose de difficile à prouver, mais quelque
chose ayant de grandes conséquences.
Exercise 2.3.15. Simplifier
2.4
1+cos x+i sin x
1−cos x−i sin x
Angles et cercles
Definition 2.4.1. partie unitaire. Pour z 6= 0, on pose u(z) = z ÷ |z|.
Exercise 2.4.2. Vérifier que u(z) est unitaire, c’est à dire que |u(z)| = 1 (cercle trigonométrique).
Exercise 2.4.3. Module et argument de
1
1+i tan x .
Theorem 2.4.4. écriture multiplicative. Tout complexe z non nul s’écrit z = k u avec k > 0,
u ∈ U. Cette décomposition est unique et de plus (k1 u1 ) (k2 u2 ) = (k1 k2 ) (u1 u2 ) : isomorphisme.
Proposition 2.4.5. Transformation M 7→ z M . Pour k > 0 fixé, la transformation plane M 7→
k M est une homothétie. Pour u ∈ U fixé, la transformation plane M 7→ u M est une rotation.
Dans le cas général, M 7→ z M définit une similitude (conservation des angles et proportionnalité
des longueurs).
Exercise 2.4.6. Tracer le carré 1 + i, 2 + i, 2 + 2i, 1 + 2i. Déterminer et tracer son produit par
3+4i
5 (on trouve un carré de même taille), puis par −2 + i (on trouve un carré plus grand).
2
2
2
−a
.
Theorem 2.4.7. Al Kashi. Dans un triangle de côtés a, b, c on a cos  = b +c
2b c
−−→ −−→ −→
Exercise 2.4.8. Retrouver cette formule en calculant le carré scalaire de BC = BA + AC.
Proposition 2.4.9. Projection stéréographique. On considère (Fig. 2.2) les points M (c, s) et
S (−1, 0) du cercle trigonométrique. On appelle P le point (SM )∩i R, avec P (0, i t). On trouve :
c=
1 − t2
,
1 + t2
s=
2t
1 + t2
M
P
S
O
A
Figure 2.2 – Théorème de l’angle au centre.
Theorem 2.4.10. Théorème de l’angle au centre. Les formules ci-dessus montrent que l’angle
ASM est la moitié de l’angle AOM . Plus précisément, on a
1 −→ −−→
((SA) , (SM )) =
OA, OM
2
−→ −−→
l’angle OA, OM étant un angle orienté de vecteurs non nuls, défini à un tour près par sinus
et cosinus (i.e. par w = c + i s) et l’angle ((SA) , (SM )) étant un angle de droites, défini à un
demi-tour près par une tangente (i.e. t ∈ R ∪ {∞} ).
16
2.5
2.5. Racines carrées
Racines carrées
Fact 2.5.1. Tout réel positif est le carré d’un et d’un seul réel positif que l’on appelle sa racine
√
carrée. Le symbole x est réservé à cet usage.
Remark 2.5.2. Cette propriété est fondamentale (et difficile à prouver correctement. Sans elle,
pas de module des nombres complexes... et donc pas de nombres complexes tout court.
Theorem 2.5.3. racine carrée complexe. Tout nombre complexe z 6= 0 possède deux racines
carrées (complexes). Ces deux racines sont opposées.
M
N
P
v
O
A
Figure 2.3 – Racine carrée d’un nombre complexe.
Proposition 2.5.4. Méthode de calcul. On décompose z en z = |z| w avec |z| > 0 et w ∈ U,
c’est à dire |w| = 1. Un nombre ζ tel que ζ 2 = z p
se décompose en ζ = k v. Par identification, on
2
2
+
a w = v et |z| = k . On a donc (dans R ) k = |z|.
Supposons w 6= −1 et appelons
N (Fig.2.3) le point ayant 1+w pour affixe. Alors la droite (ON )
−→
−−→
est la bissectrice de l’angle OA, OM . Elle coupe le cercle en deux points opposés, qui sont les
points v et −v cherchés. D’où la formule
ζ, −ζ = ±
z + |z| p
|z|
|z + |z||
Exercise 2.5.5. Calculer les racines carrées des nombres 3 + 4i, 4 + 3i, 2 + 3i
Theorem 2.5.6. (d’Alembert). Tout polynôme complexe possède exactement autant de racines
(complexes) que son degré (en convenant de compter multiplement les racines multiples).
Exercise 2.5.7. Montrer que l’équation a z 2 + b z + c = 0 avec a, b, c ∈ C (et a 6= 0) se résout
par les formules habituelles. Exemple : (1 + i) z 2 + (4 − 2i) z + (−9 − 7i).
Exercise 2.5.8. L’équation z 3 − (3 + 2i) z 2 + (3 + 11i) z − 2 (1 + 7i) = 0 a-t-elle des racines
réelles ? Résoudre. De même avec z 3 − (4 + 4i) z 2 − (2 − 8i) z + 12 = 0.
2
4
3
5
6
Exercise 2.5.9. Soit z = exp i 2π
7 . On pose S = z + z + z et T = z + z + z . Montrer que
S, T sont conjugués et que = (S) > 0. Calculer S + T et S T . Conclure.
Exercise 2.5.10. Soit P (z) un polynôme du troisième degré à coefficients complexes. Montrer
que les racines de P 0 (z) appartiennent au triangle déterminé par les racines de P (z).
Chapitre 3
Cycles et homographies
3.1
Similitudes
Definition 3.1.1. similitude. C’est le nom donné aux transformations C ,→ C : z 7→ a z + b
pour a 6= 0 et a, b ∈ C fixés.
Proposition 3.1.2. Propriétés. Une similitude est une bijection (par définition, a 6= 0).
Exercise 3.1.3. Montrer que l’ensemble des similitudes est un groupe. En particulier, déterminer
la transformation inverse d’une similitude donnée.
Proposition 3.1.4. Point fixe d’une similitude. Pour l’identité, tous les points sont fixes. Pour
une "vraie" translation, aucun point de C n’est fixe. Et lorsque a 6= 1, il y a exactement un point
fixe.
Theorem 3.1.5. Théorème : caractérisation. La donnée de z1 6= z2 et de ζ1 6= ζ2 caractérise
une similitude. Autrement dit, il existe une et une seule similitude σ telle que σ (z1 ) = ζ1 et
σ (z2 ) = ζ2 .
Exercise 3.1.6. Vérifier ce théorème en calculant les coefficients a, b de cette similitude.
Theorem 3.1.7. triangles semblables. Le triplet de points distincts (z1 , z2 , z3 ) peut être envoyé
par une similitude sur le triplet de points distincts (ζ1 , ζ2 , ζ3 ) si et seulement si
ζ1 ζ2 ζ3 z1 z2 z3 = 0
1 1 1 Exercise 3.1.8. Démontrer ce théorème en montrant que le système {t ζi + a zi + b × 1 ; i = 1, 2, 3
doit avoir (−1, a, b) pour solution, en plus de la solution évidente (0, 0, 0).
caractérise les triangles qui sont
Proposition 3.1.9. Invariant de similitude. La quantité c−a
b−a
c−a semblables à un triangle donné. Plus précisément, b−a caractérise la proportion entre les côtés
c
ab et ac, tandis que u c−a
b−a caractérise l’angle orienté bac.
Exercise 3.1.10. Montrer que a2 +b2 +c2 −a b−b c−c a = 0 caractérise les triangles équilatéraux.
Exercise
A
3.1.11. Soient
(−1 + i), B (2 − i), M (z) et w = 1 + i. Caractériser les points tels
z−zA z−zA
z−zA
= w.
que z−zB = |w|, u z−zB = u(w), z−z
B
3.2
Cycles
Definition 3.2.1. Plan complété. C = C ∪ {∞}, avec ∞ ∈
/ C.
Remark 3.2.2. Ce n’est pas "presque un plan". En fait, c’est une sphère. Non pas presque une
sphère, mais une sphère pour de bon, à la façon de la planète Terre.
17
18
3.2. Cycles
Definition 3.2.3. cycle. Un cycle est soit un cercle ordinaire, soit une droite complétée par
∞ ∈ C.
Proposition 3.2.4. droite définie par deux
(AB) définie par A = a + i α 6= B = b + i β
des réels) sont caractérisés par :
x
a
b
points distincts. Les points M = x + i y de la droite
(les x, y, a, α, b, β sont des coordonnées, c’est à dire
y 1 α 1 = 0
β 1 Proposition 3.2.5. cycle défini par trois points distincts. Trois points M1 , M2 , M3 de C (deux
à deux distincts) définissent un cycle. Lorsque ces trois points sont à distance finie, l’équation du
cycle est :
2
x + y2 x y 1 zz
z z 1 2
x1 + y12 x1 y1 1 z1 z 1 z 1 z1 1 x2 + y 2 x2 y2 1 = 0 ou bien z2 z2 z2 z2 1 = 0
2
2
x 2 + y 2 x 3 y3 1 z3 z 3 z 3 z3 1 3
3
Example
On considère les points 2 − 3 I, −1 + 2 I, 1 + I, x + I y. L’équation ci-dessus
3.2.6.
x2 + y 2 x
y 1 13
2 −3 1 = 0, se développe en
s’écrit : 5
−1 2 1 2
1
1 1 2 −3 1 13 −3 1 13
2 1 13
2 −3 2 1 − x 5
2 1 + y 5 −1 1 + 5 −1
2 = 0
x2 + y 2 −1
1
1 1
2
1 1
2
1 1
2
1
1 soit 7 x2 + 7 y 2 + 23 x + 25 y − 62 = 0. Que l’on réécrit en x + 23
14
q
23
25
1445
faire apparaître le centre ω = − 14 − 14 i et le rayon ρ =
98 .
2
+ y+
25 2
14
−
1445
98
= 0 pour
Exercise 3.2.7. Reprendre les calculs pour le cycle défini par les points 1 − i, 2 + i et −3 + 2i.
Exercise 3.2.8. Démontrer cette formule. Examiner le cas des points alignés.
Proposition 3.2.9. angles inscrits. Soient
A, B,
M non alignés, et Ω le centre de leur cercle
1 −→ −→
circonscrit. Alors ((M A) , (M B)) = 2 ΩA, ΩB .
Exercise 3.2.10. Démontrer cette formule (se ramener au cercle trigonométrique, et décomposer
(z − zA ) / (z − zB ) en module fois partie unitaire).
−−→ −−→
Theorem 3.2.11. arc capable. L’ensemble des points M tels que M A, M B = α, c’est à dire
z−zA
= Cte est un arc de cercle limité par les points A et B (supposés distincts). Le centre
u z−z
B
de l’arc est sur la médiatrice de [A, B].
Exercise 3.2.12. Enoncer clairement ce qui se passe pour α = 0 et α = π.
Theorem 3.2.13. cercle de Poncelet.
L’ensemble des points M tels que M A/M B = k (ou, de
z−zA façon équivalente, tels que z−zB = k) est la médiatrice de [A, B] lorsque k = 1 et sinon est
un cercle contenant l’un des deux points à son intérieur. Le centre de ce cercle est sur la droite
(AB).
Exercise 3.2.14. Démontrer ces deux théorèmes en utilisant la propriété des angles inscrits.
Proposition 3.2.15.
points
cocycliques.
distincts
A, B, C,
D sont cocycliques si
−→ −
−−→ −−→Quatre
−points
−−→
−→
→ −−→
−−→
et seulement si CA, CB = DA, DB ou CA, CB = DA, DB + π. Dans le premier
z}|{
cas C, D sont sur le même arc AB et dans le deuxième cas, il y en a un sur chaque arc.
3.3. Homographies : définitions
19
Definition 3.2.16. birapport. Le birapport de quatre points z1 , z2 , z3 , z4 ∈ C dont au moins
trois sont distincts se définit par
β (z1 , z2 , z3 , z4 ) =
z4 − z 2 z 3 − z2
÷
z4 − z 1 z 3 − z1
Exercise 3.2.17. Examiner les cas particuliers : points confondus, point(s) à l’infini.
Exercise 3.2.18. Montrer que les 24 permutations des quatre points ne conduisent pas à plus
de six valeurs du birapport. Déterminer les cas particuliers, c’est à dire ceux pour lesquels il y a
moins de six valeurs distinctes.
Theorem 3.2.19. La cocyclicité est caractérisée par la réalité du birapport. Le point
z ∈ C appartient au cycle défini par les trois points distincts z1 , z2 , z3 ∈ C si et seulement si
β (z1 , z2 , z3 , z) appartient au cycle des réels, c’est à dire β (z1 , z2 , z3 , z) ∈ R ∪ {∞}
Exercise 3.2.20. Vérifier que cet énoncé gère tous les cas particuliers : points alignés, points
à l’infini, point z confondu avec l’un des trois autres.
Exercise 3.2.21. Calculer le birapport des points 1, i, −1, −i.
Exercise 3.2.22. Reprendre les calculs de l’exemple 2 − 3 I, −1 + 2 I, 1 + I, x + I y. Vérifier
que l’on obtient la même équation.
Exercise 3.2.23. Montrer que "β appartient au cycle imaginaire", c’est à dire β (z1 , z2 , z3 , z) ∈
i R ∪ {∞} définit un autre cycle. Comment se place-t-il par rapport au cycle (z1 , z2 , z3 ) ?
3.3
Homographies : définitions
Objectif : déterminer les transformations cycliques de C, c’est à dire celles qui transforment
tout cycle en un cycle.
Definition 3.3.1. Définition : homographie. Une homographie est l’application h : C ,→ C
z+b
associée à la formule z 7→ ac z+d
les constantes a, b, c, d vérifiant la relation a d − b c 6= 0. Plus
précisément :
1. pour c = 0, on pose h (∞) = ∞ et sinon h (z) = ad z + db (vu la définition, on a d 6= 0 et h
est une similitude, car ad 6= 0).
z+b
2. pour c 6= 0, on pose h (∞) = ac , h − dc = ∞ et sinon h (z) = ac z+d
.
Proposition 3.3.2. formules de variation (pour c 6= 0).
h (∞) − h (z) =
ad − bc
c (c z + d)
et
h (z1 ) − h (z2 ) = (z1 − z2 )
ad − bc
(c z1 + d) (c z2 + d)
Theorem 3.3.3. les homographies sont des bijections C ,→ C.
Démonstration. Tel est déjà le cas pour les similitudes. Lorsque c 6= 0, les formules de variation
prouvent l’injectivité (car a d − b c 6= 0). La surjectivité peut être montrée en composant h avec
d ζ−b
ζ 7→ −c
ζ+a .
Exercise 3.3.4. Image de la droite iR, des droites k + iR par la transformation h (z) =
On commencera par calculer et placer un certain nombre de points.
Exercise 3.3.5. Même question pour les droites R + k i et la transformation h (z) =
z+1
z+2 .
z−i
z+i .
Definition 3.3.6. pôle. Le pôle d’une homographie est le point ∞ pour une similitude, et − dc
sinon.
20
3.4. Un exemple : l’algorithme de la racine carrée (Newton)
Proposition 3.3.7. composition. Les homographies se composent comme les matrices et on a :
az + b
Az + B
αz + β
A B
α β
a b
◦ z 7→
= z 7→
avec
=
z 7→
C D
γ δ
c d
γz + δ
cz + d
Cz + D
Exercise 3.3.8. Examiner le lien entre cette proposition et le déterminant des matrices concernées.
z
Exercise 3.3.9. Démontrer cette formule en décomposant h en h = p◦φ◦q avec q : z 7→
,
1
z
ζ1
a b
z
ζ1
φ :
7→
=
et enfin p :
7→ ζ = ζζ21 . On traitera à part les
1
ζ2
c d
1
ζ2
cas particuliers (pôle et infini).
Exercise 3.3.10. Examiner
lesproblèmes d’unicité dans l’exercice précédent. En particulier, on
kz
remarquera que q : z 7→
ferait tout aussi bien l’affaire.
k
Theorem 3.3.11. l’ensemble des homographies est un groupe de bijections agissant sur C.
3.4
Un exemple : l’algorithme de la racine carrée (Newton)
1. Pour a ∈ C fixé, on appelle algorithme de Newton lasuite des images itérées d’un certain
nombre z0 par la fonction new : new (z) = 12 z + az . On a donc zn+1 = new (zn ) 1 .
2. Pour a = 2 + I et les points de départ z0 = 1 ou z0 = i, on obtient les résultats suivants :

 

1. I
1.
 1.500000000 + .5000000000 I   .5000000000 − .5000000000 I 

 

 1.450000000 + .3500000000 I   .7500000000 + 1.250000000 I 

 

 1.455337079 + .3435393258 I   1.022058823 + .2132352942 I 

, 

 1.455346690 + .3435607498 I   1.546442566 + .3798048309 I 

 

 1.455346690 + .3435607497 I   1.457971100 + .3450512174 I 

 

 1.455346690 + .3435607496 I   1.455348807 + .3435629317 I 
1.455346690 + .3435607496 I
1.455346690 + .3435607496 I
On constate une convergence rapide vers un nombre qui est l’une des racines carrées du
nombre a.
Exercise 3.4.1. Reprendre les calculs pour a = 1 − 2i et les mêmes z0 .
3. Soit α l’une des racines carrées de a (l’existence de α a été prouvée par ailleurs) et
h : z 7→ ζ = z−α
z+α . L’objectif est d’envoyer l’un des points remarquables sur 0 et l’autre
1+ζ
. Définissons ζn par ζn = h (zn ).
sur ∞. La bijection réciproque est h−1 : ζ 7→ z = α 1−ζ
4. On peut calculer directement ζn+1 à partir de ζn par la formule ζn+1 = h ◦ new ◦ h−1 (ζn ).
Le calcul donne : ζn+1 = ζn2 . On voit donc que |ζ0 | < 1 implique ζn → 0 et donc z → α,
tandis que |ζ0 | > 1 implique ζn → ∞ et donc z → −α.
5. Dans les deux cas, la convergence est très rapide : le nombre de décimales exactes double
à chaque fois. Dans l’exemple, z0 = 1 aboutit légèrement plus rapidement que z0 = i
parce que les valeurs respectives de ζ0 sont ≈ 0.23 et ≈ 0.81.
6. Il reste un mauvais cas : |ζ0 | = 1. Le point z0 est à égale distance des deux solutions possibles... et les zn continuent à vérifier cette propriété : ils restent confinés sur la médiatrice
du segment [+α, −α].
Exercise 3.4.2. Il est clair que l’algorithme repose sur un choix optimal de la fonction new.
Comment choisir cette fonction pour résoudre, en général, une équation f (z) = 0 ?
1. Il paraît qu’il n’est pas totalement évident que "new" est un "joke" entre new=nouveau et New, première
syllabe de Newton, Isaac, l’homme à la pomme.
3.5. Les homographies conservent les cycles
3.5
21
Les homographies conservent les cycles
Theorem 3.5.1. une homographie conserve le birapport. Autrement dit,
β (z1 , z2 , z3 , z4 ) = β (h (z1 ) , h (z2 ) , h (z3 ) , h (z4 ))
dès que trois au moins des points sont distincts.
Exercise 3.5.2. Démontrer ce résultat en séparant le cas des similitudes et le cas général.
Theorem 3.5.3. une homographie transforme un cycle en un cycle.
Exercise 3.5.4. Vérifier qu’il s’agit d’une application immédiate du théorème précédent
Exercise 3.5.5. Déterminer toutes les homographies qui conservent globalement le cycle réel,
c.à.d. h (R ∪ {∞}) = R ∪ {∞}.
Exercise 3.5.6. Même question pour le cycle imaginaire et pour le cercle unité.
Theorem 3.5.7. une homographie est caractérisée par la donnée de trois points distincts et de
leurs images. Et h (z) est caractérisé par β (h (z1 ) , h (z2 ) , h (z3 ) , h (z)) = β (z1 , z2 , z3 , z).
z−(1+i)
Exercise 3.5.8. Prendre pour exemple 1 + i 7→ 0, 1 − i 7→ ∞, 2 7→ 1. On trouve h (z) = i z−(1−i)
.
Proposition 3.5.9. Formule : pour a 6= b, les homographies a 7→ 0, b 7→ ∞ s’écrivent h (z) =
Cte z−a
z−b (la constante est déterminée par le troisième point).
Definition 3.5.10. transformation conforme. On appelle ainsi une transformation qui conserve
les angles entre les courbes. On prendra garde au fait que la droite tangente à l’image d’une
courbe n’a aucune raison d’être l’image de la droite tangente à la courbe originelle : il s’agit donc
d’une propriété locale, concernant des angles ayant des côtés infinitésimaux.
Theorem 3.5.11. une transformation dérivable est conforme en tout point où sa dérivée est non
nulle.
Démonstration. dζ ∼ f 0 (z0 ) dz définit une similitude.
Example 3.5.12. l’homographie z 7→
z−1
z+1
(cf Fig. 3.1).
Exercise 3.5.13. Montrer que toute droite se transforme en un cycle passant par ζ = 1
Exercise 3.5.14. Montrer que tout cycle passant par z = −1 se transforme en une droite
Exercise 3.5.15. Montrer que toutes les droites horizontales se transforment en autant de cycles
tangents entre eux
Exercise 3.5.16. Montrer que toutes les droites verticales se transforment en autant de cycles
tangents entre eux et orthogonaux aux cycles précédents
Exercise 3.5.17. Considérer en particulier le cycle R + i. Montrer géométriquement qu’il se
transforme en le cercle de rayon 1 centré en 1 + i. Vérifier ensuite par report de h (z) dans
l’équation du cercle.
3.6
Sphère de Riemann
Definition 3.6.1. sphère de Riemann. Il s’agit de la sphère unité S de R3 , c’est à dire a2 +b2 +c2 =
1 considérée comme image du plan complexe C par la projection stéréographique.
Definition 3.6.2. projection stéréographique. Par définition, σ (∞) = S, le point S (0, 0, −1)
étant le pôle sud de la sphère. Pour tout autre point M ∈ C (c’est à dire pour M ∈ C !), son
image P = σ (M ) est la deuxième intersection de la droite (SM ) et de la sphère S.
22
3.7. Récurrences homographiques
3
3
2
2
1
1
0
–3
–2
–1
0
1
2
3
–1
–1
–2
–2
–3
–3
–1
0
1
2
3
4
Figure 3.1 – Un carré et son image par homographie.
Proposition 3.6.3. Formules directes. Pour z ∈ C, on a
a + ib =
1 − |z|2
π
2z
,
c
=
2
2 , longitude = θ, latitude = 2 − 2 arctan |z|
1 + |z|
1 + |z|
Exercise 3.6.4. Vérifier ces formules.
Exercise 3.6.5. Quelle est l’image du cycle réel, du cycle imaginaire, du cercle trigonométrique,
du cercle ayant [0, 1] pour diamètre ?
Proposition 3.6.6. Formules réciproques. Pour P ∈ S \ S, on a
x=
a
b
1−c
,y=
, |z|2 =
1+c
1+c
1+c
Exercise 3.6.7. Vérifier ces formules.
Theorem 3.6.8. L’image d’un cycle (Γ) de C est un cercle (Θ) de S.
Exercise 3.6.9. Montrer que l’image du cercle x2 + y 2 − 2α x − 2β y + γ = 0 est l’intersection
de S et du plan 2α a + 2β b + (1 − γ) c = 1 + γ. Commencer par traiter un exemple.
2β
1−γ
2α
Exercise 3.6.10. On appelle Q le point 1+γ
, 1+γ
, 1+γ
. Montrer que OQ ≥ 1 et que Q ∈ S
équivaut à ρ = 0 (ρ est le rayon du cercle Γ, vérifiant donc γ = α2 + β 2 − ρ2 ) .
Exercise 3.6.11. Montrer que le centre θ de Θ est sur la droite (OQ), tandis que l’image σ (ω)
du centre ω de Γ est sur la droite (SQ).
Example 3.6.12. La Fig. 3.2 montre l’image du cercle de centre ω = 31 , 32 et de rayon 23 .
Prendre des points sur ce cercle et calculer leurs images par σ. Vérifier que ces images appartiennent au plan prévu.
Calculer les coordonnées des points Q, σ (ω), θ. Les vérifier sur le dessin. Écrire et calculer les
déterminants exprimant les alignements prévus.
3.7
Récurrences homographiques
Objectif. On veut étudier le comportement des suites zn = (hn ) (z0 ), définies par une condition initiale z0 et la récurrence zn+1 = h (zn ).
Definition 3.7.1. les points fixes d’une transformation f sont les points z tels que f (z) = z.
Proposition 3.7.2. Si f est continue et si (f n ) (z0 ) admet une limite λ, alors cette limite est
un point fixe.
3.7. Récurrences homographiques
0
23
1
1
1
c
0
–1
–1
–1
a
b
1
1
Figure 3.2 – Un cercle et sa projection stéréographique.
Proposition 3.7.3. Pour une homographie, l’équation aux points fixes s’écrit c z 2 +(d − a) z−b =
0. Il y a donc le cas particulier c = 0, d = a, b = 0 pour le quel tous les points sont fixes. Et
sinon, il y a un point fixe double ou bien deux points fixes distincts selon que le discriminant
2
2
+ b c = a+d
− (a d − b c) est nul ou non.
∆ = d−a
2
2
Theorem 3.7.4. Homographies ayant deux points fixes α, β ∈ C. On pose :
z−α
cβ + d
.
ζ = g (z) =
; H = g ◦ h ◦ g −1 ; k =
z−β
cα + d
.
g envoie α sur 0, β sur ∞, et l’on a ζn = g (zn ) = (H n ) (ζ0 ). Comme les points fixes de H sont
0 et ∞, l’homographie H est donc une transformation ζ 7→ k ζ pour un certain k 6= 0. On en
déduit :

 si |k| < 1 et z0 6= β alors ζn → 0 et zn → α
si |k| > 1 et z0 6= α alors ζn → ∞ et zn → β

si
k ∈U\1
alors non convergence
Exercise 3.7.5. Vérifier la nature de H en posant le produit :
β
1
−α
−1
a
c
βa − αc
a−c
b
d
βb − αd
b−d
1
1
−α d − c β α + β a + b
−c β 2 − (d − a) β + b
−α
−β
c α2 + (d − a) α − b
−α a + c β α − b + β d
Exercise 3.7.6. Montrer que le multiplicateur k est en fait la dérivée de h en α, c’est à dire que
d−b c
k = (ca α+d)
2 . On pourra utiliser le fait que k est aussi la dérivée de H (en tout point).
Exercise 3.7.7. Traiter l’exemple z0 = 0, h (z) = (2+i)z−i
: calculer les 10 premières valeurs.
z+1
Les placer sur un dessin. Déterminer une courbe contenant tous ces points. Déterminer la limite.
Que se passe-t-il lorsque l’on part de z0 = 15 (1 + 4i).
Theorem 3.7.8. Homographies avec un seul point fixe. Si c = 0, le point fixe double est λ = ∞
1
et on a une translation. Sinon, (d − a)2 + 4b c = 0 et λ = a−d
2 c . On définit g par g (z) = z−λ .
Posant H = g ◦ h ◦ g −1 , on voit que ∞ est le seul point fixe de H qui est donc une "vraie"
translation. D’où ζn → ∞ et zn → λ. On remarquera que h0 (λ) = H 0 (ζ) = 1 : la convergence
est donc très lente.
24
3.7. Récurrences homographiques
Chapitre 4
Séries génératrices
4.1
Définition et rappels sur les séries
Definition
P 4.1.1. la série génératrice associée à la suite (un )n∈N est, par définition, la série
Sg (z) = n∈N un z n .
Remark 4.1.2. Dans cette définition z est un nombre complexe, avec éventuellement une condition
|z| < k pour assurer la convergence. Tandis que la suite un est à valeurs dans n’importe quelle
algèbre sur C. Par exemple C lui même, ou bien C [X] (les polynômes) ou bien ...
P
Pk=n
vk .
Definition 4.1.3. On appelle sommes partielles de la série
vn les nombres sn = k=0
Theorem 4.1.4. Une série à termes positifs converge toujours, soit vers +∞, soit vers un réel,
qui est alors la borne supérieure des sn .
P 1
2
Exercise 4.1.5. Montrer que
→ π6 .
k2
Definition 4.1.6. maximum. Soit X une partie non vide de R. Un nombre m vérifiant à la fois
m ∈ X et X ≤ m, c’est à dire ∀x ∈ X : x ≤ m est appelé un maximum de X. Il est immédiat
que le maximum est unique s’il existe.
Definition 4.1.7. borne supérieure. Soit X une partie non vide de R. Un nombre µ vérifiant à
la fois X ≤ µ et µ ≤ M pour tout majorant M de X est appelé borne supérieure de X.
Proposition 4.1.8. Il est immédiat que la borne supérieure est unique, et que le maximum
lorsqu’il existe est aussi la borne supérieure.
Theorem 4.1.9. Toute partie non vide majorée de R admet une borne supérieure.
Exercise 4.1.10. Redémontrer cette propriété en construisant une suite croissante d’éléments
xn ∈ X et une suite décroissante Mn de majorants de X de telle sorte que ces suites soient
adjacentes (l’existence d’un x0 et d’un M0 sont données par l’hypothèse).
Theorem 4.1.11.
PUne série normalement convergente
P est convergente, c’est à dire : la convergence de la série
|un | implique la convergence de
un .
P
Exercise 4.1.12. Redémontrer cette propriété en remarquant que |sn+p − sn | ≤ k=n+p
|uk | et
k=n
en utilisant le critère de Cauchy.
P
Example 4.1.13. La série harmonique. Par définition, Hn = n1 k1 . La propriété est que Hn →
∞.
Exercise 4.1.14. Démontrer ce résultat en prouvant que H2p > (p + 1) /2.
Definition 4.1.15. Série alternée. Il s’agit d’un cas tout à fait spécial de séries à termes réels,
définie par un décroît vers 0, i.e. un+1 ≤ un et un → 0.
Exercise 4.1.16. Démontrer que toute série alternée admet une limite λ, vérifiant en outre
λ ∈ [un , un+1 ] pour tout n (il est rappelé que la notation [a, b] ne suppose pas que a ≤ b).
Exercise 4.1.17. Quelle est la limite de la série harmonique alternée ?
25
26
4.2
4.4. Les polynômes de Chebyschev
Propriétés élémentaires des séries génératrices
Proposition 4.2.1. Proposition. La série génératrice de la suite n 7→ 1 est S (z) =
1
1−z .
Proposition 4.2.2. Proposition. La série génératrice de la suite n 7→ n est S (z) =
z
.
(1−z)2
Exercise 4.2.3. Démontrer ce résultat par un développement limité de la série proposée.
Proposition 4.2.4. La série génératrice S (u + v) (n) de la suite n 7→ un + vn est la somme des
séries génératrices des suites n 7→ un et n 7→ vn . Autrement dit :
S (u + v) (z) = S (u) (z) + S (v) (z)
Proposition 4.2.5. Le produit des séries génératrices est la série génératrice
de la convolution
Pn
des deux suites, i.e. la série génératrice de la suite n 7→ wn =
0 uk vn−k (cette règle est
exactement celle que l’on applique pour le produit de deux polynômes). Autrement dit :
S (u ? v) (z) = S (u) (z) × S (v) (z)
Proposition 4.2.6. Le produit par z traduit un décalage d’un cran vers la droite de la suite
originelle (on convient de ce que les termes de rang négatif sont nuls). Autrement dit :
z × S (n 7→ un ) (z) = S (n 7→ un−1 ) (z)
Proposition 4.2.7. Décalage à gauche. On a :
S (n 7→ un+1 ) (z) =
1
× (S (n 7→ un ) (z) − u0 )
z
Proposition 4.2.8. La série génératrice de la suite n un est donnée par :
S (n 7→ n un ) (z) = z ×
4.3
d
(S (n 7→ un ) (z))
dz
Exemples élémentaires
z
1
Exercise 4.3.1. S (n) (z) = (1−z)
2 . Méthode : on dérive S (1) (z) = 1−z . Ne pas oublier de
re-multiplier par z, car la dérivation décale les termes d’un cran vers la gauche.
1
Exercise 4.3.2. S (n + 1) (z) = (1−z)
2 . Méthode : on remarque que (n 7→ n + 1) = (n 7→ 1) ?
Pk=n
(n 7→ 1), puisque n + 1 = k=0 (1 × 1). Remarque: On peut passer de (1) à (2) par la règle de
décalage.
Exercise 4.3.3. S (n 7→ n (n − 1)) =
2z 2
.
(1−z)3
Exercise 4.3.4. S n 7→ 21 n (n + 1) =
n(n+1)
2
Méthode : on dérive deux fois S (1) (z).
z
.
(1−z)3
Méthode : on remarque que
Pk=n
k=0
(1 × k) =
et l’on procède par convolution.
Exercise 4.3.5. Calculer de différentes façons S n2 (z).
Exercise 4.3.6. De même, calculer S n 7→ n3 (z) et S n 7→ n4 (z).
4.4
Les polynômes de Chebyschev
Proposition 4.4.1. cos (n t) s’exprime polynomialement à partir de cos t.
Proposition 4.4.2. sin (n t) ÷ sin t s’exprime polynomialement à partir de cos t.
Definition 4.4.3. Définition. On appelle polynômes de Chebyschev (de première espèce) les
polynômes Tn (X) ∈ C [X] tels que cos (n t) = Tn (cos t).
4.5. Séries génératrices et stats-probas
27
Exercise 4.4.4. Déterminer les polynômes T0 à T5 .
Exercise 4.4.5. Démontrer les deux propositions ci-dessus en partant de la formule exp (i t) =
cos t + i sin t.
Definition 4.4.6. On appelle polynômes de Gegenbauer les polynômes Un (X) ∈ C [X] tels que
sin ((n + 1) t) = sin t × Un (cos t).
Exercise 4.4.7. Déterminer les polynômes U0 à U5 .
Exercise 4.4.8. Montrer que les polynômes Tn et Un sont de degré n (attention aux décalages :
U2 est de degré 2, mais concerne sin 3t !).
p−q
Lemma 4.4.9. Une formule de trigo. On a cos p + cos q = 2 cos p+q
2 cos 2 .
Exercise 4.4.10. Retrouver ce résultat à partir de la formule de Moivre.
Proposition 4.4.11. Formule de récurrence. On a donc Tn−1 (cos t)+Tn+1 (cos t) = 2 cos t Tn (cos t),
et par prolongement des identités :
Tn+1 (X) + Tn−1 (X) = 2X Tn (X)
Proposition
4.4.12. Série génératrice.
On multipliePpar z n et onPsomme pour 1 P
≤ n. Il vient
P n
P
P
1
n
n
n
n
+ 1 z Tn−1 − 2X 1 z Tn = 0, soit z 2 z Tn + z 0 z Tn − 2X 1 z n Tn = 0
1 z Tn+1P
En posant 0 z n Tn = S (z), on obtient S (z) × z1 + z − 2X = z1 (T0 + z T1 ) − 2X T0 = z1 − X.
Finalement :
1−zX
. X n
S (Tn ) (z) =
z Tn (X) =
1 − 2z X + z 2
n∈N
Exercise 4.4.13. Déterminer de même la série génératrice des Un . On constatera qu’il s’agit de
la même récurrence, avec des conditions initiales différentes.
4.5
Séries génératrices et stats-probas
Reprise du cours de statistiques et probabilités du premier semestre.
Definition
P 4.5.1. série génératrice associée à une variable discrète X. Pour z ∈ C, on pose :
S (z) = k P r (X = k) z k Une telle série converge uniformément pour |z| ≤ 1 − ε.
Exercise 4.5.2. Vérifier que, pour la loi de Bernoulli, S (z) = q + p z.
Proposition
4.5.3. Pour une variable discrète, on a
P
S (1) = Pk P r (X = k) = 1,
S 0 (1) = Pk k P r (X = k) = E (X) et
S 00 (1) = k k (k − 1) P r (X = k) = E (X (X − 1)). On a donc :
E (X) = S 0 (1)
et
var (X) = S 00 (1) + S 0 (1) − S 0 (1)
2
Exercise 4.5.4. exo 1. Vérifier ces formules pour la loi de Bernoulli.
Lemma 4.5.5. Rappel (TeAF). Si la fonction f est dérivable sur ]a, b[ et de plus est continue
aux bornes, il existe c ∈ ]a, b[ tel que f (b) = f (a) + (b − a) f 0 (c). Bien entendu, on suppose
a 6= b...
Lemma 4.5.6. Rappel (L’Hôpital). Si les fonctions f et g sont dérivables sur ]a, b[, continues
0 (c)
(b)−f (a)
aux bornes et si de plus g 0 ne s’annule jamais, il existe c ∈ ]a, b[ tel que fg(b)−g(a)
= fg0 (c)
. Bien
entendu, on suppose a 6= b...
Exercise 4.5.7. Vérifier que la série génératrice d’une variable uniforme sur {1, 2, · · · , m} est
m+1
S (z) = z z−1−z . Combiner ce résultat avec la règle de L’Hôpital pour retrouver les paramètres de
dispersion.
28
4.5. Séries génératrices et stats-probas
Theorem 4.5.8. La série génératrice de la somme de deux variables aléatoires discrètes indépendantes est le produit des séries génératrices.
Lemma 4.5.9. Rappel : loi binomiale. Une variable binomiale K décrit le nombre de succès en
n épreuves de Bernoulli indépendantes,
la probabilité de chaque succès individuel étant p.
n k n−k
Formules : P r (K = k) = k p q
et E (K) = n p, var (K) = n p q.
Exercise 4.5.10. Vérifier que S (z) = (q + p z)n . Utilisation pour retrouver E (K) et var (K).
Lemma 4.5.11. Rappel : loi hypergéométrique. Définition : on prélève, sans remise et avec une
probabilité uniforme, un échantillon de taille n au sein d’une population de N individus. On
s’intéresse à un certain caractère binaire (i.e. présent ou absent), et on appelle m le nombre
d’occurences de ce caractère dans l’échantillon et p sa prévalence
dans
(fréquence)
la population.
Nq
La loi hypergéométrique Hyp (N, n, p) est P r (M = m) = Nmp × n−m
÷ N
n
−n
Formules : E (X) = np et var (X) = n p q N
.
N −1
Exercise 4.5.12. Déterminer la série génératrice associée. Commencer par des exemples.
Lemma 4.5.13. Rappel : loi de Poisson. Il s’agit de la loi limite d’une loi binomiale pour laquelle
n p → λ (ni nul ni infini) tandis que n → ∞.
k
Formules : P r (K = k) = λk! exp (−λ), E (K) = λ et var (K) = λ.
Exercise 4.5.14. Vérifier que la série génératrice associée est exp λ (z − 1). Utiliser cette série
pour retrouver les paramètres de dispersion.
Chapitre 5
Séries de Fourier
5.1
Quelques rappels
Definition 5.1.1. espace vectoriel. Dire que l’ensemble E, ou plus précisément le triplet (E, +, .),
est un espace vectoriel sur C veut dire que :
1. + est une opération E ×E ,→ E avec les propriétés usuelles d’associativité : (u + v)+w =
→
−
u + (v + w), de commutativité : v + w = w + v, l’existence d’un neutre noté 0 ou 0E
ou même 0 tel que u + 0 = 0 + u = u, existence d’un opposé pour chaque vecteur avec
u + (−u) = 0.
2. . est une opération C × E ,→ E avec les propriétés usuelles de linéarité (λ + µ) .v =
λ.v + µ.v et λ. (u + v) = (λ.u) + (λ.v), d’associativité (λ µ) .v = λ. (µ.v), ainsi que 1.v = v
Definition 5.1.2. distance. Une distance d sur un ensemble E est une application E × E ,→ R
ayant les propriétés suivantes :
1. définie positive, i.e. : d (x, y) ≥ 0 et d (x, y) = 0 équivaut à x = y.
2. symétrique, i.e. : d (x, y) = d (y, x).
3. Inégalité triangulaire, i.e. : d (x, y) ≤ d (x, z) + d (z, y)
Exercise 5.1.3. Vérifier que d (x, x) = 0 et d (x, y) = 1 si x 6= y définit une distance sur
n’importe quel ensemble.
Exercise 5.1.4. Vérifier que d (x, y) = √
2 |x−y|
1+|x|2
√
1+|y|2
, prolongée par d (x, ∞) = √
2
1+|x|2
définit
une distance sur C.
Definition 5.1.5. Définition : norme. Une norme sur un espace vectoriel E est une application
E ,→ R : v 7→ |v| vérifiant :
1. définie positive, i.e. : |v| ≥ 0 et |v| = 0 équivaut à v = 0.
2. lien avec les homothéties, i.e. : |λ v| = |λ| |v|.
3. Inégalité triangulaire, i.e. : |u + v| ≤ |u| + |v|
Exercise 5.1.6. Dans E = R3 , vérifier que |v|1 = |x| + |y| + |z| définit une norme.
Exercise 5.1.7. Dans E = R3 , vérifier que |v|∞ = max (|x| , |y| , |z|) définit une norme.
Theorem 5.1.8. Si |.| est une norme sur l’espace vectoriel E, alors l’application (u, v) 7→ |u − v|
définit une distance.
5.2
Produit scalaire
Definition 5.2.1. Un produit scalaire sur un espace vectoriel E est une application E × E ,→
C : (u, v) 7→ hu | vi ayant les propriétés suivantes :
1. distributivité : hu + v | wi = hu | wi + hv | wi
29
30
5.3. Gramm-Schmidt par l’exemple
2. semi-commutativité : hv | ui = hu | vi
3. lien avec les homothéties : hu | λ vi = λ hu | vi et donc hµ u | vi = µ hu | vi
4. positivité stricte : hu | ui ≥ 0 et hu | ui = 0 équivaut à u = 0.
Exercise 5.2.2. Vérifier que (x, y) 7→ x y définit un produit scalaire sur l’espace vectoriel réel
R.
Exercise 5.2.3. Vérifier que (x, y) 7→ x y définit un produit scalaire sur l’espace vectoriel réel
C.
−
Exercise 5.2.4. On se place dans l’espace vectoriel complexe E = C2 , et on note →
v = (z, ζ).
−
−
Montrer que (→
v ,→
v ) 7→ z z + ζ ζ est un produit scalaire.
1
2
1 2
1 2
Remark 5.2.5. le terme "produit hermitien" est également utilisé pour les espaces vectoriels
complexes.
Theorem 5.2.6. On considère l’espace vectoriel E des fonctions continues à valeurs complexes
définies sur un intervalle réel [a, b], avec a < b. Alors
Z b
µ (t) f (t)g (t) dt
(f, g) 7→
a
définit un produit scalaire sur E à condition que le poids µ soit positif sur [a, b] et ne s’annule
qu’en des points isolés.
p
Theorem 5.2.7. Si h. | .i est un produit scalaire, alors u 7→ hu | ui est une norme, appelée
norme quadratique, ou encore "norme 2", ou "norme euclidienne".
Definition 5.2.8. Dans un espace vectoriel réel, on appelle angle non orienté de deux vecteurs
l’angle (compris entre 0 et 180 degrés) défini par
hu | vi
p
cos θ = p
hu | ui hv | vi
Exercise 5.2.9. Vérifier que ce quotient est effectivement compris entre −1 et +1.
5.3
Gramm-Schmidt par l’exemple
On considère l’espace Rvectoriel réel E = R2 [x] des fonctions polynomiales de degré deux au
1
plus, et on pose hf | gi = 0 f (t) g (t) dt.
On prendra garde au fait que, pour des polynômes, la numérotation des vecteurs, de même
que celle des lignes et des colonnes des matrices, commence à 0, de façon à avoir la même valeur
pour le numéro et pour le degré des polynômes. En particulier, R2 [x] est un espace de dimension
3.
−
Remark 5.3.1. La lettre x désigne ici l’application identique →
x = t 7→ t ∈ E, et il convient de
→
−
distinguer entre 1 ∈ R et 1 ∈ E, car ce 1 là est en fait 1 = (t 7→ 1).
 
c
Definition 5.3.2. Décomposition. Un élément f ∈ E s’écrit f = a x2 +b x+c = 1, x, x2  b .
a


γ
On pose de même g = α x2 + β x + γ = 1, x, x2  β .
α
Definition 5.3.3. Matrice de Gramm. Le produit scalaire hf | gi = a x2 + b x + c | α x2 + β x + γ
se développe en une somme de 9 termes. On voit mieux ce qui se passe en l’écrivant sous la forme



+


*
1
γ
γ
(c, b, a)  x  1, x, x2  β  = (c, b, a) G  β 
x2
α
α
5.4. Parseval par l’exemple
31
dans laquelle la matrice G (matrice de Gramm) est la matrice définie par


1
E
D
G =  x  ⊗ 1, x, x2 = xj | xk
0≤j, k≤2
x2
1. Méthode de Schmidt (objectif poursuivi). On cherche une base (ej ) telle que la matrice
b ait une forme plus simple que G, c’est à dire soit diagonale.
de Gramm correspondante G
2. Méthode de Schmidt. On redresse successivement les vecteurs de la base initiale. On
→
−
commence donc par garder le premier vecteur e0 = 1 . Puis on redresse le deuxième
→
−
−
vecteur, en posant e1 = →
x + λ 1 et en choisissant λ tel que he1 | e0 i = 0. Comme
1
hx + λ 1 | 1i = 2 + λ 1, on obtient λ = − 12 .
3. Schmidt, suite. On redresse le troisième vecteur, en posant e2 = x2 + λ x + µ 1 et en
choisissant λ et µ tels que he2 | xi = 0 et he2 | 1i = 0. Les calculs se trouvent facilités
2
en les écrivant
he2 | e1 i = he2 | e0 i = 0. On obtient alors
2 e2 = 1x + a e1 + b e0 , avec
1
1
he
22 | e1i = x | x − 2 1 + a he1 | e1 i = 121 + a 12 , d’où a = −1 ; de même he2 | e0 i =
x | 1 + b he0 | e0 i = 3 + b 1, d’où b = − 3 .
4. Schmidt, bilan. On a obtenu la formule de changement de base :


1 − 21 16
(e0 , e1 , e2 ) = 1, x, x2  0 1 −1 
0 0
1
la matrice de passage P étant triangulaire (et inversible, comme il se doit pour une matrice
de passage). Et la nouvelle matrice de Gramm vaut :


1 0
0
b = tP G P =  0 1
0 
G
12
1
0 0 180
Exercise 5.3.4. Poser à la fois les intégrales correspondant au calcul direct des hej | ej i et les
b = tP G P .
produits matriciels correspondant à G
Exercise 5.3.5. Retrouver les formules de changement de coordonnées, et en déduire la formule
b = tP G P .
G
5.4
Parseval par l’exemple
Definition 5.4.1. Lorsque
P la base (ej ) est orthogonale, les coefficients cj de la décomposition
du vecteur f ∈ E en f =
cj ej s’appellent également coefficients de Fourier du vecteur f .
Theorem 5.4.2. Théorème. Le k-ième coefficient de Fourier du vecteur f vaut
ck =
hf | ek i
hek | ek i
On remarquera que ce coefficient est indépendant du choix des autres vecteurs de la base (tant
que cette base reste une base orthogonale).
Exercise 5.4.3. Démontrer cette formule.
Exercise 5.4.4. Appliquer cette formule à l’exemple f = x2 + x + 1 et vérifier que f = 11
6 e0 +
2e1 + 1e2 .
P
.
Theorem 5.4.5. (égalité de Parseval). Lorsque f ∈ E, on obtient |f |2 = hf | f i = |cj |2 hej | ej i.
2
Exercise 5.4.6. Vérifier cette formule en calculant x2 + x + 1 de deux manières différentes.
b = tP G P .
Exercise 5.4.7. Démontrer cette formule, et faire le lien avec G
Exercise 5.4.8. Reprendre tous les calculs avec le produit scalaire hf | gi =
R1
Exercise 5.4.9. Reprendre tous les calculs avec le produit scalaire hf | gi =
R1
0
0
t f (t) g (t) dt.
t2 f (t) g (t) dt.
32
5.5. Projections orthogonales et inégalité de Bessel
5.5
Projections orthogonales et inégalité de Bessel
Exercise 5.5.1. On applique la formule des coefficients de Fourier au vecteur φ = x3 (malgré
9
le fait que f ∈
/ E). Vérifier que l’on trouve c0 = 14 , c1 = 10
et c2 = 32 .
La présente section consiste à trouver la signification de ces coefficients.
Definition 5.5.2. somme directe. On dit que deux sous-espaces E1 et E2 d’un
espace E sont
n→
−o
en somme directe lorsque E = E1 + E2 et que, en même temps, E1 ∩ E2 = 0 . On note en
pareil cas E = E1 ⊕ E2 .
Definition 5.5.3. décomposition. Lorsque E = E1 ⊕ E2 , tout vecteur x ∈ E peut s’écrire
x = x1 + x2 avec xj ∈ Ej , et cette décomposition est unique.
Definition 5.5.4. projecteurs. Lorsque E = E1 ⊕ E2 , les applications pj : E ,→ Ej : x 7→ xj
s’appellent les projecteurs associés à la décomposition en somme directe.
Proposition 5.5.5. Caractérisation. Une application p : E ,→ E est un projecteur si et seulement si p est linéaire et vérifie p ◦ p = p. Le projecteur associé est alors id − p.
Proposition 5.5.6. La somme de deux projecteurs p et q est encore un projecteur si et seulement
si p ◦ q = q ◦ p = 0
Exercise 5.5.7. Vérifier ce résultat pour des projecteurs associés.
Exercise 5.5.8. Démontrer ce résultat dans le cas général.
Definition 5.5.9. Projecteur orthogonal selon un vecteur non nul. Pour e non nul fixé, l’appli.
cation v 7→ p (v) = e hv|ei
he|ei est une projection sur V ec (e), et de plus ∀v : hp (v) | q (v)i = 0.
Theorem 5.5.10. Théorème : projecteur orthogonal sur un sous espace. Lorsque les vecteurs
ej sont non nuls et orthogonaux deux à deux, c’est à dire forment une base orthogonale de
V ec (e0 , · · · , en ), l’application
. X hv | ej i
v 7→ p (v) =
ej
hej | ej i
est une projection sur V ec (e), et de plus hp (v) | v − p (v)i = 0.
Exercise 5.5.11. Vérifier ces orthogonalités sur l’exemple choisi, i.e. hp0 (f ) | f − p0 (f )i = 0,
puis h(p0 + p1 ) (f ) | f − (p0 + p1 ) (f )i = 0 et h(p0 + p1 + p2 ) (f ) | f − (p0 + p1 + p2 ) (f )i = 0.
Theorem 5.5.12. (inégalité de Bessel).
Lorsque l’on supprime l’hypothèse f ∈ E, l’égalité de
P
Parseval doit être remplacée par
|cj |2 hej | ej i ≤ hf | f i. Cette relation combine l’égalité de
.
Parseval pour ψ = p (φ) avec l’inégalité |ψ| ≤ |φ|.
Exercise 5.5.13. Appliquer cette formule à l’exemple choisi (on trouve
57
400
≤ 17 ).
Téléchargement