Mathématiques Avancées, Licence 3`eme année Sciences

publicité
Mathématiques Avancées, Licence 3ème année
Sciences Économiques
Denis Pennequin ([email protected])
Version du 28 mars 2017
Table des Matières
1 Logique.
1.1 Cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Assertions. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Opérateurs de base : et, ou, non. . . . . . . . . . . . . . .
1.1.3 Implication. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.4 Équivalence. . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Un exemple de raisonnement : démonstrations de la transitivité
de l’implication. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Démonstration par table de vérité. . . . . . . . . . . . . .
1.2.2 Démonstration en se ramenant aux opérateurs de base. . .
1.3 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
5
5
6
7
7
7
7
8
2 Rappels et compléments sur la trigonométrie et les nombres complexes.
2.1 Trigonométrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Le cercle trigonométrique. . . . . . . . . . . . . . . . . . .
2.1.2 Fonctions sin et cos. . . . . . . . . . . . . . . . . . . . . .
2.2 Rappels sur les nombres complexes. . . . . . . . . . . . . . . . . .
2.2.1 Introduction. Forme algébrique. . . . . . . . . . . . . . . .
2.2.2 La question de la relation d’ordre sur C. . . . . . . . . . .
2.2.3 Forme trigonométrique, forme polaire. . . . . . . . . . . .
2.3 Nombres complexes et équations. . . . . . . . . . . . . . . . . . .
2.3.1 Équations du second degré à coefficients réels. . . . . . . .
2.3.2 Équations du second degré à coefficients complexes. . . . .
2.3.3 Équations Z n = z0 . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Abaissement de l’ordre. . . . . . . . . . . . . . . . . . . . .
2.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
11
12
13
13
14
15
16
16
16
17
18
19
3 Révisions sur les matrices.
3.1 Calculs basiques. . . . . . . . . . . . . . . . . . . . . .
3.1.1 Calculs de sommes et de produits. . . . . . . . .
3.1.2 Calculs de déterminants d’ordre 2 et 3. . . . . .
3.1.3 Calculs de puissances dans les cas élémentaires.
3.1.4 Exponentielle de matrice. . . . . . . . . . . . .
20
20
20
20
20
21
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3.2
.
.
.
.
.
23
23
24
24
24
4 Dynamique en temps discret.
4.1 Systèmes linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Récurrence d’ordre 1 en dimension 1 sans second membre.
4.1.2 Récurrence d’ordre p en dimension 1. . . . . . . . . . . . .
4.1.3 Systèmes linéaires autonomes. . . . . . . . . . . . . . . . .
4.2 Systèmes non linéaires. . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
27
27
28
29
29
30
5 Dynamique en temps continu.
5.1 Systèmes linéaires. . . . . . . . . . . . . . . . . . .
5.1.1 Équations du premier ordre. . . . . . . . . .
5.1.2 Équations d’ordre p à coefficients constants.
5.1.3 Systèmes linéaires à coefficients constants. .
5.2 Systèmes non linéaires autonomes. . . . . . . . . . .
5.3 Analogie discret continu. . . . . . . . . . . . . . . .
5.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
34
34
34
35
36
36
37
37
.
.
.
.
.
.
40
40
40
41
41
41
41
.
.
.
.
.
42
42
43
46
47
48
3.3
Réduction des matrices. . . . .
3.2.1 Valeurs propres, vecteurs
3.2.2 Cas diagonalisable. . . .
3.2.3 Cas non diagonalisable. .
Exercices . . . . . . . . . . . . .
. . . . .
propres.
. . . . .
. . . . .
. . . . .
6 Optimisation statique.
6.1 Optimisation sans contrainte. . . . . .
6.1.1 Le cas n = 1. . . . . . . . . . .
6.1.2 Le cas n quelconque. . . . . . .
6.1.3 Le cas particulier n = 2. . . . .
6.2 Optimisation avec contraintes d’égalités
6.3 Optimisation dynamique. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
et d’inégalités.
. . . . . . . . .
7 Quelques sujets des années précédentes.
7.1 Énoncé de mai 2015. . . . . . . . . . . . . . .
7.2 Corrigé de mai 2015. . . . . . . . . . . . . . .
7.3 Énoncé de juin 2015. . . . . . . . . . . . . . .
7.4 Énoncé de mai 2016. . . . . . . . . . . . . . .
7.5 Contenu du mini formulaire de trigonométrie.
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Avertissement : ce polycopié est à l’état parcellaire et sera au fur et à
mesure complété et mis à jour. La finalité de cet enseignement est l’introduction
des systèmes dynamiques. Leur étude nécessite des révisions et compléments
sur les matrices, nombres complexes que nous ferons. Nous commencerons par
une révision de la logique mathématique. Enfin, selon le temps qu’il restera,
nous aborderons l’optimisation sans contraintes, avec contraintes, l’optimisation
dynamique.
4
Chapitre 1
Logique.
1.1
Cours.
En cours de rédaction.
1.1.1
Assertions.
1.1.2
Opérateurs de base : et, ou, non.
Les trois opérateurs de bases sont le et (∧), le ou (∨) et le non (¬). Voici les
tables de vérité les définissant :
P
V
V
F
F
Q P ∧Q P ∨Q
V
V
V
F
F
V
V
F
V
F
F
F
et
P ¬P
V F
F V
Nous écrirons P ≡ Q si les deux propositions ont la même valeur de vérité. Les
opérateurs et et ou sont commutatifs et associatifs. La commutativité du ou
signifie que :
P ∨Q≡Q∨P
(et propriété analogue avec ∧) ce qui signifie que l’on peut effectuer l’opération
dans l’ordre souhaité, l’associativité est la propriété suivante, qui dispense de
parenthéser :
P ∨ Q ≡ Q ∨ P,
(P ∨ Q) ∨ R ≡ P ∨ (Q ∨ R)
5
(et même chose avec ∧). En revanche, (P ∧ Q) ∨ R nétant pas égal à1 P ∧ (Q ∨ R),
l’expression sans parenthèse P ∧ Q ∨ R n’a pas de sens.
La distribution d’un non échange les opérateurs :
¬(P ∨ Q) ≡ (¬P ) ∧ ¬Q,
¬(P ∧ Q) ≡ (¬P ) ∨ ¬Q.
On prendra garde notamment au fait que (¬P ) ∨ Q n’est pas la même chose que
¬(P ∨Q), les parenthèses sont donc nécessaires (et même remarque en remplaçant
∨ par ∧). Noter enfin que ¬(¬P ) ≡ P .
Pour terminer, noter la propriété de distributivité :
P ∨ (Q ∧ R) ≡ (P ∨ Q) ∧ (P ∨ R)
P ∧ (Q ∨ R) ≡ (P ∧ Q) ∨ (P ∧ R)
(on a distribué le P ∨ ou le P ∧) desquelles on déduit :
(P ∨ Q) ∧ (R ∨ S) ≡ (P ∧ R) ∨ (P ∧ S) ∨ (Q ∧ R) ∨ (Q ∧ S)
(et une analogue en échangeant ∨ et ∧).
1.1.3
Implication.
P ⇒ Q est défini comme (¬P ) ∨ Q. Ainsi l’implication n’est fausse que si P est
vraie et si Q est fausse. En particulier, si P est fausse, l’implication est vraie.
Voici la table de vérité :
P Q P ⇒Q
V V
V
V F
F
F V
V
F F
V
On notera les propriétés suivantes :
(P ⇒ Q) ≡ ((¬Q) ⇒ (¬P )),
¬(P ⇒ Q) ≡ P ∧ ¬Q.
[(P ⇒ Q) ∧ (Q ⇒ R)] ⇒ [P ⇒ R].
1
si par exemple P et R sont vraies et Q est fausse, alors la première est vraie et la deuxième
est fausse.
6
1.1.4
Équivalence.
P ⇔ Q est défini comme (P ⇒ Q) ∧ (Q ⇒ R). L’équivalence n’est vraie que si
P et Q sont simultanément vraies ou fausses, elle a un sens analogue à ≡. Voici
la table de vérité :
P Q P ⇔Q
V V
V
V F
F
F V
F
F F
V
Noter enfin que léquivalence a la même signification que le symbole ≡.
1.2
Un exemple de raisonnement : démonstrations
de la transitivité de l’implication.
Rappelons tout d’abord l’énoncé :
Proposition 1 Soit P, Q, R trois assertions. On a :
[(P ⇒ Q) ∧ (Q ⇒ R)] ⇒ [P ⇒ R].
Notons T l’assertion de l’énoncé, dont on veut montrer qu’elle est toujours vraie.
1.2.1
Démonstration par table de vérité.
Nous allons montrer ici que dans les 8 configurations possibles pour la véracité
des assertions P, Q, R, l’assertion T est toujours vraie.
P
V
V
V
V
F
F
F
F
1.2.2
Q
V
V
F
F
V
V
F
F
R P ⇒ Q Q ⇒ R (P ⇒ Q) ∧ (Q ⇒ R) P ⇒ R
V
V
V
V
V
F
V
F
F
F
V
F
V
F
V
F
F
V
F
F
V
V
V
V
V
F
V
F
F
V
V
V
V
V
V
F
V
V
V
V
T
V
V
V
V
V
V
V
V
Démonstration en se ramenant aux opérateurs de
base.
Nous allons ramener les implications aux opérateurs de bases, sur lesquels nous
avons des règles de calcul. Rappelons que U ⇒ W se traduit par (¬U ) ∨ W et
7
¬(U ⇒ W ) par U ∧ ¬W . On obtient donc successivement :
T ≡ ¬ [(P ⇒ Q) ∧ (Q ⇒ R)]∨(P ⇒ R) ≡ [¬(P ⇒ Q) ∨ ¬(Q ⇒ R)]∨(P ⇒ R) ≡
[(P ∧ ¬Q) ∨ (Q ∧ ¬R)] ∨ ((¬P ) ∨ R).
Or, la distributivité permet de dire que :
(P ∧ ¬Q) ∨ (Q ∧ ¬R) ≡ (P ∨ Q) ∧ (P ∨ ¬R) ∧ (¬Q ∨ Q) ∧ (¬Q ∨ ¬R).
Par ailleurs, (¬Q) ∨ Q est une assertion toujours vraie, on peut donc le supprimer
du ou. Ainsi, nous avons :
(P ∧ ¬Q) ∨ (Q ∧ ¬R) ≡ (P ∨ Q) ∧ (P ∨ ¬R) ∧ ((¬Q) ∨ ¬R).
Il vient donc, en posant provisoirement S = (¬P ) ∨ R :
T = [(P ∨ Q) ∧ (P ∨ ¬R) ∧ (¬Q ∨ ¬R)] ∨ S ≡
(P ∨ Q ∨ S) ∧ (P ∨ (¬R) ∨ S) ∧ ((¬Q) ∨ (¬R) ∨ S).
Or, P ∨ Q ∨ S ≡ P ∨ Q ∨ (¬P ) ∨ R est une assertion toujours vraie puisque P ∨ ¬P
l’est. Il en est de même des deux autres, donc l’assertion est toujours vraie.
1.3
Exercices.
1. V étant une assertion vraie, F étant une assertion fausse, P étant une
assertion quelconque, simplifier les expressions P ∨ V , P ∨ F , P ∧ V , P ∧ F .
2. Démontrer que :
(1 = 2) ⇒ (2 = 3).
3. Soit x ∈ R. Démontrer que :
(x > 10) ⇒ (x2 > 10),
puis vérifier que tous les cas du tableau de vérité donnant une implication
vraie peuvent se produire.
4. Montrer que P ⇒ (P ∨ Q) et que (P ∧ Q) ⇒ P .
5. Montrer que l’assertion ((P ∨ Q) ⇔ P ) est équivalente à (Q ⇒ P ).
6. Montrer :
(a) R ⇒ (S ⇒ R).
(b) R ⇒ [(¬R) ⇒ S].
(c) (R ⇒ S) ⇒ [(S ⇒ T ) ⇒ (R ⇒ T )].
8
(d) (R ∨ S) ⇔ [(R ⇒ S) ⇒ S].
7. Soit P, Q, R des assertions. Indiquer si les assertions suivantes sont toujours
vraies, toujours fausses, ou si leur valeur dépend de celles de P, Q, R.
(a) [P ∨ (Q ∧ R)] ∧ (Q ∨ R).
(b) [Q ⇒ P ] ∧ ¬(P ⇔ Q) ∧ (Q ∧ ¬P ).
(c) (¬P ⇒ Q) ∨ (Q ⇒ P ).
8. Écrire les négations des phrases suivantes (on ne demande pas évidemment
de simplement faire précéder la phrase d’un ¬) :
(a) La (=chaque) nuit, tous les chats sont gris.
∗
(b) ∀ε ∈ R+
∗ , ∃N ∈ N ,
∗
(c) ∀ε > 0, ∃N ∈ N ,
(d) ∀x ∈ R,
1/N ≤ ε.
1/N ≤ ε.
(x ≥ 3) ⇒ (x2 ≥ 9).
(e) ∀ε > 0, ∃` ∈ R∗+ , ∀a ∈ R, ∃τ ∈ [a, a + `], ∀t ∈ R, |f (t + τ ) − f (t)| ≤ ε.
(f) Tout triangle rectangle possède un angle droit.
(g) Pour tout entier x, il existe un entier y tel que pour tout entier z, la
relation z < y implique la relation z < x + 1.
9. On considère A l’ensemble des étudiants et C l’ensemble des cinémas. Pour
x ∈ A et y ∈ C, on note p(x, y) l’assertion : l’individu x est déjà allé au
cinéma y. Interprêter chacune des assertions :
/x ∈ A, .y ∈ C, p(x, y)
et
.y ∈ C, /x ∈ A, p(x, y)
lorsqu’on remplace successivement les symboles / et . par les quantificateurs
∀ et ∃ (il y a donc quatre couples d’assertions). Indiquer pour chacun des
couples d’assertions obtenus s’il y a équivalence entre les assertions ou celle
qui implique l’autre.
10. Le théorème d’impossibilité d’Arrow se propose, à partir des préférences
individuelles, d’établir un préordre total pour la société. Il énonce que tout
préordre total satisfaisant la propriété d’unanimité2 et l’indépendance3 est
nécessairement dictatorial4 .
(a) Écrire la contraposé du théorème d’Arrow
2
si tout le monde préfère A à B, la collectivité aussi
en gros, le choix entre A et B ne dépend pas de C
4
c’est-à-dire coı̈ncide avec le préordre d’un membre de la société
3
9
(b) Écrire la négation du théorème d’Arrow
(c) Que peut-on dire d’un préordre total qui n’est pas dictatorial et qui
satisfait l’axiome d’unanimité ?
10
Chapitre 2
Rappels et compléments sur la
trigonométrie et les nombres
complexes.
Comme nous le verrons, la résolution d’équations polynômiales amène à trouver des racines complexes. Le but n’est pas que vous soyez des virtuoses de la
trigonométrie et des complexes, mais que vous sachiez faire des manipulations de
base.
2.1
2.1.1
Trigonométrie.
Le cercle trigonométrique.
On considère dans un repère orthonormé du plan le cercle C centré en 0 et de
rayon 1. On note O l’origine du repère. Soit A le point de coordonnées (1, 0).
~ et OM
~ .
On peut repérer tout point M du cercle par l’angle entre les vecteurs OA
L’angle est orienté, et est compté positivement lorsqu’on part dans le sens direct
(inverse à celui des aiguilles d’une montre) et négativement lorsqu’on part dans
le sens indirect (celui des aiguilles d’une montre). Par exemple, si M est le point
de coordonnées (0, 1), l’angle est de 90 degrés, si M est le point de coordonnées
√
√
(−1, 0), l’angle est de 180 degrés, si M est le point de coordonnées (1/ 2, 1/ 2),
l’angle est de 45 degrés, etc.
On notera que dans ce qui précéde nous avons été imprécis : si on fait un tour
complet (de 360 degrés) dans un sens ou dans un autre, c’est-à-dire si on ajoute
ou on enlève 360 degrés à l’angle, on retombe sur le même point. Par exemple,
le point de coordonnées (−1, 0) représenté par l’angle 180 degrés peut également
être représenté
√
√ par l’angle 180 − 360 = −180 degrés ; le point de coordonnées
(−1/ 2, −1/ 2) peut être représenté par l’angle 315 degrés ou par 315 − 360 =
−45 degrés. En fait, chaque point peut être représenté par une infinité d’angles,
11
et la différences entre deux représentations diffèrent d’un multiple de 360 degrés.
Plutôt que de mesurer l’angle en degrés, on préfère mesurer l’angle en radians.
L’angle en radians correspond à la longueur de l’arc parcouru. Par exemple,
un tour complet (dans le sens direct, qui est le sens inverse des aiguilles d’une
montre) correspond à 2π radians (rappel : le périmètre d’un cercle de rayon r
est 2πr). Ainsi, 360deg = 2π rad. Un demi-tour (dans le sens direct) correspond
à 180deg = π rad, un quart de tour à 90 deg = π/2 rad, etc. Là encore, il y a
une infinité de représentations, et si un point M est représenté par un angle θ
(exprimé en radians), alors tous les angles le représentant sont de la forme θ+2kπ,
où k est un entier (positif, nul ou négatif). On dira que la mesure de l’angle est
θ modulo 2π.
Désormais nous ne travaillerons qu’avec des angles en radians. Il est utile de
connaı̂tre ce tableau, reliant les angles en degrés, en radians, et les coordonnées
(x, y) du point M représenté :
θ en degrés
θ en radians
x
y
0 30 45 60 90
0 π/6 π/4
π/3
π/2
√
√
2
3
1
1
0 √2
2
√2
3
2
1
1 2
0
2
2
Ce tableau donne des valeurs remarquables pour des points compris dans
le premier quart de plan. On retrouve facilement (éventuellement à √
l’aide d’un
dessin) d’autres valeurs. Par exemple, pour le point de coordonnées (− 3/2, 1/2),
on voit que l’on a fait un demi-tour puis on a enlevé π/6, donc l’angle correspondant est π − π/6 = 5π/6.
2.1.2
Fonctions sin et cos.
Pour un angle θ (exprimé en radians), on appelle respectivement cos(θ) et sin(θ)
l’absisse et l’ordonnée du point repésenté; Ainsi, le tableau précédent donne
immédiatement quelques valeurs remarquables à connaı̂tre :
θ
0 π/6 π/4
π/3
π/2
√
√
2
3
1
sin(θ) 0 √2
1
2
√2
3
2
1
0
cos(θ) 1 2
2
2
On voit que faire un tour complet ne change rien au point M . Cela signifie
que cos(θ + 2π) = cos(θ) et sin(θ + 2π) = sin(θ). On dit que ces fonctions sont
périodiques de périodes 2π et cela implique que pour tout entier k, cos(θ +2kπ) =
cos(θ) et sin(θ + 2kπ) = sin(θ).
Comme l’indique le dessin, changer θ en −θ ne change rien à l’absisse de M mais
change son ordonnée en l’opposé. On dit que cos est paire et que sin est impaire :
sin(−θ) = − sin(θ).
cos(−θ) = cos(θ),
12
Comme l’indique le dessin, ajouter un demi-tour change les valeurs des fonctions
trigonométriques en leurs opposés :
cos(θ + π) = − cos(θ),
sin(θ + π) = − sin(θ).
Vous pouvez retenir qu’une expression de la forme cos(kπ ± θ) (avec k entier)
sera toujours égale à cos(θ) ou − cos(θ), et qu’on lève l’indétermination de signe
grâce aux formules précéntes ou par un exemple. Même remarque pour le sinus.
En revanche, une expression de la forme cos(kπ ± π/2 ± θ) sera toujours égale à
sin(θ) ou − sin(θ), et qu’on lève l’indetermination de signe par un exemple ou, à
l’aide des formules précédentes, en se ramenant à :
cos(π/2 − θ) = sin(θ),
sin(π/2 − θ) = cos(θ).
Même remarque pour le sinus.
Une dernière formule exprime que tout point du cercle est à une distance de 1 du
centre O. Or, avec les formules vues en
entre O et le point
p collège, la distance
2
2
M de coordonnées (cos(θ), sin(θ)) est cos (θ) + sin (θ). Élevant au carré, on
obtient :
cos2 (θ) + sin2 (θ) = 1.
2.2
2.2.1
Rappels sur les nombres complexes.
Introduction. Forme algébrique.
Les complexes ont été introduits pour pouvoir résoudre des équations qui n’avaient
pas de racines, comme par exemple X 2 + 1 = 0. Il ne faut pas être étonné de
cette extension. Au début étaient les entiers positifs (on n’avait même pas de
zéro d’ailleurs). Résoudre l’équation X + 3 = 1 n’était pas possible, ce qui fait
que l’on a inventé les entiers négatifs. Ensuite, la résolution d’équations telle
2X = 3 a amené l’invention des nombres rationnels. La résolution d’équations
telles X 2 = 2 a amené à inventer les nombres réels, quoiqu’ici le procédé soit plus
délicat, car par exemple le réel π n’est solution d’aucune équation à coefficients
entiers (ou rationnels). Bombelli a appliqué formellement les formules de Cardan
pour résoudre une équation du troisième degré. On tombait sur des racines de
nombres négatifs, mais effectuant le calcul formellement comme si on était dans
R, Bombelli a démontré que sa racine faisant apparaı̂tre ces nombres inconnus
lors du calcul était bien en fait un nombre réel, dont on savait d’ailleurs qu’il
était une racine de l’équation.
Je ne vais pas rentrer dans les détails de la construction des nombres complexes,
nous allons aller directement à l’essentiel. On adjoint à R un nombre noté i
13
vérifiant i2 = −1 (en fait se pose un problème car −i satisfera aussi la même relation, mais passons). Un nombre complexe est un nombre s’écrivant (de manière
unique) sous la forme z = a + ib, où a et b sont deux réels, appelés respectivement la partie réelle de z, Re(z), et la partie imaginaire de z, Im(z). Un nombre
complexe est réel ssi Im(z) = 0. Lorsque Re(z) = 0, on dit que le nombre est
imaginaire pur.
L’ensemble des nombres complexes se note C et forme un corps commutatif, ce qui
signifie que l’on peut effectuer des additions, multiplications, quotients et que ces
opérations ont un peu les mêmes comportement que dans R. En pratique, vous
effectuez les calculs comme dans R, sauf que vous remplacez i2 par −1. Prenons
par exemple les complexes z = a + ib et z 0 = a0 + ib0 . On a :
z + z 0 = (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ),
zz 0 = (a + ib)(a0 + ib0 ) = aa0 + iab0 + iba0 + i2 bb0 = (aa0 − bb0 ) + i(ab0 + a0 b),
et si z 6= 0 :
1
a − ib
a − ib
a
b
1
=
=
= 2
= 2
−i 2
.
2
2
z
a + ib
(a + ib)(a − ib)
a +b
a +b
a + b2
Dans le dernier calcul, pour √
faire disparaı̂tre le i du dénominateur, nous avons,
comme nous aurions fait avec 2, multiplié par la quantité conjuguée de z = a+ib,
qui se note z = a − ib. Le nombre zz = zz est un réel positif. On pose :
p
√
|z| = zz = Re(z)2 + Im(z)2 ,
notation qui a un sens puisque si z est réel, on retrouve bien la valeur absolue.
|z| s’appelle le module de z.
Nous avons le mini formulaire suivant : z1 + z2 = z1 + z2 , z1 z2 = z1 .z2 , |z1 z2 | =
|z1 |.|z2 |, et formules qui se déduisent de celles-ci.
2.2.2
La question de la relation d’ordre sur C.
Est-il possible de donner un sens à une relation z < z 0 entre deux complexes z
et z 0 ? La réponse est oui : on peut par exemple décider de comparer les parties
réelles, et si elles sont égales, comparer les parties imaginaires. Maintenant cette
relation d’ordre pose un problème : elle ne respecte pas une propriété très agréable
dans R, qui est la compatibilité avec la multiplication : si z1 < z2 et a > 0, on
n’a plus nécessairement az1 < az2 . Le lecteur s’en convaincra en prenant z1 = 0
et a = z2 = i.
Plus généralement, si l’on a une relation < sur C, elle ne respecte jamais la propriété ci-dessus. En effet, i 6= 0. Soit i > 0, auquel cas en multipliant la relation
14
par le nombre strictement positif i, j’obtiens i2 > 0 ce qui est manifestement faux,
soit i < 0 et on multiplie par −i > 0 pour aboutir de nouveau à une contradiction.
De ce fait, par défaut (c’est à dire qu’à moins que sur un problème on en pose
une), il n’y a pas de relation d’ordre sur C, et je ne veux pas voir sur une copie
des ingalités entre nombres complexes, ni des notations telles C+ . En revanche
C∗ = C \ {0} a bien un sens.
2.2.3
Forme trigonométrique, forme polaire.
C est a fortiori un espace vectoriel réel de dimension 2, dont une base est {1, i}.
De ce point de vue, il est assimilable à un plan. Prenons le plan usuel muni d’un
repère orthonormé. Un complexe z se représente par le point de coordonnées
(Re(z), Im(z)). Un complexe devient donc aussi un point M de coordonnées
−−→
(Re(z), Im(z)), que l’on assimile également au vecteur OM . On dit que z est
l’affixe de M . Avec ces conventions, |z| est en fait la norme euclidienne du
−−→
vecteur OM . Si z est non nul, l’angle effectué avec l’axe horizontal (qui est défini
modulo 2π) s’appelle (un) argument de z. On le note Arg(z). Ainsi à l’aide de
la trigonométrie, on vérifie que :
Re(z) = |z| cos(Arg(z)),
Im(z) = |z| sin(Arg(z)).
Soit z un complexe, on note ρ son module et θ l’un de ses arguments. On a donc :
z = ρ(cos(θ) + i sin(θ)).
Cette écriture s’appelle la forme trigonométrique de z. La forme trigonométrique
est très bien adaptée pour effectuer des produits. En effet, si z est un complexe de
module ρ et d’argument θ, et si z 0 est un complexe de module ρ0 et d’argument θ0 ,
on vérifie que zz 0 a pour module ρρ0 et pour argument θ +θ0 . Ainsi, pour effectuer
un produit, on multiplie les modules mais on ajoute les arguments. Passer à
l’argument transforme un produit en somme, ce qui est un rôle de logarithme.
Ce n’est en fait pas un hasard : avec la théorie des séries entières, on peut
démontrer que :
cos(θ) + i sin(θ) = eiθ .
Ainsi, la forme trigonométrique de z s’écrit de manière plus concise ρeiθ , nommée
forme polaire. On notera en particulier :
iπ
e 2 = i,
eiπ = −1,
e2iπ = 1.
Soit maintenant a un complexe et r > 0. Nous avons :
• Le disque ouvert de centre a et de rayon r est l’ensemble d’équation :
D(a, r) = {z ∈ C, |z − a| < r};
• le disque fermé de centre a et de rayon r est l’ensemble d’équation :
Df (a, r) = {z ∈ C, |z − a| ≤ r}.
15
2.3
Nombres complexes et équations.
Il n’y a pas de formule générale pour résoudre une équation de degré n à partir de
n = 5, et vous n’avez pas à connaı̂tre les formules pour n = 3 et n = 4. Vous devez
cependant savoir résoudre les équations du second degré, les équations Z n = a et
savoir abaisser le degré d’une équation dont vous connaissez une racine.
2.3.1
Équations du second degré à coefficients réels.
Commençons par l’équation basique Z 2 = a, avec a réel. Les solutions sont :
√
√
• les réels a et − a lorsque a est un réel strictement positif ;
• le nombre 0, solution double, si a = 0 ;
√
• les complexes non réels i√a et −i −a lorsque a est un réel strictement
négatif.
Venons en à léquation aZ 2 + bZ + c = 0, où les nombres a, b, c sont réels et a
non nul. On calcule le discriminant ∆ = b2 − 4ac. Les solutions sont :
• les réels
√
−b− ∆
2a
• le nombre
−b
,
2a
et
√
−b+ ∆
2a
lorsque ∆ est un réel strictement positif ;
solution double, si ∆ = 0 ;
• les complexes non réels conjugués
strictement négatif.
2.3.2
√
−b−i −∆
2a
et
√
−b+i −∆
2a
lorsque ∆ est un réel
Équations du second degré à coefficients complexes.
Commençons avec Z 2 = z0 , z0 étant un complexe donné. Nous allons résoudre
cette équation en cherchant Z sous forme algébrique. Les deux racines Z1 et Z0
satisfont vérifient Z1 = −Z0 . Posons z0 = a + ib et cherchons Z = α + iβ. On
calcule Z 2 = (α2 − β 2 ) + 2iαβ, ce qui permet déjà d’obtenir deux équations :
2
α − β2 = a
2αβ
= b
Par ailleurs, nous avons :
a2 + b2 = |z0 |2 = |Z 2 |2 = |Z|4 = (α2 + β 2 )2 .
On obtient ainsi une nouvelle relation

 α2 + β 2
α2 − β 2

2αβ
que l’on ajoute au système précédent :
√
=
a2 + b 2
= a
= b
16
En ajoutant et soustrayant les deux premières lignes, on tire α2 et β 2 , et donc
α et β au signe près. Cela donne théoriquement 4 possibilités pour les couples
(α, β), et donc quatre pour Z = α + iβ, en revanche la dernière relation impose
une condition sur les signes : si b > 0 alors α et β sont de même signe, et si b < 0,
alors α et β sont de signe opposés.
On s’intéresse désormais à résoudre aZ 2 + bZ + c = 0, a, b, c étant trois nombres
complexes et a 6= 0. On calcule le complexe ∆ = b2 − 4ac. Lorsque ∆ = 0,
l’équation n’a qu’une racine double −b/(2a). Si ∆ 6= 0, soit δ un nombre complexe
vérifiant δ 2 = ∆ (nous venons de voir comment en trouver un). Alors les deux
racines de l’équation sont :
z1 =
−b − δ
,
2a
z2 =
−b + δ
.
2a
Si l’équation est à coefficients√réels, il en est de même de ∆. Alors lorsque ∆ > 0,
on
δ =
√ pose (par exemple) δ = ∆ et lorsque ∆ <iθ 0, on pose (par exemple)
√ iθ/2
i −∆. Lorsque ∆ est complexe, posant ∆ = ρe , on peut choisir δ = ρe .
2.3.3
Équations Z n = z0 .
De manière générale, il est plus facile de résoudre cette équation en passant par
la forme polaire. Écartons le cas particulier où z0 est nul, auquel cas la seule
solution (d’ordre n) est 0. Si z0 6= 0, posons z0 = ρeiθ et cherchons les solutions
sous la forme Z = reiφ . On doit alors avoir :
rn einφ = ρeiθ .
La comparaison des modules donne immédiatement r = ρ1/n . Après, on doit
avoir que nφ − θ doit différer d’un multiple de 2π, ce qui donne :
φ=
θ + 2kπ
,
n
k ∈ Z.
Cela donne une infinité de valeurs de φ possibles, et donc a priori une infinité de
racines
θ+2kπ
Zk = ρ1/n ei n .
Cependant, on voit que :
Zk+n = ρ1/n ei
θ+2(k+n)π
n
= ρ1/n ei
θ+2kπ
n
= Zk
donc il suffit de faire parcourir à k un nombre de n valeurs consécutives distinctes.
On prend en général k variant de 0 à n − 1 (et on peut vérifier que l’on obtient
ainsi n valeurs distinctes).
À titre d’exemple, résolvons les équations z n = 1. Notant ω = e2iπ/n , les racines
sont 1, ω, ω 2 , . . . , ω n−1 .
17
2.3.4
Abaissement de l’ordre.
De manière générale, une équation de degré n admet toujours n racines complexes
(en comptant autant de fois que nécessaire les racines multiples) sur C. Par
ailleurs, si l’équation est à coefficients réels, alors lorsque z en est une racine
complexe non réelle, il en est de même de z̄. Ainsi, puisque 1 + i est racine de
Z 3 − Z 2 + 2 = 0, il en est de même de 1 − i.
Supposons que l’on cherche à résoudre une équation polynômiale P (Z) = 0 et
que vous en connaissiez une racine z0 . Dans ce cas, lorsque P est de degré n,
on peut écrire P sous la forme P (Z) = (Z − z0 )Q(Z), où Q est un polynôme de
degré n − 1. Les racines de P sont celles de Q, à qui il faut adjoindre z0 .
Illustrons cette remarque. Soit à résoudre Z 3 − Z 2 + 2Z − 2 = 0. On constate
immédiatement que 1 est racine. On peut donc écrire :
Z 3 − Z 2 + 2Z − 2 = (Z − 1)(aZ 2 + bZ + c),
où a, b, c sont trois constantes ne dépendant pas de Z. On détermine facilement
les termes a et c. En effet, le terme en Z 3 ne se fait que d’une façon à droite,
d’où on lit que 1 = a. De même, le terme constant donne tout de suite −2 = −c.
Ainsi a = 1 et c = 2, d’où l’expression :
Z 3 − Z 2 + 2Z − 2 = (Z − 1)(Z 2 + bZ + 2).
Il ne reste qu’un terme à calculer. On peut utiliser plusieurs techniques : rechercher
le terme en Z (ce qui donnera 2 = −b + 2), le terme en Z 2 (ce qui donnera
−1 = b − 1) ou prendre une valeur particulière de Z (autre que 0 ou la racine 1
qui ne donnerait rien) ; par exemple avec Z = 2, on trouve 6 = 6 + b. Dans tous
les cas, on trouve b = 0 d’où la factorisation :
Z 3 − Z 2 + 2Z − 2 = (Z − 1)(Z 2 + 2).
2
Or,
√ on sait trouver les solutions de Z = −2. On a donc pour racines 1,
− 2i.
√
2i et
Comme deuxième illustration, revenons à l’exemple Z 3 − Z 2 + 2 = 0 dont on
connaı̂t déjà deux racines, 1 + i et 1 − i. On peut donc factoriser l’expression sous
la forme :
Z 3 − Z 2 + 2 = (Z − (1 + i))(Z − (1 − i))(aZ + b).
Ici on trouve a par calcul du terme en Z 3 , ce qui donne 1 = a et b par calcul du
terme constant, ce qui donne 2 = (1 + i)(1 − i)b soit b = 1. Finalement :
Z 3 − Z 2 + 2 = (Z − (1 + i))(Z − (1 − i))(Z + 1)
et les racines sont 1 + i, 1 − i et −1.
18
2.4
Exercices.
√
1. Soit z1 = 1 + i 3 et z2 = 1 − i, z3 = 3 + 2i. Calculer z1 + 2z2 , z1 z2 , z23 ,
z1 /z2 , z3 , z34 .
2. On reprend les notations de l’exercice précédent. Écrire z1 et z2 sous forme
polaire. Reprendre les calculs de z1 z2 , z23 , z1 /z2 à l’aide de la forme polaire.
√
3. Écrire sous forme algébrique les nombres complexes suivants : eiπ , 2eiπ/4 ,
2e−iπ/3 .
4. Soit z ∈ C. Montrer que z + z ∈ R et z − z ∈ iR. Déterminer ces nombres
en fonction du module et de l’argument de z.
5. (a) Simplifier :
eiθ + e−iθ
,
2
eiθ − e−iθ
.
2i
(b) Montrer que :
eiθ + 1 = 2eiθ/2 cos(θ/2),
eiθ − 1 = 2eiθ/2 i sin(θ/2).
6. Résoudre dans C les équations z 2 = 36, z 2 = −81, z 2 − 7 = 0, z 2 + 121 = 0.
7. Résoudre dans C les équations z 2 − 15z + 26 = 0, z 2 − 2z + 26 = 0,
z 2 − 4z + 13 = 0.
8. Soit α un nombre réel. Résoudre (dans C) l’équation X 2 + 2αX + 1 = 0.
9. Résoudre dans C les équations z 2 = 3−4i, z 2 = −5+12i, z 2 −2z+9−6i = 0.
10. Résoudre dans C les équations z 3 − 6z 2 + 11z − 6 = 0, z 3 − 4z 2 + 6z − 4 = 0.
11. On reprend les notations du premier exercice. Résoudre z 3 = 1, z 5 = z1 .
12. Calculer de deux manières eiα eiβ . En déduire cos(α + β) et sin(α + β) en
fonction de cos(α), cos(β), sin(α), sin(β).
19
Chapitre 3
Révisions sur les matrices.
3.1
3.1.1
Calculs basiques.
Calculs de sommes et de produits.
Rappelons que la dimension d’une matrice A est le couple (p, q) où p est son
nombre de lignes et q son nombre de colonnes. On dit que la matrice est carrée
si p = q (p s’appelle alors l’ordre de la matrice). Lorsqu’on écrit A = (aij )i,j , i
désigne l’indice de ligne et j l’indice de colonne.
Lorsque A = (aij )i,j et B = (bij )i,j , on ne peut calculer A + B que si A et B ont
même dimension. Dans ce cas, A + B est la matrice de terme générique aij + bij .
On notera que A + B = B + A.
Lorsque A = (aij )i,j et B = (bij )i,j , on ne peut calculer AB que si le nombre de
colonne de A égale le
Pnombre de lignes de B. Dans ce cas, AB est la matrice
de terme générique
k aik bkj , c’est-à-dire que pour le terme en position (i, j)
on multiplie la ligne i de A par la colonne j de B. On notera qu’en général
AB 6= BA. D’une part, il se peut qu’un produit ne soit pas possible et même
s’ils le sont tous deux, le résultat est en général différent.
Lorsque A = (aij )i,j et k est un entier positif, on note Ak la matrice qui consiste à
multiplier k −1 fois A par elle-même, avec la convention A0 = In . Ainsi A2 = AA,
A3 = AAA, etc. Ce calcul n’est possible que si A est une matrice carrée.
3.1.2
Calculs de déterminants d’ordre 2 et 3.
À rédiger.
3.1.3
Calculs de puissances dans les cas élémentaires.
Nous allons avoir besoin pour la dynamique en temps discret de calculer de
manière générique Ak , avec A matrice carrée et k entier positif. Le cas général
20
est assez lourd, nous allons ici présenter trois situations élémentaires, qui seront
utiles pour la situation générale.
Cas diagonal.
Supposons en premier que la matrice A soit une matrice diagonale, avec les nombres d1 , . . . , dn sur la diagonale. On vérifie alors facilement (par récurrence sur k)
que la matrice Ak est une matrice diagonale, avec les nombres dk1 , . . . , dkn sur la
diagonale. En particulier, si A = λIn , alors Ak = λk In . Plus généralement, si A
est diagonale par blocs ∆1 , . . . , ∆p , alors Ak est diagonale par blocs ∆k1 , . . . , ∆kp .
Cas nilpotent.
Supposons maintenant que la matrice A satisfasse une relation de la forme Ap =
0n (on dit que la matrice est nilpotente). Dans ce cas, on peut toujours choisir
p ≤ n, et pour k ≥ n, Ak = 0n . Nous n’avons donc qu’à connaı̂tre que les
premières puissances de A. Le prototype de matrice nilpotente est une matrice
triangulaire qui ne contient que des zéros sur la diagonale.
Un cas mixte.
On suppose ici que A = λIn + N , avec N matrice nilpotente. On connaı̂t les
puissances successives de λIn et de N . Ces deux matrices commutant, on peut
utiliser la formule du binôme, qui dit que :
k
k
A = (λIn + N ) =
p−1 X
k
`=0
3.1.4
`
`
N (λIn )
n−`
=
p−1 X
k
`=0
`
λn−` N ` .
Exponentielle de matrice.
Exponentielle réelle et complexe.
Il est possible de montrer que pour tout complexe z, on a :
z
e = lim
N →+∞
La limite à droite s’écrit directement
z
N
X
zk
k=0
zk
k=0 k! ,
P+∞
e =
+∞ k
X
z
k=0
k!
k!
.
de sorte que l’on écrira :
.
De cette expression, il est possible, récursivement sur p, de calculer les sommes
P+∞ kp zk
P+∞ k(k−1)...(k−(p−1))zk
. Illustrons le
du type Sp (z) =
k=0
k=0 k! , en calculant
k!
21
phénomène pour p = 2. On part ainsi de la somme
T2 (z) =
+∞
X
k(k − 1)z k
k!
k=0
.
D’une part, elle est égale à S2 (z) − S1 (z), puisque k(k − 1) = k 2 − k. D’autre
part :
+∞
X
k(k − 1)z k
k=0
k!
=
+∞
X
k(k − 1)z k
k!
k=2
=
+∞
X
k=2
+∞
X z `+2
zk
=
= z 2 ez .
(k − 2)!
`!
`=0
Donc S2 (z) = S1 (z) + z 2 ez . De même :
S1 (z) =
+∞
X
kz k
k=0
k!
=
+∞
X
k=1
+∞
X z `+1
zk
=
= zez .
(k − 1)!
`!
`=0
Ainsi S2 (z) = z(z + 1)ez .
P
P+∞ k(k−1)(k−2)zk
k3 z k
De même, pour calculer S3 (z) = +∞
.
k=0 k! , on part de T3 (z) =
k=0
k!
Puisque k(k−1)(k−2) = k 3 −3k 2 +2k, la somme est égale à S3 (z)−3S2 (z)+2S1 (z),
de sorte que S3 (z) = T3 (z) + 3S2 (z) − 2S1 (z) ; par ailleurs :
T3 (z) =
+∞
X
k(k − 1)(k − 2)z k
k=3
k!
=
+∞
X
k=3
+∞
X z `+3
zk
=
= z 3 ez ,
(k − 3)!
`!
`=0
donc :
S3 (z) = (z 3 + 3z 2 + z)ez .
Exponentielle de matrice.
Comme pour les complexes, on peut parler d’exponentielle d’une matrice carrée.
Le terme de droite dans la formule suivante a un sens et définit l’exponentielle
de A (que l’on note exp(A) et non eA pour une matrice) :
exp(A) =
+∞
X
Ak
k=0
k!
.
On fera attention au fait que la matrice exp(A) n’est pas celle dont le terme
général est eaij (cf. exemples plus loin). Son calcul nécessite le calcul de Ak pour
tout k puis la sommation de la série. On peut utiliser aussi un mini formulaire
donné ici pour se ramener à d’autres situations.
Proposition 2 Soit A et B deux matrices carrées de même taille.
1. exp(0n ) = In ;
22
2. si AB = BA alors exp(A + B) = exp(A) exp(B) = exp(B) exp(A) ;
3. exp(A) est inversible, et exp(A)−1 = exp(−A).
Voici quelques situations où l’exponentielle est facile à calculer :
• si A est diagonale, avec les nombres d1 , . . . , dn sur la diagonale, alors exp(A)
est une matrice diagonale, avec les nombres ed1 , . . . , edn sur la diagonale. On
notera en particulier que les 0 hors diagonale sont restés des 0 et ne sont
pas devenus e0 = 1.
P
Ak
• si A est nilpotente d’indice p, alors exp(A) = p−1
k=0 k! .
• si A = λIn + N , avec N matrice nilpotente d’indice p, alors exp(A) =
P
Nk
eλ p−1
k=0 k! .
3.2
Réduction des matrices.
Le but de cette section est de trouver une matrice B semblable à A mais pour
laquelle le calcul des puissances est plus simple. Dans ce cas, le calcul de Ak ou
de exp(A) sera également simple, puisque rappelons que si A = P BP −1 , nous
avons Ak = P B k P −1 et exp(A) = P exp(B)P −1 .
Le cas idéal est celui où l’on peut se ramener à une matrice B diagonale. Nous
dirons alors que A est diagonalisable. Mais ce n’est malheureusement pas toujours
possible. Savoir si une matrice est diagonalisable, et dans tous les cas trouver un
couple (B, P ) intéressant est le but de ce qui suit.
3.2.1
Valeurs propres, vecteurs propres.
Rappelons qu’une valeur propre de A est un complexe λ tel qu’il existe X non
nul satisfaisant AX = λX (ou encore (A − λIn )X = 0). On voit ainsi que λ est
valeur propre si et seulement si det(A − λIn ) = 0. On introduit alors la fonction
de λ :
χA (λ) = det(A − λIn ).
On peut démontrer que χA est un polynôme de degré n exactement, de terme
dominant (−1)n . Il a alors dans C exactement n racines complexes.
Q
Notons la factorisation de χA sous la forme : χA (λ) = (−1)n pj=1 (λ − λj )αj , où
les λ1 , . . . , λp sont les racines distinctes de χA , et les nombres αj sont des entiers
strictement positifs de somme n. Cette factorisation n’est pas toujours possible
en pratique, mais nous supposerons que nous y sommes parvenus. αj s’appelle la
multiplicité de la racine λj .
Une fois les λj calculés, on détermine les sous-espaces propres associés, Ej =
Ker(A − λj In ). La dimension de Ej , notée dj , est un nombre compris entre 1 et
23
αj . La matrice A est diagonalisable si et seulement si dj = αj pour tout j. C’est
en particulier le cas lorsque les αj sont tous égaux à 1 (i.e. lorsque les racines
sont simples). On notera que cette seconde phase est automatique : calcul de
noyaux, de leurs dimensions, et comparaison des dj et αj .
3.2.2
Cas diagonalisable.
Lorsque A est diagonalisable, la matrice B sera diagonale et composée des λ` sur
sa diagonale, chaque λ` étant répété α` fois. La matrice P contient en colonnes
les bases des sous-espaces Ej , sachant que l’on met dans la colonne j un vecteur
associé à la valeur propre apparaissant en position j de la diagonale de B. Ainsi,
ce procédé permet de finir le calcul de P et B.
Les sections précédentes nous ont appris à calculer B k et exp(B), on conclut donc
par les formules Ak = P B k P −1 et exp(A) = P exp(B)P −1 .
3.2.3
Cas non diagonalisable.
Cas des matrices d’ordre 2.
Soit A une matrice carrée d’ordre 2. Si elle a deux valeurs propres distinctes, elle
est diagonalisable. Supposons que λ soit une valeur propre double. Alors on sait
que N = A − λI2 est nilpotente d’indice au plus 2. Si N = 0, A est diagonale.
Sinon, A n’est pas diagonalisable, on a N 2 = 0 et A = λI2 + N , donc les calculs
de Ak et de exp(tA) se font facilement.
Cas général (hors programme).
Pour chaque valeur propre pour laquelle dj < αj , on se place dans le sous espace caractéristique Sj = Ker((A − λj In ))αj ). Ce dernier est nécessairement de
dimension αj . Lorsque αj = 2, la restriction a ce sous-espace a une matrice
carrée d’ordre 2 non diagonalisable, on est ramené au cas précédent. Dans le cas
général, on prend une base de Sj , commençant par une base de Ej pour simplifier
les calculs. Dans cette base, on aura une matrice de la forme λj Iαj + N , avec
N nilpotente d’indice au plus égal à αj , on est ramené à un cas précédent. La
réduction idéale est celle de Jordan mais nous emmêne assez loin.
3.3
Exercices
1. On considère les matrices :


1 −5 −1
1 1 1


A = 1 −1 1 , B =
,
1 −1 1
0 4
2
24
C=
1 2
,
−3 5
1 2
D=
.
4 8
(a) Rappeler le théorème du rang. Donner pour chacune de ces matrices
la dimension de l’espace de départ et de l’espace d’arrivée.
(b) Effectuer tous les produits possibles de deux matrices distinctes.
(c) Calculer le carré de chacune des matrices pour lesquelles c’est possible.
(d) Calculer les déterminants des matrices lorsque c’est possible.
(e) Déterminer le noyau de chacune des matrices.
2. Calculer les déterminants des matrices

1
1 2
1 5

4
,
,
1 −1
3 7
7
:

2 3
5 6 ,
8 0


1 1 −1
1 2 3  .
3 2 1
3. (a) Pour la matrice du premier A exercice, calculer
f (x) = det(A − xI3 ).
(b) Trouver les valeurs (complexes) de x pour lesquelles f (x) = 0.
(c) Pour chacune de ces valeurs, trouver une base du noyau de A − xI3 .
(d) Lorsque x n’est pas l’une de ces valeurs, justifier que le noyau de A−xI3
est réduit à {0}.
(e) Reprendre la question pour les matrices C et D (en remplaçant I3 par
I2 ).
4. Soit


d1 0 0
D =  0 d2 0 
0 0 d3
une matrice diagonale, P une matrice carrée d’ordre 3 inversible.
(a) Donner l’expression de Dk lorsque k est un entier positif.
(b) On pose A = P DP −1 . Exprimer Ak en fonction de Dk .
5. Soit


0 a b
N = 0 0 c  .
0 0 0
(a) Calculer N 2 puis N 3 . En déduire N k pour tout entier positif k.
(b) On rappelle que lorsque AB = BA, on a la formule du binôme :
k X
k
k
(A + B) =
Ap B k−p .
p
p=0
Soit λ un nombre complexe. Calculer (λI3 + N )k pour tout entier
positif k.
25
6. Soit λ un nombre complexe. Sans redémontrer les résultats donnés dans le
cours, calculer
+∞ 4 n
X
nλ
.
S4 =
n!
n=0
7. Indiquer, pour chacune des matrices A suivantes, les valeurs de Ak (k entier
strictement positif) et de exp(tA) (t réel) :
1 0
0 1
A=
, A=
,
0 3
0 0






1 √0 0
0 1 1
0 1 0
A = 0
3 0 , A = 0 0 3 , A = 0 0 1 ,
0 0 0
0 0 0
0 0 1
2 −1
A=
.
0 2
8. On considère la matrice
3 −1
A=
.
1 1
Calculer Ak (k entier strictement positif) et exp(tA) (t réel).
9. En les ramenant à une forme plus simple, déterminer pour chacune de ces
matrices les valeurs de Ak (k entier strictement positif) et de exp(tA) (t
réel) :


4 −1 1
3 −1
A=
, A = −2 5 1 .
−1 3
2 −1 3
10. On considère la matrice


1 2 1
A =  1 2 1 .
−1 0 1
(a) Vérifier que la matrice a 0 pour valeur propre simple et 2 pour valeur
propre double.
(b) Montrer que chaque sous-espace propre est de dimension 1. On note
e1 une base de E0 et e2 une base de E2 .
(c) Trouver un vecteur e3 tel que (e2 , e3 ) soit une base de Ker((A − 2I2 )2 ).
(d) Vérifier que (e1 , e2 , e3 ) est une base de R3 , et si P désigne la matrice
de passage de la base canonique à cette base, déterminer ∆ = P −1 AP.
(e) Calculer ∆k (k entier strictement positif) et exp(t∆) (t réel).
(f) En déduire Ak (k entier strictement positif) et exp(tA) (t réel).
26
Chapitre 4
Dynamique en temps discret.
4.1
4.1.1
Systèmes linéaires.
Récurrence d’ordre 1 en dimension 1 sans second
membre.
Ici on est intéressé par la recherche des suites réelles1 (xt )t satisfaisant la relation :
xt+1 = at xt ,
la suite (at )t étant donnée.
On notera que pour tout x0 , il existe une unique solution, qui est :
!
t−1
Y
xt =
aj x 0 ,
j=0
et donc il existe en
fait une infinité de solutions, toutes proportionnelles à la suite
Qt−1
(At )t , avec At = j=0 aj .
Dans le cas où at ne dépend pas de t, notons at = a (on parle d’équation autonome), les solutions sont alors les suites géométriques de raison a :
x t = at x 0 .
On notera qu’elles tendent toutes vers 0 (indépendamment de x0 ) si et seulement
si |a| < 1.
Lorsqu’on a une équation avec second membre, de la forme xt+1 = at xt + bt , la
solution générale est la somme de la solution générale de l’équation sans second
membre vue ci-dessus (en remplaçant x0 par une constante arbitraire) et d’une
1
Par moments, la résolution nécessite de passer par les nombres complexes, mais au final
nous chercherons les suites à valeurs réelles.
27
solution particulière, trouvée au feeling ou en appliquant la Méthode de Variation des Constantes, dite MVC, présentée plus bas dans le cas plus général des
systèmes. Si on fixe une valeur, disons de x0 , la constante est déterminée à la
toute fin du processus.
4.1.2
Récurrence d’ordre p en dimension 1.
On se donne un entier p ≥ 2, des nombres a0 , . . . , ap (avec ap 6= 0) et une suite
(bt )t . On s’intéresse à résoudre l’équation :
ap xt+p + . . . + a0 xt = bt .
À cette dernière, on associe l’équation sans second membre :
ap xt+p + . . . + a0 xt = 0.
Résolution de l’équation sans second membre.
On introduit le polynôme caractéristique :
P (X) = ap X p + . . . + a0 ,
que l’on factorise sur C :
P (X) = ap
q
Y
(X − λj )nj ,
j=1
les λj étant les racines distinctes de P et nj la multiplicité de λj . La solution
dépend de p constantes ci,j et s’écrit sous la forme :
xt =
"nj −1
q
X
X
j=1
#
ck,j tk λtj .
k=0
Si l’équation que l’on souhaite résoudre est celle avec bn = 0, on calcule ici les
constantes, déterminées de manière unique par les valeurs de x0 , . . . , xp−1 . On
notera que toutes les solutions tendent vers 0 (on dit que 0 est asymptotiquement
stable) si et seulement si, pour tout j, |λj | < 1.
Résolution de l’équation complète.
On part de la solution générale de l’équation sans second membre (celle en laissant
les ci,j sans tenir compte des premiers xk ). On lui ajoute une solution particulière
de l’équation, trouvée ”au feeling” en tenant compte de la forme de (bt )t , et l’on
obtient ainsi toutes les solutions.
28
4.1.3
Systèmes linéaires autonomes.
Ici on est intéressé par la recherche des suites de vecteurs (Xt )t satisfaisant la
relation :
Xt+1 = AXt + Bt ,
les données étant A une matrice carrée d’ordre N et (Bt )t une suite de vecteurs
colonnes.
Une fois X0 fixé, il existe une unique suite solution. Il y a donc en tout une
infinités de solution, paramétrées par un vecteur de dimension N (donc par N
réels ou complexes).
Résolution du système sans second membre.
On s’intéresse ici au cas où Bt = 0 pour tout t. La solution est :
Xt = At X0
et donc son calcul requiert le cas de At . La solution générale est donc At C, C
étant un vecteur colonne arbitraire. On notera que toutes les solutions tendent
vers 0 (on dit que 0 est asymptotiquement stable) si et seulement si pour toute
valeur propre λ de A, on a |λ| < 1.
Résolution de l’équation complète.
On part de la solution générale de l’équation sans second membre (celle de la forme
At C, avec C arbitraire). On lui ajoute une solution particulière de l’équation,
trouvée ”au feeling” en tenant compte de la forme de (Bt )t , et l’on obtient ainsi
toutes les solutions.
Au lieu de chercher la solution particulière au feeling, on peut, lorsque A est
inversible, procéder à une MVC. Pour ce faire, on pose (Xt )SP = At Ct . Le système
en la suite (Ct )t devient Ct+1 = Ct + A−(t+1) Bt , qui se résout par addition. On
peut fixer arbitrairement C0 , n’importe quellePvaleur fournira une SP. Prenons
−(j+1)
Bj , et donc, puisque
par exemple C0 = 0. On trouve alors Ct = t−1
j=0 A
t
(Xt )SP = A Ct , il vient :
(Xt )SP =
t−1
X
At−(j+1) Bj .
j=0
La solution complète de l’équation est alors :
(Xt )SP = At C +
t−1
X
At−(j+1) Bj ,
j=0
29
C ∈ Rn .
4.2
Systèmes non linéaires.
En cours de rédaction.
4.3
Exercices.
1. Exprimer la solution de l’équation en fonction du premier terme (x0 ou X0 ),
et discuter la stabilité asymptotique de 0 :
xt+1 = 2xt
1
xt+1 = − xt
3
xt+1 = −xt


1 0 0
Xt+1 = 0 2 0 Xt
0 0 3


0 1 1
Xt+1 = 0 0 1 Xt
0 0 0
3/4 −1/2
Xt+1 =
Xt
1/4
0
5 −6
Xt+1 =
Xt
3 −4
2 2
Xt+1 =
Xt
−1 0
5 1
Xt+1 =
Xt
−1 7
4 1
Xt+1 =
Xt
−4 0


−3/2 −5/2 0
3/2 0 Xt
Xt+1 =  1
1/2
1
0
2. (a) Écrire l’ensemble des solutions pour chacune des équations :
xt+2 − 2xt+1 + 3xt = 0
xt+2 + 4xt = 0
xt+2 − 2xt+1 + xt = 0.
30
(b) Pour chacune des équations précédentes, écrire xt en fonction de x0 et
x1 .
3. Résoudre l’équation :
xt+1 − 2xt = yt
dans chacun des cas suivants :
(a) yt = q t , avec q réel distinct de 2 et de 0 ;
(b) yt = t + 2 ;
(c) avec yt arbitraire, en appliquant la MVC. On appliquera ensuite la
formule au cas particulier yt = 2t puis on retrouvera les formules
précédentes. Pour le dernier cas, on pourra admettre la formule :
∀n ∈ N, ∀r ∈ R \ {1},
n
X
jrj = r
j=0
nrn+1 − (n + 1)rn + 1
.
(r − 1)2
4. Résoudre l’équation :
xt+2 − 3xt+1 + 2xt = yt
dans chacun des cas suivants :
(a) yt = q t , avec q réel distinct de 0, 1 et 2 ;
(b) yt = q t avec q = 1 ou q = 2 (on cherchera une solution particulière
sous la forme xt = ctq t , c étant à choisir) ;
(c) yt = −2t.
5. Écrire la solution générale de l’équation sans second membre dont les équations
caractéristiques sont :
(r − 2)(r − 3)(r − 7) = 0,
(r − 2)2 (r − 3)(r − 7)4 = 0,
(r − 2)(r − (3 + i))(r − (3 − i)) = 0,
(r − 3)(r − (1 + i))3 (r − (1 − i))3 = 0.
6. Écrire la solution générale des équations :
xt+3 − 7xt+1 + 6xt = 0,
xt+3 − 3xt+2 + 3xt+1 − xt = 0,
xt+3 + xt+2 − 5xt+1 + 3xt = 0.
xt+4 + xt = 2t .
31
7. Soit α et µ deux paramètres réels.
(a) Résoudre l’équation xt+2 + 2αxt+1 + xt = 0 (discuter suivant α). Montrer que 0 n’est jamais asymptotiquement stable.
(b) On suppose |α| < 1 et µ 6= 0. Résoudre l’équation :
xt+2 + 2αxt+1 + xt = µt .
8. τ étant un nombre strictement positif, et la suite (Mt )t étant donnée, on
s’intéressse aux solutions de :
Ct+1 = (1 + τ )Ct − Mt .
(a) Calculer Ct en fonction de t, τ , C0 et des termes de la suite (Mt )t (on
utilisera la MVC).
(b) Soit N ≥ 2. On souhaite que CN = 0.
i. Donner la relation reliant les (Mt )t à C0 .
ii. Calculer M dans le cas où Mt = M pour tout t ; puis dans le cas
Mt = (1 + ρ)t M (avec ρ 6= τ ).
(c) Dans les deux derniers cas particuliers, reprendre la résolution de
l’équation de départ en utilisant SGSSM+SP.
9. (Samuelson’s business Cycle, 1939) La consommation Ct à la date t est
une fonction linéaire croissante du revenu précédent Yt−1 et l’investissement
à la date t est positivement proportionnel à la variation des consommations
Ct − Ct−1 . L’économie est donc modélisée par :

 Ct = cYt−1
It = v(Ct − Ct−1 )

Yt = Ct + It + Gt
où c ∈]0, 1[ et v > 0, les taxes Gt étant exogènes.
(a) Montrer que la suite des revenus satisfait une relation de récurrence
d’ordre 2 à préciser, et que la connaissance de celle-ci permet la connaissance de tous les endogènes.
(b) On suppose désormais que le niveau des taxes est constant : Gt = G
pour tout t. Déterminer l’équilibre Ȳ de l’économie, résoudre l’équation.
10. On considère l’équation :
xt+3 − 2xt+2 + xt+1 − xt = zt


xt
et on introduit Xt = xt+1 .
xt+2
32
(a) on suppose d’abord zt = 0. Montrer qu’il existe une matrice A à
déterminer de sorte que :
Xt+1 = AXt .
(b) on suppose que zt = 2t . Trouver un vecteur Bt de sorte que :
Xt+1 = AXt + Bt .
(c) Écrire l’équation :
xt+5 − 2xt+4 + xt+3 − 5xt+1 + xt = sin(t)
sous la forme :
Xt+1 = AXt + Bt ,
avec A et Bt à déterminer.
33
Chapitre 5
Dynamique en temps continu.
Ici, on est intéressé par une relation du type :
x0 (t) = F (t, x(t))
écrite parfois abusivement x0 = F (t, x).
5.1
5.1.1
Systèmes linéaires.
Équations du premier ordre.
La relation est ici sous la forme :
x0 (t) = a(t)x(t) + b(t),
parfois écrite x0 = a(t)x + b(t), les données étant les fonctions continues a et b. Il
existe une seule solution prenant la valeur x0 en t0 , qui est :
Z t
Rt
Rt
a(s)ds
x(t) = x0 e t0
+
b(s)e s a(u)du ds.
t0
On notera que cette expression est la solution de toutes les solutions (lorsque
x0 varie) de l’équation pour laquelle b = 0 (dite équation sans second membre)
et d’une solution de notre équation (correspondant à x0 = 0). Il faut connaı̂tre
par coeur la solution de l’équation sans second membre, et savoir retrouver cette
formule, via la technique qui sera vue en cours.
Lorsque b(t) = 0 et que a(t) = α est constante, la solution est donc :
x(t) = x0 eα(t−t0 ) = x0 e−αt0 eαt .
L’ensemble des solutions est donc :
{t 7→ Ceαt ,
C ∈ R}.
Les solutions tendent toutes vers 0 lorsque t → +∞ (on dit que 0 est asymptotiquement stable) si et seulement si α < 0.
34
5.1.2
Équations d’ordre p à coefficients constants.
On se donne un entier p ≥ 2, des nombres a0 , . . . , ap (avec ap 6= 0) et une fonction
continue b. On s’intéresse à résoudre l’équation :
ap x(p) (t) + . . . + a0 x(t) = b(t).
À cette dernière, on associe l’équation sans second membre :
ap x(p) (t) + . . . + a0 x(t) = 0.
Résolution de l’équation sans second membre.
On introduit le polynôme caractéristique :
p
P (X) = ap X + . . . + a1 X + a0 =
p
X
aj X j ,
j=0
que l’on factorise sur C :
P (X) = ap
q
Y
(X − λj )nj ,
j=1
les λj étant les racines distinctes de P et nj la multiplicité de λj . La solution
dépend de p constantes ci,j et s’écrit sous la forme :
x(t) =
"nj −1
q
X
X
j=1
#
ci,j ti eλj t .
i=0
Si l’équation que l’on souhaite résoudre est celle avec b = 0, on calcule ici les
constantes, déterminées de manière unique par les valeurs de x(t0 ), . . . , x(p−1) (t0 ).
On notera que 0 est asymptotiquement stable si et seulement si, pour tout j,
Re(λj ) < 1.
Résolution de l’équation complète.
On part de la solution générale de l’équation sans second membre (celle en laissant
les ci,j sans tenir compte des premiers xk ). On lui ajoute une solution particulière
de l’équation, trouvée ”au feeling” en tenant compte de la forme de la fonction b,
et l’on obtient ainsi toutes les solutions. Pour trouver une solution particulière,
une méthode automatique (mais coûteuse en terme de calculs) est la méthode de
variations des constantes, que nous verrons en cours.
35
5.1.3
Systèmes linéaires à coefficients constants.
Ici on est intéressé par la recherche d’une fonction vectorielle X satisfaisant la
relation :
X 0 (t) = AX(t) + b(t),
les données étant A une matrice carrée d’ordre N et b une fonction vectorielle.
Une fois X(t0 ) fixé, il existe une unique suite solution. Il y a donc en tout une
infinités de solutions, paramétrées par un vecteur de dimension N (donc par N
réels ou complexes).
Résolution du système sans second membre.
On s’intéresse ici au cas où b = 0. La solution est :
X(t) = exp((t − t0 )A)X(t0 ) = exp(tA) exp(−t0 A)X(t0 )
et donc son calcul requiert le cas de exp(tA) (ou de exp((t − t0 )A)). La solution
générale est donc exp(tA)C, C étant un vecteur colonne arbitraire. On notera
que toutes les solutions tendent vers 0 (on dit que 0 est asymptotiquement stable)
si et seulement si pour toute valeur propre λ de A, on a Re(λ) < 0.
Résolution de l’équation complète.
La méthode de variation des constantes fournit :
Z t
X(t) = exp((t − t0 )A)X(t0 ) +
exp((t − s)A)b(s)ds.
t0
5.2
Systèmes non linéaires autonomes.
On est intéressé ici par un système de la forme :
X 0 = F (X).
Il n’y a pas de technique générale de résolution. Dans les bons cas, la solution
est définie jusqu’à +∞, mais pas toujours. On se placera désormais dans un bon
cas.
Un équilibre est une solution constante X(t) = X ∗ . On vérifie facilement que ceci
équivaut à F (X ∗ ) = 0. On dira qu’un équilibre est localement asymptotiquement
stable (abrégé ici LAS) si pour toute X partant ”suffisamment” près, X reste près
de X ∗ et satisfait limt→+∞ X(t) = X ∗ .
Le système linéarisé autour de l’équilibre X ∗ est le système linéaire :
Y 0 = JF (X ∗ )Y,
36
∂Fi
∗
où JF (X ∗ ) = ∂X
(X
)
est la matrice jacobienne de F . On démontre que si
j
JF (X ∗ ) n’a pas de valeur propre de partie réelle nulle, le système non linéaire se
comporte autour de X ∗ comme son linéarisé autour de 0. En particulier, si toutes
les valeurs propres de JF (X ∗ ) sont de parties réelles strictement négatives, alors
l’équilibre X ∗ est LAS.
5.3
Analogie discret continu.
Les systèmes continus présentent certaines difficultés, par exemple le domaine
de définition des solutions, ou des conditions assurant l’existence et l’unicité des
solutions. Pour des raisons de temps, nous n’en parlerons pas. Voici cependant
un petit lien entre discret et continu
discret continu
xt
x(t)
xt+1
x0 (t)
xt+2
x00 (t)
..
..
.
.
(p)
xt+p
x (t)
t
r
ert
t
A
exp(tA)
5.4
Exercices.
1. Exprimer la solution de l’équation en fonction de x0 = x(t0 ) (ou X(t0 )), et
discuter la stabilité asymptotique de 0 :
x0 (t) = 2x(t)
1
x0 (t) = − x(t)
3
x0 (t) = t2 x(t)
x0 (t) + tx(t) = 0
 1

−2 0
0
X 0 (t) =  0 − 13 0  X(t)
0
0 −2


0 −1 1
X 0 (t) = 0 0 −1 X(t)
0 0
0
3/4 −1/2
0
X (t) =
X(t)
1/4
0
37
5 −6
X (t) =
X(t)
3 −4
2 2
0
X (t) =
X(t)
−1 0
5 1
0
X (t) =
X(t)
−1 7
4 1
0
X (t) =
X(t)
−4 0


−3/2 −5/2 0
3/2 0 X(t)
X 0 (t) =  1
1/2
1
0
0
2. (a) Écrire l’ensemble des solutions pour chacune des équations :
x00 (t) − 2x0 (t) + 3x(t) = 0
x00 (t) + 9x(t) = 0
x00 (t) − 2x0 (t) + x(t) = 0
(b) Pour chacune des équations précédentes, écrire x(t) en fonction de x(0)
et x0 (0).
3. Résoudre l’équation :
x0 (t) − 2x(t) = y(t)
dans chacun des cas suivants :
(a) y(t) = ert , avec r réel distinct de 2 ;
(b) y(t) = e2t (on utilisera la MVC) ;
(c) y(t) = t + 2.
4. Résoudre l’équation, lorsque q est un réel distinct de 1 et 2 :
x00 (t) − 3x0 (t) + 2x(t) = y(t)
dans chacun des cas suivants :
(a) y(t) = ert , avec r réel distinct de 1 et de 2 ;
(b) y(t) = ert avec r = 1 ou r = 2 (on cherchera une solution particulière
sous la forme x(t) = ctert , c étant à choisir) ;
(c) y(t) = −2t.


x(t)
5. On considère l’équation : et on introduit Xt =  x0 (t) .
x00 (t)
38
(a) on suppose d’abord z(t) = 0. Montrer qu’il existe une matrice A à
déterminer de sorte que :
X 0 (t) = AX(t).
(b) on suppose que z(t) = et . Trouver un vecteur B(t) de sorte que :
X 0 (t) = AX(t) + B(t).
(c) Écrire l’équation :
x0000 (t) + x000 (t) − 5x0 (t) + x(t) = sin(t)
sous la forme :
X 0 (t) = AX(t) + B(t),
avec A et B à déterminer.
39
Chapitre 6
Optimisation statique.
En cours de rédaction.
6.1
Optimisation sans contrainte.
On parle d’optimisation sans contrainte lorsqu’on cherche à minimiser (ou maximiser) une fonction f : U → R sur un ensemble U qui est ouvert. Ouvert dans R
(ou Rn ) signifie intuitivement que l’ensemble ne contient pas son bord. C’est le
cas de R (ou Rn ), d’ensembles définies par des inégalités strictes avec des fonctions
continues, ou des intersections finies ou des réunions arbitraires de tels ensembles.
6.1.1
Le cas n = 1.
Supposant la fonction suffisamment dérivable, on a les propriétés suivantes :
Proposition 3
1. si x∗ est un minimum ou un maximum (local ou global),
alors f 0 (x∗ ) = 0;
2. si x∗ est un minimum (local ou global), alors f 00 (x∗ ) ≥ 0 ; si x∗ est un
maximum (local ou global), alors f 00 (x∗ ) ≤ 0 ;
3. si f 0 (x∗ ) = 0 et f 00 (x∗ ) > 0 (resp. f 00 (x∗ ) < 0), alors x∗ est un minimum
(resp. maximum) local ;
4. si f 0 (x∗ ) = 0 et f 00 (x) ≥ 0 (resp. f 00 (x) ≤ 0) pour tout x ∈ U , alors x∗ est
un minimum (resp. maximum) global.
Une fonction pour laquelle f 00 est partout positive (resp. négative) est convexe
(resp. concave). Ainsi pour les fonctions convexes ou concave, les points critiques
(i.e. les solutions de f 0 (x) = 0) sont automatiquement des extrema.
40
6.1.2
Le cas n quelconque.
Supposant la fonction suffisamment dérivable, on a les propriétés suivantes :
Proposition 4
1. si x∗ est un minimum ou un maximum (local ou global),
∗
alors Df (x ) = 0;
2. si x∗ est un minimum (local ou global), alors D2 f (x∗ ) est s.d.p. ; si x∗ est
un maximum (local ou global), alors D2 f (x∗ ) est s.d.n. ;
3. si f 0 (x∗ ) = 0 et D2 f (x∗ ) est d.p. (resp. d.n.), alors x∗ est un minimum
(resp. maximum) local ;
4. si f 0 (x∗ ) = 0 et D2 f (x) est d.p. (resp. d.n.) pour tout x ∈ U , alors x∗ est
un minimum (resp. maximum) global.
Une fonction pour laquelle D2 f est partout s.d.p. (resp. s.d.n.) est convexe
(resp. concave). Ainsi pour les fonctions convexes ou concave, les points critiques
(i.e. les solutions de Df (x) = 0) sont automatiquement des extrema.
6.1.3
Le cas particulier n = 2.
En cours de rédaction.
6.2
Optimisation avec contraintes d’égalités et
d’inégalités.
En cours de rédaction.
6.3
Optimisation dynamique.
En cours de rédaction.
41
Chapitre 7
Quelques sujets des années
précédentes.
À ces sujets sont adjoints un formulaire de trigonométrie. Le sujet donne une
idée du niveau attendu, cependant n’oubliez pas que je rédige le sujet en fonction
de ce qui a été fait en cours, ce qui peut varier un peu d’une année sur l’autre.
Ces sujets sont donc à prendre avec toutes les précautions d’usage.
7.1
Énoncé de mai 2015.
Exercice 1. Simplifier ¬((¬Q) ∨ P ).
Exercice 2.
1. On considère les nombres complexes z1 = 1 + i et z2 = 1 − i.
1.a. Y a t-il une relation simple entre z1 et z2 ?
1.b. Exprimer z1 et z2 sous forme polaire. En déduire z112 .
2. Donner l’expression des solutions de l’équation :
xt+2 − 2xt+1 + 2xt = t + 1.
Comment feriez vous pour exprimer xt en fonction de x0 et x1 ?
Exercice 3. On se donne une équation sans second membre d’ordre 6. L’équation
caractéristique a pour racines 5 d’ordre 3, 7 d’ordre 1 et 9 d’ordre 2. Quelle est
l’expression de la solution générale ?
Exercice 4. On considère la matrice A dépendant de deux paramètres réels α
et β :


1 α 0
A = 0 β 0  .
0 0 −1
1. Déterminer les valeurs propres de A.
2. On suppose que β est différent de −1 et de 1. Justifier sans calcul que A est
42
diagonalisable, puis calculer une matrice diagonale A et une matrice inversible P
telles que :
A = P DP −1 .
3. Étudier si A est diagonalisable lorsque β = 1, puis lorsque β = −1.
4. On s’intéresse désormais au système :
Xt+1 = AXt .
4.a. 0 est-il asymptotiquement stable ?
4.b. Donner une expression permettant de calculer la solution lorsque β est
différent de −1 et de 1 (il n’est pas demandé d’effectuer le calcul).
7.2
Corrigé de mai 2015.
Exercice 1. Nous avons :
¬((¬Q) ∨ P ) = ¬((¬Q)) ∧ (¬P ) = Q ∧ (¬P ).
Exercice 2.
1.
1.a. Nous avons z1 = z2 . √
√
1.b. Tout d’abord |z1 | = 12 + 12 = 2. Alors :
√
√
1
1
z1 = 2 √ + i √
= 2eiπ/4 ,
2
2
et
z2 = z1 =
√
2eiπ/4 =
√
2e−iπ/4 .
Enfin,
z112
=
√
2e
iπ/4
12
√
= ( 2)12 (eiπ/4 )12 = 26 e3iπ = 64eiπ = −64.
(on attend l’expression la plus simple possible).
2. On commence par résoudre la SGSSM :
xt+2 − 2xt+1 + 2xt = 0.
L’équation caractéristique est r2 − 2r + 2 = 0 dont les racines (calcul à faire) sont
z1 et z2 . La SGSSM est donc :
xt = C1 (1 + i)t + C2 (1 − i)t ,
les Ci étant des constantes. Certains d’entre vous ont utilisé la forme polaire,
c’est très bien aussi.
43
Vue la tête du second membre, on cherche la SP sous la forme xt = αt + β.
Après calculs (à faire), on trouve α = β = 1, et donc xt = t + 1 est une solution
particulière. Les solutions sont donc toutes de la forme :
xt = C1 (1 + i)t + C2 (1 − i)t + (t + 1),
C1 et C2 étant deux constantes. Pour calculer xt en fonction de x0 et x1 , il faudrait
déterminer les constantes Ci en fonction de x0 et x1 , ce qui se fait facilement
en résolvant le système obtenu en posant successivement t = 0 et t = 1 dans
l’expression de la solution :
x0 = C 1 + C 2 + 1
x1 = C1 (1 + i) + C2 (1 − i) + 2
Exercice 3. D’après le cours, l’expression de la solution générale est :
xt = (C1 + C2 t + C3 t2 )5t + C4 7t + (C5 + C6 t)9t ,
les Ci étant des constantes.
Exercice 4.
1. La matrice étant triangulaire supérieure, ses valeurs propres se lisent sur la
diagonale et sont donc 1, −1 et β.
2. Les valeurs propres étant dans ce cas distinctes, la matrice est diagonalisable.
Pour déterminer P , il faut trouver une base de vecteurs propres. On cherche donc
pour chaque valeur propre λ le noyau de A − λI3 dont l’équation est donnée par
le système :

 (1 − λ)x + αy = 0
(β − λ)y = 0

(−1 − λ)z = 0
Les vecteurs propres pour les valeurs propres 1 et −1 se lisent à vue directement
sur la matrice, mais pour ceux qui n’ont pas l’habitude, résolvons le système.
Pour λ = 1, le système devient :

 αy = 0
(β − 1)y = 0

−2z = 0
On a donc y = z = 0, et x est quelconque. Donc le vecteur
 
1
0
0
est une base de ce noyau. De même, pour λ = −1, on trouve comme base :
 
0
0 .
1
44
Il reste le cas de λ = β. Le système devient :

 (1 − β)x + αy = 0
0=0

(−1 − β)z = 0
soit z = 0 puis (1 − β)x + αy = 0, par exemple :


α
β − 1
0
est une base de ce noyau (on prendra garde de ne pas diviser par α, qui pourrait
être nul. Alors je propose :




1
α
0
1 0 0
P = 0 β − 1 0  ,
D = 0 β 0  .
0
0
1
0 0 −1
3. Lorsque β = 1, la valeur propre −1 est simple donc son sous-espace propre a
bien la multiplicité de la valeur propre, cependant la valeur propre 1 est double
donc il faut regarder si la dimension de son sous espace propre est bien 2. Le
système devient dans ce cas :

 αy = 0
0=0

−2z = 0
soit après simplification z = 0 et αy = 0. Il y a donc deux cas. Lorsque α 6= 0, on
a y = z = 0 donc le sous-espace propre est encore de dimension 1 et A n’est pas
diagonalisable. Lorsqu’en revanche α = 0, la deuxième équation ne donne aucune
information et on a seulement z = 0, le noyau de A − I3 est alors de dimension
2, de base :
    
0 
 1
0 ; 1 ,


0
0
de sorte que A est diagonalisable (elle est en fait déjà diagonale).
Lorsque β = −1, pour des raisons analogues il faut juste regarder la dimension
du sous-espace propre associé à la valeur propre −1. Son équation est :

 2x + αy = 0
0=0

0=0
Il est donc donné par une seule relation, 2x + αy = 0, ce qui montre qu’il est de
dimension 2. Par exemple une base est :
   
0 
 −α
 2  ; 0 ,


0
1
45
de sorte que A est bien diagonalisable.
4.
4.a. La CNS est que toute valeur propre λ de A satisfasse |λ| < 1. Or c’est déjà
faux pour λ = 1, donc 0 n’est pas asymptotiquement stable.
4.b. Nous avons Xt = At X0 . De plus, dans ce cas A est diagonalisable, donc
avec les notations de la question 2 :


1 0
0
0  P −1 X0 .
Xt = At X0 = P Dt P −1 X0 = P 0 β t
0 0 (−1)t
7.3
Énoncé de juin 2015.
Exercice 1. La définition de fonction continue en 0 est la suivante :
∀ε > 0, ∃η > 0, ∀x ∈] − η, η[, |f (x) − f (0)| < ε.
Écrire la négation de cette propriété.
Exercice 2. Résoudre xt+3 − xt+2 + 4xt+1 − 4xt = 0.
Exercice 3. Soit α un nombre réel strictement positif. On considère la matrice :
N=
0 α
.
α 0
1. On considère le système :
Xt+1 = N Xt .
1.a. Diagonaliser N .
1.b. Le système est-il asymptotiquement stable ?
1.c. Calculer complètement la matrice Ct telle que Xt = Ct X0 . On simplifiera
son expression lorsque t est impair.
2. On pose A = I2 + N et on considère le système :
Xt+1 = AXt .
2.a. Diagonaliser A.
2.b. Le système est-il asymptotiquement stable ?
3.Calculer N 2 . En déduire (sans utiliser la question 2) des réels a et b tels que :
A4 = aI2 + bN.
46
7.4
Énoncé de mai 2016.
Exercice 1. Soit P et Q deux assertions. Montrer que :
[(P ⇒ Q) ∧ ((¬P ) ⇒ ¬Q)] ≡ (P ⇔ Q).
Exercice 2. On s’intéresse à l’équation :
(1) xt+3 − 2xt+1 + 4xt = t + 2t .
1. Sans les calculer, indiquer le nombre de solutions possibles à l’équation
lorsque :
• on ne fixe aucune valeur ;
• on fixe x0 , x1 , x2 , x3 ;
• on fixe x0 , x1 , x2 ;
• on fixe x0 , x2 , x3 .
On justifiera rapidement chacune des réponses.
2.
2.a. Écrire les nombres 1 + i et 1 − i sous forme polaire.
2.b. Soit t fixé. Montrer à l’aide de la question précédente que :
A(1 + i)t + A(1 − i)t , A ∈ C = 2t/2 (a cos(tπ/4) + b sin(tπ/4)), (a, b) ∈ R2 .
3. Résoudre l’équation (1). On écrira à la fin la solution sans nombres complexes.
Exercice 3. Soit α un réel.
1. On s’intéresse à l’équation :

Xt+1

0 1 0
=  0 0 1  Xt .
α 0 0
Exprimer Xt en fonction de X0 et de t, pour t ≥ 3 :
• d’abord lorsque α = 0 ;
• ensuite lorsque α = 1.
2. Comment feriez vous pour résoudre

0 1
Xt+1 = 0 0
1 0
:

 
0
1
1 Xt + 1?
0
t
Il vous est demandé d’expliquer les grandes lignes de la méthode, et non d’effectuer
tous les calculs.
47
7.5
Contenu du mini formulaire de trigonométrie.
Voici le contenu (à la date de la rédaction du polycopié) du formulaire qui sera
joint au sujet.
Tour complet :
cos(θ + 2π) = cos(θ),
sin(θ + 2π) = sin(θ),
cos(θ − 2π) = cos(θ),
sin(θ − 2π) = sin(θ).
cos(θ + π) = − cos(θ),
sin(θ + π) = − sin(θ),
cos(θ − π) = − cos(θ),
sin(θ − π) = − sin(θ).
Demi-tour :
Opposé de l’angle :
sin(−θ) = − sin(θ).
cos(−θ) = cos(θ),
Opposé avec demi-tour :
cos(π − θ) = − cos(θ),
sin(π − θ) = sin(θ).
Autour du quart de tour :
cos(π/2 − θ) = sin(θ),
sin(π/2 − θ) = cos(θ),
cos(π/2 + θ) = − sin(θ),
sin(π/2 + θ) = cos(θ).
Valeurs à connaı̂tre :
θ
0 π/6 π/4
π/3
π/2
√
√
2
3
1
sin(θ) 0 √2
1
2
√2
3
2
1
0
cos(θ) 1 2
2
2
48
Téléchargement