Mathématiques Avancées, Licence 3ème année Sciences Économiques Denis Pennequin ([email protected]) Version du 28 mars 2017 Table des Matières 1 Logique. 1.1 Cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Assertions. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Opérateurs de base : et, ou, non. . . . . . . . . . . . . . . 1.1.3 Implication. . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Équivalence. . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Un exemple de raisonnement : démonstrations de la transitivité de l’implication. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Démonstration par table de vérité. . . . . . . . . . . . . . 1.2.2 Démonstration en se ramenant aux opérateurs de base. . . 1.3 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 5 6 7 7 7 7 8 2 Rappels et compléments sur la trigonométrie et les nombres complexes. 2.1 Trigonométrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Le cercle trigonométrique. . . . . . . . . . . . . . . . . . . 2.1.2 Fonctions sin et cos. . . . . . . . . . . . . . . . . . . . . . 2.2 Rappels sur les nombres complexes. . . . . . . . . . . . . . . . . . 2.2.1 Introduction. Forme algébrique. . . . . . . . . . . . . . . . 2.2.2 La question de la relation d’ordre sur C. . . . . . . . . . . 2.2.3 Forme trigonométrique, forme polaire. . . . . . . . . . . . 2.3 Nombres complexes et équations. . . . . . . . . . . . . . . . . . . 2.3.1 Équations du second degré à coefficients réels. . . . . . . . 2.3.2 Équations du second degré à coefficients complexes. . . . . 2.3.3 Équations Z n = z0 . . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Abaissement de l’ordre. . . . . . . . . . . . . . . . . . . . . 2.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 11 12 13 13 14 15 16 16 16 17 18 19 3 Révisions sur les matrices. 3.1 Calculs basiques. . . . . . . . . . . . . . . . . . . . . . 3.1.1 Calculs de sommes et de produits. . . . . . . . . 3.1.2 Calculs de déterminants d’ordre 2 et 3. . . . . . 3.1.3 Calculs de puissances dans les cas élémentaires. 3.1.4 Exponentielle de matrice. . . . . . . . . . . . . 20 20 20 20 20 21 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 . . . . . 23 23 24 24 24 4 Dynamique en temps discret. 4.1 Systèmes linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Récurrence d’ordre 1 en dimension 1 sans second membre. 4.1.2 Récurrence d’ordre p en dimension 1. . . . . . . . . . . . . 4.1.3 Systèmes linéaires autonomes. . . . . . . . . . . . . . . . . 4.2 Systèmes non linéaires. . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 27 28 29 29 30 5 Dynamique en temps continu. 5.1 Systèmes linéaires. . . . . . . . . . . . . . . . . . . 5.1.1 Équations du premier ordre. . . . . . . . . . 5.1.2 Équations d’ordre p à coefficients constants. 5.1.3 Systèmes linéaires à coefficients constants. . 5.2 Systèmes non linéaires autonomes. . . . . . . . . . . 5.3 Analogie discret continu. . . . . . . . . . . . . . . . 5.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 34 34 35 36 36 37 37 . . . . . . 40 40 40 41 41 41 41 . . . . . 42 42 43 46 47 48 3.3 Réduction des matrices. . . . . 3.2.1 Valeurs propres, vecteurs 3.2.2 Cas diagonalisable. . . . 3.2.3 Cas non diagonalisable. . Exercices . . . . . . . . . . . . . . . . . . propres. . . . . . . . . . . . . . . . 6 Optimisation statique. 6.1 Optimisation sans contrainte. . . . . . 6.1.1 Le cas n = 1. . . . . . . . . . . 6.1.2 Le cas n quelconque. . . . . . . 6.1.3 Le cas particulier n = 2. . . . . 6.2 Optimisation avec contraintes d’égalités 6.3 Optimisation dynamique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . et d’inégalités. . . . . . . . . . 7 Quelques sujets des années précédentes. 7.1 Énoncé de mai 2015. . . . . . . . . . . . . . . 7.2 Corrigé de mai 2015. . . . . . . . . . . . . . . 7.3 Énoncé de juin 2015. . . . . . . . . . . . . . . 7.4 Énoncé de mai 2016. . . . . . . . . . . . . . . 7.5 Contenu du mini formulaire de trigonométrie. 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avertissement : ce polycopié est à l’état parcellaire et sera au fur et à mesure complété et mis à jour. La finalité de cet enseignement est l’introduction des systèmes dynamiques. Leur étude nécessite des révisions et compléments sur les matrices, nombres complexes que nous ferons. Nous commencerons par une révision de la logique mathématique. Enfin, selon le temps qu’il restera, nous aborderons l’optimisation sans contraintes, avec contraintes, l’optimisation dynamique. 4 Chapitre 1 Logique. 1.1 Cours. En cours de rédaction. 1.1.1 Assertions. 1.1.2 Opérateurs de base : et, ou, non. Les trois opérateurs de bases sont le et (∧), le ou (∨) et le non (¬). Voici les tables de vérité les définissant : P V V F F Q P ∧Q P ∨Q V V V F F V V F V F F F et P ¬P V F F V Nous écrirons P ≡ Q si les deux propositions ont la même valeur de vérité. Les opérateurs et et ou sont commutatifs et associatifs. La commutativité du ou signifie que : P ∨Q≡Q∨P (et propriété analogue avec ∧) ce qui signifie que l’on peut effectuer l’opération dans l’ordre souhaité, l’associativité est la propriété suivante, qui dispense de parenthéser : P ∨ Q ≡ Q ∨ P, (P ∨ Q) ∨ R ≡ P ∨ (Q ∨ R) 5 (et même chose avec ∧). En revanche, (P ∧ Q) ∨ R nétant pas égal à1 P ∧ (Q ∨ R), l’expression sans parenthèse P ∧ Q ∨ R n’a pas de sens. La distribution d’un non échange les opérateurs : ¬(P ∨ Q) ≡ (¬P ) ∧ ¬Q, ¬(P ∧ Q) ≡ (¬P ) ∨ ¬Q. On prendra garde notamment au fait que (¬P ) ∨ Q n’est pas la même chose que ¬(P ∨Q), les parenthèses sont donc nécessaires (et même remarque en remplaçant ∨ par ∧). Noter enfin que ¬(¬P ) ≡ P . Pour terminer, noter la propriété de distributivité : P ∨ (Q ∧ R) ≡ (P ∨ Q) ∧ (P ∨ R) P ∧ (Q ∨ R) ≡ (P ∧ Q) ∨ (P ∧ R) (on a distribué le P ∨ ou le P ∧) desquelles on déduit : (P ∨ Q) ∧ (R ∨ S) ≡ (P ∧ R) ∨ (P ∧ S) ∨ (Q ∧ R) ∨ (Q ∧ S) (et une analogue en échangeant ∨ et ∧). 1.1.3 Implication. P ⇒ Q est défini comme (¬P ) ∨ Q. Ainsi l’implication n’est fausse que si P est vraie et si Q est fausse. En particulier, si P est fausse, l’implication est vraie. Voici la table de vérité : P Q P ⇒Q V V V V F F F V V F F V On notera les propriétés suivantes : (P ⇒ Q) ≡ ((¬Q) ⇒ (¬P )), ¬(P ⇒ Q) ≡ P ∧ ¬Q. [(P ⇒ Q) ∧ (Q ⇒ R)] ⇒ [P ⇒ R]. 1 si par exemple P et R sont vraies et Q est fausse, alors la première est vraie et la deuxième est fausse. 6 1.1.4 Équivalence. P ⇔ Q est défini comme (P ⇒ Q) ∧ (Q ⇒ R). L’équivalence n’est vraie que si P et Q sont simultanément vraies ou fausses, elle a un sens analogue à ≡. Voici la table de vérité : P Q P ⇔Q V V V V F F F V F F F V Noter enfin que léquivalence a la même signification que le symbole ≡. 1.2 Un exemple de raisonnement : démonstrations de la transitivité de l’implication. Rappelons tout d’abord l’énoncé : Proposition 1 Soit P, Q, R trois assertions. On a : [(P ⇒ Q) ∧ (Q ⇒ R)] ⇒ [P ⇒ R]. Notons T l’assertion de l’énoncé, dont on veut montrer qu’elle est toujours vraie. 1.2.1 Démonstration par table de vérité. Nous allons montrer ici que dans les 8 configurations possibles pour la véracité des assertions P, Q, R, l’assertion T est toujours vraie. P V V V V F F F F 1.2.2 Q V V F F V V F F R P ⇒ Q Q ⇒ R (P ⇒ Q) ∧ (Q ⇒ R) P ⇒ R V V V V V F V F F F V F V F V F F V F F V V V V V F V F F V V V V V V F V V V V T V V V V V V V V Démonstration en se ramenant aux opérateurs de base. Nous allons ramener les implications aux opérateurs de bases, sur lesquels nous avons des règles de calcul. Rappelons que U ⇒ W se traduit par (¬U ) ∨ W et 7 ¬(U ⇒ W ) par U ∧ ¬W . On obtient donc successivement : T ≡ ¬ [(P ⇒ Q) ∧ (Q ⇒ R)]∨(P ⇒ R) ≡ [¬(P ⇒ Q) ∨ ¬(Q ⇒ R)]∨(P ⇒ R) ≡ [(P ∧ ¬Q) ∨ (Q ∧ ¬R)] ∨ ((¬P ) ∨ R). Or, la distributivité permet de dire que : (P ∧ ¬Q) ∨ (Q ∧ ¬R) ≡ (P ∨ Q) ∧ (P ∨ ¬R) ∧ (¬Q ∨ Q) ∧ (¬Q ∨ ¬R). Par ailleurs, (¬Q) ∨ Q est une assertion toujours vraie, on peut donc le supprimer du ou. Ainsi, nous avons : (P ∧ ¬Q) ∨ (Q ∧ ¬R) ≡ (P ∨ Q) ∧ (P ∨ ¬R) ∧ ((¬Q) ∨ ¬R). Il vient donc, en posant provisoirement S = (¬P ) ∨ R : T = [(P ∨ Q) ∧ (P ∨ ¬R) ∧ (¬Q ∨ ¬R)] ∨ S ≡ (P ∨ Q ∨ S) ∧ (P ∨ (¬R) ∨ S) ∧ ((¬Q) ∨ (¬R) ∨ S). Or, P ∨ Q ∨ S ≡ P ∨ Q ∨ (¬P ) ∨ R est une assertion toujours vraie puisque P ∨ ¬P l’est. Il en est de même des deux autres, donc l’assertion est toujours vraie. 1.3 Exercices. 1. V étant une assertion vraie, F étant une assertion fausse, P étant une assertion quelconque, simplifier les expressions P ∨ V , P ∨ F , P ∧ V , P ∧ F . 2. Démontrer que : (1 = 2) ⇒ (2 = 3). 3. Soit x ∈ R. Démontrer que : (x > 10) ⇒ (x2 > 10), puis vérifier que tous les cas du tableau de vérité donnant une implication vraie peuvent se produire. 4. Montrer que P ⇒ (P ∨ Q) et que (P ∧ Q) ⇒ P . 5. Montrer que l’assertion ((P ∨ Q) ⇔ P ) est équivalente à (Q ⇒ P ). 6. Montrer : (a) R ⇒ (S ⇒ R). (b) R ⇒ [(¬R) ⇒ S]. (c) (R ⇒ S) ⇒ [(S ⇒ T ) ⇒ (R ⇒ T )]. 8 (d) (R ∨ S) ⇔ [(R ⇒ S) ⇒ S]. 7. Soit P, Q, R des assertions. Indiquer si les assertions suivantes sont toujours vraies, toujours fausses, ou si leur valeur dépend de celles de P, Q, R. (a) [P ∨ (Q ∧ R)] ∧ (Q ∨ R). (b) [Q ⇒ P ] ∧ ¬(P ⇔ Q) ∧ (Q ∧ ¬P ). (c) (¬P ⇒ Q) ∨ (Q ⇒ P ). 8. Écrire les négations des phrases suivantes (on ne demande pas évidemment de simplement faire précéder la phrase d’un ¬) : (a) La (=chaque) nuit, tous les chats sont gris. ∗ (b) ∀ε ∈ R+ ∗ , ∃N ∈ N , ∗ (c) ∀ε > 0, ∃N ∈ N , (d) ∀x ∈ R, 1/N ≤ ε. 1/N ≤ ε. (x ≥ 3) ⇒ (x2 ≥ 9). (e) ∀ε > 0, ∃` ∈ R∗+ , ∀a ∈ R, ∃τ ∈ [a, a + `], ∀t ∈ R, |f (t + τ ) − f (t)| ≤ ε. (f) Tout triangle rectangle possède un angle droit. (g) Pour tout entier x, il existe un entier y tel que pour tout entier z, la relation z < y implique la relation z < x + 1. 9. On considère A l’ensemble des étudiants et C l’ensemble des cinémas. Pour x ∈ A et y ∈ C, on note p(x, y) l’assertion : l’individu x est déjà allé au cinéma y. Interprêter chacune des assertions : /x ∈ A, .y ∈ C, p(x, y) et .y ∈ C, /x ∈ A, p(x, y) lorsqu’on remplace successivement les symboles / et . par les quantificateurs ∀ et ∃ (il y a donc quatre couples d’assertions). Indiquer pour chacun des couples d’assertions obtenus s’il y a équivalence entre les assertions ou celle qui implique l’autre. 10. Le théorème d’impossibilité d’Arrow se propose, à partir des préférences individuelles, d’établir un préordre total pour la société. Il énonce que tout préordre total satisfaisant la propriété d’unanimité2 et l’indépendance3 est nécessairement dictatorial4 . (a) Écrire la contraposé du théorème d’Arrow 2 si tout le monde préfère A à B, la collectivité aussi en gros, le choix entre A et B ne dépend pas de C 4 c’est-à-dire coı̈ncide avec le préordre d’un membre de la société 3 9 (b) Écrire la négation du théorème d’Arrow (c) Que peut-on dire d’un préordre total qui n’est pas dictatorial et qui satisfait l’axiome d’unanimité ? 10 Chapitre 2 Rappels et compléments sur la trigonométrie et les nombres complexes. Comme nous le verrons, la résolution d’équations polynômiales amène à trouver des racines complexes. Le but n’est pas que vous soyez des virtuoses de la trigonométrie et des complexes, mais que vous sachiez faire des manipulations de base. 2.1 2.1.1 Trigonométrie. Le cercle trigonométrique. On considère dans un repère orthonormé du plan le cercle C centré en 0 et de rayon 1. On note O l’origine du repère. Soit A le point de coordonnées (1, 0). ~ et OM ~ . On peut repérer tout point M du cercle par l’angle entre les vecteurs OA L’angle est orienté, et est compté positivement lorsqu’on part dans le sens direct (inverse à celui des aiguilles d’une montre) et négativement lorsqu’on part dans le sens indirect (celui des aiguilles d’une montre). Par exemple, si M est le point de coordonnées (0, 1), l’angle est de 90 degrés, si M est le point de coordonnées √ √ (−1, 0), l’angle est de 180 degrés, si M est le point de coordonnées (1/ 2, 1/ 2), l’angle est de 45 degrés, etc. On notera que dans ce qui précéde nous avons été imprécis : si on fait un tour complet (de 360 degrés) dans un sens ou dans un autre, c’est-à-dire si on ajoute ou on enlève 360 degrés à l’angle, on retombe sur le même point. Par exemple, le point de coordonnées (−1, 0) représenté par l’angle 180 degrés peut également être représenté √ √ par l’angle 180 − 360 = −180 degrés ; le point de coordonnées (−1/ 2, −1/ 2) peut être représenté par l’angle 315 degrés ou par 315 − 360 = −45 degrés. En fait, chaque point peut être représenté par une infinité d’angles, 11 et la différences entre deux représentations diffèrent d’un multiple de 360 degrés. Plutôt que de mesurer l’angle en degrés, on préfère mesurer l’angle en radians. L’angle en radians correspond à la longueur de l’arc parcouru. Par exemple, un tour complet (dans le sens direct, qui est le sens inverse des aiguilles d’une montre) correspond à 2π radians (rappel : le périmètre d’un cercle de rayon r est 2πr). Ainsi, 360deg = 2π rad. Un demi-tour (dans le sens direct) correspond à 180deg = π rad, un quart de tour à 90 deg = π/2 rad, etc. Là encore, il y a une infinité de représentations, et si un point M est représenté par un angle θ (exprimé en radians), alors tous les angles le représentant sont de la forme θ+2kπ, où k est un entier (positif, nul ou négatif). On dira que la mesure de l’angle est θ modulo 2π. Désormais nous ne travaillerons qu’avec des angles en radians. Il est utile de connaı̂tre ce tableau, reliant les angles en degrés, en radians, et les coordonnées (x, y) du point M représenté : θ en degrés θ en radians x y 0 30 45 60 90 0 π/6 π/4 π/3 π/2 √ √ 2 3 1 1 0 √2 2 √2 3 2 1 1 2 0 2 2 Ce tableau donne des valeurs remarquables pour des points compris dans le premier quart de plan. On retrouve facilement (éventuellement à √ l’aide d’un dessin) d’autres valeurs. Par exemple, pour le point de coordonnées (− 3/2, 1/2), on voit que l’on a fait un demi-tour puis on a enlevé π/6, donc l’angle correspondant est π − π/6 = 5π/6. 2.1.2 Fonctions sin et cos. Pour un angle θ (exprimé en radians), on appelle respectivement cos(θ) et sin(θ) l’absisse et l’ordonnée du point repésenté; Ainsi, le tableau précédent donne immédiatement quelques valeurs remarquables à connaı̂tre : θ 0 π/6 π/4 π/3 π/2 √ √ 2 3 1 sin(θ) 0 √2 1 2 √2 3 2 1 0 cos(θ) 1 2 2 2 On voit que faire un tour complet ne change rien au point M . Cela signifie que cos(θ + 2π) = cos(θ) et sin(θ + 2π) = sin(θ). On dit que ces fonctions sont périodiques de périodes 2π et cela implique que pour tout entier k, cos(θ +2kπ) = cos(θ) et sin(θ + 2kπ) = sin(θ). Comme l’indique le dessin, changer θ en −θ ne change rien à l’absisse de M mais change son ordonnée en l’opposé. On dit que cos est paire et que sin est impaire : sin(−θ) = − sin(θ). cos(−θ) = cos(θ), 12 Comme l’indique le dessin, ajouter un demi-tour change les valeurs des fonctions trigonométriques en leurs opposés : cos(θ + π) = − cos(θ), sin(θ + π) = − sin(θ). Vous pouvez retenir qu’une expression de la forme cos(kπ ± θ) (avec k entier) sera toujours égale à cos(θ) ou − cos(θ), et qu’on lève l’indétermination de signe grâce aux formules précéntes ou par un exemple. Même remarque pour le sinus. En revanche, une expression de la forme cos(kπ ± π/2 ± θ) sera toujours égale à sin(θ) ou − sin(θ), et qu’on lève l’indetermination de signe par un exemple ou, à l’aide des formules précédentes, en se ramenant à : cos(π/2 − θ) = sin(θ), sin(π/2 − θ) = cos(θ). Même remarque pour le sinus. Une dernière formule exprime que tout point du cercle est à une distance de 1 du centre O. Or, avec les formules vues en entre O et le point p collège, la distance 2 2 M de coordonnées (cos(θ), sin(θ)) est cos (θ) + sin (θ). Élevant au carré, on obtient : cos2 (θ) + sin2 (θ) = 1. 2.2 2.2.1 Rappels sur les nombres complexes. Introduction. Forme algébrique. Les complexes ont été introduits pour pouvoir résoudre des équations qui n’avaient pas de racines, comme par exemple X 2 + 1 = 0. Il ne faut pas être étonné de cette extension. Au début étaient les entiers positifs (on n’avait même pas de zéro d’ailleurs). Résoudre l’équation X + 3 = 1 n’était pas possible, ce qui fait que l’on a inventé les entiers négatifs. Ensuite, la résolution d’équations telle 2X = 3 a amené l’invention des nombres rationnels. La résolution d’équations telles X 2 = 2 a amené à inventer les nombres réels, quoiqu’ici le procédé soit plus délicat, car par exemple le réel π n’est solution d’aucune équation à coefficients entiers (ou rationnels). Bombelli a appliqué formellement les formules de Cardan pour résoudre une équation du troisième degré. On tombait sur des racines de nombres négatifs, mais effectuant le calcul formellement comme si on était dans R, Bombelli a démontré que sa racine faisant apparaı̂tre ces nombres inconnus lors du calcul était bien en fait un nombre réel, dont on savait d’ailleurs qu’il était une racine de l’équation. Je ne vais pas rentrer dans les détails de la construction des nombres complexes, nous allons aller directement à l’essentiel. On adjoint à R un nombre noté i 13 vérifiant i2 = −1 (en fait se pose un problème car −i satisfera aussi la même relation, mais passons). Un nombre complexe est un nombre s’écrivant (de manière unique) sous la forme z = a + ib, où a et b sont deux réels, appelés respectivement la partie réelle de z, Re(z), et la partie imaginaire de z, Im(z). Un nombre complexe est réel ssi Im(z) = 0. Lorsque Re(z) = 0, on dit que le nombre est imaginaire pur. L’ensemble des nombres complexes se note C et forme un corps commutatif, ce qui signifie que l’on peut effectuer des additions, multiplications, quotients et que ces opérations ont un peu les mêmes comportement que dans R. En pratique, vous effectuez les calculs comme dans R, sauf que vous remplacez i2 par −1. Prenons par exemple les complexes z = a + ib et z 0 = a0 + ib0 . On a : z + z 0 = (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ), zz 0 = (a + ib)(a0 + ib0 ) = aa0 + iab0 + iba0 + i2 bb0 = (aa0 − bb0 ) + i(ab0 + a0 b), et si z 6= 0 : 1 a − ib a − ib a b 1 = = = 2 = 2 −i 2 . 2 2 z a + ib (a + ib)(a − ib) a +b a +b a + b2 Dans le dernier calcul, pour √ faire disparaı̂tre le i du dénominateur, nous avons, comme nous aurions fait avec 2, multiplié par la quantité conjuguée de z = a+ib, qui se note z = a − ib. Le nombre zz = zz est un réel positif. On pose : p √ |z| = zz = Re(z)2 + Im(z)2 , notation qui a un sens puisque si z est réel, on retrouve bien la valeur absolue. |z| s’appelle le module de z. Nous avons le mini formulaire suivant : z1 + z2 = z1 + z2 , z1 z2 = z1 .z2 , |z1 z2 | = |z1 |.|z2 |, et formules qui se déduisent de celles-ci. 2.2.2 La question de la relation d’ordre sur C. Est-il possible de donner un sens à une relation z < z 0 entre deux complexes z et z 0 ? La réponse est oui : on peut par exemple décider de comparer les parties réelles, et si elles sont égales, comparer les parties imaginaires. Maintenant cette relation d’ordre pose un problème : elle ne respecte pas une propriété très agréable dans R, qui est la compatibilité avec la multiplication : si z1 < z2 et a > 0, on n’a plus nécessairement az1 < az2 . Le lecteur s’en convaincra en prenant z1 = 0 et a = z2 = i. Plus généralement, si l’on a une relation < sur C, elle ne respecte jamais la propriété ci-dessus. En effet, i 6= 0. Soit i > 0, auquel cas en multipliant la relation 14 par le nombre strictement positif i, j’obtiens i2 > 0 ce qui est manifestement faux, soit i < 0 et on multiplie par −i > 0 pour aboutir de nouveau à une contradiction. De ce fait, par défaut (c’est à dire qu’à moins que sur un problème on en pose une), il n’y a pas de relation d’ordre sur C, et je ne veux pas voir sur une copie des ingalités entre nombres complexes, ni des notations telles C+ . En revanche C∗ = C \ {0} a bien un sens. 2.2.3 Forme trigonométrique, forme polaire. C est a fortiori un espace vectoriel réel de dimension 2, dont une base est {1, i}. De ce point de vue, il est assimilable à un plan. Prenons le plan usuel muni d’un repère orthonormé. Un complexe z se représente par le point de coordonnées (Re(z), Im(z)). Un complexe devient donc aussi un point M de coordonnées −−→ (Re(z), Im(z)), que l’on assimile également au vecteur OM . On dit que z est l’affixe de M . Avec ces conventions, |z| est en fait la norme euclidienne du −−→ vecteur OM . Si z est non nul, l’angle effectué avec l’axe horizontal (qui est défini modulo 2π) s’appelle (un) argument de z. On le note Arg(z). Ainsi à l’aide de la trigonométrie, on vérifie que : Re(z) = |z| cos(Arg(z)), Im(z) = |z| sin(Arg(z)). Soit z un complexe, on note ρ son module et θ l’un de ses arguments. On a donc : z = ρ(cos(θ) + i sin(θ)). Cette écriture s’appelle la forme trigonométrique de z. La forme trigonométrique est très bien adaptée pour effectuer des produits. En effet, si z est un complexe de module ρ et d’argument θ, et si z 0 est un complexe de module ρ0 et d’argument θ0 , on vérifie que zz 0 a pour module ρρ0 et pour argument θ +θ0 . Ainsi, pour effectuer un produit, on multiplie les modules mais on ajoute les arguments. Passer à l’argument transforme un produit en somme, ce qui est un rôle de logarithme. Ce n’est en fait pas un hasard : avec la théorie des séries entières, on peut démontrer que : cos(θ) + i sin(θ) = eiθ . Ainsi, la forme trigonométrique de z s’écrit de manière plus concise ρeiθ , nommée forme polaire. On notera en particulier : iπ e 2 = i, eiπ = −1, e2iπ = 1. Soit maintenant a un complexe et r > 0. Nous avons : • Le disque ouvert de centre a et de rayon r est l’ensemble d’équation : D(a, r) = {z ∈ C, |z − a| < r}; • le disque fermé de centre a et de rayon r est l’ensemble d’équation : Df (a, r) = {z ∈ C, |z − a| ≤ r}. 15 2.3 Nombres complexes et équations. Il n’y a pas de formule générale pour résoudre une équation de degré n à partir de n = 5, et vous n’avez pas à connaı̂tre les formules pour n = 3 et n = 4. Vous devez cependant savoir résoudre les équations du second degré, les équations Z n = a et savoir abaisser le degré d’une équation dont vous connaissez une racine. 2.3.1 Équations du second degré à coefficients réels. Commençons par l’équation basique Z 2 = a, avec a réel. Les solutions sont : √ √ • les réels a et − a lorsque a est un réel strictement positif ; • le nombre 0, solution double, si a = 0 ; √ • les complexes non réels i√a et −i −a lorsque a est un réel strictement négatif. Venons en à léquation aZ 2 + bZ + c = 0, où les nombres a, b, c sont réels et a non nul. On calcule le discriminant ∆ = b2 − 4ac. Les solutions sont : • les réels √ −b− ∆ 2a • le nombre −b , 2a et √ −b+ ∆ 2a lorsque ∆ est un réel strictement positif ; solution double, si ∆ = 0 ; • les complexes non réels conjugués strictement négatif. 2.3.2 √ −b−i −∆ 2a et √ −b+i −∆ 2a lorsque ∆ est un réel Équations du second degré à coefficients complexes. Commençons avec Z 2 = z0 , z0 étant un complexe donné. Nous allons résoudre cette équation en cherchant Z sous forme algébrique. Les deux racines Z1 et Z0 satisfont vérifient Z1 = −Z0 . Posons z0 = a + ib et cherchons Z = α + iβ. On calcule Z 2 = (α2 − β 2 ) + 2iαβ, ce qui permet déjà d’obtenir deux équations : 2 α − β2 = a 2αβ = b Par ailleurs, nous avons : a2 + b2 = |z0 |2 = |Z 2 |2 = |Z|4 = (α2 + β 2 )2 . On obtient ainsi une nouvelle relation α2 + β 2 α2 − β 2 2αβ que l’on ajoute au système précédent : √ = a2 + b 2 = a = b 16 En ajoutant et soustrayant les deux premières lignes, on tire α2 et β 2 , et donc α et β au signe près. Cela donne théoriquement 4 possibilités pour les couples (α, β), et donc quatre pour Z = α + iβ, en revanche la dernière relation impose une condition sur les signes : si b > 0 alors α et β sont de même signe, et si b < 0, alors α et β sont de signe opposés. On s’intéresse désormais à résoudre aZ 2 + bZ + c = 0, a, b, c étant trois nombres complexes et a 6= 0. On calcule le complexe ∆ = b2 − 4ac. Lorsque ∆ = 0, l’équation n’a qu’une racine double −b/(2a). Si ∆ 6= 0, soit δ un nombre complexe vérifiant δ 2 = ∆ (nous venons de voir comment en trouver un). Alors les deux racines de l’équation sont : z1 = −b − δ , 2a z2 = −b + δ . 2a Si l’équation est à coefficients√réels, il en est de même de ∆. Alors lorsque ∆ > 0, on δ = √ pose (par exemple) δ = ∆ et lorsque ∆ <iθ 0, on pose (par exemple) √ iθ/2 i −∆. Lorsque ∆ est complexe, posant ∆ = ρe , on peut choisir δ = ρe . 2.3.3 Équations Z n = z0 . De manière générale, il est plus facile de résoudre cette équation en passant par la forme polaire. Écartons le cas particulier où z0 est nul, auquel cas la seule solution (d’ordre n) est 0. Si z0 6= 0, posons z0 = ρeiθ et cherchons les solutions sous la forme Z = reiφ . On doit alors avoir : rn einφ = ρeiθ . La comparaison des modules donne immédiatement r = ρ1/n . Après, on doit avoir que nφ − θ doit différer d’un multiple de 2π, ce qui donne : φ= θ + 2kπ , n k ∈ Z. Cela donne une infinité de valeurs de φ possibles, et donc a priori une infinité de racines θ+2kπ Zk = ρ1/n ei n . Cependant, on voit que : Zk+n = ρ1/n ei θ+2(k+n)π n = ρ1/n ei θ+2kπ n = Zk donc il suffit de faire parcourir à k un nombre de n valeurs consécutives distinctes. On prend en général k variant de 0 à n − 1 (et on peut vérifier que l’on obtient ainsi n valeurs distinctes). À titre d’exemple, résolvons les équations z n = 1. Notant ω = e2iπ/n , les racines sont 1, ω, ω 2 , . . . , ω n−1 . 17 2.3.4 Abaissement de l’ordre. De manière générale, une équation de degré n admet toujours n racines complexes (en comptant autant de fois que nécessaire les racines multiples) sur C. Par ailleurs, si l’équation est à coefficients réels, alors lorsque z en est une racine complexe non réelle, il en est de même de z̄. Ainsi, puisque 1 + i est racine de Z 3 − Z 2 + 2 = 0, il en est de même de 1 − i. Supposons que l’on cherche à résoudre une équation polynômiale P (Z) = 0 et que vous en connaissiez une racine z0 . Dans ce cas, lorsque P est de degré n, on peut écrire P sous la forme P (Z) = (Z − z0 )Q(Z), où Q est un polynôme de degré n − 1. Les racines de P sont celles de Q, à qui il faut adjoindre z0 . Illustrons cette remarque. Soit à résoudre Z 3 − Z 2 + 2Z − 2 = 0. On constate immédiatement que 1 est racine. On peut donc écrire : Z 3 − Z 2 + 2Z − 2 = (Z − 1)(aZ 2 + bZ + c), où a, b, c sont trois constantes ne dépendant pas de Z. On détermine facilement les termes a et c. En effet, le terme en Z 3 ne se fait que d’une façon à droite, d’où on lit que 1 = a. De même, le terme constant donne tout de suite −2 = −c. Ainsi a = 1 et c = 2, d’où l’expression : Z 3 − Z 2 + 2Z − 2 = (Z − 1)(Z 2 + bZ + 2). Il ne reste qu’un terme à calculer. On peut utiliser plusieurs techniques : rechercher le terme en Z (ce qui donnera 2 = −b + 2), le terme en Z 2 (ce qui donnera −1 = b − 1) ou prendre une valeur particulière de Z (autre que 0 ou la racine 1 qui ne donnerait rien) ; par exemple avec Z = 2, on trouve 6 = 6 + b. Dans tous les cas, on trouve b = 0 d’où la factorisation : Z 3 − Z 2 + 2Z − 2 = (Z − 1)(Z 2 + 2). 2 Or, √ on sait trouver les solutions de Z = −2. On a donc pour racines 1, − 2i. √ 2i et Comme deuxième illustration, revenons à l’exemple Z 3 − Z 2 + 2 = 0 dont on connaı̂t déjà deux racines, 1 + i et 1 − i. On peut donc factoriser l’expression sous la forme : Z 3 − Z 2 + 2 = (Z − (1 + i))(Z − (1 − i))(aZ + b). Ici on trouve a par calcul du terme en Z 3 , ce qui donne 1 = a et b par calcul du terme constant, ce qui donne 2 = (1 + i)(1 − i)b soit b = 1. Finalement : Z 3 − Z 2 + 2 = (Z − (1 + i))(Z − (1 − i))(Z + 1) et les racines sont 1 + i, 1 − i et −1. 18 2.4 Exercices. √ 1. Soit z1 = 1 + i 3 et z2 = 1 − i, z3 = 3 + 2i. Calculer z1 + 2z2 , z1 z2 , z23 , z1 /z2 , z3 , z34 . 2. On reprend les notations de l’exercice précédent. Écrire z1 et z2 sous forme polaire. Reprendre les calculs de z1 z2 , z23 , z1 /z2 à l’aide de la forme polaire. √ 3. Écrire sous forme algébrique les nombres complexes suivants : eiπ , 2eiπ/4 , 2e−iπ/3 . 4. Soit z ∈ C. Montrer que z + z ∈ R et z − z ∈ iR. Déterminer ces nombres en fonction du module et de l’argument de z. 5. (a) Simplifier : eiθ + e−iθ , 2 eiθ − e−iθ . 2i (b) Montrer que : eiθ + 1 = 2eiθ/2 cos(θ/2), eiθ − 1 = 2eiθ/2 i sin(θ/2). 6. Résoudre dans C les équations z 2 = 36, z 2 = −81, z 2 − 7 = 0, z 2 + 121 = 0. 7. Résoudre dans C les équations z 2 − 15z + 26 = 0, z 2 − 2z + 26 = 0, z 2 − 4z + 13 = 0. 8. Soit α un nombre réel. Résoudre (dans C) l’équation X 2 + 2αX + 1 = 0. 9. Résoudre dans C les équations z 2 = 3−4i, z 2 = −5+12i, z 2 −2z+9−6i = 0. 10. Résoudre dans C les équations z 3 − 6z 2 + 11z − 6 = 0, z 3 − 4z 2 + 6z − 4 = 0. 11. On reprend les notations du premier exercice. Résoudre z 3 = 1, z 5 = z1 . 12. Calculer de deux manières eiα eiβ . En déduire cos(α + β) et sin(α + β) en fonction de cos(α), cos(β), sin(α), sin(β). 19 Chapitre 3 Révisions sur les matrices. 3.1 3.1.1 Calculs basiques. Calculs de sommes et de produits. Rappelons que la dimension d’une matrice A est le couple (p, q) où p est son nombre de lignes et q son nombre de colonnes. On dit que la matrice est carrée si p = q (p s’appelle alors l’ordre de la matrice). Lorsqu’on écrit A = (aij )i,j , i désigne l’indice de ligne et j l’indice de colonne. Lorsque A = (aij )i,j et B = (bij )i,j , on ne peut calculer A + B que si A et B ont même dimension. Dans ce cas, A + B est la matrice de terme générique aij + bij . On notera que A + B = B + A. Lorsque A = (aij )i,j et B = (bij )i,j , on ne peut calculer AB que si le nombre de colonne de A égale le Pnombre de lignes de B. Dans ce cas, AB est la matrice de terme générique k aik bkj , c’est-à-dire que pour le terme en position (i, j) on multiplie la ligne i de A par la colonne j de B. On notera qu’en général AB 6= BA. D’une part, il se peut qu’un produit ne soit pas possible et même s’ils le sont tous deux, le résultat est en général différent. Lorsque A = (aij )i,j et k est un entier positif, on note Ak la matrice qui consiste à multiplier k −1 fois A par elle-même, avec la convention A0 = In . Ainsi A2 = AA, A3 = AAA, etc. Ce calcul n’est possible que si A est une matrice carrée. 3.1.2 Calculs de déterminants d’ordre 2 et 3. À rédiger. 3.1.3 Calculs de puissances dans les cas élémentaires. Nous allons avoir besoin pour la dynamique en temps discret de calculer de manière générique Ak , avec A matrice carrée et k entier positif. Le cas général 20 est assez lourd, nous allons ici présenter trois situations élémentaires, qui seront utiles pour la situation générale. Cas diagonal. Supposons en premier que la matrice A soit une matrice diagonale, avec les nombres d1 , . . . , dn sur la diagonale. On vérifie alors facilement (par récurrence sur k) que la matrice Ak est une matrice diagonale, avec les nombres dk1 , . . . , dkn sur la diagonale. En particulier, si A = λIn , alors Ak = λk In . Plus généralement, si A est diagonale par blocs ∆1 , . . . , ∆p , alors Ak est diagonale par blocs ∆k1 , . . . , ∆kp . Cas nilpotent. Supposons maintenant que la matrice A satisfasse une relation de la forme Ap = 0n (on dit que la matrice est nilpotente). Dans ce cas, on peut toujours choisir p ≤ n, et pour k ≥ n, Ak = 0n . Nous n’avons donc qu’à connaı̂tre que les premières puissances de A. Le prototype de matrice nilpotente est une matrice triangulaire qui ne contient que des zéros sur la diagonale. Un cas mixte. On suppose ici que A = λIn + N , avec N matrice nilpotente. On connaı̂t les puissances successives de λIn et de N . Ces deux matrices commutant, on peut utiliser la formule du binôme, qui dit que : k k A = (λIn + N ) = p−1 X k `=0 3.1.4 ` ` N (λIn ) n−` = p−1 X k `=0 ` λn−` N ` . Exponentielle de matrice. Exponentielle réelle et complexe. Il est possible de montrer que pour tout complexe z, on a : z e = lim N →+∞ La limite à droite s’écrit directement z N X zk k=0 zk k=0 k! , P+∞ e = +∞ k X z k=0 k! k! . de sorte que l’on écrira : . De cette expression, il est possible, récursivement sur p, de calculer les sommes P+∞ kp zk P+∞ k(k−1)...(k−(p−1))zk . Illustrons le du type Sp (z) = k=0 k=0 k! , en calculant k! 21 phénomène pour p = 2. On part ainsi de la somme T2 (z) = +∞ X k(k − 1)z k k! k=0 . D’une part, elle est égale à S2 (z) − S1 (z), puisque k(k − 1) = k 2 − k. D’autre part : +∞ X k(k − 1)z k k=0 k! = +∞ X k(k − 1)z k k! k=2 = +∞ X k=2 +∞ X z `+2 zk = = z 2 ez . (k − 2)! `! `=0 Donc S2 (z) = S1 (z) + z 2 ez . De même : S1 (z) = +∞ X kz k k=0 k! = +∞ X k=1 +∞ X z `+1 zk = = zez . (k − 1)! `! `=0 Ainsi S2 (z) = z(z + 1)ez . P P+∞ k(k−1)(k−2)zk k3 z k De même, pour calculer S3 (z) = +∞ . k=0 k! , on part de T3 (z) = k=0 k! Puisque k(k−1)(k−2) = k 3 −3k 2 +2k, la somme est égale à S3 (z)−3S2 (z)+2S1 (z), de sorte que S3 (z) = T3 (z) + 3S2 (z) − 2S1 (z) ; par ailleurs : T3 (z) = +∞ X k(k − 1)(k − 2)z k k=3 k! = +∞ X k=3 +∞ X z `+3 zk = = z 3 ez , (k − 3)! `! `=0 donc : S3 (z) = (z 3 + 3z 2 + z)ez . Exponentielle de matrice. Comme pour les complexes, on peut parler d’exponentielle d’une matrice carrée. Le terme de droite dans la formule suivante a un sens et définit l’exponentielle de A (que l’on note exp(A) et non eA pour une matrice) : exp(A) = +∞ X Ak k=0 k! . On fera attention au fait que la matrice exp(A) n’est pas celle dont le terme général est eaij (cf. exemples plus loin). Son calcul nécessite le calcul de Ak pour tout k puis la sommation de la série. On peut utiliser aussi un mini formulaire donné ici pour se ramener à d’autres situations. Proposition 2 Soit A et B deux matrices carrées de même taille. 1. exp(0n ) = In ; 22 2. si AB = BA alors exp(A + B) = exp(A) exp(B) = exp(B) exp(A) ; 3. exp(A) est inversible, et exp(A)−1 = exp(−A). Voici quelques situations où l’exponentielle est facile à calculer : • si A est diagonale, avec les nombres d1 , . . . , dn sur la diagonale, alors exp(A) est une matrice diagonale, avec les nombres ed1 , . . . , edn sur la diagonale. On notera en particulier que les 0 hors diagonale sont restés des 0 et ne sont pas devenus e0 = 1. P Ak • si A est nilpotente d’indice p, alors exp(A) = p−1 k=0 k! . • si A = λIn + N , avec N matrice nilpotente d’indice p, alors exp(A) = P Nk eλ p−1 k=0 k! . 3.2 Réduction des matrices. Le but de cette section est de trouver une matrice B semblable à A mais pour laquelle le calcul des puissances est plus simple. Dans ce cas, le calcul de Ak ou de exp(A) sera également simple, puisque rappelons que si A = P BP −1 , nous avons Ak = P B k P −1 et exp(A) = P exp(B)P −1 . Le cas idéal est celui où l’on peut se ramener à une matrice B diagonale. Nous dirons alors que A est diagonalisable. Mais ce n’est malheureusement pas toujours possible. Savoir si une matrice est diagonalisable, et dans tous les cas trouver un couple (B, P ) intéressant est le but de ce qui suit. 3.2.1 Valeurs propres, vecteurs propres. Rappelons qu’une valeur propre de A est un complexe λ tel qu’il existe X non nul satisfaisant AX = λX (ou encore (A − λIn )X = 0). On voit ainsi que λ est valeur propre si et seulement si det(A − λIn ) = 0. On introduit alors la fonction de λ : χA (λ) = det(A − λIn ). On peut démontrer que χA est un polynôme de degré n exactement, de terme dominant (−1)n . Il a alors dans C exactement n racines complexes. Q Notons la factorisation de χA sous la forme : χA (λ) = (−1)n pj=1 (λ − λj )αj , où les λ1 , . . . , λp sont les racines distinctes de χA , et les nombres αj sont des entiers strictement positifs de somme n. Cette factorisation n’est pas toujours possible en pratique, mais nous supposerons que nous y sommes parvenus. αj s’appelle la multiplicité de la racine λj . Une fois les λj calculés, on détermine les sous-espaces propres associés, Ej = Ker(A − λj In ). La dimension de Ej , notée dj , est un nombre compris entre 1 et 23 αj . La matrice A est diagonalisable si et seulement si dj = αj pour tout j. C’est en particulier le cas lorsque les αj sont tous égaux à 1 (i.e. lorsque les racines sont simples). On notera que cette seconde phase est automatique : calcul de noyaux, de leurs dimensions, et comparaison des dj et αj . 3.2.2 Cas diagonalisable. Lorsque A est diagonalisable, la matrice B sera diagonale et composée des λ` sur sa diagonale, chaque λ` étant répété α` fois. La matrice P contient en colonnes les bases des sous-espaces Ej , sachant que l’on met dans la colonne j un vecteur associé à la valeur propre apparaissant en position j de la diagonale de B. Ainsi, ce procédé permet de finir le calcul de P et B. Les sections précédentes nous ont appris à calculer B k et exp(B), on conclut donc par les formules Ak = P B k P −1 et exp(A) = P exp(B)P −1 . 3.2.3 Cas non diagonalisable. Cas des matrices d’ordre 2. Soit A une matrice carrée d’ordre 2. Si elle a deux valeurs propres distinctes, elle est diagonalisable. Supposons que λ soit une valeur propre double. Alors on sait que N = A − λI2 est nilpotente d’indice au plus 2. Si N = 0, A est diagonale. Sinon, A n’est pas diagonalisable, on a N 2 = 0 et A = λI2 + N , donc les calculs de Ak et de exp(tA) se font facilement. Cas général (hors programme). Pour chaque valeur propre pour laquelle dj < αj , on se place dans le sous espace caractéristique Sj = Ker((A − λj In ))αj ). Ce dernier est nécessairement de dimension αj . Lorsque αj = 2, la restriction a ce sous-espace a une matrice carrée d’ordre 2 non diagonalisable, on est ramené au cas précédent. Dans le cas général, on prend une base de Sj , commençant par une base de Ej pour simplifier les calculs. Dans cette base, on aura une matrice de la forme λj Iαj + N , avec N nilpotente d’indice au plus égal à αj , on est ramené à un cas précédent. La réduction idéale est celle de Jordan mais nous emmêne assez loin. 3.3 Exercices 1. On considère les matrices : 1 −5 −1 1 1 1 A = 1 −1 1 , B = , 1 −1 1 0 4 2 24 C= 1 2 , −3 5 1 2 D= . 4 8 (a) Rappeler le théorème du rang. Donner pour chacune de ces matrices la dimension de l’espace de départ et de l’espace d’arrivée. (b) Effectuer tous les produits possibles de deux matrices distinctes. (c) Calculer le carré de chacune des matrices pour lesquelles c’est possible. (d) Calculer les déterminants des matrices lorsque c’est possible. (e) Déterminer le noyau de chacune des matrices. 2. Calculer les déterminants des matrices 1 1 2 1 5 4 , , 1 −1 3 7 7 : 2 3 5 6 , 8 0 1 1 −1 1 2 3 . 3 2 1 3. (a) Pour la matrice du premier A exercice, calculer f (x) = det(A − xI3 ). (b) Trouver les valeurs (complexes) de x pour lesquelles f (x) = 0. (c) Pour chacune de ces valeurs, trouver une base du noyau de A − xI3 . (d) Lorsque x n’est pas l’une de ces valeurs, justifier que le noyau de A−xI3 est réduit à {0}. (e) Reprendre la question pour les matrices C et D (en remplaçant I3 par I2 ). 4. Soit d1 0 0 D = 0 d2 0 0 0 d3 une matrice diagonale, P une matrice carrée d’ordre 3 inversible. (a) Donner l’expression de Dk lorsque k est un entier positif. (b) On pose A = P DP −1 . Exprimer Ak en fonction de Dk . 5. Soit 0 a b N = 0 0 c . 0 0 0 (a) Calculer N 2 puis N 3 . En déduire N k pour tout entier positif k. (b) On rappelle que lorsque AB = BA, on a la formule du binôme : k X k k (A + B) = Ap B k−p . p p=0 Soit λ un nombre complexe. Calculer (λI3 + N )k pour tout entier positif k. 25 6. Soit λ un nombre complexe. Sans redémontrer les résultats donnés dans le cours, calculer +∞ 4 n X nλ . S4 = n! n=0 7. Indiquer, pour chacune des matrices A suivantes, les valeurs de Ak (k entier strictement positif) et de exp(tA) (t réel) : 1 0 0 1 A= , A= , 0 3 0 0 1 √0 0 0 1 1 0 1 0 A = 0 3 0 , A = 0 0 3 , A = 0 0 1 , 0 0 0 0 0 0 0 0 1 2 −1 A= . 0 2 8. On considère la matrice 3 −1 A= . 1 1 Calculer Ak (k entier strictement positif) et exp(tA) (t réel). 9. En les ramenant à une forme plus simple, déterminer pour chacune de ces matrices les valeurs de Ak (k entier strictement positif) et de exp(tA) (t réel) : 4 −1 1 3 −1 A= , A = −2 5 1 . −1 3 2 −1 3 10. On considère la matrice 1 2 1 A = 1 2 1 . −1 0 1 (a) Vérifier que la matrice a 0 pour valeur propre simple et 2 pour valeur propre double. (b) Montrer que chaque sous-espace propre est de dimension 1. On note e1 une base de E0 et e2 une base de E2 . (c) Trouver un vecteur e3 tel que (e2 , e3 ) soit une base de Ker((A − 2I2 )2 ). (d) Vérifier que (e1 , e2 , e3 ) est une base de R3 , et si P désigne la matrice de passage de la base canonique à cette base, déterminer ∆ = P −1 AP. (e) Calculer ∆k (k entier strictement positif) et exp(t∆) (t réel). (f) En déduire Ak (k entier strictement positif) et exp(tA) (t réel). 26 Chapitre 4 Dynamique en temps discret. 4.1 4.1.1 Systèmes linéaires. Récurrence d’ordre 1 en dimension 1 sans second membre. Ici on est intéressé par la recherche des suites réelles1 (xt )t satisfaisant la relation : xt+1 = at xt , la suite (at )t étant donnée. On notera que pour tout x0 , il existe une unique solution, qui est : ! t−1 Y xt = aj x 0 , j=0 et donc il existe en fait une infinité de solutions, toutes proportionnelles à la suite Qt−1 (At )t , avec At = j=0 aj . Dans le cas où at ne dépend pas de t, notons at = a (on parle d’équation autonome), les solutions sont alors les suites géométriques de raison a : x t = at x 0 . On notera qu’elles tendent toutes vers 0 (indépendamment de x0 ) si et seulement si |a| < 1. Lorsqu’on a une équation avec second membre, de la forme xt+1 = at xt + bt , la solution générale est la somme de la solution générale de l’équation sans second membre vue ci-dessus (en remplaçant x0 par une constante arbitraire) et d’une 1 Par moments, la résolution nécessite de passer par les nombres complexes, mais au final nous chercherons les suites à valeurs réelles. 27 solution particulière, trouvée au feeling ou en appliquant la Méthode de Variation des Constantes, dite MVC, présentée plus bas dans le cas plus général des systèmes. Si on fixe une valeur, disons de x0 , la constante est déterminée à la toute fin du processus. 4.1.2 Récurrence d’ordre p en dimension 1. On se donne un entier p ≥ 2, des nombres a0 , . . . , ap (avec ap 6= 0) et une suite (bt )t . On s’intéresse à résoudre l’équation : ap xt+p + . . . + a0 xt = bt . À cette dernière, on associe l’équation sans second membre : ap xt+p + . . . + a0 xt = 0. Résolution de l’équation sans second membre. On introduit le polynôme caractéristique : P (X) = ap X p + . . . + a0 , que l’on factorise sur C : P (X) = ap q Y (X − λj )nj , j=1 les λj étant les racines distinctes de P et nj la multiplicité de λj . La solution dépend de p constantes ci,j et s’écrit sous la forme : xt = "nj −1 q X X j=1 # ck,j tk λtj . k=0 Si l’équation que l’on souhaite résoudre est celle avec bn = 0, on calcule ici les constantes, déterminées de manière unique par les valeurs de x0 , . . . , xp−1 . On notera que toutes les solutions tendent vers 0 (on dit que 0 est asymptotiquement stable) si et seulement si, pour tout j, |λj | < 1. Résolution de l’équation complète. On part de la solution générale de l’équation sans second membre (celle en laissant les ci,j sans tenir compte des premiers xk ). On lui ajoute une solution particulière de l’équation, trouvée ”au feeling” en tenant compte de la forme de (bt )t , et l’on obtient ainsi toutes les solutions. 28 4.1.3 Systèmes linéaires autonomes. Ici on est intéressé par la recherche des suites de vecteurs (Xt )t satisfaisant la relation : Xt+1 = AXt + Bt , les données étant A une matrice carrée d’ordre N et (Bt )t une suite de vecteurs colonnes. Une fois X0 fixé, il existe une unique suite solution. Il y a donc en tout une infinités de solution, paramétrées par un vecteur de dimension N (donc par N réels ou complexes). Résolution du système sans second membre. On s’intéresse ici au cas où Bt = 0 pour tout t. La solution est : Xt = At X0 et donc son calcul requiert le cas de At . La solution générale est donc At C, C étant un vecteur colonne arbitraire. On notera que toutes les solutions tendent vers 0 (on dit que 0 est asymptotiquement stable) si et seulement si pour toute valeur propre λ de A, on a |λ| < 1. Résolution de l’équation complète. On part de la solution générale de l’équation sans second membre (celle de la forme At C, avec C arbitraire). On lui ajoute une solution particulière de l’équation, trouvée ”au feeling” en tenant compte de la forme de (Bt )t , et l’on obtient ainsi toutes les solutions. Au lieu de chercher la solution particulière au feeling, on peut, lorsque A est inversible, procéder à une MVC. Pour ce faire, on pose (Xt )SP = At Ct . Le système en la suite (Ct )t devient Ct+1 = Ct + A−(t+1) Bt , qui se résout par addition. On peut fixer arbitrairement C0 , n’importe quellePvaleur fournira une SP. Prenons −(j+1) Bj , et donc, puisque par exemple C0 = 0. On trouve alors Ct = t−1 j=0 A t (Xt )SP = A Ct , il vient : (Xt )SP = t−1 X At−(j+1) Bj . j=0 La solution complète de l’équation est alors : (Xt )SP = At C + t−1 X At−(j+1) Bj , j=0 29 C ∈ Rn . 4.2 Systèmes non linéaires. En cours de rédaction. 4.3 Exercices. 1. Exprimer la solution de l’équation en fonction du premier terme (x0 ou X0 ), et discuter la stabilité asymptotique de 0 : xt+1 = 2xt 1 xt+1 = − xt 3 xt+1 = −xt 1 0 0 Xt+1 = 0 2 0 Xt 0 0 3 0 1 1 Xt+1 = 0 0 1 Xt 0 0 0 3/4 −1/2 Xt+1 = Xt 1/4 0 5 −6 Xt+1 = Xt 3 −4 2 2 Xt+1 = Xt −1 0 5 1 Xt+1 = Xt −1 7 4 1 Xt+1 = Xt −4 0 −3/2 −5/2 0 3/2 0 Xt Xt+1 = 1 1/2 1 0 2. (a) Écrire l’ensemble des solutions pour chacune des équations : xt+2 − 2xt+1 + 3xt = 0 xt+2 + 4xt = 0 xt+2 − 2xt+1 + xt = 0. 30 (b) Pour chacune des équations précédentes, écrire xt en fonction de x0 et x1 . 3. Résoudre l’équation : xt+1 − 2xt = yt dans chacun des cas suivants : (a) yt = q t , avec q réel distinct de 2 et de 0 ; (b) yt = t + 2 ; (c) avec yt arbitraire, en appliquant la MVC. On appliquera ensuite la formule au cas particulier yt = 2t puis on retrouvera les formules précédentes. Pour le dernier cas, on pourra admettre la formule : ∀n ∈ N, ∀r ∈ R \ {1}, n X jrj = r j=0 nrn+1 − (n + 1)rn + 1 . (r − 1)2 4. Résoudre l’équation : xt+2 − 3xt+1 + 2xt = yt dans chacun des cas suivants : (a) yt = q t , avec q réel distinct de 0, 1 et 2 ; (b) yt = q t avec q = 1 ou q = 2 (on cherchera une solution particulière sous la forme xt = ctq t , c étant à choisir) ; (c) yt = −2t. 5. Écrire la solution générale de l’équation sans second membre dont les équations caractéristiques sont : (r − 2)(r − 3)(r − 7) = 0, (r − 2)2 (r − 3)(r − 7)4 = 0, (r − 2)(r − (3 + i))(r − (3 − i)) = 0, (r − 3)(r − (1 + i))3 (r − (1 − i))3 = 0. 6. Écrire la solution générale des équations : xt+3 − 7xt+1 + 6xt = 0, xt+3 − 3xt+2 + 3xt+1 − xt = 0, xt+3 + xt+2 − 5xt+1 + 3xt = 0. xt+4 + xt = 2t . 31 7. Soit α et µ deux paramètres réels. (a) Résoudre l’équation xt+2 + 2αxt+1 + xt = 0 (discuter suivant α). Montrer que 0 n’est jamais asymptotiquement stable. (b) On suppose |α| < 1 et µ 6= 0. Résoudre l’équation : xt+2 + 2αxt+1 + xt = µt . 8. τ étant un nombre strictement positif, et la suite (Mt )t étant donnée, on s’intéressse aux solutions de : Ct+1 = (1 + τ )Ct − Mt . (a) Calculer Ct en fonction de t, τ , C0 et des termes de la suite (Mt )t (on utilisera la MVC). (b) Soit N ≥ 2. On souhaite que CN = 0. i. Donner la relation reliant les (Mt )t à C0 . ii. Calculer M dans le cas où Mt = M pour tout t ; puis dans le cas Mt = (1 + ρ)t M (avec ρ 6= τ ). (c) Dans les deux derniers cas particuliers, reprendre la résolution de l’équation de départ en utilisant SGSSM+SP. 9. (Samuelson’s business Cycle, 1939) La consommation Ct à la date t est une fonction linéaire croissante du revenu précédent Yt−1 et l’investissement à la date t est positivement proportionnel à la variation des consommations Ct − Ct−1 . L’économie est donc modélisée par : Ct = cYt−1 It = v(Ct − Ct−1 ) Yt = Ct + It + Gt où c ∈]0, 1[ et v > 0, les taxes Gt étant exogènes. (a) Montrer que la suite des revenus satisfait une relation de récurrence d’ordre 2 à préciser, et que la connaissance de celle-ci permet la connaissance de tous les endogènes. (b) On suppose désormais que le niveau des taxes est constant : Gt = G pour tout t. Déterminer l’équilibre Ȳ de l’économie, résoudre l’équation. 10. On considère l’équation : xt+3 − 2xt+2 + xt+1 − xt = zt xt et on introduit Xt = xt+1 . xt+2 32 (a) on suppose d’abord zt = 0. Montrer qu’il existe une matrice A à déterminer de sorte que : Xt+1 = AXt . (b) on suppose que zt = 2t . Trouver un vecteur Bt de sorte que : Xt+1 = AXt + Bt . (c) Écrire l’équation : xt+5 − 2xt+4 + xt+3 − 5xt+1 + xt = sin(t) sous la forme : Xt+1 = AXt + Bt , avec A et Bt à déterminer. 33 Chapitre 5 Dynamique en temps continu. Ici, on est intéressé par une relation du type : x0 (t) = F (t, x(t)) écrite parfois abusivement x0 = F (t, x). 5.1 5.1.1 Systèmes linéaires. Équations du premier ordre. La relation est ici sous la forme : x0 (t) = a(t)x(t) + b(t), parfois écrite x0 = a(t)x + b(t), les données étant les fonctions continues a et b. Il existe une seule solution prenant la valeur x0 en t0 , qui est : Z t Rt Rt a(s)ds x(t) = x0 e t0 + b(s)e s a(u)du ds. t0 On notera que cette expression est la solution de toutes les solutions (lorsque x0 varie) de l’équation pour laquelle b = 0 (dite équation sans second membre) et d’une solution de notre équation (correspondant à x0 = 0). Il faut connaı̂tre par coeur la solution de l’équation sans second membre, et savoir retrouver cette formule, via la technique qui sera vue en cours. Lorsque b(t) = 0 et que a(t) = α est constante, la solution est donc : x(t) = x0 eα(t−t0 ) = x0 e−αt0 eαt . L’ensemble des solutions est donc : {t 7→ Ceαt , C ∈ R}. Les solutions tendent toutes vers 0 lorsque t → +∞ (on dit que 0 est asymptotiquement stable) si et seulement si α < 0. 34 5.1.2 Équations d’ordre p à coefficients constants. On se donne un entier p ≥ 2, des nombres a0 , . . . , ap (avec ap 6= 0) et une fonction continue b. On s’intéresse à résoudre l’équation : ap x(p) (t) + . . . + a0 x(t) = b(t). À cette dernière, on associe l’équation sans second membre : ap x(p) (t) + . . . + a0 x(t) = 0. Résolution de l’équation sans second membre. On introduit le polynôme caractéristique : p P (X) = ap X + . . . + a1 X + a0 = p X aj X j , j=0 que l’on factorise sur C : P (X) = ap q Y (X − λj )nj , j=1 les λj étant les racines distinctes de P et nj la multiplicité de λj . La solution dépend de p constantes ci,j et s’écrit sous la forme : x(t) = "nj −1 q X X j=1 # ci,j ti eλj t . i=0 Si l’équation que l’on souhaite résoudre est celle avec b = 0, on calcule ici les constantes, déterminées de manière unique par les valeurs de x(t0 ), . . . , x(p−1) (t0 ). On notera que 0 est asymptotiquement stable si et seulement si, pour tout j, Re(λj ) < 1. Résolution de l’équation complète. On part de la solution générale de l’équation sans second membre (celle en laissant les ci,j sans tenir compte des premiers xk ). On lui ajoute une solution particulière de l’équation, trouvée ”au feeling” en tenant compte de la forme de la fonction b, et l’on obtient ainsi toutes les solutions. Pour trouver une solution particulière, une méthode automatique (mais coûteuse en terme de calculs) est la méthode de variations des constantes, que nous verrons en cours. 35 5.1.3 Systèmes linéaires à coefficients constants. Ici on est intéressé par la recherche d’une fonction vectorielle X satisfaisant la relation : X 0 (t) = AX(t) + b(t), les données étant A une matrice carrée d’ordre N et b une fonction vectorielle. Une fois X(t0 ) fixé, il existe une unique suite solution. Il y a donc en tout une infinités de solutions, paramétrées par un vecteur de dimension N (donc par N réels ou complexes). Résolution du système sans second membre. On s’intéresse ici au cas où b = 0. La solution est : X(t) = exp((t − t0 )A)X(t0 ) = exp(tA) exp(−t0 A)X(t0 ) et donc son calcul requiert le cas de exp(tA) (ou de exp((t − t0 )A)). La solution générale est donc exp(tA)C, C étant un vecteur colonne arbitraire. On notera que toutes les solutions tendent vers 0 (on dit que 0 est asymptotiquement stable) si et seulement si pour toute valeur propre λ de A, on a Re(λ) < 0. Résolution de l’équation complète. La méthode de variation des constantes fournit : Z t X(t) = exp((t − t0 )A)X(t0 ) + exp((t − s)A)b(s)ds. t0 5.2 Systèmes non linéaires autonomes. On est intéressé ici par un système de la forme : X 0 = F (X). Il n’y a pas de technique générale de résolution. Dans les bons cas, la solution est définie jusqu’à +∞, mais pas toujours. On se placera désormais dans un bon cas. Un équilibre est une solution constante X(t) = X ∗ . On vérifie facilement que ceci équivaut à F (X ∗ ) = 0. On dira qu’un équilibre est localement asymptotiquement stable (abrégé ici LAS) si pour toute X partant ”suffisamment” près, X reste près de X ∗ et satisfait limt→+∞ X(t) = X ∗ . Le système linéarisé autour de l’équilibre X ∗ est le système linéaire : Y 0 = JF (X ∗ )Y, 36 ∂Fi ∗ où JF (X ∗ ) = ∂X (X ) est la matrice jacobienne de F . On démontre que si j JF (X ∗ ) n’a pas de valeur propre de partie réelle nulle, le système non linéaire se comporte autour de X ∗ comme son linéarisé autour de 0. En particulier, si toutes les valeurs propres de JF (X ∗ ) sont de parties réelles strictement négatives, alors l’équilibre X ∗ est LAS. 5.3 Analogie discret continu. Les systèmes continus présentent certaines difficultés, par exemple le domaine de définition des solutions, ou des conditions assurant l’existence et l’unicité des solutions. Pour des raisons de temps, nous n’en parlerons pas. Voici cependant un petit lien entre discret et continu discret continu xt x(t) xt+1 x0 (t) xt+2 x00 (t) .. .. . . (p) xt+p x (t) t r ert t A exp(tA) 5.4 Exercices. 1. Exprimer la solution de l’équation en fonction de x0 = x(t0 ) (ou X(t0 )), et discuter la stabilité asymptotique de 0 : x0 (t) = 2x(t) 1 x0 (t) = − x(t) 3 x0 (t) = t2 x(t) x0 (t) + tx(t) = 0 1 −2 0 0 X 0 (t) = 0 − 13 0 X(t) 0 0 −2 0 −1 1 X 0 (t) = 0 0 −1 X(t) 0 0 0 3/4 −1/2 0 X (t) = X(t) 1/4 0 37 5 −6 X (t) = X(t) 3 −4 2 2 0 X (t) = X(t) −1 0 5 1 0 X (t) = X(t) −1 7 4 1 0 X (t) = X(t) −4 0 −3/2 −5/2 0 3/2 0 X(t) X 0 (t) = 1 1/2 1 0 0 2. (a) Écrire l’ensemble des solutions pour chacune des équations : x00 (t) − 2x0 (t) + 3x(t) = 0 x00 (t) + 9x(t) = 0 x00 (t) − 2x0 (t) + x(t) = 0 (b) Pour chacune des équations précédentes, écrire x(t) en fonction de x(0) et x0 (0). 3. Résoudre l’équation : x0 (t) − 2x(t) = y(t) dans chacun des cas suivants : (a) y(t) = ert , avec r réel distinct de 2 ; (b) y(t) = e2t (on utilisera la MVC) ; (c) y(t) = t + 2. 4. Résoudre l’équation, lorsque q est un réel distinct de 1 et 2 : x00 (t) − 3x0 (t) + 2x(t) = y(t) dans chacun des cas suivants : (a) y(t) = ert , avec r réel distinct de 1 et de 2 ; (b) y(t) = ert avec r = 1 ou r = 2 (on cherchera une solution particulière sous la forme x(t) = ctert , c étant à choisir) ; (c) y(t) = −2t. x(t) 5. On considère l’équation : et on introduit Xt = x0 (t) . x00 (t) 38 (a) on suppose d’abord z(t) = 0. Montrer qu’il existe une matrice A à déterminer de sorte que : X 0 (t) = AX(t). (b) on suppose que z(t) = et . Trouver un vecteur B(t) de sorte que : X 0 (t) = AX(t) + B(t). (c) Écrire l’équation : x0000 (t) + x000 (t) − 5x0 (t) + x(t) = sin(t) sous la forme : X 0 (t) = AX(t) + B(t), avec A et B à déterminer. 39 Chapitre 6 Optimisation statique. En cours de rédaction. 6.1 Optimisation sans contrainte. On parle d’optimisation sans contrainte lorsqu’on cherche à minimiser (ou maximiser) une fonction f : U → R sur un ensemble U qui est ouvert. Ouvert dans R (ou Rn ) signifie intuitivement que l’ensemble ne contient pas son bord. C’est le cas de R (ou Rn ), d’ensembles définies par des inégalités strictes avec des fonctions continues, ou des intersections finies ou des réunions arbitraires de tels ensembles. 6.1.1 Le cas n = 1. Supposant la fonction suffisamment dérivable, on a les propriétés suivantes : Proposition 3 1. si x∗ est un minimum ou un maximum (local ou global), alors f 0 (x∗ ) = 0; 2. si x∗ est un minimum (local ou global), alors f 00 (x∗ ) ≥ 0 ; si x∗ est un maximum (local ou global), alors f 00 (x∗ ) ≤ 0 ; 3. si f 0 (x∗ ) = 0 et f 00 (x∗ ) > 0 (resp. f 00 (x∗ ) < 0), alors x∗ est un minimum (resp. maximum) local ; 4. si f 0 (x∗ ) = 0 et f 00 (x) ≥ 0 (resp. f 00 (x) ≤ 0) pour tout x ∈ U , alors x∗ est un minimum (resp. maximum) global. Une fonction pour laquelle f 00 est partout positive (resp. négative) est convexe (resp. concave). Ainsi pour les fonctions convexes ou concave, les points critiques (i.e. les solutions de f 0 (x) = 0) sont automatiquement des extrema. 40 6.1.2 Le cas n quelconque. Supposant la fonction suffisamment dérivable, on a les propriétés suivantes : Proposition 4 1. si x∗ est un minimum ou un maximum (local ou global), ∗ alors Df (x ) = 0; 2. si x∗ est un minimum (local ou global), alors D2 f (x∗ ) est s.d.p. ; si x∗ est un maximum (local ou global), alors D2 f (x∗ ) est s.d.n. ; 3. si f 0 (x∗ ) = 0 et D2 f (x∗ ) est d.p. (resp. d.n.), alors x∗ est un minimum (resp. maximum) local ; 4. si f 0 (x∗ ) = 0 et D2 f (x) est d.p. (resp. d.n.) pour tout x ∈ U , alors x∗ est un minimum (resp. maximum) global. Une fonction pour laquelle D2 f est partout s.d.p. (resp. s.d.n.) est convexe (resp. concave). Ainsi pour les fonctions convexes ou concave, les points critiques (i.e. les solutions de Df (x) = 0) sont automatiquement des extrema. 6.1.3 Le cas particulier n = 2. En cours de rédaction. 6.2 Optimisation avec contraintes d’égalités et d’inégalités. En cours de rédaction. 6.3 Optimisation dynamique. En cours de rédaction. 41 Chapitre 7 Quelques sujets des années précédentes. À ces sujets sont adjoints un formulaire de trigonométrie. Le sujet donne une idée du niveau attendu, cependant n’oubliez pas que je rédige le sujet en fonction de ce qui a été fait en cours, ce qui peut varier un peu d’une année sur l’autre. Ces sujets sont donc à prendre avec toutes les précautions d’usage. 7.1 Énoncé de mai 2015. Exercice 1. Simplifier ¬((¬Q) ∨ P ). Exercice 2. 1. On considère les nombres complexes z1 = 1 + i et z2 = 1 − i. 1.a. Y a t-il une relation simple entre z1 et z2 ? 1.b. Exprimer z1 et z2 sous forme polaire. En déduire z112 . 2. Donner l’expression des solutions de l’équation : xt+2 − 2xt+1 + 2xt = t + 1. Comment feriez vous pour exprimer xt en fonction de x0 et x1 ? Exercice 3. On se donne une équation sans second membre d’ordre 6. L’équation caractéristique a pour racines 5 d’ordre 3, 7 d’ordre 1 et 9 d’ordre 2. Quelle est l’expression de la solution générale ? Exercice 4. On considère la matrice A dépendant de deux paramètres réels α et β : 1 α 0 A = 0 β 0 . 0 0 −1 1. Déterminer les valeurs propres de A. 2. On suppose que β est différent de −1 et de 1. Justifier sans calcul que A est 42 diagonalisable, puis calculer une matrice diagonale A et une matrice inversible P telles que : A = P DP −1 . 3. Étudier si A est diagonalisable lorsque β = 1, puis lorsque β = −1. 4. On s’intéresse désormais au système : Xt+1 = AXt . 4.a. 0 est-il asymptotiquement stable ? 4.b. Donner une expression permettant de calculer la solution lorsque β est différent de −1 et de 1 (il n’est pas demandé d’effectuer le calcul). 7.2 Corrigé de mai 2015. Exercice 1. Nous avons : ¬((¬Q) ∨ P ) = ¬((¬Q)) ∧ (¬P ) = Q ∧ (¬P ). Exercice 2. 1. 1.a. Nous avons z1 = z2 . √ √ 1.b. Tout d’abord |z1 | = 12 + 12 = 2. Alors : √ √ 1 1 z1 = 2 √ + i √ = 2eiπ/4 , 2 2 et z2 = z1 = √ 2eiπ/4 = √ 2e−iπ/4 . Enfin, z112 = √ 2e iπ/4 12 √ = ( 2)12 (eiπ/4 )12 = 26 e3iπ = 64eiπ = −64. (on attend l’expression la plus simple possible). 2. On commence par résoudre la SGSSM : xt+2 − 2xt+1 + 2xt = 0. L’équation caractéristique est r2 − 2r + 2 = 0 dont les racines (calcul à faire) sont z1 et z2 . La SGSSM est donc : xt = C1 (1 + i)t + C2 (1 − i)t , les Ci étant des constantes. Certains d’entre vous ont utilisé la forme polaire, c’est très bien aussi. 43 Vue la tête du second membre, on cherche la SP sous la forme xt = αt + β. Après calculs (à faire), on trouve α = β = 1, et donc xt = t + 1 est une solution particulière. Les solutions sont donc toutes de la forme : xt = C1 (1 + i)t + C2 (1 − i)t + (t + 1), C1 et C2 étant deux constantes. Pour calculer xt en fonction de x0 et x1 , il faudrait déterminer les constantes Ci en fonction de x0 et x1 , ce qui se fait facilement en résolvant le système obtenu en posant successivement t = 0 et t = 1 dans l’expression de la solution : x0 = C 1 + C 2 + 1 x1 = C1 (1 + i) + C2 (1 − i) + 2 Exercice 3. D’après le cours, l’expression de la solution générale est : xt = (C1 + C2 t + C3 t2 )5t + C4 7t + (C5 + C6 t)9t , les Ci étant des constantes. Exercice 4. 1. La matrice étant triangulaire supérieure, ses valeurs propres se lisent sur la diagonale et sont donc 1, −1 et β. 2. Les valeurs propres étant dans ce cas distinctes, la matrice est diagonalisable. Pour déterminer P , il faut trouver une base de vecteurs propres. On cherche donc pour chaque valeur propre λ le noyau de A − λI3 dont l’équation est donnée par le système : (1 − λ)x + αy = 0 (β − λ)y = 0 (−1 − λ)z = 0 Les vecteurs propres pour les valeurs propres 1 et −1 se lisent à vue directement sur la matrice, mais pour ceux qui n’ont pas l’habitude, résolvons le système. Pour λ = 1, le système devient : αy = 0 (β − 1)y = 0 −2z = 0 On a donc y = z = 0, et x est quelconque. Donc le vecteur 1 0 0 est une base de ce noyau. De même, pour λ = −1, on trouve comme base : 0 0 . 1 44 Il reste le cas de λ = β. Le système devient : (1 − β)x + αy = 0 0=0 (−1 − β)z = 0 soit z = 0 puis (1 − β)x + αy = 0, par exemple : α β − 1 0 est une base de ce noyau (on prendra garde de ne pas diviser par α, qui pourrait être nul. Alors je propose : 1 α 0 1 0 0 P = 0 β − 1 0 , D = 0 β 0 . 0 0 1 0 0 −1 3. Lorsque β = 1, la valeur propre −1 est simple donc son sous-espace propre a bien la multiplicité de la valeur propre, cependant la valeur propre 1 est double donc il faut regarder si la dimension de son sous espace propre est bien 2. Le système devient dans ce cas : αy = 0 0=0 −2z = 0 soit après simplification z = 0 et αy = 0. Il y a donc deux cas. Lorsque α 6= 0, on a y = z = 0 donc le sous-espace propre est encore de dimension 1 et A n’est pas diagonalisable. Lorsqu’en revanche α = 0, la deuxième équation ne donne aucune information et on a seulement z = 0, le noyau de A − I3 est alors de dimension 2, de base : 0 1 0 ; 1 , 0 0 de sorte que A est diagonalisable (elle est en fait déjà diagonale). Lorsque β = −1, pour des raisons analogues il faut juste regarder la dimension du sous-espace propre associé à la valeur propre −1. Son équation est : 2x + αy = 0 0=0 0=0 Il est donc donné par une seule relation, 2x + αy = 0, ce qui montre qu’il est de dimension 2. Par exemple une base est : 0 −α 2 ; 0 , 0 1 45 de sorte que A est bien diagonalisable. 4. 4.a. La CNS est que toute valeur propre λ de A satisfasse |λ| < 1. Or c’est déjà faux pour λ = 1, donc 0 n’est pas asymptotiquement stable. 4.b. Nous avons Xt = At X0 . De plus, dans ce cas A est diagonalisable, donc avec les notations de la question 2 : 1 0 0 0 P −1 X0 . Xt = At X0 = P Dt P −1 X0 = P 0 β t 0 0 (−1)t 7.3 Énoncé de juin 2015. Exercice 1. La définition de fonction continue en 0 est la suivante : ∀ε > 0, ∃η > 0, ∀x ∈] − η, η[, |f (x) − f (0)| < ε. Écrire la négation de cette propriété. Exercice 2. Résoudre xt+3 − xt+2 + 4xt+1 − 4xt = 0. Exercice 3. Soit α un nombre réel strictement positif. On considère la matrice : N= 0 α . α 0 1. On considère le système : Xt+1 = N Xt . 1.a. Diagonaliser N . 1.b. Le système est-il asymptotiquement stable ? 1.c. Calculer complètement la matrice Ct telle que Xt = Ct X0 . On simplifiera son expression lorsque t est impair. 2. On pose A = I2 + N et on considère le système : Xt+1 = AXt . 2.a. Diagonaliser A. 2.b. Le système est-il asymptotiquement stable ? 3.Calculer N 2 . En déduire (sans utiliser la question 2) des réels a et b tels que : A4 = aI2 + bN. 46 7.4 Énoncé de mai 2016. Exercice 1. Soit P et Q deux assertions. Montrer que : [(P ⇒ Q) ∧ ((¬P ) ⇒ ¬Q)] ≡ (P ⇔ Q). Exercice 2. On s’intéresse à l’équation : (1) xt+3 − 2xt+1 + 4xt = t + 2t . 1. Sans les calculer, indiquer le nombre de solutions possibles à l’équation lorsque : • on ne fixe aucune valeur ; • on fixe x0 , x1 , x2 , x3 ; • on fixe x0 , x1 , x2 ; • on fixe x0 , x2 , x3 . On justifiera rapidement chacune des réponses. 2. 2.a. Écrire les nombres 1 + i et 1 − i sous forme polaire. 2.b. Soit t fixé. Montrer à l’aide de la question précédente que : A(1 + i)t + A(1 − i)t , A ∈ C = 2t/2 (a cos(tπ/4) + b sin(tπ/4)), (a, b) ∈ R2 . 3. Résoudre l’équation (1). On écrira à la fin la solution sans nombres complexes. Exercice 3. Soit α un réel. 1. On s’intéresse à l’équation : Xt+1 0 1 0 = 0 0 1 Xt . α 0 0 Exprimer Xt en fonction de X0 et de t, pour t ≥ 3 : • d’abord lorsque α = 0 ; • ensuite lorsque α = 1. 2. Comment feriez vous pour résoudre 0 1 Xt+1 = 0 0 1 0 : 0 1 1 Xt + 1? 0 t Il vous est demandé d’expliquer les grandes lignes de la méthode, et non d’effectuer tous les calculs. 47 7.5 Contenu du mini formulaire de trigonométrie. Voici le contenu (à la date de la rédaction du polycopié) du formulaire qui sera joint au sujet. Tour complet : cos(θ + 2π) = cos(θ), sin(θ + 2π) = sin(θ), cos(θ − 2π) = cos(θ), sin(θ − 2π) = sin(θ). cos(θ + π) = − cos(θ), sin(θ + π) = − sin(θ), cos(θ − π) = − cos(θ), sin(θ − π) = − sin(θ). Demi-tour : Opposé de l’angle : sin(−θ) = − sin(θ). cos(−θ) = cos(θ), Opposé avec demi-tour : cos(π − θ) = − cos(θ), sin(π − θ) = sin(θ). Autour du quart de tour : cos(π/2 − θ) = sin(θ), sin(π/2 − θ) = cos(θ), cos(π/2 + θ) = − sin(θ), sin(π/2 + θ) = cos(θ). Valeurs à connaı̂tre : θ 0 π/6 π/4 π/3 π/2 √ √ 2 3 1 sin(θ) 0 √2 1 2 √2 3 2 1 0 cos(θ) 1 2 2 2 48