Pseudospectres identiques et super-identiques d’une matrice Thèse Samir Raouafi Doctorat en mathématiques Philosophiæ doctor (Ph.D.) Québec, Canada © Samir Raouafi, 2014 Résumé Le pseudospectre est un nouvel outil pour étudier les matrices et les opérateurs linéaires. L’outil traditionnel est le spectre. Celui-ci peut révéler des informations sur le comportement des matrices ou operateurs normaux. Cependant, il est moins informatif lorsque la matrice ou l’opérateur est non-normal. Le pseudospectre s’est toutefois révélé être un outil puissant pour les étudier. Il fournit une alternative analytique et graphique pour étudier ce type des cas. Le but de cette thèse est d’étudier le comportement d’une matrice non-normale A en se basant sur le pseudospectre. Il est bien connu que le théorème matriciel de Kreiss donne des estimations des bornes supérieures de An et etA en fonction du pseudospectre. En 1999, Toh et Trefethen [31] ont généralisé ce célèbre théorème aux polynômes de Faber et aux matrices ayant des spectres dans des domaines plus généraux. En 2005, Vitse [34] a donné une généralisation du théorème aux fonctions holomorphes dans le disque unité. Dans cette thèse, on généralise le théorème matriciel de Kreiss aux fonctions holomorphes et aux matrices ayant des spectres dans des domaines plus généraux. Certaines conditions devraient cependant être vérifiées. L’étude du comportement d’une matrice au cas où la valeur exacte de la norme de la résolvante est connue a été aussi remise en question. Il est bien connu que si A et B sont des matrices à pseudospectres identiques, alors 1 kAk ≤ ≤ 2. 2 kBk (1) Mais, qu’en est-il pour les puissances supérieures An /B n ? En 2007, Ransford [21] a montré qu’il existe des matrices A, B ∈ CN ×N avec des pseudospectres identiques et où An et B n peuvent prendre des valeurs aléatoires et indépendantes les unes des autres pour 2 ≤ n ≤ (N − 3)/2. Serait-il aussi le cas pour n assez grand ? Par ailleurs, le pseudospectre est aussi utilisé pour étudier le semi-groupe etA , mais permet-il de déterminer etA ? Cette thèse répond à toutes ces questions en démontrant des résultats plus généraux. Elle généralise l’inégalité (1) aux transformations de Möbius. Elle montre aussi que la condition de pseudospectre identique n’est pas suffisante pour déterminer le comportement d’une matrice. Cependant, la condition de pseudospectre super-identique pourrait l’être. iii Abstract The theory of pseudospectra is a new tool for studying matrices and linear operators. The traditional tool is the spectrum. It reveals information on the behavior of normal matrices or operators. However, it is less informative as the matrix or the operator are non-normal. Pseudospectra have nevertheless proved to be a powerful tool to study them. They provide an analytical and graphical alternative to study this type of case. The purpose of this thesis is to study the behavior of a non-normal matrix A based on its pseudospectra. It is well known that the Kreiss matrix theorem provides estimates of upper bounds of An and etA according pseudospectra. In 1999, Toh and Trefethen [31] generalized the celebrated theorem to Faber polynomials and matrices with spectra in more general domains. In 2005, Vitse [34] generalized the theorem for holomorphic functions in the unit disk. In this thesis, the Kreiss matrix theorem is generalized to holomorphic functions and matrices with spectra in more general domains. However, certain conditions should be imposed. The behavior of a matrix if the exact knowledge of the resolvent norm is assumed has also been questioned. It is well known that if A and B are matrices with identical pseudospectra, then 1 kAk ≤ ≤ 2. 2 kBk (2) But what about higher powers An /B n ? In 2007, Ransford [21] showed that there exist matrices A, B ∈ CN ×N with identical pseudospectra and where An and B n can take more or less arbitrary values for 2 ≤ n ≤ (N − 3)/2. Is it also the case for large n? Moreover, pseudospectra are also used to study the semigroup etA , but do they allow us to determine etA ? This thesis addresses all these issues by demonstrating more general results. It generalizes the inequality (2) to Möbius transformations. It also shows that the condition of identical pseudospectra is not sufficient to determine the behavior of a matrix. However, the condition of super-identical pseudospectra could do so. v Table des matières Résumé iii Abstract v Table des matières Liste des figures Remerciements vii ix xiii Introduction 1 1 Pseudospectre et fonction holomorphe d’une matrice 1.1 Pseudospectre d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Borne d’une fonction holomorphe d’une matrice . . . . . . . . . . . . . . . . . . 3 3 9 2 Généralisation du théorème matriciel de Kreiss 15 2.1 Transformation de Faber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 La constante de Kreiss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3 Théorème matriciel de Kreiss pour un domaine quelconque . . . . . . . . . . . 23 3 Pseudospectre identique 33 3.1 Pseudospectre identique et le comportement d’une matrice . . . . . . . . . . . . 34 3.2 Normes plus générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4 Pseudospectre super-identique 53 4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.2 Pseudospectre super-identique et le comportement d’une matrice . . . . . . . . 56 Conclusion 61 Bibliographie 63 vii Liste des figures 1.1 1.2 1.3 1.4 L’interface graphique EigTool Pseudospectre de A . . . . . Norme des puissances de A . Pseudospectre de B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 8 8 9 2.1 Transformation conforme entre Ωc et Dc . . . . . . . . . . . . . . . . . . . . . . . . 16 ix À Sarra. xi Remerciements Je tiens à remercier mon directeur de recherche, le professeur Thomas Ransford, pour ses conseils judicieux, sa disponibilité et tous les efforts qu’il n’a cessé de prodiguer tout au long de cette thèse. J’ai beaucoup apprécié ses suggestions de lecture éclairantes, ses conseils pertinents et le sujet de la thèse qu’il m’a proposé. Je profite aussi de l’occasion pour remercier les professeurs de département de mathématiques et de statistique de l’Université Laval d’avoir contribué largement à ma formation durant toutes ces années, plus particulièrement, Thomas Ransford, Line Baribeau, Javad Mashreghi, et Jérémie Rostand, avec qui j’ai suivi les cours les plus importants de ma carrière. Mes remerciements s’adressent également au directeur du département, le professeur Frédéric Gourdeau, et au personnel du département, notamment Sylvie Drolet, Suzanne Talbot et Emmanuelle Reny-Nolin pour leur sympathie, leur aide et le plaisir que j’ai eu à être auxiliaire de recherche et d’enseignement avec eux. Je garderai toujours un excellent souvenir de mon séjour à l’Université Laval. Je n’oublie pas aussi mes professeurs à l’École Normale Supérieure de Tunis et à l’Université de Tunis El Manar où j’ai débuté ma carrière. Je voudrais exprimer aussi mes sentiments de gratitude au ministère de l’enseignement supérieur et de la recherchede de la Tunisie pour la bourse de l’excellence qu’il m’a octroyé à fin de poursuivre mes études supérieures à l’Université Laval. Merci aussi à L’ISM, l’Institut des Sciences Mathématiques, et à mon superviseur, le professeur Thomas Ransford, pour leur support financier. J’aimerai aussi remercier tous mes amis qui ont fait de Québec un milieu spécial et précieux. Ils m’ont fourni beaucoup d’encouragement et une bonne compagnie. Je devrais aussi reconnaître le support moral et inestimable que j’ai eu de la communauté musulmane de Québec au CCIQ (Centre Culturel Islamique de Québec) et à l’AEMUL (Association des Étudiants Musulmans de l’Université Laval) où j’ai participé à leur conseil d’administration depuis plusieurs années. Finalement, je remercie sincèrement mes parents, mes soeurs, mes frères, ainsi que ceux de ma femme pour m’avoir toujours encouragé dans mes études et m’avoir toujours supporté. Les mots me manquent pour exprimer ma gratitude à ma chère femme Yamina que son dévouement, son amour et sa confiance en moi m’ont aidé beaucoup à surmonter toutes les xiii difficultés et les défis. Un dernier remerciement pour le meilleur cadeau que j’ai eu à la fin de ma thèse, ma belle-fille Sarra. Son sourire me fait oublier tous les travaux fatiguants de jours et des nuits. Cette thèse est en grande partie le fruit de votre aide appréciable surtout aux moments décourageant que j’ai vécu. xiv Introduction Le pseudospectre est un outil important pour étudier des nombreux problèmes mathématiques. Les équations de la forme dx/dt = Ax ou xn+1 = Axn , où A est une matrice ou un opérateur linéaire, est l’un des plus importants de ces problèmes. Ces équations ramènent à l’étude des semi-groupes etA et An . L’image numérique et le spectre permettent de déterminer les taux de croissance initiaux et asymptotiques respectivement de etA et An . Pour les valeurs intérmédiaires de t et n, on trouve le célèbre théorème matriciel de Kreiss fournissant une borne supérieure pour etA et An en fonction de celle de la norme de la résolvante (zI − A)−1 . Si A est normale, alors il est bien connu que (zI − A)−1 = 1/dist z, σ(A) et par conséquent la norme de la résolvante serait complètement déterminée par le spectre. Par contre, si A est non-normale, alors la norme de la résolvante (zI − A)−1 peut s’éloigner de 1/dist z, σ(A) d’une façon spectaculaire et par suite l’étude du pseudospectre sera inévitable. La première définition du pseudospectre a été donnée en 1967 par Varah dans sa thèse intitulée “The computaion of bounds for the invariant subspaces of a general matrix operator [36]”. Puis en 1979, il l’a introduit dans l’article [37] pour étudier l’équation de Sylvester AX − XB = C. En 1975, Landau a publié l’article [17] qui utilise le pseudospectre pour étudier les matrices de Toeplitz et les opérateurs intégrales associés. Ensuite, Godunov et ses collègues ont fait des recherches liées au pseudospectre dans les années 1980. Ces recherches ont été principalement orientées vers le développement de techniques visant la garantie de la précision dans le calcul de valeurs propres. À partir de 1990, Trefethen et ses collègues ont publié plusieurs articles présentant notamment l’importance du pseudospectre dans l’étude des matrices et des opérateurs linéaires non-normaux. D’autres chercheurs se sont intéressés également au pseudospectre et ils l’ont appliqué dans des nombreux domaines de recherches. Parmi ces domaines d’application, on peut citer les sciences de l’atmosphère, la théorie du contrôle, l’écologie, la stabilité hydrodynamique, les lasers, la magnétohydrodynamique, les chaînes de Markov, les itérations des matrices, l’analyse des erreurs d’arrondissement, la théorie des opérateurs, la mécanique quantique, et la solution numérique des équations différentielles. Pour plus des détails sur l’histoire du pseudospectre et ses divers applications, voir [32, §2 et §6]. Dans le cadre de cette thèse, on a remis en question la philosophie du livre de Trefethen et 1 Embree “Spectra and pseudospectra [32]” qui prévoit que pour déterminer une estimation de la norme d’une fonction holomorphe d’une matrice ou d’un opérateur linéaire non-normale, il est important d’étudier non seulement le spectre, mais également le pseudospectre. Il est bien connu que le théorème matriciel de Kreiss donne une estimation de supn≥0 An et supt≥0 etA en fonction du pseudospectre à un facteur constant près. Dans cette thèse, on va généraliser ce célèbre théorème pour les fonctions holomorphes et aux matrices ayant des spectres dans des domaines plus généraux. En second lieu, on va étudier le comportement d’une matrice en utilisant le pseudospectre, au moins lorsque le comportement est interprété dans le sens de la norme d’une fonction holomorphe d’une matrice. Autrement dit, on veut savoir quels résultats on peut tirer quand on connait la valeur exacte de la résolvante. Le premier chapitre de cette thèse est consacré au rappel de quelques propriétés de base du pseudospectre. Il servira donc à introduire les chapitres qui suivent en présentant le théorème matriciel de Kreiss pour An et pour etA par rapport au disque unité et au demi-plan à gauche respectivement. Il permet aussi d’étudier le comportement d’une matrice en utilisant le spectre et l’image numérique. Le deuxième chapitre généralise le théorème matriciel de Kreiss aux fonctions holomorphes définies sur des domaines plus généraux. Les résultats qu’on va montrer sont basés sur des travaux majeurs effectués par Toh et Trefethen [31] et Vitse [34]. Toh et Trefethen ont généralisé ce célèbre théorème aux polynômes de Faber. Vitse lui a donné une généralisation aux fonctions holomorphes sur le disque unité. Le troisième chapitre traite la question de la détermination du comportement d’une matrice par le pseudospectre. On présente tout d’abord les théorèmes inattendus 3.1.3 et 3.1.5 de Ransford [21] qui montrent que le pseudospectre ne détermine pas la norme An lorsque 2 ≤ n ≤ (N − 3)/2 pour une matrice A ∈ CN ×N . Un des objectifs de cette thèse est d’étudier le cas n > (N − 3)/2. Une question encore ouverte et qui est très intéressante dans les applications est : est-ce que le pseudospectre détermine An pour n > (N − 3)/2 ? Le pseudospectre est également utilisé pour étudier les exponnentielles eA . Une autre question d’intérêt et qui n’a jamais été étudiée à nos connaissances est celle de la détermination de la norme eA . On va étudier ces dérnières questions et leur donner une réponse définitive qui clôture la question de la détermination de comportement d’une matrice par le pseudospectre. Plus précisément, on montre dans ce chapitre que le pseudospectre détermine seulement la norme d’une transformation de Möbius d’une matrice à un facteur constant près. Le quatrième chapitre présente une alternative introduite par Ransford [21]. Il prévoit que le pseudospectre super-identique détermine le comportement d’une matrice à un facteur constant près. On présente les résultats obtenus dans [9, 21, 22]. Ceux-ci donnent des réponses partielles aux questions posées dans le troisième chapitre et laissent certaines autres questions ouvertes. 2 Chapitre 1 Pseudospectre et fonction holomorphe d’une matrice Une question centrale dans la théorie spectrale est la suivante : comment estimer la norme d’une fonction holomorphe d’une matrice ? Parmi les techniques utilisées pour répondre à cette question certaines sont basées sur l’étude du spectre, d’autres sont basées sur l’étude de l’image numérique et enfin certaines sont basées sur l’étude du pseudospectre. Le présent travail est consacré essentiellement à étudier les techniques utilisant le pseudospectre. Afin de favoriser une meilleure compréhension de ce qui suivra, on va rappeler dans ce chapitre des notions fondamentales du pseudospectre et présenter quelques résultats intéressants en utilisant d’autres techniques. 1.1 1.1.1 Pseudospectre d’une matrice Définitions et propriétés Soit N ≥ 1. On dénote par CN l’espace des vecteurs complexes de dimension N , et par CN ×N l’algèbre des matrices N × N à coefficients complexes. On définit par |x| := norme euclidienne sur CN ×N . CN , PN k=1 |x k |2 1 2 la et par kAk := sup|x|=1 |Ax| la norme matricielle associé à | · | sur On considère la norme de la résolvante zI −A −1 d’une matrice A comme une fonction à variable complexe z. Si z est une valeur propre de A, alors par convention zI − A −1 est l’infini. On rappelle qu’une matrice U est dite unitaire si U U ∗ = U ∗ U = I, où U ∗ est la matrice adjointe de U et I est la matrice identité. Une matrice A est dite normale si AA∗ = A∗ A. Dans ce cas, on peut montrer que A est normale si elle est unitairement diagonalisable : A = U V U ∗ , où U est une matrice unitaire et V est une matrice diagonale. Ainsi, si A est normal, alors −1 zI − A = 1 , dist(z, σ(A)) (1.1) 3 où σ(A) dénote le spectre de A et dist(z, σ(A)) est la distance usuelle entre le point z et l’ensemble σ(A). Ainsi, la norme de la résolvante d’une matrice normale est entièrement déterminée par le spectre. Au contraire, une matrice non-normale, la quantité (1.1) si A est −1 ne donne qu’une borne inférieure, et zI − A peut atteindre des valeurs assez grandes. Cette façon de penser nous amène à notre première définition de pseudospectre. Définition 1.1.1. Le -pseudospectre σ (A) d’une matrice A est l’ensemble des z ∈ C tel que −1 1 > . zI − A En particulier, le spectre est inclus dans le -pseudospectre pour tout > 0. Si A est une matrice normale, alors l’identité (1.1) implique que son -pseudospectre se compose en des disques de rayon entourant les valeurs propres. de pseudospectre se pose pour L’importance les matrices non-normales A, pour lesquelles zI − A nombre complexe z est loin du spectre. −1 peut-être grande même lorsque le Le résultat suivant montre qu’on peut aussi décrire le pseudospectre en terme des valeurs propres approximatives. Propriété 1.1.2. Soient > 0, A ∈ CN ×N et z ∈ / σ(A). Alors z ∈ σ (A) si et seulement s’il existe un vecteur v ∈ CN tel que zI − A v < kvk. Le nombre complexe z ∈ σ (A) est appelé une valeur -pseudopropre de A, et le vecteur v correspondant est appelé le vecteur -pseudopropre de A associé à z. En d’autres mots, le -pseudospectre est l’ensemble des valeurs -pseudopropres. −1 > 1 , alors il existe un vecteur non-nul u ∈ CN tel que −1 −1 zI − A u > 1 kuk. Pour v = zI − A u, on peut écrire (zI − A)v < kvk. Démonstration. Si zI − A La réciproque est semblable. La propriété suivante franchit une deuxième caractérisation du pseudospectre basée sur la relation entre la norme de la résolvante et la perturbation des valeurs propres. Propriété 1.1.3. Soient > 0, A ∈ CN ×N et z ∈ / σ(A). Alors z ∈ σ (A) si et seulement s’il existe une matrice E ∈ CN ×N , kEk < , telle que z ∈ σ(A + E). En d’autres mots, le -pseudospectre de A est l’ensemble des valeurs propres d’une matrice de perturbation A + E avec kEk < . 4 Démonstration. Si z ∈ σ (A), alors la propriété (1.1.2) implique qu’il existe un vecteur unitaire v ∈ CN tel que (zI − A)v < . Soit u ∈ CN un vecteur unitaire tel que (A − z I)v = s u pour s < . On peut donc écrire z v = A v − s u v ∗ v = (A − s u v ∗ I)v. C’est à dire z ∈ σ(A + E) avec E := s u v ∗ I. Réciproquement, si z ∈ σ(A + E) pour une matrice E avec kEk < , alors il existe un vecteur v ∈ CN tel que (A + E) v = z v. Ainsi, si z ∈ / σ(A), alors on peut écrire v = (z I − A)−1 E v et on a 1 = kvk = (z I − A)−1 E v ≤ (z I − A)−1 kEk < (z I − A)−1 . On rappelle que les valeurs singulières d’une matrice A ∈ CN ×N sont les racines carrées des valeurs propres de A∗ A. On les note s1 (A), s2 (A), . . . , sN (A) par ordre décroissant. La décomposition en valeurs sigulières de A est A = U ΣV , où U et V sont des matrices unitaires et Σ = diag(s1 , s2 , . . . , sN ) est une matrice diagonale. En particulier, on a kAk = s1 (A) et kA−1 k = 1 . sN (A) Une des principales méthodes de calcul du pseudospectre de A est de calculer les valeurs sigulières de zI − A pour z ∈ C, puis on utilise le fait que zI − A −1 = s1 ((zI − A)−1 ) = 1 . sN (zI − A) La commande EigTool de Matlab produit des images de courbes des niveaux de la norme de la résolvante en utilisant la dernière équation. Pour plus d’information voir [32, §39]. Théorème 1.1.4. Pour tout A ∈ CN ×N , l’ensemble σ (A) est non-vide, ouvert, borné et a au plus N composantes connexes dont chacune contient au moins une valeur propre de A. Démonstration : Il est clair que pour chaque > 0, l’ensemble σ (A) est non-vide, ouvert et borné. Pour montrer qu’il a au plus N composantes connexes dont chacune contient au moins une valeur propre de A, on peut utiliser le fait que la fonction z 7→ log (z I − A)−1 est sous-harmonique et elle vérifie donc le principe du maximum sur C\σ(A). Pour obtenir des résultats sur les fonctions sous-harmoniques, on réfere le lecteur aux [6, § X] et [20, § 2]. On note par D := {z ∈ C : |z| < 1} le disque unité ouvert et par D := {z ∈ C : |z| ≤ 1} sa fermeture. On utilise aussi la notation D pour désigner le disque ouvert centré à l’origine et de rayon . 5 Théorème 1.1.5. Si A est diagonalisable, i.e. A = V DV −1 où V est inversible et D est diagonale, alors σ(A) + D ⊆ σ (A) ⊆ σ(A) + Dk(V ) , ∀ > 0, où k(V ) := kV k kV −1 k est le nombre de condition de V . Démonstration. Si z ∈ σ(A), alors z + ξ ∈ σ(A + ξ I) pour tout ξ ∈ D . On déduit donc de la propriété (1.1.3) que z + ξ ∈ σ (A). Pour la deuxième inclusion, on a (z I − A)−1 = (z I − V D V −1 )−1 = V (z I − D)−1 V −1 . Cela entraîne que (zI − A)−1 ≤ k(V ) (zI − D)−1 = k(V ) . dist(z, σ(A)) On termine cette section par le théorème suivant qui rassemble quelques propriétés du pseudospectre. Théorème 1.1.6. Soient A et U appartiennent à CN ×N telles que U soit unitaire, et soit > 0. Alors (i) (ii) σ (U AU ∗ ) = σ (A). σ (A∗ ) = σ (A), où le bar désigne le conjugué des nombres complexes. (iii) σ (A1 ⊕ A2 ) = σ (A1 ) ∪ σ (A2 ). (iv) σ (A + cI) = c + σ (A) pour tout c ∈ C. (v) σ (cA) = c σ/|c| (A) pour tout c ∈ C\{0}. Dans la propriété (iii), la matrice A1 ⊕ A2 dénote la somme directe des deux matrices A1 et A2 qui est définie par la matrice diagonale par block suivante : A1 ⊕ A2 := A1 0 0 A2 ! Pour la démonstration de ces propriétés, voir [32, §2]. 1.1.2 Quelques exemples Une perturbation d’une matrice normale avec une matrice de norme ne déplace pas les valeurs propres d’une distance supérieure à . En fait, l’identité 1.1 montre que σ (A) se compose de disques de rayon centrés à chaque valeur propre. Mais pour de nombreux matrices non-normales, des petites perturbations peuvent se déplacer les valeurs propres de façon 6 phénoménale. Dans ce cadre, le calcul du pseudospectre de ces matrices devient inévitable pour les étudier, et cela peut se faire tout simplement en utilisant la commande EigTool de Matlab, voir la figure 1.1. Ce logiciel est une interface graphique de Matlab pour calculer les valeurs propres, le pseudospectre, l’image numérique et les quantités connexes pour les matrices non-normales. Il a été dévéloppé à la periode 1999-2002 par Thomas G. Wright au laboratoire informatique de l’Université Oxford sous la direction de Lloyd N. Trefethen. Pour plus d’information sur EigTool, voir [38]. Figure 1.1: L’interface graphique EigTool Exemple 1.1.7. La matrice tridiagonale A := triadiag(1/4, 0, 1) de dimension 32, voir [22]. 0 1/4 A := 1 0 .. . 1 .. . .. 1/4 0 . 1 1/4 0 Les valeurs propres de A sont λk = cos( kπ 33 ) pour k = 1, 2, . . . , 32, voir [32, § I]. En particulier, son rayon spectral est strictement inférieur à 1, et cela implique que kAn k → 0 lorsque n → ∞. 7 Cependant, comme il montre la figure 1.3, la norme de An atteint des valeurs très grandes avant de converger vers 0. Ce genre de comportement est important dans les applications, et il est important de comprendre et de prédire quant cela se produit. Figure 1.3: Norme des puissances de A Figure 1.2: Pseudospectre de A La figure 1.2 illustre les frontières de σ (A) pour = 10−2 , 10−3 , . . . , 10−8 . Les points solides correspondent aux valeurs propres et l’ellipse pointillé correspond à la frontière de l’image numérique. Dans la figure 1.3, on trouve l’évolution de la norme kAk k en fonction de k. Exemple 1.1.8. La matrice Grcar de dimension 32, voir exemple 3 dans [33]. 1 −1 B := 1 1 1 1 .. . 1 .. . 1 .. . 1 .. . .. −1 1 1 1 −1 1 1 −1 1 . 1 . 1 1 −1 1 Une caractéristique intéressante de cet exemple est que le pseudospectre ne contient pas l’origine. Par exemple, l’image numérique de cette matrice le contient, mais les valeurs propres en sont loins, voir la figure 1.4. Les courbes de la figure 1.4 représentent les frontières de σ (A) pour = 10−1 , 10−1.5 , 10−2 et 10−2.5 , les points solides représentent les valeurs propres et la courbe pointillé représente la frontière de l’image numérique. D’autres exemples de pseudospectre des matrices sont présentés au [33]. 8 Figure 1.4: Pseudospectre de B 1.2 Borne d’une fonction holomorphe d’une matrice Dans cette section, on va introduire quelques relations entre le “lieu” d’une matrice A dans le plan complexe et la quantité kf (A)k pour une fonction f . Dans ce qui suit, on appelle cette quantité le “comportement” de A. Parmi les lieux d’une matrice dans le plan complexe que l’on pourrait considérer on trouve le spectre, l’image numérique et le pseudospectre. Le spectre et l’image numérique sont déterminés par les −pseudospectres lorsque → 0 et → ∞ respectivement, voir [13, §5]. Si A est normal, alors, le théorème spectral [8], implique que kf (A)k = sup |f (z)|, z∈σ(A) pour toute fonction f holomorphe sur un voisinage de σ(A). Ainsi, le comportement d’une matrice normale est complètement déterminé par son spectre. Notre principale préoccupation dans cette thèse est l’étude des matrices non-normales, et il est clair que le spectre seul ne peut pas déterminer leurs comportements. 1.2.1 L’image numérique et le comportement d’une matrice On rappelle que l’image numérique d’une matrice A ∈ CN ×N est l’ensemble W (A) défini par : W (A) := x∗ A x : x ∈ CN , kxk = 1 . C’est un sous-ensemble compact, convexe de C et il contient σ(A). Si A est normal, alors W (A) est le plus petit convexe qui contient σ(A). Pour plus de détails sur les propriétés de 9 l’image numérique, voir [14] et [24]. Les théorèmes qui suivent nous donnent la relation entre l’image numérique et le pseudospectre. On peut trouver des démonstrations de ces théorèmes dans [32, §17]. Théorème 1.2.1. La norme de la résolvante de A satisfait zI − A −1 ≤ 1 , dist(z, W (A)) ∀z ∈ / W (A). Ce théorème, qui a été démontré depuis plusieurs années [29], implique que le pseudospectre satisfait σ (A) ⊂ W (A) + D , ∀ > 0. Inversement, on a le théorème suivant. Théorème 1.2.2. [32, Théorème 17.2] L’ensemble W (A) est l’intersection de tous les demiplans H ⊆ C qui satisfassent σ (A) ⊆ H + D , ∀ > 0. Une application importante de l’image numérique est l’estimation du comportement de ket A k comme une fonction de t comme il ressort du théorème suivant. Théorème 1.2.3. [32, Théorème 17.1] Soit A ∈ CN ×N . Posons ω(A) := supz∈W (A) Re(z) l’abscisse numérique de A. Alors, ket A k ≤ et ω(A) , ∀t ≥ 0 et ket A k = et ω(A) + o(t) (t → 0). En particulier ket A k ≤ 1 pour tout t ≥ 0 si et seulement si ω(A) ≤ 0. On voit dans ce théorème que l’image numérique répond à certaines questions au sujet du comportement d’une matrice, mais dans d’autres applications l’information obtenue est approximative. Par exemple, il ne répond pas à la question de savoir s’il existe une constante C telle que ket A k ≤ C pour tout t ≥ 0, i.e. si A est stable. Une condition suffisante pour cela est ω(A) ≤ 0. On peut voir qu’il n’y a pas une condition nécessaire et suffisante en notant que les matrices 10 A= −1 4 0 −1 ! , −1 B= 0 0 4 0 −1 0 0 1 ont la même image numérique qui est le disque fermé de centre -1 et de rayon 2. Toutefois, la matrice A est stable tandis que B ne l’est pas, voir [32, §17]. Récemment, M. Crouzeix [7] a montré un théorème intéressant qui détermine le comportement d’une matrice en fonction de son image numérique. Théorème 1.2.4. Soit f une fonction holomorphe sur un voisinage de W (A). Alors kf (A)k ≤ 11, 08 sup |f (z)|. z∈W (A) Ce théorème prouve aussi que l’image numérique répond à certaines questions au sujet du comportement d’une matrice. Cependant, dans de nombreuses autres applications, l’ensemble W (A) est assez grand et il empêche cette borne d’être significative. Par exemple, dans les deux situations qui suivent, on veut que supz∈W (A) |f (z)| soit aussi petit que l’on veut. – f (z) = z k , mais W (A) contient des z ∈ C avec |z| ≥ 1. – f (z) = et z , mais W (A) contient des z ∈ C avec Re(z) ≥ 0. 1.2.2 Le théorème matriciel de Kreiss Le théorème matriciel de Kreiss a été initialement publié par Heinz-Otto Kreiss [16]. Il donne une estimation de supn≥0 kAn k ou supt≥0 ket A k, pour une matrice A, en fonction de la constante de Kreiss K(A). Pour l’estimation de la norme de la puissance d’une matrice, la constante K(A) est définie par la formule suivante K(A) := sup (|z| − 1) zI − A −1 . |z|>1 De façon équivalente, cette constante peut être définie en fonction du rayon pseudospectral comme suit K(A) := sup >0 ρ (A) − 1 , où ρ (A) := supz∈σ (A) |z| est le rayon −pseudospectral de A. La constante de Kreiss mesure à quel point le pseudospectre peut s’éloigner du disque unité. Si la constante K(A) est finie, on dit que la matrice A satisfait la condition de Kreiss. 11 Théorème 1.2.5. Pour toute matrice A ∈ CN ×N , on a K(A) ≤ sup kAn k ≤ e N K(A). n≥0 Ce théorème prouve que la borne supérieure de la suite kAn k est égale K(A) à une constante près inférieur ou égale à eN . Par exemple si on l’applique à l’exemple 1.1.7, on voit bien que le pseudospectre montre que kAn k atteint des valeurs assez grandes avant de converger vers 0. En regardant le nombre z = 1, 01, on peut lire directement dans la figure 1.2 que n 5 zI − A −1 > 107 , ainsi le théorème de Kreiss implique que sup n≥0 kA k > 10 . La constante eN du théorème 1.2.5 a été obtenue après plusieurs développements de la déclaration initiale du théorème matriciel de Kreiss en 1962. La preuve originale de Kreiss montre l’estimation N K(A) ≤ sup kAn k ≤ K(A)N . n≥0 Puis elle a eu des améliorations par Morton en 1964, Strang en 1966 et Miller en 1967 qui ont 2 diminué la borne supérieure à 6N (N + 4)5N K(A), N N K(A) et e9N K(A) respectivement. Après quelques années Strang a observé qu’un document de Laptev découle implicitement d’une estimation beaucoup plus raisonnable qui est 32 2 π eN K(A), voir [32, 19]. En 1981, Tad- mor [30] a montré, en utilisant la formule intégrale de Cauchy à l’argument adapté de Laptev, que cette borne est linéaire en N et il l’a réduit à 32 π eN K(A). Leveque et Trefethen [19] ont minimisé cette borne en 1984 à 2eN K(A) et ils ont conjencturé que la borne optimale est eN K(A). En 1985, Smith [26] a réduit cette borne à (1 + π2 )eN K(A) et enfin Spijker [28] a prouvé cette conjecture en 1991. La démonstration se repose sur un lemme qui fournit une borne supérieure pour la longueur d’arc de l’image du cercle unité dans le plan complexe par une fonction rationnelle, voir [32, § 18] pour plus d’informations. Il est intéressant aussi de savoir quelques informations sur la taille de etA comme une fonction de t en utilisant le pseudospectre. Le taux de croissance asymptotique de cette norme est complètement déterminé par le spectre de A et il est donné par l’équation lim t−1 log etA = α(A), t→∞ où α(A) := supz∈σ(A) Re(z) est l’abscisse spectrale de A, voir [8, Théorème 10.1.6]. Le théorème 1.2.3 montre que l’image numérique fournit le taux de croissance initial qui est donné par lim t−1 log etA = ω(A), t→0 12 où ω(A) est l’abscisse numérique de A. Notre intérêt principal ne se limite pas à savoir seulement les deux cas t → ∞ ou t → 0 mais aussi toutes les valeurs intérmidiaires possibles de t. L’image numérique et le spectre donnent les bornes suivantes tA e ≥ etα(A) et etA ≤ etω(A) (t ≥ 0). Si la matrice A := V DV −1 est diagonalisable, alors on a la borne supérieure suivante tA e ≤ k(V )etα(A) (t ≥ 0). Cette borne est intéressante mais dans la plupart des applications le nombre de condition k(V ) est assez grand ou difficile à déterminer. Pour obtenir des bornes optimales, il est intéressant d’utiliser le pseudospectre ou de façon équivalente la norme de la résolvante. Si on suppose que α(A) < 0, alors pour tout z ∈ C tel que Re(z) > 0, on obtient à partir de la transformation de Laplace la représentation suivante Z ∞ etA e−zt dt = (zI − A)−1 . 0 Cette formule fournit une borne inférieure très utile dans la pratique et elle est donnée par l’inégalité suivante sup etA ≥ t≥0 α (A) ( ≥ 0), (1.2) où α (A) := supz∈σ (A) Re(z) est l’abscisse pseudospectrale de A. Supposons que A est une matrice avec α(A) < 0 et le pseudospectre σ (A) intervenant dans le demi-plan à droite, autrement dit α (A) > pour certains > 0. L’inégalité (1.2) montre qu’on doit avoir une croissance transitoire. Si par exemple zI −A −1 = 105 pour un z ∈ C tel que Re(z) = 0.01, alors α (A) ≥ 0.01 pour = 10−5 . On doit donc avoir une croissance transitoire de grandeur supérieure ou égale 103 . Si on définit la constante de Kreiss de A par rapport au demi-plan à gauche par K(A) := sup >0 −1 α (A) = sup Re(z) zI − A , Re(z)>0 alors l’inégalité (1.2) implique sup etA ≥ K(A). t≥0 Le théorème suivant est le théorème matriciel de Kreiss pour l’exponentielle qui fournit la borne supérieure de l’inégalité précédente. 13 Théorème 1.2.6. Pour toute matrice A ∈ CN ×N , on a K(A) ≤ sup etA ≤ e N K(A), t≥0 où K(A) est la constante de Kreiss de A par rapport au demi-plan à gauche. La démonstration de ce théorème est semblable au cas des puissances et se repose aussi sur le même lemme de Spijker [28]. Pour plus de détails, voir par exemple [32, Chapitre 18]. 14 Chapitre 2 Généralisation du théorème matriciel de Kreiss Dans ce chapitre, on rappelle tout d’abord les propriétés de la transformation de Faber qui seront utiles par la suite. On présente ensuite une généralisation de la constante de Kreiss pour les domaines compacts et leurs complémentaires simplement connexe. Enfin, on présente une généralisation du théorème matriciel de Kreiss pour les polynômes de Faber puis les fonctions holomorphes des matrices ayant des spectres dans des domaines plus généraux. 2.1 Transformation de Faber 2.1.1 Polynôme et série de Faber Soit Ω un ensemble compact du plan complexe C tel que son complémentaire Ωc soit simplement connexe dans la sphère de Riemann C∞ := C ∪ {∞}. Selon le théorème de Riemann [11], il existe une unique transformation conforme φ de Ωc vers Dc normalisée par φ(∞) = ∞ et φ0 (∞) > 0, voir la figure 2.1, w = φ(z) := dz + d0 + ∞ X dk zk k=1 , (d > 0), z ∈ Ωc . Si ψ : Dc → Ωc est la transformation inverse de φ, alors elle a un développement de Laurent, similaire à φ, de la forme suivante z = ψ(w) := cw + c0 + ∞ X ck wk k=1 , w ∈ Dc , où c = 1/d est la capacité logarithmique de Ω. 15 Figure 2.1: Transformation conforme entre Ωc et Dc Le nième polynôme de Faber Fn (z), pour n = 0, 1, 2, · · · , associé à Ω (ou bien à φ) est la partie polynômiale de la série de Laurent de [φ(z)]n , qui est un polynôme de degré n. Exemple 2.1.1. Si Ω = z ∈ C : |z − z0 | ≤ R , un disque fermé de centre z0 et de rayon R, alors φ(z) = 1 (z − z0 ), R ψ(w) = Rw + z0 et Fn (z) = R−n (z − z0 )n , c pour tout z ∈ Ωc , w ∈ D et n ≥ 0. Pour tout r ≥ 1, on note par Tr le cercle centré à l’origine et de rayon r et par Γr la courbe fermée ψ(Tr ). On considère les intégrales, avec ζ = ψ(w), 1 2πi Z Γr [φ(ζ)]n 1 dζ = ζ −z 2πi Z Tr wn ψ 0 (w) dw, ψ(w) − z z ∈ int(Γr ), où int(Γr ) dénote l’intérieur de Γr . Puisque la série de Laurent de [φ(ζ)]n est uniformément convergente sur Γr , on peut intégrer la première intégrale précédente terme à terme pour obtenir la représentation suivante des polynômes de Faber 1 Fn (z) = 2πi Z Γr [φ(ζ)]n 1 dζ = ζ −z 2πi Z Tr wn ψ 0 (w) dw, ψ(w) − z Soit maintenant z ∈ int(Γr ). Alors la fonction w 7→ wψ 0 (w) ψ(w)−z z ∈ int(Γr ), n ≥ 0. (2.1) est analytique sur {w ∈ C : |w| > r} et elle prend la valeur 1 en w = ∞, elle possède donc la série de Laurent suivante wψ 0 (w) F1 (z) F2 (z) =1+ + + ··· , ψ(w) − z w w2 |w| > r, z ∈ int(Γr ). (2.2) En combinant (2.2) avec la formule intégrale de Cauchy, on peut représenter les fonctions holomorphes sur un domaine quelconque par des séries semblables aux séries de Fourier pour les fonctions holomorphes sur la disque unité. On note par A(Ω) l’ensemble des fonctions 16 holomorphes sur int(Ω) et continues sur Ω. La série de Faber associée à une fonction f de A(Ω) est la série formelle suivante f (z) ∼ ∞ X z ∈ Ω, an Fn (z), n=0 où f ψ(w) 1 an := dw, 2πi T wn+1 sont les coefficients de Faber associés à f . Z n ≥ 0, Supposons que Γ := ∂Ω est une courbe simple, fermée et rectifiable et définissons F sur R par F (θ) := f (ψ(eiθ )). La série de Fourier de F est donnée par ∞ X F (θ) ∼ F̂ (n)eiθ , n=−∞ où 1 F̂ (n) := 2π Z 2π −inθ F (θ)e 0 1 dθ = 2πi Z f (ψ(w))w−n−1 dw, n ∈ Z. T Par conséquent an = F̂ (n), pour n ≥ 0, et ceci est un premier lien entre la série de Faber et la série de Fourier. En 1955, Alper [3] a montré que si la frontière Γ de Ω est une courbe de Jordan rectifiable et lisse qui satisfait la condition de régularité R c w(h) 0 h | log h|dh < ∞ pour un c > 0, alors la série de Faber converge uniformément sur Ω et elle se comporte comme une série de Fourier. Ici, la fonction w : [0, ∞] → [0, ∞] est le module de continuité de la fonction ϑ(s) qui désigne l’angle entre l’axe réel positif et la tangente à la courbe Γ au paramètre s. On rappelle qu’une fonction g : I → R admet w pour un module de continuité si et seulement si |g(t) − g(s)| ≤ w(|t − s|) pour tout t et s dans le domaine I de g. En 1967, Kövari et Pommerenke [35] ont montré que la situation est assez similaire si on suppose seulement que Γ est une courbe de Jordan de variation bornée. On rappelle qu’une courbe de Jordan Γ est dite de variation bornée si sa variation totale V := R Γ |dϑ(s)| Pour une série de Fourier G := G̃ := ∞ X est bornée. P∞ ikθ , k=−∞ gk e on définit sa série conjuguée par ( ikθ g̃k e , où g̃k := k=−∞ −igk si k ≥ 0 igk si k < 0 Théorème 2.1.2. (Kövari et Pommerenke [35]) Soit Ω un domaine de Jordan, soit Γ sa frontière de variation bornée et soit f ∈ A(Ω). Si la série de Fourier de f (ψ(eiθ )) et sa série conjuguée convergent uniformément, alors la série de Faber converge uniformément vers f sur Ω. 17 Corollaire 2.1.3. [31, Lemme 4.1] Pour tout z ∈ Ωc , on a (z − ξ)−1 = ∞ X φ0 (z) Fn (ξ), φ(z)n+1 n=0 (ξ ∈ Ω). Démonstration. La série de Faber associée à la fonction ξ 7→ (z − ξ)−1 sur Ω est donnée par P∞ n=0 an Fn (ξ) avec −1 z − ψ(w) 1 dw 2πi T wn+1 Z 1 φ0 (ζ) (z − ζ)−1 n+1 dζ 2πi Γ φ (ζ) 0 φ (z) . n+1 φ (z) Z an (z) = = = La convergence uniforme de cette série est garantie par le théorème précédent. 2.1.2 Opérateur de Faber On note par Pn (Ω) l’ensemble des polynômes de degrés inférieur ou égale n muni de la norme k kL∞ (Ω) . L’opérateur de Faber F est définie par la transformation linéaire qui envoie le polynôme p(w) := a0 w0 + a1 w1 + · · · + an wn , aj ∈ C au polynôme F(p)(z) := a0 F0 (z) + a1 F1 (z) + · · · + an Fn (z). En particulier l’image du polynôme p(w) := wn par l’opérateur de Faber F est le nième polynôme de Faber Fn (z). L’opérateur F est une bijection de Pn (D) vers F Pn (D) . En effet, si F(p) = 0, alors on considère le coefficient du terme de plus haut degré. Puis, étant donné que le degré de Fn est exactement n, on trouve successivement que an = 0, an−1 = 0, · · · , a0 = 0. Si Γ est rectifiable, alors F et son inverse F −1 possèdent des représentations intégrales. En utilisant la représentation (2.1) pour Fn , on trouve F(p)(z) = 1 2πi Z Γ p(φ(ζ)) 1 dζ = ζ −z 2πi Z T p(w)ψ 0 (w) dw, ψ(w) − z z ∈ int(Ω), pour tout polynôme p. D’autre part, en utilisant la formule intégrale de Cauchy et la formule suivante 1 Fn (ψ(w)) = wn + O( ), w 18 |w| → ∞, (2.3) on trouve F Puisque S n Pn (D) et S −1 1 (p)(w) = 2πi n Pn (Ω) Z T p(ψ(s)) ds, s−w |w| < 1. (2.4) sont denses dans A(D) et A(Ω) respectivement, on peut définir l’opérateur de Faber F entre les espaces de Banach A(D) et A(Ω) en prenant les limites dans la formule (2.3). Le théorème suivant prouve que cet opérateur est borné. Pour la démonstration et pour plus de détails, le lecteur est invité à consulter par exemple [1, 2, 11]. Théorème 2.1.4. [11, p. 48] Si Γ est une courbe de Jordan rectifiable et de variation bornée V , alors l’opérateur de Faber F : A(D) → A(Ω) est borné et on a kF(f )k ≤ (1 + 2V )kf k, π (f ∈ A(D)). Le théorème des résidus et la formule (2.3) montrent que, pour tout ξ ∈ Dc et z ∈ int(Ω), on a F 1 ψ 0 (ξ) (z) = . w−ξ z − ψ(ξ) Ceci implique que si q ∈ A(D) est une fonction rationnelle et a un pôle d’ordre N en ξ0 , avec |ξ0 | > 1, alors F(q) est aussi rationnelle et a un pôle de même ordre au point ψ(ξ0 ). Pour les fonctions f ∈ A(D) en général, on a aussi le théorème suivant. Théorème 2.1.5. [11, p. 50] Soit f ∈ A(D), disons f (w) := P∞ n=0 an w n pour |w| < 1. Alors les coefficients de Faber de F(f ) sont les an . Autrement dit, F(f )(z) = ∞ X an Fn (z), (z ∈ Ω). n=0 Démonstration. Définissons fr (w) := f (rw) pour r ∈ (0, 1) et w ∈ D. Alors fr → f et par conséquent F(fr ) → F(f ) lorsque r → 1. Cela implique que |an (f ) − an (fr )| ≤ kF(f ) − F(fr )k → 0 (r → 1), où an (f ) et an (fr ) sont les coefficients de Faber de f et fr respectivement. Comme fr (w) = P∞ n=0 an r n wn converge uniformément sur D, alors an (fr ) = an rn pour tout n ≥ 0. Le résultat suit donc en faisant tendre r vers 1. Le théorème précédent implique que l’opérateur F est injectif et il est donc bijectif entre A(D) et le sous espace fermé F(A(D)) := {g : g = F(f ), f ∈ A(D)}. En prenant la limite dans la formule (2.4), on trouve F −1 (g)(ξ) = 1 2πi Z T g(ψ(w)) dw, w−ξ |ξ| < 1, (g ∈ F(A(D))). (2.5) 19 L’opérateur F −1 est borné si et seulement si F est surjectif et dans ce cas F est un isomorphisme entre les algèbres A(D) et A(Ω). Le théorème suivant montre que c’est le cas si la courbe Γ est rectifiable et est de variation bornée. Théorème 2.1.6. (Anderson et Clunie [2]) Soit Ω un domaine compact de Jordan de frontière Γ rectifiable et de variation bornée. Si Γ n’a aucun point de rebroussement, alors l’opérateur F −1 : A(Ω) → A(D) est bien défini par (2.5) et il est borné. On rappelle qu’un point rebroussement est un type particulier de point singulier sur une courbe admettant une seule demi-tangente en ce point. Anderson et Clunie [2] ont prouvé aussi que le théorème précédent n’est pas vrai si la courbe Γ a des points de rebroussement. 2.2 La constante de Kreiss Pour qu’une matrice vérifie la condition de Kreiss, il faut que son spectre soit inclus dans le disque unité. Cependant, si ce n’est pas le cas, il y a une généralisation pour les domaines Ω. Soit A une matrice de CN ×N telle que son spectre σ(A) est inclus dans Ω. On définit la constante de Kreiss pour A par rapport à Ω par la formule suivante : K(Ω) := inf C : zI − A 0 −1 ≤ C |φ (z)| , ∀z ∈ /Ω . |φ(z)| − 1 Une définition équivalente de la constante de Kreiss est donnée par la formule suivante : e K(Ω) := inf C : zI − A −1 ≤ C , ∀z ∈ /Ω . dist(z, Ω) Proposition 2.2.1. (Toh et Trefethen [31]) On a e 1 K(Ω) ≤ ≤ 2. 2 K(Ω) De plus, si Ω est un intervalle, alors le facteur 1 2 est atteint à gauche et si Ω est un arc d’un cercle, alors le facteur 2 est atteint à droite. La démonstration de cette proposition est une conséquence du lemme suivant. Lemme 2.2.2. (Kühnau [31]) Supposons que ψ est une transformation conforme de l’extérieur du disque unité D à l’extérieur d’un ensemble compact Ω de complémentaire simplement connexe telle que ψ(∞) = ∞. Alors pour tout |w0 | > 1, on a 1 dist(z0 , Γ) (|w0 | − 1) ≤ ≤ 2(|w0 | − 1), 2 |ψ 0 (w0 )| où z0 = ψ(w0 ) et Γ = ∂Ω. Si Ω est un intervalle, alors la constante 1/2 atteinte à gauche lorsque |w0 | → 1 et si Ω est un arc de cercle, alors la constante 2 atteinte à droite lorsque |w0 | → 1. 20 Démonstration de la proposition 2.2.1 D’une part, pour tout z = ψ(w) ∈ Ωc , on a |φ0 (z)| 1 . = |φ(z)| − 1 |w| − 1 |ψ 0 (w)| D’autre part, le lemme 2.2.2 entraîne que 1 dist(z, Γ) ≤ ≤ 2. 2 (|w| − 1)|ψ 0 (w)| e Le résultat découle donc des définitions de K(Ω) et K(Ω). e On note que la constante K(Ω) est bien définie même si Ωc n’est pas simplement connexe. Elle est définie géométriquement et peut être calculée indépendamment de la transformation conforme φ. Ceci est un grand avantage puisqu’on ne peut pas déterminer facilement φ sauf pour des domaines particuliers comme les ellipses ou les polygônes. La proposition suivante montre la relation entre la constante de Kreiss et le pseudospectre. e Sa démonstration est une conséquence directe des définitions de K(Ω) et σ (A). Proposition 2.2.3. [31, Proposition 2.1] Les assertions suivantes sont équivalentes. (i) (ii) (iii) C zI − A −1 ≤ dist(z,Ω) , dist(z, Ω) ≤ C , σ (A) ⊂ Ω + C D , ∀z, dist(z, Ω) > 0. ∀z ∈ σ (A), ∀ > 0. ∀ > 0. e Une conséquence importante de la proposition précédente est que la constante K(Ω) peut être définie en utilisant le pseudospectre par la formule suivante e K(Ω) = sup >0 maxz∈σ (A) dist(z, Ω) . Autrement dit, elle mesure à quel point l’ensemble σ (A) peut s’éloigner du domaine Ω pour tout > 0. e En utilisant la définition de K(Ω), on peut montrer facilement d’autres propriétées intéres- santes de la constante de Kreiss comme la monotonie et les cas particuliers lorsque la matrice A est normale et Ω = σ(A) ou bien Ω est l’image numérique de la matrice. Proposition 2.2.4. [31, Proposition 2.2] Supposons que Ω1 et Ω2 deux sous-ensembles compacts de C tels que σ(A) ⊂ Ω1 ⊂ Ω2 . Alors e 2 ) ≤ K(Ω e 1 ). K(Ω 21 e 1 ) et K(Ω e 2 ). Démonstration. Ce resultat est une conséquence directe des définitions de K(Ω e 2) = K(Ω −1 −1 −1 sup dist(z, Ω2 ) zI − A z ∈Ω / 2 ≤ sup dist(z, Ω1 ) zI − A z ∈Ω / 2 ≤ sup dist(z, Ω1 ) zI − A z ∈Ω / 1 e 1 ). = K(Ω Proposition 2.2.5. [31, Proposition 2.3] Si A := V DV −1 est une matrice diagonalisable, alors e K(σ(A)) ≤ k(V ), où k(V ) est le nombre de condition de V . Démonstration. Puisque (zI − A)−1 = V (zI − D)−1 V −1 , on a zI − A −1 ≤ k(V ) . dist(z, σ(A)) Ceci implique que σ (A) ⊂ σ(A) + k(V )D pour tout > 0. Le résultat suit donc de la proposition 2.2.3. Proposition 2.2.6. [31, Proposition 2.4] Soit A une matrice normale telle que σ(A) ⊂ Ω. Alors e K(Ω) = 1. e e Démonstration. On a toujours K(Ω) ≥ 1. Donc il reste à prouver que K(Ω) ≤ 1. Rappelons qu’une matrice A est normale si et seulement s’il existe une matrice unitaire U telle que U −1 AU est diagonale. Il suit donc des propositions 2.2.4 et 2.2.5 ce qui suit e e K(Ω) ≤ K(σ(A)) ≤ k(U ) = 1. Proposition 2.2.7. [31, Proposition 2.5] Si W (A) est l’image numérique de la matrice A, alors e K(W (A)) = 1. Démonstration. On a vu dans le théorème 1.2.2 que l’ensemble W (A) est l’intersection de tous les demi-plans H qui satisfassent σ (A) ⊆ H + D , ∀ > 0. e IL suit donc de la proposition 2.2.3 que K(W (A)) = 1. 22 2.3 Théorème matriciel de Kreiss pour un domaine quelconque On a vu dans le chapitre précédent comment le théorème matriciel de Kreiss donne des bornes basées sur la norme de la résolvante zI − A −1 pour kAn k si σ(A) est inclu dans le disque unité, ou bien pour ketA k si σ(A) est dans le demi-plan à gauche. On généralise dans cette section ces résultats pour des fonctions holomorphes quelconques dans des domaines Ω plus généraux. 2.3.1 Polynôme de Faber Une application de l’inégalité de Bernstein [11] nous donne une généralisation du théorème matriciel de Kreiss pour le domaine Ω. Théorème 2.3.1. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Soit A une matrice telle que σ(A) ⊂ Ω et K(Ω) < ∞. Alors, pour tout pôlynome pn de degré n, on a kpn (A)k ≤ e (n + 1) K(Ω) kpn kΩ , où kpn kΩ := supz∈Ω |pn (z)|. Démonstration. Puisque σ(A) ⊂ Ω, alors la matrice pn (A) peut être représentée en fonction de la résolvante par la formule intégrale de Cauchy [8], 1 pn (A) = 2πi Z (zI − A)−1 pn (z) dz (r > 1). Γr Par conséquent, kpn (A)k ≤ ≤ 1 (zI − A)−1 |pn (z)| |dz| 2π Γr Z 1 (zI − A)−1 |dz|, kpn kΩr 2π Γr Z avec Ωr := φ−1 (Dr ). Puisque (zI − A)−1 ≤ K(Ω)|φ0 (z)| r−1 sur Γr et kpn kΩr ≤ rn kpn kΩ (C’est le lemme de Bernstein [11]), on déduit que 1 rn K(Ω)kpn kΩ 2π r−1 n r kpn kΩ . ≤ K(Ω) r−1 kpn (A)k ≤ Pour r := 1 + 1 n+1 , Z |φ0 (z)| |dz| Γr on conclut que kpn (A)k ≤ K(Ω) e (n + 1)kpn kΩ . 23 La borne donnée par ce théorème dépend linéairement de n, et donc elle peut être assez élevée et on ne peut pas utiliser l’approximation pour le généraliser à des fonctions holomorphes quelconques. Le théorème suivant montre que cette borne est indépendant de n pour les polynômes de Faber. Théorème 2.3.2. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Soit A une matrice N × N sur C telle que σ(A) ⊂ Ω et K(Ω) < ∞. Si le frontière de Ω est de classe C 2 , alors, pour tout n ≥ 0, on a kFn (A)k ≤ CΩ e N K(Ω), où la constante CΩ ne dépend que de Ω. Remarquons que si Ω est le disque unité, alors on obtient le théorème (1.2.5) car Fn (A) = An . La preuve de ce théorème se base sur les trois lemmes suivants. Pour plus de détails, voir [31]. Lemme 2.3.3. Soit f une fonction analytique sur Ωc . Pour tout r > 1, on a Z Z 02 0 ψ f (ψ)|dw| ≤ Z wψ 02 (w)f 0 (ψ(w)) 00 ψ f (ψ)|dw|, Tr Tr Tr où h(w) := arg |h0 |ψ 0 f (ψ)|dw| + . Lemme 2.3.4. Soit R une fonction rationnelle d’ordre (N − 1, N ) qui n’a pas de pôles dans Ωc . Alors Z |h0 (w)||dw| ≤ (4N + 1)V, ∀r > 1, Tr où h(w) := arg wψ 02 (w)R0 (ψ(w)) et V est la variation totale de Γ. Lemme 2.3.5. Pour tout r > 1, on a Z Tr ψ 00 (w) |dw| ≤ 2V 0 ψ (w) π 1 + sinh−1 ( r+1 ) . r−1 Démonstration du théorème 2.3.2. Le nième polynôme de Faber de la matrice A est donné par la formule suivante Fn (A) = 1 2πi Z wn ψ(w)I − A −1 0 ψ (w)dw (r ≥ 1). Tr Ceci implique que, pour tout u, v ∈ CN tel que kuk = kvk = 1, 1 v Fn (A) u = 2πi ∗ où R(z) := v ∗ zI − A −1 Z wn R ψ(w) ψ 0 (w)dw (r ≥ 1), Tr u est une fonction rationnelle d’ordre (N − 1, N ) et elle a des pôles seulement à l’intérieur de Ω. On obtient donc par intégration par partie 2πi v ∗ Fn (A) u = 24 −1 n+1 Z Tr wn+1 i d h R ψ(w) ψ 0 (w) dw, dw et ceci impique que n+1 2π v ∗ Fn (A) u ≤ r Z n+1 02 0 ψ R (ψ)|dw| + Z 00 ψ R(ψ)|dw| . Tr Tr En appliquant le lemme 2.3.3, on obtient 2π v ∗ Fn (A) u ≤ ≤ 00 rn+1 ψ R(ψ)|dw| |h0 |ψ 0 R(ψ)|dw| + 2 n + 1 Tr Tr Z Z rn+1 |ψ 00 | |h0 ||dw| + 2 |dw| , R(ψ)ψ 0 0 n+1 Tr Tr Tr |ψ | Z Z où h(w) := arg wψ 02 (w)R0 (ψ(w)) . D’autre part, pour tout w ∈ Tr , on a R(ψ(w))ψ 0 (w) ≤ K(Ω) r−1 . Il suit donc que 2π v ∗ Fn (A) u ≤ On prend ainsi r = 1 + 1 n K(Ω)rn+1 (n + 1)(r − 1) Z |h0 ||dw| + 2 Tr Z Tr |ψ 00 | |dw| . |ψ 0 | et on applique les lemmes 2.3.4 et 2.3.5 qui donnent les inégalités suivantes 1 V (4N + 1) + ≤ K(Ω)e 2π π V ≤ K(Ω)e 4N + 1 + αn , 2π ∗ v Fn (A) u Z 1 |w|=1+ n |ψ 00 | |dw| |ψ 0 | où αn := 2 π Z 1 |w|=1+ n 4 |ψ 00 | |dw| ≤ 1 + sinh−1 (2n + 1) . 0 |ψ | π Puisque Γ est de classe C 2 , alors α := supn≥1 αn est fini et on déduit donc que kFn (A)k ≤ CΩ e N K(Ω), avec CΩ := V h 1 + αi 4+ . 2π N Le théorème suivant donne une généralisation du théorème matriciel de Kreiss pour les opérateurs linéaires bornés sur un espace de Hilbert de dimension finie ou infinie. Théorème 2.3.6. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Supposons que A est un opérateur linéaire borné sur un espace de Hilbert tel que σ(A) ⊂ Ω et K(Ω) < ∞. Alors, pour tout n ≥ 0, on a kFn (A)k ≤ e (n + 1) K(Ω), (2.6) Inversement, si supn≥0 kFn (A)k < ∞, alors σ(A) ⊂ Ω, la constante K(Ω) est finie et on a K(Ω) ≤ sup kFn (A)k. (2.7) n≥0 25 Démonstration. En appliquant la preuve du théorème 2.3.1 à la formule 1 Fn (A) = 2πi Z −1 wn ψ 0 (w) ψ(w)I − A dw (r > 1), Tr on obtient l’inégalité (2.6). Supposons maintenant que supn≥0 kFn (A)k < ∞. On prouve que σ(A) ⊂ Ω par contraduction. Supposons qu’il existe λ ∈ σ(A) ∩ Ωc . Nous avons d’une part, sup |Fn (λ)| ≤ sup kFn (A)k < ∞. n≥0 n≥0 D’autre part, on a 1 lim |Fn (λ)| n = |φ(λ)|, n→∞ voir [25]. Ceci implque que supn≥0 kFn (A)k = ∞ puisque |φ(λ)| > 1. D’où la contraduction et par conséquent σ(A) ⊂ Ω. En utilisant le corollaire 2.1.3, on peut écrire (zI − A)−1 = ∞ X φ0 (z) Fn (A), φ(z)n+1 n=0 (z ∈ Ωc ). Par la suite, (zI − A)−1 ≤ sup kFn (A)k n≥0 = sup kFn (A)k n≥0 ∞ X |φ0 (z)| |φ(z)|n+1 n=0 |φ0 (z)| . |φ(z)| − 1 On conclut donc que K(Ω) ≤ supn≥0 kFn (A)k. 2.3.2 Généralisation aux fonctions holomorphes On présente dans cette section une généralisation du théorème matriciel de Kreiss pour les fonctions holomorphes. On rappelle qu’une matrice ou un opérateur linéaire borné A satisfait la condition de Kreiss pour le disque unité D s’il existe une constante C > 0 tel que −1 I − λA ≤ C 1 − |λ| pour tout λ ∈ D. Théorème 2.3.7. (Vitse [34]) Soit A une matrice de CN ×N qui satisfait la condition de Kreiss avec une constante C > 0, et soit f ∈ A(D). Alors kf (A)k ≤ 26 16 C N kf kD . π Ce théorème peut être démontrer de deux façons, voir [34]. La première est difficile à généraliser pour des domaines plus généraux. La deuxième est basée sur une formule de représentation intégrale qui peut être appliquée aux opérateurs plus généraux ayant le spectre dans un domaine plus général Ω et satisfaisant la condition généralisée de Kreiss. Cette démonstration est une conséquence des trois lemmes suivants. Lemme 2.3.8. Soit T un opérateur borné sur un espace de Banach tel que σ(T ) ⊂ D. Pour tout f ∈ A(D), on a 1 f (T ) = π ZZ 1 − |z|2 I − zT −1 00 z 2 f dxdy. D Démonstration. En utilisant les séries f (z) = P∞ k=0 ak z k et I − zT −1 = P∞ k=0 z nT k , on obtient −1 2 00 1 z f dxdy 1 − |z|2 I − zT π D X X Z Z ∞ ∞ 1 1 2π n −inθ n k ikθ 2 r e T ak (k + 2)(k + 1)r e rdrdθ (1 − r ) π 0 0 n=0 k=0 ZZ = = 2 Z 1X ∞ 0 = 2 ak (k + 2)(k + 1)T k (1 − r2 )r2k+1 dr k=0 ∞ X ak (k + 2)(k + 1)T k = (1 − r2 )r2k+1 dr 0 k=0 ∞ X Z 1 ak T k = f (T ). k=0 On note par H∞ l’espace des fonctions analytiques bornées sur D et par B11 A l’espace analytique de Besov défini par B11 A := f ∈ A(D) : kf kB1 A := 1 1 π ZZ 2 00 z f dxdy < ∞ . D Pour plus d’information sur les espaces de Banach H∞ et B11 A, voir [39]. Le lemme suivant est une conséquence du célèbre théorème de G. Pick [12, section IV.1]. Le degré d’une fonction rationnelle r = p q est défini par deg(r) = max deg(p), deg(q) . Lemme 2.3.9. Soit f ∈ H∞ et B un produit fini de Blashke. Il existe une unique fonction n rationnelle r0 telle que r0 − f ∈ BH∞ , deg(r0 ) < deg(B) et kr0 k∞ := inf kf + Bhk∞ : h ∈ o H∞ = dist f, BH∞ ≤ kf k∞ . En fait r0 = λB1 , où |λ| = dist f, BH∞ et B1 est un produit de Blashke avec deg(B1 ) < deg(B). Le lemme suivant compare les normes des fonctions rationnelles dans les espaces H∞ et B11 A. 27 Lemme 2.3.10. Soit r une fonction rationnelle telle que deg(r) ≤ n. Alors krkB1 A ≤ 1 8 (n + 1)krk∞ . π Pour une démonstration du lemme précédent, voir [34]. Démonstration du théorème 2.3.7. En utilisant le lemme 2.3.8, on obtient f (A) = ≤ ZZ 1 −1 2 00 2 z f dxdy 1 − |z| I − zA π D ZZ −1 1 2 00 sup 1 − |z|2 I − zA z f dxdy π z∈D D = 2Ckf kB1 A . 1 On note par B le produit fini de Blashke défini par Y |λ| λ − z d(λ) B(z) := λ 1 − λz λ∈σ(A) , où d(λ) dénote la multiplicité de λ. D’après le lemme 2.3.9, il existe une fonction rationnelle r0 telle que r0 − f ∈ BH∞ , kr0 k∞ = dist f, BH∞ et deg(r0 ) < deg(B) = N . Il suit que r0 (A) = f (A). Il en résulte donc du lemme 2.3.10 ce qui suit, f (A) = r0 (A) ≤ ≤ ≤ 2C r0 B1 A 1 16 16 CN r0 ∞ = CN f H∞ /BH∞ π π 16 CN kf k∞ . π Le théorème 2.3.7 généralise le théorème matriciel de Kreiss aux fonctions holomorphes sur le disque unité. Il est intéressant de l’étendre à un domaine compact de complémentaire simplement connexe Ω. Il paraît possible de le faire en généralisant la démonstration précédente, mais l’absence des informations précises du domaine Ω comparativement au disque unité rend la tâche plus difficile. Pour appliquer les mêmes techniques, on a besoin de regarder de nouveau les trois lemmes précédents en remplaçant le disque unité par le domaine Ω et de savoir comment on peut sortir avec des résultats équivalents. La démonstration du théorème 2.3.2 permet de réduire un peu la difficulté de ce problème puisqu’elle généralise le théorème matriciel de Kreiss aux polynômes de Faber en utilisant les propriétés de Ω. Le problème qui se pose à ce niveau est de savoir plus d’informations sur la frontière ∂Ω. Soit p un polynôme de degré n. Soit A ∈ CN ×N telle que σ(A) ⊂ Ω et K(Ω) < ∞. Il est intéressant de trouver une borne supérieure de p(A) indépendante de n. La matrice p(A) peut être représentée par la formule suivante p(A) = n X k=0 28 ak 1 2πi Z Γr φ(z)k (zI − A)−1 dz, (2.8) où ak := φ0 (z) 1 R 2πi Γr φ(z)k+1 p(z)dz, k = 0, · · · , n, sont les coefficients de Faber associés à p. Si on applique les mêmes techniques utilisées dans la démonstration du théorème 2.3.2, pourait-on trouver une borne supérieure de p(A) indépendante de n ? Cette question s’est averée un peu délicate à résoudre. On a essayé autrement en appliquant le résultat du théorème 2.3.2 à la formule (2.8). Ceci nous a donné l’inégalité suivante p(A) ≤ CΩ e N K(Ω) |||pe|||, (2.9) où pe(w) := F −1 (p)(w) = n X ak wk et |||pe||| := k=0 n X |ak |. k=0 Existe-t-il une borne supérieure de |||pe||| indépendante de n ? Cette question a resté aussi difficile à countourner. En utilisant la transformation de Faber et le théorème 2.3.7, on a réussi à généraliser le théorème matriciel de Kreiss aux fonctions holomorphes sur le domaine Ω. Certaines conditions devraient cependant être vérifiées. Si par exemple Ω est un disque quelconque du plan, alors on obtient le résultat suivant. Théorème 2.3.11. On suppose que D est un disque fermé de C et soit A une matrice N × N sur C telle que σ(A) ⊂ D et K(D) < ∞. Alors pour toute fonction f ∈ A(D), on a kf (A)k ≤ 16 K(D) N kf kD . π Démonstration. Soit z0 ∈ C et R > 0 tel que D = z ∈ C : |z − z0 | ≤ R . On a donc φ(z) = 1 (z − z0 ), R ψ(w) = Rw + z0 et Fn (z) = R−n (z − z0 )n , c pour tout z ∈ Ωc , w ∈ D et n ≥ 0. Remarquons que φ et ψ sont aussi des transformations conformes entre D et D. Ainsi, pour tout |w| > 1, −1 wI − φ(A) −1 0 φ ψ(w) RK(D) φ ψ(w) − 1 = R ψ(w)I − A ≤ = K(D) . |w| − 1 En appliquant le théorème 2.3.7, on trouve 16 e K(D) N kfekD , f φ(A) ≤ π ∀fe ∈ A(D). (2.10) 29 En définissant f := fe ◦ φ, on a kfekD = sup |fe(w)| w∈D = sup |fe ◦ ψ(w)| w∈D = sup |f (z)| = kf kD . z∈D On trouve donc le résultat de l’inégalité 2.10. Supposons maintenant que Ω est un domaine simplement connexe et compact. Le théorème de Riemann implique qu’il existe une transformation conforme g : Ω → D. Une généralisation de la démonstration précédente pour le domaine Ω demande plus d’information sur les transformations conformes g. Si on suppose par exemple l’hypothèse suivante ∃C > 0 où Rψ(w) (z) := ψ(w)−z −1 F R R (T ) g(T ) ≤ C , ψ(w) ψ(w) tel que −1 (2.11) avec z ∈ int(Ω) et |w| > 1, on peut étendre le théorème précédent au domaine Ω. Théorème 2.3.12. Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Soit A une matrice N × N sur C telle que σ(A) ⊂ Ω et K(Ω) < ∞. On suppose qu’il existe une transformation conforme g : Ω → D vérifiant l’hypothèse (2.11). Alors, pour tout f ∈ A(Ω), on a kf (A)k ≤ 16 CΩ K(Ω) N kf kΩ , π où la constante CΩ ne dépend que de Ω. Démonstration. On a pour tout z ∈ Ωc , Rz (ζ) := z − ζ −1 ∞ X φ0 (z) Fn (ζ), φ(z)n+1 n=0 = (ζ ∈ Ω). Par conséquent, F −1 Rz g(ζ) ∞ X = n φ0 (z) g(ζ) n+1 φ(z) n=0 = φ0 (z) . φ(z) − g(ζ) Il en résulte donc pour w = φ(z), −1 w − g(ζ) 30 = ψ 0 (w)F −1 Rψ(w) g(ζ) . L’hypothèse (2.11) entraîne alors −1 = w − g(A) |ψ 0 (w)|F −1 Rψ(w) g(A) ≤ |ψ 0 (w)|C Rψ(w) (A) ≤ CK(Ω) . |w| − 1 Ceci implique que g(A) vérifie la condition de Kreiss et puisque σ g(A) ⊂ D, on déduit du théorème 2.3.7 16 e C K(Ω) N fe∞ , f g(A) ≤ π fe ∈ A(D) où tel que f = fe ◦ g. On déduit que f (A) ≤ 16 C K(Ω) N fe = 16 C K(Ω) N kf kΩ , D π π où CΩ est la constante C définie par l’hypothèse (2.11). On termine ce chapitre par une généralisation du théorème matriciel de Kreiss pour les fonctions de Markov tout en ajoutant l’hypothèse de symétrie de Ω. Une fonction f est dite de Markov si elle peut se représenter sous la forme suivante f (z) := Z β dµ(x) α z−x , (2.12) où µ est une mesure positive dont le support supp(µ) ⊂ [α, β] et −∞ ≤ α < β < ∞. Par exemple, la fonction f (z) := log(1 + z) = z Z −1 −1 ( x )dx −∞ z−x est une fonction de Markov. La fonction g(z) := log(1 + z) = zf (z) est aussi une simple transformation d’une fonction de Markov. Pour plus de détails sur les fonctions de Markov, voir [4]. En s’inspirant de la démonstration du théorème 6.1(a) de [4], on a pu obtenir une majoration intéressante (2.13) des coefficients de Faber. En combinant ceci avec le théorème 2.3.6 on obtient le théorème suivant. On rappelle que, d’après le théorème de Riemann [11], il existe une unique transformation conforme φ de Ωc vers Dc normalisée par φ(∞) = ∞ et φ0 (∞) > 0. Théorème 2.3.13. Soit Ω un domaine compact symétrique dont le complémentaire est simplement connexe. Supposons que A est un opérateur linéaire borné sur un espace de Hilbert tel que σ(A) ⊂ Ω et K(Ω) < ∞. Soit f une fonction de Markov définie par (2.12) telle que −∞ ≤ α < β < minz∈Ω Re(z). Alors, on a kf (A)k ≤ e CΩ (f ) K(Ω)kf kΩ , où CΩ (f ) = 1 (1−η)2 et η = supx∈[α,β] 1 |φ(x)| . 31 Démonstration. La série de Faber de f est définie par f (A) = ∞ X an Fn (A), n=0 où an sont les coefficients de Faber. En utilisant le théorème de Fubini et la formule intégrale de Cauchy, on trouve an = − Z β α φ0 (x) dµ(x) φ(x)n+1 (n ≥ 0). Puisque Ω est un domaine symétrique, alors on obtient, pour tout n ≥ 0, |an | = Z β α où η = supx∈[α,β] 1 |φ(x)| . |φ0 (x)| dµ ≤ η n |a0 |, |φ(x)|n+1 (2.13) Comme β < minz∈Ω Re(z), alors on déduit que η ∈ (0, 1). En utilisant maintenant le fait que |a0 | ≤ kf kΩ et le théorème 2.3.6, on conclut que kf (A)k ≤ ∞ X |an |Fn (A) n=0 ≤ e K(Ω)kf kΩ ∞ X (n + 1)η n n=0 ≤ e CΩ (f ) K(Ω)kf kΩ , où CΩ (f ) = 1 . (1−η)2 Remarquons que l’inégalité (2.13) joue un rôle essentiel dans la démonstration du théorème précédent. Si on arrive à majorer les coefficients de Faber dans l’inégalité (2.9) de telle sorte qu’on obtient une borne supérieure de |||pe||| indépendante de n, alors on peut généraliser le théorème matriciel de Kreiss aux fonctions holomorphes sur un domaine plus général avec une autre façon. Les chapitres qui suivent discutent le comportement d’une matrice en utilisant d’autres techniques du pseudospectre. 32 Chapitre 3 Pseudospectre identique Selon Trefethen et Embree [32, §47], on dit que deux matrices A et B ont le même comportement si σ(A) = σ(B) et pour toute fonction f analytique sur un voisinage du spectre, on a kf (A)k = kf (B)k. La matrice f (A), ou bien de façon équivalente f (B), est déterminée par la résolvante zI − A −1 de A comme elle montre la formule suivante 1 f (A) = 2πi Z zI − A −1 f (z)dz, (3.1) Γ où Γ est un contour fermé entourant σ(A). Dans le cas où la norme zI −A −1 est connue, la formule (3.1) permet de donner seulement des majorants de la norme kf (A)k, mais ils ne sont pas en général optimaux. L’exemple le plus connu et le plus réputé de cette majoration est le théorème matriciel de Kreiss qui a été discuté aux deux premiers chapitres. On dit que A et B ont des pseudospectres identiques si σ (A) = σ (B) pour tout > 0. Ceci est équivalent à −1 −1 zI − A = zI − B (i) (z ∈ C). (3.2) Est-ce qu’on peut conclure de la condition (3.2) que les matrices A et B ont le même comportement ? (ii) Pourrait-on aller plus loin pour conclure que A et B sont unitairement équivalentes ? Notre objectif à travers ces deux questions est de déterminer le comportement d’une matrice lorsqu’on connaît la valeur exacte de la norme de la résolvante. Ceci est un peu différent bien sûr du théorème matriciel de Kreiss qui donne une borne supérieure de la norme kf (A)k en fonction de celle de la norme de la résolvante. La réponse à ces deux questions est positive si N = 1, 2. Cependant, pour N ≥ 3, la réponse 33 à la deuxième question est négative et on peut voir ça dans l’exemple suivant. Les matrices 1 0 0 A= 0 1 0 0 0 0 1 0 0 et B = 0 0 0 0 0 0 ont des pseudospectres identiques, mais ils n’ont pas le même rang. On verra dans ce qui suit une étude détaillée de la première question. 3.1 Pseudospectre identique et le comportement d’une matrice On note bien que si A et B sont des matrices ayant le même comportement, alors elles ont des pseudospectres identiques, voir [13]. Dans cette section, on présentera une étude détaillée de la réciproque de cette implication. 3.1.1 Puissance d’une matrice Soit A et B deux matrices N × N sur C ayant des pseudospectres identiques. Pouvons-nous conclure que An = B n pour tout n ≥ 1 ? Le théorème suivant donne une réponse au cas n = 1. Théorème 3.1.1. [22, Théorème 2.1] Soit A et B deux matrices N × N sur C satisfaisant (3.2). Alors 1 kAk ≤ ≤ 2. 2 kBk Démonstration. On rappelle que le rayon numérique µ et la norme euclidienne k · k sont deux normes équivalentes (voir [14, 24] pour plus de détails) et on a 1 kT k ≤ µ(T ) ≤ kT k, 2 (3.3) pour tout opérateur borné T . On rappelle aussi que µ(T ) peut être donné par la formule suivante µ(T ) = lim sup s→0 kI + sT k − 1 . |s| (3.4) Puisque A et B vérifient l’égalité (3.2), on déduit de (3.4) que µ(A) = µ(B). Le résultat découle donc de l’inégalité (3.3). Greenbaum et Trefethen [13] ont construit un exemple d’une paire de matrices A et B satisfaisant (3.2) mais kAk = 6 kBk. Le théorème suivant est une généralisation de leurs constructions qui montre en outre que la constante 2 apparaissant au théorème précédent est optimale. 34 Théorème 3.1.2. (Ransford [22]) Pour tout N ≥ 7, il existe des matrices A et B appartenant à CN ×N et satisfaisant (3.2) tels que kAk = 1 kBk = 2 cos et π . N −1 Pour une démonstration de ce théorème, voir [22]. Ce théorème a donné une réponse négative à notre question de départ (i). Toutefois, on peut la remplacer par la question suivante : Y a An t-il des bornes pour n similaires aux bornes données par le théorème 3.1.1 pour n ≥ 2 ? Si B c’est le cas, alors on peut dire que le pseudospectre détermine la norme des puissances à un facteur constant près. Cependant, le théorème suivant répond négativement à cette question. Une suite αk , finie ou infinie, est dite sous-multiplicative si αk+l ≤ αk αl pour tout k, l pour lesquelles l’inégalité est définie. Théorème 3.1.3. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N satisfaisant (3.2) tels que k A = αk et k B = βk (k = 2, 3, · · · , n). On peut prendre N = 2n + 3. La démonstration de ce théorème est basée sur la construction d’une matrice de translation pondérée. Cette matrice est également utile pour les preuves des théorèmes qui suivent. On va la présenter de façon facile qui nous permet de l’exploiter prochainement. Pour w1 , · · · , wn > 0, on définit la matrice de translation pondérée par S(w1 , · · · , wn ) := 0 w1 0 ... 0 0 .. . 0 .. . w2 w1 .. . ... .. . 0 .. . 0 0 0 ... wn wn−1 0 0 0 ... 0 Lemme 3.1.4. Soit w1 , · · · , wn une suite sous-multiplicative et positive. Pour S := S(w1 , · · · , wn ), on a k S = wk (k = 1, · · · , n) et 1+ n X −1 1 max wk |z|k ≤ I − zS wk |z|k ≤1+ 2 1≤k≤n k=1 (z ∈ C). (3.5) 35 Démonstration. Pour tout k = 1, · · · , n, il existe une matrice de permutation cyclique Q telle que S k Q = diag wk , wk+1 wn ,··· , , 0, · · · , 0 . w1 wn−k Puisque la suite w1 , · · · , wn est sous-multiplicative et positive, alors on aura n o k S Q = max wk , wk+1 , · · · , wn , 0, · · · , 0 = wk . w1 wn−k Comme kQk = Q−1 = 1, alors on déduit que S k = wk . Pour la deuxième partie du lemme, on remarque que −1 = I − zS X n n X X n k k k k |z|k wk |z| S ≤ 1 + z S ≤ (z ∈ C). k=1 k=0 k=0 Pour la borne inférieure, on fixe tout d’abord k ∈ {1, · · · , n} et z ∈ C. Soit Q la matrice de permutation qui échange les colonnes 2 et k + 1. Soit P la matrice diagonale P := diag(1, eiθ , 0, · · · , 0) avec θ = − arg z k . On a P Q I − zS −1 1 |z|k wk QP = 0 ! ⊕ O, 1 où ⊕ désigne la somme directe des matrices par blocs et O dénote la matrice nulle. Par conséquent, −1 I − zS ≥ ! 1 |z|k wk 0 1 ⊕ O. (3.6) En conjuguant avec la matrice de permutation qui échange les deux premières colonnes, on trouve 1 |z|k wk 0 1 ! ⊕ O = 1 0 ! |z|k wk 1 ⊕ O. (3.7) En prenant les moyennes de (3.6) et (3.7), il s’ensuit que −1 I − zS ≥ 1 1 k 2 |z| wk 1 k 2 |z| wk 1 ! ⊕ O. Puisque la norme euclidienne k · k est supérieure ou égale au rayon spectral, on obtient −1 I − zS ≥ρ 1 1 k 2 |z| wk 1 k 2 |z| wk 1 ! ! ⊕O 1 = 1 + |z|k wk . 2 Le résultat est obtenu donc en prenant le maximum pour k allant de 1 à n. 36 Démonstration du théorème 3.1.3. Choisissons α1 et β1 assez grands de telle sorte que les suites α1 , · · · , αn et β1 , · · · , βn soient sous-multiplicatives. Soit γ et Γ deux nombres positifs tels que Γ ≥ γ. Définissons ensuite les matrices suivantes A0 := S(α1 , · · · , αn ), B0 := S(β1 , · · · , βn ) et C0 := S Γ, γ 2 , γ 3 , · · · , γ n+1 . Définissons alors les matrices A et B sur C(2n+3)×(2n+3) par A := A0 ⊕ C0 et B := B0 ⊕ C0 . On va choisir dans la suite de cette preuve les nombres γ et Γ qui donnent des matrices A et B avec des pseudospectres identiques et qui satisfassent Ak = αk et B k = βk . Choisissons tout d’abord γ > 0 assez petit tel que γ k < min αk , βk pour k = 2, 3, · · · , n. On a donc k A = max Ak , C k = max αk , γ k = αk 0 0 et de la même façon B k = βk pour k = 2, · · · , n. On rappelle que A et B ont des pseudospectres identiques si et seulement si −1 −1 I − zA = I − zB (z ∈ C). On a −1 −1 −1 I − zA = max I − zA0 , I − zC0 , et −1 −1 −1 I − zB = max I − zB0 , I − zC0 . Il suffit donc de choisir Γ > 0 tel que −1 −1 I − zC0 ≥ I − zA0 et I − zC0 −1 −1 ≥ I − zB0 (z ∈ C). Par le lemme 3.1.4, on peut obtenir les inégalités précédentes si max Γt γ n+1 tn+1 2 , 2 ≥ n X αk t k et max k=1 Γt γ n+1 tn+1 2 , 2 ≥ n X βk tk (t ≥ 0). k=1 Il existe t0 := t0 α1 , · · · , αn , β1 , · · · , βn , γ tel que n X γ n+1 tn+1 ≥ αk tk 2 k=1 et n X γ n+1 tn+1 ≥ βk tk 2 k=1 (t ≥ t0 ). 37 Ainsi, pour compléter la construction, on choisit Γ > 0 assez grand tel que n Γt X ≥ αk t k 2 k=1 n Γt X ≥ βk tk 2 k=1 et (0 ≤ t ≤ t0 ). Le théorème précédent montre que les matrices peuvent avoir des pseudospectres identiques bien que leurs puissances supérieures ou égales à 2 ont des normes complètement indépendantes les unes des autres. Les matrices qui sont construites dans la preuve de ce théorème sont nilpotentes. La question qui se pose à ce niveau est de savoir comment les résultats changent si on considère des matrices plus générales. Est-ce que le pseudospectre par exemple dans ce cas va déterminer la norme des puissances d’une matrice diagonalisable ? Rappelons qu’une matrice est dite diagonasable si elle est semblable à une matrice diagonale. La combinaison de la construction du théorème précédent avec un argument de perturbation permettra d’obtenir le contre exemple énoncé dans le théorème qui suit. Théorème 3.1.5. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives positives et > 0. Alors il existe N ≥ 1 et des matrices diagonalisables A, B ∈ CN ×N qui satisfassent (3.2) tels que αk − < Ak < αk + βk − < B k < βk + et (k = 2, 3, · · · , n). (3.8) L’idée de base pour démontrer ce théorème est de perturber la construction de la preuve du théorème 3.1.3. On va avoir besoin au début les deux lemmes suivants. Lemme 3.1.6. Soit V et W deux matrices sur C telles que V est inversible et kV − W k < 1 . 2V −1 Alors W est inversible aussi et on a 2 −1 V − W −1 ≤ 2V −1 V − W . Démonstration. On a I − V −1 W ≤ V −1 kV − W k ≤ 1 2. Par conséquent, V −1 W est inversible, et donc W l’est aussi. D’autre part, on a −1 V − W −1 = V −1 (W − V )W −1 ≤ V −1 kV − W kW −1 . 1 , 2 V −1 Puisque kV − W k < (3.9) alors V −1 − W −1 < 12 W −1 . Il suit donc que −1 W ≤ W −1 − V −1 + V −1 1 W −1 + V −1 . ≤ 2 Ceci est équivalent à −1 W ≤ 2V −1 . 38 (3.10) Le résultat découle donc de (3.9) et (3.10). Lemme 3.1.7. Pour tout V ∈ CN ×N , on a adj(V ) − (−V )N −1 ≤ 2N ρ(V )kV kN −2 , où adj(V ) dénote la matrice des cofacteurs de V et ρ(V ) dénote le rayon spectral de V . Démonstration. Puisque les matrices inversibles sont denses dans CN ×N , alors il suffit de montrer cette inégalité pour les matrices inversibles. Soit p le polynôme caractéristique de V . QN Comme p(z) := écrire p(z) = k=1 (z k k=1 ak z , PN aN = 1, − λk ), où λ1 , · · · , λN sont les valeurs propres de V , alors on peut avec a0 = (−1)N det(V ) et |ak | ≤ ! N ρ(V )N −k k (k = 0, · · · , N ). (3.11) D’après le théorème de Cayley-Hamilton, on a p(V ) = 0. Celà implique que, en multipliant par V −1 , on aura a0 V −1 + aN V N −1 = − N −1 X ak V k−1 . k=1 Il suit donc de (3.11) que −1 NX (−1)N det(V )V −1 + V N −1 ≤ N k k=1 ! ρ(V )N −k kV kk−1 . Comme det(V )V −1 = adj(V ) et ρ(V ) ≤ kV k, on déduit donc que (−1)N adj(V ) + V N −1 ≤ N −1 X k=1 N N k ! ρ(V )kV kN −k−1 kV kk−1 . ≤ 2 ρ(V )kV kN −2 . Démonstration du théorème 3.1.5. Définissons les matrices A0 , B0 et C0 de la même façon que dans la démonstration du théorème 3.1.3. Le choix de γ est le même que précédemment. Cependant, le choix de Γ est un peu différent et doit satisfaire Γ ≥ γ, n Γt X ≥ αk tk + 2t 2 k=1 et n Γt X 1 ≥ βk tk + 2t (0 ≤ t ≤ ). 2 γ k=1 (3.12) La prochaine étape est de perturber A0 , B0 et C0 de façon à obtenir des matrices diagonalisables. Soit ζ1 , · · · , ζn des nombres complexes distincts de modules égales à 1/2 et définissons les matrices D := diag(ζ1 , · · · , ζn+1 ) et D0 := diag(ζ1 , · · · , ζn+1 , 0). 39 Par la suite, pour tout δ > 0, on définit Aδ := A0 + δD, Bδ := B0 + δD et Cδ := C0 + δD0 . Puisque chacune des matrices Aδ , Bδ et Cδ a des valeurs propres distinctes, alors les matrices Aδ ⊕ Cδ et Bδ ⊕ Cδ sont diagonalisables. Si δ > 0 est choisi assez petit, alors par continuité, on a (Aδ ⊕ Cδ )k − αk < et (Bδ ⊕ Cδ )k − βk < (k = 2, · · · , n). On montre ensuite, en réduisant δ si nécessaire, on a −1 −1 ≥ Aδ − zI Cδ − zI et Cδ − zI −1 −1 ≥ Bδ − zI (|z| ≥ γ). (3.13) À partir du lemme 3.1.4, on a n X −1 −1 1 I − wC − I − wA ≥ (1 + Γ|w|) − 1 + |αk ||w|k 0 0 2 (w ∈ C). k=1 Il suit du choix de Γ défini dans (3.12) que −1 −1 I − wC0 − I − wA0 ≥ 2|w| (|w| ≤ 1 ). γ On applique à ce niveau le lemme 3.1.6 avec V = I − wA0 et W = I − wAδ . Si δ|w|kDk ≤ 1/ 2(I − wA0 )−1 , alors 2 −1 −1 − I − wA0 ≤ 2(I − wA0 )−1 δ|w|kDk. I − wAδ Il s’ensuit que si on choisit δ assez petit que l’on veut, alors −1 −1 − I − wA0 ≤ |w| I − wAδ (|w| ≤ 1 ). γ (|w| ≤ 1 ). γ De la même façon, si δ assez petit, alors −1 −1 − I − wC0 I − wCδ ≤ |w| Si on met toutes ces conditions ensembles, alors on obtient l’inégalité suivante pour δ suffisamment petit −1 −1 I − wCδ ≥ I − wAδ (|w| ≤ 1 ), γ et l’équation (3.13) découle donc pour A. Bien évidemment. le même argument est valide aussi pour B. L’étape suivante consiste à montrer que si on réduit δ encore un peu plus, on peut donc assurer que −1 −1 Cδ − zI ≥ Aδ − zI 40 et Cδ − zI −1 −1 ≥ Bδ − zI (|z| ≤ δ). (3.14) Pour ce faire, on utilise le lemme 3.1.7 avec V = Aδ − zI. Puisque V est de dimension (n + 1) × (n + 1), on obtient adj(Aδ − zI) − (zI − Aδ )n ≤ 2n+1 ρ(Aδ − zI)kAδ − zIkn−1 . Puisque σ(Aδ − zI) = σ(δD − zI), alors ρ(Aδ − zI) = ρ(δD − zI) ≤ kδD − zIk ≤ δ + |z|. Il suit donc que adj(Aδ − zI) − (zI − Aδ )n ≤ 2n+1 (δ + |z|)kAδ − zIkn−1 . On note aussi que sup (zI − Aδ )n − (−A0 )n = O(δ) (δ → 0). |z|≤δ Par conséquent, il existe une constante K, indépendante de z et δ, telle que adj(Aδ − zI) − (−A0 )n ≤ Kδ (|z| ≤ δ). De la même façon, comme Cδ est une matrice (n + 2) × (n + 2), il existe une constante K 0 telle que adj(Cδ − zI) − (−C0 )n+1 ≤ K 0 δ (|z| ≤ δ). Puisque An0 6= 0 et C0n+1 6= 0, on déduit donc, pour δ suffisamment petit, que adj(Cδ − zI) ≥ 1 C n+1 0 2 et adj(Aδ − zI) ≤ 2An0 (|z| ≤ δ). On a adj(Cδ − zI) = det(Cδ − zI)(Cδ − zI)−1 , adj(Aδ − zI) = det(Aδ − zI)(Aδ − zI)−1 et det(Cδ − zI) det(δD0 − zI) = = −z. det(Aδ − zI) det(δD − zI) En combinant tous ces facteurs, on obtient pour δ suffisamment petit (Cδ − zI)−1 1 C0n+1 1 C0n+1 ≥ ≥ (Aδ − zI)−1 |z| 4An0 δ 4An0 (|z| ≤ δ). De cette façon, si δ est choisi suffisamment petit, alors l’équation 3.14 tient pour A. Le même argument s’applique aussi pour B. On fixe maintenant δ > 0 de façon à ce que (3.13) et (3.14) tiennent. Pour récapituler, si 41 on définit A := Aδ ⊕ Cδ et B := Bδ ⊕ Cδ , alors A et B sont des matrices diagonalisables satisfaisant (3.8) et (A − zI)−1 = (B − zI)−1 (z ∈ Q), où Q est l’anneau {z ∈ C : δ < |z| < γ}. On traite dans ce qui suit le cas où z ∈ Q. On définit L par n o L := max sup (A − zI)−1 , sup (B − zI)−1 . z∈Q z∈Q On couvre ainsi Q par un nombre fini des disques de rayons 1/L et de centres µ1 , · · · , µm appartenants à Q. On a donc, pour E := diag(µ1 , · · · , µm ), (E − zI)−1 ≥ (A − zI)−1 et (E − zI)−1 ≥ (B − zI)−1 (z ∈ Q). e := B ⊕ E respectivement, De cette façon, si on remplace A et B par Ae := A ⊕ E et B e sont alors ils vont avoir des pseudospectres identiques. Bien évidemment, les matrices Ae et B diagonalisables. Enfin, comme µ1 , · · · , µm ∈ Q, on obtient E k ≤ γ k min(αk , βk ) pour tout k = 2, · · · , n et (3.8) reste encore valide. 3.1.2 Fonction holomorphe d’une matrice On rappelle que l’objectif principal de ce chapitre est de savoir si le pseudospectre détermine le comportement d’une matrice ou non. Plus précisément, soit A et B deux matrices nonnormales de CN ×N , pour N ≥ 1, qui ont des pseudospectres identiques. Est-ce qu’on peut conclure que f (A) = f (B) pour toute fonction f holomorphe sur un voisinage du spectre de A ou B ? Ou tout au moins, existe-t-il une constante M = M (f, N ) tel que f (A) ≤ M f (B) ? Dans le cadre de cette thèse, on va montrer un résultat plus général qui répond négativement à cette dernière question. On généralise aussi le théorème 3.1.1 affirmant que le pseudospectre détermine la norme d’une matrice à un facteur constant près. Ces résultats ont été publiés dans [23]. On rappelle qu’une fonction f complexe est dite une transformation de Möbius si elle est définie par f (z) := az + b cz + d (z ∈ C), où a, b, c, d sont des nombres complexes tels que ad − bc 6= 0. Toute transformation de Möbius peut être décomposée en une composée de transformations des trois types suivants 42 . f1 (z) = z + . f2 (z) = . f3 (z) = d c (Translation) 1 (Inversion) z bc−ad z + ac (Similitude). c2 Soit f une fonction holomorphe sur un domaine D de C, et telle que sa dérivée f 0 ne s’annule pas sur D. La dérivée schwarzienne de f , qu’on note S(f ), est définie par S(f ) := f 00 0 1 f 00 2 f0 2 f0 000 f 3 f 00 2 − . f0 2 f0 = − On vérifié à l’aide d’un calcul direct que cette dérivée satisfait la relation S(1/f ) = S(f ). Ceci permet de définir la dérivée schwarzienne d’une fonction méromorphe au voisinage d’un pôle simple. La proposition suivante montre que les transformations de Möbius sont caractérisées par une dérivée schwarzienne nulle. Proposition 3.1.8. Une fonction méromorphe f est une transformation de Möbius si et seulement si S(f ) = 0. Démonstration. On suppose que S(f ) = 0 et on pose y = f 00 /f 0 . On obtient donc l’équation différentielle y 0 −(1/2)y 2 = 0. Les solutions de cette équation sont données par y = −2/(z+c1 ), où c1 est une constante. En revenant à la fonction f , on aura f 00 = −2 0 f. z + c1 Ce qui entraîne que f 0 (z) = c2 (z + c1 )2 et alors f (z) = c3 z + c1 − c2 , z + c1 où c2 et c3 sont des constantes. D’où f est une transformation de Möbius. Réciproquement, si on considère une transformation de Möbius f (z) = (az + b)/(cz + d), avec ad − bc 6= 0, alors on obtient par un calcul direct que S(f ) = 0. Pour plus d’information sur les transformations de Möbius et leurs diverses applications, on peut consulter par exemple [5]. Le théorème suivant généralise le théorème 3.1.1 pour les transformations de Möbius. Théorème 3.1.9. (Ransford et Raouafi [23]) Soit A et B deux matrices N × N sur C ayant des pseudospectres identiques. Alors pour toute transformation de Möbius f holomorphe sur un voisinage du spectre de A ou de B, on a f (A) ≤ M f (B), où M = √ 5+ 33 2 ≈ 5, 3723. 43 Notons toutefois qu’on n’a pas jusqu’à présent d’exemple qui prouve que cette constante est optimale. Démonstration. Après une transformation affine de la variable, trois cas sont à considérer. Cas 1 : f (z) = 1/z. En utilisant la condition (3.2), on obtient f (A) = A−1 = B −1 = f (B). Cas 2 : f (z) = z. En utilisant le théorème 3.1.1, on aura f (A) = kAk ≤ 2kBk = 2f (B). Cas 3 : f (z) = 1 − 1/z. On a f (A) I − A−1 = . f (B) I − B −1 On estime maintenant cette quantité en fonction de t := I − B −1 . D’une part, on a I − A−1 ≤ 1 + A−1 = 1 + B −1 ≤ 2 + I − B −1 . Il en résulte donc f (A) 2 ≤ + 1. f (B) t (3.15) D’autre part, l’utilisation du 2ième cas, nous donne I − A−1 = (A − I)A−1 ≤ kA − IkA−1 ≤ 2kB − IkB −1 , et par la suite f (A) ≤ 2kBkB −1 . f (B) Si t < 1, alors B = I − (I − B −1 ) −1 P∞ − B −1 )k et par conséquent kBk ≤ P∞ k k=1 t = −1 −1 1 ≤ 1 + B − I = 1 + t. Il en résulte donc, pour t < 1, que 1−t . On a aussi B f (A) 1+t ≤2 . (3.16) f (B) 1−t = k=1 (I En combinant (3.15) et (3.16), on conclut que n2 f (A) 1 + to ≤ sup min + 1, 2 . f (B) t 1−t 0<t<1 44 Un calcul élémentaire montre que cette borne supérieure est égale à (5 + √ 33)/2, d’où le résultat. On a montré dans la section précédente que, pour tout N ≥ 7, il existe des matrices A, B ∈ CN ×N qui ont des pseudospectres identiques mais An et B n sont complètement indépendantes pour tout 2 ≤ n ≤ n> N −3 2 N −3 2 . Le résultat qu’on a montré ne répond pas au cas qui est plus intéressant dans les applications. Est-il possible de le démontrer pour ce dernier cas ? Le pseudospectre est aussi utilisé pour étudier les exponentiels. Existe-t-il une constante M > 0 telle que pour toutes matrices A, B ∈ CN ×N ayant des pseudospectres identiques, on a A e ≤ M eB ? Le théorème suivant donne un résultat plus général qui répond négativement à ces questions. Théorème 3.1.10. (Ransford et Raouafi [23]) Soit f une fonction holomorphe sur un domaine Ω. Supposons que f n’est ni constante ni une transformation de Möbius. Pour tout N ≥ 6 et M > 1, il existe des matrices A, B ∈ CN ×N avec des spectres dans Ω telles que −1 −1 zI − A = zI − B (z ∈ C), et f (A) > M f (B). (3.17) Avant d’arriver à démontrer ce théorème on a besoin des résultats suivants. Dans ce qui suit, on note S := S(1, 1, · · · , 1) la matrice de translation à gauche sur CN . Un raisonnement semblable à celui de la démonstration de l’inégalité (3.5) du lemme 3.1.4 conduit à l’inégalité suivante. N −1 N −1 X X 1 k 1+ max |αk | ≤ I + α S ≤ 1 + |αk |, k 2 1≤k≤N −1 k=1 k=1 (3.18) où α1 , · · · , αN −1 sont des nombres complexes quelconques. Le lemme suivant est la clé de construction des matrices satisfaisant les conditions du théorème 3.1.10. Cette technique est aussi intéressante dans la construction des matrices avec des pseudospectres identiques. Lemme 3.1.11. Supposons que N = 4. Soit α, β, γ ∈ C avec |α| > 1 et C une matrice 4 × 4 donnée par C := αS + βS 2 + γS 3 . Alors 1 (I − zC)−1 ≥ 1 + 1 |α|2 |z| min |η|, |η| 2 4 où η = (z ∈ C), β 2 −αγ . α4 45 Démonstration. Un calcul direct montre que (I − zC)−1 = I + αzS + (α2 z 2 + βz)S 2 + (α3 z 3 + 2αβz 2 + γz)S 3 . Il suit donc de l’inégalité (3.18) que 1 max |α2 z 2 + βz|, |α3 z 3 + 2αβz 2 + γz| 2 1 2 = 1 + |α| |z| max |w|, |α||w2 − η| , 2 (I − zC)−1 ≥ 1+ avec w := z + β/α2 et η := (β 2 − αγ)/α4 . 1 Si |w| < 12 |η| 2 , alors |α||w2 − η| ≥ |w2 − η| ≥ 21 |η|. Par conséquent, max |w|, |α||w2 − η| ≥ 1 1 min |η|, |η| 2 , 2 pour tout w ∈ C. Démonstration du théorème 3.1.10. Puisque f n’est pas constante, les zéros de f et f 0 sont isolés. Aussi, comme f n’est pas une transformation de Möbius, alors, d’après la proposition 3.1.8, sa dérivée schwarzienne S(f ) n’est pas identiquement nulle, et par suite les zéros de S(f ) sont aussi isolés. Il existe donc w ∈ Ω pour lequel on a simultanément f (w) 6= 0, f 0 (w) 6= 0, et S(f )(w) 6= 0. Définissons maintenant fe au voisinage de 0 par fe(z) := f (w+λz)/f (w), avec λ = f (w)/f 0 (w). La fonction fe satisfait fe(0) = fe0 (0) = 1 et S(fe)(0) 6= 0. Si on peut trouver des matrices e satisfaisant la conclusion du théorème pour fe, alors en prenant A := nilpotentes Ae et B e + wI, on obtient des matrices qui satisfont la conclusion pour la fonction λAe + wI et B := λB f . On peut supposer donc dans ce qui suit que 0 ∈ Ω et que f (0) = f 0 (0) = 1 et S(f )(0) 6= 0. Autrement dit, f (z) = 1 + z + a2 z 2 + a3 z 3 + O(z 4 ), avec a3 − a22 6= 0. Soit C ∈ C4×4 la matrice définie dans le lemme 3.1.11. Alors, puisque C 4 = O, on a f (C) = I + C + a2 C 2 + a3 C 3 = I + αS + (a2 α2 + β)S 2 + (a3 α3 + 2a2 αβ + γ)S 3 . Soit α := t > 1, un paramètre à choisir plus tard, et soient β et γ des paramètres choisis de façon à annuler les coefficients de S 2 et S 3 sus-cités, notamment β := −a2 t2 et γ := (2a22 − a3 )t3 . On a donc f (C) = I + tS, et par conséquent, f (C) ≤ 1 + t. 46 (3.19) À partir du lemme 3.1.11, on a aussi (I − zC)−1 ≥ 1 + t2 µ|z| où µ := 1 4 (z ∈ C), (3.20) min |a3 − a22 |, |a3 − a22 |1/2 . On note que µ > 0 car a3 − a22 6= 0. Supposons tout d’abord que N = 6. Définissons A := A0 ⊕ C et B := B0 ⊕ C, où A0 et B0 sont des matrices 2 × 2 données par A0 = t2 µS et B0 = O. On dénote par S ici la matrice de translation sur C2 . Il est clair que A et B ont tous les deux des spectres égaux à {0}. On montre par la suite que A et B ont des pseudospectres identiques. On a (I − zA0 )−1 = kI + zt2 µSk ≤ 1 + t2 µ|z|, (I − zB0 )−1 = kIk = 1 (z ∈ C). Il résulte donc, en utilisant (3.20), que (I − zC)−1 ≥ (I − zA0 )−1 et (I − zC)−1 ≥ (I − zB0 )−1 (z ∈ C). Ceci implque que (I − zA)−1 = (I − zC)−1 = (I − zB)−1 (z ∈ C). Après ceci, on montre que A et B satisfont (3.17). D’une part, on a f (A) = max f (A0 ), f (C) ≥ f (A0 ) = kI + t2 µSk ≥ 1 + 1 t2 µ. 2 D’autre part, en utilisant (3.19), on aura f (B) = max f (B0 ), f (C) ≤ max{kIk, 1 + t} = 1 + t. On conclut donc que f (A) 1 + t2 µ/2 1 ≥ ≥ µt, f (B) 1+t 4 et par conséquent, l’inégalité (3.17) suit en choisissant t > 4M/µ. Enfin, si N > 6, alors on prend la somme directe des matrices A et B obtenues ci-dessus avec la matrice nulle de dimension (N − 6) × (N − 6). 47 3.2 Normes plus générales Bien que la norme euclidienne soit sans doute le cas le plus important, il y a des cas où la considération des pseudospectres définis par rapport à d’autres normes serait plus approprié. 3.2.1 Normes admissibles Nous débutons cette section par l’étude de la norme matricielle 1 qui est défini par kAk1 := sup|x|1 =1 |Ax|1 , où |x|1 := PN est la norme 1 sur CN . Plusieurs exemples y ont été k=1 |xk | donnés à [32, §56, §57]. En raison du théorème ci-dessous, il n’existe pas d’exemples similaires à celui du théorème 3.1.2 pour cette norme. Théorème 3.2.1. [21, Théorème 1.5] Soit N ≥ 1 et A, B ∈ CN ×N des matrices satisfaisant −1 −1 zI − A = zI − B 1 (z ∈ C). 1 Alors kAk1 = kBk1 . Est-ce qu’on peut déduire aussi que An 1 = B n 1 , pour tout n ≥ 2 ? Pourrions nous aller plus loin pour conclure que f (A)1 = f (B)1 , pour toute fonction f holomorphe sur un voisinage du spectre de A ou de B ? Une autre fois encore, la réponse est non, et non pas seulement pour la norme k · k1 , mais aussi pour une grande variété des normes. Pour clarifier ceci, commençons par introduire la famille des normes ci-après. Une norme k · k sur CN ×N est dite admissible si elle satisfait les trois propriétés suivantes : (i) kABk ≤ kAkkBk pour tout A, B ∈ CN ×N et kIk = 1. Autrement dit k · k est une norme d’algèbre, (ii) kQk = 1 pour toute matrice de permutation Q, (iii) kA ⊕ Bk = max kA ⊕ Ok, kO ⊕ Bk pour toute matrice par bloc A ⊕ B. n o Par exemple, si 1 ≤ p < ∞ et | · |p est la norme p sur CN , donnée par |x|p := P N p k=1 |xk | 1 p , alors la norme matricielle associée kAkp := sup|x|p =1 |Ax|p sur CN ×N est admissible. La proposition suivante résume quelques propriétés de bases des normes admissibles qui seront utiles dans la suite de cette section. Proposition 3.2.2. Soit k · k une norme admissible sur CN ×N . (a) Si D = diag(α1 , · · · , αN ), alors kDk = max |α1 |, · · · , |αN | . (b) Si S est la matrice de translation sur CN , alors S k = 1 pour tout k = 0, 1, · · · , N − 1. 48 Démonstration. (a) Soit J = diag(1, 0, · · · , 0). En utilisant les propriétés (i) et (iii) de la définition des normes admissibles, on obtient kJk ≤ kIk = 1. D’autre part, puisque J = J 2 , on a kJk ≤ kJk2 et alors kJk ≥ 1. Il suit donc que kJk = 1. Par linéarité, on déduit donc que diag(α1 , 0, · · · , 0) = |α1 |. Le cas général suit par induction sur le nombre des αk non-nuls. (b) Soit Q une permutation matricielle cyclique de dimension N × N telle que S k Q = diag(1, · · · , 1, 0, · · · , 0), donc S k Q = 1. Comme kQk = kQ−1 k = 1, alors on déduit le résultat. Partant de ces propriétés de base, les preuves des lemmes 3.1.4 et 3.1.11 et les théorèmes 3.1.3 et 3.1.10 restent valides peu importe la norme admissible choisie. On obtient de cette façon les généralisations suivantes des théorèmes 3.1.3 et 3.1.10. Théorème 3.2.3. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N telles que, pour toute norme admissible k · k sur CN ×N , on a −1 −1 zI − A = zI − B (z ∈ C). et k A = αk et k B = βk (k = 2, 3, · · · , n). On peut prendre N = 2n + 3. Théorème 3.2.4. (Ransford et Raouafi [23]) Soit f une fonction holomorphe sur un domaine Ω. Supposons que f n’est ni constante ni une transformation de Möbius. Pour tout N ≥ 6 et M > 1, il existe des matrices A, B ∈ CN ×N avec des spectres dans Ω telles que, pour toute norme admissible k · k sur CN ×N , on a −1 −1 zI − A = zI − B (z ∈ C), et f (A) > M f (B). Focalisons nous présentement sur le théorème 3.1.9 et essayons de comprendre comment il fonctionne si on utilise une norme admissible quelconque. Une examination de sa preuve montre qu’il utilise très peu le fait que les matrices N × N forment une algèbre de Banach. La seule exception est le théorème 3.1.1 dont la preuve dépend de l’image numérique des opérateurs d’un espace de Hilbert. Ceci peut être remplacée par le résultat suivant qui est lui aussi un sous-produit de la théorie de l’image numérique dans les algèbres de Banach. 49 Lemme 3.2.5. Soit A, k · k une algèbre de Banach unitaire. Soit a et b des éléments de A tels que (a − z1)−1 = (b − z1)−1 (z ∈ C). (3.21) Alors kak ≤ ekbk. Démonstration. Soit r > kbk et n > ζ → 1− a −n , nζ kak r . En intégrant la série de Taylor associée à la fonction on trouve la représentation intégrale suivante a= 1 2πi Z 1− |ζ|=r a −n dζ. nζ Par conséquent, kak ≤ r sup 1 − |ζ|=r a −1 b −1 kbk −n n n . = r sup 1 − ≤r 1− nζ nζ nr |ζ|=r En laissant r → kbk et n → ∞, il s’ensuit que kak ≤ ekbk. En substituant le théorème 3.1.1 par le lemme 3.2.5 dans la preuve du théorème 3.1.9, on obtient le résultat suivant. Théorème 3.2.6. (Ransford et Raouafi [23]) Soit A, k · k une algèbre de Banach unitaire. Soit a et b des éléments de A satisfaisant (3.21). Alors, pour toute transformation de Möbius f holomorphe sur un voisinage du spectre de a ou de b, on a f (a) ≤ M f (b), √ où M := 3.2.2 e+3+ (e+1)(e+9) 2 ≈ 6, 1596. Norme de Hilbert-Schmidt Le but de cette section est de montrer qu’il y a au moins une norme bien connue sur CN ×N dont le pseudospectre détermine le comportement d’une matrice. C’est la norme de HilbertSchmidt qui est définie par la formule suivante kAkHS := tr(A∗ A) = N X s2k , k=1 où tr(A) dénote le trace de la matrice A ∈ CN ×N et s1 , · · · , sN sont les valeurs singulières de A. On note bien que cette norme n’est pas admissible. En fait, elle ne satisfait aucune des trois propriétés des normes admissibles. 50 Théorème 3.2.7. (Greenbaum et Trefethen [13]) Soit A et B des matrices N × N sur C tel que −1 zI − A HS = zI − B −1 (z ∈ C). HS (3.22) Alors, pour tout polynôme p, p(A) HS = p(B)HS . Démonstration. En posant ζ = z1 , on déduit que (3.22) est équivalent à h i h i tr (I − ζA∗ )−1 (I − ζA)−1 = tr (I − ζB ∗ )−1 (I − ζB)−1 . Il existe donc r > 0 tel que X k tr A∗k Al ζ ζ l = X k,l≥0 k tr B ∗k B l ζ ζ l ∂ k ∂ l ∂ζ ∂ζ On prend ensuite la dérivée des deux côtés et on pose ζ = 0 pour obtenir tr A∗k Al = tr B ∗k B l Par conséquent, pour tout polynôme p(z) := p(A) HS (|ζ| < r). k,l≥0 := tr p(A)∗ p(A) = = Pn (k, l ≥ 0). j=0 aj z n X k,l=0 n X j, on a ak al tr A∗k Al ak al tr B ∗k B l k,l=0 = tr p(B)∗ p(B) = p(B)HS . Ce théorème montre que le pseudospectre détermine le comportement d’une matrice par rapport à la norme de Hilbert-Schmidt. Vue que la norme euclidienne est plus utile pour la plupart des applications, il est intéressant d’ajouter d’autres conditions pour obtenir un résultat semblable au théorème précédent pour la norme euclidienne. On rappelle que des matrices ayant des pseudospectres identiques par rapport à la norme euclidienne si et seulement si leurs résolvantes ont la même valeur singulière minimale. Autrement dit, on ne s’intéresse qu’à la valeur singulière minimale. Par contre pour la norme de Hilbert-Schmidt, on voit la présence de tout les valeurs singulières. Il est donc raisonnable d’utiliser les autres valeurs singulières et d’étudier les résultats qu’on peut tirer au niveau du comportement d’une matrice. Cette proposition sera étudiée en détail dans le chapitre suivant. 51 Chapitre 4 Pseudospectre super-identique On a vu dans le chapitre précédent que le pseudospectre ne permet pas de déterminer le comportement d’une matrice. Il y a des parties d’une matrice qui peuvent cacher d’autres de telle manière à ne pas être détectées en utilisant la norme de la résolvante. Le but de ce chapitre est d’étudier le comportement des matrices en utilisant les valeurs singulières. On va se baser essentiellement sur les travaux de [9, 21, 22]. 4.1 Définitions et propriétés On rappelle que des matrices A, B ∈ CN ×N ont des pseudospectres identiques si et seulement si la condition suivante est validée, sN (zI − A) = sN (zI − B) (z ∈ C). Cette condition ne permet pas de détecter tous les blocs d’une matrice. Cependant, si on impose la même condition pour les autres valeurs singulières, alors tous les blocs seront détectés. Définition 4.1.1. On dit que des matrices A, B ∈ CN ×N ont des pseudospectres superidentiques si sk (zI − A) = sk (zI − B) (z ∈ C, k = 1, · · · , N ). (4.1) Dans cette section, on présente quelques reformulations de la condition (4.1) qui seront utiles pour la suite. Proposition 4.1.2. [9, Proposition 2.2] Soit A, B ∈ CN ×N . Les assertions suivantes sont équivalentes. (i) (ii) (iii) A et B ont des pseudospectres super-identiques tr tr h ik h ik (A − zI)(A∗ − zI) (A−zI)(A∗ −zI) = tr = tr h h ik (B − zI)(B ∗ − zI) (B−zI)(B ∗ −zI) ik pour tout z ∈ C et k ≥ 1. pour tout z ∈ C et k = 1, · · · , N . 53 Démonstration. À partir de la définition des valeurs singulières, on peut conclure que l’asserh i h i tion (i) est équivalent à σ (A − zI)(A∗ − zI) = σ (B − zI)(B ∗ − zI) . Il devient clair donc que l’assertion (i) implique l’assertion (ii) qui implique à son tour l’assertion (iii). Soit maintenant C, D ∈ CN ×N tels que tr C k = tr Dk polynôme caractéristique de C est donné par det(tI − C) = pour k = 1, · · · , N . Alors le PN k N −k k=0 (−1) ak t où a0 = 1. En se basant sur l’identité de Newton (voir [15]), on peut conclure que kak = k−1 X aj tr C k−j (k = 1, · · · , N ). j=0 De la même façon, on obtient la même formule pour le polynôme caractéristique de D et alors σ(C) = σ(D). En prenant C := (zI − A)(zI − A)∗ et D := (zI − B)(zI − B)∗ , on peut déduire donc à partir de ce qui précède que (iii) implique (i). Le résultat suivant est une conséquence directe de la proposition précédente. Il montre une condition équivalente à (4.1) pour un ensemble fini des nombres complexes z. n o Corollaire 4.1.3. [9, Corollaire 2.3] Soit F := rp eiθq : p, q = 0, 1, · · · , N , où 0 < θ0 < · · · < θN < π et 0 < r0 < · · · < rN . On suppose que A, B ∈ CN ×N satisfassent sk (zI − A) = sk (zI − B) (z ∈ F, k = 1, · · · , N ). Alors A et B ont des pseudospectres super-identiques. Démonstration. Les polynômes pk (z) := tr h (zI − A)(zI − A)∗ ik h − tr (zI − B)(zI − B)∗ ik (k = 1, · · · , N ), vérifient la relation pk (z) = pk (z). Donc si z0 est une racine de pk , alors z0 est aussi une racine. Par hypothèse, ces polynômes s’annulent sur F et cela implique qu’ils sont identiquement nuls. Le résultat découle donc des assertions de la proposition 4.1.2. Dans le reste de la section, on présente d’autres conditions équivalentes à la condition (4.1) en utilisant les coefficients des polynômes apparaissant à la démonstration précédente. Définition 4.1.4. Soit X, Y ∈ CN ×N . Pour i, j, k ≥ 0, on définit les coefficients fijk (X, Y ) par l’identité suivante tr h ik (I + ξX)(I + ηY ) = X fijk (X, Y )ξ i η j . i,j On note que fijk = 0 si i ou j sont strictement supérieurs à k. 54 (4.2) Proposition 4.1.5. [9, Proposition 2.5] Soit A, B ∈ CN ×N . Les assertions suivantes sont équivalentes. (i) A et B ont des pseudospectres super-identiques, (ii) fijk A, A∗ = fijk B, B ∗ pour tout i, j, k ≥ 0, (iii) fijk A, A∗ = fijk B, B ∗ pour tout i, j = 0, 1, · · · , k et k = 1, · · · , N . Démonstration. Remarquons tout d’abord que tr h (zI − A)(zI − A)∗ ik h = tr (zI − B)(zI − B)∗ ik (z ∈ C) si et seulement si tr h ik ∗ (I + ξA)(I + ξA ) = tr h ∗ ik (I + ξB)(I + ξB ) (ξ ∈ C). Ceci est équivalent à X j fijk (A, A∗ )ξ i ξ = i,j X fijk (B, B ∗ )ξ i ξ j (ξ ∈ C). i,j Ce qui est équivalent à fijk (A, A∗ ) = fijk (B, B ∗ ) (i, j = 0, · · · , k). Le résultat découle donc de la proposition 4.1.2. Soit X, Y ∈ CN ×N . On note par C[X, Y ] l’algèbre des polynômes en X et Y . Un élément de cette algèbre est une somme finie P w∈W Cw w, où W est l’ensemble de tous les monômes en X et Y et les coefficients Cw sont des nombres complexes. Pour des éléments w ∈ W et v ∈ W \{1}, on note par dv (w) le nombre de fois où le terme v apparaît dans w. Définition 4.1.6. Soit X, Y ∈ CN ×N . Pour i, j, l ≥ 0, on définit les scalaires polynômiaux gijl (X, Y ) par gijl (X, Y ) := Xn o tr w(X, Y ) : w ∈ W, dx (w) = i, dy (w) = j, dxy (w) = l . On note aussi que les scalaires gijl sont nuls si i ou j sont inférieurs strictement à l. Proposition 4.1.7. [9, Théorème 2.7] Pour tout i, j, k ≥ 0, on a fijk (X, Y ) := X k+l l≥0 i+j ! gijl (X, Y ). Aussi, pour tout i, j, l ≥ 0, on a gijl (X, Y ) := X i+j+k+l (−1) k≥0 i+j+1 k+l+1 ! fijk (X, Y ). 55 Pour la démonstration de cette proposition, voir [9, Théorème 2.7]. À partir de cette proposition, on peut déduire le corollaire suivant. Corollaire 4.1.8. [9, Corollaire 2.10] Soit A, B ∈ CN ×N . Les assertions suivantes sont équivalentes. (i) A et B ont des pseudospectres super-identiques, gijl A, A∗ = gijl B, B ∗ pour tout i, j, l ≥ 0, (ii) (iii) gijl A, A∗ = gijl B, B ∗ pour tout i, j = l, · · · , N et l = 1, · · · , N . 4.2 Pseudospectre super-identique et le comportement d’une matrice Dans cette section, on va traiter les mêmes questions posées au chapitre 3 en utilisant la condition de pseudospectre super-identique. 4.2.1 Comportement d’une matrice Le résultat suivant est une conséquence directe du théorème 3.2.7 du chapitre précédent. Il montre que les matrices ayant des pseudospectres super-identiques doivent avoir le même comportement dans le sens faible suivant. Théorème 4.2.1. (Ransford [21]) Soit N ≥ 1. On suppose que les matrices A, B ∈ CN ×N ont des pseudospectres super-identiques. Alors, pour tout polynôme p, on a p(A) √ 1 ≤ N. √ ≤ p(B) N Démonstration. D’après le théorème 3.2.7, on a N X k=1 s2k p(A) = N X s2k p(B) . k=1 Par conséquent, N N X X 2 2 p(A)2 = s2 p(A) ≤ s p(A) = s2k p(B) ≤ N s21 p(B) = N p(B) . 1 k k=1 (4.3) k=1 De la même façon, on prouve aussi la première inégalité. Il est intéressant de savoir si ces bornes peuvent être indépendantes de N . Plus précisement, √ est-il possible de remplacer N par une constante M indépendante de N ? Cette question est encore ouverte. Une étude plus précise des valeurs singulières pourrait réduire l’inégalité (4.3) de telle sorte de trouver un majorant indépendant de N . Toutefois, le théorème suivant nous exige de garder toutes les valeurs singulières. 56 Théorème 4.2.2. (Ransford [21]) Soit n ≥ 2 et m ≥ 1. Soit α2 , · · · , αn et β2 , · · · , βn des suites sous-multiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N telles que sk (zI − A) = sk (zI − B) (z ∈ C, k = 1, · · · , m). (4.4) et k A = αk et k B = βk (k = 2, 3, · · · , n). On peut prendre N = (m + 1)(n + 2) − 1. La démonstration de ce théorème est semblable à la démonstration du théorème 3.1.3 du chapitre précédent. Pour plus de détails, voir [21, Théorème 1.4]. Reprenons le théorème 4.2.1, on verra dans ce qui suit qu’on ne peut pas remplacer la constante √ N par 1 pour N ≥ 4. On a besoin de l’identité de Frobenius [10] pour montrer ce résultat et pour traîter le cas N = 3. Soit X1 , · · · , Xm ∈ CN ×N et σ ∈ Sm une permutation donnée par le produit de cycles disjoints suivant σ := (a1 · · · ai )(b1 · · · bj ) · · · (c1 · · · ck ). On définit trσ (X1 , · · · , Xm ) := tr(Xa1 · · · Xai ) tr(Xb1 · · · Xbj ) · · · tr(Xc1 · · · Xck ). Théorème 4.2.3. (Identité de Frobenius) Soit X1 , · · · , XN +1 ∈ CN ×N . Alors X (σ) trσ (X1 , · · · , XN +1 ) = 0, σ∈SN +1 où (σ) est la signature de σ. Pour une démonstration de cette identité, voir par exemple [22]. Une application de la proposition 4.1.2 et l’identité de Frobenius permet de donner une caractérisation simple des matrices 3 × 3 qui ont des pseudospectres super-identiques. Proposition 4.2.4. [22, Théorème 4.2] Deux matrices A et B de C3×3 ont des pseudospectres super-identiques si et seulement si ( tr Ai = tr B i tr Ai A∗j = tr i = 1, 2, 3 B i B ∗j 1 ≤ i ≤ j ≤ 2. (4.5) 57 Démonstration. Le corollaire 4.1.8 implique que ces conditions sont nécéssaires. Pour satisfaire la condition suffisante, on a besoin de montrer que les matrices (zI − A)(zI − A)∗ et (zI − B)(zI − B)∗ ont les mêmes valeurs propres pour tout z ∈ C. À partir de la proposition 4.1.2, il suffit de prouver que tr tr (A − zI)(A∗ − zI) i2 h det (A − zI)(A∗ − zI) (A − zI)(A∗ − zI) = tr = tr h = det (B − zI)(B ∗ − zI) i2 (B − zI)(B ∗ − zI) (B − zI)(B ∗ − zI) . Ces équations découlent d’un calcul direct moyennant l’utilisation de (4.5). La seule difficulté pour conclure la deuxième équation réside dans la démonstration de tr AA∗ AA∗ = tr BB ∗ BB ∗ . Pour ce faire, on applique l’identité de Frobenius en posant X1 = X2 = A et X3 = X4 = A∗ . On aura donc 4 tr AA∗ AA∗ + 2 tr A2 A∗2 + 4 tr(A) tr AA∗2 + 4 tr A∗ tr A2 A∗ + tr A2 tr A∗2 + 2 tr2 AA∗ + tr2 (A) tr A∗2 + tr A2 tr2 A∗ + tr2 (A) tr2 A∗ + 4 tr(A) tr A∗ tr AA∗ = 0. De la même façon, on trouve la même équation pour la matrice B, et on obtient donc tr AA∗ AA∗ = tr BB ∗ BB ∗ . Une application directe de la proposition précédente donne le résultat suivant. Corollaire 4.2.5. [22, Corollaire 4.3] Soit A, B ∈ C3×3 des matrices avec des pseudospectres super-identiques. Alors, pour tous polynômes p, les matrices p(A) et p(B) ont des pseudos pectres super-identiques. En particulier p(A) = p(B). La proposition suivante traîte le cas des matrices 4 × 4. Proposition 4.2.6. [22, Théorème 4.4] Deux matrices A et B de C4×4 ont des pseudospectres super-identiques si et seulement si i i tr A = tr B tr Ai A∗j = tr B i B ∗j tr AA∗ 2 = tr BB ∗ 2 . i = 1, 2, 3, 4 1 ≤ i ≤ j ≤ 3. (4.6) Démonstration. Ceci est semblable à la démonstration de la proposition 4.2.4, voire un peu plus compliqué. Dans ce cas, on va avoir besoin d’utiliser trois fois l’identité de Frobenius, où (X1 , X2 , X3 , X4 , X5 ) = (A, A, A, A∗ , A∗ ), 58 (A, A, A∗ , A∗, AA∗ ) et (A, A, A, A∗ , A∗2 ). Il paraît qu’une application directe de cette proposition nous donne un résultat semblable au corollaire 4.2.5, mais en réalité l’égalité tr p(A)p(A)∗ p(A)p(A)∗ = tr p(B)p(B)∗ p(B)p(B)∗ n’est pas toujours valide. Par exemple, cette égalité n’est pas valide pour le polynôme p(z) = z 2 . En effet, on a le contre-exemple suivant. Théorème 4.2.7. (Fortier Bourque et Ransford [9]) Soit α, β ∈ (0, π4 ]. Alors les matrices 1 sec α 0 A= 0 0 0 0 sec β csc β 0 0 0 0 1 csc α 0 et 1 sec β 0 B= 0 0 0 0 0 sec α csc α 0 0 0 0 1 csc β 0 0 ont des pseudospectres super-identiques et A2 /B 2 = cos α/ cos β. Démonstration. On peut vérifier que A et B satisfassent (4.6). Ils ont donc des pseudospectres super-identiques. Un calcul direct donne aussi A2 = csc α sec β csc β et A2 = csc β sec α csc α, d’où le résultat. Si on prend β = π 4 et on fait tendre α vers 0, alors les matrices A et B ont des pseudospectres √ super-identiques mais A2 /B 2 → 2. Il s’agit de la plus grande constante qui a été trouvée jusqu’à présent. Est-t-elle la constante optimale ? Cette question est encore ouverte. 4.2.2 Équivalence unitaire Dans cette section, on examine jusqu’au quel point la condition de pseudospectre superidentique implique l’équivalence unitaire. Pour X, Y ∈ CN ×N , on note par CN [X, Y ] l’algèbre des polynômes de degrés (N, N ) en X et Y . On note aussi par FN la sous-algèbre de CN [X, Y ] engendrée par fijk : i, j, k ≥ 0 et par IN la sous-algèbre de CN [X, Y ] engendrée par tr w(X, Y ) : w ∈ W , où W est l’ensemble des monômes en X et Y . La proposition 4.1.5 et le théorème de Specht [27] entraîne la caractérisation suivante : (i) Deux matrices A, B ∈ CN ×N ont des pseudospectres super-identiques si et seulement si p(A, A∗ ) = p(B, B ∗ ) pour tout p ∈ FN . (ii) Deux matrices A, B ∈ CN ×N sont unitairement équivalentes si et seulement si p(A, A∗ ) = p(B, B ∗ ) pour tout p ∈ IN . La question principale traîtée dans cette thèse à propos de l’équivalence unitaire peut être donc traduite par la question suivante : Est-ce que FN = IN pour tout N ? Bien sûr, on a montré dans la section précédente que la réponse est négative pour N = 4. En prenant la somme direct de la matrice du théorème 4.1 avec une matrice nulle, on peut voir 59 que la réponse est aussi négative pour N ≥ 4. Il est clair qu’on a toujours FN ⊂ IN . On a l’égalité pour N = 2, mais l’inclusion est stricte pour N = 3, voir [9]. Avant de présenter le résultat principal de cette section, on a besoin de la proposition suivante. Proposition 4.2.8. Pour tout N ≥ 1, l’algèbre IN est algèbrique sur FN . Autrement dit, pour tout q ∈ IN , il existe p0 , · · · , pk ∈ FN avec p0 6= 0 tel que p0 q k + p1 q k−1 + · · · + pk = 0. Pour la démonstration et pour plus de détails, consulter [9, 22]. Théorème 4.2.9. (Fortier Bourque et Ransford [9]) Pour tout N ≥ 1, il existe p0 ∈ FN \{0} et un entier m ≥ 2 tels que si A1 , · · · , Am ∈ CN ×N ont des pseudospectres super-identiques et p0 Aj , A∗j 6= 0 pour tout j, alors il existe au moins deux matrices de A1 , · · · , Am unitairement équivalentes. Démonstration. Il est bien connu que IN est de type fini, voir [18] pour plus de détails. On note q1 , · · · , qr les générateurs de IN . La proposition 4.2.8 montre que chaque qi est algébrique sur FN . Il existe donc des polynômes pi0 , · · · , pimi ∈ FN avec pi0 6= 0 tels que pi0 qimi + pi1 qimi −1 + · · · + pimi = 0. Définissons p0 := p10 · · · pr0 et m := m1 · · · mr + 1. Il est clair que p0 ∈ FN \{0}. Soit maintenant A1 , · · · , Am ∈ CN ×N des matrices ayant des pseudospectres super-identiques telles que p0 Aj , A∗j 6= 0 pour tout j. On a donc, pour tout i et j, pi0 Aj , A∗j qimi Aj , A∗j + pi1 Aj , A∗j qimi −1 Aj , A∗j + · · · + pimi Aj , A∗j = 0. À partir de (i), on remarque que les coefficients pik Aj , A∗j sont indépendants de j et puisque p0 Aj , A∗j 6= 0, il suit que pi0 Aj , A∗j 6= 0 pour tout j. Donc les nombres qi A1 , A∗1 , · · · , qi Am , A∗m satisfont le même polynôme de degré mi . On note par Ri l’ensemble des racines de ce polynôme. Par conséquent, q1 Aj , A∗j , · · · , qr Aj , A∗j ∈ R1 × · · · × Rr (j = 1, · · · , m). Puisque le cardinal de R1 × · · · × Rr est au plus m1 · · · mr = m − 1, alors on déduit, via le principe des tiroirs, qu’il existe j, k ∈ {1, · · · , m} tel que q1 Aj , A∗j , · · · , qr Aj , A∗j = q1 Ak , A∗k , · · · , qr Ak , A∗k . Il suit donc que q Aj , A∗j = q Ak , A∗k pour tout q ∈ IN et le résultat découle donc de (ii). Si on définit E := n o A ∈ CN ×N : p0 A, A∗ = 0 , le théorème précédent est donc vrai si E = ∅. Si IN est intégral sur FN , c’est à dire p0 = 1, alors on a toujours E = ∅. Il a été démontré toutefois, dans [9, Théorème 4.12], que IN n’est pas intégral sur FN pour N ≥ 4. Le problème de savoir si on peut prendre E = ∅ reste donc ouvert. 60 Conclusion Le pseudospectre est un outil utile pour l’analyse des matrices non-normales. Il fournit des informations au-delà de celles fournies par l’analyse des valeurs propres. Le livre de Trefethen et Embree [32] donne une analyse détaillée de la théorie de pseudospectre, ainsi que de ses applications dans de nombreux domaines. Le but de cette thèse est d’étudier le comportement des matrices non-normales en utilisant le pseudospectre. Il est bien connu que le pseudospectre détermine la norme d’une matrice à un facteur constant près. Plus précisément, si A et B sont des matrices ayant des pseudospectres identiques, alors on a 1/2 ≤ kAk/kBk ≤ 2 et la constante 2 est optimale. On a réussi à démontrer que le pseudospectre détermine aussi la norme d’une transformation de Möbius d’une matrice à un facteur constant près. Plus √ √ précisément, on a démontré que 2/(5 + 33) ≤ f (A)/f (B) ≤ (5 + 33)/2 pour toute transformation de Möbius f holomporphe sur un voisinage du spectre de A et B. Cependant, √ la question de savoir si la constante (5 + 33)/2 est optimale est non encore résolue. Soit maintenant f une fonction holomorphe sur un voisinage du spectre d’une matrice nonnormale A. On a montré dans cette thèse que le pseudospectre ne détermine pas la norme f (A) lorsque f n’est ni une constante, ni une transformation de Möbius. Il y a des parties d’une matrice qui peuvent cacher d’autres de telle manière à ne pas être détectées par le pseudospectre. Toutefois, il serait intéressant de considérer la condition de pseudospectre super-identique proposée au [21]. Cette alternative permet de détecter tous les blocs d’une matrice et donc pourrait donner plus d’informations sur la norme f (A). En fait, on a √ √ toujours 1/ N ≤ f (A)/f (B) ≤ N pour tout A, B ∈ CN ×N vérifiant cette condition. √ La constante N est-elle optimale ? Cette question est encore ouverte. Une généralisation du théorème matriciel de Kreiss nous donne aussi des bornes supérieures de f (A) en fonction du pseudospectre. Dans le deuxième chapitre, on a présenté les généralisations obtenues pour les polynômes de Faber et pour les fonctions holomorphes sur le disque unité. La généralisation de ce théorème aux fonctions holomorphes sur un domaine Ω plus général requiert plus d’informations sur la frontière ∂Ω. On a réussi à étendre ce théorème aux fonctions holomorphes sur un disque quelconque du plan. Il est également possible de remplacer le disque par un domaine simplement connexe vérifiant la condition (2.11). La question de savoir si cette condition est valide est encore difficile à countourner. 61 En utilisant d’autres techniques, on a réussi à généraliser le théorème matriciel de Kreiss aux fonctions de Markov. La méthode qu’on a utilisé pourrait nous fournir une autre façon de généraliser le théorème à des fonctions holomorphes sur des domaines plus généraux. 62 Bibliographie [1] J. M. Anderson, The Faber operator, Lecture Notes in Mathematics, 1105 (1984), 1-10. [2] J. M. Anderson and J. Clunie, Isomorphisms of the disc algebra and inverse Faber sets, Math. Z. 188 (1985), p. 545-558. [3] S. Ya. Alper, On the uniform approximation to functions of a complex variable on closed domains, Izv. Akad. Nauk SSSR, Ser. Mat., 19 (1955), 423-444. [4] B. Beckermann and L. Reichel, Error estimates and evaluation of matrix functions via the Faber transform, SIAM J. Numer. Anal., 47 No. 5 (2009), 3849-3883. [5] A. F. Beardon, The geometry of discrete groups, Graduate Texts in Mathematics, vol. 91, Springer, New York, 1983. [6] J. B. Conway, Functions of one complex variable, second ed., Graduate Texts in Mathematics, vol. 11, Springer-Verlag, New York, 1978. [7] M. Crouzeix, Numerical range and functional calculus in Hilbert space, J. Funct. Anal., 244 (2007), 668-690. [8] E. B. Davies, Linear operators and their spectra, Cambridge University Press, New York, 2007. [9] M. Fortier Bourque and T. Ransford, Super-identical pseudospectra, J. London Math. Soc., 79 (2009), 511-528. [10] F. G. Frobenius, Über die primfactoren der gruppendeterminante, Sitz. Kön. Preuss. Akad. Wiss. Berlin, (1896), 1343-1382. [11] D. Gaier, Lectures on complex approximation, Birkhäuser, Boston, 1985. [12] J. B. Garnett, Bounded analytic functions, Academic Press, New York, 1981. [13] A. Greenbaum and L. N. Trefethen, Do the pseudospectra of a matrix determine its behavior ?, Technical Report TR 93-1371, Computer Science Department, Cornell University, 1993. 63 [14] K. E. Gustafson and D. K. M. Rao, Numerical range : the field of values of linear operators and matrices, Springer, New York, 1997. [15] D. Kalman, A matrix proof of Newton’s identities, Math. Mag., 73 (2000), 313-315. [16] H.-O. Kreiss, Über die stabilitätsdefinition für differenzengleichungen die partielle differentialgleichungen approximieren, BIT Numer. Math. 2 (1962), 153-181. [17] H. J. Landau, On Szego’s eigenvalue distribution theorem and non-hermitian kernels, J. Anal. Math. 28 (1975), 335-357. [18] C. Procesi, The invariant theory of n × n matrices, Adv. Math., 19 (1976) 306-381. [19] R. J. Leveque, L. N. Trefethen, On the resolvent condition in the Kreiss matrix theorem, BIT Numer. math. 24 (1984), 584-591. [20] T. Ransford, Potential theory in the complex plane, Cambridge University Press, Cambridge, 1995. [21] T. J. Ransford, On pseudospectra and power growth, SIAM J. Matrix Anal. Appl. 29 (2007) 699-711. [22] T. Ransford, Pseudospectra and matrix behaviour, Banach Algebras, 91 (2009), vol. 91, 327-338. [23] T. Ransford and S. Raouafi, Pseudospectra and holomorphic functions of matrices, Bull. London Math. Soc., 45 (4) (2013), 693-699. [24] S. Raouafi, Image numérique et le théorème de Crouzeix, Mémoire de maîtrise, Département de mathématiques et de statistique. Université Laval, 2010. [25] V. I. Smirnov and N. A. Lebedev, Functions of a complex variable : constructive theory, MIT Press, Cambridge, 1968. [26] J. C. Smith, An inequality for rational functions, Amer. Math. Monthly, 92 (1985), 740741. [27] W. Specht, Zur Theorie der Matrizen II, Jber. Deutsch. Math. Verein., 50 (1940), 19-23. [28] M. N. Spijker, On a conjecture by LeVeque and Trefethen related to the Kreiss matrix theorem, BIT Numer. Math. 31 (1991), 551-555. [29] M. H. Stone, Linear transformation in Hilbert space, Americal Mathematical Society, New York, 1932. [30] E.Tadmor, The equivalence of L2 -stability, the resolvent condition, and strict H-stability, Linear Algebra Appl., 41 (1981), 151-159. 64 [31] K.-C. Toh and L. N. Trefethen, The Kreiss matrix theorem on a general complex domain, SIAM J. Matrix Anal. Appl. 21, No. 1 (1999), 145-165. [32] L. N. Trefethen, M. Embree, Spectra and Pseudospectra, Princeton University Press, Princeton, 2005. [33] L. N. Trefethen, Pseudospectra of matrices, in Numerical Analysis, D. F. Griffiths and G. A. Watson, editors, (1991), 234-253. [34] P. Vitse, Functional calculus under Kreiss type conditions, Math. Nachr., 278 (2005), 1811-1822. [35] T. Kövari, and Ch. Pommerenke, On Faber polynomials and Faber expansions, Math. Z. 99 (1967), 193-206. [36] J. M. Varah, The computaion of bounds for the invariant subspaces of a general matrix operator, Doctoral Thesis, Computer Science Department. Stanford University, 1967. [37] J. M. Varah, On the separation of two matrices, SIAM J. Numer. Anal. 16, (1999), 216-222. [38] T. G. Wright, Algorithms and software for pseudospectra, Doctoral Thesis, Mathematical Institute. University of Oxford, 2002. [39] K. Zhu, Operator theory in function spaces, Marcel Dekker Inc., New York, 1990. 65