Pseudospectres identiques et super-identiques d

publicité
Pseudospectres identiques et super-identiques
d’une matrice
Thèse
Samir Raouafi
Doctorat en mathématiques
Philosophiæ doctor (Ph.D.)
Québec, Canada
© Samir Raouafi, 2014
Résumé
Le pseudospectre est un nouvel outil pour étudier les matrices et les opérateurs linéaires.
L’outil traditionnel est le spectre. Celui-ci peut révéler des informations sur le comportement
des matrices ou operateurs normaux. Cependant, il est moins informatif lorsque la matrice
ou l’opérateur est non-normal. Le pseudospectre s’est toutefois révélé être un outil puissant
pour les étudier. Il fournit une alternative analytique et graphique pour étudier ce type des
cas. Le but de cette thèse est d’étudier le comportement d’une matrice non-normale A en
se basant sur le pseudospectre. Il est bien connu que le théorème matriciel de Kreiss donne
des estimations des bornes supérieures de An et etA en fonction du pseudospectre. En
1999, Toh et Trefethen [31] ont généralisé ce célèbre théorème aux polynômes de Faber et aux
matrices ayant des spectres dans des domaines plus généraux. En 2005, Vitse [34] a donné une
généralisation du théorème aux fonctions holomorphes dans le disque unité. Dans cette thèse,
on généralise le théorème matriciel de Kreiss aux fonctions holomorphes et aux matrices ayant
des spectres dans des domaines plus généraux. Certaines conditions devraient cependant être
vérifiées.
L’étude du comportement d’une matrice au cas où la valeur exacte de la norme de la résolvante
est connue a été aussi remise en question. Il est bien connu que si A et B sont des matrices à
pseudospectres identiques, alors
1
kAk
≤
≤ 2.
2
kBk
(1)
Mais, qu’en est-il pour les puissances supérieures An /B n ?
En 2007, Ransford [21] a montré qu’il existe des matrices A, B ∈ CN ×N avec des pseudospectres identiques et où An et B n peuvent prendre des valeurs aléatoires et indépendantes
les unes des autres pour 2 ≤ n ≤ (N − 3)/2. Serait-il aussi le cas pour n assez grand ? Par
ailleurs, le pseudospectre est aussi utilisé pour étudier le semi-groupe etA , mais permet-il de
déterminer etA ?
Cette thèse répond à toutes ces questions en démontrant des résultats plus généraux. Elle généralise l’inégalité (1) aux transformations de Möbius. Elle montre aussi que la condition de
pseudospectre identique n’est pas suffisante pour déterminer le comportement d’une matrice.
Cependant, la condition de pseudospectre super-identique pourrait l’être.
iii
Abstract
The theory of pseudospectra is a new tool for studying matrices and linear operators. The
traditional tool is the spectrum. It reveals information on the behavior of normal matrices
or operators. However, it is less informative as the matrix or the operator are non-normal.
Pseudospectra have nevertheless proved to be a powerful tool to study them. They provide
an analytical and graphical alternative to study this type of case. The purpose of this thesis
is to study the behavior of a non-normal matrix A based on its pseudospectra. It is well
known that the Kreiss matrix theorem provides estimates of upper bounds of An and etA according pseudospectra. In 1999, Toh and Trefethen [31] generalized the celebrated theorem
to Faber polynomials and matrices with spectra in more general domains. In 2005, Vitse [34]
generalized the theorem for holomorphic functions in the unit disk. In this thesis, the Kreiss
matrix theorem is generalized to holomorphic functions and matrices with spectra in more
general domains. However, certain conditions should be imposed.
The behavior of a matrix if the exact knowledge of the resolvent norm is assumed has also
been questioned. It is well known that if A and B are matrices with identical pseudospectra,
then
1
kAk
≤
≤ 2.
2
kBk
(2)
But what about higher powers An /B n ?
In 2007, Ransford [21] showed that there exist matrices A, B ∈ CN ×N with identical pseudospectra and where An and B n can take more or less arbitrary values for 2 ≤ n ≤
(N − 3)/2. Is it also the case for large n? Moreover, pseudospectra are also used to study the
semigroup etA , but do they allow us to determine etA ?
This thesis addresses all these issues by demonstrating more general results. It generalizes
the inequality (2) to Möbius transformations. It also shows that the condition of identical
pseudospectra is not sufficient to determine the behavior of a matrix. However, the condition
of super-identical pseudospectra could do so.
v
Table des matières
Résumé
iii
Abstract
v
Table des matières
Liste des figures
Remerciements
vii
ix
xiii
Introduction
1
1 Pseudospectre et fonction holomorphe d’une matrice
1.1 Pseudospectre d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Borne d’une fonction holomorphe d’une matrice . . . . . . . . . . . . . . . . . .
3
3
9
2 Généralisation du théorème matriciel de Kreiss
15
2.1 Transformation de Faber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 La constante de Kreiss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Théorème matriciel de Kreiss pour un domaine quelconque . . . . . . . . . . . 23
3 Pseudospectre identique
33
3.1 Pseudospectre identique et le comportement d’une matrice . . . . . . . . . . . . 34
3.2 Normes plus générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Pseudospectre super-identique
53
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Pseudospectre super-identique et le comportement d’une matrice . . . . . . . . 56
Conclusion
61
Bibliographie
63
vii
Liste des figures
1.1
1.2
1.3
1.4
L’interface graphique EigTool
Pseudospectre de A . . . . .
Norme des puissances de A .
Pseudospectre de B . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
8
8
9
2.1
Transformation conforme entre Ωc et Dc . . . . . . . . . . . . . . . . . . . . . . . . 16
ix
À Sarra.
xi
Remerciements
Je tiens à remercier mon directeur de recherche, le professeur Thomas Ransford, pour ses
conseils judicieux, sa disponibilité et tous les efforts qu’il n’a cessé de prodiguer tout au
long de cette thèse. J’ai beaucoup apprécié ses suggestions de lecture éclairantes, ses conseils
pertinents et le sujet de la thèse qu’il m’a proposé.
Je profite aussi de l’occasion pour remercier les professeurs de département de mathématiques
et de statistique de l’Université Laval d’avoir contribué largement à ma formation durant
toutes ces années, plus particulièrement, Thomas Ransford, Line Baribeau, Javad Mashreghi,
et Jérémie Rostand, avec qui j’ai suivi les cours les plus importants de ma carrière. Mes remerciements s’adressent également au directeur du département, le professeur Frédéric Gourdeau,
et au personnel du département, notamment Sylvie Drolet, Suzanne Talbot et Emmanuelle
Reny-Nolin pour leur sympathie, leur aide et le plaisir que j’ai eu à être auxiliaire de recherche
et d’enseignement avec eux. Je garderai toujours un excellent souvenir de mon séjour à l’Université Laval. Je n’oublie pas aussi mes professeurs à l’École Normale Supérieure de Tunis et
à l’Université de Tunis El Manar où j’ai débuté ma carrière.
Je voudrais exprimer aussi mes sentiments de gratitude au ministère de l’enseignement supérieur et de la recherchede de la Tunisie pour la bourse de l’excellence qu’il m’a octroyé à
fin de poursuivre mes études supérieures à l’Université Laval. Merci aussi à L’ISM, l’Institut
des Sciences Mathématiques, et à mon superviseur, le professeur Thomas Ransford, pour leur
support financier.
J’aimerai aussi remercier tous mes amis qui ont fait de Québec un milieu spécial et précieux. Ils
m’ont fourni beaucoup d’encouragement et une bonne compagnie. Je devrais aussi reconnaître
le support moral et inestimable que j’ai eu de la communauté musulmane de Québec au CCIQ
(Centre Culturel Islamique de Québec) et à l’AEMUL (Association des Étudiants Musulmans
de l’Université Laval) où j’ai participé à leur conseil d’administration depuis plusieurs années.
Finalement, je remercie sincèrement mes parents, mes soeurs, mes frères, ainsi que ceux de
ma femme pour m’avoir toujours encouragé dans mes études et m’avoir toujours supporté.
Les mots me manquent pour exprimer ma gratitude à ma chère femme Yamina que son
dévouement, son amour et sa confiance en moi m’ont aidé beaucoup à surmonter toutes les
xiii
difficultés et les défis. Un dernier remerciement pour le meilleur cadeau que j’ai eu à la fin de
ma thèse, ma belle-fille Sarra. Son sourire me fait oublier tous les travaux fatiguants de jours
et des nuits. Cette thèse est en grande partie le fruit de votre aide appréciable surtout aux
moments décourageant que j’ai vécu.
xiv
Introduction
Le pseudospectre est un outil important pour étudier des nombreux problèmes mathématiques. Les équations de la forme dx/dt = Ax ou xn+1 = Axn , où A est une matrice ou un
opérateur linéaire, est l’un des plus importants de ces problèmes. Ces équations ramènent à
l’étude des semi-groupes etA et An . L’image numérique et le spectre permettent de déterminer
les taux de croissance initiaux et asymptotiques respectivement de etA et An . Pour les
valeurs intérmédiaires de t et n, on trouve le célèbre théorème matriciel de Kreiss fournissant
une borne supérieure pour etA et An en fonction de celle de la norme de la résolvante
(zI − A)−1 . Si A est normale, alors il est bien connu que (zI − A)−1 = 1/dist z, σ(A) et
par conséquent la norme de la résolvante serait complètement déterminée par le spectre. Par
contre, si A est non-normale, alors la norme de la résolvante (zI − A)−1 peut s’éloigner de
1/dist z, σ(A) d’une façon spectaculaire et par suite l’étude du pseudospectre sera inévitable.
La première définition du pseudospectre a été donnée en 1967 par Varah dans sa thèse intitulée
“The computaion of bounds for the invariant subspaces of a general matrix operator [36]”. Puis
en 1979, il l’a introduit dans l’article [37] pour étudier l’équation de Sylvester AX − XB = C.
En 1975, Landau a publié l’article [17] qui utilise le pseudospectre pour étudier les matrices
de Toeplitz et les opérateurs intégrales associés. Ensuite, Godunov et ses collègues ont fait
des recherches liées au pseudospectre dans les années 1980. Ces recherches ont été principalement orientées vers le développement de techniques visant la garantie de la précision dans
le calcul de valeurs propres. À partir de 1990, Trefethen et ses collègues ont publié plusieurs
articles présentant notamment l’importance du pseudospectre dans l’étude des matrices et des
opérateurs linéaires non-normaux. D’autres chercheurs se sont intéressés également au pseudospectre et ils l’ont appliqué dans des nombreux domaines de recherches. Parmi ces domaines
d’application, on peut citer les sciences de l’atmosphère, la théorie du contrôle, l’écologie, la
stabilité hydrodynamique, les lasers, la magnétohydrodynamique, les chaînes de Markov, les
itérations des matrices, l’analyse des erreurs d’arrondissement, la théorie des opérateurs, la
mécanique quantique, et la solution numérique des équations différentielles. Pour plus des
détails sur l’histoire du pseudospectre et ses divers applications, voir [32, §2 et §6].
Dans le cadre de cette thèse, on a remis en question la philosophie du livre de Trefethen et
1
Embree “Spectra and pseudospectra [32]” qui prévoit que pour déterminer une estimation de
la norme d’une fonction holomorphe d’une matrice ou d’un opérateur linéaire non-normale,
il est important d’étudier non seulement le spectre, mais également le pseudospectre. Il est
bien connu que le théorème matriciel de Kreiss donne une estimation de supn≥0 An et
supt≥0 etA en fonction du pseudospectre à un facteur constant près. Dans cette thèse, on
va généraliser ce célèbre théorème pour les fonctions holomorphes et aux matrices ayant des
spectres dans des domaines plus généraux. En second lieu, on va étudier le comportement
d’une matrice en utilisant le pseudospectre, au moins lorsque le comportement est interprété
dans le sens de la norme d’une fonction holomorphe d’une matrice. Autrement dit, on veut
savoir quels résultats on peut tirer quand on connait la valeur exacte de la résolvante.
Le premier chapitre de cette thèse est consacré au rappel de quelques propriétés de base du
pseudospectre. Il servira donc à introduire les chapitres qui suivent en présentant le théorème
matriciel de Kreiss pour An et pour etA par rapport au disque unité et au demi-plan à gauche
respectivement. Il permet aussi d’étudier le comportement d’une matrice en utilisant le spectre
et l’image numérique. Le deuxième chapitre généralise le théorème matriciel de Kreiss aux
fonctions holomorphes définies sur des domaines plus généraux. Les résultats qu’on va montrer
sont basés sur des travaux majeurs effectués par Toh et Trefethen [31] et Vitse [34]. Toh et
Trefethen ont généralisé ce célèbre théorème aux polynômes de Faber. Vitse lui a donné une
généralisation aux fonctions holomorphes sur le disque unité. Le troisième chapitre traite
la question de la détermination du comportement d’une matrice par le pseudospectre. On
présente tout d’abord les théorèmes inattendus 3.1.3 et 3.1.5 de Ransford [21] qui montrent
que le pseudospectre ne détermine pas la norme An lorsque 2 ≤ n ≤ (N − 3)/2 pour une
matrice A ∈ CN ×N . Un des objectifs de cette thèse est d’étudier le cas n > (N − 3)/2. Une
question encore ouverte et qui est très intéressante dans les applications est : est-ce que le
pseudospectre détermine An pour n > (N − 3)/2 ? Le pseudospectre est également utilisé
pour étudier les exponnentielles eA . Une autre question d’intérêt et qui n’a jamais été étudiée
à nos connaissances est celle de la détermination de la norme eA . On va étudier ces dérnières
questions et leur donner une réponse définitive qui clôture la question de la détermination
de comportement d’une matrice par le pseudospectre. Plus précisément, on montre dans ce
chapitre que le pseudospectre détermine seulement la norme d’une transformation de Möbius
d’une matrice à un facteur constant près. Le quatrième chapitre présente une alternative
introduite par Ransford [21]. Il prévoit que le pseudospectre super-identique détermine le
comportement d’une matrice à un facteur constant près. On présente les résultats obtenus
dans [9, 21, 22]. Ceux-ci donnent des réponses partielles aux questions posées dans le troisième
chapitre et laissent certaines autres questions ouvertes.
2
Chapitre 1
Pseudospectre et fonction
holomorphe d’une matrice
Une question centrale dans la théorie spectrale est la suivante : comment estimer la norme
d’une fonction holomorphe d’une matrice ? Parmi les techniques utilisées pour répondre à
cette question certaines sont basées sur l’étude du spectre, d’autres sont basées sur l’étude
de l’image numérique et enfin certaines sont basées sur l’étude du pseudospectre. Le présent
travail est consacré essentiellement à étudier les techniques utilisant le pseudospectre. Afin
de favoriser une meilleure compréhension de ce qui suivra, on va rappeler dans ce chapitre
des notions fondamentales du pseudospectre et présenter quelques résultats intéressants en
utilisant d’autres techniques.
1.1
1.1.1
Pseudospectre d’une matrice
Définitions et propriétés
Soit N ≥ 1. On dénote par CN l’espace des vecteurs complexes de dimension N , et par CN ×N
l’algèbre des matrices N × N à coefficients complexes. On définit par |x| :=
norme euclidienne sur
CN ×N .
CN ,
PN
k=1 |x
k |2
1
2
la
et par kAk := sup|x|=1 |Ax| la norme matricielle associé à | · | sur
On considère la norme de la résolvante zI −A
−1
d’une matrice A comme une fonction
à variable complexe z. Si z est une valeur propre de A, alors par convention zI − A
−1 est l’infini. On rappelle qu’une matrice U est dite unitaire si U U ∗ = U ∗ U = I, où U ∗
est la matrice adjointe de U et I est la matrice identité. Une matrice A est dite normale
si AA∗ = A∗ A. Dans ce cas, on peut montrer que A est normale si elle est unitairement
diagonalisable : A = U V U ∗ , où U est une matrice unitaire et V est une matrice diagonale.
Ainsi, si A est normal, alors
−1 zI − A
=
1
,
dist(z, σ(A))
(1.1)
3
où σ(A) dénote le spectre de A et dist(z, σ(A)) est la distance usuelle entre le point z et
l’ensemble σ(A). Ainsi, la norme de la résolvante d’une matrice normale est entièrement
déterminée par le spectre. Au contraire,
une matrice non-normale, la quantité (1.1)
si A est
−1 ne donne qu’une borne inférieure, et zI − A peut atteindre des valeurs assez grandes.
Cette façon de penser nous amène à notre première définition de pseudospectre.
Définition 1.1.1. Le -pseudospectre σ (A) d’une matrice A est l’ensemble des z ∈ C tel que
−1 1
> .
zI − A
En particulier, le spectre est inclus dans le -pseudospectre pour tout > 0. Si A est une
matrice normale, alors l’identité (1.1) implique que son -pseudospectre se compose en des
disques de rayon entourant les valeurs propres.
de pseudospectre se pose pour
L’importance
les matrices non-normales A, pour lesquelles zI − A
nombre complexe z est loin du spectre.
−1 peut-être grande même lorsque le
Le résultat suivant montre qu’on peut aussi décrire le pseudospectre en terme des valeurs
propres approximatives.
Propriété 1.1.2. Soient > 0, A ∈ CN ×N et z ∈
/ σ(A). Alors z ∈ σ (A) si et seulement s’il
existe un vecteur v ∈ CN tel que zI − A v < kvk.
Le nombre complexe z ∈ σ (A) est appelé une valeur -pseudopropre de A, et le vecteur v
correspondant est appelé le vecteur -pseudopropre de A associé à z. En d’autres mots, le
-pseudospectre est l’ensemble des valeurs -pseudopropres.
−1 > 1 , alors il existe un vecteur non-nul u ∈ CN tel que
−1 −1
zI − A
u > 1 kuk. Pour v = zI − A u, on peut écrire (zI − A)v < kvk.
Démonstration. Si zI − A
La réciproque est semblable.
La propriété suivante franchit une deuxième caractérisation du pseudospectre basée sur la
relation entre la norme de la résolvante et la perturbation des valeurs propres.
Propriété 1.1.3. Soient > 0, A ∈ CN ×N et z ∈
/ σ(A). Alors z ∈ σ (A) si et seulement s’il
existe une matrice E ∈ CN ×N , kEk < , telle que z ∈ σ(A + E).
En d’autres mots, le -pseudospectre de A est l’ensemble des valeurs propres d’une matrice
de perturbation A + E avec kEk < .
4
Démonstration. Si z ∈ σ (A), alors la propriété (1.1.2) implique qu’il existe un vecteur unitaire
v ∈ CN tel que (zI − A)v < . Soit u ∈ CN un vecteur unitaire tel que (A − z I)v = s u
pour s < . On peut donc écrire
z v = A v − s u v ∗ v = (A − s u v ∗ I)v.
C’est à dire z ∈ σ(A + E) avec E := s u v ∗ I.
Réciproquement, si z ∈ σ(A + E) pour une matrice E avec kEk < , alors il existe un vecteur
v ∈ CN tel que (A + E) v = z v. Ainsi, si z ∈
/ σ(A), alors on peut écrire v = (z I − A)−1 E v
et on a
1 = kvk = (z I − A)−1 E v ≤ (z I − A)−1 kEk
< (z I − A)−1 .
On rappelle que les valeurs singulières d’une matrice A ∈ CN ×N sont les racines carrées
des valeurs propres de A∗ A. On les note s1 (A), s2 (A), . . . , sN (A) par ordre décroissant. La
décomposition en valeurs sigulières de A est A = U ΣV , où U et V sont des matrices unitaires
et Σ = diag(s1 , s2 , . . . , sN ) est une matrice diagonale. En particulier, on a
kAk = s1 (A) et kA−1 k =
1
.
sN (A)
Une des principales méthodes de calcul du pseudospectre de A est de calculer les valeurs
sigulières de zI − A pour z ∈ C, puis on utilise le fait que
zI − A −1 = s1 ((zI − A)−1 ) =
1
.
sN (zI − A)
La commande EigTool de Matlab produit des images de courbes des niveaux de la norme de
la résolvante en utilisant la dernière équation. Pour plus d’information voir [32, §39].
Théorème 1.1.4. Pour tout A ∈ CN ×N , l’ensemble σ (A) est non-vide, ouvert, borné et a
au plus N composantes connexes dont chacune contient au moins une valeur propre de A.
Démonstration : Il est clair que pour chaque > 0, l’ensemble σ (A) est non-vide, ouvert
et borné. Pour montrer qu’il a au plus N composantes connexes dont chacune contient au
moins une valeur propre de A, on peut utiliser le fait que la fonction z 7→ log (z I − A)−1 est sous-harmonique et elle vérifie donc le principe du maximum sur C\σ(A). Pour obtenir
des résultats sur les fonctions sous-harmoniques, on réfere le lecteur aux [6, § X] et [20, § 2]. On note par D := {z ∈ C : |z| < 1} le disque unité ouvert et par D := {z ∈ C : |z| ≤ 1} sa
fermeture. On utilise aussi la notation D pour désigner le disque ouvert centré à l’origine et
de rayon .
5
Théorème 1.1.5. Si A est diagonalisable, i.e. A = V DV −1 où V est inversible et D est
diagonale, alors
σ(A) + D ⊆ σ (A) ⊆ σ(A) + Dk(V ) ,
∀ > 0,
où k(V ) := kV k kV −1 k est le nombre de condition de V .
Démonstration. Si z ∈ σ(A), alors z + ξ ∈ σ(A + ξ I) pour tout ξ ∈ D . On déduit donc de
la propriété (1.1.3) que z + ξ ∈ σ (A). Pour la deuxième inclusion, on a
(z I − A)−1 = (z I − V D V −1 )−1 = V (z I − D)−1 V −1 .
Cela entraîne que
(zI − A)−1 ≤ k(V ) (zI − D)−1 =
k(V )
.
dist(z, σ(A))
On termine cette section par le théorème suivant qui rassemble quelques propriétés du pseudospectre.
Théorème 1.1.6. Soient A et U appartiennent à CN ×N telles que U soit unitaire, et soit
> 0. Alors
(i)
(ii)
σ (U AU ∗ ) = σ (A).
σ (A∗ ) = σ (A), où le bar désigne le conjugué des nombres complexes.
(iii)
σ (A1 ⊕ A2 ) = σ (A1 ) ∪ σ (A2 ).
(iv)
σ (A + cI) = c + σ (A) pour tout c ∈ C.
(v)
σ (cA) = c σ/|c| (A) pour tout c ∈ C\{0}.
Dans la propriété (iii), la matrice A1 ⊕ A2 dénote la somme directe des deux matrices A1 et
A2 qui est définie par la matrice diagonale par block suivante :
A1 ⊕ A2 :=
A1
0
0
A2
!
Pour la démonstration de ces propriétés, voir [32, §2].
1.1.2
Quelques exemples
Une perturbation d’une matrice normale avec une matrice de norme ne déplace pas les
valeurs propres d’une distance supérieure à . En fait, l’identité 1.1 montre que σ (A) se
compose de disques de rayon centrés à chaque valeur propre. Mais pour de nombreux matrices non-normales, des petites perturbations peuvent se déplacer les valeurs propres de façon
6
phénoménale. Dans ce cadre, le calcul du pseudospectre de ces matrices devient inévitable
pour les étudier, et cela peut se faire tout simplement en utilisant la commande EigTool de
Matlab, voir la figure 1.1. Ce logiciel est une interface graphique de Matlab pour calculer
les valeurs propres, le pseudospectre, l’image numérique et les quantités connexes pour les
matrices non-normales. Il a été dévéloppé à la periode 1999-2002 par Thomas G. Wright au
laboratoire informatique de l’Université Oxford sous la direction de Lloyd N. Trefethen. Pour
plus d’information sur EigTool, voir [38].
Figure 1.1: L’interface graphique EigTool
Exemple 1.1.7. La matrice tridiagonale A := triadiag(1/4, 0, 1) de dimension 32, voir [22].

0

 1/4


A := 





1
0
..
.
1
..
.
..
1/4
0
.







1 

1/4 0
Les valeurs propres de A sont λk = cos( kπ
33 ) pour k = 1, 2, . . . , 32, voir [32, § I]. En particulier,
son rayon spectral est strictement inférieur à 1, et cela implique que kAn k → 0 lorsque n → ∞.
7
Cependant, comme il montre la figure 1.3, la norme de An atteint des valeurs très grandes
avant de converger vers 0. Ce genre de comportement est important dans les applications, et
il est important de comprendre et de prédire quant cela se produit.
Figure 1.3: Norme des puissances de A
Figure 1.2: Pseudospectre de A
La figure 1.2 illustre les frontières de σ (A) pour = 10−2 , 10−3 , . . . , 10−8 . Les points solides
correspondent aux valeurs propres et l’ellipse pointillé correspond à la frontière de l’image
numérique. Dans la figure 1.3, on trouve l’évolution de la norme kAk k en fonction de k.
Exemple 1.1.8. La matrice Grcar de dimension 32, voir exemple 3 dans [33].

1

 −1





B := 








1
1
1
1
..
.
1
..
.
1
..
.
1
..
.
..
−1
1
1
1
−1
1
1
−1
1
.







1 
.

1 


1 

−1 1
Une caractéristique intéressante de cet exemple est que le pseudospectre ne contient pas
l’origine. Par exemple, l’image numérique de cette matrice le contient, mais les valeurs propres
en sont loins, voir la figure 1.4.
Les courbes de la figure 1.4 représentent les frontières de σ (A) pour = 10−1 , 10−1.5 , 10−2 et
10−2.5 , les points solides représentent les valeurs propres et la courbe pointillé représente la
frontière de l’image numérique.
D’autres exemples de pseudospectre des matrices sont présentés au [33].
8
Figure 1.4: Pseudospectre de B
1.2
Borne d’une fonction holomorphe d’une matrice
Dans cette section, on va introduire quelques relations entre le “lieu” d’une matrice A dans
le plan complexe et la quantité kf (A)k pour une fonction f . Dans ce qui suit, on appelle
cette quantité le “comportement” de A. Parmi les lieux d’une matrice dans le plan complexe
que l’on pourrait considérer on trouve le spectre, l’image numérique et le pseudospectre. Le
spectre et l’image numérique sont déterminés par les −pseudospectres lorsque → 0 et
→ ∞ respectivement, voir [13, §5].
Si A est normal, alors, le théorème spectral [8], implique que
kf (A)k = sup |f (z)|,
z∈σ(A)
pour toute fonction f holomorphe sur un voisinage de σ(A). Ainsi, le comportement d’une
matrice normale est complètement déterminé par son spectre. Notre principale préoccupation
dans cette thèse est l’étude des matrices non-normales, et il est clair que le spectre seul ne
peut pas déterminer leurs comportements.
1.2.1
L’image numérique et le comportement d’une matrice
On rappelle que l’image numérique d’une matrice A ∈ CN ×N est l’ensemble W (A) défini par :
W (A) := x∗ A x : x ∈ CN , kxk = 1 .
C’est un sous-ensemble compact, convexe de C et il contient σ(A). Si A est normal, alors
W (A) est le plus petit convexe qui contient σ(A). Pour plus de détails sur les propriétés de
9
l’image numérique, voir [14] et [24].
Les théorèmes qui suivent nous donnent la relation entre l’image numérique et le pseudospectre. On peut trouver des démonstrations de ces théorèmes dans [32, §17].
Théorème 1.2.1. La norme de la résolvante de A satisfait
zI − A −1 ≤
1
,
dist(z, W (A))
∀z ∈
/ W (A).
Ce théorème, qui a été démontré depuis plusieurs années [29], implique que le pseudospectre
satisfait
σ (A) ⊂ W (A) + D ,
∀ > 0.
Inversement, on a le théorème suivant.
Théorème 1.2.2. [32, Théorème 17.2] L’ensemble W (A) est l’intersection de tous les demiplans H ⊆ C qui satisfassent
σ (A) ⊆ H + D ,
∀ > 0.
Une application importante de l’image numérique est l’estimation du comportement de ket A k
comme une fonction de t comme il ressort du théorème suivant.
Théorème 1.2.3. [32, Théorème 17.1] Soit A ∈ CN ×N . Posons ω(A) := supz∈W (A) Re(z)
l’abscisse numérique de A. Alors,
ket A k ≤ et ω(A) ,
∀t ≥ 0
et
ket A k = et ω(A) + o(t)
(t → 0).
En particulier ket A k ≤ 1 pour tout t ≥ 0 si et seulement si ω(A) ≤ 0.
On voit dans ce théorème que l’image numérique répond à certaines questions au sujet du
comportement d’une matrice, mais dans d’autres applications l’information obtenue est approximative. Par exemple, il ne répond pas à la question de savoir s’il existe une constante C
telle que ket A k ≤ C pour tout t ≥ 0, i.e. si A est stable. Une condition suffisante pour cela
est ω(A) ≤ 0. On peut voir qu’il n’y a pas une condition nécessaire et suffisante en notant
que les matrices
10

A=
−1
4
0
−1
!
,
−1

B=
 0
0
4
0


−1 0 

0 1
ont la même image numérique qui est le disque fermé de centre -1 et de rayon 2. Toutefois, la
matrice A est stable tandis que B ne l’est pas, voir [32, §17].
Récemment, M. Crouzeix [7] a montré un théorème intéressant qui détermine le comportement
d’une matrice en fonction de son image numérique.
Théorème 1.2.4. Soit f une fonction holomorphe sur un voisinage de W (A). Alors
kf (A)k ≤ 11, 08 sup |f (z)|.
z∈W (A)
Ce théorème prouve aussi que l’image numérique répond à certaines questions au sujet du
comportement d’une matrice. Cependant, dans de nombreuses autres applications, l’ensemble
W (A) est assez grand et il empêche cette borne d’être significative. Par exemple, dans les
deux situations qui suivent, on veut que supz∈W (A) |f (z)| soit aussi petit que l’on veut.
– f (z) = z k , mais W (A) contient des z ∈ C avec |z| ≥ 1.
– f (z) = et z , mais W (A) contient des z ∈ C avec Re(z) ≥ 0.
1.2.2
Le théorème matriciel de Kreiss
Le théorème matriciel de Kreiss a été initialement publié par Heinz-Otto Kreiss [16]. Il
donne une estimation de supn≥0 kAn k ou supt≥0 ket A k, pour une matrice A, en fonction de
la constante de Kreiss K(A). Pour l’estimation de la norme de la puissance d’une matrice, la
constante K(A) est définie par la formule suivante
K(A) := sup (|z| − 1) zI − A
−1 .
|z|>1
De façon équivalente, cette constante peut être définie en fonction du rayon pseudospectral
comme suit
K(A) := sup
>0
ρ (A) − 1
,
où ρ (A) := supz∈σ (A) |z| est le rayon −pseudospectral de A. La constante de Kreiss mesure
à quel point le pseudospectre peut s’éloigner du disque unité.
Si la constante K(A) est finie, on dit que la matrice A satisfait la condition de Kreiss.
11
Théorème 1.2.5. Pour toute matrice A ∈ CN ×N , on a
K(A) ≤ sup kAn k ≤ e N K(A).
n≥0
Ce théorème prouve que la borne supérieure de la suite kAn k est égale K(A) à une constante
près inférieur ou égale à eN . Par exemple si on l’applique à l’exemple 1.1.7, on voit bien
que le pseudospectre montre que kAn k atteint des valeurs assez grandes avant de converger
vers 0. En regardant le nombre z = 1, 01, on peut lire directement dans la figure 1.2 que
n
5
zI − A −1 > 107 , ainsi le théorème de Kreiss implique que sup
n≥0 kA k > 10 .
La constante eN du théorème 1.2.5 a été obtenue après plusieurs développements de la déclaration initiale du théorème matriciel de Kreiss en 1962. La preuve originale de Kreiss montre
l’estimation
N
K(A) ≤ sup kAn k ≤ K(A)N .
n≥0
Puis elle a eu des améliorations par Morton en 1964, Strang en 1966 et Miller en 1967 qui ont
2
diminué la borne supérieure à 6N (N + 4)5N K(A), N N K(A) et e9N K(A) respectivement.
Après quelques années Strang a observé qu’un document de Laptev découle implicitement
d’une estimation beaucoup plus raisonnable qui est
32
2
π eN K(A),
voir [32, 19]. En 1981, Tad-
mor [30] a montré, en utilisant la formule intégrale de Cauchy à l’argument adapté de Laptev,
que cette borne est linéaire en N et il l’a réduit à
32
π eN K(A).
Leveque et Trefethen [19] ont
minimisé cette borne en 1984 à 2eN K(A) et ils ont conjencturé que la borne optimale est
eN K(A). En 1985, Smith [26] a réduit cette borne à (1 + π2 )eN K(A) et enfin Spijker [28] a
prouvé cette conjecture en 1991. La démonstration se repose sur un lemme qui fournit une
borne supérieure pour la longueur d’arc de l’image du cercle unité dans le plan complexe par
une fonction rationnelle, voir [32, § 18] pour plus d’informations.
Il est intéressant aussi de savoir quelques informations sur la taille de etA comme une
fonction de t en utilisant le pseudospectre. Le taux de croissance asymptotique de cette norme
est complètement déterminé par le spectre de A et il est donné par l’équation
lim t−1 log etA = α(A),
t→∞
où α(A) := supz∈σ(A) Re(z) est l’abscisse spectrale de A, voir [8, Théorème 10.1.6]. Le théorème 1.2.3 montre que l’image numérique fournit le taux de croissance initial qui est donné
par
lim t−1 log etA = ω(A),
t→0
12
où ω(A) est l’abscisse numérique de A. Notre intérêt principal ne se limite pas à savoir
seulement les deux cas t → ∞ ou t → 0 mais aussi toutes les valeurs intérmidiaires possibles
de t. L’image numérique et le spectre donnent les bornes suivantes
tA e ≥ etα(A)
et etA ≤ etω(A)
(t ≥ 0).
Si la matrice A := V DV −1 est diagonalisable, alors on a la borne supérieure suivante
tA e ≤ k(V )etα(A)
(t ≥ 0).
Cette borne est intéressante mais dans la plupart des applications le nombre de condition
k(V ) est assez grand ou difficile à déterminer.
Pour obtenir des bornes optimales, il est intéressant d’utiliser le pseudospectre ou de façon
équivalente la norme de la résolvante. Si on suppose que α(A) < 0, alors pour tout z ∈ C tel
que Re(z) > 0, on obtient à partir de la transformation de Laplace la représentation suivante
Z ∞
etA e−zt dt = (zI − A)−1 .
0
Cette formule fournit une borne inférieure très utile dans la pratique et elle est donnée par
l’inégalité suivante
sup etA ≥
t≥0
α (A)
( ≥ 0),
(1.2)
où α (A) := supz∈σ (A) Re(z) est l’abscisse pseudospectrale de A. Supposons que A est une
matrice avec α(A) < 0 et le pseudospectre σ (A) intervenant dans le demi-plan à droite,
autrement dit α (A) > pour certains > 0. L’inégalité (1.2) montre qu’on doit avoir une
croissance transitoire. Si par exemple zI −A
−1 = 105 pour un z ∈ C tel que Re(z) = 0.01,
alors α (A) ≥ 0.01 pour = 10−5 . On doit donc avoir une croissance transitoire de grandeur
supérieure ou égale 103 .
Si on définit la constante de Kreiss de A par rapport au demi-plan à gauche par
K(A) := sup
>0
−1 α (A)
= sup Re(z) zI − A ,
Re(z)>0
alors l’inégalité (1.2) implique
sup etA ≥ K(A).
t≥0
Le théorème suivant est le théorème matriciel de Kreiss pour l’exponentielle qui fournit la
borne supérieure de l’inégalité précédente.
13
Théorème 1.2.6. Pour toute matrice A ∈ CN ×N , on a
K(A) ≤ sup etA ≤ e N K(A),
t≥0
où K(A) est la constante de Kreiss de A par rapport au demi-plan à gauche.
La démonstration de ce théorème est semblable au cas des puissances et se repose aussi sur
le même lemme de Spijker [28]. Pour plus de détails, voir par exemple [32, Chapitre 18].
14
Chapitre 2
Généralisation du théorème
matriciel de Kreiss
Dans ce chapitre, on rappelle tout d’abord les propriétés de la transformation de Faber qui
seront utiles par la suite. On présente ensuite une généralisation de la constante de Kreiss pour
les domaines compacts et leurs complémentaires simplement connexe. Enfin, on présente une
généralisation du théorème matriciel de Kreiss pour les polynômes de Faber puis les fonctions
holomorphes des matrices ayant des spectres dans des domaines plus généraux.
2.1
Transformation de Faber
2.1.1
Polynôme et série de Faber
Soit Ω un ensemble compact du plan complexe C tel que son complémentaire Ωc soit simplement connexe dans la sphère de Riemann C∞ := C ∪ {∞}. Selon le théorème de Riemann
[11], il existe une unique transformation conforme φ de Ωc vers Dc normalisée par φ(∞) = ∞
et φ0 (∞) > 0, voir la figure 2.1,
w = φ(z) := dz + d0 +
∞
X
dk
zk
k=1
,
(d > 0),
z ∈ Ωc .
Si ψ : Dc → Ωc est la transformation inverse de φ, alors elle a un développement de Laurent,
similaire à φ, de la forme suivante
z = ψ(w) := cw + c0 +
∞
X
ck
wk
k=1
,
w ∈ Dc ,
où c = 1/d est la capacité logarithmique de Ω.
15
Figure 2.1: Transformation conforme entre Ωc et Dc
Le nième polynôme de Faber Fn (z), pour n = 0, 1, 2, · · · , associé à Ω (ou bien à φ) est la partie
polynômiale de la série de Laurent de [φ(z)]n , qui est un polynôme de degré n.
Exemple 2.1.1. Si Ω = z ∈ C : |z − z0 | ≤ R , un disque fermé de centre z0 et de rayon R,
alors
φ(z) =
1
(z − z0 ),
R
ψ(w) = Rw + z0
et
Fn (z) = R−n (z − z0 )n ,
c
pour tout z ∈ Ωc , w ∈ D et n ≥ 0.
Pour tout r ≥ 1, on note par Tr le cercle centré à l’origine et de rayon r et par Γr la courbe
fermée ψ(Tr ). On considère les intégrales, avec ζ = ψ(w),
1
2πi
Z
Γr
[φ(ζ)]n
1
dζ =
ζ −z
2πi
Z
Tr
wn ψ 0 (w)
dw,
ψ(w) − z
z ∈ int(Γr ),
où int(Γr ) dénote l’intérieur de Γr . Puisque la série de Laurent de [φ(ζ)]n est uniformément
convergente sur Γr , on peut intégrer la première intégrale précédente terme à terme pour
obtenir la représentation suivante des polynômes de Faber
1
Fn (z) =
2πi
Z
Γr
[φ(ζ)]n
1
dζ =
ζ −z
2πi
Z
Tr
wn ψ 0 (w)
dw,
ψ(w) − z
Soit maintenant z ∈ int(Γr ). Alors la fonction w 7→
wψ 0 (w)
ψ(w)−z
z ∈ int(Γr ), n ≥ 0.
(2.1)
est analytique sur {w ∈ C : |w| >
r} et elle prend la valeur 1 en w = ∞, elle possède donc la série de Laurent suivante
wψ 0 (w)
F1 (z) F2 (z)
=1+
+
+ ··· ,
ψ(w) − z
w
w2
|w| > r,
z ∈ int(Γr ).
(2.2)
En combinant (2.2) avec la formule intégrale de Cauchy, on peut représenter les fonctions
holomorphes sur un domaine quelconque par des séries semblables aux séries de Fourier pour
les fonctions holomorphes sur la disque unité. On note par A(Ω) l’ensemble des fonctions
16
holomorphes sur int(Ω) et continues sur Ω. La série de Faber associée à une fonction f de
A(Ω) est la série formelle suivante
f (z) ∼
∞
X
z ∈ Ω,
an Fn (z),
n=0
où
f ψ(w)
1
an :=
dw,
2πi T wn+1
sont les coefficients de Faber associés à f .
Z
n ≥ 0,
Supposons que Γ := ∂Ω est une courbe simple, fermée et rectifiable et définissons F sur R
par F (θ) := f (ψ(eiθ )). La série de Fourier de F est donnée par
∞
X
F (θ) ∼
F̂ (n)eiθ ,
n=−∞
où
1
F̂ (n) :=
2π
Z 2π
−inθ
F (θ)e
0
1
dθ =
2πi
Z
f (ψ(w))w−n−1 dw,
n ∈ Z.
T
Par conséquent an = F̂ (n), pour n ≥ 0, et ceci est un premier lien entre la série de Faber et
la série de Fourier.
En 1955, Alper [3] a montré que si la frontière Γ de Ω est une courbe de Jordan rectifiable et
lisse qui satisfait la condition de régularité
R c w(h)
0
h
| log h|dh < ∞ pour un c > 0, alors la série
de Faber converge uniformément sur Ω et elle se comporte comme une série de Fourier. Ici, la
fonction w : [0, ∞] → [0, ∞] est le module de continuité de la fonction ϑ(s) qui désigne l’angle
entre l’axe réel positif et la tangente à la courbe Γ au paramètre s. On rappelle qu’une fonction
g : I → R admet w pour un module de continuité si et seulement si |g(t) − g(s)| ≤ w(|t − s|)
pour tout t et s dans le domaine I de g. En 1967, Kövari et Pommerenke [35] ont montré que
la situation est assez similaire si on suppose seulement que Γ est une courbe de Jordan de
variation bornée. On rappelle qu’une courbe de Jordan Γ est dite de variation bornée si sa
variation totale V :=
R
Γ |dϑ(s)|
Pour une série de Fourier G :=
G̃ :=
∞
X
est bornée.
P∞
ikθ ,
k=−∞ gk e
on définit sa série conjuguée par
(
ikθ
g̃k e
,
où
g̃k :=
k=−∞
−igk si k ≥ 0
igk
si k < 0
Théorème 2.1.2. (Kövari et Pommerenke [35])
Soit Ω un domaine de Jordan, soit Γ sa frontière de variation bornée et soit f ∈ A(Ω). Si la
série de Fourier de f (ψ(eiθ )) et sa série conjuguée convergent uniformément, alors la série
de Faber converge uniformément vers f sur Ω.
17
Corollaire 2.1.3. [31, Lemme 4.1] Pour tout z ∈ Ωc , on a
(z − ξ)−1 =
∞
X
φ0 (z)
Fn (ξ),
φ(z)n+1
n=0
(ξ ∈ Ω).
Démonstration. La série de Faber associée à la fonction ξ 7→ (z − ξ)−1 sur Ω est donnée par
P∞
n=0 an Fn (ξ)
avec
−1
z − ψ(w)
1
dw
2πi T
wn+1
Z
1
φ0 (ζ)
(z − ζ)−1 n+1 dζ
2πi Γ
φ
(ζ)
0
φ (z)
.
n+1
φ
(z)
Z
an (z) =
=
=
La convergence uniforme de cette série est garantie par le théorème précédent.
2.1.2
Opérateur de Faber
On note par Pn (Ω) l’ensemble des polynômes de degrés inférieur ou égale n muni de la norme
k kL∞ (Ω) . L’opérateur de Faber F est définie par la transformation linéaire qui envoie le
polynôme
p(w) := a0 w0 + a1 w1 + · · · + an wn ,
aj ∈ C
au polynôme
F(p)(z) := a0 F0 (z) + a1 F1 (z) + · · · + an Fn (z).
En particulier l’image du polynôme p(w) := wn par l’opérateur de Faber F est le nième polynôme de Faber Fn (z).
L’opérateur F est une bijection de Pn (D) vers F Pn (D) . En effet, si F(p) = 0, alors on
considère le coefficient du terme de plus haut degré. Puis, étant donné que le degré de Fn
est exactement n, on trouve successivement que an = 0, an−1 = 0, · · · , a0 = 0. Si Γ est
rectifiable, alors F et son inverse F −1 possèdent des représentations intégrales. En utilisant
la représentation (2.1) pour Fn , on trouve
F(p)(z) =
1
2πi
Z
Γ
p(φ(ζ))
1
dζ =
ζ −z
2πi
Z
T
p(w)ψ 0 (w)
dw,
ψ(w) − z
z ∈ int(Ω),
pour tout polynôme p.
D’autre part, en utilisant la formule intégrale de Cauchy et la formule suivante
1
Fn (ψ(w)) = wn + O( ),
w
18
|w| → ∞,
(2.3)
on trouve
F
Puisque
S
n Pn (D)
et
S
−1
1
(p)(w) =
2πi
n Pn (Ω)
Z
T
p(ψ(s))
ds,
s−w
|w| < 1.
(2.4)
sont denses dans A(D) et A(Ω) respectivement, on peut définir
l’opérateur de Faber F entre les espaces de Banach A(D) et A(Ω) en prenant les limites dans la
formule (2.3). Le théorème suivant prouve que cet opérateur est borné. Pour la démonstration
et pour plus de détails, le lecteur est invité à consulter par exemple [1, 2, 11].
Théorème 2.1.4. [11, p. 48] Si Γ est une courbe de Jordan rectifiable et de variation bornée
V , alors l’opérateur de Faber F : A(D) → A(Ω) est borné et on a
kF(f )k ≤ (1 +
2V
)kf k,
π
(f ∈ A(D)).
Le théorème des résidus et la formule (2.3) montrent que, pour tout ξ ∈ Dc et z ∈ int(Ω), on
a
F
1 ψ 0 (ξ)
(z) =
.
w−ξ
z − ψ(ξ)
Ceci implique que si q ∈ A(D) est une fonction rationnelle et a un pôle d’ordre N en ξ0 , avec
|ξ0 | > 1, alors F(q) est aussi rationnelle et a un pôle de même ordre au point ψ(ξ0 ). Pour les
fonctions f ∈ A(D) en général, on a aussi le théorème suivant.
Théorème 2.1.5. [11, p. 50] Soit f ∈ A(D), disons f (w) :=
P∞
n=0 an w
n
pour |w| < 1. Alors
les coefficients de Faber de F(f ) sont les an . Autrement dit,
F(f )(z) =
∞
X
an Fn (z),
(z ∈ Ω).
n=0
Démonstration. Définissons fr (w) := f (rw) pour r ∈ (0, 1) et w ∈ D. Alors fr → f et par
conséquent F(fr ) → F(f ) lorsque r → 1. Cela implique que
|an (f ) − an (fr )| ≤ kF(f ) − F(fr )k → 0
(r → 1),
où an (f ) et an (fr ) sont les coefficients de Faber de f et fr respectivement. Comme fr (w) =
P∞
n=0 an r
n wn
converge uniformément sur D, alors an (fr ) = an rn pour tout n ≥ 0. Le résultat
suit donc en faisant tendre r vers 1.
Le théorème précédent implique que l’opérateur F est injectif et il est donc bijectif entre A(D)
et le sous espace fermé F(A(D)) := {g : g = F(f ), f ∈ A(D)}. En prenant la limite dans la
formule (2.4), on trouve
F −1 (g)(ξ) =
1
2πi
Z
T
g(ψ(w))
dw,
w−ξ
|ξ| < 1,
(g ∈ F(A(D))).
(2.5)
19
L’opérateur F −1 est borné si et seulement si F est surjectif et dans ce cas F est un isomorphisme entre les algèbres A(D) et A(Ω). Le théorème suivant montre que c’est le cas si la
courbe Γ est rectifiable et est de variation bornée.
Théorème 2.1.6. (Anderson et Clunie [2])
Soit Ω un domaine compact de Jordan de frontière Γ rectifiable et de variation bornée. Si Γ
n’a aucun point de rebroussement, alors l’opérateur F −1 : A(Ω) → A(D) est bien défini par
(2.5) et il est borné.
On rappelle qu’un point rebroussement est un type particulier de point singulier sur une
courbe admettant une seule demi-tangente en ce point. Anderson et Clunie [2] ont prouvé
aussi que le théorème précédent n’est pas vrai si la courbe Γ a des points de rebroussement.
2.2
La constante de Kreiss
Pour qu’une matrice vérifie la condition de Kreiss, il faut que son spectre soit inclus dans le
disque unité. Cependant, si ce n’est pas le cas, il y a une généralisation pour les domaines
Ω. Soit A une matrice de CN ×N telle que son spectre σ(A) est inclus dans Ω. On définit la
constante de Kreiss pour A par rapport à Ω par la formule suivante :
K(Ω) := inf C : zI − A
0
−1 ≤ C |φ (z)| , ∀z ∈
/Ω .
|φ(z)| − 1
Une définition équivalente de la constante de Kreiss est donnée par la formule suivante :
e
K(Ω)
:= inf C : zI − A
−1 ≤
C
, ∀z ∈
/Ω .
dist(z, Ω)
Proposition 2.2.1. (Toh et Trefethen [31]) On a
e
1
K(Ω)
≤
≤ 2.
2
K(Ω)
De plus, si Ω est un intervalle, alors le facteur
1
2
est atteint à gauche et si Ω est un arc d’un
cercle, alors le facteur 2 est atteint à droite.
La démonstration de cette proposition est une conséquence du lemme suivant.
Lemme 2.2.2. (Kühnau [31]) Supposons que ψ est une transformation conforme de l’extérieur du disque unité D à l’extérieur d’un ensemble compact Ω de complémentaire simplement
connexe telle que ψ(∞) = ∞. Alors pour tout |w0 | > 1, on a
1
dist(z0 , Γ)
(|w0 | − 1) ≤
≤ 2(|w0 | − 1),
2
|ψ 0 (w0 )|
où z0 = ψ(w0 ) et Γ = ∂Ω. Si Ω est un intervalle, alors la constante 1/2 atteinte à gauche
lorsque |w0 | → 1 et si Ω est un arc de cercle, alors la constante 2 atteinte à droite lorsque
|w0 | → 1.
20
Démonstration de la proposition 2.2.1 D’une part, pour tout z = ψ(w) ∈ Ωc , on a
|φ0 (z)|
1
.
=
|φ(z)| − 1
|w| − 1 |ψ 0 (w)|
D’autre part, le lemme 2.2.2 entraîne que
1
dist(z, Γ)
≤
≤ 2.
2
(|w| − 1)|ψ 0 (w)|
e
Le résultat découle donc des définitions de K(Ω) et K(Ω).
e
On note que la constante K(Ω)
est bien définie même si Ωc n’est pas simplement connexe.
Elle est définie géométriquement et peut être calculée indépendamment de la transformation
conforme φ. Ceci est un grand avantage puisqu’on ne peut pas déterminer facilement φ sauf
pour des domaines particuliers comme les ellipses ou les polygônes.
La proposition suivante montre la relation entre la constante de Kreiss et le pseudospectre.
e
Sa démonstration est une conséquence directe des définitions de K(Ω)
et σ (A).
Proposition 2.2.3. [31, Proposition 2.1] Les assertions suivantes sont équivalentes.
(i)
(ii)
(iii)
C
zI − A −1 ≤
dist(z,Ω) ,
dist(z, Ω) ≤ C ,
σ (A) ⊂ Ω + C D ,
∀z, dist(z, Ω) > 0.
∀z ∈ σ (A), ∀ > 0.
∀ > 0.
e
Une conséquence importante de la proposition précédente est que la constante K(Ω)
peut être
définie en utilisant le pseudospectre par la formule suivante
e
K(Ω)
= sup
>0
maxz∈σ (A) dist(z, Ω)
.
Autrement dit, elle mesure à quel point l’ensemble σ (A) peut s’éloigner du domaine Ω pour
tout > 0.
e
En utilisant la définition de K(Ω),
on peut montrer facilement d’autres propriétées intéres-
santes de la constante de Kreiss comme la monotonie et les cas particuliers lorsque la matrice
A est normale et Ω = σ(A) ou bien Ω est l’image numérique de la matrice.
Proposition 2.2.4. [31, Proposition 2.2] Supposons que Ω1 et Ω2 deux sous-ensembles compacts de C tels que σ(A) ⊂ Ω1 ⊂ Ω2 . Alors
e 2 ) ≤ K(Ω
e 1 ).
K(Ω
21
e 1 ) et K(Ω
e 2 ).
Démonstration. Ce resultat est une conséquence directe des définitions de K(Ω
e 2) =
K(Ω
−1 −1 −1 sup dist(z, Ω2 ) zI − A
z ∈Ω
/ 2
≤
sup dist(z, Ω1 ) zI − A
z ∈Ω
/ 2
≤
sup dist(z, Ω1 ) zI − A
z ∈Ω
/ 1
e 1 ).
= K(Ω
Proposition 2.2.5. [31, Proposition 2.3] Si A := V DV −1 est une matrice diagonalisable,
alors
e
K(σ(A))
≤ k(V ),
où k(V ) est le nombre de condition de V .
Démonstration. Puisque (zI − A)−1 = V (zI − D)−1 V −1 , on a
zI − A −1 ≤
k(V )
.
dist(z, σ(A))
Ceci implique que σ (A) ⊂ σ(A) + k(V )D pour tout > 0. Le résultat suit donc de la
proposition 2.2.3.
Proposition 2.2.6. [31, Proposition 2.4] Soit A une matrice normale telle que σ(A) ⊂ Ω.
Alors
e
K(Ω)
= 1.
e
e
Démonstration. On a toujours K(Ω)
≥ 1. Donc il reste à prouver que K(Ω)
≤ 1. Rappelons
qu’une matrice A est normale si et seulement s’il existe une matrice unitaire U telle que
U −1 AU est diagonale. Il suit donc des propositions 2.2.4 et 2.2.5 ce qui suit
e
e
K(Ω)
≤ K(σ(A))
≤ k(U ) = 1.
Proposition 2.2.7. [31, Proposition 2.5] Si W (A) est l’image numérique de la matrice A,
alors
e
K(W
(A)) = 1.
Démonstration. On a vu dans le théorème 1.2.2 que l’ensemble W (A) est l’intersection de
tous les demi-plans H qui satisfassent
σ (A) ⊆ H + D ,
∀ > 0.
e
IL suit donc de la proposition 2.2.3 que K(W
(A)) = 1.
22
2.3
Théorème matriciel de Kreiss pour un domaine
quelconque
On a vu dans le chapitre précédent comment le théorème matriciel de Kreiss donne des bornes
basées sur la norme de la résolvante zI − A
−1 pour kAn k si σ(A) est inclu dans le disque
unité, ou bien pour ketA k si σ(A) est dans le demi-plan à gauche. On généralise dans cette
section ces résultats pour des fonctions holomorphes quelconques dans des domaines Ω plus
généraux.
2.3.1
Polynôme de Faber
Une application de l’inégalité de Bernstein [11] nous donne une généralisation du théorème
matriciel de Kreiss pour le domaine Ω.
Théorème 2.3.1. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Soit A une matrice telle que σ(A) ⊂ Ω et K(Ω) < ∞. Alors,
pour tout pôlynome pn de degré n, on a
kpn (A)k ≤ e (n + 1) K(Ω) kpn kΩ ,
où kpn kΩ := supz∈Ω |pn (z)|.
Démonstration. Puisque σ(A) ⊂ Ω, alors la matrice pn (A) peut être représentée en fonction
de la résolvante par la formule intégrale de Cauchy [8],
1
pn (A) =
2πi
Z
(zI − A)−1 pn (z) dz
(r > 1).
Γr
Par conséquent,
kpn (A)k ≤
≤
1
(zI − A)−1 |pn (z)| |dz|
2π Γr
Z
1
(zI − A)−1 |dz|,
kpn kΩr
2π
Γr
Z
avec Ωr := φ−1 (Dr ). Puisque (zI − A)−1 ≤
K(Ω)|φ0 (z)|
r−1
sur Γr et kpn kΩr ≤ rn kpn kΩ (C’est le
lemme de Bernstein [11]), on déduit que
1
rn
K(Ω)kpn kΩ
2π
r−1
n
r
kpn kΩ .
≤ K(Ω)
r−1
kpn (A)k ≤
Pour r := 1 +
1
n+1 ,
Z
|φ0 (z)| |dz|
Γr
on conclut que
kpn (A)k ≤ K(Ω) e (n + 1)kpn kΩ .
23
La borne donnée par ce théorème dépend linéairement de n, et donc elle peut être assez élevée
et on ne peut pas utiliser l’approximation pour le généraliser à des fonctions holomorphes
quelconques. Le théorème suivant montre que cette borne est indépendant de n pour les
polynômes de Faber.
Théorème 2.3.2. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Soit A une matrice N × N sur C telle que σ(A) ⊂ Ω et
K(Ω) < ∞. Si le frontière de Ω est de classe C 2 , alors, pour tout n ≥ 0, on a
kFn (A)k ≤ CΩ e N K(Ω),
où la constante CΩ ne dépend que de Ω.
Remarquons que si Ω est le disque unité, alors on obtient le théorème (1.2.5) car Fn (A) = An .
La preuve de ce théorème se base sur les trois lemmes suivants. Pour plus de détails, voir [31].
Lemme 2.3.3. Soit f une fonction analytique sur Ωc . Pour tout r > 1, on a
Z
Z
02 0
ψ f (ψ)|dw| ≤
Z
wψ 02 (w)f 0 (ψ(w))
00
ψ f (ψ)|dw|,
Tr
Tr
Tr
où h(w) := arg
|h0 |ψ 0 f (ψ)|dw| +
.
Lemme 2.3.4. Soit R une fonction rationnelle d’ordre (N − 1, N ) qui n’a pas de pôles dans
Ωc . Alors
Z
|h0 (w)||dw| ≤ (4N + 1)V,
∀r > 1,
Tr
où h(w) := arg wψ 02 (w)R0 (ψ(w)) et V est la variation totale de Γ.
Lemme 2.3.5. Pour tout r > 1, on a
Z
Tr
ψ 00 (w) |dw| ≤ 2V
0
ψ (w)
π
1 + sinh−1 (
r+1 ) .
r−1
Démonstration du théorème 2.3.2. Le nième polynôme de Faber de la matrice A est donné
par la formule suivante
Fn (A) =
1
2πi
Z
wn ψ(w)I − A
−1 0
ψ (w)dw
(r ≥ 1).
Tr
Ceci implique que, pour tout u, v ∈ CN tel que kuk = kvk = 1,
1
v Fn (A) u =
2πi
∗
où R(z) := v ∗ zI − A
−1
Z
wn R ψ(w) ψ 0 (w)dw
(r ≥ 1),
Tr
u est une fonction rationnelle d’ordre (N − 1, N ) et elle a des pôles
seulement à l’intérieur de Ω. On obtient donc par intégration par partie
2πi v ∗ Fn (A) u =
24
−1
n+1
Z
Tr
wn+1
i
d h
R ψ(w) ψ 0 (w) dw,
dw
et ceci impique que
n+1
2π v ∗ Fn (A) u ≤ r
Z
n+1
02 0
ψ R (ψ)|dw| +
Z
00
ψ R(ψ)|dw| .
Tr
Tr
En appliquant le lemme 2.3.3, on obtient
2π v ∗ Fn (A) u ≤
≤
00
rn+1
ψ R(ψ)|dw|
|h0 |ψ 0 R(ψ)|dw| + 2
n + 1 Tr
Tr
Z
Z
rn+1 |ψ 00 |
|h0 ||dw| + 2
|dw|
,
R(ψ)ψ 0 0
n+1
Tr
Tr
Tr |ψ |
Z
Z
où h(w) := arg wψ 02 (w)R0 (ψ(w)) . D’autre part, pour tout w ∈ Tr , on a R(ψ(w))ψ 0 (w) ≤
K(Ω)
r−1 .
Il suit donc que
2π v ∗ Fn (A) u ≤
On prend ainsi r = 1 +
1
n
K(Ω)rn+1
(n + 1)(r − 1)
Z
|h0 ||dw| + 2
Tr
Z
Tr
|ψ 00 |
|dw| .
|ψ 0 |
et on applique les lemmes 2.3.4 et 2.3.5 qui donnent les inégalités
suivantes
1
V
(4N + 1) +
≤ K(Ω)e
2π
π
V ≤ K(Ω)e
4N + 1 + αn ,
2π
∗
v Fn (A) u
Z
1
|w|=1+ n
|ψ 00 |
|dw|
|ψ 0 |
où
αn :=
2
π
Z
1
|w|=1+ n
4
|ψ 00 |
|dw| ≤ 1 + sinh−1 (2n + 1) .
0
|ψ |
π
Puisque Γ est de classe C 2 , alors α := supn≥1 αn est fini et on déduit donc que
kFn (A)k ≤ CΩ e N K(Ω),
avec
CΩ :=
V h
1 + αi
4+
.
2π
N
Le théorème suivant donne une généralisation du théorème matriciel de Kreiss pour les opérateurs linéaires bornés sur un espace de Hilbert de dimension finie ou infinie.
Théorème 2.3.6. (Toh et Trefethen [31]) Soit Ω un domaine compact de C avec un complémentaire simplement connexe. Supposons que A est un opérateur linéaire borné sur un espace
de Hilbert tel que σ(A) ⊂ Ω et K(Ω) < ∞. Alors, pour tout n ≥ 0, on a
kFn (A)k ≤ e (n + 1) K(Ω),
(2.6)
Inversement, si supn≥0 kFn (A)k < ∞, alors σ(A) ⊂ Ω, la constante K(Ω) est finie et on a
K(Ω) ≤ sup kFn (A)k.
(2.7)
n≥0
25
Démonstration. En appliquant la preuve du théorème 2.3.1 à la formule
1
Fn (A) =
2πi
Z
−1
wn ψ 0 (w) ψ(w)I − A
dw
(r > 1),
Tr
on obtient l’inégalité (2.6).
Supposons maintenant que supn≥0 kFn (A)k < ∞. On prouve que σ(A) ⊂ Ω par contraduction.
Supposons qu’il existe λ ∈ σ(A) ∩ Ωc . Nous avons d’une part,
sup |Fn (λ)| ≤ sup kFn (A)k < ∞.
n≥0
n≥0
D’autre part, on a
1
lim |Fn (λ)| n = |φ(λ)|,
n→∞
voir [25]. Ceci implque que supn≥0 kFn (A)k = ∞ puisque |φ(λ)| > 1. D’où la contraduction
et par conséquent σ(A) ⊂ Ω.
En utilisant le corollaire 2.1.3, on peut écrire
(zI − A)−1 =
∞
X
φ0 (z)
Fn (A),
φ(z)n+1
n=0
(z ∈ Ωc ).
Par la suite,
(zI − A)−1 ≤ sup kFn (A)k
n≥0
= sup kFn (A)k
n≥0
∞
X
|φ0 (z)|
|φ(z)|n+1
n=0
|φ0 (z)|
.
|φ(z)| − 1
On conclut donc que K(Ω) ≤ supn≥0 kFn (A)k.
2.3.2
Généralisation aux fonctions holomorphes
On présente dans cette section une généralisation du théorème matriciel de Kreiss pour les
fonctions holomorphes. On rappelle qu’une matrice ou un opérateur linéaire borné A satisfait
la condition de Kreiss pour le disque unité D s’il existe une constante C > 0 tel que
−1 I − λA
≤
C
1 − |λ|
pour tout
λ ∈ D.
Théorème 2.3.7. (Vitse [34]) Soit A une matrice de CN ×N qui satisfait la condition de
Kreiss avec une constante C > 0, et soit f ∈ A(D). Alors
kf (A)k ≤
26
16
C N kf kD .
π
Ce théorème peut être démontrer de deux façons, voir [34]. La première est difficile à généraliser pour des domaines plus généraux. La deuxième est basée sur une formule de représentation
intégrale qui peut être appliquée aux opérateurs plus généraux ayant le spectre dans un domaine plus général Ω et satisfaisant la condition généralisée de Kreiss. Cette démonstration
est une conséquence des trois lemmes suivants.
Lemme 2.3.8. Soit T un opérateur borné sur un espace de Banach tel que σ(T ) ⊂ D. Pour
tout f ∈ A(D), on a
1
f (T ) =
π
ZZ 1 − |z|2
I − zT
−1
00
z 2 f dxdy.
D
Démonstration. En utilisant les séries f (z) =
P∞
k=0 ak z
k
et I − zT
−1
=
P∞
k=0 z
nT k ,
on
obtient
−1 2 00
1
z f dxdy
1 − |z|2 I − zT
π D
X
X
Z Z
∞
∞
1 1 2π
n −inθ n
k ikθ
2
r e
T
ak (k + 2)(k + 1)r e
rdrdθ
(1 − r )
π 0 0
n=0
k=0
ZZ
=
= 2
Z 1X
∞
0
= 2
ak (k + 2)(k + 1)T k (1 − r2 )r2k+1 dr
k=0
∞
X
ak (k + 2)(k + 1)T
k
=
(1 − r2 )r2k+1 dr
0
k=0
∞
X
Z 1
ak T k = f (T ).
k=0
On note par H∞ l’espace des fonctions analytiques bornées sur D et par B11 A l’espace analytique de Besov défini par
B11 A := f ∈ A(D) : kf kB1 A :=
1
1
π
ZZ 2 00 z f dxdy < ∞ .
D
Pour plus d’information sur les espaces de Banach H∞ et B11 A, voir [39].
Le lemme suivant est une conséquence du célèbre théorème de G. Pick [12, section IV.1]. Le
degré d’une fonction rationnelle r =
p
q
est défini par deg(r) = max deg(p), deg(q) .
Lemme 2.3.9. Soit f ∈ H∞ et B un produit fini de Blashke. Il existe une
unique fonction
n
rationnelle r0 telle que r0 − f ∈ BH∞ , deg(r0 ) < deg(B) et kr0 k∞ := inf kf + Bhk∞ : h ∈
o
H∞ = dist f, BH∞ ≤ kf k∞ . En fait r0 = λB1 , où |λ| = dist f, BH∞ et B1 est un produit
de Blashke avec deg(B1 ) < deg(B).
Le lemme suivant compare les normes des fonctions rationnelles dans les espaces H∞ et B11 A.
27
Lemme 2.3.10. Soit r une fonction rationnelle telle que deg(r) ≤ n. Alors
krkB1 A ≤
1
8
(n + 1)krk∞ .
π
Pour une démonstration du lemme précédent, voir [34].
Démonstration du théorème 2.3.7. En utilisant le lemme 2.3.8, on obtient
f (A) =
≤
ZZ 1
−1 2 00
2
z f dxdy 1 − |z| I − zA
π
D
ZZ −1 1
2 00 sup 1 − |z|2 I − zA z f dxdy
π
z∈D
D
= 2Ckf kB1 A .
1
On note par B le produit fini de Blashke défini par
Y |λ| λ − z d(λ)
B(z) :=
λ 1 − λz
λ∈σ(A)
,
où d(λ) dénote la multiplicité de λ. D’après le lemme
2.3.9, il existe une fonction rationnelle
r0 telle que r0 − f ∈ BH∞ , kr0 k∞ = dist f, BH∞
et deg(r0 ) < deg(B) = N . Il suit que
r0 (A) = f (A). Il en résulte donc du lemme 2.3.10 ce qui suit,
f (A) = r0 (A) ≤
≤
≤
2C r0 B1 A
1
16
16
CN r0 ∞ = CN f H∞ /BH∞
π
π
16
CN kf k∞ .
π
Le théorème 2.3.7 généralise le théorème matriciel de Kreiss aux fonctions holomorphes sur
le disque unité. Il est intéressant de l’étendre à un domaine compact de complémentaire simplement connexe Ω. Il paraît possible de le faire en généralisant la démonstration précédente,
mais l’absence des informations précises du domaine Ω comparativement au disque unité rend
la tâche plus difficile. Pour appliquer les mêmes techniques, on a besoin de regarder de nouveau les trois lemmes précédents en remplaçant le disque unité par le domaine Ω et de savoir
comment on peut sortir avec des résultats équivalents.
La démonstration du théorème 2.3.2 permet de réduire un peu la difficulté de ce problème
puisqu’elle généralise le théorème matriciel de Kreiss aux polynômes de Faber en utilisant
les propriétés de Ω. Le problème qui se pose à ce niveau est de savoir plus d’informations
sur la frontière ∂Ω. Soit p un polynôme de degré n. Soit A ∈ CN ×N telle que σ(A) ⊂ Ω et
K(Ω) < ∞. Il est intéressant de trouver une borne supérieure de p(A) indépendante de n.
La matrice p(A) peut être représentée par la formule suivante
p(A) =
n
X
k=0
28
ak
1
2πi
Z
Γr
φ(z)k (zI − A)−1 dz,
(2.8)
où ak :=
φ0 (z)
1 R
2πi Γr φ(z)k+1 p(z)dz,
k = 0, · · · , n, sont les coefficients de Faber associés à p. Si on
applique les mêmes techniques utilisées dans la démonstration du théorème 2.3.2, pourait-on
trouver une borne supérieure de p(A) indépendante de n ? Cette question s’est averée un
peu délicate à résoudre.
On a essayé autrement en appliquant le résultat du théorème 2.3.2 à la formule (2.8). Ceci
nous a donné l’inégalité suivante
p(A) ≤ CΩ e N K(Ω) |||pe|||,
(2.9)
où
pe(w) := F −1 (p)(w) =
n
X
ak wk
et |||pe||| :=
k=0
n
X
|ak |.
k=0
Existe-t-il une borne supérieure de |||pe||| indépendante de n ? Cette question a resté aussi
difficile à countourner.
En utilisant la transformation de Faber et le théorème 2.3.7, on a réussi à généraliser le théorème matriciel de Kreiss aux fonctions holomorphes sur le domaine Ω. Certaines conditions
devraient cependant être vérifiées. Si par exemple Ω est un disque quelconque du plan, alors
on obtient le résultat suivant.
Théorème 2.3.11. On suppose que D est un disque fermé de C et soit A une matrice N × N
sur C telle que σ(A) ⊂ D et K(D) < ∞. Alors pour toute fonction f ∈ A(D), on a
kf (A)k ≤
16
K(D) N kf kD .
π
Démonstration. Soit z0 ∈ C et R > 0 tel que D = z ∈ C : |z − z0 | ≤ R . On a donc
φ(z) =
1
(z − z0 ),
R
ψ(w) = Rw + z0
et
Fn (z) = R−n (z − z0 )n ,
c
pour tout z ∈ Ωc , w ∈ D et n ≥ 0. Remarquons que φ et ψ sont aussi des transformations
conformes entre D et D. Ainsi, pour tout |w| > 1,
−1 wI − φ(A)
−1 0
φ ψ(w) RK(D) φ ψ(w) − 1
= R ψ(w)I − A
≤
=
K(D)
.
|w| − 1
En appliquant le théorème 2.3.7, on trouve
16
e
K(D) N kfekD ,
f φ(A) ≤
π
∀fe ∈ A(D).
(2.10)
29
En définissant f := fe ◦ φ, on a
kfekD = sup |fe(w)|
w∈D
= sup |fe ◦ ψ(w)|
w∈D
= sup |f (z)| = kf kD .
z∈D
On trouve donc le résultat de l’inégalité 2.10.
Supposons maintenant que Ω est un domaine simplement connexe et compact. Le théorème
de Riemann implique qu’il existe une transformation conforme g : Ω → D. Une généralisation de la démonstration précédente pour le domaine Ω demande plus d’information sur les
transformations conformes g. Si on suppose par exemple l’hypothèse suivante
∃C > 0
où Rψ(w) (z) := ψ(w)−z
−1 F
R
R
(T
)
g(T
)
≤
C
,
ψ(w)
ψ(w)
tel que
−1
(2.11)
avec z ∈ int(Ω) et |w| > 1, on peut étendre le théorème précédent
au domaine Ω.
Théorème 2.3.12. Soit Ω un domaine compact de C avec un complémentaire simplement
connexe. Soit A une matrice N × N sur C telle que σ(A) ⊂ Ω et K(Ω) < ∞. On suppose qu’il
existe une transformation conforme g : Ω → D vérifiant l’hypothèse (2.11). Alors, pour tout
f ∈ A(Ω), on a
kf (A)k ≤
16
CΩ K(Ω) N kf kΩ ,
π
où la constante CΩ ne dépend que de Ω.
Démonstration. On a pour tout z ∈ Ωc ,
Rz (ζ) := z − ζ
−1
∞
X
φ0 (z)
Fn (ζ),
φ(z)n+1
n=0
=
(ζ ∈ Ω).
Par conséquent,
F −1 Rz
g(ζ)
∞
X
=
n
φ0 (z)
g(ζ)
n+1
φ(z)
n=0
=
φ0 (z)
.
φ(z) − g(ζ)
Il en résulte donc pour w = φ(z),
−1
w − g(ζ)
30
= ψ 0 (w)F −1 Rψ(w)
g(ζ) .
L’hypothèse (2.11) entraîne alors
−1 =
w − g(A)
|ψ 0 (w)|F −1 Rψ(w)
g(A) ≤ |ψ 0 (w)|C Rψ(w) (A)
≤
CK(Ω)
.
|w| − 1
Ceci implique que g(A) vérifie la condition de Kreiss et puisque σ g(A) ⊂ D, on déduit du
théorème 2.3.7
16
e
C K(Ω) N fe∞ ,
f g(A) ≤
π
fe ∈ A(D)
où
tel que
f = fe ◦ g.
On déduit que
f (A) ≤ 16 C K(Ω) N fe = 16 C K(Ω) N kf kΩ ,
D
π
π
où CΩ est la constante C définie par l’hypothèse (2.11).
On termine ce chapitre par une généralisation du théorème matriciel de Kreiss pour les fonctions de Markov tout en ajoutant l’hypothèse de symétrie de Ω. Une fonction f est dite de
Markov si elle peut se représenter sous la forme suivante
f (z) :=
Z β
dµ(x)
α
z−x
,
(2.12)
où µ est une mesure positive dont le support supp(µ) ⊂ [α, β] et −∞ ≤ α < β < ∞. Par
exemple, la fonction
f (z) :=
log(1 + z)
=
z
Z −1 −1
( x )dx
−∞
z−x
est une fonction de Markov. La fonction g(z) := log(1 + z) = zf (z) est aussi une simple
transformation d’une fonction de Markov. Pour plus de détails sur les fonctions de Markov,
voir [4]. En s’inspirant de la démonstration du théorème 6.1(a) de [4], on a pu obtenir une
majoration intéressante (2.13) des coefficients de Faber. En combinant ceci avec le théorème
2.3.6 on obtient le théorème suivant. On rappelle que, d’après le théorème de Riemann [11],
il existe une unique transformation conforme φ de Ωc vers Dc normalisée par φ(∞) = ∞ et
φ0 (∞) > 0.
Théorème 2.3.13. Soit Ω un domaine compact symétrique dont le complémentaire est simplement connexe. Supposons que A est un opérateur linéaire borné sur un espace de Hilbert
tel que σ(A) ⊂ Ω et K(Ω) < ∞. Soit f une fonction de Markov définie par (2.12) telle que
−∞ ≤ α < β < minz∈Ω Re(z). Alors, on a
kf (A)k ≤ e CΩ (f ) K(Ω)kf kΩ ,
où CΩ (f ) =
1
(1−η)2
et η = supx∈[α,β]
1
|φ(x)| .
31
Démonstration. La série de Faber de f est définie par
f (A) =
∞
X
an Fn (A),
n=0
où an sont les coefficients de Faber. En utilisant le théorème de Fubini et la formule intégrale
de Cauchy, on trouve
an = −
Z β
α
φ0 (x)
dµ(x)
φ(x)n+1
(n ≥ 0).
Puisque Ω est un domaine symétrique, alors on obtient, pour tout n ≥ 0,
|an | =
Z β
α
où η = supx∈[α,β]
1
|φ(x)| .
|φ0 (x)|
dµ ≤ η n |a0 |,
|φ(x)|n+1
(2.13)
Comme β < minz∈Ω Re(z), alors on déduit que η ∈ (0, 1).
En utilisant maintenant le fait que |a0 | ≤ kf kΩ et le théorème 2.3.6, on conclut que
kf (A)k ≤
∞
X
|an |Fn (A)
n=0
≤ e K(Ω)kf kΩ
∞
X
(n + 1)η n
n=0
≤ e CΩ (f ) K(Ω)kf kΩ ,
où CΩ (f ) =
1
.
(1−η)2
Remarquons que l’inégalité (2.13) joue un rôle essentiel dans la démonstration du théorème
précédent. Si on arrive à majorer les coefficients de Faber dans l’inégalité (2.9) de telle sorte
qu’on obtient une borne supérieure de |||pe||| indépendante de n, alors on peut généraliser le
théorème matriciel de Kreiss aux fonctions holomorphes sur un domaine plus général avec
une autre façon.
Les chapitres qui suivent discutent le comportement d’une matrice en utilisant d’autres techniques du pseudospectre.
32
Chapitre 3
Pseudospectre identique
Selon Trefethen et Embree [32, §47], on dit que deux matrices A et B ont le même comportement si σ(A) = σ(B) et pour toute fonction f analytique sur un voisinage du spectre, on a
kf (A)k = kf (B)k. La matrice f (A), ou bien de façon équivalente f (B), est déterminée par la
résolvante zI − A
−1
de A comme elle montre la formule suivante
1
f (A) =
2πi
Z
zI − A
−1
f (z)dz,
(3.1)
Γ
où Γ est un contour fermé entourant σ(A).
Dans le cas où la norme zI −A
−1 est connue, la formule (3.1) permet de donner seulement
des majorants de la norme kf (A)k, mais ils ne sont pas en général optimaux. L’exemple le
plus connu et le plus réputé de cette majoration est le théorème matriciel de Kreiss qui a été
discuté aux deux premiers chapitres.
On dit que A et B ont des pseudospectres identiques si σ (A) = σ (B) pour tout > 0. Ceci
est équivalent à
−1 −1 zI − A
= zI − B
(i)
(z ∈ C).
(3.2)
Est-ce qu’on peut conclure de la condition (3.2) que les matrices A et B ont le même
comportement ?
(ii)
Pourrait-on aller plus loin pour conclure que A et B sont unitairement équivalentes ?
Notre objectif à travers ces deux questions est de déterminer le comportement d’une matrice
lorsqu’on connaît la valeur exacte de la norme de la résolvante. Ceci est un peu différent bien
sûr du théorème matriciel de Kreiss qui donne une borne supérieure de la norme kf (A)k en
fonction de celle de la norme de la résolvante.
La réponse à ces deux questions est positive si N = 1, 2. Cependant, pour N ≥ 3, la réponse
33
à la deuxième question est négative et on peut voir ça dans l’exemple suivant. Les matrices

1 0 0





A=
 0 1 0 
0 0 0
1 0 0




et B = 
 0 0 0 
0 0 0
ont des pseudospectres identiques, mais ils n’ont pas le même rang. On verra dans ce qui suit
une étude détaillée de la première question.
3.1
Pseudospectre identique et le comportement d’une
matrice
On note bien que si A et B sont des matrices ayant le même comportement, alors elles ont
des pseudospectres identiques, voir [13]. Dans cette section, on présentera une étude détaillée
de la réciproque de cette implication.
3.1.1
Puissance d’une matrice
Soit A et B deux matrices N × N sur C ayant des pseudospectres identiques. Pouvons-nous
conclure que An = B n pour tout n ≥ 1 ? Le théorème suivant donne une réponse au cas
n = 1.
Théorème 3.1.1. [22, Théorème 2.1] Soit A et B deux matrices N × N sur C satisfaisant
(3.2). Alors
1
kAk
≤
≤ 2.
2
kBk
Démonstration. On rappelle que le rayon numérique µ et la norme euclidienne k · k sont deux
normes équivalentes (voir [14, 24] pour plus de détails) et on a
1
kT k ≤ µ(T ) ≤ kT k,
2
(3.3)
pour tout opérateur borné T . On rappelle aussi que µ(T ) peut être donné par la formule
suivante
µ(T ) = lim sup
s→0
kI + sT k − 1
.
|s|
(3.4)
Puisque A et B vérifient l’égalité (3.2), on déduit de (3.4) que µ(A) = µ(B). Le résultat
découle donc de l’inégalité (3.3).
Greenbaum et Trefethen [13] ont construit un exemple d’une paire de matrices A et B satisfaisant (3.2) mais kAk =
6 kBk. Le théorème suivant est une généralisation de leurs constructions
qui montre en outre que la constante 2 apparaissant au théorème précédent est optimale.
34
Théorème 3.1.2. (Ransford [22]) Pour tout N ≥ 7, il existe des matrices A et B appartenant
à CN ×N et satisfaisant (3.2) tels que
kAk = 1
kBk = 2 cos
et
π .
N −1
Pour une démonstration de ce théorème, voir [22]. Ce théorème a donné une réponse négative
à notre question de départ
(i). Toutefois, on peut la remplacer par la question suivante : Y a
An t-il des bornes pour n similaires aux bornes données par le théorème 3.1.1 pour n ≥ 2 ? Si
B
c’est le cas, alors on peut dire que le pseudospectre détermine la norme des puissances à un
facteur constant près. Cependant, le théorème suivant répond négativement à cette question.
Une suite αk , finie ou infinie, est dite sous-multiplicative si αk+l ≤ αk αl pour tout k, l pour
lesquelles l’inégalité est définie.
Théorème 3.1.3. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N satisfaisant
(3.2) tels que
k
A = αk
et
k
B = βk
(k = 2, 3, · · · , n).
On peut prendre N = 2n + 3.
La démonstration de ce théorème est basée sur la construction d’une matrice de translation
pondérée. Cette matrice est également utile pour les preuves des théorèmes qui suivent. On
va la présenter de façon facile qui nous permet de l’exploiter prochainement.
Pour w1 , · · · , wn > 0, on définit la matrice de translation pondérée par





S(w1 , · · · , wn ) := 




0 w1
0
...
0

0
..
.
0
..
.
w2
w1
..
.
...
..
.
0
..
.
0
0
0
...
wn
wn−1









0
0
0
...
0
Lemme 3.1.4. Soit w1 , · · · , wn une suite sous-multiplicative et positive. Pour S := S(w1 , · · · , wn ),
on a
k
S = wk
(k = 1, · · · , n)
et
1+
n
X
−1 1
max wk |z|k ≤ I − zS
wk |z|k
≤1+
2 1≤k≤n
k=1
(z ∈ C).
(3.5)
35
Démonstration. Pour tout k = 1, · · · , n, il existe une matrice de permutation cyclique Q telle
que
S k Q = diag wk ,
wk+1
wn
,··· ,
, 0, · · · , 0 .
w1
wn−k
Puisque la suite w1 , · · · , wn est sous-multiplicative et positive, alors on aura
n
o
k S Q = max wk , wk+1 , · · · , wn , 0, · · · , 0 = wk .
w1
wn−k
Comme kQk = Q−1 = 1, alors on déduit que S k = wk . Pour la deuxième partie du
lemme, on remarque que
−1 =
I − zS
X
n
n
X
X
n k k
k k
|z|k wk
|z| S ≤ 1 +
z S ≤
(z ∈ C).
k=1
k=0
k=0
Pour la borne inférieure, on fixe tout d’abord k ∈ {1, · · · , n} et z ∈ C. Soit Q la matrice
de permutation qui échange les colonnes 2 et k + 1. Soit P la matrice diagonale P :=
diag(1, eiθ , 0, · · · , 0) avec θ = − arg z k . On a
P Q I − zS
−1
1 |z|k wk
QP =
0
!
⊕ O,
1
où ⊕ désigne la somme directe des matrices par blocs et O dénote la matrice nulle. Par
conséquent,
−1 I − zS
≥
!
1 |z|k wk
0
1
⊕ O.
(3.6)
En conjuguant avec la matrice de permutation qui échange les deux premières colonnes, on
trouve
1 |z|k wk
0
1
!
⊕ O = 1
0
!
|z|k wk 1
⊕ O.
(3.7)
En prenant les moyennes de (3.6) et (3.7), il s’ensuit que
−1 I − zS
≥
1
1
k
2 |z| wk
1
k
2 |z| wk
1
!
⊕ O.
Puisque la norme euclidienne k · k est supérieure ou égale au rayon spectral, on obtient
−1 I − zS
≥ρ
1
1
k
2 |z| wk
1
k
2 |z| wk
1
!
!
⊕O
1
= 1 + |z|k wk .
2
Le résultat est obtenu donc en prenant le maximum pour k allant de 1 à n.
36
Démonstration du théorème 3.1.3. Choisissons α1 et β1 assez grands de telle sorte que les
suites α1 , · · · , αn et β1 , · · · , βn soient sous-multiplicatives. Soit γ et Γ deux nombres positifs
tels que Γ ≥ γ. Définissons ensuite les matrices suivantes
A0 := S(α1 , · · · , αn ),
B0 := S(β1 , · · · , βn ) et
C0 := S Γ, γ 2 , γ 3 , · · · , γ n+1 .
Définissons alors les matrices A et B sur C(2n+3)×(2n+3) par A := A0 ⊕ C0 et B := B0 ⊕ C0 .
On va choisir dans la suite de cette preuve les nombres γ et Γ qui donnent des matrices A et
B avec des pseudospectres identiques et qui satisfassent Ak = αk et B k = βk .
Choisissons tout d’abord γ > 0 assez petit tel que γ k < min αk , βk pour k = 2, 3, · · · , n. On
a donc
k
A = max Ak , C k = max αk , γ k = αk
0
0
et de la même façon B k = βk pour k = 2, · · · , n.
On rappelle que A et B ont des pseudospectres identiques si et seulement si
−1 −1 I − zA
= I − zB
(z ∈ C).
On a
−1 −1 −1 I − zA
= max I − zA0
, I − zC0
,
et
−1 −1 −1 I − zB
= max I − zB0
, I − zC0
.
Il suffit donc de choisir Γ > 0 tel que
−1 −1 I − zC0
≥ I − zA0
et I − zC0
−1 −1 ≥ I − zB0
(z ∈ C).
Par le lemme 3.1.4, on peut obtenir les inégalités précédentes si
max
Γt γ n+1 tn+1 2
,
2
≥
n
X
αk t k
et
max
k=1
Γt γ n+1 tn+1 2
,
2
≥
n
X
βk tk
(t ≥ 0).
k=1
Il existe t0 := t0 α1 , · · · , αn , β1 , · · · , βn , γ tel que
n
X
γ n+1 tn+1
≥
αk tk
2
k=1
et
n
X
γ n+1 tn+1
≥
βk tk
2
k=1
(t ≥ t0 ).
37
Ainsi, pour compléter la construction, on choisit Γ > 0 assez grand tel que
n
Γt X
≥
αk t k
2
k=1
n
Γt X
≥
βk tk
2
k=1
et
(0 ≤ t ≤ t0 ). Le théorème précédent montre que les matrices peuvent avoir des pseudospectres identiques
bien que leurs puissances supérieures ou égales à 2 ont des normes complètement indépendantes les unes des autres. Les matrices qui sont construites dans la preuve de ce théorème sont
nilpotentes. La question qui se pose à ce niveau est de savoir comment les résultats changent
si on considère des matrices plus générales. Est-ce que le pseudospectre par exemple dans ce
cas va déterminer la norme des puissances d’une matrice diagonalisable ? Rappelons qu’une
matrice est dite diagonasable si elle est semblable à une matrice diagonale. La combinaison de
la construction du théorème précédent avec un argument de perturbation permettra d’obtenir
le contre exemple énoncé dans le théorème qui suit.
Théorème 3.1.5. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives positives et > 0. Alors il existe N ≥ 1 et des matrices diagonalisables A, B ∈
CN ×N qui satisfassent (3.2) tels que
αk − < Ak < αk + βk − < B k < βk + et
(k = 2, 3, · · · , n).
(3.8)
L’idée de base pour démontrer ce théorème est de perturber la construction de la preuve du
théorème 3.1.3. On va avoir besoin au début les deux lemmes suivants.
Lemme 3.1.6. Soit V et W deux matrices sur C telles que V est inversible et kV − W k <
1 .
2V −1 Alors W est inversible aussi et on a
2 −1
V
− W −1 ≤ 2V −1 V − W .
Démonstration. On a I − V −1 W ≤ V −1 kV − W k ≤
1
2.
Par conséquent, V −1 W est
inversible, et donc W l’est aussi.
D’autre part, on a
−1
V
− W −1 = V −1 (W − V )W −1 ≤ V −1 kV − W kW −1 .
1 ,
2 V −1 Puisque kV − W k < (3.9)
alors V −1 − W −1 < 12 W −1 . Il suit donc que
−1 W ≤ W −1 − V −1 + V −1 1
W −1 + V −1 .
≤
2
Ceci est équivalent à
−1 W ≤ 2V −1 .
38
(3.10)
Le résultat découle donc de (3.9) et (3.10).
Lemme 3.1.7. Pour tout V ∈ CN ×N , on a
adj(V ) − (−V )N −1 ≤ 2N ρ(V )kV kN −2 ,
où adj(V ) dénote la matrice des cofacteurs de V et ρ(V ) dénote le rayon spectral de V .
Démonstration. Puisque les matrices inversibles sont denses dans CN ×N , alors il suffit de
montrer cette inégalité pour les matrices inversibles. Soit p le polynôme caractéristique de V .
QN
Comme p(z) :=
écrire p(z) =
k=1 (z
k
k=1 ak z ,
PN
aN = 1,
− λk ), où λ1 , · · · , λN sont les valeurs propres de V , alors on peut
avec
a0 = (−1)N det(V )
et |ak | ≤
!
N
ρ(V )N −k
k
(k = 0, · · · , N ).
(3.11)
D’après le théorème de Cayley-Hamilton, on a p(V ) = 0. Celà implique que, en multipliant
par V −1 , on aura
a0 V −1 + aN V N −1 = −
N
−1
X
ak V k−1 .
k=1
Il suit donc de (3.11) que
−1
NX
(−1)N det(V )V −1 + V N −1 ≤
N
k
k=1
!
ρ(V )N −k kV kk−1 .
Comme det(V )V −1 = adj(V ) et ρ(V ) ≤ kV k, on déduit donc que
(−1)N adj(V ) + V N −1 ≤
N
−1
X
k=1
N
N
k
!
ρ(V )kV kN −k−1 kV kk−1 .
≤ 2 ρ(V )kV kN −2 .
Démonstration du théorème 3.1.5. Définissons les matrices A0 , B0 et C0 de la même façon
que dans la démonstration du théorème 3.1.3. Le choix de γ est le même que précédemment.
Cependant, le choix de Γ est un peu différent et doit satisfaire
Γ ≥ γ,
n
Γt X
≥
αk tk + 2t
2
k=1
et
n
Γt X
1
≥
βk tk + 2t (0 ≤ t ≤ ).
2
γ
k=1
(3.12)
La prochaine étape est de perturber A0 , B0 et C0 de façon à obtenir des matrices diagonalisables. Soit ζ1 , · · · , ζn des nombres complexes distincts de modules égales à 1/2 et définissons
les matrices
D := diag(ζ1 , · · · , ζn+1 ) et D0 := diag(ζ1 , · · · , ζn+1 , 0).
39
Par la suite, pour tout δ > 0, on définit
Aδ := A0 + δD,
Bδ := B0 + δD
et Cδ := C0 + δD0 .
Puisque chacune des matrices Aδ , Bδ et Cδ a des valeurs propres distinctes, alors les matrices
Aδ ⊕ Cδ et Bδ ⊕ Cδ sont diagonalisables.
Si δ > 0 est choisi assez petit, alors par continuité, on a
(Aδ ⊕ Cδ )k − αk < et (Bδ ⊕ Cδ )k − βk < (k = 2, · · · , n).
On montre ensuite, en réduisant δ si nécessaire, on a
−1 −1 ≥ Aδ − zI
Cδ − zI
et Cδ − zI
−1 −1 ≥ Bδ − zI
(|z| ≥ γ). (3.13)
À partir du lemme 3.1.4, on a
n
X
−1 −1 1
I
−
wC
−
I
−
wA
≥
(1
+
Γ|w|)
−
1
+
|αk ||w|k
0
0
2
(w ∈ C).
k=1
Il suit du choix de Γ défini dans (3.12) que
−1 −1 I − wC0
− I − wA0
≥ 2|w|
(|w| ≤
1
).
γ
On applique à ce niveau le lemme 3.1.6 avec V = I − wA0 et W = I − wAδ . Si δ|w|kDk ≤
1/ 2(I − wA0 )−1 , alors
2
−1
−1 − I − wA0
≤ 2(I − wA0 )−1 δ|w|kDk.
I − wAδ
Il s’ensuit que si on choisit δ assez petit que l’on veut, alors
−1
−1 − I − wA0
≤ |w|
I − wAδ
(|w| ≤
1
).
γ
(|w| ≤
1
).
γ
De la même façon, si δ assez petit, alors
−1
−1 − I − wC0
I − wCδ
≤ |w|
Si on met toutes ces conditions ensembles, alors on obtient l’inégalité suivante pour δ suffisamment petit
−1 −1 I − wCδ
≥ I − wAδ
(|w| ≤
1
),
γ
et l’équation (3.13) découle donc pour A. Bien évidemment. le même argument est valide
aussi pour B.
L’étape suivante consiste à montrer que si on réduit δ encore un peu plus, on peut donc
assurer que
−1 −1 Cδ − zI
≥ Aδ − zI
40
et Cδ − zI
−1 −1 ≥ Bδ − zI
(|z| ≤ δ). (3.14)
Pour ce faire, on utilise le lemme 3.1.7 avec V = Aδ − zI. Puisque V est de dimension
(n + 1) × (n + 1), on obtient
adj(Aδ − zI) − (zI − Aδ )n ≤ 2n+1 ρ(Aδ − zI)kAδ − zIkn−1 .
Puisque σ(Aδ − zI) = σ(δD − zI), alors
ρ(Aδ − zI) = ρ(δD − zI) ≤ kδD − zIk ≤ δ + |z|.
Il suit donc que
adj(Aδ − zI) − (zI − Aδ )n ≤ 2n+1 (δ + |z|)kAδ − zIkn−1 .
On note aussi que
sup (zI − Aδ )n − (−A0 )n = O(δ)
(δ → 0).
|z|≤δ
Par conséquent, il existe une constante K, indépendante de z et δ, telle que
adj(Aδ − zI) − (−A0 )n ≤ Kδ
(|z| ≤ δ).
De la même façon, comme Cδ est une matrice (n + 2) × (n + 2), il existe une constante K 0
telle que
adj(Cδ − zI) − (−C0 )n+1 ≤ K 0 δ
(|z| ≤ δ).
Puisque An0 6= 0 et C0n+1 6= 0, on déduit donc, pour δ suffisamment petit, que
adj(Cδ − zI) ≥ 1 C n+1 0
2
et adj(Aδ − zI) ≤ 2An0 (|z| ≤ δ).
On a
adj(Cδ − zI) = det(Cδ − zI)(Cδ − zI)−1 ,
adj(Aδ − zI) = det(Aδ − zI)(Aδ − zI)−1
et
det(Cδ − zI)
det(δD0 − zI)
=
= −z.
det(Aδ − zI)
det(δD − zI)
En combinant tous ces facteurs, on obtient pour δ suffisamment petit
(Cδ − zI)−1 1 C0n+1 1 C0n+1 ≥
≥
(Aδ − zI)−1 |z| 4An0 δ 4An0 (|z| ≤ δ).
De cette façon, si δ est choisi suffisamment petit, alors l’équation 3.14 tient pour A. Le même
argument s’applique aussi pour B.
On fixe maintenant δ > 0 de façon à ce que (3.13) et (3.14) tiennent. Pour récapituler, si
41
on définit A := Aδ ⊕ Cδ et B := Bδ ⊕ Cδ , alors A et B sont des matrices diagonalisables
satisfaisant (3.8) et
(A − zI)−1 = (B − zI)−1 (z ∈ Q),
où Q est l’anneau {z ∈ C : δ < |z| < γ}.
On traite dans ce qui suit le cas où z ∈ Q. On définit L par
n
o
L := max sup (A − zI)−1 , sup (B − zI)−1 .
z∈Q
z∈Q
On couvre ainsi Q par un nombre fini des disques de rayons 1/L et de centres µ1 , · · · , µm
appartenants à Q. On a donc, pour E := diag(µ1 , · · · , µm ),
(E − zI)−1 ≥ (A − zI)−1 et
(E − zI)−1 ≥ (B − zI)−1 (z ∈ Q).
e := B ⊕ E respectivement,
De cette façon, si on remplace A et B par Ae := A ⊕ E et B
e sont
alors ils vont avoir des pseudospectres identiques. Bien évidemment, les matrices Ae et B
diagonalisables. Enfin, comme µ1 , · · · , µm ∈ Q, on obtient E k ≤ γ k min(αk , βk ) pour tout
k = 2, · · · , n et (3.8) reste encore valide.
3.1.2
Fonction holomorphe d’une matrice
On rappelle que l’objectif principal de ce chapitre est de savoir si le pseudospectre détermine
le comportement d’une matrice ou non. Plus précisément, soit A et B deux matrices nonnormales de CN ×N , pour N ≥ 1, qui ont des pseudospectres identiques. Est-ce qu’on peut
conclure que f (A) = f (B) pour toute fonction f holomorphe sur un voisinage du spectre
de A ou B ? Ou tout au moins, existe-t-il une constante M = M (f, N ) tel que f (A) ≤
M f (B) ?
Dans le cadre de cette thèse, on va montrer un résultat plus général qui répond négativement
à cette dernière question. On généralise aussi le théorème 3.1.1 affirmant que le pseudospectre
détermine la norme d’une matrice à un facteur constant près. Ces résultats ont été publiés
dans [23].
On rappelle qu’une fonction f complexe est dite une transformation de Möbius si elle est
définie par
f (z) :=
az + b
cz + d
(z ∈ C),
où a, b, c, d sont des nombres complexes tels que ad − bc 6= 0. Toute transformation de Möbius
peut être décomposée en une composée de transformations des trois types suivants
42
.
f1 (z) = z +
.
f2 (z) =
.
f3 (z) =
d
c
(Translation)
1
(Inversion)
z
bc−ad
z + ac
(Similitude).
c2
Soit f une fonction holomorphe sur un domaine D de C, et telle que sa dérivée f 0 ne s’annule
pas sur D. La dérivée schwarzienne de f , qu’on note S(f ), est définie par
S(f ) :=
f 00 0
1 f 00 2
f0
2 f0
000
f
3 f 00 2
−
.
f0
2 f0
=
−
On vérifié à l’aide d’un calcul direct que cette dérivée satisfait la relation S(1/f ) = S(f ). Ceci
permet de définir la dérivée schwarzienne d’une fonction méromorphe au voisinage d’un pôle
simple.
La proposition suivante montre que les transformations de Möbius sont caractérisées par une
dérivée schwarzienne nulle.
Proposition 3.1.8. Une fonction méromorphe f est une transformation de Möbius si et
seulement si S(f ) = 0.
Démonstration. On suppose que S(f ) = 0 et on pose y = f 00 /f 0 . On obtient donc l’équation
différentielle y 0 −(1/2)y 2 = 0. Les solutions de cette équation sont données par y = −2/(z+c1 ),
où c1 est une constante. En revenant à la fonction f , on aura
f 00 =
−2 0
f.
z + c1
Ce qui entraîne que
f 0 (z) =
c2
(z + c1 )2
et alors
f (z) =
c3 z + c1 − c2
,
z + c1
où c2 et c3 sont des constantes. D’où f est une transformation de Möbius.
Réciproquement, si on considère une transformation de Möbius f (z) = (az + b)/(cz + d), avec
ad − bc 6= 0, alors on obtient par un calcul direct que S(f ) = 0.
Pour plus d’information sur les transformations de Möbius et leurs diverses applications, on
peut consulter par exemple [5]. Le théorème suivant généralise le théorème 3.1.1 pour les
transformations de Möbius.
Théorème 3.1.9. (Ransford et Raouafi [23]) Soit A et B deux matrices N × N sur C ayant
des pseudospectres identiques. Alors pour toute transformation de Möbius f holomorphe sur
un voisinage du spectre de A ou de B, on a
f (A) ≤ M f (B),
où M =
√
5+ 33
2
≈ 5, 3723.
43
Notons toutefois qu’on n’a pas jusqu’à présent d’exemple qui prouve que cette constante est
optimale.
Démonstration. Après une transformation affine de la variable, trois cas sont à considérer.
Cas 1 : f (z) = 1/z. En utilisant la condition (3.2), on obtient
f (A) = A−1 = B −1 = f (B).
Cas 2 : f (z) = z. En utilisant le théorème 3.1.1, on aura
f (A) = kAk ≤ 2kBk = 2f (B).
Cas 3 : f (z) = 1 − 1/z. On a
f (A)
I − A−1 = .
f (B)
I − B −1 On estime maintenant cette quantité en fonction de t := I − B −1 .
D’une part, on a
I − A−1 ≤ 1 + A−1 = 1 + B −1 ≤ 2 + I − B −1 .
Il en résulte donc
f (A)
2
≤ + 1.
f (B)
t
(3.15)
D’autre part, l’utilisation du 2ième cas, nous donne
I − A−1 = (A − I)A−1 ≤ kA − IkA−1 ≤ 2kB − IkB −1 ,
et par la suite
f (A)
≤ 2kBkB −1 .
f (B)
Si t < 1, alors B = I − (I − B −1 )
−1
P∞
− B −1 )k et par conséquent kBk ≤
P∞
k
k=1 t =
−1 −1
1
≤ 1 + B − I = 1 + t. Il en résulte donc, pour t < 1, que
1−t . On a aussi B
f (A)
1+t
≤2
.
(3.16)
f (B)
1−t
=
k=1 (I
En combinant (3.15) et (3.16), on conclut que
n2
f (A)
1 + to
≤ sup min
+
1,
2
.
f (B)
t
1−t
0<t<1
44
Un calcul élémentaire montre que cette borne supérieure est égale à (5 +
√
33)/2, d’où le
résultat.
On a montré dans la section précédente que, pour tout N ≥ 7, il existe des matrices
A, B ∈ CN ×N qui ont des pseudospectres identiques mais An et B n sont complètement
indépendantes pour tout 2 ≤ n ≤
n>
N −3
2
N −3
2 .
Le résultat qu’on a montré ne répond pas au cas
qui est plus intéressant dans les applications. Est-il possible de le démontrer pour
ce dernier cas ?
Le pseudospectre est aussi utilisé pour étudier les exponentiels. Existe-t-il une constante
M > 0 telle que pour toutes matrices A, B ∈ CN ×N ayant des pseudospectres identiques, on a
A
e ≤ M eB ? Le théorème suivant donne un résultat plus général qui répond négativement
à ces questions.
Théorème 3.1.10. (Ransford et Raouafi [23]) Soit f une fonction holomorphe sur un domaine Ω. Supposons que f n’est ni constante ni une transformation de Möbius. Pour tout
N ≥ 6 et M > 1, il existe des matrices A, B ∈ CN ×N avec des spectres dans Ω telles que
−1 −1 zI − A
= zI − B
(z ∈ C),
et
f (A) > M f (B).
(3.17)
Avant d’arriver à démontrer ce théorème on a besoin des résultats suivants. Dans ce qui suit,
on note S := S(1, 1, · · · , 1) la matrice de translation à gauche sur CN . Un raisonnement
semblable à celui de la démonstration de l’inégalité (3.5) du lemme 3.1.4 conduit à l’inégalité
suivante.
N
−1
N
−1
X
X
1
k
1+
max |αk | ≤ I
+
α
S
≤
1
+
|αk |,
k
2 1≤k≤N −1
k=1
k=1
(3.18)
où α1 , · · · , αN −1 sont des nombres complexes quelconques. Le lemme suivant est la clé de
construction des matrices satisfaisant les conditions du théorème 3.1.10. Cette technique est
aussi intéressante dans la construction des matrices avec des pseudospectres identiques.
Lemme 3.1.11. Supposons que N = 4. Soit α, β, γ ∈ C avec |α| > 1 et C une matrice 4 × 4
donnée par C := αS + βS 2 + γS 3 . Alors
1
(I − zC)−1 ≥ 1 + 1 |α|2 |z| min |η|, |η| 2
4
où η =
(z ∈ C),
β 2 −αγ
.
α4
45
Démonstration. Un calcul direct montre que
(I − zC)−1 = I + αzS + (α2 z 2 + βz)S 2 + (α3 z 3 + 2αβz 2 + γz)S 3 .
Il suit donc de l’inégalité (3.18) que
1
max |α2 z 2 + βz|, |α3 z 3 + 2αβz 2 + γz|
2
1 2
= 1 + |α| |z| max |w|, |α||w2 − η| ,
2
(I − zC)−1 ≥ 1+
avec w := z + β/α2 et η := (β 2 − αγ)/α4 .
1
Si |w| < 12 |η| 2 , alors |α||w2 − η| ≥ |w2 − η| ≥ 21 |η|. Par conséquent,
max |w|, |α||w2 − η| ≥
1
1
min |η|, |η| 2 ,
2
pour tout w ∈ C.
Démonstration du théorème 3.1.10. Puisque f n’est pas constante, les zéros de f et f 0 sont
isolés. Aussi, comme f n’est pas une transformation de Möbius, alors, d’après la proposition
3.1.8, sa dérivée schwarzienne S(f ) n’est pas identiquement nulle, et par suite les zéros de
S(f ) sont aussi isolés. Il existe donc w ∈ Ω pour lequel on a simultanément
f (w) 6= 0,
f 0 (w) 6= 0,
et S(f )(w) 6= 0.
Définissons maintenant fe au voisinage de 0 par fe(z) := f (w+λz)/f (w), avec λ = f (w)/f 0 (w).
La fonction fe satisfait fe(0) = fe0 (0) = 1 et S(fe)(0) 6= 0. Si on peut trouver des matrices
e satisfaisant la conclusion du théorème pour fe, alors en prenant A :=
nilpotentes Ae et B
e + wI, on obtient des matrices qui satisfont la conclusion pour la fonction
λAe + wI et B := λB
f . On peut supposer donc dans ce qui suit que 0 ∈ Ω et que f (0) = f 0 (0) = 1 et S(f )(0) 6= 0.
Autrement dit,
f (z) = 1 + z + a2 z 2 + a3 z 3 + O(z 4 ),
avec a3 − a22 6= 0.
Soit C ∈ C4×4 la matrice définie dans le lemme 3.1.11. Alors, puisque C 4 = O, on a
f (C) = I + C + a2 C 2 + a3 C 3 = I + αS + (a2 α2 + β)S 2 + (a3 α3 + 2a2 αβ + γ)S 3 .
Soit α := t > 1, un paramètre à choisir plus tard, et soient β et γ des paramètres choisis
de façon à annuler les coefficients de S 2 et S 3 sus-cités, notamment β := −a2 t2 et γ :=
(2a22 − a3 )t3 . On a donc f (C) = I + tS, et par conséquent,
f (C) ≤ 1 + t.
46
(3.19)
À partir du lemme 3.1.11, on a aussi
(I − zC)−1 ≥ 1 + t2 µ|z|
où µ :=
1
4
(z ∈ C),
(3.20)
min |a3 − a22 |, |a3 − a22 |1/2 . On note que µ > 0 car a3 − a22 6= 0.
Supposons tout d’abord que N = 6. Définissons A := A0 ⊕ C et B := B0 ⊕ C, où A0 et B0
sont des matrices 2 × 2 données par A0 = t2 µS et B0 = O. On dénote par S ici la matrice de
translation sur C2 . Il est clair que A et B ont tous les deux des spectres égaux à {0}.
On montre par la suite que A et B ont des pseudospectres identiques. On a
(I − zA0 )−1 = kI + zt2 µSk ≤ 1 + t2 µ|z|,
(I − zB0 )−1 = kIk = 1
(z ∈ C).
Il résulte donc, en utilisant (3.20), que
(I − zC)−1 ≥ (I − zA0 )−1 et (I − zC)−1 ≥ (I − zB0 )−1 (z ∈ C).
Ceci implque que
(I − zA)−1 = (I − zC)−1 = (I − zB)−1 (z ∈ C).
Après ceci, on montre que A et B satisfont (3.17). D’une part, on a
f (A) = max f (A0 ), f (C) ≥ f (A0 ) = kI + t2 µSk ≥ 1 + 1 t2 µ.
2
D’autre part, en utilisant (3.19), on aura
f (B) = max f (B0 ), f (C) ≤ max{kIk, 1 + t} = 1 + t.
On conclut donc que
f (A)
1 + t2 µ/2
1
≥
≥
µt,
f (B)
1+t
4
et par conséquent, l’inégalité (3.17) suit en choisissant t > 4M/µ.
Enfin, si N > 6, alors on prend la somme directe des matrices A et B obtenues ci-dessus avec
la matrice nulle de dimension (N − 6) × (N − 6).
47
3.2
Normes plus générales
Bien que la norme euclidienne soit sans doute le cas le plus important, il y a des cas où la
considération des pseudospectres définis par rapport à d’autres normes serait plus approprié.
3.2.1
Normes admissibles
Nous débutons cette section par l’étude de la norme matricielle 1 qui est défini par kAk1 :=
sup|x|1 =1 |Ax|1 , où |x|1 :=
PN
est la norme 1 sur CN . Plusieurs exemples y ont été
k=1 |xk |
donnés à [32, §56, §57]. En raison du théorème ci-dessous, il n’existe pas d’exemples similaires
à celui du théorème 3.1.2 pour cette norme.
Théorème 3.2.1. [21, Théorème 1.5] Soit N ≥ 1 et A, B ∈ CN ×N des matrices satisfaisant
−1 −1 zI − A
= zI − B
1
(z ∈ C).
1
Alors
kAk1 = kBk1 .
Est-ce qu’on peut déduire aussi que An 1 = B n 1 , pour tout n ≥ 2 ? Pourrions nous aller
plus loin pour conclure que f (A)1 = f (B)1 , pour toute fonction f holomorphe sur un
voisinage du spectre de A ou de B ? Une autre fois encore, la réponse est non, et non pas
seulement pour la norme k · k1 , mais aussi pour une grande variété des normes. Pour clarifier
ceci, commençons par introduire la famille des normes ci-après.
Une norme k · k sur CN ×N est dite admissible si elle satisfait les trois propriétés suivantes :
(i)
kABk ≤ kAkkBk pour tout A, B ∈ CN ×N et kIk = 1. Autrement dit k · k est une
norme d’algèbre,
(ii)
kQk = 1 pour toute matrice de permutation Q,
(iii)
kA ⊕ Bk = max kA ⊕ Ok, kO ⊕ Bk pour toute matrice par bloc A ⊕ B.
n
o
Par exemple, si 1 ≤ p < ∞ et | · |p est la norme p sur CN , donnée par |x|p :=
P
N
p
k=1 |xk |
1
p
,
alors la norme matricielle associée kAkp := sup|x|p =1 |Ax|p sur CN ×N est admissible. La proposition suivante résume quelques propriétés de bases des normes admissibles qui seront utiles
dans la suite de cette section.
Proposition 3.2.2. Soit k · k une norme admissible sur CN ×N .
(a)
Si D = diag(α1 , · · · , αN ), alors kDk = max |α1 |, · · · , |αN | .
(b)
Si S est la matrice de translation sur CN , alors S k = 1 pour tout k = 0, 1, · · · , N − 1.
48
Démonstration.
(a)
Soit J = diag(1, 0, · · · , 0). En utilisant les propriétés (i) et (iii) de la définition des
normes admissibles, on obtient kJk ≤ kIk = 1. D’autre part, puisque J = J 2 , on a kJk ≤ kJk2
et alors kJk ≥ 1. Il suit donc que kJk = 1. Par linéarité, on déduit donc que diag(α1 , 0, · · · , 0) =
|α1 |. Le cas général suit par induction sur le nombre des αk non-nuls.
(b)
Soit Q une permutation matricielle cyclique de dimension N × N telle que S k Q =
diag(1, · · · , 1, 0, · · · , 0), donc S k Q = 1. Comme kQk = kQ−1 k = 1, alors on déduit le
résultat.
Partant de ces propriétés de base, les preuves des lemmes 3.1.4 et 3.1.11 et les théorèmes 3.1.3
et 3.1.10 restent valides peu importe la norme admissible choisie. On obtient de cette façon
les généralisations suivantes des théorèmes 3.1.3 et 3.1.10.
Théorème 3.2.3. (Ransford [21]) Soit n ≥ 2. Soit α2 , · · · , αn et β2 , · · · , βn des suites sousmultiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N telles que,
pour toute norme admissible k · k sur CN ×N , on a
−1 −1 zI − A
= zI − B
(z ∈ C).
et
k
A = αk
et
k
B = βk
(k = 2, 3, · · · , n).
On peut prendre N = 2n + 3.
Théorème 3.2.4. (Ransford et Raouafi [23]) Soit f une fonction holomorphe sur un domaine
Ω. Supposons que f n’est ni constante ni une transformation de Möbius. Pour tout N ≥ 6 et
M > 1, il existe des matrices A, B ∈ CN ×N avec des spectres dans Ω telles que, pour toute
norme admissible k · k sur CN ×N , on a
−1 −1 zI − A
= zI − B
(z ∈ C),
et
f (A) > M f (B).
Focalisons nous présentement sur le théorème 3.1.9 et essayons de comprendre comment il
fonctionne si on utilise une norme admissible quelconque. Une examination de sa preuve
montre qu’il utilise très peu le fait que les matrices N × N forment une algèbre de Banach.
La seule exception est le théorème 3.1.1 dont la preuve dépend de l’image numérique des
opérateurs d’un espace de Hilbert. Ceci peut être remplacée par le résultat suivant qui est lui
aussi un sous-produit de la théorie de l’image numérique dans les algèbres de Banach.
49
Lemme 3.2.5. Soit A, k · k une algèbre de Banach unitaire. Soit a et b des éléments de A
tels que
(a − z1)−1 = (b − z1)−1 (z ∈ C).
(3.21)
Alors
kak ≤ ekbk.
Démonstration. Soit r > kbk et n >
ζ → 1−
a −n
,
nζ
kak
r .
En intégrant la série de Taylor associée à la fonction
on trouve la représentation intégrale suivante
a=
1
2πi
Z
1−
|ζ|=r
a −n
dζ.
nζ
Par conséquent,
kak ≤ r sup 1 −
|ζ|=r
a −1 b −1 kbk −n
n
n
.
= r sup 1 −
≤r 1−
nζ
nζ
nr
|ζ|=r
En laissant r → kbk et n → ∞, il s’ensuit que kak ≤ ekbk.
En substituant le théorème 3.1.1 par le lemme 3.2.5 dans la preuve du théorème 3.1.9, on
obtient le résultat suivant.
Théorème 3.2.6. (Ransford et Raouafi [23]) Soit A, k · k une algèbre de Banach unitaire.
Soit a et b des éléments de A satisfaisant (3.21). Alors, pour toute transformation de Möbius
f holomorphe sur un voisinage du spectre de a ou de b, on a
f (a) ≤ M f (b),
√
où M :=
3.2.2
e+3+
(e+1)(e+9)
2
≈ 6, 1596.
Norme de Hilbert-Schmidt
Le but de cette section est de montrer qu’il y a au moins une norme bien connue sur CN ×N
dont le pseudospectre détermine le comportement d’une matrice. C’est la norme de HilbertSchmidt qui est définie par la formule suivante
kAkHS := tr(A∗ A) =
N
X
s2k ,
k=1
où tr(A) dénote le trace de la matrice A ∈ CN ×N et s1 , · · · , sN sont les valeurs singulières
de A. On note bien que cette norme n’est pas admissible. En fait, elle ne satisfait aucune des
trois propriétés des normes admissibles.
50
Théorème 3.2.7. (Greenbaum et Trefethen [13]) Soit A et B des matrices N × N sur C tel
que
−1 zI − A
HS
= zI − B
−1 (z ∈ C).
HS
(3.22)
Alors, pour tout polynôme p,
p(A)
HS
= p(B)HS .
Démonstration. En posant ζ = z1 , on déduit que (3.22) est équivalent à
h
i
h
i
tr (I − ζA∗ )−1 (I − ζA)−1 = tr (I − ζB ∗ )−1 (I − ζB)−1 .
Il existe donc r > 0 tel que
X
k
tr A∗k Al ζ ζ l =
X
k,l≥0
k
tr B ∗k B l ζ ζ l
∂ k ∂ l
∂ζ
∂ζ
On prend ensuite la dérivée
des deux côtés et on pose ζ = 0 pour obtenir
tr A∗k Al = tr B ∗k B l
Par conséquent, pour tout polynôme p(z) :=
p(A)
HS
(|ζ| < r).
k,l≥0
:= tr p(A)∗ p(A)
=
=
Pn
(k, l ≥ 0).
j=0 aj z
n
X
k,l=0
n
X
j,
on a
ak al tr A∗k Al
ak al tr B ∗k B l
k,l=0
= tr p(B)∗ p(B) = p(B)HS . Ce théorème montre que le pseudospectre détermine le comportement d’une matrice par
rapport à la norme de Hilbert-Schmidt. Vue que la norme euclidienne est plus utile pour la
plupart des applications, il est intéressant d’ajouter d’autres conditions pour obtenir un résultat semblable au théorème précédent pour la norme euclidienne. On rappelle que des matrices
ayant des pseudospectres identiques par rapport à la norme euclidienne si et seulement si leurs
résolvantes ont la même valeur singulière minimale. Autrement dit, on ne s’intéresse qu’à la
valeur singulière minimale. Par contre pour la norme de Hilbert-Schmidt, on voit la présence
de tout les valeurs singulières. Il est donc raisonnable d’utiliser les autres valeurs singulières
et d’étudier les résultats qu’on peut tirer au niveau du comportement d’une matrice. Cette
proposition sera étudiée en détail dans le chapitre suivant.
51
Chapitre 4
Pseudospectre super-identique
On a vu dans le chapitre précédent que le pseudospectre ne permet pas de déterminer le
comportement d’une matrice. Il y a des parties d’une matrice qui peuvent cacher d’autres
de telle manière à ne pas être détectées en utilisant la norme de la résolvante. Le but de ce
chapitre est d’étudier le comportement des matrices en utilisant les valeurs singulières. On va
se baser essentiellement sur les travaux de [9, 21, 22].
4.1
Définitions et propriétés
On rappelle que des matrices A, B ∈ CN ×N ont des pseudospectres identiques si et seulement
si la condition suivante est validée,
sN (zI − A) = sN (zI − B)
(z ∈ C).
Cette condition ne permet pas de détecter tous les blocs d’une matrice. Cependant, si on impose la même condition pour les autres valeurs singulières, alors tous les blocs seront détectés.
Définition 4.1.1. On dit que des matrices A, B ∈ CN ×N ont des pseudospectres superidentiques si
sk (zI − A) = sk (zI − B)
(z ∈ C, k = 1, · · · , N ).
(4.1)
Dans cette section, on présente quelques reformulations de la condition (4.1) qui seront utiles
pour la suite.
Proposition 4.1.2. [9, Proposition 2.2] Soit A, B ∈ CN ×N . Les assertions suivantes sont
équivalentes.
(i)
(ii)
(iii)
A et
B ont des pseudospectres
super-identiques
tr
tr
h
ik
h
ik (A − zI)(A∗ − zI)
(A−zI)(A∗ −zI)
= tr
= tr
h
h
ik (B − zI)(B ∗ − zI)
(B−zI)(B ∗ −zI)
ik pour tout z ∈ C et k ≥ 1.
pour tout z ∈ C et k = 1, · · · , N .
53
Démonstration. À partir de
la définition des valeurs
singulières, on peut
conclure que l’asserh
i
h
i
tion (i) est équivalent à σ (A − zI)(A∗ − zI) = σ (B − zI)(B ∗ − zI) . Il devient clair donc
que l’assertion (i) implique l’assertion (ii) qui implique à son tour l’assertion (iii).
Soit maintenant C, D ∈ CN ×N tels que tr C k
= tr Dk
polynôme caractéristique de C est donné par det(tI − C) =
pour k = 1, · · · , N . Alors le
PN
k
N −k
k=0 (−1) ak t
où a0 = 1. En
se basant sur l’identité de Newton (voir [15]), on peut conclure que
kak =
k−1
X
aj tr C k−j
(k = 1, · · · , N ).
j=0
De la même façon, on obtient la même formule pour le polynôme caractéristique de D et alors
σ(C) = σ(D). En prenant C := (zI − A)(zI − A)∗ et D := (zI − B)(zI − B)∗ , on peut déduire
donc à partir de ce qui précède que (iii) implique (i).
Le résultat suivant est une conséquence directe de la proposition précédente. Il montre une
condition équivalente à (4.1) pour un ensemble fini des nombres complexes z.
n
o
Corollaire 4.1.3. [9, Corollaire 2.3] Soit F := rp eiθq : p, q = 0, 1, · · · , N , où 0 < θ0 <
· · · < θN < π et 0 < r0 < · · · < rN . On suppose que A, B ∈ CN ×N satisfassent
sk (zI − A) = sk (zI − B)
(z ∈ F, k = 1, · · · , N ).
Alors A et B ont des pseudospectres super-identiques.
Démonstration. Les polynômes
pk (z) := tr
h
(zI − A)(zI − A)∗
ik h
− tr
(zI − B)(zI − B)∗
ik (k = 1, · · · , N ),
vérifient la relation pk (z) = pk (z). Donc si z0 est une racine de pk , alors z0 est aussi une
racine. Par hypothèse, ces polynômes s’annulent sur F et cela implique qu’ils sont identiquement nuls. Le résultat découle donc des assertions de la proposition 4.1.2.
Dans le reste de la section, on présente d’autres conditions équivalentes à la condition (4.1)
en utilisant les coefficients des polynômes apparaissant à la démonstration précédente.
Définition 4.1.4. Soit X, Y ∈ CN ×N . Pour i, j, k ≥ 0, on définit les coefficients fijk (X, Y )
par l’identité suivante
tr
h
ik (I + ξX)(I + ηY )
=
X
fijk (X, Y )ξ i η j .
i,j
On note que fijk = 0 si i ou j sont strictement supérieurs à k.
54
(4.2)
Proposition 4.1.5. [9, Proposition 2.5] Soit A, B ∈ CN ×N . Les assertions suivantes sont
équivalentes.
(i)
A et B ont des pseudospectres super-identiques,
(ii)
fijk A, A∗ = fijk B, B ∗ pour tout i, j, k ≥ 0,
(iii)
fijk A, A∗ = fijk B, B ∗ pour tout i, j = 0, 1, · · · , k et k = 1, · · · , N .
Démonstration. Remarquons tout d’abord que
tr
h
(zI − A)(zI − A)∗
ik h
= tr
(zI − B)(zI − B)∗
ik (z ∈ C)
si et seulement si
tr
h
ik ∗
(I + ξA)(I + ξA )
= tr
h
∗
ik (I + ξB)(I + ξB )
(ξ ∈ C).
Ceci est équivalent à
X
j
fijk (A, A∗ )ξ i ξ =
i,j
X
fijk (B, B ∗ )ξ i ξ
j
(ξ ∈ C).
i,j
Ce qui est équivalent à
fijk (A, A∗ ) = fijk (B, B ∗ )
(i, j = 0, · · · , k).
Le résultat découle donc de la proposition 4.1.2.
Soit X, Y ∈ CN ×N . On note par C[X, Y ] l’algèbre des polynômes en X et Y . Un élément
de cette algèbre est une somme finie
P
w∈W
Cw w, où W est l’ensemble de tous les monômes
en X et Y et les coefficients Cw sont des nombres complexes. Pour des éléments w ∈ W et
v ∈ W \{1}, on note par dv (w) le nombre de fois où le terme v apparaît dans w.
Définition 4.1.6. Soit X, Y ∈ CN ×N . Pour i, j, l ≥ 0, on définit les scalaires polynômiaux
gijl (X, Y ) par
gijl (X, Y ) :=
Xn
o
tr w(X, Y ) : w ∈ W, dx (w) = i, dy (w) = j, dxy (w) = l .
On note aussi que les scalaires gijl sont nuls si i ou j sont inférieurs strictement à l.
Proposition 4.1.7. [9, Théorème 2.7] Pour tout i, j, k ≥ 0, on a
fijk (X, Y ) :=
X
k+l
l≥0
i+j
!
gijl (X, Y ).
Aussi, pour tout i, j, l ≥ 0, on a
gijl (X, Y ) :=
X
i+j+k+l
(−1)
k≥0
i+j+1
k+l+1
!
fijk (X, Y ).
55
Pour la démonstration de cette proposition, voir [9, Théorème 2.7].
À partir de cette proposition, on peut déduire le corollaire suivant.
Corollaire 4.1.8. [9, Corollaire 2.10] Soit A, B ∈ CN ×N . Les assertions suivantes sont
équivalentes.
(i)
A et B ont des pseudospectres super-identiques,
gijl A, A∗ = gijl B, B ∗ pour tout i, j, l ≥ 0,
(ii)
(iii)
gijl A, A∗ = gijl B, B ∗ pour tout i, j = l, · · · , N et l = 1, · · · , N .
4.2
Pseudospectre super-identique et le comportement d’une
matrice
Dans cette section, on va traiter les mêmes questions posées au chapitre 3 en utilisant la
condition de pseudospectre super-identique.
4.2.1
Comportement d’une matrice
Le résultat suivant est une conséquence directe du théorème 3.2.7 du chapitre précédent. Il
montre que les matrices ayant des pseudospectres super-identiques doivent avoir le même
comportement dans le sens faible suivant.
Théorème 4.2.1. (Ransford [21]) Soit N ≥ 1. On suppose que les matrices A, B ∈ CN ×N
ont des pseudospectres super-identiques. Alors, pour tout polynôme p, on a
p(A)
√
1
≤ N.
√ ≤
p(B)
N
Démonstration. D’après le théorème 3.2.7, on a
N
X
k=1
s2k p(A) =
N
X
s2k p(B) .
k=1
Par conséquent,
N
N
X
X
2
2
p(A)2 = s2 p(A) ≤
s
p(A)
=
s2k p(B) ≤ N s21 p(B) = N p(B) .
1
k
k=1
(4.3)
k=1
De la même façon, on prouve aussi la première inégalité.
Il est intéressant de savoir si ces bornes peuvent être indépendantes de N . Plus précisement,
√
est-il possible de remplacer N par une constante M indépendante de N ? Cette question
est encore ouverte. Une étude plus précise des valeurs singulières pourrait réduire l’inégalité
(4.3) de telle sorte de trouver un majorant indépendant de N . Toutefois, le théorème suivant
nous exige de garder toutes les valeurs singulières.
56
Théorème 4.2.2. (Ransford [21]) Soit n ≥ 2 et m ≥ 1. Soit α2 , · · · , αn et β2 , · · · , βn des
suites sous-multiplicatives et positives. Alors il existe N ≥ 1 et des matrices A, B ∈ CN ×N
telles que
sk (zI − A) = sk (zI − B)
(z ∈ C, k = 1, · · · , m).
(4.4)
et
k
A = αk
et
k
B = βk
(k = 2, 3, · · · , n).
On peut prendre N = (m + 1)(n + 2) − 1.
La démonstration de ce théorème est semblable à la démonstration du théorème 3.1.3 du
chapitre précédent. Pour plus de détails, voir [21, Théorème 1.4].
Reprenons le théorème 4.2.1, on verra dans ce qui suit qu’on ne peut pas remplacer la constante
√
N par 1 pour N ≥ 4. On a besoin de l’identité de Frobenius [10] pour montrer ce résultat
et pour traîter le cas N = 3.
Soit X1 , · · · , Xm ∈ CN ×N et σ ∈ Sm une permutation donnée par le produit de cycles disjoints
suivant
σ := (a1 · · · ai )(b1 · · · bj ) · · · (c1 · · · ck ).
On définit
trσ (X1 , · · · , Xm ) := tr(Xa1 · · · Xai ) tr(Xb1 · · · Xbj ) · · · tr(Xc1 · · · Xck ).
Théorème 4.2.3. (Identité de Frobenius)
Soit X1 , · · · , XN +1 ∈ CN ×N . Alors
X
(σ) trσ (X1 , · · · , XN +1 ) = 0,
σ∈SN +1
où (σ) est la signature de σ.
Pour une démonstration de cette identité, voir par exemple [22].
Une application de la proposition 4.1.2 et l’identité de Frobenius permet de donner une
caractérisation simple des matrices 3 × 3 qui ont des pseudospectres super-identiques.
Proposition 4.2.4. [22, Théorème 4.2] Deux matrices A et B de C3×3 ont des pseudospectres
super-identiques si et seulement si
(
tr Ai = tr B i
tr
Ai A∗j
= tr
i = 1, 2, 3
B i B ∗j
1 ≤ i ≤ j ≤ 2.
(4.5)
57
Démonstration. Le corollaire 4.1.8 implique que ces conditions sont nécéssaires. Pour satisfaire
la condition suffisante, on a besoin de montrer que les matrices (zI − A)(zI − A)∗ et (zI −
B)(zI − B)∗ ont les mêmes valeurs propres pour tout z ∈ C. À partir de la proposition 4.1.2,
il suffit de prouver que
tr
tr
(A − zI)(A∗ − zI)
i2 h
det
(A − zI)(A∗ − zI)
(A − zI)(A∗ − zI)
= tr
= tr
h
= det
(B − zI)(B ∗ − zI)
i2 (B − zI)(B ∗ − zI)
(B − zI)(B ∗ − zI) .
Ces équations découlent d’un calcul direct moyennant l’utilisation de (4.5). La seule difficulté pour conclure la deuxième équation réside dans la démonstration de tr AA∗ AA∗ =
tr BB ∗ BB ∗ . Pour ce faire, on applique l’identité de Frobenius en posant X1 = X2 = A et
X3 = X4 = A∗ . On aura donc
4 tr AA∗ AA∗
+ 2 tr A2 A∗2 + 4 tr(A) tr AA∗2 + 4 tr A∗ tr A2 A∗
+ tr A2 tr A∗2 + 2 tr2 AA∗ + tr2 (A) tr A∗2
+ tr A2 tr2 A∗ + tr2 (A) tr2 A∗ + 4 tr(A) tr A∗ tr AA∗ = 0.
De la même façon, on trouve la même équation pour la matrice B, et on obtient donc
tr AA∗ AA∗ = tr BB ∗ BB ∗ .
Une application directe de la proposition précédente donne le résultat suivant.
Corollaire 4.2.5. [22, Corollaire 4.3] Soit A, B ∈ C3×3 des matrices avec des pseudospectres
super-identiques. Alors, pour tous polynômes p, les matrices p(A) et p(B) ont des pseudos
pectres super-identiques. En particulier p(A) = p(B).
La proposition suivante traîte le cas des matrices 4 × 4.
Proposition 4.2.6. [22, Théorème 4.4] Deux matrices A et B de C4×4 ont des pseudospectres
super-identiques si et seulement si

i
i


 tr A = tr B
tr Ai A∗j = tr B i B ∗j


 tr AA∗ 2 = tr BB ∗ 2 .
i = 1, 2, 3, 4
1 ≤ i ≤ j ≤ 3.
(4.6)
Démonstration. Ceci est semblable à la démonstration de la proposition 4.2.4, voire un peu
plus compliqué. Dans ce cas, on va avoir besoin d’utiliser trois fois l’identité de Frobenius, où
(X1 , X2 , X3 , X4 , X5 ) = (A, A, A, A∗ , A∗ ),
58
(A, A, A∗ , A∗, AA∗ )
et
(A, A, A, A∗ , A∗2 ).
Il paraît qu’une application directe de cette proposition nous donne un résultat semblable au
corollaire 4.2.5, mais en réalité l’égalité
tr p(A)p(A)∗ p(A)p(A)∗ = tr p(B)p(B)∗ p(B)p(B)∗
n’est pas toujours valide. Par exemple, cette égalité n’est pas valide pour le polynôme p(z) =
z 2 . En effet, on a le contre-exemple suivant.
Théorème 4.2.7. (Fortier Bourque et Ransford [9]) Soit α, β ∈ (0, π4 ]. Alors les matrices

1 sec α

 0

A=
 0

0
0
0
sec β csc β
0
0
0
0
1






csc α 

0
et
1 sec β

 0

B=
 0

0
0
0
0
sec α csc α
0
0
0
0
1





csc β 

0
0
ont des pseudospectres super-identiques et A2 /B 2 = cos α/ cos β.
Démonstration. On peut vérifier que A et B satisfassent (4.6). Ils ont donc des pseudospectres super-identiques. Un calcul direct donne aussi A2 = csc α sec β csc β et A2 =
csc β sec α csc α, d’où le résultat.
Si on prend β =
π
4
et on fait tendre α vers 0, alors les matrices A et B ont des pseudospectres
√
super-identiques mais A2 /B 2 → 2. Il s’agit de la plus grande constante qui a été trouvée
jusqu’à présent. Est-t-elle la constante optimale ? Cette question est encore ouverte.
4.2.2
Équivalence unitaire
Dans cette section, on examine jusqu’au quel point la condition de pseudospectre superidentique implique l’équivalence unitaire. Pour X, Y ∈ CN ×N , on note par CN [X, Y ] l’algèbre
des polynômes de degrés (N, N ) en X et Y . On note aussi par FN la sous-algèbre de CN [X, Y ]
engendrée par
fijk : i, j, k ≥ 0
et par IN la sous-algèbre de CN [X, Y ] engendrée par
tr w(X, Y ) : w ∈ W , où W est l’ensemble des monômes en X et Y . La proposition 4.1.5 et
le théorème de Specht [27] entraîne la caractérisation suivante :
(i)
Deux matrices A, B ∈ CN ×N ont des pseudospectres super-identiques si et seulement si
p(A, A∗ ) = p(B, B ∗ ) pour tout p ∈ FN .
(ii)
Deux matrices A, B ∈ CN ×N sont unitairement équivalentes si et seulement si p(A, A∗ ) =
p(B, B ∗ ) pour tout p ∈ IN .
La question principale traîtée dans cette thèse à propos de l’équivalence unitaire peut être
donc traduite par la question suivante : Est-ce que FN = IN pour tout N ?
Bien sûr, on a montré dans la section précédente que la réponse est négative pour N = 4. En
prenant la somme direct de la matrice du théorème 4.1 avec une matrice nulle, on peut voir
59
que la réponse est aussi négative pour N ≥ 4. Il est clair qu’on a toujours FN ⊂ IN . On a
l’égalité pour N = 2, mais l’inclusion est stricte pour N = 3, voir [9]. Avant de présenter le
résultat principal de cette section, on a besoin de la proposition suivante.
Proposition 4.2.8. Pour tout N ≥ 1, l’algèbre IN est algèbrique sur FN . Autrement dit,
pour tout q ∈ IN , il existe p0 , · · · , pk ∈ FN avec p0 6= 0 tel que p0 q k + p1 q k−1 + · · · + pk = 0.
Pour la démonstration et pour plus de détails, consulter [9, 22].
Théorème 4.2.9. (Fortier Bourque et Ransford [9]) Pour tout N ≥ 1, il existe p0 ∈ FN \{0}
et un entier m ≥ 2 tels que si A1 , · · · , Am ∈ CN ×N ont des pseudospectres super-identiques et
p0 Aj , A∗j 6= 0 pour tout j, alors il existe au moins deux matrices de A1 , · · · , Am unitairement
équivalentes.
Démonstration. Il est bien connu que IN est de type fini, voir [18] pour plus de détails. On
note q1 , · · · , qr les générateurs de IN . La proposition 4.2.8 montre que chaque qi est algébrique
sur FN . Il existe donc des polynômes pi0 , · · · , pimi ∈ FN avec pi0 6= 0 tels que
pi0 qimi + pi1 qimi −1 + · · · + pimi = 0.
Définissons p0 := p10 · · · pr0 et m := m1 · · · mr + 1. Il est clair que p0 ∈ FN \{0}. Soit maintenant A1 , · · · , Am ∈ CN ×N des matrices ayant des pseudospectres super-identiques telles que
p0 Aj , A∗j 6= 0 pour tout j. On a donc, pour tout i et j,
pi0 Aj , A∗j qimi Aj , A∗j + pi1 Aj , A∗j qimi −1 Aj , A∗j + · · · + pimi Aj , A∗j = 0.
À partir de (i), on remarque que les coefficients pik Aj , A∗j sont indépendants de j et puisque
p0 Aj , A∗j 6= 0, il suit que pi0 Aj , A∗j 6= 0 pour tout j. Donc les nombres qi A1 , A∗1 , · · · , qi Am , A∗m
satisfont le même polynôme de degré mi . On note par Ri l’ensemble des racines de ce polynôme. Par conséquent,
q1 Aj , A∗j , · · · , qr Aj , A∗j
∈ R1 × · · · × Rr
(j = 1, · · · , m).
Puisque le cardinal de R1 × · · · × Rr est au plus m1 · · · mr = m − 1, alors on déduit, via le
principe des tiroirs, qu’il existe j, k ∈ {1, · · · , m} tel que
q1 Aj , A∗j , · · · , qr Aj , A∗j
= q1 Ak , A∗k , · · · , qr Ak , A∗k
.
Il suit donc que q Aj , A∗j = q Ak , A∗k pour tout q ∈ IN et le résultat découle donc de (ii). Si on définit E :=
n
o
A ∈ CN ×N : p0 A, A∗ = 0 , le théorème précédent est donc vrai si
E = ∅. Si IN est intégral sur FN , c’est à dire p0 = 1, alors on a toujours E = ∅. Il a été
démontré toutefois, dans [9, Théorème 4.12], que IN n’est pas intégral sur FN pour N ≥ 4.
Le problème de savoir si on peut prendre E = ∅ reste donc ouvert.
60
Conclusion
Le pseudospectre est un outil utile pour l’analyse des matrices non-normales. Il fournit des
informations au-delà de celles fournies par l’analyse des valeurs propres. Le livre de Trefethen
et Embree [32] donne une analyse détaillée de la théorie de pseudospectre, ainsi que de ses
applications dans de nombreux domaines. Le but de cette thèse est d’étudier le comportement
des matrices non-normales en utilisant le pseudospectre. Il est bien connu que le pseudospectre
détermine la norme d’une matrice à un facteur constant près. Plus précisément, si A et B
sont des matrices ayant des pseudospectres identiques, alors on a 1/2 ≤ kAk/kBk ≤ 2 et
la constante 2 est optimale. On a réussi à démontrer que le pseudospectre détermine aussi
la norme d’une transformation de Möbius d’une matrice à un facteur constant près. Plus
√
√
précisément, on a démontré que 2/(5 + 33) ≤ f (A)/f (B) ≤ (5 + 33)/2 pour toute
transformation de Möbius f holomporphe sur un voisinage du spectre de A et B. Cependant,
√
la question de savoir si la constante (5 + 33)/2 est optimale est non encore résolue.
Soit maintenant f une fonction holomorphe sur un voisinage du spectre d’une matrice nonnormale A. On a montré dans cette thèse que le pseudospectre ne détermine pas la norme
f (A) lorsque f n’est ni une constante, ni une transformation de Möbius. Il y a des parties
d’une matrice qui peuvent cacher d’autres de telle manière à ne pas être détectées par le
pseudospectre. Toutefois, il serait intéressant de considérer la condition de pseudospectre
super-identique proposée au [21]. Cette alternative permet de détecter tous les blocs d’une
matrice et donc pourrait donner plus d’informations sur la norme f (A). En fait, on a
√
√
toujours 1/ N ≤ f (A)/f (B) ≤ N pour tout A, B ∈ CN ×N vérifiant cette condition.
√
La constante N est-elle optimale ? Cette question est encore ouverte.
Une généralisation du théorème matriciel de Kreiss nous donne aussi des bornes supérieures
de f (A) en fonction du pseudospectre. Dans le deuxième chapitre, on a présenté les généralisations obtenues pour les polynômes de Faber et pour les fonctions holomorphes sur le
disque unité. La généralisation de ce théorème aux fonctions holomorphes sur un domaine Ω
plus général requiert plus d’informations sur la frontière ∂Ω. On a réussi à étendre ce théorème aux fonctions holomorphes sur un disque quelconque du plan. Il est également possible
de remplacer le disque par un domaine simplement connexe vérifiant la condition (2.11). La
question de savoir si cette condition est valide est encore difficile à countourner.
61
En utilisant d’autres techniques, on a réussi à généraliser le théorème matriciel de Kreiss aux
fonctions de Markov. La méthode qu’on a utilisé pourrait nous fournir une autre façon de
généraliser le théorème à des fonctions holomorphes sur des domaines plus généraux.
62
Bibliographie
[1]
J. M. Anderson, The Faber operator, Lecture Notes in Mathematics, 1105 (1984), 1-10.
[2]
J. M. Anderson and J. Clunie, Isomorphisms of the disc algebra and inverse Faber sets,
Math. Z. 188 (1985), p. 545-558.
[3]
S. Ya. Alper, On the uniform approximation to functions of a complex variable on closed
domains, Izv. Akad. Nauk SSSR, Ser. Mat., 19 (1955), 423-444.
[4]
B. Beckermann and L. Reichel, Error estimates and evaluation of matrix functions via
the Faber transform, SIAM J. Numer. Anal., 47 No. 5 (2009), 3849-3883.
[5]
A. F. Beardon, The geometry of discrete groups, Graduate Texts in Mathematics, vol.
91, Springer, New York, 1983.
[6]
J. B. Conway, Functions of one complex variable, second ed., Graduate Texts in Mathematics, vol. 11, Springer-Verlag, New York, 1978.
[7]
M. Crouzeix, Numerical range and functional calculus in Hilbert space, J. Funct. Anal.,
244 (2007), 668-690.
[8]
E. B. Davies, Linear operators and their spectra, Cambridge University Press, New York,
2007.
[9]
M. Fortier Bourque and T. Ransford, Super-identical pseudospectra, J. London Math.
Soc., 79 (2009), 511-528.
[10] F. G. Frobenius, Über die primfactoren der gruppendeterminante, Sitz. Kön. Preuss.
Akad. Wiss. Berlin, (1896), 1343-1382.
[11] D. Gaier, Lectures on complex approximation, Birkhäuser, Boston, 1985.
[12] J. B. Garnett, Bounded analytic functions, Academic Press, New York, 1981.
[13] A. Greenbaum and L. N. Trefethen, Do the pseudospectra of a matrix determine its behavior ?, Technical Report TR 93-1371, Computer Science Department, Cornell University,
1993.
63
[14] K. E. Gustafson and D. K. M. Rao, Numerical range : the field of values of linear operators
and matrices, Springer, New York, 1997.
[15] D. Kalman, A matrix proof of Newton’s identities, Math. Mag., 73 (2000), 313-315.
[16] H.-O. Kreiss, Über die stabilitätsdefinition für differenzengleichungen die partielle differentialgleichungen approximieren, BIT Numer. Math. 2 (1962), 153-181.
[17] H. J. Landau, On Szego’s eigenvalue distribution theorem and non-hermitian kernels, J.
Anal. Math. 28 (1975), 335-357.
[18] C. Procesi, The invariant theory of n × n matrices, Adv. Math., 19 (1976) 306-381.
[19] R. J. Leveque, L. N. Trefethen, On the resolvent condition in the Kreiss matrix theorem,
BIT Numer. math. 24 (1984), 584-591.
[20] T. Ransford, Potential theory in the complex plane, Cambridge University Press, Cambridge, 1995.
[21] T. J. Ransford, On pseudospectra and power growth, SIAM J. Matrix Anal. Appl. 29
(2007) 699-711.
[22] T. Ransford, Pseudospectra and matrix behaviour, Banach Algebras, 91 (2009), vol. 91,
327-338.
[23] T. Ransford and S. Raouafi, Pseudospectra and holomorphic functions of matrices, Bull.
London Math. Soc., 45 (4) (2013), 693-699.
[24] S. Raouafi, Image numérique et le théorème de Crouzeix, Mémoire de maîtrise, Département de mathématiques et de statistique. Université Laval, 2010.
[25] V. I. Smirnov and N. A. Lebedev, Functions of a complex variable : constructive theory,
MIT Press, Cambridge, 1968.
[26] J. C. Smith, An inequality for rational functions, Amer. Math. Monthly, 92 (1985), 740741.
[27] W. Specht, Zur Theorie der Matrizen II, Jber. Deutsch. Math. Verein., 50 (1940), 19-23.
[28] M. N. Spijker, On a conjecture by LeVeque and Trefethen related to the Kreiss matrix
theorem, BIT Numer. Math. 31 (1991), 551-555.
[29] M. H. Stone, Linear transformation in Hilbert space, Americal Mathematical Society,
New York, 1932.
[30] E.Tadmor, The equivalence of L2 -stability, the resolvent condition, and strict H-stability,
Linear Algebra Appl., 41 (1981), 151-159.
64
[31] K.-C. Toh and L. N. Trefethen, The Kreiss matrix theorem on a general complex domain,
SIAM J. Matrix Anal. Appl. 21, No. 1 (1999), 145-165.
[32] L. N. Trefethen, M. Embree, Spectra and Pseudospectra, Princeton University Press,
Princeton, 2005.
[33] L. N. Trefethen, Pseudospectra of matrices, in Numerical Analysis, D. F. Griffiths and
G. A. Watson, editors, (1991), 234-253.
[34] P. Vitse, Functional calculus under Kreiss type conditions, Math. Nachr., 278 (2005),
1811-1822.
[35] T. Kövari, and Ch. Pommerenke, On Faber polynomials and Faber expansions, Math. Z.
99 (1967), 193-206.
[36] J. M. Varah, The computaion of bounds for the invariant subspaces of a general matrix
operator, Doctoral Thesis, Computer Science Department. Stanford University, 1967.
[37] J. M. Varah, On the separation of two matrices, SIAM J. Numer. Anal. 16, (1999),
216-222.
[38] T. G. Wright, Algorithms and software for pseudospectra, Doctoral Thesis, Mathematical
Institute. University of Oxford, 2002.
[39] K. Zhu, Operator theory in function spaces, Marcel Dekker Inc., New York, 1990.
65
Téléchargement