Mission pour la Science et la Technologie de l’Ambassade de France aux Etats-Unis
Efficience énergétique des systèmes informatiques : l’influence de la
couche logicielle est primordiale
Publié le vendredi 17 février 2012
Voir en ligne : https://www.france-science.org/Efficience-energetique-des.html
Aujourd’hui les critères quantitatifs de performance des systèmes informatiques dictent leur conception et
orientent les innovations. Alors que ces dernières décennies les systèmes informatiques n’ont cessé de
devenir de plus en plus puissants et de moins en moins coûteux, la tendance ralentit aujourd’hui à cause du
manque de mesures détaillées en temps réel de la consommation énergétique des composants électroniques.
La consommation électrique d’un serveur informatique sur sa durée d’exploitation représente un coût plus
important que l’achat initial du matériel [1]. La consommation énergétique est devenue une préoccupation
majeure des acteurs du secteur informatique qui cherchent à la réduire [2] [3] [4] [5] ou à valoriser l’énergie
dégagée sous forme de chaleur par les composants électroniques [6] [7]. Kathryn Mc Kinley et Stephen M.
Blackburn, tous deux professeurs en sciences de l’informatique, respectivement à l’Université du Texas à
Austin (The University of Texas at Austin) et à l’Université Nationale d’Australie (Australian National University)
proposent dans leur étude "Looking Back on the Language and Hardware Revolutions : Measured Power,
Performance, and Scaling" [8] une analyse poussée des profils énergétiques d’une sélection représentative
des microprocesseurs Intel de la période 2003-2010 ayant des architectures différentes sur lesquels différents
types de logiciels ont été exécutés.
La nécessité d’une meilleure connaissance des dépenses énergétiques
L’informatique a connu une évolution spectaculaire depuis l’invention des transistors en 1947 puis des circuits
intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques
et tubes à vide) ont initié le début d’une nouvelle ère informatique, caractérisée par une course à la
miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse
conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs,
prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En
1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une
puce de silicium doublerait tous les 2 ans. Cette dernière supposition s’est avérée étonnamment bien vérifiée,
avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette
conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-
realisatrice", servant d’objectif à toute l’industrie du semi-conducteur qui obtient les résultats planifiés (you get
what you plan) [10].
Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n’entraînent plus autant
de gain de performance et de puissance qu’auparavant, et la rapidité d’exécution est limitée de manière
croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de
l’horloge a cessé d’être le critère principal pour l’augmentation des performances : elle plafonne depuis plus
de 5 ans aux alentours de 4GHz (pour les processeurs que l’on trouve dans les centres de données et dans
les ordinateurs personnels), et c’est l’optimisation de l’architecture qui prend maintenant le relais (puces multi-
coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence
d’horloge dynamique, etc.).
Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières,
commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance
multipliée par le temps d’exécution) constitue aujourd’hui le critère essentiel pour la conception des nouvelles
architectures, à la place de la seule course à la rapidité d’exécution.
Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l’énergie en
temps réel, afin d’améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à