Efficience énergétique des systèmes informatiques : l`influence de la

Mission pour la Science et la Technologie de l’Ambassade de France aux Etats-Unis
Efficience énergétique des systèmes informatiques : l’influence de la
couche logicielle est primordiale
Publié le vendredi 17 février 2012
Voir en ligne : https://www.france-science.org/Efficience-energetique-des.html
Aujourd’hui les critères quantitatifs de performance des systèmes informatiques dictent leur conception et
orientent les innovations. Alors que ces dernières décennies les systèmes informatiques n’ont cessé de
devenir de plus en plus puissants et de moins en moins coûteux, la tendance ralentit aujourd’hui à cause du
manque de mesures détaillées en temps réel de la consommation énergétique des composants électroniques.
La consommation électrique d’un serveur informatique sur sa durée d’exploitation représente un coût plus
important que l’achat initial du matériel [1]. La consommation énergétique est devenue une préoccupation
majeure des acteurs du secteur informatique qui cherchent à la réduire [2] [3] [4] [5] ou à valoriser l’énergie
dégagée sous forme de chaleur par les composants électroniques [6] [7]. Kathryn Mc Kinley et Stephen M.
Blackburn, tous deux professeurs en sciences de l’informatique, respectivement à l’Université du Texas à
Austin (The University of Texas at Austin) et à l’Université Nationale d’Australie (Australian National University)
proposent dans leur étude "Looking Back on the Language and Hardware Revolutions : Measured Power,
Performance, and Scaling" [8] une analyse poussée des profils énergétiques d’une sélection représentative
des microprocesseurs Intel de la période 2003-2010 ayant des architectures différentes sur lesquels différents
types de logiciels ont été exécutés.
La nécessité d’une meilleure connaissance des dépenses énergétiques
L’informatique a connu une évolution spectaculaire depuis l’invention des transistors en 1947 puis des circuits
intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques
et tubes à vide) ont initié le début d’une nouvelle ère informatique, caractérisée par une course à la
miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse
conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs,
prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En
1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une
puce de silicium doublerait tous les 2 ans. Cette dernière supposition s’est avérée étonnamment bien vérifiée,
avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette
conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-
realisatrice", servant d’objectif à toute l’industrie du semi-conducteur qui obtient les résultats planifiés (you get
what you plan) [10].
Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n’entraînent plus autant
de gain de performance et de puissance qu’auparavant, et la rapidité d’exécution est limitée de manière
croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de
l’horloge a cessé d’être le critère principal pour l’augmentation des performances : elle plafonne depuis plus
de 5 ans aux alentours de 4GHz (pour les processeurs que l’on trouve dans les centres de données et dans
les ordinateurs personnels), et c’est l’optimisation de l’architecture qui prend maintenant le relais (puces multi-
coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence
d’horloge dynamique, etc.).
Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières,
commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance
multipliée par le temps d’exécution) constitue aujourd’hui le critère essentiel pour la conception des nouvelles
architectures, à la place de la seule course à la rapidité d’exécution.
Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l’énergie en
temps réel, afin d’améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à
proposer une caractérisation quantitative en temps réel, pour l’évaluation et la comparaison de puissance
entre processeurs, avec l’usage des "Multiple Instructions Per Secondes" comme unité de mesure. Cependant
celle-ci permet de comparer deux processeurs d’une même architecture (i.e. la spécification fonctionnelle du
processeur, du point de vue du programmeur en langage machine), mais elle devient très subjective entre des
types d’architectures différentes.
Une analyse approfondie et systématique par mesure de puissance, performance et de fréquence de
l’horloge sur un large panel de processeurs
Mc Kinley, Blackburn et leurs étudiants se sont intéressés à la période de 2003 à 2010 durant laquelle les
matériels et logiciels informatiques ont beaucoup évolué. Pendant cette période, la finesse de gravure est
passée de 130 nm à 32 nm, les monoprocesseurs ont été progressivement remplacés par des puces multi-
coeurs/multi-processeurs et les éditeurs de logiciels développent davantage avec des langages "gérés" (codes
de fort degré d’abstraction qui permettent de produire des logiciels indépendants de toute architecture
matérielle, les auteurs ont sélectionné le langage java pour représenter cette catégorie) au détriment des
langages "natifs" (’assembly language’). Afin de mieux comprendre comment l’énergie est utilisée par les
composants, ces chercheurs ont analysé de façon systématique et approfondie la puissance, la performance
et la fréquence de l’horloge de 8 processeurs (45 configurations différentes au total) représentatifs de cette
période, en se basant sur 61 tests de performance séquentiels et parallèles, écrits dans divers langages de
programmation.
Avec leur mesures, ils ont pu constater que la consommation énergétique réelle des processeurs varie
nettement selon le test de performance effectué. L’étude met également en évidence que les méthodes
actuelles de prédiction de la performance, et de la consommation électrique, donnent des résultats assez
éloignés de la réalité.
Graphique de répartition des résultats des tests (identifiés selon leur langage de programmation) en
fonction de leur performance et de la consommation électrique du processeur sur lesquels ils sont
exécutés (ici, un Intel Core i7)
Crédits : Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back
on the Language and Hardware Revolutions : Measured Power, Performance, and Scaling" (2011)
Graphique de répartition des résultats des tests (identifiés selon le processeur sur lesquels ils sont
exécutés) en fonction de leur rapport consommation/performance
Crédits : Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back
on the Language and Hardware Revolutions : Measured Power, Performance, and Scaling" (2011)
Conclusions
La comparaison des tests de performance avec les différents types de langages montrent de nettes
différences selon le type de langage utilisé (voir graphique ci-dessus), révélant ainsi l’influence importante de
la couche logicielle sur l’efficience globale du système. Les architectes ont donc intérêt à inclure dans leurs
méthodes de conception et d’évaluation du matériel à la fois des langages natifs et gérés.
De plus, les différentes technologies d’économie d’énergie ou d’optimisation des performances comme la
variation dynamique de la fréquence d’horloge, les différentes microarchitectures, le Turbo Boost
(fonctionnalité de surcadencage dynamique sur les puces Intel), le multi-tâche (Simultaneous Multithreading -
SMT) et le nombre de coeurs, font varier de manière extrêmement importante la puissance électrique
consommée par le processeur. Les auteurs de l’étude ont par exemple noté que le SMT se révèle être l’une
des technologies les plus efficaces pour améliorer l’éfficience énergétique d’un processeur et que le multi-
coeur n’est pas toujours bénéfique en termes d’efficience.
Les auteurs de l’étude soulignent ainsi la nécessité d’intégrer un watt-mètre directement au sein de la puce, et
si possible d’en intégrer un pour chaque unité du processeur (cores, mémoire cache, etc.), puis d’en donner
l’accès aux développeurs de logiciel. Les auteurs ajoutent que lors de la conception d’un système informatique
efficient, il ne faudrait pas se limiter à optimiser le matériel, mais prendre aussi en compte les logiciels qui
seront exécutés pour optimiser le couple matériel/logiciel.
Sources :
[8] Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back on the
Language and Hardware Revolutions : Measured Power, Performance, and Scaling" (2011) :
http://www.cs.utexas.edu/ mckinley/papers/power-v-perf-asplos-2011.pdf
Pour en savoir plus, contacts :
- [1] Datacenter energy costs outpacing hardware prices :
http://arstechnica.com/business/news/2009/10/datacenter-energy-costs-outpacing-hardware-prices.ars
- [2] BE Etats-Unis 259 : Les centres de données américains pourraient consommer 5 fois moins d’électricité :
http://www.bulletins-electroniques.com/actualites/67686.htm
- [3] BE Etats-Unis 213 : GEIT Awards : les bonnes pratiques pour les centres de données se voient
récompensées : http://www.bulletins-electroniques.com/actualites/63803.htm
- [4] BE Etats-Unis 210 : La consommation électrique des centres de données dans le collimateur :
http://www.bulletins-electroniques.com/actualites/63618.htm
- [5] BE Etats-Unis 207 : L’état de New York finance l’amélioration de l’efficience de ses centres de données :
http://www.bulletins-electroniques.com/actualites/63350.htm
- [6] BE Etats-Unis 261 : Microsoft propose de remplacer votre chaudière par des serveurs :
http://www.bulletins-electroniques.com/actualites/67805.htm
- [7] BE Etats-Unis 211 : Pour HP, centre de traitement de données et bouses de vache font bon ménage :
http://www.bulletins-electroniques.com/actualites/63656.htm
- [9] The Inquirer - 2005 - Gordon Earl Moore qualifie sa conjecture d’auto-realisatrice :
http://www.theinquirer.net/inquirer/news/1014782/gordon-moore-aloha-moore-law
- [10] De Computeris - La prophétie de Moore :
http://de-computeris.blogspot.com/2011/01/la-prophetie-de-moore.html
Code brève
ADIT : 69164
Rédacteurs :
Catherine Marais, [email protected] ; Frédéric Lohier, deputy-
Retrouvez toutes nos activités sur http://france-science.org. Suivre le secteur Nouvelles Technologie de
l’Information, Communication, Sécurité sur twitter @MST_USA_NTICS
1 / 3 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !