Les lois de Moore 16/10/2007
Il existe en fait trois lois de Moore, deux authentiques (au sens où elles furent émises par Gordon E. Moore),
et une série de « lois » qui ont en commun de se prétendre « loi de Moore » et de n'avoir aucun rapport
aux deux premières.
Elles ont trait à l'évolution de la puissance des ordinateurs et de la complexité du matériel
informatique.
Énoncés
1. La Loi de Moore a été exprimée en 1965 par Gordon Moore, ingénieur de Fairchild Semiconductor, un
des trois fondateurs d'Intel. Il expliquait que la complexité des semiconducteurs proposés en entrée de
gamme doublait tous les dix-huit mois à coût constant depuis 1959, date de leur invention.
Cette augmentation exponentielle fut rapidement nommée Loi de Moore ou, compte tenu de l'ajustement
ultérieur, Première loi de Moore [1].
2. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des
microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants
indépendants) sur une puce de silicium double tous les deux ans. Bien qu'il ne s'agisse pas d'une vraie
loi physique, cette prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des
transistors a doublé chaque 1,96 année.
En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en
plus puissantes.
3. Une version commune, variable et sans lien avec les énoncés réels de Moore est: « quelque chose »
double tous les dix-huit mois, cette chose étant « la puissance », « la capacité », « la vitesse » et bien
d'autres variantes mais très rarement la densité des transistors sur une puce.
Ces pseudo « lois de Moore » sont celles le plus souvent diffusées, car elles fleurissent dans des
publications grand public et sur de nombreux sites Internet.
Leur seul point commun est donc ce nombre de dix-huit mois, qu'on ne trouve pourtant dans aucun des
deux énoncés de Moore.
Pertinence et ralentissement
La deuxième loi est à peu près vérifiée depuis 1973, et aurait dû théoriquement continuer encore jusqu'en
2015 avant qu'on ne bute sur des effets de bruits parasites (effets quantiques, désintégrations alpha). Mais
depuis 2004, elle souffre d'un petit ralentissement dû à des difficultés de dissipation thermique, qui empêche
une montée en fréquence en dépit de la taille plus faible des composants. On contourne pour le moment
cette difficulté de deux façons :
* doublement sur une puce du nombre de processeurs, la fréquence restant pour sa part inchangée (Dual
PowerPC en 2002, Dual IA en 2004, Intel Core 2 duo en 2006) ;
* expérimentation de puces fonctionnant en mode totalement asynchrone. On s'aperçoit en effet que la
simple transmission du signal d'horloge à tous les composants consomme la moitié de l'espace et de la
puissance électrique des microprocesseurs actuels.
Aspects financiers
Un autre facteur peut venir la freiner, et qui n'a cette fois-ci plus rien de physique, mais qui est d'ordre
financier :
Il n'y a pas que la puissance des microprocesseurs qui augmente exponentiellement. Il y a aussi le coût de
leurs chaînes de production, à un point tel que même des géants concurrents comme IBM et Siemens ont
dû grouper leurs investissements pour arriver à suivre le mouvement.
La rentabilité des générations futures de machines dépend d'un futur pour le moins incertain (beaucoup
d'utilisateurs de PC, par exemple, commencent à prendre comme critère de choix prioritaire non plus la
vitesse d'un PC, mais son niveau de bruit) et il se pourrait que dans ces conditions ce soit une décision de
financiers, et non un palier physique, qui mette fin à cette Loi de Moore.
1
2
Vitesse réelle et vitesse subjective
Des machines de plus en plus puissantes mises à disposition des développeurs ont malheureusement des
effets pervers. À l'époque des processeurs « lents » des années 1980 et 1990, les développeurs
investissaient beaucoup de temps pour optimiser les programmes et chaque ligne de code que l'on pouvait
économiser permettait de gagner des cycles d'horloge et donc d'aller plus vite. Les ordinateurs actuels
offrent un confort de travail qui a pour effet de diminuer la vigilance des développeurs.
En outre, les contraintes économiques obligent à toujours produire dans l'urgence, et le temps passé
autrefois optimiser le code a été sacrifié. Ainsi est-on confronté aujourd'hui à un paradoxe : les ordinateurs
sont de plus en plus rapides, mais les logiciels de plus en plus lourds et de plus en plus lents ! Au final,
l'utilisateur n'a pas la sensation d'une réelle augmentation de la vitesse, surtout pour des tâches
élémentaires comme le traitement de texte. Nombre d'utilisateurs regrettent même les ordinateurs plus
«rustiques » qui, privés de tous les gadgets dont les systèmes sont chargés aujourd'hui, étaient beaucoup
plus performants en terme de productivité.
Contrainte économique
La loi de Moore pourrait également présenter un intérêt économique de contrôle de la demande par
répartition distillée de l'offre.
En effet, la miniaturisation progresse en principe grâce à des découvertes et à des optimisations
ponctuelles, réalité peu conforme à la régularité de l'évolution exponentielle spécifiée par la loi de Moore. En
maîtrisant dans le temps la diffusion des applications technologiques nouvelles, il est possible que les
géants des semi-conducteurs définissent eux-mêmes un modèle stable de consommation, [réf. nécessaire]
et s'assurent ainsi d'une correspondance entre leurs efforts d'innovation et les désirs de renouvellements de
leur clientèle. L'autolimitation de l'offre obligerait ainsi les consommateurs à mettre à jour régulièrement leur
matériel.
Pour être effective, il faudrait néanmoins qu'une telle autolimitation de l'offre puisse s'appuyer sur une
cartellisation forte du marché.
Dans ce cas, assez inédit dans l'histoire du capitalisme, les lois du marché obligeraient à brider l'innovation
pour assurer une rente à l'ensemble du secteur concerné.
"The Wall"
En 1965, Gordon Earle Moore, constatait l'évolution exponentielle de la capacité des mémoires et de la
performance de calcul des puces microprocesseur (On rappellera qu’en 1965, le circuit le plus performant
comportait 64 transistors). Cette augmentation exponentielle fut nommée compte tenu de l'ajustement
ultérieur, première Loi de Moore. En 1980, Moore énonce une seconde loi selon laquelle le nombre de
transistors des microprocesseurs cette fois (la loi initiale s’appliquait aux circuits intégrés moins complexes
puisque formés de composants indépendants) sur une puce de silicium, double tous les deux ans. Bien que
simple loi empirique, cette prédiction s'est révélée étonnamment exacte et est toujours réaliste aujourd'hui.
Et elle pourrait en principe le rester jusque vers 2015 avant qu'on ne soit réellement confronté aux effets
quantiques. En 2015, ces processeurs devraient donc contenir plus de 15 milliards de transistors.
En 1999 le transistor CMOS dit « ultime » développé au Leti à Grenoble a poussé à ses limites le principe
du transistor MOSFET avec une section de 18 nm (la dimension d’environ 70 atomes mis côte à côte), c’est
7 fois plus petit que le plus petit transistor industriel de 2003 (130 nm en 2003, 90 nm en 2004,
65 nm fin 2005). Il permettrait un degré d’intégration théorique de 7 Milliards de jonctions sur une pièce de 1
Euro. Mais il ne s’agissait-là que d’une simple expérience de recherche pour étudier le fonctionnement des
technologies CMOS lorsque l’on s’approche de la taille moléculaire. On serait encore incapable à ce jour de
maîtriser l’assemblage coordonné d’un très grand nombre de ces transistors sur un circuit et encore moins
de réaliser cela sur un plan industriel.
Le coût de la technologie permettant la réalisation de puces intégrant de plus en plus de transistors
augmente dans des proportions vertigineuses - une autre loi empirique de la Silicon Valley, la loi de Rock,
stipule ainsi que le coût de fabrication d’une puce double tous les 4 ans- car le procédé de fabrication, la
photolithographie, utilisé depuis une quarantaine d’année se rapproche toujours plus de ses limites
physiques. Ainsi en 2004, Intel a annoncé un investissement de plus 2 milliards de dollars dans son usine
Fab12 en Arizona pour la fabrication de puces à partir de wafers de 300 mm de diamètre, qui ont remplacé
les wafers 200 mm vers la fin 2005.
3
Pour fabriquer des transistors toujours plus minuscules, on utilise des rayonnements de longueur d’onde
toujours plus courtes et la course à la miniaturisation entraînera la photolithographie dans le spectre des
rayons X de plus en plus durs (rayonnement UV puis rayons X, puis X-UV, …).
Mais dans cette gamme de longueurs d’ondes il devient difficile, voire impossible de concentrer
efficacement les rayons. Au milieu des années 1990, on estimait ne pas être en mesure de fabriquer
industriellement des transistors de moins de 400 atomes (100 nm) de section avec un tel procédé.
Aujourd’hui, on considère possible de repousser les dimensions critiques des transistors CMOS à environ
20 nm, des démonstrations en laboratoire ayant déjà eu lieu. Mais cet ultime ordre dimensionnel constituera
alors une limite industrielle et physique pour cette technologie. Dans l’industrie du silicium, cette limite
s’appelle « the Wall».
Changement de paradigme
Lorsque la loi de Moore aura atteint ses limites, changer de paradigme consistera en la transition de la
microélectronique aux nanotechnologies.
C’est-à-dire un ensemble de technologies radicalement différentes, complémentaires ou concurrentes telles
que l’utilisation des nanotubes dans les transistors moléculaires, l’informatique ADN (Ordinateur à ADN),
l'informatique quantique, ... Technologies couramment regroupées sous le vocable « nano-informatique »
qui introduisent notamment les systèmes ubiquitaires et l'informatique diffuse.
Lors de l'Intel Developer Forum de septembre 2007, Gordon Moore a prédit que sa loi de doublement du
nombre de transistors dans une puce tous les 2 ans ne seraient plus valides dans 10 à 15 ans [2].
En effet, l'industrie approche de plus en plus des limites physique de la microélectronique où les transistors
ne seront plus constitués que de quelques atomes et l'isolant entre eux d'un seul. L'industrie devra alors se
chercher des méthodes entièrement nouvelles, tel que l'empilement des transistors en 3 dimensions
1 / 3 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !