Sulu Silicium :ale Av (de Avènement la bout a de la de la route nanoélectronique microélectronique à la nanoélectronique) Par Jacques GIRARD (Supélec 58) x Professeur à LISEP et à lecole des Mines de Paris Membre Emérite de la SEE 1. Etat actuel de la miniaturisation Loi de Moore La puce (le cerveau de l'ordinateur) est constituée d'un réseau de minuscules neurones : les transistors. Un nouveau record de miniaturisation vient d'être établi au laboratoire du Tous les trois ans, le nombre de transistors sur une plaque de silicium quadmple. Tous les trois ans apparaîtdonc une nouvelle génération de transistors, engendrant de nouveaux records de Groupe dispositifs nanoélectroniques sur silicium au CEA-LETI (Laboratoire d'électronique, de technologie et d'instrumentation du CEA à Grenoble). Avec une longueur de 18 nanomètres, on performance. Établie en 1965 par Gordon Moore, cofondateur d'INTEL et oracle surdoué, cette loi sert aujourd'hui encore à peut en ranger plus de 17 milliards sur une pièce de un euro. L'intégration sur une puce ne devrait pas avoir lieu avant 2015 au plus tôt. On touche ici aux limites de la technologie du silicium. Les problèmes sont de plus en plus nombreux au fur et à mesure que le transistor se rapproche de l'échelle atomique. SEMATECH (Semiconducteur Manufacturing Technology), consortium regroupant les principaux industriels de la filière du silicium, souligne ces limites dans son dernier « plan de route » censé identifier les défis technologiques des quinze prochaines années. Selon eux « une approche complètement différente sera nécessaire pour prolonger la miniaturisation ». C'est une révolution dans les transistors aussi bien sur les plans conception et réalisation que sur le plan pédagogique : le premier virage depuis plus de quarante ans ! 2. Trois règles sur la route du silicium Depuis quarante ans, pour améliorer la performance des puces, les transistors qui dévalent « laroute du silicium » doivent respecter trois règles ou lois : lois d'échelle, de Moore et de Rock. Loi d'échelle La loi d'échelle a fixé une fois pour toutes la fonne du transistor. Si la longueur d'un nouveau transistor se réduit d'un facteur k, il doit en être de même pour sa largeur, son épaisseur d'isolant et la tension exercée sur sa grille. La vitesse, qui dépend de la distance, augmente d'un facteur k et la mémoire, qui dépend de la surface, d'un facteur k'. En cours de route, il peut arriver que le transistor ne respecte pas cette échelle et se déforme suivant les capacitéstechnologiques des conducteurs. Mais les proportions optimales sont toujours rétablies. La loi d'échelle fixe donc la direction de la route. REE N 8 Setptembre 2005 prévoir les caractéristiques des futures générations de puces. Le gigabit (un milliard de transistors sur une même puce) est prévu pour dans dix ans. La construction de la route du silicium est un travail délicat : le tracé doit se faire en ligne droite et la vitesse des travaux est imposée. Loi de Rock Rock, un autre collaborateur d'INTEL, stipule que le coût de fabrication d'une puce double tous les quatre ans. Les cent cinquante fabricants mondiaux actuels ne peuvent tous suivre ce rythme démentiel. La tendance est donc aux regroupements industriels et au cofinancement. Le prix du silicium entre, pour une part négligeable, dans la facture : c'est l'usine et la recherche qui coûtent cher. Depuis plus de quarante ans, le chiffre d'affaires mondial du marché de la microélectronique (qui devient en fait la nanoélectronique) est ainsi en constante progression pour atteindre aujourd'hui 15 milliards d'euros par an. Il représentera, dans dix ans, plus de 40 % du marché global de l'électronique (qui sera alors le marché dominant dans le monde). La fabrication de transistors sera devenue un savoir-faire stratégique. Ce seront les Etats qui financeront les usines à puces dont le coût unitaire atteindra près de 50 milliards d'euros. Dans une vingtaine d'années, il n'existera plus, dans le monde, qu'une dizaine de fabricants de semi-conducteurs et peut-être même moins ! 3. Le mur de l'atome Une des limites fondamentales à la miniaturisation des transistors est désormais connue. C'est la largeur de l'isolant entre le canal du transistor et la grille. L'épaisseur minimale de cette couche vient d'être calculée : elle ne doit pas avoir moins de cinq atomes de silicium, soit environ 0,7 nanomètre. Une dimension qu'elle atteindra normalement dès 2012. > L'article nvité 5 D Silicium Pour une épaisseur inférieure, le courant traverse l'isolant, rendant le transistor caduc. Une seconde frontière tout aussi cruciale est la distance entre le point d'arrivée du courant et son point de sortie. Ainsi treize atomes de silicium (soit une longueur de quatre nano- : le bout de la route < effectue le traitement d'une bonne partie de ce que les autres puces conventionnelles réalisent dans le silicium. L'idée est de libérer, autant que possible, la puce de son « jeu d'instructions ». En effet, à chacune des instructions correspond une opération câblée dans le circuit de la puce gravée dans le silicium. mètres) sont nécessaires pour assurer le fonctionnement de la machine. Cette distance sera atteinte dans moins de dix ans. Les inventeurs de la nouvelle logique, qui ont été déjà à 4. Vers l'infiniment petit (passage l'origine des architecturesRISC (Reduced Instruction Set Computer, ordinateur à jeu d'instructions réduit) ont mis en place des mots d'instruction très longs qui permettent de combiner plusieurs opérations en une seule instruction codée, dans un premier temps sur un mot de 128 bits. Ces opérations sont effectuées en un cycle de la microélectronique vers la nanoélectronique) A-t-on besoin de prolonger encore au-delà de cette miniaturisation ? Avec six ou sept atomes d'épaisseur et treize entre la source et le drain, le transistor sera peut-être l'ultime transistor à silicium ! Une puce ayant cette dimension pourra charger l'ensemble des données disponibles actuellement sur l'Internet d'horloge du processeur. En réalité, la véritable innovation de ces inventeurs est d'avoir interposé « une couche logicielle » entre le circuit intégré proprement dit et les programmes qu'il exécute, donc entre le jeu d'instructions de la puce qu'il exécute et celui du programme exécuté. Les deux sont dissociés, ce qui permet de faire évoluer l'un indépendamment de l'autre. (environ 48 térabits) en vingt minutes. Une performance a priori suffisante pour les ordinateurs de bureau. Mais de nouvelles applications sont imaginées. La puce sera tellement petite qu'elle envahira tous nos objets quotidiens. Elle pourra, en particulier, s'intégrer à des nanorobots injectés dans le corps pour y détecter maladies et dysfonctionnements génétiques. La technologie du silicium est insuffisante pour réaliser ces nouveaux projets. Il faut au bout de cette route du silicium, tracer un nouveau chemin pour prolonger le voyage vers l'infiniment petit. 5. Succession du silicium : de nouvelles pistes Pour éviter ce « crash » de l'intégration, plusieurs pistes sont d'ores et déjà à l'étude : 5.1 Un nouvel avenir du silicium 'Le transistor en trois dimensions qui intègre la technologie du silicium avec des connexions non plus seulement horizontales mais aussi verticales. · Inclusion des fonctions optiques dans les circuits intégrés classiques grâce aux travaux effectués au niveau d'un laser au silicium. Autrement dit, combiner les avantages de la photonique à ceux du silicium ? Cette intégration de fonctions optiques vise à remplacer les électrons par des photons et le courant électrique par des signaux lumineux. Son intérêt est double : un gain de vitesse (la lumière est le moyen le plus rapide pour transporter une information) et une absence d'interférence (donc de mélange) entre signaux d'origines différentes. La réalisation d'une telle puce devrait être atteinte dans les dix années à venir. 'La mise au point de puces hybrides silicium-logiciel, dont la conception est fondamentalement différente de toutes celles produites jusqu'à présent. Le principe de ces puces hybrides est basé sur l'apport d'un supplément d'intelligence pour alléger leur fonctionnement matériel. Autrement dit, ces puces ont un complément logiciel qui 5.2. Recherche de nouveaux concepts de transistor et « Franchissement du mur quantique » Mur quantique L'élaboration d'objets de taille nanométrique a pris de l'ampleur durant la dernière décennie grâce aux découvertes de nouvelles propriétés physiques associées à la taille des objets étudiés. En effet, à l'échelle nanométrique, les électrons ne suivent plus les lois classiques et des effets spectaculaires apparaissent tels que l'existence, en particulier, de courant en l'absence de tension ! Lorsque l'on s'intéresse au transport électronique en dimension de plus en plus réduite, il apparaît une longueur caractéristique dite « longueur de cohérence de phase » en dessous de laquelle se manifeste le comportement quantique des électrons ; on franchit dans ce cas ce que l'on pourrait appeler le « mur quantique . Cette longueur peut varier de la dizaine de nanomètres à plusieurs centièmes suivant la matière et la température. Ainsi intervient dans le domaine nanométrique la physique quantique qui va introduire au niveau des circuits électroniques seslois propresqui peuventêtre à l'origine de propriétésnouvelles... Cette révolution nous rappelle étrangement l'avènement des transistors dans les années 50 ! Cette théorie quantique, née dans les années 1920, modifie actuellement de fond en comble notre conception de la réalité. Elle nous oblige ainsi à accepter qu'une particule puisse se trouver à la fois ici et là, ou qu'une porte quantique (à la différence d'une porte obéissant à la logique booléenne) peut être à la fois ouverte et fermée. Un bouleversement s'est déjà produit à travers la découverte des lasers. Dans les années 1960, il y a eu une nouvelle vague de progrès importante dans le monde quantique. Ainsi, d'une part des physiciens ont prouvé la propriété extraordinaire qu'est l'inséparabilité quantique (une paire d'objets préparés dans un état REE No 8 Septembre 2005 quantique dit intriqué se comporte comme un système unique, même si les deux objets sont très éloignés l'un de l'autre). D'autre part, les physiciens ont appris à manipuler un par un des électrons, des ions, des atomes ou des photons, grâce à la découverte d'une nouvelle génération de microscopes dits à effet tunnel et à force atomique. quelques nanomètres s'inspire de la synthèse chimique : elle est dite ascendante (ou « bottom up ») et consiste à assembler atome par atome un objet nanométrique. Cette dernière approche, très prometteuse, doit son évolution et son utilisation à des découvertes fondamentales des années 1990. On peut citer à nouveau, en particulier, la découverte des Il a fallu ensuite clarifier la façon d'appliquer le formalisme microscopes à « sonde locale » qui dérivent du microscope à effet tunnel, et la mise au point d'algorithmes de traitement quantique à base d'équations de Schrodinger des années 1920, de nature probabiliste, à des objets individuels et pas seulement à des assembléesstatistiques d'objets. quantique et à assister en particulier à une révolution de l'information dite quantique avec, en particulier, l'avènement de la quantique de l'information. Cette approche ascendante est ainsi basée sur une stratégie moléculaire qui permet de synthétiser des molécules ou des nanotubes possédant des propriétés électriques et magnétiques liées à leur taille nanométrique. Cette « électronique moléculaire » permettra de réaliser des cryptographie quantique, dont les premiers démonstrateurs existent déjà, et les études menées sur le futur ordinateur quan- composants et des circuits constitués d'une ou de quelques molécules et, par extension, d'un ou de quelques objets de taille tique basé sur la notion des qubits. Alors que le bit informatique classique (celui de nos ordinateurs) est égal soit à 0, soit à 1, le bit quantique (ou qubit) peut être dans les deux états à la fois ! Par exemple, il peut valoir 0 avec une probabilité de 13 % et 1 avec une probabilité de 87 %. comparable à celle d'une petite molécule (typiquement 5 nanomètres), ce qui implique la synthèse de nano-objets dotés de fonctionnalités, puis leur connexion à des électrodes externes et enfin l'organisation de composants ainsi formés en circuits. On aboutit ainsi à explorer ce qui se passe derrière le mur De la même façon, alors qu'un système informatique classique à 2 bits ne peut se mettre que dans l'un des quatre états distincts (00), (01), (10) ou (II), un système à deux qubits peut prendre ces quatre états en même temps, chacun étant associé à une certaine probabilité. Un système à trois qubits est donc une superposition de huit états et un système à n qubits une superposition de 2 "états. Ce système quantique à base de qubits permettrait un traitement de l'information en parallèle massif, qui n'a pas d'équivalent dans le monde classique au point du vue de performance en puissance de calcul (nos supercalculateurs classiques actuels de type vectoriel ou scalaire sont loin d'atteindre ces performances quantiques possibles). De nombreux obstacles doivent être cependant franchis avant d'obtenir de tels résultats (problème, en particulier, de la décohérence dès que l'objet quantique a des contacts avec le monde extérieur !) 5.3. Domaines de l'électronique moléculaire À cette électronique moléculaire traitement quantique de l'information bits quantiques vue précédemment. doit être associé le avec la notion des Ces deux domaines connexes, en très forte croissance au plan mondial, nécessitent de façon générale une réflexion profonde sur les paradigmes de calcul. Tous deux s'appuient sur des phénomènes physiques proches (cohérence quantique et transport de charges) se produisant à la même échelle nanométrique et la maîtrise technologique de la nanofabrication associée. Enfin ces deux domaines, qui relèvent encore en grande partie de la recherche fondamentale, laissent envisager de nouveaux produits qui pourraient révolutionner de nombreux domaines d'activités, en particulier ceux de la communication et de la médecine. Il est à noter qu'il existe une feuille de route « ITRS » (International Technology Roadmap for semiconductors), un consensus international sur les moyens à développer pour continuer à progresser selon la « loi de Moore ». c et du traitement quantique de l'information : le monde des nanosciences * Ces deux domaines dont on vient de donner quelques caractéristiques relèvent des nanosciences. Précisons que deux approches peuvent être utilisées pour fabriquer des objets à l'échelle du nanomètre. La première est une approche dite descendante (ou « top down ») adoptée dès le début de l'ère microélectronique qui permet d'obtenir jusqu'à ce jour et pour quelques années encore des objets nanométriques grâce au développement des techniques de lithographie ultime (sur des échelles dépassant la dizaine de nanomètres). L'autre approche nécessaire pour obtenir des objets de Ce qui est certain est que ce secteur des nanosciences, qui est à rapprocher de celui des neurosciences(basé sur la méthode dite « auto-assemblage » de molécules) est le théâtre d'un début de structuration au travers d'une concentration d'équipes de chercheurs et d'industriels pluridisciplinaires travaillant en « grappes » (clusters), afin de mieux tirer parti des moyens disponibles extrêmement coûteux. Déjà, en France, a été lancé en 2003 un réseau national en nanosciences et nanotechnologies, formé par six grands pôles c réunissant chacun à la fois la recherche, le développement, l'industrialisation et l'enseignement (Lille, Grenoble, Toulouse, c Besançon, Ile-de-France et Marseille). Note : Pour les lecteursde ce chapitre traitant en particulier de la mécaniquequantique,qui leur semblemalgrétout un mondeflou et mystérieux malgré les efforts faits pour la comprendre,il est intéressantde rappelerce qui disait le grand physicien Richard Feynmann,prix Nobel, à ses étudiants: « Si vous avel-, le seiitii ? ieiit d'tiroir coiîipris, reiiiettez-vozis au travail, c'est que vous ii'avez rieii cotiipi-is En réalité, ». il ne peut être questionde « comprendre» mais plus modestementde se faire une idée. REE Na 8 Setptembre 2005 6. Rôle i invité r L'articl -1 de !') SEP dans la nanoélectronique l'enseignement cette dans des années t Silicium nouvelle ère de le domaine de 2010-2020 : le bout de la route < Il est prévu d'agrandir dès maintenant ce groupe de travail avec des membres d'autres écoles et universités concernées par ce sujet (Supélec, écoles de chimie et de biologie, Ecole polytechnique...) et des membres industriels (tels que THALES, ALTRAN...) pour exprimer les besoins futurs dans ce domaine. L'arrivée prochaine de la nanoélectronique va nécessiter la présence de techniciens et d'ingénieurs qui soient de formation pluridisciplinaire (électronique, physique classique, informatique, optique, ce qui est le cas aujourd'hui mais aussi chimie, neurobiologie, physique quantique, nanomécanique... ce qui n'est pas le cas actuellement). Aussi une réflexion doit-elle être engagéedès maintenant sur le contenu de l'enseignement qui devrait être dispensé dans nos écoles d'ingénieurs et université à vocation électronique, afin de s'adapter à cette nouvelle ère de la nanoélectronique qui correspond à l'avènement d'une nouvelle civilisation dite « cognitive » (à distinguer de celle dite « industrielle » pour laquelle le métier de l'ingénieur, qui s'est épanoui avec l'industrialisation, risque de laisser place à d'autre métiers liés à cet avènement). L'ISEP a pris l'initiative de créer déjà en son sein un groupe de travail pour jeter les bases d'un enseignement futur adapté à l'arrivée de la nanoélectronique. L'objectif à terme de ces réflexions est de faire des recommandations sur les programmes futurs de formation en nanoélectronique en liaison avec des organismes officiels : Education Nationale et CNFM (Centre national de formation microélectronique). En particulier, il sera temps de contacter ultérieurement des organismes européensdans le but d'harmoniser nos propositions avec celles issues probablement de la Communauté européenne. Référence . Dossier REE de septembre 2003 sur les nanotechnologies 9 Dossier REE de janvier 2004 sur les nanotechnologies REE No 8 Septembre 2005