Sulu a a
Silicium : le bout de la route
Av Avènement de la nanoélectronique
(de la microélectronique à la
nanoélectronique)
Par Jacques GIRARD (Supélec 58)
x
Professeur à LISEP et à lecole des Mines de Paris Membre Emérite de la SEE
1. Etat actuel de la miniaturisation
La puce (le cerveau de l'ordinateur) est constituée d'un
réseau de minuscules neurones : les transistors. Un nouveau
record de miniaturisation vient d'être établi au laboratoire du
Groupe dispositifs nanoélectroniques sur silicium au CEA-LETI
(Laboratoire d'électronique, de technologie et d'instrumentation
du CEA à Grenoble). Avec une longueur de 18 nanomètres, on
peut en ranger plus de 17 milliards sur une pièce de un euro.
L'intégration sur une puce ne devrait pas avoir lieu avant 2015
au plus tôt.
On touche ici aux limites de la technologie du silicium. Les
problèmes sont de plus en plus nombreux au fur et à mesure que
le transistor se rapproche de l'échelle atomique.
SEMATECH (Semiconducteur Manufacturing Technology),
consortium regroupant les principaux industriels de la filière du
silicium, souligne ces limites dans son dernier « plan de route »
censé identifier les défis technologiques des quinze prochaines
années. Selon eux « une approche complètement différente sera
nécessaire pour prolonger la miniaturisation ».
C'est une révolution dans les transistors aussi bien sur les
plans conception et réalisation que sur le plan pédagogique : le
premier virage depuis plus de quarante ans !
2. Trois règles sur la route du silicium
Depuis quarante ans, pour améliorer la performance des
puces, les transistors qui dévalent « la route du silicium » doivent
respecter trois règles ou lois : lois d'échelle, de Moore et de Rock.
Loi d'échelle
La loi d'échelle a fixé une fois pour toutes la fonne du transis-
tor. Si la longueur d'un nouveau transistor se réduit d'un facteur
k, il doit en être de même pour sa largeur, son épaisseur d'iso-
lant et la tension exercée sur sa grille. La vitesse, qui dépend de
la distance, augmente d'un facteur k et la mémoire, qui dépend
de la surface, d'un facteur k'.
En cours de route, il peut arriver que le transistor ne respecte
pas cette échelle et se déforme suivant les capacités technologiques
des conducteurs. Mais les proportions optimales sont toujours
rétablies. La loi d'échelle fixe donc la direction de la route.
Loi de Moore
Tous les trois ans, le nombre de transistors sur une plaque
de silicium quadmple. Tous les trois ans apparaît donc une nouvel-
le génération de transistors, engendrant de nouveaux records de
performance. Établie en 1965 par Gordon Moore, cofondateur
d'INTEL et oracle surdoué, cette loi sert aujourd'hui encore à
prévoir les caractéristiques des futures générations de puces.
Le gigabit (un milliard de transistors sur une même puce)
est prévu pour dans dix ans.
La construction de la route du silicium est un travail délicat :
le tracé doit se faire en ligne droite et la vitesse des travaux
est imposée.
Loi de Rock
Rock, un autre collaborateur d'INTEL, stipule que le coût
de fabrication d'une puce double tous les quatre ans. Les cent
cinquante fabricants mondiaux actuels ne peuvent tous suivre
ce rythme démentiel. La tendance est donc aux regroupements
industriels et au cofinancement. Le prix du silicium entre, pour
une part négligeable, dans la facture : c'est l'usine et la
recherche qui coûtent cher.
Depuis plus de quarante ans, le chiffre d'affaires mondial
du marché de la microélectronique (qui devient en fait la nano-
électronique) est ainsi en constante progression pour atteindre
aujourd'hui 15 milliards d'euros par an. Il représentera, dans
dix ans, plus de 40 % du marché global de l'électronique (qui
sera alors le marché dominant dans le monde).
La fabrication de transistors sera devenue un savoir-faire
stratégique. Ce seront les Etats qui financeront les usines à puces
dont le coût unitaire atteindra près de 50 milliards d'euros.
Dans une vingtaine d'années, il n'existera plus, dans le
monde, qu'une dizaine de fabricants de semi-conducteurs et
peut-être même moins !
3. Le mur de l'atome
Une des limites fondamentales à la miniaturisation des tran-
sistors est désormais connue. C'est la largeur de l'isolant entre
le canal du transistor et la grille. L'épaisseur minimale de cette
couche vient d'être calculée : elle ne doit pas avoir moins de
cinq atomes de silicium, soit environ 0,7 nanomètre. Une
dimension qu'elle atteindra normalement dès 2012.
REE
N 8
Setptembre 2005
> L'article nvité 5
DSilicium : le bout de la route <
Pour une épaisseur inférieure, le courant traverse l'isolant,
rendant le transistor caduc.
Une seconde frontière tout aussi cruciale est la distance
entre le point d'arrivée du courant et son point de sortie. Ainsi
treize atomes de silicium (soit une longueur de quatre nano-
mètres) sont nécessaires pour assurer le fonctionnement de la
machine. Cette distance sera atteinte dans moins de dix ans.
4. Vers l'infiniment petit (passage de
la microélectronique vers la
nanoélectronique)
A-t-on besoin de prolonger encore au-delà de cette miniatu-
risation ? Avec six ou sept atomes d'épaisseur et treize entre la
source et le drain, le transistor sera peut-être l'ultime transistor
à silicium ! Une puce ayant cette dimension pourra charger
l'ensemble des données disponibles actuellement sur l'Internet
(environ 48 térabits) en vingt minutes. Une performance a
priori suffisante pour les ordinateurs de bureau. Mais de nou-
velles applications sont imaginées.
La puce sera tellement petite qu'elle envahira tous nos
objets quotidiens. Elle pourra, en particulier, s'intégrer à des
nanorobots injectés dans le corps pour y détecter maladies et
dysfonctionnements génétiques.
La technologie du silicium est insuffisante pour réaliser ces
nouveaux projets.
Il faut au bout de cette route du silicium, tracer un nouveau
chemin pour prolonger le voyage vers l'infiniment petit.
5. Succession du silicium : de nouvelles
pistes
Pour éviter ce « crash » de l'intégration, plusieurs pistes
sont d'ores et déjà à l'étude :
5.1 Un nouvel avenir du silicium
'Le transistor en trois dimensions qui intègre la technolo-
gie du silicium avec des connexions non plus seulement
horizontales mais aussi verticales.
· Inclusion des fonctions optiques dans les circuits inté-
grés classiques grâce aux travaux effectués au niveau
d'un laser au silicium. Autrement dit, combiner les
avantages de la photonique à ceux du silicium ? Cette
intégration de fonctions optiques vise à remplacer les
électrons par des photons et le courant électrique par des
signaux lumineux. Son intérêt est double : un gain de
vitesse (la lumière est le moyen le plus rapide pour trans-
porter une information) et une absence d'interférence
(donc de mélange) entre signaux d'origines différentes.
La réalisation d'une telle puce devrait être atteinte dans
les dix années à venir.
'La mise au point de puces hybrides silicium-logiciel,
dont la conception est fondamentalement différente de
toutes celles produites jusqu'à présent. Le principe de
ces puces hybrides est basé sur l'apport d'un supplément
d'intelligence pour alléger leur fonctionnement matériel.
Autrement dit, ces puces ont un complément logiciel qui
effectue le traitement d'une bonne partie de ce que les
autres puces conventionnelles réalisent dans le silicium.
L'idée est de libérer, autant que possible, la puce de son
« jeu d'instructions ». En effet, à chacune des instruc-
tions correspond une opération câblée dans le circuit de
la puce gravée dans le silicium.
Les inventeurs de la nouvelle logique, qui ont été déjà à
l'origine des architectures RISC (Reduced Instruction
Set Computer, ordinateur à jeu d'instructions réduit) ont
mis en place des mots d'instruction très longs qui per-
mettent de combiner plusieurs opérations en une seule
instruction codée, dans un premier temps sur un mot de
128 bits. Ces opérations sont effectuées en un cycle
d'horloge du processeur. En réalité, la véritable innova-
tion de ces inventeurs est d'avoir interposé « une couche
logicielle » entre le circuit intégré proprement dit et les
programmes qu'il exécute, donc entre le jeu d'instruc-
tions de la puce qu'il exécute et celui du programme exé-
cuté. Les deux sont dissociés, ce qui permet de faire évo-
luer l'un indépendamment de l'autre.
5.2. Recherche de nouveaux concepts de transistor
et « Franchissement du mur quantique »
Mur quantique
L'élaboration d'objets de taille nanométrique a pris de
l'ampleur durant la dernière décennie grâce aux découvertes de
nouvelles propriétés physiques associées à la taille des objets
étudiés.
En effet, à l'échelle nanométrique, les électrons ne suivent
plus les lois classiques et des effets spectaculaires apparaissent
tels que l'existence, en particulier, de courant en l'absence de
tension !
Lorsque l'on s'intéresse au transport électronique en
dimension de plus en plus réduite, il apparaît une longueur
caractéristique dite « longueur de cohérence de phase » en
dessous de laquelle se manifeste le comportement quantique
des électrons ; on franchit dans ce cas ce que l'on pourrait
appeler le « mur quantique .
Cette longueur peut varier de la dizaine de nanomètres à
plusieurs centièmes suivant la matière et la température.
Ainsi intervient dans le domaine nanométrique la physique
quantique qui va introduire au niveau des circuits électroniques
ses lois propres qui peuvent être à l'origine de propriétés nouvelles...
Cette révolution nous rappelle étrangement l'avènement
des transistors dans les années 50 !
Cette théorie quantique, née dans les années 1920, modifie
actuellement de fond en comble notre conception de la réalité.
Elle nous oblige ainsi à accepter qu'une particule puisse se
trouver à la fois ici et là, ou qu'une porte quantique (à la diffé-
rence d'une porte obéissant à la logique booléenne) peut être à
la fois ouverte et fermée. Un bouleversement s'est déjà produit
à travers la découverte des lasers.
Dans les années 1960, il y a eu une nouvelle vague de pro-
grès importante dans le monde quantique. Ainsi, d'une part des
physiciens ont prouvé la propriété extraordinaire qu'est l'insé-
parabilité quantique (une paire d'objets préparés dans un état
REE
No 8
Septembre 2005
quantique dit intriqué se comporte comme un système unique,
même si les deux objets sont très éloignés l'un de l'autre).
D'autre part, les physiciens ont appris à manipuler un par un des
électrons, des ions, des atomes ou des photons, grâce à la
découverte d'une nouvelle génération de microscopes dits à
effet tunnel et à force atomique.
Il a fallu ensuite clarifier la façon d'appliquer le formalisme
quantique à base d'équations de Schrodinger des années 1920,
de nature probabiliste, à des objets individuels et pas seulement
à des assemblées statistiques d'objets.
On aboutit ainsi à explorer ce qui se passe derrière le mur
quantique et à assister en particulier à une révolution de l'infor-
mation dite quantique avec, en particulier, l'avènement de la
cryptographie quantique, dont les premiers démonstrateurs
existent déjà, et les études menées sur le futur ordinateur quan-
tique basé sur la notion des qubits. Alors que le bit informatique
classique (celui de nos ordinateurs) est égal soit à 0, soit à 1, le
bit quantique (ou qubit) peut être dans les deux états à la fois !
Par exemple, il peut valoir 0 avec une probabilité de 13 % et 1
avec une probabilité de 87 %.
De la même façon, alors qu'un système informatique clas-
sique à 2 bits ne peut se mettre que dans l'un des quatre états
distincts (00), (01), (10) ou (II), un système à deux qubits peut
prendre ces quatre états en même temps, chacun étant associé à
une certaine probabilité. Un système à trois qubits est donc une
superposition de huit états et un système à n qubits une super-
position de 2 " états.
Ce système quantique à base de qubits permettrait un traite-
ment de l'information en parallèle massif, qui n'a pas d'équi-
valent dans le monde classique au point du vue de performance
en puissance de calcul (nos supercalculateurs classiques actuels
de type vectoriel ou scalaire sont loin d'atteindre ces perfor-
mances quantiques possibles). De nombreux obstacles doivent
être cependant franchis avant d'obtenir de tels résultats (problè-
me, en particulier, de la décohérence dès que l'objet quantique
a des contacts avec le monde extérieur !)
5.3. Domaines de l'électronique moléculaire et du
traitement quantique de l'information :
le monde des nanosciences *
Ces deux domaines dont on vient de donner quelques carac-
téristiques relèvent des nanosciences.
Précisons que deux approches peuvent être utilisées pour
fabriquer des objets à l'échelle du nanomètre. La première est
une approche dite descendante (ou « top down ») adoptée dès le
début de l'ère microélectronique qui permet d'obtenir jusqu'à
ce jour et pour quelques années encore des objets nanomé-
triques grâce au développement des techniques de lithographie
ultime (sur des échelles dépassant la dizaine de nanomètres).
L'autre approche nécessaire pour obtenir des objets de
quelques nanomètres s'inspire de la synthèse chimique : elle est
dite ascendante (ou « bottom up ») et consiste à assembler
atome par atome un objet nanométrique.
Cette dernière approche, très prometteuse, doit son évolu-
tion et son utilisation à des découvertes fondamentales des
années 1990.
On peut citer à nouveau, en particulier, la découverte des
microscopes à « sonde locale » qui dérivent du microscope à
effet tunnel, et la mise au point d'algorithmes de traitement
quantique de l'information.
Cette approche ascendante est ainsi basée sur une stratégie
moléculaire qui permet de synthétiser des molécules ou des
nanotubes possédant des propriétés électriques et magnétiques
liées à leur taille nanométrique.
Cette « électronique moléculaire » permettra de réaliser des
composants et des circuits constitués d'une ou de quelques
molécules et, par extension, d'un ou de quelques objets de taille
comparable à celle d'une petite molécule (typiquement 5 nano-
mètres), ce qui implique la synthèse de nano-objets dotés de
fonctionnalités, puis leur connexion à des électrodes externes et
enfin l'organisation de composants ainsi formés en circuits.
À cette électronique moléculaire doit être associé le
traitement quantique de l'information avec la notion des
bits quantiques vue précédemment.
Ces deux domaines connexes, en très forte croissance au
plan mondial, nécessitent de façon générale une réflexion
profonde sur les paradigmes de calcul. Tous deux s'appuient sur
des phénomènes physiques proches (cohérence quantique et
transport de charges) se produisant à la même échelle nano-
métrique et la maîtrise technologique de la nanofabrication
associée.
Enfin ces deux domaines, qui relèvent encore en grande
partie de la recherche fondamentale, laissent envisager de nou-
veaux produits qui pourraient révolutionner de nombreux
domaines d'activités, en particulier ceux de la communication
et de la médecine.
Il est à noter qu'il existe une feuille de route « ITRS »
(International Technology Roadmap for semiconductors), un
consensus international sur les moyens à développer pour conti-
nuer à progresser selon la « loi de Moore ».
c
Ce qui est certain est que ce secteur des nanosciences, qui
est à rapprocher de celui des neurosciences (basé sur la méthode
dite « auto-assemblage » de molécules) est le théâtre d'un début
de structuration au travers d'une concentration d'équipes de
chercheurs et d'industriels pluridisciplinaires travaillant en
« grappes » (clusters), afin de mieux tirer parti des moyens dis-
ponibles extrêmement coûteux.
Déjà, en France, a été lancé en 2003 un réseau national en
nanosciences et nanotechnologies, formé par six grands pôles
c
réunissant chacun à la fois la recherche, le développement, l'in-
dustrialisation et l'enseignement (Lille, Grenoble, Toulouse,
c
Besançon, Ile-de-France et Marseille).
Note : Pour les lecteurs de ce chapitre traitant en particulier de la mécanique quantique, qui leur semble malgré tout un monde flou et mystérieux
malgré les efforts faits pour la comprendre, il est intéressant de rappeler ce qui disait le grand physicien Richard Feynmann, prix Nobel, à ses
étudiants : « Si vous avel-, le seiitii ? ieiit d'tiroir coiîipris, reiiiettez-vozis au travail, c'est que vous ii'avez rieii cotiipi-is ». En réalité, il ne peut être
question de « comprendre » mais plus modestement de se faire une idée.
REE
Na 8
Setptembre 2005
r L'articl -1 invité t
iSilicium : le bout de la route <
6. Rôle de !') SEP dans cette nouvelle ère de
la nanoélectronique dans le domaine de
l'enseignement des années 2010-2020
L'arrivée prochaine de la nanoélectronique va nécessiter la
présence de techniciens et d'ingénieurs qui soient de formation
pluridisciplinaire (électronique, physique classique, informa-
tique, optique, ce qui est le cas aujourd'hui mais aussi chimie,
neurobiologie, physique quantique, nanomécanique... ce qui
n'est pas le cas actuellement).
Aussi une réflexion doit-elle être engagée dès maintenant sur
le contenu de l'enseignement qui devrait être dispensé dans nos
écoles d'ingénieurs et université à vocation électronique, afin de
s'adapter à cette nouvelle ère de la nanoélectronique qui corres-
pond à l'avènement d'une nouvelle civilisation dite « cognitive »
(à distinguer de celle dite « industrielle » pour laquelle le métier
de l'ingénieur, qui s'est épanoui avec l'industrialisation, risque de
laisser place à d'autre métiers liés à cet avènement).
L'ISEP a pris l'initiative de créer déjà en son sein un groupe
de travail pour jeter les bases d'un enseignement futur adapté à
l'arrivée de la nanoélectronique.
Il est prévu d'agrandir dès maintenant ce groupe de travail
avec des membres d'autres écoles et universités concernées par
ce sujet (Supélec, écoles de chimie et de biologie, Ecole poly-
technique...) et des membres industriels (tels que THALES,
ALTRAN...) pour exprimer les besoins futurs dans ce domaine.
L'objectif à terme de ces réflexions est de faire des recom-
mandations sur les programmes futurs de formation en nano-
électronique en liaison avec des organismes officiels :
Education Nationale et CNFM (Centre national de formation
microélectronique).
En particulier, il sera temps de contacter ultérieurement des
organismes européens dans le but d'harmoniser nos propositions
avec celles issues probablement de la Communauté européenne.
Référence
. Dossier REE de septembre 2003 sur les nanotechnologies
9 Dossier REE de janvier 2004 sur les nanotechnologies
REE
No 8
Septembre 2005
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !