Texte de la 225e conférence de l`Université de tous les

publicité
Texte de la 225e conférence de l’Université de tous les savoirs donnée le 12 août 2000.
Comment les révolutions de l'information et des communications ont-elles été
possibles ? Les semi-conducteurs
par Claude Weisbuch
Introduction
Les révolutions de l'information et des communications, issues des découvertes sur les
semi-conducteurs, sont un des faits marquants du siècle passé et vont continuer à bouleverser
dans ce nouveau siècle tous les domaines de l'activité humaine.
Le comité Nobel a rendu hommage en cette année 2000 aux pionniers qui ont rendu
possible ces révolutions : après le prix Nobel de Bardeen, Brattain et Shockley en 1956 pour
l'invention du transistor, c'est Kilby d'une part, Alferov et Kroemer d'autre part, qui sont
récompensés respectivement pour l'invention du circuit intégré, à la base de l'explosion de la
micro électronique, et pour celle des hétérostructures semi-conductrices, qui permettent, entre
autres, d'obtenir des lasers pour télécommunications. Ce prix Nobel est remarquable à plus
d'un titre, en particulier parce qu'il récompense des inventions, qui ont été signifiées par des
brevets (pour Kilby et Alferov), et non des découvertes scientifiques au sens habituel du
terme, annoncées dans des revues scientifiques évaluées par les pairs.
Les semi-conducteurs, et leur mise en œuvre dans les transistors, les lasers et les
circuits intégrés, tiennent ainsi une place particulière dans les grandes découvertes du XXe
siècle, à cause de leur impact jusque dans nos modes de vie. Il y a bien d'autres raisons qui
ajoutent à la place essentielle du domaine dans l'histoire des sciences et des techniques :
C'est un domaine technologique complètement né de la compréhension fondamentale
de la matière solide. Aujourd'hui, les milliards de composants fabriqués chaque seconde
opèrent exactement comme prévu par les modèles physiques microscopiques utilisés dans les
programmes de conception de circuits.
Inversement, depuis quelques années, la technologie des circuits intégrés permet
d'explorer de nouveaux champs fondamentaux. C'est ainsi que l'effet Hall quantique dans les
hétérostructures a déjà donné lieu à deux prix Nobel. Il y en aura certainement encore d'autres
basés sur les semi-conducteurs et leurs structures.
Le domaine est né d'une recherche fondamentale à long terme, effectuée dans un
laboratoire industriel. Cette expérience a longtemps été à la base du paradigme, accepté
jusqu'au début des années 80, selon lequel l'industrie devait faire elle-même de la recherche
fondamentale.
Il y a un étonnement renouvelé devant le progrès exponentiel ininterrompu (fig.1), à la
fois en performance et en coût.
Le domaine a ouvert de nouveaux champs industriels menant à un renouvellement des
entreprises industrielles les plus importantes, et a donné naissance à ce qu'on appelle la
nouvelle économie. De plus, son impact se retrouve dans tous les secteurs d'activité,
industriels ou de service, à cause de son caractère de technologie diffusante, transverse.
Le domaine a été à l'origine de nouvelles formes d'organisations et dynamiques
industrielles. La Silicon Valley tire son nom des entreprises de microélectronique en Silicium,
basées autour de San Francisco et de l'Université de Stanford. Ces entreprises ont défini un
nouveau paradigme industriel, basé sur l'essaimage et la mobilité des personnes (la première
entreprise, celle de Shockley est née des laboratoires Bell; des transfuges de Shockley ont
créé Fairchild, puis Intel). On peut tracer des liens d'hérédité entre des centaines d'entreprises
de la Silicon Valley. Une autre caractéristique est la rapidité de développement des nouveaux
produits et des entités industrielles de la nouvelle économie.
Ces révolutions de l'information et des communications sont nées du codage de
l'information sous forme de paquets d'électrons (les « grains » d'électricité) ou de photons (les
« grains » de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information,
le « bit »), et la capacité de manipuler et transmettre ces paquets d’électrons ou de photons de
manière de plus en plus efficace et économique.
On nous annonce une société passant de biens matériels à l'immatériel, la « société de
la connaissance ». Cela peut être discuté, mais du point de vue physique il est vrai que les
quantités portant l'information sont très petites : La plus grande bibliothèque du monde, celle
du Congrès à Washington, a vingt millions de volumes. Si on considère qu'un livre est
codable sur 50 millions de bits, il faut 1015 bits pour coder tous les livres1. Si on code chaque
bit par la présence ou l'absence de la charge électrique de 10 000 électrons, la bibliothèque est
portée par 1019 électrons, soit les électrons qui sont transportés dans un courant de 1 ampère
en une seconde ! À notre échelle de tous les jours, le codage de l'information nécessite
effectivement une quantité infime de matière. C’est pour cela que la manipulation en est facile
et efficace. La capacité de communiquer l’information, grâce aux télécommunications, n’est
pas en reste : une seule fibre optique, alimentée par des lasers à semi-conducteurs, transmet
aujourd'hui 3 1012 bits (3 terabits) par seconde. Il faut donc 300 s pour transmettre toute la
librairie du Congrès ! Pour prendre la réelle mesure de la révolution de l'information, il suffit
de considérer la quantité d'informations produites chaque année2 sous forme de livres et
journaux, images fixes ou animées (films), données sur CD-Rom ou disques magnétiques
(c'est ce dernier type d'archivage qui est le plus important) : 2 attobytes (1 byte = 8 bits)( dont
0,003 % seulement sous forme imprimée), soit 350 gigabytes par habitant de la terre !
Tout cela a été rendu possible par les progrès des composants et systèmes semiconducteurs, liés aux deux démarches simultanées d'intégration des éléments actifs sur un
même support, la « puce », et de miniaturisation. Une des immenses surprises aura été le
caractère « vertueux » de la miniaturisation : plus les composants sont petits, meilleur est leur
fonctionnement ! On a pu ainsi gagner en 35 ans simultanément plusieurs facteurs de 100
millions à 1 milliard, en termes de complexité des circuits, en réduction de coût (la puce de
plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les
années 60), en fiabilité, en rendement de fabrication.
Ce type de progrès exponentiel ne peut pas continuer indéfiniment. Le problème des
limites physiques se pose de plusieurs manières : jusqu'où la miniaturisation peut-elle
continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a-t-il
des matériaux autres que les semi-conducteurs qui permettraient d'aller au-delà des limites
physiques, ou bien encore existe-t-il d'autres moyens de coder l'information plus efficaces que
les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien,
cherchant ainsi à "refonder" un domaine d'activité immense qu'il a contribué à créer.
Aux origines des révolutions de l'information et des communications : la
physique quantique des solides
1
La notation scientifique et les unités de longueur
Pour représenter des grandeurs extrêmes, on utilise la notation dite scientifique, comprenant le chiffre
10 et un exposant: ce chiffre en exposant signifie le nombre de zéros à mettre dans une notation normale après le
chiffre 1 : 103 = 1 000 ; 106 = 1 000 000. Si l'exposant est négatif, il faut prendre l'inverse du nombre avec le
même exposant positif : 10-3 = 1/103 = 1/1 000.
Les préfixes : Méga dénote la puissance +6, Giga la puissance +9, ainsi 20 Gigabit valent 20 milliards
de bits ; le préfixe Téra dénote la puissance +12, soit 1 000 Giga-- ; Petta la puissance +15, atto la puissance
+18.
-Unités de longueur : le micromètre (ou micron) = un millionième de mètre. On le note 10-6 m, symbole
µm (un cheveu a un diamètre de 100 µm). L’angström, symbole Å, vaut un dix millionième de millimètre, soit
10-10 m Il représente l'ordre de grandeur de la distance entre atomes dans les cristaux solides, typiquement 3 Å.
2
voir http://www.sims.berkeley.edu/how-much-info/index.html
À la base de la capacité à stocker, manipuler et transmettre l'information se trouvent
les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont
des propriétés « classiques » médiocres, que ce soit mécaniques, thermiques, optiques ou
électriques. Comment en est-on arrivé à définir une catégorie de matériaux, les semiconducteurs, qui ne sont ni « bons » conducteurs (métalliques), ni « bons » isolants ! Ces
matériaux ont longtemps mystifié ceux qui s'intéressaient à eux : contrairement aux métaux,
leur conductivité s'améliore avec la température; de plus, et là aussi contrairement aux
métaux, leur médiocre conductivité à l'état pur s'améliore grandement si on leur ajoute des
impuretés chimiques choisies (les « dopants »).
C'est justement les propriétés conductrices moyennes des semi-conducteurs, basées sur
des quantités faibles de charges mobiles, qui les rendent « commandables ». Leur capacité à
changer de conductivité électrique, devenue « contrôlée » par la compréhension physique des
phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de
courant par des électrodes. On a alors les effets d'amplification et d'interrupteur du transistor,
à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs
aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques,
et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de
photons pour les télécommunications.
La compréhension de ces phénomènes a constitué le grand triomphe de l'application
de la mécanique quantique au mouvement des électrons dans les solides cristallins : la
résolution des équations de la mécanique quantique pour des électrons se propageant dans
l'arrangement périodique des ions d'un cristal a montré que leurs énergies possibles se
répartissaient en bandes d'énergie ayant une certaine mémoire des niveaux d'énergie des
atomes constituant le cristal. Chaque bande dans un cristal comportant N atomes aura vN
places pour des électrons (« états quantiques » dans le langage de la mécanique quantique)
dans chaque bande, si v est le nombre de niveaux permis dans le niveau de l'atome de départ
(fig. 2a). Suivant les positions de ces bandes d'énergie et le nombre d'électrons des atomes, en
particulier ceux des électrons les moins liés au noyau (les électrons de « valence », assurant
donc les propriétés chimiques) on va remplir entièrement ou non les bandes d'énergie
permises par les électrons disponibles, à partir de l'énergie la plus basse (fig. 2b). Si les
derniers électrons sont dans une bande où il reste dans le voisinage des places vides à plus
haute énergie, un champ électrique appliqué pourra donner une impulsion et une énergie
cinétique aux électrons. Il y aura conductivité électrique métallique. Si les électrons de
valence du matériau remplissent complètement les bandes, ils ne peuvent pas prendre de
l'énergie sous l'action d'un champ électrique appliqué. On a donc affaire à un isolant. On
conçoit bien que pour des espèces chimiques différentes, ayant de très petites différences
entre les niveaux d'énergie des atomes isolés de départ, on aura au final des matériaux solides
isolants ou conducteurs, donc avec des propriétés électriques très différentes.
Les semi-conducteurs, dans cette description, sont en fait des isolants à faible « bande
interdite » entre les derniers niveaux occupés de la bande de valence et les niveaux
immédiatement supérieurs de la prochaine bande d'énergie permise, appelée bande de
conduction. Du coup, certains électrons peuvent être excités de la bande de valence, dans
laquelle ils laisseront un « trou », vers la bande de conduction (fig. 2b, 3d). Plus la
température est élevée et plus il y a de tels électrons et trous, qui donc assurent une
conductivité plus grande. Ainsi s'explique le mystère de la conductivité des semi-conducteurs
qui augmente avec la température (celle des métaux baisse à cause de l'agitation thermique
des ions du cristal qui empêche la propagation des électrons, phénomène aussi présent dans
les semi-conducteurs mais dont l'effet est masqué par la bien plus importante augmentation du
nombre de charges conductrices). Le trou laissé dans la bande de valence a une conductivité
qui semble être due à une charge positive, car le déplacement apparent dans un champ
électrique a lieu en sens inverse de celui des électrons (figure 3c). Cette explication de la
conductivité apparente de certains matériaux par le « trou » de charge apparemment
« positive » dans une bande d'énergie presque pleine résout un des grands mystères des
solides, car on savait depuis J. J. Thomson que les charges légères et mobiles étaient des
électrons négatifs !
La propriété supplémentaire qu'ont les semi-conducteurs est leur conductivité
« commandable» par incorporation d'impuretés choisies : comme le Silicium, matériau de
base pour la microélectronique, a quatre électrons de valence, le fait d'incorporer des atomes
ayant trois ou cinq électrons de valence (le bore ou le phosphore respectivement) va entraîner
un manque ou un excès d'électrons par rapport au nombre qui remplit exactement la bande de
valence pour du Silicium pur. Ceci se traduit par des niveaux d'énergie « permis » dans la
bande « interdite », près de la bande de valence ou de conduction, qui vont relâcher des trous
ou des électrons, en nombre exactement égal au nombre d'atomes dopants que l'on aura
introduits. (fig. 3e, 3f) On imagine sans peine à quelles erreurs cet effet de dopage a pu
donner lieu : pour des métaux, la conductivité augmente avec la pureté, car il y a moins d'ions
étrangers pour s'opposer au passage du courant. Dans des semi-conducteurs, au contraire, la
conductivité augmente avec les impuretés dopantes ! Tel chercheur croyait avoir un matériau
pur parce qu'il conduisait bien alors qu'il était fortement dopé. Tel autre purifiait son matériau,
s'attendant à le voir mieux conduire, et il devenait quasiment isolant !
Avec cette compréhension des semi-conducteurs dès 1930, fondée sur la mécanique
quantique des solides cristallins, on avait les bases pour faire des composants électroniques. Il
faudra cependant attendre 1947 pour que le transistor voie le jour.
Du semi-conducteur au transistor et au circuit intégré
Le transistor
On a eu l'idée d'interrupteur (relais électrique) solide commandé par une tension
électrique appliquée dès le début du siècle, avec des brevets décrivant correctement le
fonctionnement du transistor à effet de champ dès 1923 (fig. 4). Cet effet « transistor », c’està-dire le contrôle d'un courant à travers un morceau de matériau semi-conducteur par une
tension appliquée sur une grille de commande, a cependant nécessité de longs travaux dans
les années 30 et 40. Il a fallu maîtriser la purification des semi-conducteurs, et l'incorporation
contrôlée de dopants. Plus fondamentalement, il a fallu comprendre les barrières d'énergie
existant dans les semi-conducteurs dopés de manière inhomogène, ou bien encore celles qui
sont situées aux interfaces métal/semi-conducteur, ainsi que les effets de surface, qui
tendaient à masquer tous les autres phénomènes.
C'est par une démarche délibérée de recherche d'un tel relais solide que les
laboratoires Bell, d'American Telegraph and Telephone (ATT), monopole américain des
télécommunications, se sont lancés dans l'aventure du transistor dès 1936. Leur analyse
montrait que l'accroissement du trafic téléphonique serait tel que les réseaux seraient
constamment en panne vu leur taille et la mauvaise fiabilité des commutateurs, qu'ils soient à
relais électromécaniques ou à tubes à vide. Il fallait des interrupteurs hautement fiables basés
sur un nouveau concept physique. Le transistor a donc été inventé dans une entreprise de
télécommunications grâce à un programme de recherche à long terme et à haut risque, pour
satisfaire ses besoins, en lançant une recherche fondamentale de très grande ampleur puisqu'il
a fallu comprendre complètement nombre de nouveaux phénomènes en physique et en chimie
des matériaux semi-conducteurs. Il ne pouvait être inventé dans une entreprise d'ordinateurs
tout simplement parce qu'ils n'existaient pas à l'époque.
Le transistor et l'ordinateur
Le domaine où les progrès induits par les transistors, puis les circuits intégrés, ont été
le plus spectaculaires est sans doute celui des ordinateurs. Ce n'était pas clairement un impact
attendu, les grands patrons de l'industrie se trompant parfois lourdement : Thomas Watson,
PDG d'IBM, déclarait en 1943 que le marché mondial des ordinateurs serait de cinq unités.
Ken Olsen, PDG de Digital, l'entreprise phare des Miniordinateurs, déclarait en 1977 qu'il ne
voyait pas pourquoi les gens auraient des ordinateurs chez eux.
Ce sont les progrès de la microélectronique qui ont généralisé les ordinateurs dans un
premier temps, puis rendu accessibles l'ordinateur personnel, et les services associés comme
le courrier électronique ou le web. Ces progrès ont été rendus possibles par la physique des
composants. C'est qu'elle est particulièrement bien adaptée à la réalisation des fonctionnalités
indispensables dans un ordinateur : rappelons que pour faire un ordinateur, il faut à la fois de
la mémoire (pour stocker les programmes, les données d'entrée et les résultats de calcul) et
une capacité de logique combinatoire (pour effectuer des calculs)(fig. 5). Le transistor permet
de construire à la fois la fonction mémoire et la capacité logique nécessaires, car il peut
fonctionner comme un bon interrupteur. Comme on le démontre à partir de l'algèbre de Boole,
c’est-à-dire la combinatoire d'opérateurs logiques comme la porte « ET » de la figure 5, des
interrupteurs associés à des résistances permettent de réaliser toute opération logique. Associé
à un condensateur, un transistor fonctionnant en interrupteur permet aussi de réaliser un
élément mémoire : c'est le principe des mémoires « dynamiques » DRAM (fig. 5).
Pourquoi dit-on que la physique des composants à semi-conducteurs est bien adaptée ?
C'est que l'on peut réaliser cette fonctionnalité d' interrupteur de manière quasi-parfaite, c’està-dire en consommant peu d'énergie et en isolant le courant contrôlé par l'interrupteur de la
commande de cet interrupteur : on dit que la « sortie » du composant ne réagit pas sur
l' « entrée ». Pour cela, le matériau isolant entre grille de commande et canal conducteur (fig.
4) est déterminant pour la qualité du transistor. Il a fallu attendre 1960 pour enfin avoir un
isolant de la qualité voulue, alors que les essais de fabrication des transistors à « effet de
champ » avaient débuté dès 1930. Une autre propriété très importante des transistors est que
chacun d'eux peut commander plusieurs autres transistors, avec une tension qui est référencée
à la tension d'alimentation (cf. la tension de « sortie » de la porte « ET » de la figure 5), et
non pas à la tension de commande (« 0 » ou « 1 »). On peut donc mettre en cascade des
milliers de composants sans dégradation du signal de commande.
Le circuit intégré
Le circuit intégré n’est pas un concept aussi fondamental que le transistor : son
invention résulte de l'association d’éléments déjà connus, sinon maîtrisés, en réponse à un
besoin pratique. Kilby, prix Nobel 2000, l'a décrit dans un brevet et des conférences, pas dans
une revue scientifique.
Dès l'invention du transistor, celui-ci remplace le tube à vide dans les appareillages
électroniques, et les ingénieurs utilisent ses propriétés remarquables : miniaturisation, grâce à
des techniques de micro fabrication, conception de très grands systèmes grâce à une meilleure
fiabilité des composants, à leur petite taille et surtout à leur faible consommation énergétique.
Cette course à la miniaturisation est suscitée par des besoins, comme ceux des grands
centraux téléphoniques, des très grands ordinateurs, ou encore le besoin des militaires de
disposer d'électronique « portable » pour les communications, les missiles ou les satellites.
Pour toutes ces applications, on tente d'assembler, de façon compacte, le plus grand
nombre de composants possible, par des techniques dites « hybrides » : chaque composant
(résistance, diode, condensateur, transistor, inductance) est fabriqué dans un matériau
différent, et ils sont reliés, mécaniquement et électriquement, par d'autres matériaux encore.
Cette approche hybride rencontre toutefois une limitation importante. Tandis que la fiabilité
des transistors a beaucoup augmenté, celle des soudures des fils qui assurent la liaison
électrique entre ceux-ci plafonnent. Devra-t-on se contenter de circuits comportant au mieux
quelques centaines de composants, qui ne nécessiteraient que quelques milliers de soudures ?
Quelques visionnaires proposent alors de fabriquer tous les composants électroniques
avec un seul matériau, le semi-conducteur, qui servirait aussi de support, d'où le terme de
« monolithique » (« une seule pierre »). J. Kilby, en mai 1958, conçoit une méthode pour
réaliser les différents éléments de circuits (résistances, condensateurs et transistors) par
attaque chimique localisée du silicium. La composition chimique verticale du Silicium (on a
incorporé lors de la croissance du cristal de silicium des impuretés chimiques qui dopent la
conductivité), la profondeur de l'attaque et la géométrie des motifs attaqués déterminent les
différents composants. Ce travail est suivi de près par celui de Robert Noyce, de la société
Fairchild Electronics (il fondera plus tard Intel). Noyce décrit aussi un circuit intégré, mais,
en plus, il propose la bonne méthode de fabrication : le procédé « planar ». Il reprend une idée
développée chez Bell : l’utilisation de la silice SiO2 comme masque de fabrication à cause de
ses excellentes propriétés d'adhésion et d'isolation chimique : elle forme une espèce de cocon
protégeant la partie de la puce qui n'est pas traitée dans l'opération (cf. infra figure 6).
Bien qu'il réponde à des besoins très concrets, le circuit intégré ne s’est pas imposé
facilement. Au contraire ! La plupart des entreprises fabriquant des tubes à vide s’étaient
mises à fabriquer des transistors, mais peu ont fait le saut vers les circuits intégrés : le
bouleversement conceptuel était bien plus grand. Les transistors remplaçaient en effet les
tubes « composant pour composant ». C’était simple et évident à faire. Au contraire,
l’intégration monolithique se heurtait à plusieurs objections très pertinentes. D'abord, elle
utilisait le très coûteux matériau semi-conducteur pour des fonctions peu nobles, de support
par exemple. Ensuite, elle obligeait à des compromis sur les géométries et les compositions
des composants : chacun était moins performant que s'il était fabriqué séparément. En outre,
le rendement allait être bas, puisqu’on devait avoir d’un seul coup un ensemble de bons
composants. Enfin, alors que l’on avait besoin de multiples fonctionnalités dans les
assemblages de composants, que l’on pouvait concevoir et réaliser à la demande par
l'approche hybride, il semblait impossible de satisfaire la variété de besoins par des circuits
intégrés, à la fonctionnalité figée.
On sait ce qu’il en advint : l’intégration permit au contraire de franchir ces limitations,
et d’aller bien au-delà. On utilise aujourd’hui des plaquettes de silicium de 30 centimètres de
diamètre, ensuite découpées en une ou quelques centaines de « puces », sur lesquelles on
fabrique en une trentaine d'opérations de base des centaines de milliards de composants ! On
utilise en fait fort efficacement la surface, relativement coûteuse du silicium, grâce à
l’extraordinaire miniaturisation, impossible à atteindre pour des composants discrets (ne
serait-ce que parce que l'on ne pourrait pas manipuler des composants aussi petits que ceux
qui sont intégrés). On fabrique de manière très contrôlée (propreté, conditions chimiques de
surface, préparation des matériaux, …) et à l’identique des milliards de contacts électriques,
qui du coup sont tous bons ! Ces performances ont nécessité de nombreuses recherches et un
long apprentissage pour maîtriser parfaitement les procédés industriels. Mais il est aujourd'hui
patent que l'intégration a multiplié les rendements et la fiabilité par plusieurs milliards.
Incidemment, le coût a baissé dans les mêmes proportions : un circuit intégré, comportant
bientôt un milliard de transistors, coûte aujourd'hui une dizaine de dollars, autant qu'un
transistor dans les années 1950.
Quant au problème de la fonctionnalité limitée, il a été résolu en deux temps : au début
des circuits intégrés, on ne réalisait que des fonctions universelles simples, les portes logiques
(comme celle de la fig. 5), dont l'assemblage permettait de constituer de grands ensembles
fonctionnels, tels des commutateurs téléphoniques ou des ordinateurs. Compacts, ces circuits
étaient aussi très fiables. Comprenant quelques dizaines de composants élémentaires, ils
contribuaient déjà fortement à l’augmentation de rendement de fabrication des ensembles, en
diminuant le nombre de soudures à effectuer. La grande révolution est cependant arrivée par
le microprocesseur : au lieu de produire une fonctionnalité par assemblage d’éléments
physiques, on la programme. Le microprocesseur est multifonctions, multi-applications. Bien
entendu, un tel système est loin d’être optimum dans l’utilisation des composants
électroniques, mais comme le coût de ceux-ci s'est effondré, ce n'est plus très important.
La course à la miniaturisation et ses limites
Les principes de la fabrication
Le procédé de fabrication par lithographie s'apparente à l'imprimerie (fig. 6) : on
commence par dessiner les différents éléments de même nature que l'on pourrait fabriquer lors
d'une même opération. Puis on projette optiquement cette image sur un matériau
photosensible déposé sur la puce (le morceau de silicium portant le circuit intégré). Ce
matériau est ensuite attaqué chimiquement de manière sélective pour transformer l'image
originelle en matériau structuré. Il sert à définir les régions de la surface de la puce où l'on va
opérer l'opération de fabrication voulue, par exemple un dépôt localisé de métal là où le
matériau photosensible a été enlevé. On a donc transformé une image de la fonction
« connectique » entre composants d’une puce en un ensemble de conducteurs sur la puce. On
réalise de la même manière toutes les incorporations de matériaux structurés nécessaires à la
puce telles que dépôt d'isolants, incorporation localisée d'impuretés chimiques dans le semiconducteur, etc.
La fabrication des condensateurs, des transistors et de la connectique des circuits
intégrés devient donc une succession d'opérations répétitives : fabrication d'une couche sur la
plaquette de Silicium, transfert d'une image et révélation de cette image par un procédé
chimique. A chacune de ces images correspond le transfert spatial des éléments constituant
les circuits intégrés : isolants, dopages en espèces chimiques, métaux de contact et
d’interconnexion, etc. Aujourd'hui, la fabrication d'un composant semi-conducteur comporte
25 étapes principales (correspondant à autant de masques, images des motifs à reporter sur le
composant), se décomposant en 600 étapes élémentaires qu'il faut réaliser parfaitement.
Les lois de la miniaturisation
Il ne faudrait pas croire que les progrès de la miniaturisation ont été sans heurts :
l'histoire des semi-conducteurs est marquée par une succession de crises. La première crise
remonte à 1962, déjà ! Elle était liée aux limites technologiques qui freinaient le
développement de la lithographie. Dans les années 70, on s’inquiétait des erreurs de
mémorisation dues aux rayons cosmiques absorbés dans les mémoires. Autre sujet de crise en
1982 : l'interconnexion entre éléments commence à son tour à poser problème car on peine à
faire des connexions de taille micronique sans défauts.
Il y a aujourd'hui moins de crises, pour deux raisons : d'une part, on connaît les lois
d'échelle, qui décrivent le comportement des composants quand on diminue toutes leurs
dimensions d'un facteur. D'autre part, aujourd'hui, les industriels travaillent dans le consensus,
dans un processus « coopétitif », en coopérant tout en restant des compétiteurs. Ce nouveau
comportement, très typique de la nouvelle économie, vient de ce qu'ils se sont rendu compte
qu'ils étaient tous gagnants s'ils définissaient ensemble comment l'industrie doit progresser en
établissant des objectifs communs de progression, le « roadmap technologique ». Cela permet,
en mettant toutes les ressources sur des objectifs techniques communs, de progresser plus
rapidement et d'ouvrir de nouveaux marchés.
Les lois d'échelle
Les lois d'échelle sont appliquées lorsque toutes les dimensions ont été réduites d'un
facteur α.(figure 7). Les composants sont alors plus rapides puisque les distances que
parcourent les électrons sont plus petites. Leur densité surfacique augmente grâce à leur taille
diminuée, mais comme chaque composant consomme moins, la puissance dissipée par unité
de surface reste constante, ce qui est essentiel. Du coup, au global, la puissance logique a été
multipliée par α 3, soit un facteur 1 000 pour une diminution de taille de 10.
Même si la physique du composant, via les lois d'échelle, indique que la
miniaturisation est possible, la course vers la réalisation de circuits de plus en plus denses n'en
est pas moins difficile : la lithographie des motifs les plus petits à reproduire sur une puce
représente une frontière technologique qui se déplace. Aujourd'hui, les lignes de production
passent au standard 0,18 micron3. On est très proche des limites physiques de ce que l'optique
peut faire, même si les optiques les plus performantes à l'heure actuelle sont de très loin celles
qui sont utilisées en microélectronique. Un des verrous technologiques est l’épaisseur de
l’isolant en silice située sous la grille : comme l’indiquent les lois d’échelle, il faut diminuer
son épaisseur pour poursuivre la miniaturisation (fig.7). Cette épaisseur est de 40 Å
aujourd’hui (13 couches atomiques). Pour des épaisseurs plus faibles, on observe à la fois des
fluctuations d’épaisseur inacceptables (au moins une couche atomique) et une fonction
isolante insuffisante, car des électrons peuvent franchir la barrière de potentiel créée par la
silice par effet tunnel, un effet purement quantique. Du coup, un champ d’exploration actuel
extrêmement active est celui portant sur la recherche d’isolants meilleurs que la silice (en
l’occurrence avec une permittivité diélectrique plus élevée).
Le consensus industriel : le « roadmap »
Actuellement (mi-2000), un microprocesseur ordinaire contient 42 millions de
transistors (Pentium IV), et les mémoires en production contiennent 256 Mégabits (fig.1),
réalisés au standard de 0,18 microns. Compte tenu des progrès réalisés, le composant
électronique individuel (le microprocesseur) a rattrapé les grands ordinateurs, ce qui a
bouleversé l'industrie électronique. Notons, par exemple, que dès le début des années 90 un
ordinateur personnel avait la puissance de calcul d'un Superordinateur CDC 6600 de 1965,
interdit à l'exportation pour des raisons de non-prolifération, ce qui n'avait pas été sans causer
quelques frictions entre Français et Américains et avait été une des raisons des plans calculs
français.
Ou va-t-on et à quel rythme ? le consensus industriel s'exprime par l’ « International
Technology Roadmap for Semiconductors », le « roadmap », qui définit tous les deux ans4
l’évolution technique du domaine et les directions dans lesquelles les acteurs devraient
s’engager. La dernière version, publiée à la fin de 1999, donne la vision jusqu’en 2014. Inutile
de dire que s’il y a à court terme des solutions en vue pour la plupart des besoins, il y a
3
Les ordres de grandeur
Les grandeurs habituelles ne sont pas bien adaptées à la description d'objets microscopiques. La taille
typique de composants miniatures s'exprime en microns (millième de millimètre, cf. note 1). L'unité de charge,
le coulomb, lié au courant et à son unité, l'ampère (1A = 1 Cb/s) est énorme par rapport à la charge e de
l'électron : 1 e = 1,6 10-19 Cb. C'est pourquoi le nombre de bits que l'on peut coder avec 1 Cb, même en prenant
10 000 électrons par bit, est supérieur à l'ensemble des bits de la librairie du Congrès !
On a le même problème pour représenter les énergies : le Joule représente une énergie énorme
comparée à celle qui stocke un bit : E = QV = 104. 1,6.10-19.3 = 5.10-15J, si les 10 000 électrons sont sous 3V. On
préfère une autre unité, l'électron-Volt (eV), rapportée à celle de l'électron, pris sous 1 V. 1 eV = 1,6 10-19 Cb.1V
=1,6.10-19 J. Dans ce cas, l'énergie pour stocker un bit est de 3.104 eV.
Autre énergie intéressante : l'énergie d'agitation thermique de l'électron, kT, où k est la constante de
Boltzmann et T la température absolue (T= 300K à l'ambiante) : kT = 0,025 eV. Bien entendu, kT représente
une énergie minimum pour quantifier un bit, pour un système à l'équilibre thermique (ce que n'est pas un
ordinateur quantique).
4
voir http://public.itrs.net/Files/1999_SIA_Roadmap/Home.htm
beaucoup d’incertitude à plus long terme, à la fois sur le fonctionnement des circuits, les
technologies de fabrication, les rendements et les coûts. Toutefois, la loi empirique de Moore
(du nom de l'un des fondateurs d’Intel, qui l'a énoncée dès 1965), selon laquelle le nombre de
transistors des circuits intégrés double tous les 18 mois, devrait rester valable pour une
quinzaine d'années. Sur cette durée, le progrès est encore remarquable puisqu’en 2014 on
commencera à produire en masse, avec des traits de 35 nm, des mémoires de 256 Gigabits et
des microprocesseurs comportant 4,4 milliards de transistors !
Les limites de la miniaturisation
À un moment, cette course à la miniaturisation doit s'arrêter : les dimensions
deviendront tellement faibles que le transistor ne pourra plus fonctionner. Ces limites
physiques à la miniaturisation changent avec le temps, à cause des progrès en composants, qui
permettent de s'affranchir de certaines limites, en changeant la structure des transistors par
exemple. On évalue cependant à 200 Angströms (un cinquantième de micron) la taille
minimum de grille d'un transistor. À cette taille apparaissent un ensemble de limites sur
différents paramètres, et les lois d'échelle ne s'appliquent plus. De telles dimensions seront
atteintes vers 2020-25. Est-ce à dire que l'on ne continuera pas à miniaturiser après cette
date ? Non, mais on pourrait s'orienter vers d'autres approches. Certains travaillent déjà sur
des concepts de composants fonctionnant avec un seul électron, puisque l'extrapolation de la
loi de Moore montre que cela sera la charge des composants vers 2025-30 (fig. 8). Bien
évidemment, il ne s'agira pas de transistors au sens ou on l'entend aujourd'hui, ne serait-ce que
parce que le composant ne pourra pas alimenter plusieurs autres composants : comment
pourrait-on partager le seul électron entre ces composants ? Le progrès continuant sans doute,
d'une manière ou d'une autre, on pourra acheter vers 2030 l'équivalent du cerveau humain (en
termes de puissance de calcul) pour 1000 dollars!5.
En dehors et au-delà du silicium
On l'aura compris : le silicium s'est imposé comme le matériau de choix en
microélectronique, à cause de ses nombreuses propriétés : bonne résistance mécanique, pureté
extrême, possibilité de masquage par la Silice pendant les opérations de fabrication,
excellentes propriétés d'isolation électrique de la silice, etc.
Cependant, toute l'électronique semi-conductrice n'est pas basée sur le Silicium. Il faut
distinguer entre les évolutions du Silicium, l'utilisation de matériaux autres que le Silicium le
suppléant dans certaines fonctions qu'il remplit imparfaitement, et des solutions permettant de
dépasser les limites physiques de l'électronique à semi-conducteurs telle que nous la
connaissons aujourd'hui.
L'évolution du silicium
Elle consiste à aller un peu plus loin dans les limites du silicium en le structurant en
couches minces avec d'autres matériaux; un exemple est le SOI (Silicon on Insulator, Silicium
sur isolant, en fait sur Silice). Le fait d'utiliser une couche mince de silicium (une fraction de
micron) reposant sur un isolant, la silice, permet d'avoir l'effet de désertion du canal (tel que
décrit en figure 4) plus net, et avec une tension plus faible, que si l'on utilise du Silicium
habituel épais. On gagne ainsi en rapidité et consommation, et la miniaturisation est facilitée
par la faible dimension verticale. Une autre approche est liée à l'utilisation dans le canal de
l'alliage Silicium-Germanium, dans lequel les électrons sont un peu plus mobiles. On gagne
ainsi un facteur de l'ordre de 30 % sur la vitesse des circuits.
5
voir http://www.transhumanist.com/volume1/moravec.htm
L'utilisation de nouveaux semi-conducteurs
L'idée d'utiliser d'autres matériaux semi-conducteurs vient de la physique de base des
semi-conducteurs. On s'est en effet rendu compte que les électrons pouvaient se déplacer plus
rapidement dans l'Arséniure de Gallium que dans le Silicium. Du coup, ils sont très
performants pour les circuits ultrarapides, comme en télécommunications. Ce même
Arséniure de Gallium a de biens meilleures propriétés d'émission lumineuse que le Silicium.
Si on y injecte des paires electron-trou par des contacts électriques on obtient, par la
recombinaison d'un électron avec un trou, l'émission d'un photon et donc une conversion
directe d'électricité en lumière. Ce phénomène est largement utilisé dans des lampes solides,
appelées diodes émettrices de lumière (DEL). Il s'en produit une cinquantaine de milliards par
an dans le monde. Avec les progrès récents pour générer de la lumière verte grâce au
semiconducteur Nitrure de Gallium, on pense pouvoir remplacer les lampes classiques par des
DELs à haut rendement et à longue durée de vie. Un autre domaine ayant des applications
extrêmement importantes est celui des lasers à semi-conducteurs, très compacts, puisque leur
surface typique est de 300x100 microns, utilisés largement dans les lecteurs optiques
(compact-discs, DVD et CD-ROM), imprimantes laser, télécommunications...
Les concepts nouveaux de traitement de l'information
À long terme, on peut, et l’on doit commencer à envisager des alternatives au
paradigme du Silicium, et des circuits et architectures actuelles des microprocesseurs et
ordinateurs, en trouvant soit des matériaux et structures remplaçant le Silicium (électronique
moléculaire par exemple), soit de nouveaux principes physiques de traitement de
l'information (ordinateur quantique).
Une des premières approches consiste à agir sur les limites actuelles : la connectique
des puces devient un facteur limitant : il faut aujourd'hui plusieurs centaines de liaisons
électriques pour entrer ou sortir les données d'un microprocesseur, demain plusieurs milliers.
Alors que les connexions sur la puce sont très rapides et raisonnablement gourmandes en
énergie, celles qui sortent de la puce sont beaucoup plus lentes (typiquement dix fois) et
nécessitent de forts courants pour alimenter des lignes d'interconnexion parfois assez longues;
On songe donc de plus en plus à transmettre les données optiquement, dans des architectures
basées sur des interconnexions optiques.
Une autre approche est de reconsidérer les architectures d'ordinateur. Par exemple, on
utilise mal la performance des composants individuels : alors qu'un composant consomme une
énergie de l'ordre du femtojoule pour commuter d'un état logique à un autre, un
microprocesseur performant utilise de l'ordre de 10 millions de fois cette énergie pour une
opération (microprocesseur faisant 1000 MOPS, millions d'opérations par seconde,
consommant 10 watts). Bien entendu, une opération complexe sur 64 bits à la fois comporte
de nombreuses opérations élémentaires (recherche en mémoire, opérations arithmétiques,
retour en mémoire) mais il y a bien inefficacité de l'ensemble. C'est pourquoi on s'oriente vers
de nouvelles architectures, classiques mais spécialisées (ensembles de portes logiques dédiés
à une seule tâche) ou bien nouvelles, comme les architectures neuronales, bio mimétiques du
cerveau. De fait, il existe d'autres systèmes faisant des opérations logiques dans la nature,
bien plus efficaces que nos composants électroniques : le cerveau de l'abeille a une puissance
de calcul évaluée à 10 teraopérations logiques élémentaires par seconde, soit, pour une
puissance dissipée de 10 microwatts, un millième de femtojoule par opération (250 kT). La
réplication d'une molécule-base d'ADN (le « bit » d’information en biologie) ne nécessite que
20 kT, pour une opération relativement complexe avec recherche de la base à copier, la copie,
la mise en mémoire, le contrôle de l'opération et son irréversibilité (on veut copier l'ADN, et
que celui-ci ne copie pas l'ARN). Une voie explorée aujourd’hui en alternative au silicium est
celle d’un traitement de l’information avec des molécules d’ADN.
On peut aussi songer à de nouveaux systèmes physiques permettant des
fonctionnalités, similaires aux semi-conducteurs. L'approche la plus ambitieuse est celle de
l'électronique moléculaire. Il s'agit de réaliser des fonctionnalités permettant de manipuler des
bits d'information, codés par des paquets de charges électriques comme pour le silicium, par
des molécules organiques. Les avantages sont bien sûr la compacité (la taille nécessaire pour
un transistor ou mieux, une porte logique est, une molécule) et la facilité de fabrication (c'est
la sélectivité de la synthèse organique qui procure une fabrication sans défaut à l'échelle
atomique). Les obstacles à cette idée attrayante sont immenses : on n'a pas encore vraiment de
molécules montrant un effet transistor, sauf celles qui sont basées sur des nanotubes en
carbone. Les fonctionnalités établies sont plutôt celles de diodes. Or la mise en œuvre de
circuits logiques complexes à partir de diodes pose des difficultés très fondamentales,
rencontrées plusieurs fois au cours de l'histoire de la micro électronique, bien que les diodes,
plus simples que les transistors et extrêmement rapides, puissent paraître être un meilleur
composant actif. Même Shockley s'y est laissé prendre, en basant son entreprise sur un
nouveau type de diode. Il a fait faillite, et les collaborateurs qui ne le suivaient pas dans cette
voie, préférant le transistor, emmenés par Noyce, ont successivement fondé Fairchild, puis
Intel, avec le succès que l'on sait. Robert Keyes, un pionnier de la microélectronique, a
exposé à de nombreuses reprises les avantages subtils du transistor, qui mène à des
architectures robustes et cascadables.
Une autre approche part de la théorie de l'information en général, et plus
particulièrement des limites physiques au traitement de l'information. La question de l'énergie
minimum pour traiter l'information (l'énergie même de l'information) a beaucoup intéressé
physiciens et informaticiens. La théorie de l'information de Shannon mène à une énergie
minimum par bit d'information de kTLog2 (kT quantum d'énergie thermique). Le composant
actuel, dissipant un femtojoule, est bien loin de cette limite, d'un facteur 200 000. En fait, on
peut montrer que la manipulation de l'information ne nécessite pas de dissipation d'énergie si
elle est effectuée de manière réversible, au sens de la thermodynamique. Stimulés par de
telles considérations les physiciens se sont demandé comment coder plus efficacement
l'information que par la charge électrique d'électrons, pour mieux la manipuler. La réponse est
venue dans les années 80, avec la proposition de l'ordinateur quantique, dont les principes ont
été démontrés à la fin des années 90. L'information est portée par la fonction d'onde d'un
système quantique, ce sont les coordonnées quantiques qui représentent les « 0 » et « 1 » de la
logique. Un ensemble de N atomes (ou électrons, ou molécules, ...peu importe la nature
physique du système quantique) interagissant quantiquement entre eux (ils sont imbriqués au
sens de la mécanique quantique) peut posséder 2N composantes, donc bits classiques. Pour
seulement 20 atomes, cela représente déjà un million de bits classiques ! Faisant des
opérations quantiques sur ces q-bits (quantum bits-bits quantiques), on manipule à la fois 2N
bits classiques, réalisant donc une opération fort complexe en une seule manipulation du q-bit.
C'est ce qu'on appelle le parallélisme quantique qui mène à une extraordinaire efficacité de
l'ordinateur basé sur les q-bits. Encore faut-il qu'il y ait des problèmes dont la solution utilise
le résultat des manipulations de q-bits, car les opérations quantiques ne sont efficaces que
pour certaines classes de problèmes. Depuis quelques années, on a pu identifier quelques
grands problèmes mathématiques, telle la décomposition de grands nombres en produits de
nombres premiers, quasi-insolubles avec des ordinateurs classiques, même en tenant compte
des progrès à venir, et qui seraient aisément solubles par un ordinateur quantique. Le
problème est de le fabriquer. Il faudrait des q-bits portant sur quelques centaines d'éléments.
On en est à cinq, et les difficultés s'accroissent très vite avec le nombre d'éléments. L'autre
problème est la très grande sensibilité des q-bits à toute perturbation, qui leur fait perdre toute
mémoire.
L'ordinateur quantique n'en est pas moins fascinant par son implication de la
mécanique quantique extrême, l'imbrication des fonctions d'onde, et par le retour aux sources
qu'il implique, pour une informatique venue des semi-conducteurs, eux-mêmes nés de la
mécanique quantique des années 30.
Références –pour en savoir plus :
Histoire et développement des semi-conducteurs et de la microélectronique
Grâce au cinquantenaire du transistor en 1997, de nombreux livres et revues se sont
ajoutés à une liste déjà importante d'ouvrages souvent excellents. Quelques titres :
- Everett Rodgers et Judith Larsen, La fièvre de Silicon Valley, Londreys, 1985
- Michael Riordan and lilian Hoddeson, Crystal Fire, Norton, 1997 (ouvrage très
complet sur l'histoire du transistor);"The Moses of Silicon Valley", Physics Today, dec;1997,
p. 42.
- Emmanuel Rosencher, La puce et l'ordinateur, Dominos Flammarion, 1995
(excellent ouvrage simple).
- Jean-Philippe Dauvin, John Olliver et Didier Coulon, Les composants électroniques
et leur industrie, Que sais-je, 1995 (ouvrage remarquable sur l'économie de la
microélectronique).
- Numéro spécial de Proceedings IEEE, vol. 86 No 1, January 1998, "Fiftieth
anniversary of the transistor" (nombreux articles originaux, dont ceux de Brattain et Bardeen,
ainsi que celui où Moore énonce sa fameuse "loi", ainsi que quelques perspectives
historiques).
- Numéro spécial des Comptes-rendus de l'Académie des Sciences, Série IV tome 1,
No 7, septembre 2000, "Les défis de la microélectronique"
- Numéro spécial Nature vol; 406, August 31st, 2000, "The future of microelectronics",
pp. 1021-1054.
- Numéro spécial de Bell Labs Technical Journal, vol; 2 No 4, Autumn 1997, "The
Transistor" (accessible en ligne :
http://www.lucent.com/minds/techjournal/common/arc_issues.html)
- Scientific American, Microelectronics (september 1977), traduit en français : La
microélectronique, Belin, 1980 (ouvrage ancien constituant cependant une remarquable
introduction aux principes de la microélectronique).
- Technologies futures de l'ordinateur, P. Chavel et N. de Beaucoudray eds., Editions
Frontière, 1993
Quelques livres et articles plus spécialisés, mais élémentaires :
- R.W. Keyes, Physics of Digital Devices, Rev. Mod. Phys. 61, 279 (1989) ;Physics of
VLSI systems, Addison-Wesley, Reading 1985 ; Physical Limits in Information Processing
dans "Advances in Electron Physics" vol. 70, Academic, New-York, 1988 ; Limits and
Alternatives in Electronic Information Processing dans "Technologies Matérielles Futures de
l'ordinateur", loc. cit. ; Limits and Challenges in microelectronics, Contemporary Physics,
vol; 32, p; 403, 1991; L'avenir du transistor, Pour la science, Août 1993, p. 60.
- Seth Lloyd, Les ordinateurs quantiques, Pour la Science, décembre 1995, p;44
- C. Bennett et Rolf Landauer, Les limites physiques du calcul, Pour la science,
Septembre 1995, p. 18.
- Mark Reed et James Tour, Les ordinateurs moléculaires, pour la science, Août 2000,
p. 78.
- Sur les alternatives au silicium, on pourra consulter le numéro de mars-avril de
Technology Review, accessible sur le web http://www.techreview.com/past.htm (donne aussi
de nombreux liens).
1G
1G
Reseau de
portes
100M
256M
64M
10M
Pentium Pro
MPU seul
Pentium
80486
4M
1M
1M
80386
68020
80286
68000
256K
100K
1K
64K
4K
16K
1K
8080
4004
70
74
100 µ
Pentium pro
et mémoire
16M
10K
Pentium IV
10 µ
Reseau de portes
1µ
8086
8085
0,1 µ
= Microprocesseurs et logique
= Memoires (DRAM)
78
82
86
90
Année
94
98
02 06
Figure 1 : Courbe de progression des circuits intégrés, microprocesseurs (unités
centrales d'ordinateurs) ou mémoires dynamiques à accès aléatoire (DRAM).
Largeur de trait
Nombre de transistors par puce
Légendes des figures
Energie
des
electrons 1 atome
(a)
2 atomes
10 atomes
N atomes
v3 N places
E3
v3 places
E2
v2 places
E1
v1 places
(b)
metal
isolant
semiconducteur
bande
de
conduction
bande
interdite
bande
de
valence
Bandes d’energies permises
états d’electrons possibles
Etats occupés
par les electrons
Figure 2 : (a) Schéma de la formation de bandes d'énergie dans les solides à partir des
niveaux d'énergie des atomes séparés. Un niveau atomique comportant v places pour des
électrons donnera vN places pour N atomes.(b) Remplissage des places disponibles dans les
bandes d'énergie dans les solides par les électrons disponibles, par énergies croissantes.
Suivant les cas, les derniers électrons sont dans une bande non-pleine, ou pleine. Dans ce
dernier cas, il n'y a pas de conductivité électrique, puisque les électrons ne peuvent pas
prendre de vitesse ce qui leur confèrerait une énergie cinétique, et la nécessité d'occuper une
place d'énergie immédiatement supérieure, ce qui n'est pas possible. On a un isolant. Dans le
premier cas, comme quand les bandes se recouvrent (cas des bandes issues des niveaux 1 et 2
en (a)), il peut y avoir conduction électrique, métallique. Un semi-conducteur est un isolant à
faible bande interdite : comme les derniers niveaux occupés sont proches énergétiquement des
premiers niveaux vides, des électrons peuvent être excités thermiquement de la « bande de
valence » vers la « bande de conduction », permettant ainsi une certaine conduction électrique
(cf. infra fig.3).
(a)
(b) Métal
(à electrons)
Isolant
(c)
I
Métal
(à trous)
V
I
(d) Semiconducteur non dopé (e) Semiconducteur dopé n
Electrons et trous
Thermiques
(à donneurs)
I
V
I
I
Semiconducteur dopé p
(à accepteurs)
V
Atome donneur
V
(f)
V
I
V
Atome accepteur
Figure 3 : Représentation de la conductivité électrique dans les solides : (a) : les
électrons sont comme des voitures dans un parking à plusieurs étages. Si un étage est plein, il
n'y a pas de possibilité de mouvement. (b) : S'il ne l'est pas, il peut y avoir mouvement.(c) :
Noter que s'il est presque plein, le « trou » de voiture se déplace en sens inverse des voitures !
La conductivité des semi-conducteurs peut soit (d) provenir d'électrons et trous créés par
l'excitation thermique d'un électron de l'étage plein du bas (laissant derrière lui un trou),
soit (e) de charges créées par l'adjonction d'impuretés chimiques ayant un électron de
plus (atomes donneurs, dopage de type n) ou de moins (f) que ceux du réseau (atomes
accepteurs, dopage de type p).
Vg = 0
canal
conducteur
isolant
source
Vg = —2V
Vg = —5V
drain
e
F
Canal
complètement déserté
Zone désertée
par les électrons
electrodes
0V
I
-VG
I
“conduit”
“fermé”
“on”
“ne conduit pas”
“ouvert”
“off”
V (commande)
Figure 4 : Principe de fonctionnement d'un transistor à effet de champ : on contrôle le
passage de courant dans un « canal » conducteur par un champ électrique appliqué par une
électrode (la « grille » placée au-dessus du canal. Ici, le canal est constitué de semiconducteur « dopé » n, avec des impuretés « donneuses » d'électrons (cf. fig. 3). Un champ
électrique, créé par une tension négative appliquée sur la grille, repousse les électrons du
canal qui se vide progressivement, jusqu'à être « déserté », non-conducteur. On a ainsi réalisé
un interrupteur « solide ».
Unité
arithmétique
(a) Principe d’architecture
d’un ordinateur
Horloge
Entrées
Entrées
Mémoire de
données
Mémoire
d’instructions
Sorties
Sorties
(b) Porte logique “et”
(c) Cellule de mémoire dram
A.B
A
- 5 VOLTS
B
- 5 V= “1”
Table de vérité
A
“0” ou “1”
B
“0” ou “1”
S=A.B
A B A.B
0 0
0
1 0
0
0 1
0
1 1
1
CANAL
CONDENSATEUR
DE STOCKAGE
TRANSISTOR
FONCTIONNANT
COMME
INTERRUPTEUR
GRILLE
LIGNE DE
SELECTION
(RANGÉE)
LIGNE DE
DONNÉE
(COLONNE)
Figure 5 : (a) Schéma de principe d'architecture d'un ordinateur, permettant d’effectuer
les opérations sur des données et l'enchaînement des instructions provenant de la mémoire
d’instruction, au rythme de l’horloge. Les deux fonctionnalités nécessaires au fonctionnement
de l’ordinateur sont la mémoire et la logique combinatoire (qui permet les opérations
arithmétiques sur des « bits », « 0 » ou « 1 », en pratique des tensions, respectivement 0 ou –
5V).
(b) Logique combinatoire dans les ordinateurs grâce au transistor fonctionnant en
interrupteur : En associant des transistors et des résistances, on peut créer des circuits créant
des portes logiques, comme le « ET ». Pour ce faire, il faut un circuit qui donne la tension
« 1 » (ici –5V) quand à la fois les entrées A et B sont au « 1 ». Dans tous les autres cas la
sortie logique S doit être « 0 ». Pour réaliser la fonction, il suffit de mettre en série deux
interrupteurs, qui ne laisseront passer du courant que s’ils sont tous les deux dans l’état
« conducteur ». On représente tous les cas d’entrée et sortie par des tableaux dits “table de
vérité”. Une propriété essentielle du transistor est clairement visible : la tension de sortie aux
bornes de la résistance est directement liée à la tension d'alimentation et ne dépend pas des
tensions de commande, tant que le transistor se comporte comme un interrupteur « parfait »,
sans résistance interne, ce qui est une bonne approximation.
(c) Mémoire : on garde en mémoire une information (un bit) en chargeant un
condensateur (niveau logique « 1 ») ou non (niveau logique « 0 ») à travers un transistor. Si
l’on isole le condensateur (transistor “ouvert”) l’information reste stockée. Elle est inscrite en
rendant le transistor conducteur (tension négative sur sa grille grâce à la ligne de
« sélection ») et l’on charge le condensateur avec l'information « 0 » ou « 1 » suivant la
tension que l'on applique sur la ligne de « données ». Inversement, on lit le « bit »
d'information stocké en rendant conducteur le transistor, et en mesurant si le condensateur a
été chargé lors de la séquence d'écriture. La mémoire est organisée en grande surface par des
lignes et des colonnes, ce qui permet un accès « aléatoire » à l'information. C’est la mémoire
dynamique DRAM, fort économique puisqu’elle ne nécessite qu’un transistor et un
condensateur par bit d’information stocké. Ce condensateur joue un rôle dimensionnant en
microélectronique : il contient de manière standard un million d'électrons.
(b) RESISTANCE
(a) TRANSISTOR
isolant
(Silice)
(c) CONDENSATEUR
grille métallique
SiO2 isolant
drain
source
+V
e
p
p
electrons
p
Silicium n
silicium n
(e) Dépôt
(d)
(f)
de résine
(polymère)
photo sensible
Substrat
Silicium
(g) Attaque chimique sélective (h) Attaque chimique sélective
de la résine non-illuminée
de la résine illuminée
et de la couche de Silice
Silicium p
Lumière
Masque
Région
transparente
Région
opaque
Dépôt de Silice à
graver
(i)
Dépot de métaux
Image
du masque
opaque
(j)
ruban métallique désiré
aprésattaque chimique
sélective du masque de
silice
Figure 6 : Principes de fabrication des éléments des circuits intégrés; Comme on le
voit sur les schémas de transistor (a), résistance (b), condensateur (c), et leurs éléments de
liaison, il faut déposer suivant des motifs géométriques des impuretés dopantes n ou p, des
isolants, des métaux. Pour faire, par exemple, un motif métallique, on éclaire localement un
polymère photosensible (f) qui permet, par des attaques chimiques sélectives (f-h), de créer un
« masque » en silice à travers lequel on déposera le métal. Il suffit ensuite d’effectuer une
autre attaque chimique sélective pour enlever le masque de silice et obtenir le motif
métallique en final (i-j).
Transistor
composant d’origine
grille
n+
source
substrat p
dopage NA
composant
à l’échelle α
tox /α
V/α
V
tox
n+
drain
n+
L/α
xD
L
n+
dopage α NA
Ligne d’interconnexion
/α
A
h
A/α2
plan à la masse
dimensions
x 1/α
dopage
champ électrique
tension
xα
x1
x 1/α
vitesse du composant
x
puissance dissipée
(par composant)
x 1/α 2
densité composants
puissance dissipée
(par unité de surface)
x α2
x1
puissance de calcul
(par unité de surface)
capacité C
(par unité de longueur)
x
α
α3
x1
α2
résistance R
(par unité de longueur)
x
délai de propagation RC
(par unité de longueur)
x α2
h/α
Figure 7 : Lois d'échelle en microélectronique : comment varient les différentes
grandeurs d'un circuit électronique quand on diminue toutes les dimensions d'un facteur α, en
s'imposant de rester à vitesse des électrons constante, donc à champ électrique constant ? On
note qu'une diminution de dimension de 10 (α = 10) entraîne une augmentation de 1000 de la
puissance de calcul et une augmentation de vitesse de composant individuel de 10, mais que
l'ensemble de la puce est ralenti si on ne résout pas le problème de l'augmentation des délais
de propagation RC des conducteurs d'interconnexion (on utilise pour cela deux approches :
d'une part on crée une hiérarchie des conducteurs sur la puce : les plus longs gardent une
section indépendante de la loi d'échelle; d'autre part on utilise des matériaux de conductivité
électrique de plus en plus élevée).
10 µm
1 µm
109
1
Kilby
21 ème siècle
1K
1M
Micro
electronique
1G
100 nm
10 nm
1 nm
105
Nano
electronique?
1950
1970
1990
2010
1T
1
1P
2030
Nombre d’électrons
par transistor
Largeur de trait minimum
100 µm
?
2050
Année
Figure 8 : Évolutions prévisibles de la largeur de trait, du nombre d'éléments actifs par
puce, du nombre d'électrons par transistor, en supposant que l'on continue à progresser au
rythme de la loi de Moore (doublement du nombre de composants par puce tous les 18 mois).
Vers 2020-2025, des problèmes conceptuels surgissent alors que le transistor ne comporte
qu'un seul électron.
Téléchargement