Fabrication des CPU
et
techniques d'avenir
Comment fabrique-t-on actuellement les processeurs :
Le Silicium est le semi-conducteur le plus utilisé dans la fabrication de processeurs. Extrait du
sable, purifié, coulé en lingots d’une pureté extrême, le Silicium est livré aux fondeurs (Intel,
AMD, IBM,..) sous formes de galettes, les Wafers d’une épaisseur d’un millimètre pour un
diamètre de 20 cm ( les Wafers de 30 cm commencent à faire leur apparition). Sur ces Wafers
des dizaines voir des centaines de puces sont gravées à la fois. Le procédé utilisé pour la
gravure est la photo-lithographie : les circuits électroniques sont dessinés agrandis sur un
masque, sorte de diapositive en quartz ou en fluorine dont l’image est projetée sur une galette
de silicium sensibilisée à la lumière. Le Wafer est ensuite trempé dans un bain chimique qui
révèle (comme une photographie) les zones exposées. Différentes couches sont ensuite
déposées pour construire les circuits et les pistes électroniques. Les puces sont ensuite testées
et triées selon leurs performances puis assemblées dans des boîtiers. Une galette de silicium
vierge coûte quelques centaines de francs. Commercialisée sous forme de processeurs elle
représente une valeur de plusieurs centaines de milliers de francs.
Les limites de la Loi de Moore:
Jusqu'à présent la fameuse loi de Moore affirmant que la puissance de calcul double tous les
18mois a toujours été vérifiée. Chaque nouvelle génération de processeur est ainsi cadencée
plus vite, avec une technologie de gravure plus fine et un nombre de transistors toujours plus
grand : on est ainsi passé du 4004 d'Intel en 1971 à 2300 transistors au Pentium III actuel en
comprenant la bagatelle de 10 millions. Malheureusement le processus de fabrication des
puces n'a pas changé depuis que Von Neumann en définissait le principe dans les années 40.
Ainsi on grave toujours plus fin pour augmenter la fréquence et nous en sommes aujourd'hui à
une gravure en 0.25 microns, 0.10 microns en 2002. Mais ce modèle atteindra
vraisemblablement ses limites en 2014, les processeurs seront alors cadencés à 30 GHz.
Les limites de la matière ?
Lucent Technologie annonce avoir réussi la photogravure d'une mémoire flash en technologie
0,08 microns (80 nanos). L'heure est donc arrivée des nanotechnologies. A partir de 0.05
microns les électrons qui circulent dans le microprocesseur n'obéissent plus au loi de la
physique classique, ainsi un électron circulant dans un couloir peut très bien en sortir, d'où un
processeur qui renverrait des résultats incontrôlés. Les physiciens appellent cela "l'effet
tunnel".
L'ordinateur quantique :
On entre ici dans le domaine de l'infiniment petit, on ne parle plus de bits mais de qubits. Ces
derniers ont la particularité d'être très instable, disparaissant par exemple après une tentative
de lecture ou une rencontre avec de la matière. C'est pourquoi pour corriger ces disparitions
on met en place des systèmes de corrections d'erreurs. Certains scientifiques pensent que
toutes les erreurs ne sont pas corrigeables alors que d'autres argumentent sur le contraire. De
plus contrairement aux circuits classiques qui se facilement se montent en série, les
processeurs quantiques semblent difficiles à assembler les uns à la suite des autres : on reste
dans l'attente d'une découverte qui faciliterait les choses... Néanmoins il y'a un domaine ou le
quantique a de l'avenir : la sécurité de transmission. En effet nous avons vu que dans les
systèmes quantiques lire c'est détruire le qubit, une communication interceptée sera donc
immédiatement repérée.
Les processeurs asynchrones au secours de l’effet Joule :
Avec la diminution de la technologie de gravure, on place toujours plus de transistors dans un
espace réduit. Avec cette augmentation de la concentration, les processeurs ont tendance à
chauffer plus et c'est pourquoi les systèmes de refroidissement sont si cruciaux aujourd’hui.
Le problème vient du fait que toutes les parties même inoccupées du processeur marchent :
c'est la caractéristique des processeurs synchrones. Avec les asynchrones l'horloge disparaît et
chaque unité du circuit ne travaille que lorsqu'on lui a imposé une tâche d'où une chauffe
réduite car le reste du temps elle est éteinte. Malheureusement le système asynchrone entraîne
une difficulté de programmation, c'est d'ailleurs la raison pour laquelle on l'avait délaissé à
l'époque au profit des systèmes synchrones. Ce mode devrait avoir un grand essor dans les
mobiles, là où l'autonomie doit être maximale et par conséquent la consommation d'énergie au
plus bas.
Et encore de la science-fiction
L'ordinateur optique repose sur l'idée de remplacer les électrons circulants dans les
processeurs par des photons, composants de la lumière. Au vu des faibles densités possibles
avec un tel système, les électrons l'ont provisoirement emporté. Aujourd'hui on s'intéresse à
produire des processeurs opto-électroniques : les avantages de l'utilisation de la lumière
viennent du fait que même si elle ne peut pas traiter toutes les instructions, certains calculs
peu complexes s'y exécutent à très grande vitesse. On peut donc s'attendre à voir utiliser les
processeurs optiques dans la reconnaissance des formes...L'ADN, qui contient l'ensemble du
génome d'un individu est composé de quatre bases azotées qui s'organise par paire : A et T, C
et G. En 1994, Léonard Adleman annonce qu'il a réussit à résoudre un problème
mathématique à l'aide de l'ADN : "celui ou un voyageur de commerce doit trouver le trajet le
plus court pour relier x villes sans passer deux fois par la même". Après quelques jours de
manipulations le résultat lui est apparu codé à travers une séquence d'ADN. Vous vous dîtes
sûrement ce qu'apporte en plus l'ADN à nos systèmes déjà capables de résoudre des épreuves
de ce type. Et bien cet avantage viendrait de sa capacité à traiter un grand nombre de donnés,
résolvant des problèmes où les supercalculateurs auraient mis plusieurs siècles de calculs. Son
application devrait donc se faire sur le cassage des algorithmes les plus complexes.
Seul Intel est dans la course..et encore...
Aujourd'hui trois milliards de dollars sont nécessaires à la construction d’une usine obsolète
en trois ans, c'est pourquoi lorsque vous achetez un processeur vous payez avant tout la
fabrication de l'usine... A chaque génération de processeur le coût de l'usine est multiplié par
deux et ces investissements doivent être réalisés 3 ans à l’avance. On comprend bien que peu
de fondeurs aient les moyens de rester dans la course. Intel, AMD et IBM semblent les mieux
partis pour rester même si certains laisseront le soin de faire produire leurs processeurs à
d'autres comme l'a fait Digital avec Intel (c'est pourquoi les processeurs Alpha sont fabriqués
dans les usines Intel). Il en est de même du géant Intel qui sous traite la majeure partie de sa
production auprès de fondeurs asiatiques.
1 / 3 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !