Dossier réalisé par Aniss ZIANI et Raphael VERTUEUX
BTS Service Informatique aux Organisations
Solutions d'Infrastructure, Systèmes et Réseaux
LES PROCESSEURS
Tables des matières
Définition Page 3
Historique Page 4
La loi de Moore Page 5
Les forces en présences Page 6
Les processeurs x86 Page 7
Les processeurs ARM Page 8
Conclusion Page 9
LES PROCESSEURS
DEFINITION
Le processeur (ou CPU de l'anglais Central Processing Unit, « Unité centrale de traitement »)
est le composant de l'ordinateur qui exécute les instructions machine des programmes
informatiques. Avec la mémoire notamment, c'est l'un des composants qui existent depuis
les premiers ordinateurs et qui sont présents dans tous les ordinateurs. Un processeur
construit en un seul circuit intégré est un microprocesseur.
L'invention du transistor en 1948 a ouvert la voie à la miniaturisation des composants
électroniques. Car auparavant les ordinateurs prenaient la taille d'une pièce entière.
Les processeurs des débuts étaient conçus spécifiquement pour un ordinateur d'un type
donné. Cette méthode coûteuse de conception des processeurs pour une application
spécifique a conduit au développement de la production de masse de processeurs qui
conviennent pour un ou plusieurs usages. Cette tendance à la standardisation qui débuta
dans le domaine des ordinateurs centraux (mainframes à transistors discrets et mini-
ordinateurs) a connu une accélération rapide avec l'avènement des circuits intégrés.
Les circuits intégrés ont permis la miniaturisation des processeurs. La miniaturisation et la
standardisation des processeurs ont conduit à leur diffusion dans la vie moderne bien au-
delà des usages des machines programmables dédiées.
LES PROCESSEURS
HISTORIQUE
La complexité de conception des unités centrales de traitement s'est accrue lorsque diverses
technologies ont facilité la construction de dispositifs électroniques plus petits et plus
fiables. La première de ces améliorations est apparue avec l'avènement du transistor. Les
processeurs transistorisés des années 1950 et des années 1960 n'ont plus besoin de faire
appel à des éléments de commutation encombrants, peu fiables et fragiles comme les tubes
à vide et les relais électromécaniques. Avec cette amélioration, des unités centrales de
traitement plus complexes et plus fiables ont été construites sur une ou plusieurs cartes de
circuit imprimé contenant des composants discrets (individuels).
Au cours de cette période, une nouvelle méthode de fabrication a vu le jour, permettant de
grouper un grand nombre de transistors sur une surface réduite de matériau semi-
conducteur, le circuit intégré (IC) était né.
L'échelle d'intégration définit le nombre de portes par boîtier :
SSI (small scale integration) petite : inférieur à 12 ;
MSI (medium scale integration) moyenne : 12 à 99 ;
LSI (large scale integration) grande : 100 à 9 999 ;
VLSI (very large scale integration) très grande : 10 000 à 99 999 ;
ULSI (ultra large scale integration) ultra grande : 100 000 et plus.
En 1964 IBM a présenté son architecture d'ordinateur System/360, qui a été employée dans
une série d'ordinateurs qui pouvaient exécuter les mêmes programmes à différentes
vitesses et performances. C'était significatif à un moment où la plupart des ordinateurs
étaient incompatibles entre eux, même ceux construits par le même fabricant. Pour
développer cette avancée, IBM mis au point le concept de microprogramme (souvent appelé
« microcode »), dont l'utilisation est encore fréquente dans des unités centrales de
traitement modernes.
L'architecture System/360 était si populaire qu'elle a dominé le marché des ordinateurs
centraux pendant plusieurs décennies laissant un héritage encore utili par des ordinateurs
modernes comme les zSeries d'IBM. Au cours de la même année (1964), Digital Equipment
Corporation (DEC) a présenté un autre ordinateur déterminant destiné au marché des
ordinateurs scientifiques et de recherche, le PDP-8. DEC lancera plus tard la famille très
populaire des PDP-11 qui fut à l'origine basée sur des circuits intégrés SSI puis finalement
dotée de circuits LSI dès que ceux-ci furent disponibles. Contrastant avec ses prédécesseurs
SSI et MSI, la première implémentation en LSI du PDP-11 comportait une unité centrale de
traitement à seulement quatre circuits intégrés.
LES PROCESSEURS
LA LOI DE MOORE
Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance des
ordinateurs et de la complexité du matériel informatique. Au sens strict, on ne devrait pas
parler de lois de Moore mais de conjectures de Moore puisque les énoncés de Moore ne
sont en fait que des suppositions.
Il existe en fait trois « lois » de Moore, deux authentiques (au sens où elles furent émises par
Gordon E. Moore), et une série de « lois » qui ont en commun de se prétendre « loi de
Moore » mais qui n'en sont que des simplifications inexactes.
Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s’agissait d’une unité de
calcul de 4 bits, cadencé à 108 kHz et intégrant 2 300 transistors. La capacité d’intégration
des transistors et la diminution de la gravure ont amélioré les performances des
processeurs.
1. La Loi de Moore a été exprimée en 1965 dans « Electronics Magazine » par Gordon Moore,
ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la
complexité des semiconducteurs proposés en entrée de gamme doublait tous les ans à coût
constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en
1965, le circuit le plus performant comportait 64 transistors). Cette augmentation
exponentielle fut rapidement nommée Loi de Moore ou, compte tenu de l'ajustement
ultérieur, Première loi de Moore.
2. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des
microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de
composants indépendants) sur une puce de silicium double tous les deux ans. Bien qu'il ne
s'agisse pas d'une loi physique mais seulement d'une extrapolation empirique, cette
prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors
a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de
moins en moins coûteuses et de plus en plus puissantes.
3. Une version commune, variable et sans lien avec les énoncés réels de Moore est : « quelque
chose » double tous les dix-huit mois, cette chose étant « la puissance », « la capacité », « la
vitesse », « la fréquence d'horloge » et bien d'autres variantes mais très rarement la densité
des transistors sur une puce. Ces pseudo « lois de Moore » sont celles le plus souvent
diffusées, car elles fleurissent dans des publications grand public et sur de nombreux sites
Internet. Leur seul point commun est donc ce nombre de dix-huit mois, qu'on ne trouve
pourtant dans aucun des deux énoncés de Moore.
Page 3 / 10
1 / 9 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !