Dossier réalisé par Aniss ZIANI et Raphael VERTUEUX BTS Service Informatique aux Organisations Solutions d'Infrastructure, Systèmes et Réseaux LES PROCESSEURS Tables des matières Définition Page 3 Historique Page 4 La loi de Moore Page 5 Les forces en présences Page 6 Les processeurs x86 Page 7 Les processeurs ARM Page 8 Conclusion Page 9 LES PROCESSEURS DEFINITION Le processeur (ou CPU de l'anglais Central Processing Unit, « Unité centrale de traitement ») est le composant de l'ordinateur qui exécute les instructions machine des programmes informatiques. Avec la mémoire notamment, c'est l'un des composants qui existent depuis les premiers ordinateurs et qui sont présents dans tous les ordinateurs. Un processeur construit en un seul circuit intégré est un microprocesseur. L'invention du transistor en 1948 a ouvert la voie à la miniaturisation des composants électroniques. Car auparavant les ordinateurs prenaient la taille d'une pièce entière. Les processeurs des débuts étaient conçus spécifiquement pour un ordinateur d'un type donné. Cette méthode coûteuse de conception des processeurs pour une application spécifique a conduit au développement de la production de masse de processeurs qui conviennent pour un ou plusieurs usages. Cette tendance à la standardisation qui débuta dans le domaine des ordinateurs centraux (mainframes à transistors discrets et miniordinateurs) a connu une accélération rapide avec l'avènement des circuits intégrés. Les circuits intégrés ont permis la miniaturisation des processeurs. La miniaturisation et la standardisation des processeurs ont conduit à leur diffusion dans la vie moderne bien audelà des usages des machines programmables dédiées. LES PROCESSEURS HISTORIQUE La complexité de conception des unités centrales de traitement s'est accrue lorsque diverses technologies ont facilité la construction de dispositifs électroniques plus petits et plus fiables. La première de ces améliorations est apparue avec l'avènement du transistor. Les processeurs transistorisés des années 1950 et des années 1960 n'ont plus besoin de faire appel à des éléments de commutation encombrants, peu fiables et fragiles comme les tubes à vide et les relais électromécaniques. Avec cette amélioration, des unités centrales de traitement plus complexes et plus fiables ont été construites sur une ou plusieurs cartes de circuit imprimé contenant des composants discrets (individuels). Au cours de cette période, une nouvelle méthode de fabrication a vu le jour, permettant de grouper un grand nombre de transistors sur une surface réduite de matériau semiconducteur, le circuit intégré (IC) était né. L'échelle d'intégration définit le nombre de portes par boîtier : SSI (small scale integration) petite : inférieur à 12 ; MSI (medium scale integration) moyenne : 12 à 99 ; LSI (large scale integration) grande : 100 à 9 999 ; VLSI (very large scale integration) très grande : 10 000 à 99 999 ; ULSI (ultra large scale integration) ultra grande : 100 000 et plus. En 1964 IBM a présenté son architecture d'ordinateur System/360, qui a été employée dans une série d'ordinateurs qui pouvaient exécuter les mêmes programmes à différentes vitesses et performances. C'était significatif à un moment où la plupart des ordinateurs étaient incompatibles entre eux, même ceux construits par le même fabricant. Pour développer cette avancée, IBM mis au point le concept de microprogramme (souvent appelé « microcode »), dont l'utilisation est encore fréquente dans des unités centrales de traitement modernes. L'architecture System/360 était si populaire qu'elle a dominé le marché des ordinateurs centraux pendant plusieurs décennies laissant un héritage encore utilisé par des ordinateurs modernes comme les zSeries d'IBM. Au cours de la même année (1964), Digital Equipment Corporation (DEC) a présenté un autre ordinateur déterminant destiné au marché des ordinateurs scientifiques et de recherche, le PDP-8. DEC lancera plus tard la famille très populaire des PDP-11 qui fut à l'origine basée sur des circuits intégrés SSI puis finalement dotée de circuits LSI dès que ceux-ci furent disponibles. Contrastant avec ses prédécesseurs SSI et MSI, la première implémentation en LSI du PDP-11 comportait une unité centrale de traitement à seulement quatre circuits intégrés. LES PROCESSEURS LA LOI DE MOORE Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance des ordinateurs et de la complexité du matériel informatique. Au sens strict, on ne devrait pas parler de lois de Moore mais de conjectures de Moore puisque les énoncés de Moore ne sont en fait que des suppositions. Il existe en fait trois « lois » de Moore, deux authentiques (au sens où elles furent émises par Gordon E. Moore), et une série de « lois » qui ont en commun de se prétendre « loi de Moore » mais qui n'en sont que des simplifications inexactes. Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s’agissait d’une unité de calcul de 4 bits, cadencé à 108 kHz et intégrant 2 300 transistors. La capacité d’intégration des transistors et la diminution de la gravure ont amélioré les performances des processeurs. 1. La Loi de Moore a été exprimée en 1965 dans « Electronics Magazine » par Gordon Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la complexité des semiconducteurs proposés en entrée de gamme doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée Loi de Moore ou, compte tenu de l'ajustement ultérieur, Première loi de Moore. 2. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants indépendants) sur une puce de silicium double tous les deux ans. Bien qu'il ne s'agisse pas d'une loi physique mais seulement d'une extrapolation empirique, cette prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes. 3. Une version commune, variable et sans lien avec les énoncés réels de Moore est : « quelque chose » double tous les dix-huit mois, cette chose étant « la puissance », « la capacité », « la vitesse », « la fréquence d'horloge » et bien d'autres variantes mais très rarement la densité des transistors sur une puce. Ces pseudo « lois de Moore » sont celles le plus souvent diffusées, car elles fleurissent dans des publications grand public et sur de nombreux sites Internet. Leur seul point commun est donc ce nombre de dix-huit mois, qu'on ne trouve pourtant dans aucun des deux énoncés de Moore. LES PROCESSEURS LES FORCES EN PRESENCES Les principaux fabricants de processeurs de serveurs et d’ordinateurs de bureaux sont Intel et AMD. Un nouveau poids lourd des semi-conducteurs est apparu ces dernières années grâce au smartphone et les tablettes. Qualcomm, spécialisé dans les processeurs ARM. Le dernier étant l’inévitable Samsung. AMD est en perte de vitesse et certains analystes parlent même d’un monopole d’Intel dans 2 à 3 ans sur le secteur des serveurs et des ordinateurs de bureau. Intel représente aujourd’hui plus de 80% du marché et AMD seulement 10 % en chute perpétuelle. AMD a de plus en plus de mal à se financer sur les marchés. De plus, l’entreprise a accumulé un retard technologique irrattrapable comparé à Intel. LES PROCESSEURS LES PROCESSEURS x86 La famille x86 regroupe les microprocesseurs compatibles avec le jeu d'instructions de l'Intel 8086. Cette série est nommée IA-32 (pourIntel architecture 32 bits) par Intel pour ses processeurs à partir du Pentium. Un constructeur de microprocesseur pour PC doit maintenir une compatibilité descendante avec ce jeu d'instructions s'il veut que les logiciels déjà écrits fonctionnent sur les nouveaux microprocesseurs. Les possibilités d'adressage mémoire de la gamme x86 remontent au 8080, qui avait 16 bits de bus d'adresse et pouvait donc accéder à 64 Ko de mémoire. Le 8086, pour faciliter le passage du 8080 au 8086, introduit l'adressage segmenté, où l'adresse référencée par segment:offset est segment · 0x10 + offset, avec segment etoffset tous deux sur 16 bits. Cela fournit 1 Mo de mémoire adressable, divisée en segments de 64 Ko, un segment commençant tous les 16 octets. Le processeur a 4 registres de segment : un pour le code, un pour les données, un pour la pile et un supplémentaire (qui sert entre autres de destination dans les instructions de copie de chaînes de caractères). Intel introduit des « modèles mémoire ». Dans le modèle tiny, qui imite le modèle mémoire du 8080, tous les registres de segments ont la même valeur et on accède donc effectivement à 64 Ko de mémoire. C'est le modèle utilisé sous DOS, par les exécutables .com. Dans le modèle small, les registres ont des valeurs différentes mais ne changent pas : on a donc 64 Ko pour le code, 64 Ko pour les données, 64 Ko pour la pile. Pour manipuler plus de mémoire, il faut faire des accès « far », c'est-à-dire aller chercher le mot en mémoire en changeant d'abord la valeur du registre de segment, puis en lisant le segment à l'offset voulu. Le modèle « large » fait des accès far dans le code et les données et donc utilise effectivement le mébioctet d'espace adressable. Les modèles medium (64 Ko de données, plusieurs segments de code) et compact (plusieurs segments de données, 64 Ko de code) sont des compromis. Le 80286 brise la barrière des 1 024 Ko en introduisant le mode protégé : les segments ne se réfèrent plus à l'adresse segment·0x10 mais à une table (la GDT ou la LDT) qui maintient en plus les informations de protection. L'espace adressable est de 16 Mo, l'espace virtuel est potentiellement de 1 Go, un segment ne peut pas dépasser 64 Ko. Avec le80386, Intel introduit un processeur 32 bits. Les segments peuvent être aussi gros que tout l'espace adressable, soit 4 Go. La pagination vient s'ajouter à la segmentation. LES PROCESSEURS LES PROCESSEURS ARM L’architecture ARM est une puce 32-bit développée en 1983 par l’entreprise britannique Acorn. Depuis 1990, elle est développée par ARM Limited, une fusion entre Acorn et d’autres sociétés. L’acronyme signifie « Advanced RISC Machines ». Contrairement à Intel ou AMD, ARM Limited ne fabrique pas ses propres processeurs. Elle accorde des licences aux fabricants de semi-conducteurs tels que Samsung, Texas Instruments, Nvidia ou Qualcomm. Le grand nombre de licences et les différents avantages de cette architecture, tels que la faible consommation énergétique, ont fait des processeurs ARM, l’architecture la plus utilisée dans le secteur de l’intégré. Le noyau XNU (Mac OS X / iOS), le noyau Linux (Google Android, Access Linux Platform etc.) et Windows NT 6.2 (Windows Phone 8 / RT) entre autres s’exécutent sur des processeurs ARM. LES PROCESSEURS CONLUSION Les processeurs sont devenus incontournable dans les sociétés modernes. Leur miniaturisation a permis l’essor de nombreux appareils mobile ces dernières années telles que les smartphones ou les tablettes. Il reste encore 8 à 10 ans d’évolution pour les puces à base de silicium, après nous aurons besoin d’une nouvelle technologie.