CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 1 sur 19 1 PROBLEMATIQUE RETENUE 2 Comprendre le fonctionnement et l’évolution d’un ordinateur. 2 DEFINITIONS 2 Présentation des savants : Pascal : né le 19 Juin 1623 à Clermont Blaise Pascal, marqué par la mort prématurée de sa mère, a été élevé aux côtés de ses deux soeurs : c'est un enfant surdoué, de santé très fragile mais d'une précocité étonnante, d'une grande curiosité et d'une intelligence hors du commun. Il est d'abord un jeune savant connu pour ses travaux mathématiques et physiques, et publie à 17 ans un traité de géométrie, Essai sur les coniques (1640) (Blaise Pascal) Babbage : né le 26 Décembre 1791 à Teignmouths (Angleterre). Charles Babbage a été le premier à énoncer le principe de l'ordinateur. Il travailla une grande partie de sa vie à la construction d'un ordinateur mécanique qu'il appelait machine à différences. Il n'arriva jamais à l'achever mais une partie du mécanisme est exposée au Musée de la Science de Londres. En 1991, à partir de ses plans on a pu reconstruire une partie de cette machine, qui fonctionna parfaitement. Pour la reconstruire on utilisa les tolérances qui étaient disponibles au XIXe siècle, ce qui nous porte à croire qu'elle aurait pu être construite du vivant de Babbage sous réserve de disposer d'une force motrice suffisante et de métaux assez résistants. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 2 sur 19 Turing : né le 13 Mai 1972 a Londres. Alan Mathison Türing est pourtant le père des ordinateurs modernes, au moins pour leur partie théorique. Sa contribution à la victoire des alliés pendant la Seconde Guerre Mondiale est décisive. Mais un suicide prématuré, peut-être "encouragé" par les autorités britanniques, l'a plongé dans l'anonymat de l'histoire. En 1935, il met au point le concept d'une machine universelle, qui formalise la notion de problème résoluble par un algorithme. Cette machine de Turing est capable de calculer tout ce qu'un processus algorithmique est capable de faire. Par essence même, les ordinateurs modernes sont des réalisations concrètes des machines de Turing. Von Neumann : né le 28 Décembre 1903 a Budapest. Il est le 3ème fils d'un des plus riches banquiers de Hongrie, et vit dans un milieu intellectuel particulièrement stimulant : les plus grands scientifiques, les écrivains les plus réputés fréquentent le salon de ses parents. Il dispose de dons exceptionnels pour l'apprentissage Durant la seconde guerre mondiale, il perçoit, lors de la réalisation de la bombe, l'importance à venir des machines électroniques pour réaliser des calculs insurmontables à la main. Il contribue de façon décisive à la mise en oeuvre des premiers ordinateurs. Il est ainsi le premier à avoir l'idée que le programme doit être codé et rangé dans la mémoire de la machine à côté des données des calculs. En particulier, une seule machine peut réaliser toute sorte de calculs différents. Ce modèle dit de Von Neumann préside toujours à la conception des ordinateurs modernes. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 3 sur 19 L’architecture de Von Neumann décompose l’ordinateur en 4 parties distinctes 1. L’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer les opérations de base ; 2. L’unité de contrôle, chargée du séquençage des opérations ; 3. La mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire volatile (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine). 4. Les dispositifs d’entrée-sortie, qui permettent de communiquer avec le monde extérieur. Sources : Wikipédia & Bibmath.net L’instruction correspond, en informatique, a une opération élementaire qu’ un programme demande a un processeur d’effectuer. C'est l'ordre le plus basique que peut comprendre un ordinateur. La collection d'instructions machine qui peuvent être données à un processeur est son jeu d'instructions. Les instructions machine sont codées en binaire. Un champ de l'instruction appelé « code opération » ou « opcode » désigne l'opération à effectuer. Puisque sa valeur numérique n'a pas de sens pour les humains, le programmeur utilise une abréviation désignant le code opération fourni par le langage assembleur pour ce processeur. La taille d'une instruction dépend de l'architecture de la plateforme, mais elle est usuellement comprise entre 4 et 64 bits CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 4 sur 19 On appelle « mémoire » tout composant électronique capable de stocker temporairement des données. On distingue ainsi deux grandes catégories de mémoires : la mémoire centrale (appelée également mémoire interne) permettant de mémoriser temporairement les données lors de l'exécution des programmes. La mémoire centrale est réalisée à l'aide de micro-conducteurs, c'est-à-dire des circuits électroniques spécialisés rapides. La mémoire centrale correspond à ce que l'on appelle la mémoire vive. la mémoire de masse (appelée également mémoire physique ou mémoire externe) permettant de stocker des informations à long terme, y compris lors de l'arrêt de l'ordinateur. La mémoire de masse correspond aux dispositifs de stockage magnétiques, tels que le disque dur, aux dispositifs de stockage optique, correspondant par exemple aux CD-ROM ou aux DVD-ROM, ainsi qu'aux mémoires mortes. Une mémoire présente principalement 5 caractéristiques : Sa capacité -> volume global d’informations pouvant être stocké, exprimée en bits Son temps d’accès -> correspond au temps écoulé entre la demande (lecture/écriture) et la disponibilité de la donnée. Son temps de cycle -> correspond au temps minimum écoulé entre deux accès succéssifs. Son débit -> correspond au volume d’informations échangé par unité de temps (en bits/sec) Sa non volatilité -> correspond a l’aptitude de la mémoire a conserver des données lorsqu’elle n’est plus alimentée en électricité. La mémoire vive, généralement appelée RAM (Random Access Memory, traduisez mémoire à accès direct), est la mémoire principale du système, c'est-à-dire qu'il s'agit d'un espace permettant de stocker de manière temporaire des données lors de l'exécution d'un programme. En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque dur, la mémoire vive est volatile, c'est-à-dire qu'elle permet uniquement de stocker des données tant qu'elle est alimentée électriquement. Ainsi, à chaque fois que l'ordinateur est On distingue généralement deux grandes catégories de mémoires vives : Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles sont principalement utilisées pour la mémoire centrale de l'ordinateur ; CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 5 sur 19 Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les SRAM sont notamment utilisées pour les mémoires cache du processeur ; Fonctionnement de la mémoire vive : La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire. Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15 nanosecondes (ns). Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne. Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un temps égal au temps de cycle auquel il faut ajouter le temps de latence. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 6 sur 19 Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5 ns (1/(200*106)). Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200 MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides. Il existe différents types de mémoires vives. Elles se présentent toutes sous la forme de barrettes de mémoire enfichables sur la carte mère. En commençant par les plus anciennes, ces différents formats sont : -SIMM (Single Inline Memory Module) : ce format se partage en deux types de barrettes : SIMM a 30 connecteurs, mémoires 8 bits ayant équipé les premiers ordinateurs et les SIMM a 72 connecteurs capables de gérer 32 bits de données simultanément. -DIMM (Dual Inline Memory Module) : sur ces barrettes, les puces mémoires sont situées de part et d'autre du circuit imprimé. De plus, ce sont des mémoires 64 bits. -RIMM (Rambus Inline Memory Module) : mémoires 64 bits développées par la société Rambus. Vitesse de transfert élevée. Les types de mémoire vive que l’on retrouve le plus actuellement sont : La SDRAM La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM (qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des temps d'accès d'environ 10 ns. La DR-SDRAM (Rambus DRAM) La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie propriétaire, ce qui signifie que toute CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 7 sur 19 entreprise désirant construire des barrettes de RAM selon cette technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel. La DDR-SDRAM La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM, permettant de doubler le taux de transfert de la SDRAM à fréquence égale. La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une donnée à chaque front montant. La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant. Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX» représente le débit en Mo/s. La DDR2-SDRAM La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à fréquence externe égale. On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 8 sur 19 La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la DDR2 contre 184 pour la DDR). La mémoire morte (ROM) La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture seule) est un type de mémoire permettant de conserver les informations qui y sont contenues même lorsque la mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne peut être accédée qu'en lecture. Toutefois il est désormais possible d'enregistrer des informations dans certaines mémoires de type ROM. Mémoire flash La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes. En effet, la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant facilement être accessible en lecture ou en écriture. En contrepartie les temps d'accès des mémoires flash sont plus importants que ceux de la mémoire vive. Compilateur Un compilateur est un programme permettant de traduire un langage source en un langage appelé langage cible. Un compilateur sert souvent aussi à optimiser le code pour une exécution plus rapide et une occupation moindre de la mémoire. Donnée Une donnée peut se présenter sous différentes formes (papier, numérique, alphabétique, images, sons …) CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 9 sur 19 Elle correspond à une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc. Pentium Core 2 Duo Anciennement appelé Conroe, le Pentium Core 2 Duo est un processeur de nouvelle génération. Il vient remplacer le Pentium 4 qui avait déçue aux vues de ses performances. Ce nouveau processeur intègre un double cœur pour un maximum de performances. Semi-conducteur Les semi-conducteurs sont des matériaux présentant une conductivité électrique intermédiaire entre les métaux et les isolants. Ils sont très utilisés en electronique car ils permettent de réguler un flux electrique mais aussi d’imposer un sens au courant. Les semi-conducteurs servent à la confection des diodes, transistors, thyristors, circuits intégrés etc … Barrière de potentiel Transistor Le transistor est un composant électronique pouvant avoir plusieurs fonctions : utilisé pour l’amplification, il sert aussi à stabiliser une tension, moduler un signal … 3 AXES DE RECHERCHES 3.1 Axe de recherche n : 1 Histoire de l’ordinateur. Les Chinois puis les Arabes utilisent très tôt (premier millénaire) des roues dentées munies d'ergots pour fabriquer des mécanismes d'horlogerie. Wilhelm Schickard, en 1623, s'inspire de ce système pour construire une machine capable d'exécuter automatiquement additions et soustractions. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 10 sur 19 La machine de Schickard (1623). Afin d'aider son père collecteur d'impôts à Rouen, Blaise Pascal travaille trois années durant sur une machine à effectuer des additions, soustractions et à convertir les nombreuses monnaies de l'époque les unes dans les autres : La Pascaline. La Pascaline est une boîte de cuivre rectangulaire sur laquelle 8 volants représentent les unités, dizaines, centaines, que l'on bouge avec un petit stylet. Lorsqu'un cadran effectue un tour complet à partir de 0, il incrémente d'une unité le cadran suivant, etc. Ce principe est à la base de la retenue automatique. Les valeurs de chaque cadran peuvent être lues dans une petite fenêtre située en haut du cadran. La Pascaline (1643). CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 11 sur 19 Wilhelm Leibniz, en 1673, construit une machine effectuant automatiquement les additions, soustractions, multiplications et les divisions. La machine de Leibniz (1673). La machine de Babbage Plus ambitieux, Charles Babbage se fixa pour objectif la réalisation d'une machine "capable de résoudre n'importe quelle équation et d'exécuter les opérations les plus compliquées de l'analyse mathématique". On pouvait effectuer avec les machines arithmétiques existantes des opérations, mais on ne pouvait réaliser de suite de calculs. Il existait pourtant en horlogerie depuis le XIVe siècle des automates capables d'exécuter des séries d'ordres : les Jacquemarts. Les Jacquemarts sont des automates qui frappent les heures après une série de mouvements plus ou moins complexes sur la cloche d'une horloge. Ces automates obéissaient à un mécanisme mû par des roues dentées ou des cylindres à ergots, qui n'étaient malheureusement pas modifiables : on ne pouvait donc pas modifier les mouvements d'une exécution à l'autre. En 1805, Jacquard construit un métier à tisser mécanique utilisant les cartes perforées : un trou dans une carte laisse passer l'aiguille. Un plein la repousse. Une carte correspond au filage d'une trame et le tissage d'une pièce nécessite l'utilisation d'une suite de cartes : le programme. Une des caractéristiques fondamentales du métier à tisser de Jacquard est la séparation entre le "mécanisme de commande" et le "mécanisme d'exécution". CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 12 sur 19 Métier à tisser de Jacquard (1805). Cliquez pour une plus grande image. Lorsqu'il conçoit sa machine analytique, en 1833, Babbage s'inspire de la technique des Jacquemarts et de celle du métier à tisser de Jacquard. Il définit les règles de construction d'une machine à calculer : La machine de Babbage comporte : Une unité d'entrée pour communiquer le traitement de la machine. Une mémoire pour stocker les données et les résultats intermédiaires. Une unité de commande pour contrôler l'exécution du traitement. Une unité arithmétique et logique pour réaliser les calculs. Une unité de sortie pour lire les résultats La machine de Babbage (modèle reconstitué d'après les plans d'origine). CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 13 sur 19 A la fin de l'année 1938, les laboratoires Bell autorisèrent le développement d'un calculateur à relais grandeur nature basé sur le modèle de Stibitz. Stibitz et son équipe (dont Samuel Williams) commencèrent la construction de ce calculateur en avril 1939. La machine fut terminée le 8 janvier 1940, et fut dénommée Complex Number Calculator, Calculateur de Nombres Complexes, ou bien encore Model I. Ce calculateur, travaillant en DCB (Décimal Codé Binaire), était composé de 450 relais électromécaniques et pouvait multiplier deux grands chiffres en une minute. Le 11 septembre de cette même année, durant un meeting de l'American Mathematical Society au Darmouth College, le docteur Stibitz utilisa un télétype pour transmettre un problème à résoudre au Complex Number Calculator et pour recevoir les résultats. Cette expérience est considérée comme étant le premier exemple mondial de travail commandé à distance, une technique qui révolutionnera la dissémination de l'information au travers des réseaux téléphoniques et informatiques. En 1941, Howard Aiken commence à travailler sur un calculateur dénommé Mark I. Le Mark I utilise des banques de relais électromécaniques comme autant d'interrupteurs. Ce calculateur peut résoudre en une journée des problèmes qui prendraient 6 mois à un utilisateur de machine à calculer classique, réalisant trois opérations par seconde. Le rêve de Babbage est concrétisé, en 1944, par l'apparition du calculateur connu sous le nom de "machine Harvard-IBM". Elle est pilotée par un programme stocké sur une bande de papier perforée, utilise une horloge pour contrôler le déroulement des opérations. Elle effectue une addition en 0,3 seconde, une multiplication en 6 secondes et une division en 11,4 secondes sur des nombres de 23 chiffres décimaux. Ce premier véritable calculateur universel utilise encore des roues tournant électriquement et pèse près de 5 tonnes ! Le 14 février 1946, J.P.Eckert et John Mauchly mettent au monde l'ENIAC (pour Electronic Numerical Integrator and Computer), le premier calculateur à utiliser des éléments électroniques : des tubes à vides. Il calcule 500 fois plus vite que la machine Harvard-IBM et peut effectuer 5.000 additions ou soustractions, 350 multiplications ou bien encore 50 divisions par seconde. Mais il reste monstrueux : il pèse 30 tonnes, occupe une surface au sol de plus de 150 mètres carrés, utilise 100.000 composants dont 17.000 tubes à vide et dégage suffisamment de chaleur pour chauffer un immeuble ! Mais son défaut essentiel est d'être commandé par un tableau de connexion qu'il faut modifier, fiche après fiche, pour effectuer un nouveau travail, ce qui peut demander plusieurs jours. Cet inconvénient fut à l'origine des programmes enregistrés. John Von Neumann, concrétisant les recherches de Eckert et Mauchly (véritables inventeurs de la notion de programmes enregistré) met au point l'EDVAC (pour Electronic Discrete Variable Automatic Computer), en 1945, ouvrant la voie aux ordinateurs actuels. Les unités d'entrée et de sortie utilisent des cartes perforées. Cette architecture est remarquablement proche de celle de tous les ordinateurs actuels. La technologie de l'époque, uniquement mécanique, n'a malheureusement pas permis de faire fonctionner correctement la machine de Babbage. CAHIER D’ETUDES ET DE RECHERCHE Electronique 3.2 Axe de recherche n : 2 Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 14 sur 19 Fonctionnement d’un transistor. Pour effectuer le traitement de l'information, le microprocesseur possède un ensemble d'instructions, appelé « jeu d'instructions », réalisées grâce à des circuits électroniques. Plus exactement, le jeu d'instructions est réalisé à l'aide de semiconducteurs, « petits interrupteurs » utilisant l'effet transistor, découvert en 1947 par John Barden, Walter H. Brattain et William Shockley qui reçurent le prix Nobel en 1956 pour cette découverte. Un transistor (contraction de transfer resistor, en français résistance de transfert) est un composant électronique semi-conducteur, possédant trois électrodes, capable de modifier le courant qui le traverse à l'aide d'une de ses électrodes (appelée électrode de commande). On parle ainsi de «composant actif», par opposition aux « composants passifs », tels que la résistance ou le condensateur, ne possédant que deux électrodes (on parle de « bipolaire »). Le transistor MOS (métal, oxyde, silicium) est le type de transistor majoritairement utilisé pour la conception de circuits intégrés. Le transistor MOS est composé de deux zones chargées négativement, appelées respectivement source (possédant un potentiel quasi-nul) et drain (possédant un potentiel de 5V), séparées par une région chargée positivement, appelée substrat (en anglais substrate). Le substrat est surmonté d'une électrode de commande, appelée porte (en anglais gate, parfois également appelée grille), permettant d'appliquer une tension sur le substrat. Lorsqu'aucune tension n'est appliquée à l'électrode de commande, le substrat chargé positivement agit telle une barrière et empêche les électrons d'aller de la source vers le drain. En revanche, lorsqu'une tension est appliquée à la porte, les charges positives du substrat sont repoussées et il s'établit un canal de communication, chargé négativement, reliant la source au drain. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 15 sur 19 Le transistor agit donc globalement comme un interrupteur programmable grâce à l'électrode de commande. Lorsqu'une tension est appliquée à l'électrode de commande, il agit comme un interrupteur fermé, dans le cas contraire comme un interrupteur ouvert. 3.3 Axe de recherche n : 3 Architecture du processeur. 3.4 Axe de recherche n : 4 Architecture d’une UC. Une unité centrale rassemble un nombre important de composants, chacun ayant sa fonction quant au fonctionnement de l’ordin Horloge système : elle contrôle et synchronise le microprocesseur et les composants associés. Sa vitesse, encore appelée fréquence, est exprimée en mégahertz (MHz). Plus cette fréquence est élevée, plus le processeur sera efficace. Le microprocesseur : c'est l'élément principal de l'ordinateur. Il traite et fait circuler les données. Plus cette circulation d'information est rapide, plus l'ordinateur sera jugé performant. L'évolution des technologies permet d'obtenir des vitesses en permanente progression et des technologies spécifiques, comme le MMX permet d'accélérer encore les fonctions multimédia. La mémoire vive : on l'appelle aussi mémoire centrale ou RAM (Random Acces Memory). C'est l'endroit où l'ordinateur stocke temporairement les données et programmes qu'il est en train d'utiliser. Un temporaire qui dure tant que l'on ne coupe pas le courant. Les puces mémoires (en fait DRAM, D pour dynamique) sont soudées sur la carte mère. La taille mémoire peut s'augmenter par ajout de RAM sous forme de barrettes. Plus de mémoire accélère l'ordinateur, car on évite des appels fréquents au disque dur. La mémoire cache : la transmission d'informations entre processeur et mémoire vive est souvent bien plus lente que le potentiel de vitesse du microprocesseur. Pour pallier à cela, les processeurs intègrent une petite zone de CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 16 sur 19 mémoire ultra-rapide où sont conservées les instructions et données qui reviennent le plus souvent. Mais cette mémoire interne est de petite taille, quelques dizaines de Ko pour les systèmes plus anciens et peut aller jusqu'a 2Mo sur les systèmes plus récent. Connecteurs d'extensions : ce sont des emplacements disponibles sur la carte mère destinés à recevoir des cartes d'usages divers. Il existe plusieurs normes de connexion, dites bus. Entrées/sorties : tous les ordinateurs comportent des ports série et parallèle pour la liaison avec des périphériques de type imprimante, modem, ..... Mémoire vidéo : le mémoire, dite VRAM, où se stockent les images à afficher à l'écran. Il en faut d'autant plus que ces images doivent s'afficher vite. Les cartes vidéos : indépendantes, placées sur un connecteur d'extension, elles permettent de décharger le microprocesseur des calculs de l'affichage. Elles contiennent la VRAM et donc cette dernière ne se trouve plus directement sur la carte mère. Les cartes son : elles permettent de d'enregistrer et de reproduire du son, et de piloter un lecteur de CD-ROM. Elles se branchent sur un connecteur d'extension. 3.5 Axe de recherche n : 5 modules. Etudier les modes de communication entre les différents Tous ces composants ont besoin d’être reliés entre eux pour pouvoir fonctionner correctement et ensemble. C’est la qu’interviennent les bus : ce sont des liaisons ( câbles, circuits imprimés .. ) pouvant être exploitées en commun par plusieurs éléments matériels afin de communiquer. Chaque composant est alors relié au bus ce qui évite de relier tous les composants entre eux. On appelle aussi les bus : « autoroutes de données ». Un bus est caractérisé par le volume d'informations transmises simultanément. Ce volume, exprimé en bits, correspond au nombre de lignes physiques sur lesquelles les données sont envoyées de manière simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de « largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément. D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner chaque envoi ou réception de données. De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert maximal), c'est-à-dire la quantité de données qu'il peut transporter par unité de temps, en multipliant sa largeur par sa fréquence On distingue généralement sur un ordinateur deux principaux bus : CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 17 sur 19 le bus système (appelé aussi bus interne, en anglais internal bus ou front-side bus, noté FSB). Le bus système permet au processeur de communiquer avec la mémoire centrale du système (mémoire vive ou RAM). le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de la carte-mère (USB, série, parallèle, cartes branchées sur les connecteurs PCI, disques durs, lecteurs et graveurs de CD-ROM, etc.) de communiquer entre eux mais il permet surtout l'ajout de nouveaux périphériques grâce aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-sorties. Le chipset tient lui aussi un rôle important quand à la communication entre les différents composants. C’est lui qui est chargé d’aiguiller les informations entre les différents bus de l’ordinateur afin de permettre une communication entre les composants. Le chipset était originalement composé d'un grand nombre de composants électroniques, ce qui explique son nom. Il est généralement composé de deux éléments : Le NorthBridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) est chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and Memory Controller Hub. Le SouthBridge (Pont Sud ou Southern Bridge, appelé également contrôleur d'entrée-sortie ou contrôleur d'extension) gère les communications avec les périphériques d'entrée-sortie. Le pont sud est également appelé ICH (I/O Controller Hub). On parle généralement de bridge (pont) pour désigner un élément d'interconnexion entre deux bus. 4 HYPOTHESES 4.1 Hypothèse n : 1 L’ordinateur est arrivé avant l’électricité. La Pascaline ou encore la machine de Babbage peuvent être considérées comme ordinateur car elles intégraient le principe de programmation. Or ces machines (entres autres) datent du 17e siècle, bien avant l’invention de l’électricité Premiere Exposition Internationale de l’Electricité en France en 1881 -> naissance de l’electrotechnique) 4.2 Hypothèse n : 2 Le transistor a révolutionné l’informatique. C’est vrai. Le transistor a eu un grand impact dans le monde de l’electronique. De nos jours, on le retrouve dans n’importe quel circuit electronique, et en grande quantité dans nos ordinateurs. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 18 sur 19 4.3 Hypothèse n : 3 L’ordinateur est composé de différents modules qui communiquent entre eux (bus, câbles, 0 et 1 …). Vrai, un ordinateur est un assemblage de plusieurs composants ayant chacun leur fonctionnalité et reliés entre eux par des câbles (bus .. ) permettant un transfert rapide des informations entre ces différents modules. 4.4 Hypothèse n : 4 : Les transistors sont miniaturisés pour pouvoir entrer dans un processeur. Les premiers processeurs comportaient un nombre assez limité de transistors (1971 processeur 4004 -> 2300 transistors). Ce nombre a considérablement augmenté au cours des années (2006 Core 2 Duo : 291 Millions de transistors) mais le microprocesseur est toujours resté aussi compact. L’évolution la plus important touche donc la taille des transistors. Ils sont de plus en plus miniaturisés pour pouvoir en mettre un maximum dans un processeur. CAHIER D’ETUDES ET DE RECHERCHE Electronique Nom : Prénom : Promo : PO58X201 1er cycle CDIL Date de création : Page 19 sur 19 5 SYNTHESE DE LA PROBLEMATIQUE L’ordinateur est apparu dans un premier temps sous forme mécanique. Pour simplifier les calculs de tous les jours, Pascal, Schickard, et d’autres savants au 17e siècle ont cherché à mettre au point des machines à calculs. Babbage s’inspire d’une méthode de programmation utilisé dans les métiers à tissus, programmés grâce a des plaques perforées pour concevoir une machine programmable, mais son projet n’arrivera pas à termes. Le premier ordinateur électronique fut crée en 1937. Depuis, un grand nombre de choses ont changé chez les ordinateurs. Le système de programmation est entièrement électronique, et l’ordinateur se décompose en un assemblage de modules, tous reliés entre eux et possédant chacun des caractéristiques spécifiques. L’arrivée du transistor en électronique a permis un grand nombre d’évolutions. Les processeurs, cœurs des ordinateurs, peuvent intégrer de plus en plus de transistors en les miniaturisants afin d’atteindre toujours de nouvelles performances. Ainsi tous les composants subissent des améliorations de plus en plus efficaces. Les liaisons entre les composants sont aussi de plus en plus simplifiées afin de gagner en performances.