Prosit 2

publicité
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 1 sur 19
1 PROBLEMATIQUE RETENUE
2
Comprendre le fonctionnement et l’évolution d’un ordinateur.
2 DEFINITIONS
2
Présentation des savants :
Pascal : né le 19 Juin 1623 à Clermont
Blaise Pascal, marqué par la mort prématurée de sa mère, a été élevé aux côtés de ses deux
soeurs : c'est un enfant surdoué, de santé très fragile mais d'une précocité étonnante, d'une
grande curiosité et d'une intelligence hors du commun. Il est d'abord un jeune savant connu
pour ses travaux mathématiques et physiques, et publie à 17 ans un traité de géométrie, Essai
sur les coniques (1640)
(Blaise Pascal)
Babbage : né le 26 Décembre 1791 à Teignmouths (Angleterre).
Charles Babbage a été le premier à énoncer le principe de l'ordinateur. Il travailla une grande
partie de sa vie à la construction d'un ordinateur mécanique qu'il appelait machine à
différences.
Il n'arriva jamais à l'achever mais une partie du mécanisme est exposée au Musée de la
Science de Londres. En 1991, à partir de ses plans on a pu reconstruire une partie de cette
machine, qui fonctionna parfaitement. Pour la reconstruire on utilisa les tolérances qui étaient
disponibles au XIXe siècle, ce qui nous porte à croire qu'elle aurait pu être construite du
vivant de Babbage sous réserve de disposer d'une force motrice suffisante et de métaux assez
résistants.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 2 sur 19
Turing : né le 13 Mai 1972 a Londres.
Alan Mathison Türing est pourtant le père des ordinateurs modernes, au moins pour leur
partie théorique. Sa contribution à la victoire des alliés pendant la Seconde Guerre Mondiale
est décisive. Mais un suicide prématuré, peut-être "encouragé" par les autorités britanniques,
l'a plongé dans l'anonymat de l'histoire.
En 1935, il met au point le concept d'une machine universelle, qui formalise la notion de
problème résoluble par un algorithme. Cette machine de Turing est capable de calculer tout ce
qu'un processus algorithmique est capable de faire. Par essence même, les ordinateurs
modernes sont des réalisations concrètes des machines de Turing.
Von Neumann : né le 28 Décembre 1903 a Budapest.
Il est le 3ème fils d'un des plus riches banquiers de Hongrie, et vit dans un milieu intellectuel
particulièrement stimulant : les plus grands scientifiques, les écrivains les plus réputés
fréquentent le salon de ses parents. Il dispose de dons exceptionnels pour l'apprentissage
Durant la seconde guerre mondiale, il perçoit, lors de la réalisation de la bombe, l'importance
à venir des machines électroniques pour réaliser des calculs insurmontables à la main. Il
contribue de façon décisive à la mise en oeuvre des premiers ordinateurs. Il est ainsi le
premier à avoir l'idée que le programme doit être codé et rangé dans la mémoire de la
machine à côté des données des calculs. En particulier, une seule machine peut réaliser toute
sorte de calculs différents. Ce modèle dit de Von Neumann préside toujours à la conception
des ordinateurs modernes.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 3 sur 19
L’architecture de Von Neumann décompose l’ordinateur en 4 parties
distinctes
1. L’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer
les opérations de base ;
2. L’unité de contrôle, chargée du séquençage des opérations ;
3. La mémoire qui contient à la fois les données et le programme qui dira à l’unité de
contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire
volatile (programmes et données en cours de fonctionnement) et mémoire permanente
(programmes et données de base de la machine).
4. Les dispositifs d’entrée-sortie, qui permettent de communiquer avec le monde
extérieur.
Sources : Wikipédia & Bibmath.net
L’instruction correspond, en informatique, a une opération élementaire qu’ un programme
demande a un processeur d’effectuer. C'est l'ordre le plus basique que peut comprendre un
ordinateur.
La collection d'instructions machine qui peuvent être données à un processeur est son jeu
d'instructions. Les instructions machine sont codées en binaire. Un champ de l'instruction
appelé « code opération » ou « opcode » désigne l'opération à effectuer. Puisque sa valeur
numérique n'a pas de sens pour les humains, le programmeur utilise une abréviation désignant
le code opération fourni par le langage assembleur pour ce processeur.
La taille d'une instruction dépend de l'architecture de la plateforme, mais elle est usuellement
comprise entre 4 et 64 bits
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 4 sur 19
On appelle « mémoire » tout composant électronique capable de stocker temporairement des
données. On distingue ainsi deux grandes catégories de mémoires :


la mémoire centrale (appelée également mémoire interne) permettant de mémoriser
temporairement les données lors de l'exécution des programmes. La mémoire centrale
est réalisée à l'aide de micro-conducteurs, c'est-à-dire des circuits électroniques
spécialisés rapides. La mémoire centrale correspond à ce que l'on appelle la mémoire
vive.
la mémoire de masse (appelée également mémoire physique ou mémoire externe)
permettant de stocker des informations à long terme, y compris lors de l'arrêt de
l'ordinateur. La mémoire de masse correspond aux dispositifs de stockage
magnétiques, tels que le disque dur, aux dispositifs de stockage optique, correspondant
par exemple aux CD-ROM ou aux DVD-ROM, ainsi qu'aux mémoires mortes.
Une mémoire présente principalement 5 caractéristiques :





Sa capacité -> volume global d’informations pouvant être stocké, exprimée en bits
Son temps d’accès -> correspond au temps écoulé entre la demande (lecture/écriture)
et la disponibilité de la donnée.
Son temps de cycle -> correspond au temps minimum écoulé entre deux accès
succéssifs.
Son débit -> correspond au volume d’informations échangé par unité de temps (en
bits/sec)
Sa non volatilité -> correspond a l’aptitude de la mémoire a conserver des données
lorsqu’elle n’est plus alimentée en électricité.
La mémoire vive, généralement appelée RAM (Random Access Memory, traduisez mémoire
à accès direct), est la mémoire principale du système, c'est-à-dire qu'il s'agit d'un espace
permettant de stocker de manière temporaire des données lors de l'exécution d'un programme.
En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque
dur, la mémoire vive est volatile, c'est-à-dire qu'elle permet uniquement de stocker des
données tant qu'elle est alimentée électriquement. Ainsi, à chaque fois que l'ordinateur est
On distingue généralement deux grandes catégories de mémoires vives :

Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu
coûteuses. Elles sont principalement utilisées pour la mémoire centrale de l'ordinateur
;
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique

Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 5 sur 19
Les mémoires statiques (SRAM, Static Random Access Module), rapides et
onéreuses. Les SRAM sont notamment utilisées pour les mémoires cache du
processeur ;
Fonctionnement de la mémoire vive :
La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant
des charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas
contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire.
Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme
exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de
rafraîchissement. Les mémoires DRAM nécessitent par exemple des cycles de
rafraîchissement est d'environ 15 nanosecondes (ns).
Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou
de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau
(matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) par
une ligne et une colonne.
Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de
ligne (en anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas
instantané et s'effectue pendant un délai appelé temps de latence. Par conséquent l'accès à
une donnée en mémoire dure un temps égal au temps de cycle auquel il faut ajouter le temps
de latence.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 6 sur 19
Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de
délai de cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à
l'inverse de la fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le
temps de cycle est de 5 ns (1/(200*106)).
Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le
temps d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des
cycles d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur
cadencé à 200 MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de
60ns), il y a 11 cycles d'attente pour un cycle de transfert. Les performances de l'ordinateur
sont d'autant diminuées qu'il y a de cycles d'attentes, il est donc conseillé d'utiliser des
mémoires plus rapides.
Il existe différents types de mémoires vives. Elles se présentent toutes sous la forme de
barrettes de mémoire enfichables sur la carte mère.
En commençant par les plus anciennes, ces différents formats sont :
-SIMM (Single Inline Memory Module) : ce format se partage en deux types de barrettes :
SIMM a 30 connecteurs, mémoires 8 bits ayant équipé les premiers ordinateurs et les SIMM a
72 connecteurs capables de gérer 32 bits de données simultanément.
-DIMM (Dual Inline Memory Module) : sur ces barrettes, les puces mémoires sont situées de
part et d'autre du circuit imprimé. De plus, ce sont des mémoires 64 bits.
-RIMM (Rambus Inline Memory Module) : mémoires 64 bits développées par la société Rambus.
Vitesse de transfert élevée.
Les types de mémoire vive que l’on retrouve le plus actuellement sont :
La SDRAM
La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une
lecture des données synchronisée avec le bus de la carte-mère, contrairement aux mémoires
EDO et FPM (qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet
donc de s'affranchir des temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci
permet d'obtenir un cycle en mode rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles
par rapport à la RAM EDO. De cette façon la SDRAM est capable de fonctionner avec une
cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des temps d'accès d'environ 10 ns.
La DR-SDRAM (Rambus DRAM)
La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire
permettant de transférer les données sur un bus de 16 bits de largeur à une cadence de
800Mhz, ce qui lui confère une bande passante de 1,6 Go/s. Comme la SDRAM, ce type de
mémoire est synchronisé avec l'horloge du bus pour améliorer les échanges de données. En
contrepartie, la mémoire RAMBUS est une technologie propriétaire, ce qui signifie que toute
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 7 sur 19
entreprise désirant construire des barrettes de RAM selon cette technologie doit reverser des
droits (royalties) aux sociétés RAMBUS et Intel.
La DDR-SDRAM
La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie
SDRAM, permettant de doubler le taux de transfert de la SDRAM à fréquence égale.
La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les
mémoires DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à
lire ou à écrire une donnée à chaque front montant.
La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la
même fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front
descendant.
Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX
où «XXXX» représente le débit en Mo/s.
La DDR2-SDRAM
La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la
DDR à fréquence externe égale.
On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de
lecture et d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la
lecture et pour l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de
données que la DDR.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 8 sur 19
La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique
(240 pour la DDR2 contre 184 pour la DDR).
La mémoire morte (ROM)
La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture
seule) est un type de mémoire permettant de conserver les informations qui y sont contenues
même lorsque la mémoire n'est plus alimentée électriquement. A la base ce type de mémoire
ne peut être accédée qu'en lecture. Toutefois il est désormais possible d'enregistrer des
informations dans certaines mémoires de type ROM.
Mémoire flash
La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires
mortes. En effet, la mémoire Flash possède la non-volatilité des mémoires mortes tout en
pouvant facilement être accessible en lecture ou en écriture. En contrepartie les temps d'accès
des mémoires flash sont plus importants que ceux de la mémoire vive.
Compilateur
Un compilateur est un programme permettant de traduire un langage source en un langage
appelé langage cible. Un compilateur sert souvent aussi à optimiser le code pour une
exécution plus rapide et une occupation moindre de la mémoire.
Donnée
Une donnée peut se présenter sous différentes formes (papier, numérique, alphabétique,
images, sons …)
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 9 sur 19
Elle correspond à une description élémentaire, souvent codée, d'une chose, d'une transaction
d'affaire, d'un événement, etc.
Pentium Core 2 Duo
Anciennement appelé Conroe, le Pentium Core 2 Duo est un processeur de nouvelle
génération. Il vient remplacer le Pentium 4 qui avait déçue aux vues de ses performances. Ce
nouveau processeur intègre un double cœur pour un maximum de performances.
Semi-conducteur
Les semi-conducteurs sont des matériaux présentant une conductivité électrique intermédiaire
entre les métaux et les isolants. Ils sont très utilisés en electronique car ils permettent de
réguler un flux electrique mais aussi d’imposer un sens au courant. Les semi-conducteurs
servent à la confection des diodes, transistors, thyristors, circuits intégrés etc …
Barrière de potentiel
Transistor
Le transistor est un composant électronique pouvant avoir plusieurs fonctions : utilisé pour
l’amplification, il sert aussi à stabiliser une tension, moduler un signal …
3 AXES DE RECHERCHES
3.1 Axe de recherche n : 1
Histoire de l’ordinateur.
Les Chinois puis les Arabes utilisent très tôt (premier millénaire) des roues dentées munies
d'ergots pour fabriquer des mécanismes d'horlogerie.
Wilhelm Schickard, en 1623, s'inspire de ce système pour construire une machine capable
d'exécuter automatiquement additions et soustractions.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 10 sur 19
La machine de Schickard (1623).
Afin d'aider son père collecteur d'impôts à Rouen, Blaise Pascal travaille trois années durant
sur une machine à effectuer des additions, soustractions et à convertir les nombreuses
monnaies de l'époque les unes dans les autres : La Pascaline. La Pascaline est une boîte de
cuivre rectangulaire sur laquelle 8 volants représentent les unités, dizaines, centaines, que
l'on bouge avec un petit stylet. Lorsqu'un cadran effectue un tour complet à partir de 0, il
incrémente d'une unité le cadran suivant, etc. Ce principe est à la base de la retenue
automatique. Les valeurs de chaque cadran peuvent être lues dans une petite fenêtre située
en haut du cadran.
La Pascaline (1643).
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 11 sur 19
Wilhelm Leibniz, en 1673, construit une machine effectuant automatiquement les additions,
soustractions, multiplications et les divisions.
La machine de Leibniz (1673).
La machine de Babbage
Plus ambitieux, Charles Babbage se fixa pour objectif la réalisation d'une machine "capable
de résoudre n'importe quelle équation et d'exécuter les opérations les plus compliquées de
l'analyse mathématique". On pouvait effectuer avec les machines arithmétiques existantes des
opérations, mais on ne pouvait réaliser de suite de calculs.
Il existait pourtant en horlogerie depuis le XIVe siècle des automates capables d'exécuter des
séries d'ordres : les Jacquemarts. Les Jacquemarts sont des automates qui frappent les heures
après une série de mouvements plus ou moins complexes sur la cloche d'une horloge. Ces
automates obéissaient à un mécanisme mû par des roues dentées ou des cylindres à ergots, qui
n'étaient malheureusement pas modifiables : on ne pouvait donc pas modifier les mouvements
d'une exécution à l'autre.
En 1805, Jacquard construit un métier à tisser mécanique utilisant les cartes perforées : un
trou dans une carte laisse passer l'aiguille. Un plein la repousse. Une carte correspond au
filage d'une trame et le tissage d'une pièce nécessite l'utilisation d'une suite de cartes : le
programme. Une des caractéristiques fondamentales du métier à tisser de Jacquard est la
séparation entre le "mécanisme de commande" et le "mécanisme d'exécution".
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 12 sur 19
Métier à tisser de Jacquard (1805).
Cliquez pour une plus grande image.
Lorsqu'il conçoit sa machine analytique, en 1833, Babbage s'inspire de la technique des
Jacquemarts et de celle du métier à tisser de Jacquard. Il définit les règles de construction
d'une machine à calculer :
La machine de Babbage comporte :
 Une unité d'entrée pour communiquer le traitement de la machine.
 Une mémoire pour stocker les données et les résultats intermédiaires.
 Une unité de commande pour contrôler l'exécution du traitement.
 Une unité arithmétique et logique pour réaliser les calculs.
 Une unité de sortie pour lire les résultats
La machine de Babbage (modèle reconstitué d'après les plans d'origine).
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 13 sur 19
A la fin de l'année 1938, les laboratoires Bell autorisèrent le développement d'un calculateur à
relais grandeur nature basé sur le modèle de Stibitz. Stibitz et son équipe (dont Samuel
Williams) commencèrent la construction de ce calculateur en avril 1939. La machine fut
terminée le 8 janvier 1940, et fut dénommée Complex Number Calculator, Calculateur de
Nombres Complexes, ou bien encore Model I. Ce calculateur, travaillant en DCB (Décimal
Codé Binaire), était composé de 450 relais électromécaniques et pouvait multiplier deux
grands chiffres en une minute.
Le 11 septembre de cette même année, durant un meeting de l'American Mathematical
Society au Darmouth College, le docteur Stibitz utilisa un télétype pour transmettre un
problème à résoudre au Complex Number Calculator et pour recevoir les résultats. Cette
expérience est considérée comme étant le premier exemple mondial de travail commandé à
distance, une technique qui révolutionnera la dissémination de l'information au travers des
réseaux téléphoniques et informatiques.
En 1941, Howard Aiken commence à travailler sur un calculateur dénommé Mark I. Le Mark
I utilise des banques de relais électromécaniques comme autant d'interrupteurs. Ce calculateur
peut résoudre en une journée des problèmes qui prendraient 6 mois à un utilisateur de
machine à calculer classique, réalisant trois opérations par seconde.
Le rêve de Babbage est concrétisé, en 1944, par l'apparition du calculateur connu sous le nom
de "machine Harvard-IBM". Elle est pilotée par un programme stocké sur une bande de papier
perforée, utilise une horloge pour contrôler le déroulement des opérations. Elle effectue une
addition en 0,3 seconde, une multiplication en 6 secondes et une division en 11,4 secondes sur
des nombres de 23 chiffres décimaux. Ce premier véritable calculateur universel utilise encore
des roues tournant électriquement et pèse près de 5 tonnes !
Le 14 février 1946, J.P.Eckert et John Mauchly mettent au monde l'ENIAC (pour Electronic
Numerical Integrator and Computer), le premier calculateur à utiliser des éléments
électroniques : des tubes à vides. Il calcule 500 fois plus vite que la machine Harvard-IBM et
peut effectuer 5.000 additions ou soustractions, 350 multiplications ou bien encore 50
divisions par seconde. Mais il reste monstrueux : il pèse 30 tonnes, occupe une surface au sol
de plus de 150 mètres carrés, utilise 100.000 composants dont 17.000 tubes à vide et dégage
suffisamment de chaleur pour chauffer un immeuble !
Mais son défaut essentiel est d'être commandé par un tableau de connexion qu'il faut modifier,
fiche après fiche, pour effectuer un nouveau travail, ce qui peut demander plusieurs jours.
Cet inconvénient fut à l'origine des programmes enregistrés. John Von Neumann, concrétisant
les recherches de Eckert et Mauchly (véritables inventeurs de la notion de programmes
enregistré) met au point l'EDVAC (pour Electronic Discrete Variable Automatic Computer),
en 1945, ouvrant la voie aux ordinateurs actuels.
Les unités d'entrée et de sortie utilisent des cartes perforées.
Cette architecture est remarquablement proche de celle de tous les ordinateurs actuels. La
technologie de l'époque, uniquement mécanique, n'a malheureusement pas permis de faire
fonctionner correctement la machine de Babbage.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
3.2 Axe de recherche n : 2
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 14 sur 19
Fonctionnement d’un transistor.
Pour effectuer le traitement de l'information, le microprocesseur possède un ensemble
d'instructions, appelé « jeu d'instructions », réalisées grâce à des circuits électroniques. Plus
exactement, le jeu d'instructions est réalisé à l'aide de semiconducteurs, « petits interrupteurs
» utilisant l'effet transistor, découvert en 1947 par John Barden, Walter H. Brattain et
William Shockley qui reçurent le prix Nobel en 1956 pour cette découverte.
Un transistor (contraction de transfer resistor, en français résistance de transfert) est un
composant électronique semi-conducteur, possédant trois électrodes, capable de modifier le
courant qui le traverse à l'aide d'une de ses électrodes (appelée électrode de commande). On
parle ainsi de «composant actif», par opposition aux « composants passifs », tels que la
résistance ou le condensateur, ne possédant que deux électrodes (on parle de « bipolaire »).
Le transistor MOS (métal, oxyde, silicium) est le type de transistor majoritairement utilisé
pour la conception de circuits intégrés. Le transistor MOS est composé de deux zones
chargées négativement, appelées respectivement source (possédant un potentiel quasi-nul) et
drain (possédant un potentiel de 5V), séparées par une région chargée positivement, appelée
substrat (en anglais substrate). Le substrat est surmonté d'une électrode de commande,
appelée porte (en anglais gate, parfois également appelée grille), permettant d'appliquer une
tension sur le substrat.
Lorsqu'aucune tension n'est appliquée à l'électrode de commande, le substrat chargé
positivement agit telle une barrière et empêche les électrons d'aller de la source vers le drain.
En revanche, lorsqu'une tension est appliquée à la porte, les charges positives du substrat sont
repoussées et il s'établit un canal de communication, chargé négativement, reliant la source au
drain.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 15 sur 19
Le transistor agit donc globalement comme un interrupteur programmable grâce à l'électrode
de commande. Lorsqu'une tension est appliquée à l'électrode de commande, il agit comme un
interrupteur fermé, dans le cas contraire comme un interrupteur ouvert.
3.3 Axe de recherche n : 3
Architecture du processeur.
3.4 Axe de recherche n : 4
Architecture d’une UC.
Une unité centrale rassemble un nombre important de composants, chacun ayant sa fonction
quant au fonctionnement de l’ordin

Horloge système : elle contrôle et synchronise le microprocesseur et les
composants associés. Sa vitesse, encore appelée fréquence, est exprimée en mégahertz
(MHz). Plus cette fréquence est élevée, plus le processeur sera efficace.

Le microprocesseur : c'est l'élément principal de l'ordinateur. Il traite et fait
circuler les données. Plus cette circulation d'information est rapide, plus l'ordinateur
sera jugé performant. L'évolution des technologies permet d'obtenir des vitesses en
permanente progression et des technologies spécifiques, comme le MMX permet
d'accélérer encore les fonctions multimédia.

La mémoire vive : on l'appelle aussi mémoire centrale ou RAM (Random
Acces Memory). C'est l'endroit où l'ordinateur stocke temporairement les données et
programmes qu'il est en train d'utiliser. Un temporaire qui dure tant que l'on ne coupe
pas le courant. Les puces mémoires (en fait DRAM, D pour dynamique) sont soudées
sur la carte mère. La taille mémoire peut s'augmenter par ajout de RAM sous forme de
barrettes. Plus de mémoire accélère l'ordinateur, car on évite des appels fréquents au
disque dur.

La mémoire cache : la transmission d'informations entre processeur et
mémoire vive est souvent bien plus lente que le potentiel de vitesse du
microprocesseur. Pour pallier à cela, les processeurs intègrent une petite zone de
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 16 sur 19
mémoire ultra-rapide où sont conservées les instructions et données qui reviennent le
plus souvent. Mais cette mémoire interne est de petite taille, quelques dizaines de Ko
pour les systèmes plus anciens et peut aller jusqu'a 2Mo sur les systèmes plus récent.

Connecteurs d'extensions : ce sont des emplacements disponibles sur la carte
mère destinés à recevoir des cartes d'usages divers. Il existe plusieurs normes de
connexion, dites bus.

Entrées/sorties : tous les ordinateurs comportent des ports série et parallèle
pour la liaison avec des périphériques de type imprimante, modem, .....

Mémoire vidéo : le mémoire, dite VRAM, où se stockent les images à afficher
à l'écran. Il en faut d'autant plus que ces images doivent s'afficher vite.

Les cartes vidéos : indépendantes, placées sur un connecteur d'extension, elles
permettent de décharger le microprocesseur des calculs de l'affichage. Elles
contiennent la VRAM et donc cette dernière ne se trouve plus directement sur la carte
mère.

Les cartes son : elles permettent de d'enregistrer et de reproduire du son, et de
piloter un lecteur de CD-ROM. Elles se branchent sur un connecteur d'extension.
3.5 Axe de recherche n : 5
modules.
Etudier les modes de communication entre les différents
Tous ces composants ont besoin d’être reliés entre eux pour pouvoir fonctionner correctement
et ensemble. C’est la qu’interviennent les bus : ce sont des liaisons ( câbles, circuits imprimés
.. ) pouvant être exploitées en commun par plusieurs éléments matériels afin de communiquer.
Chaque composant est alors relié au bus ce qui évite de relier tous les composants entre eux.
On appelle aussi les bus : « autoroutes de données ».
Un bus est caractérisé par le volume d'informations transmises simultanément. Ce volume,
exprimé en bits, correspond au nombre de lignes physiques sur lesquelles les données sont
envoyées de manière simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en
parallèle. On parle ainsi de « largeur » pour désigner le nombre de bits qu'un bus peut
transmettre simultanément.
D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz),
c'est-à-dire le nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle
pour désigner chaque envoi ou réception de données.
De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert
maximal), c'est-à-dire la quantité de données qu'il peut transporter par unité de temps, en
multipliant sa largeur par sa fréquence
On distingue généralement sur un ordinateur deux principaux bus :
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique


Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 17 sur 19
le bus système (appelé aussi bus interne, en anglais internal bus ou front-side bus,
noté FSB). Le bus système permet au processeur de communiquer avec la mémoire
centrale du système (mémoire vive ou RAM).
le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants
de la carte-mère (USB, série, parallèle, cartes branchées sur les connecteurs PCI,
disques durs, lecteurs et graveurs de CD-ROM, etc.) de communiquer entre eux mais
il permet surtout l'ajout de nouveaux périphériques grâce aux connecteurs d'extension
(appelés slots) connectés sur le bus d'entrées-sorties.
Le chipset tient lui aussi un rôle important quand à la communication entre les différents
composants. C’est lui qui est chargé d’aiguiller les informations entre les différents bus de
l’ordinateur afin de permettre une communication entre les composants. Le chipset était
originalement composé d'un grand nombre de composants électroniques, ce qui explique son
nom. Il est généralement composé de deux éléments :


Le NorthBridge (Pont Nord ou Northern Bridge, appelé également contrôleur
mémoire) est chargé de contrôler les échanges entre le processeur et la mémoire vive,
c'est la raison pour laquelle il est situé géographiquement proche du processeur. Il est
parfois appelé GMCH, pour Graphic and Memory Controller Hub.
Le SouthBridge (Pont Sud ou Southern Bridge, appelé également contrôleur
d'entrée-sortie ou contrôleur d'extension) gère les communications avec les
périphériques d'entrée-sortie. Le pont sud est également appelé ICH (I/O Controller
Hub).
On parle généralement de bridge (pont) pour désigner un élément d'interconnexion entre
deux bus.
4 HYPOTHESES
4.1 Hypothèse n : 1 L’ordinateur est arrivé avant l’électricité.
La Pascaline ou encore la machine de Babbage peuvent être considérées comme ordinateur
car elles intégraient le principe de programmation. Or ces machines (entres autres) datent du
17e siècle, bien avant l’invention de l’électricité Premiere Exposition Internationale de
l’Electricité en France en 1881 -> naissance de l’electrotechnique)
4.2 Hypothèse n : 2 Le transistor a révolutionné l’informatique.
C’est vrai. Le transistor a eu un grand impact dans le monde de l’electronique. De nos
jours, on le retrouve dans n’importe quel circuit electronique, et en grande quantité dans nos
ordinateurs.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 18 sur 19
4.3 Hypothèse n : 3 L’ordinateur est composé de différents modules qui communiquent
entre eux (bus, câbles, 0 et 1 …).
Vrai, un ordinateur est un assemblage de plusieurs composants ayant chacun leur
fonctionnalité et reliés entre eux par des câbles (bus .. ) permettant un transfert rapide des
informations entre ces différents modules.
4.4 Hypothèse n : 4 : Les transistors sont miniaturisés pour pouvoir entrer dans un
processeur.
Les premiers processeurs comportaient un nombre assez limité de transistors (1971
processeur 4004 -> 2300 transistors). Ce nombre a considérablement augmenté au cours des
années (2006 Core 2 Duo : 291 Millions de transistors) mais le microprocesseur est toujours
resté aussi compact.
L’évolution la plus important touche donc la taille des transistors. Ils sont de plus en plus
miniaturisés pour pouvoir en mettre un maximum dans un processeur.
CAHIER D’ETUDES
ET DE RECHERCHE
Electronique
Nom :
Prénom :
Promo : PO58X201
1er cycle CDIL
Date de création :
Page 19 sur 19
5 SYNTHESE DE LA PROBLEMATIQUE
L’ordinateur est apparu dans un premier temps sous forme mécanique. Pour simplifier les
calculs de tous les jours, Pascal, Schickard, et d’autres savants au 17e siècle ont cherché à
mettre au point des machines à calculs. Babbage s’inspire d’une méthode de programmation
utilisé dans les métiers à tissus, programmés grâce a des plaques perforées pour concevoir une
machine programmable, mais son projet n’arrivera pas à termes. Le premier ordinateur
électronique fut crée en 1937.
Depuis, un grand nombre de choses ont changé chez les ordinateurs. Le système de
programmation est entièrement électronique, et l’ordinateur se décompose en un assemblage
de modules, tous reliés entre eux et possédant chacun des caractéristiques spécifiques.
L’arrivée du transistor en électronique a permis un grand nombre d’évolutions. Les
processeurs, cœurs des ordinateurs, peuvent intégrer de plus en plus de transistors en les
miniaturisants afin d’atteindre toujours de nouvelles performances.
Ainsi tous les composants subissent des améliorations de plus en plus efficaces. Les liaisons
entre les composants sont aussi de plus en plus simplifiées afin de gagner en performances.
Téléchargement