LES
SUPER-ORDINATEURS
Un ordinateur
fait au bas mot
1 million
d'opérations à la
seconde, mais il
a que ça à penser,
aussi.
- J.M. Gourio "Bves de comptoir 1988"
CRAY 1
Les superordinateurs M.DALMAU, IUT de BAYONNE
2
1 Mesure des performances
La mesure des performances de gros ordinateurs, en général constits de plusieurs processeurs en parallèle (parfois
plusieurs milliers), est relativement difficile. On indique géralement la puissance théorique qui est la somme de celles
des processeurs constituants mais on s’intéresse aussi à la puissance mesurée lors de benchmarks
1
qui tient mieux
compte de la réalité du fonctionnement.
L’unide mesure n’est plus le nombre d’instructions par seconde (mesuen millions d’instructions par seconde ou
MIPS) mais le nombre d’opérations sur des réels par seconde (FLOPS). C’est ce que mesurent les benchmarks. Les
multiples de cette unité sont le megaFLOPS (1 MFLOPS = 10
6
FLOPS) et le teraFLOPS (1 TFLOPS = 10
9
FLOPS).
2 Un peu d’histoire
Des tentatives de réalisation de super-ordinateurs utilisant des architectures non Von Neumann en néral de type
parallèle ont été entreprises très tôt.
La première est, peut être, le BIZMAC de RCA, commenen 1952, il faisait appel à des petits ordinateurs satellites
sous-traitant certains travaux (échanges, tris ...). Malheureusement, il ne sera terminé qu’en 1958, époque à laquelle il
était déjà dépassé.
Pour le reste voici quelques événements clés :
1955 : IBM produit le 704 qui atteint les 5 KFLOPS.
1956 : Quelques projets ambitieux démarrent cette année là :
. L’IBM 7030 (STRETCH) qui atteint 500 KFLOPS dont quelques exemplaires seront vendus à partir de 1959.
. L’ATLAS de l’université de Manchester et Ferranti, terminé en 1962, est la première machine a utiliser lamoire
virtuelle, l’exécution des instructions en pipeline et la mise en parallèle de certains opérateurs de l’UAL. Il atteint
200 KFLOPS.
1958 : En France, Bull fabrique la GAMMA 60 dont l’unid’échange et les trois unités de traitement fonctionnent en
parallèle. Elle posde des instructions pour le parallélisme (fork et join).
1960 : CDC (Control Data Corporation) créée en
1958 lance le développement du CDC
6600 qui sera le premier super-ordinateur
commercial en 1963. C’est un processeur
60 bits doté de 10 unités d’entrées/sorties
en parallèle. Il offrira une puissance de 3
MIPS.
1964 : Sous l’impulsion de l’Atomic Energy
Commission et de l’US Air Force,
plusieurs projets importants démarrent : en
particulier le CDC STAR-100 et
l’ILLIAC-IV (université de l’Illinois,
Burroughs et Texas Instruments). Ce dernier est conçu autour de blocs de 16 processeurs. Une version de
l’ILLIAC-IV à 64 processeurs sera utilisée par la NASA en 1975.
1966 : Bernstein amorce les travaux sur la programmation parallèle tandis que Flynn propose une taxonomie des
architectures d’ordinateurs.
1967 : L’institut de mécanique de précision et de technologie des ordinateurs (ITMVT) de Moscou produit le BESM-6.
C’est une machine à 48 bits atteignant 1 MIPS. Elle contient une mémoire virtuelle et un processeur en pipeline.
1968 : E. Dijkstra introduit les sémaphores qui résolvent les problèmes de concurrence et D. Adams décrit un modèle de
flot de données (Dataflow).
L’IBM 2938 est le premier Array Processor commercialisé, il atteint les 10 MFLOPS en 32 bits.
1
Un benchmark est un programme spécialement écrit pour tester les performances d’un type de machine. Pour les ordinateurs parallèles, on
utilise souvent des programmes de résolution de systèmes d’équations linéaires (Linpack).
CDC 6600
Les superordinateurs M.DALMAU, IUT de BAYONNE
3
1969 : G. Paul, W. Wilson et C. Cree réalisent le langage VECTRAN qui est une extension de FORTRAN permettant
d’exprimer du parallélisme. Un compilateur réellement parallèle : le PFC (Parallel Fortran Compiler) sera
écrit en 1980 par K. Kennedy à l’université de Rice.
Honeywell propose son système d’exploitation Multics capable de gérer des machines ayant jusqu’à 8
processeurs (le nom "Unix" a été choisi en référence à Multics).
1970 : L’ambitieux projet C.mmp débute à Carnegie Mellon. Il sera terminé en 1977 tandis que, dès 1975, avait
démarré le projet Cm*. Dans les deux cas, il s’agit d’étudier des architectures à partir de multiples processeurs
fortement connectés (16 mini-ordinateurs PDP-11 de DEC pour Cm*).
1971 : CDC réalise le Cyberplus qui est une machine de traitement parallèle d’images radar qui atteint des performances
250 fois supérieures au CDC 6600.
1972 : S. Cray quitte CDC pour fonder Cray Research Inc. qui sera la première société exclusivement consacrée aux
super-ordinateurs.
Goodyear produit le STARAN constitué de 4x256 processeurs à 1 bit travaillant autour d’une mémoire
associative. STARAN sera utilisé pour faire du contrôle aérien.
Burroughs réalise PEPE (Parallel Element Processor Ensemble) constitué, quant à lui, de 8x36 processeurs
autour d’une mémoire associative.
1976 : Production du Cray 1, premier super-ordinateur de la firme Cray. C’est un monoprocesseur vectoriel qui atteint
les 133 MFLOPS et doit être refroidi au fréon.
A. Davis de l’universide l’Utah construit avec Burrroughs le premier ordinateur Data-flow (DDM1) dont le
principe d’architecture avait été décrit dès 1974 par J. Dennis et D. Misunas.
1978 : Kung et Leiserson publient un papier sur les réseaux systoliques qui utilisent la circulation de l’information
comme puissance de calcul.
1979 : Au CERT de Toulouse est réalisé le premier multiprocesseur data-flow avec 32 processeurs. Il utilise le modèle
statique LAU (Langage à Assignation Unique).
1982 : Cray produit le X/MP utilisant 2 processeurs vectoriels en parallèle pour
atteindre les 500 MFLOPS. Cette famille sera étendue à des modèles à
4 processeurs en 1984 .
Hitachi présente la série des S-810 dont le premier atteint 800 MFLOPS.
Fujitsu, avec son VP-200 entre aussi sur le marché des processeurs
vectoriels. Il atteint 500 MFLOPS.
1983 : NEC présente le SX-1 qui est aussi un ordinateur vectoriel. Avec le VP-
200 et le S-810 il confirme l’entrée en force de l’industrie japonaise
dans ce type de machines.
Goodyear Aerospace installe le MPP (Massively Parallel Processor) à la
NASA. cette machine contient 16K processeurs organisés en matrice
128x128 et ayant chacun une mémoire de 1024 bits.
1985 : La Connection Machine CM-1 dont l’architecture avait été décrite en 1981 par D. Hillis est présentée par
Thinking Machine Corp. (TMC). Elle peut comporter jusqu’à 65536 processeurs à 1 bit connectés en
hypercube.
INTEL réalise un hypercube appelé iPSC/1 à partir de processeurs 80286 alors que nCube produit le nCUBE/10.
Il s’agit dans les deux cas d’architectures massivement parallèles.
Naissance du Cray-2, avec son horloge à 4,1 ns il atteint les 1,9 GFLOPS.
INMOS produit le premier transputer (T414) qui est un microprocesseur spécialement adapà la réalisation
d’architectures massivement parallèles et de réseaux systoliques. Il utilise le langage Occam défini par D.
May en 1983.
Fujitsu produit le VP-400 et NEC le SX-2 qui peut atteindre les 1,3 GFLOPS avec un seul processeur.
1987 : TMC présente la Connection Machine CM-2 constituée de 65535 processeurs à 1 bit organisés en hypercube et
de 2048 processeurs en virgule flottante (Weitek). Elle atteint 14 GFLOPS.
1988 : INMOS produit le T800, transputer capable de calculs sur des réels.
CRAY X/MP
Les superordinateurs M.DALMAU, IUT de BAYONNE
4
Silicon Graphics présente les stations de travail graphiques de la Power
Serie utilisant jusqu’à 8 processeurs RISC R2000.
Le Cray Y/MP offre, avec ses 8 processeurs vectoriels, une puissance de
calcul de 2,6 GFLOPS.
1990 : NEC produit son premier multiprocesseur, le SX-3. Il contient 4
processeurs vectoriels et fonctionne avec un cycle d’horloge de
2,9ns, sa mémoire est de 4 Go. Il peut atteindre 22 GFLOPS .
Le VP-2600 de Fujitsu peut, quant à lui, atteindre les 5 GFLOPS avec
un seul processeur.
1991 : Un nCube 2 doté de 64 processeurs, de 48 processeurs d’entrée sortie et
de 205 disquesalise 1073 transactions par seconde sur une BD.
Cray produit le Y/MP C90 avec 16 processeurs pour 500 MFLOPS.
1992 : TMC présente la Connection Machine CM-5 constituée de 1024 processeurs SPARC qui atteint 60 GFLOPS.
1993 : CRAY produit le T3D pouvant être équipé de 2048 processeurs et atteindre les 300 GFLOPS.
Fujitsu crée le Numerical Wind Tunnel constit de 140 processeurs. Chaque processeur est un ordinateur
vectoriel avec 256 Mo de mémoire et une performance de 1.6 GFLOPS.
1996 : Lancement du projet ASCI (Accelerated Strategic Computer Initiative) dont l'objectif est de produire des
machines capables de dépasser le TFLOP. INTEL y répondra par l'ASCI RED qui sera le premier à dépasser le
TFLOP en décembre 1996, SGI par l'ASCI Blue Mountain et IBM par l'ASCI Blue Pacific.
3 Evolution des performances des super-ordinateurs :
En traçant la courbe de l’évolution des performances des machines on peut constater qu’elle suit une progression
exponentielle (l’axe vertical a une échelle logarithmique).
100 G
10 G
100 M
10 M
10 T
1 T
1 G
1 M
1955 1960 1965 1970 1975 1980 1985 1990 1995 2000 2005
Performance en FLOPS
Années
100 T
2010
1000 T
CRAY Y/MP
Les superordinateurs M.DALMAU, IUT de BAYONNE
5
Le segment de droite placé au dessous indique la puissance de calcul disponible, à la même époque, sur microordinateur
(on peut constater que sur les 10 dernières années l'écart s'est creusé puisque l'on passe d'un rapport de 5000 à un
rapport de 110000).
4 Les architectures utilisées
On distingue 2 types d'architectures (selon la taxonomie de Flynn) :
SIMD (Single Instruction Multi Data) qui sont constituées selon le cas :
- d’un seul processeur capable de traiter simultanément plusieurs données (processeur vectoriel)
- de processeurs en très grand nombre (plusieurs milliers) qui exécutent tous le me programme sur différentes
données (array processor).
MIMD (Multi Instruction Multi Data) qui sont des architectures constites de plusieurs processeurs interconnectés.
Certaines architectures utilisent une ou plusieurs mémoires partagées par tous les processeurs d'autres des
mémoires locales à chaque processeur parfois accessibles par les autres processeurs. D'autres sont constitués de
grappes de processeurs ou encore de stations de travail reliées par un réseau rapide.
Nous allons présenter quelques unes des machines les plus représentatives :
4.1 Les SIMD
4.1.1 Les processeurs vectoriels
Au départ il s'agissait de machines monoprocesseur spécialement adaptées au calcul vectoriel et matriciel. Elles ne
dépassaient pas quelques GFLOPS. Elles ont connu leur heure de gloire mais on n'en rencontre plus beaucoup. Leurs
performances sont largement dépassées par des architectures MIMD. Actuellement les processeurs vectoriels sont
devenus plus rares et sont utilisés comme cœurs de machines multiprocesseurs.
Constructeur Modèle
Cycle d’horloge
pour les calculs
vectoriels
Cycle d’horloge
pour les calculs
scalaires
Performance
maximale
(en GFLOPS)
Mémoire
maximale
(en Go)
NEC Earth
Simulator
3,1ns 3,1ns 102,4 16
Fujitsu VPP 5000/U 3,3ns 3,3ns 9,6 16
NEC SX-6i 2ns 2ns 8 8
Hitachi S-3800/180 2 ns 6 ns 8 2
NEC SX-3 2,5 ns 2,5 ns 6,4 8
Fujitsu VPX 260 3,2 ns 6,4 ns 5 2
NEC SX5S 4 ns 4 ns 4 4
Hitachi S-820/80 4 ns 8 ns 3 1
Fujitsu VX 7 ns 7 ns 2,2 2
Hitachi S-3600/180 4 ns 8 ns 2 1
NEC SX-4C 8 ns 8 ns 2 2
4.1.2 Les array processors
Ce sont des machines massivement parallèles comportant un grand nombre de processeurs élémentaires simples et
relativement peu puissants exécutant tous les mêmes instructions. Leur puissance vient essentiellement du nombre élevé
de ces processeurs. Ces machines sont réservées à des usages très spécifiques pour lesquels elles offrent des puissances
pouvant atteindre le TFLOPS. On n’en rencontre plus beaucoup et la plupart sont des machines déjà anciennes.
Constructeur Modèle Cycle
d’horloge
(en ns)
Nombre maximal de
processeurs
Performance
maximale
(en GFLOPS)
Mémoire
maximale
(en Go)
Quadrics APEmille 3,75 2048 = 32x8x8 (tore 3D) 1024 32Mo par proc
Thinking Machine
Corp.
CM-200 100 65536 en hypercube de
dimension 12
655,36 8
Thinking Machine
Corp.
CM-2 142 65536 en hypercube de
dimension 12
459 8
INFN APE-100 40 2048 = 8x16x16 (tore 3D) 102,4 4
1 / 10 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !