Le client léger est un concept informatique. On a aujourd`hui une

publicité
Informatique 1
COURS D’INFORMATIQUE
SCIENCES PO AIX
1ERE ANNEE
Informatique 2
SOMMAIRE
CHAPITRE 1.............................................................................................................................................. 3
INTRODUCTION A LA MACHINE ............................................................................................................. 3
I.
ETUDE DE LA STRUCTURE DES SYSTEMES INFORMATIQUES.......................................................................... 6
1)
ORGANES D’ENTREE ............................................................................................................................. 6
2)
LES ORGANES DE STOCKAGE ................................................................................................................... 9
3)
LES ORGANES DE TRAITEMENT .............................................................................................................. 18
4)
LES PORTS DE COMMUNICATION ........................................................................................................... 21
5)
LES ORGANES DE SORTIES OU PERIPHERIQUES ......................................................................................... 23
II.
LES PROGRAMMES INFORMATIQUES ..................................................................................................... 24
1)
LES DIFFERENTS LOGICIELS ................................................................................................................... 24
2)
LES LANGAGES DE PROGRAMMATION .................................................................................................... 26
3)
LES PROGRAMMES D’APPLICATION ........................................................................................................ 28
4)
LES VIRUS ET ANTIVIRUS ...................................................................................................................... 29
CHAPITRE 2............................................................................................................................................ 31
L’ORGANISATION DES SYSTEMES INFORMATIQUES ........................................................................... 31
I.
LES TOPOLOGIES D’ORDINATEUR .......................................................................................................... 31
1)
LES TOPOLOGIES PHYSIQUES................................................................................................................. 32
2)
LES TOPOLOGIES LOGIQUES .................................................................................................................. 34
Informatique 3
CHAPITRE 1
INTRODUCTION A LA MACHINE
Un ordinateur est une machine de traitement automatique de l’information. Une polyvalence des
tâches est possible grâce aux logiciels informatiques. Il diffère ainsi d’une calculatrice par exemple
qui ne peut effectuer qu’une seule tâche à la fois, celle de calculer.
Ordinateur = Matériel + Logiciel (hardware + software) C’est un assemblage de circuits
électroniques et éléments électromagnétiques (ex : disque dur, lecteur CD, ventilateur etc.)
Ainsi, un ordinateur est un ensemble d’éléments électromagnétiques et de circuits électriques qui
grâce aux logiciels vont manipuler des données, les traiter sous forme binaire.
Les logiciels représentent l’ensemble des programmes, il y a plusieurs niveaux logiciels :
-
1er niveau : Les systèmes d’exploitation
2ème niveau : Les langages de programmation
3ème niveau : Les programmes d’application
Il existe plusieurs moyens de sécurité afin de préserver l’ordinateur d’une éventuelle panne ou
dysfonctionnement. Un ordinateur peut contenir plusieurs disques durs (notamment sur les
ordinateurs « sensibles »). Ainsi, si le disque dur tombe en panne, on bascule automatiquement sur
un autre disque dur afin de ne pas perdre les données et éviter la rupture du système. On appelle ces
ordinateurs des systèmes à tolérance de panne.
Sinon, on protège un système informatique grâce à un onduleur, qui alimentera le serveur en cas de
coupure de courant. Il est constitué de batteries. L’onduleur dure entre 10 et 30 min, afin de
permettre aux personnes d’arrêter proprement le système, qui ne subit pas de coupure brutale
(L’onduleur protège donc de la coupure brutale). Il est utilisé lorsque les systèmes sont « sensibles »
(ex : Air France).
Il existe deux catégories d’onduleur :
 Les ON LINE : Le courant distribué par EDF (ou autre) passe dans l’onduleur dans tous les cas,
ce qui fait qu’en cas de panne, il n’y a aucune différence et l’ordinateur n’est pas « touché ».
 Les OFF LINE : Ils sont moitié moins chers que les ON LINE. Ils sont bien moins performants
car ils ne repèrent pas toujours les microcoupures. C'est-à-dire que le courant distribué par
EDF ne passe pas dans l’onduleur, il n’y passe qu’en cas de panne et l’ordinateur subit les
microcoupures.
Informatique 4
Par suite, si la panne de courant est une panne prolongée, on a recours à des groupes électrogènes
qui fabriquent du courant et « remplacent » EDF. Dans tous les cas, ils interviennent suite à
l’onduleur, qui protège de la panne brutale.
Le dernier moyen de sécurité est la réplication du serveur (basculement vers un serveur de secours
en quelques secondes).
Il existe deux notions de compatibilité :
 Compatibilité matérielle : elle consiste à pouvoir déplacer les éléments d’un ordinateur à
l’autre. Par exemple, Mac n’a pas de compatibilité matérielle avec d’autres ordinateurs, du fait
d’un coût de production élevé.
 Compatibilité logicielle : elle n’est pas toujours possible. Un même logiciel n’est pas forcément
le même d’un ordinateur à l’autre (ex : Word pour Mac n’est pas compatible avec Word pour
HP). Pour que le logiciel soit compatible, il faut qu’il réponde aux critères du 1er niveau (=
système d’exploitation). Un programme va fonctionner sur un système mais pas sur un autre.
Par exemple, il existe une compatibilité entre Windows et Intel, le WINTEL, qui représente
actuellement plus de 90 % des PC. Le PC (Personal Computer) est lancé en 1981 par IBM. Jacques
Perret, à la demande d’IBM, décide d’appeler cette nouvelle machine « Computer » (ordinateur) qui
signifie calculateur et « Dieu mettant de l’ordre dans le monde ». L’ordinateur a très vite évolué grâce
aux interfaces et à la conception de nouveaux éléments matériels compatibles. Une interface est un
élément matériel que l’on ajoute entre les éléments pour qu’ils puissent communiquer et
fonctionner (ex : faire fonctionner un robot à l’aide d’un système informatique). L’entrée de données
se fait par le clavier. Puis le traitement est assuré par l’Unité Centrale. Enfin, le résultat se fait sur
l’écran ou sur une imprimante (selon si on a demandé l’impression).
L’Unité Centrale comporte :
-
-
Un processeur, qui exécute les programmes informatiques
Une mémoire centrale, aussi appelée mémoire vive, mémoire de traitement ou RAM, qui
stocke les données en cours de traitement. De ce fait, elle n’a pas la fonction de stockage car
elle est conçue pour être extrêmement rapide afin d’enregistrer efficacement le traitement de
données. C’est donc une mémoire à très court terme, qui permet la modification ou la création
de données.
Une mémoire de stockage, également nommée mémoire auxiliaire ou mémoire de masse.
Elle correspond au disque dur et stocke les données de l’ordinateur.
Les données sont regroupées dans des fichiers. Ceux-ci peuvent posséder différentes
extensions telles que .EXE, .DOC, .MP3, etc… Il existe deux catégories de fichiers :
Informatique 5
-
Les fichiers exécutables, soit des fichiers programmes
Les autres, c'est-à-dire, tout ce qui n’est pas exécutable, soit les fichiers de données, fichiers
d’information, fichiers structurés, etc…
.
Le processeur contenu dans l’Unité Centrale ne connait qu’un seul langage, le binaire de 0 et de 1 :
le Binary Digit (BT).
Bit : unité d’information exprimée en suite binaire (0,1) permettant de représenter toutes les
langues du monde
8 bits = 1 octet
1 kilo octet / 1 Ko = 𝟐𝟏𝟎 = 1024 octets
1 mega octet / 1 Mo = 𝟐𝟏𝟎 X 𝟐𝟏𝟎 = 1 048 576 octets
1 giga octet/ 1 Go = 210 X 210 X 210 = 1073 741 824
octets
Ces unités servent à évaluer la capacité de stockage. On en arrive aujourd’hui aux Téraoctets (To) qui
représentent un billion d’octets. La mémoire vive évolue avec 1 à 5 Go alors que le disque de
stockage varie de quelques centaines de Go à 2 To. On peut supposer que les capacités de stockage
évolueront vers le Pétaoctet (Po). Dans un texte, la mise en page (saut de ligne, gras, alinéa)
augmente le poids du document. Les fichiers multimédia, très importants en taille, poussent les
constructeurs à augmenter les capacités de stockage.
Les taux de transfert de l’information sont souvent donnés en bit/s ou en kbit et Gbit/s. Il est aussi
possible d’utiliser l’octet/s et ses multiples pour mesurer les protocoles de transfert.
1 octet = 256 possibilités différentes
Le codage de l’information permet de communiquer selon chaque langage. En 1844, Samuel Morse
met au point un codage composé de tirets et de points. Emile Baudot (1845-1903) invente un code
dit « Baudot » fondé sur 5 bits, soit 32 caractères. Dans les années 50, l’Amérique met au point le
code ASCII (Code Standard Américain d’Echange d’Information), qui comporte 7 bits (128
caractères) avant d’évoluer en 8 bits (256 caractères). On va aujourd’hui vers un unicode qui, mis au
point en 1991, est codé sur 16 bits et permet de représenter n’importe quel caractère
indépendamment de tout langage d’exploitation et systèmes. Il est compatible avec le code ASCII. Il
évolue en version 32 bits (norme ISO 10 646) et devient mondial.
Informatique 6
I.
ETUDE DE LA STRUCTURE DES SYSTEMES INFORMATIQUES
1) ORGANES D’ENTREE
Les organes d’entrée sont divers, et on compte notamment parmi ces outils l’écran, le clavier, la
souris ou le dispositif de pointage, le microphone, le scanner, la webcam, la table à digitaliser, les
capteurs divers…
 Clavier : Le clavier « azerty » est le clavier français et le clavier de base est le « qwerty ».
 Ecran : on est passé de l’écran à tube CRT à l’écran plat. On les distingue par rapport à leur
taille, qui se mesure en pouce (2,54 cm) et on le mesure par rapport à la diagonale. On est
passé des écrans 4/3 aux écrans 16/9 (rapport entre la longueur et la largeur). La taille
d’écran comprend les 14 pouces, 15, 17, 19 et 21 pouces. Aujourd’hui, les écrans plats sont
17 pouces, 19 pouces (PC bureau). Le standard est le 15 pouces ou 15,6 pouces. C’est la taille
limite de la portabilité. Les netbooks sont les plus petits ordinateurs du marché. Le nombre
de pixels s’exprime sous forme de matrice et la résolution VGA est la résolution de base.
Informatique 7
Résolution
Taille d’écran
VGA
640 × 480
SVGA
800 × 600
XGA
1024 × 768
HD
1280 × 720
WXGA
1280 × 768
Full HD
1920 × 1080
Le nombre de pixels, de points par unité de surface ou DPI, correspond à la résolution et permet
une finesse d’image.
300 DPI = une résolution 300 lignes sur 300 colonnes par pouce².
La résolution d’un ordinateur représente les capacités de l’écran, soit sa définition et elles doivent
être en accord avec la carte vidéo pour être entièrement exploitée. Le pas de masse ou pitch est
primordial car il détermine la distance entre deux points sur l’écran. Plus cette distance est courte et
plus la qualité de l’image est élevée et donc il y a un meilleur confort visuel.
L’écran plat fonctionne avec une couche rectangulaire composée de petits bâtonnets liquides. On y
associe un transistor, qui a pour rôle d’ouvrir le bâtonnet et de laisser passer le point lumineux afin
d’afficher la couleur sur l’écran. Ce mécanisme électronique fonctionne avec trois couleurs de base,
le rouge, le vert et le bleu. Il s’agit d’un système RVB.
 La souris : Autrefois à boule, il s’agit maintenant de souris optique qui grâce à une LED va
analyser le déplacement. La souris optique est plus précise que les souris classiques,
mécaniques. Les souris et les claviers sont de plus en plus sans fils.
 Le scanner : la base du système se compose toujours d’une source lumineuse et de
capteurs, soit des photos transistors de très faible diamètre qui émettent une tension
proportionnelle à la luminosité réfléchie par le document. On obtient généralement une
densité de 300 par 300 points ou 600 par 600 points DPI et plus la densité sera élevée,
meilleure sera la définition de la copie. Le scanner peut ainsi « voir le document ». Il affecte à
chaque point une valeur binaire 0 ou 1 pour une copie en noir et blanc. Pour les scanners en
couleurs, une valeur codée sur plusieurs bits est affectée au document, avec par exemple 8
bits qui correspondent à un octet. On scanne chaque couleur de base (RVB) sur 8 bits.
Informatique 8
On obtient ainsi :
Rouge correspond à 8 bits = 28 = 256 variantes
Vert correspond à 8 bits = 28 = 256 variantes
Bleu correspond à 8 bits = 28 = 256 variantes
On a donc 2563 = 16,7 millions de couleurs disponibles sur le scanner.
Les scanners actuels sont en mode 24 bits. Le scanner est un outil indispensable utilisé à des fins
ludiques et professionnelles. Le logiciel OCR permet d’analyser un document et de l’utiliser dans un
traitement de texte par reconnaissance des caractères au lieu de le conserver en format photo. Les
scanners très rapides utilisent le logiciel OCR et obtiennent ainsi un gain de productivité important.
Cela est notamment utilisé dans les entreprises. Sur certains scanners à main, les logiciels permettent
de reconstituer le document dans son ensemble.
 Les microphones : En 1981, les premiers PC ne sont pas multimédias, ils ne possèdent pas de
CD-Rom ou de son. Ce dernier est obtenu à l’aide d’une carte son et de haut-parleurs, ainsi
qu’à des micros externes ou internes. Le son a d’abord était considéré comme une option
avant d’être intégré aux machines. Les CD-Rom ont permis l’enregistrement du son. Les
logiciels de reconnaissance vocale permettent d’établir un texte par diction et le logiciel
« intelligent » va reconnaître la voix et s’améliorer au fil du temps dans la reconnaissance de
cette voix.
 Les appareils photo numériques et caméras : Les capteurs CCD ou capteur à transfert de
charge sont au cœur des appareils photo numériques, des caméscopes et des scanners. En
effet, ce sont eux qui assurent la conversion de l’image en signaux électriques et donc leur
codification en binaire. Ces signaux électriques sont numérisés par un convertisseur
analogique numérique. Des résolutions de plus en plus élevées sont disponibles. Le modèle
RVB (rouge/vert/bleu) est le plus souvent utilisé pour créer les couleurs par les capteurs,
mais ils existent aussi des capteurs basés sur le mode colorimétrique CMJN
(cyan/magenta/jaune/noir). Lorsqu’on fait une photo numérique, celle-ci a une taille
proportionnelle à sa résolution. Tous les fichiers images ou sons sont très lourds pour les
disques durs.
Informatique 9
 La webcam : Intégrée ou externe à l’ordinateur, c’est une caméra numérique qui, avec
l’association d’internet, fonctionne par IP (Internet Protocol). Chaque élément présent sur le
réseau du net est identifié par une adresse IP qui lui est propre. La webcam est branchée sur
IP et wifi et peut être activée de n’importe où par l’adresse IP.
 Les tablettes digitalisées
 Capteurs divers : ils vont mesurer certains paramètres comme la température, la pression,
etc… et vont apporter de l’information à l’unité centrale en vue du traitement. Cela est
notamment utilisé sur les chaînes de production sensibles (aéronautique, industrie de
pointe…)
 Lecteur à code barre : la technologie se rapproche du scanner avec un capteur CCD.
L’information alpha numérique contenue dans le code barre va être transférée à
l’ordinateur par le lecteur code barre lors d’un flash.
2) LES ORGANES DE STOCKAGE
Ce sont les plus importants du système et ils sont nécessaires à l’ordinateur. Cette mémoire de
stockage, mémoire de masse ou mémoire auxiliaire sont accessible de deux façons : les bandes et
les disques. Pour les bandes, on dit que l’information est de type séquentiel. Cet accès séquentiel
n’est pas un accès direct car pour accéder à une information de rang N, il est nécessaire d’avoir lu
l’information N-1. La bande aura une grande capacité de stockage. On y oppose l’accès direct par
disques, soit des disquettes, CD, etc… Ce sont des supports adressables, c’est-à-dire qu’on conserve
l’adresse de ces supports et grâce à celle-ci on va pouvoir retrouver l’information.
 La disquette : elle possède un disque interne et est de format 3,5 pouces, 5 pouces ¼ et plus
rarement 8 pouces. Elle possède 1.44 Mo d’espace mémoriel. Chaque secteur a une capacité
de 512 octets. Il y a 18 secteurs par pistes et une disquette de 3.5 pouces contient 80 pistes
recto verso, soit 160. Un cluster est un ensemble de secteur et tout système d’exploitation
utilise un mode d’enregistrement qui lui est propre. En règle générale, le cluster est la taille
minimale d’allocation faite par le système d’exploitation. Le système d’allocation dit NTFS
sur PC (anciennement FAT32 sur Windows XP) fait en sorte que l’information occupe un
cluster, soit 4 secteurs, qui font 2048 octets. Si le fichier enregistré est moins important, par
exemple 16 octets, c’est alors une perte de place.
Informatique 10
 Les disques durs : Leur particularité est leur grande capacité de stockage. C’est le support le
plus largement utilisé pour le stockage fixe d’information. Il constitue l’un des composants
les plus complexes que l’on puisse trouver dans un ordinateur : les technologies mises en
œuvre pour sa conception sont extrêmement sophistiquées et font appel à plusieurs
domaines scientifiques complexes comme la mécanique, l’électronique, la chimie, le génie
logiciel, les sciences et les matériaux, les sciences magnétiques et l’aérodynamique. Ils sont
constitués de plusieurs plateaux rigides en alliage léger ou en céramique et verre. Ils
tournent très rapidement autour d’un axe dans le sens des aiguilles d’une montre. Leur
vitesse de rotation s’exprime en tours par secondes. Chaque plateau est recouvert d’une
fine couche magnétique. Les disques sont très proches les uns des autres et les têtes de
lectures flottent sur la surface des disques grâce à la couche d’air provoquée par la vitesse
élevée de la rotation de ceux-ci. Les têtes sont des électro-aimants qui se baisse et se
soulève pour pouvoir lire ou écrire l’information constituée de bit 0 et 1. Les têtes de
lecture/écriture sont dites inductives, soit elles sont capables de générer un champ
magnétique et ainsi, lors de l’écriture, les têtes viennent polariser la surface du disque en
créant des champs magnétiques positifs ou négatifs sur de très petites zones. Ces champs
positifs ou négatifs représentent l’information binaire. Lors de la lecture, les changements
de polarité induiront un courant dans la tête de lecture qui sera ensuite transformé par un
convertisseur analogique numérique en 0 et 1 compréhensible par l’ordinateur. On retrouve
le même fonctionnement qu’une disquette (secteurs, table d’adresses…). Lorsqu’on efface
des données sur un disque dur, les secteurs se désignent libres dans la table d’adresse pour
le système. Donc lors de l’effacement d’un support magnétique, les données ne sont pas
supprimée du disque dur jusqu’à ce que le système les réalloue pour enregistrer d’autres
données par-dessus. Pour réellement effacer un disque dur, il faut le formater. Pour
réinstaller le système d’exploitation, il faut également reformater le disque dur. Avant cela,
on peut créer des partitions, c'est-à-dire qu’on partitionne l’espace. La question est de
savoir si l’on veut utiliser tout l’espace du disque dur. Le système d’exploitation est
généralement unique, soit sur une seule partition, mais on peut décider de faire deux
partitions afin d’utiliser deux systèmes d’exploitation (exemple : Windows en Linux). Ces
deux partitions forment des ensembles indépendants. On peut également déclarer deux
partitions avant de formater, mais avec un seul système d’exploitation. Sur le disque dur, on
aura alors deux unités de disque (C: et D:), alors qu’il n’y en a qu’un physiquement. Cela peut
Informatique 11
être utile pour la sauvegarde de données. Concernant les partitions, le constructeur,
notamment HP, se réserve souvent une partition système généralement cachée, appelée
« partition de recovery ». Quand on réinstalle un système d’exploitation, il faut trouver les
bons drivers. Lors d’un formatage, il a le choix entre formatage rapide ou complet : c’est là
que le disque va être effacé ou pas. Dans un formatage rapide, seule la table d’adresse est
mise à jour, mais le contenu du disque n’est pas effacé. Dans un formatage complet, le
système teste tout le support et contrôle sa qualité pour éviter les « bad sectors », ou
secteurs défectueux. Les principales caractéristiques d’un disque dur sont :
Capacité de stockage : Plus un disque a une grande taille, plus sa capacité est grande. On
trouve le plus souvent des 2’’1/2 et 3’’1/2. Pour des disques de 3’’1/2, on arrive aujourd’hui à
des disques dur de 3 To, mais sans réelle utilité, d’autant plus qu’ils sont moins rapides.
Rapidité : Elle dépend de deux éléments. La vitesse de rotation des plateaux (aujourd’hui,
les 2’’1/2 font 5400 tours/min et les 3’’1/2 font souvent 7200 tours/min). Dans les serveurs, les
stations de travail, ou work station, sont des PC bureau très puissants équipés de la même
façon que des serveurs et qui ont donc besoin d’énormes puissances de calcul : les disques
durs tournent à 10 000 voire 15 000 tours/min. Le mode de contrôle du disque, ou son
interface, a évolué dans le temps et influe sur la rapidité. Il se situe entre le disque et l’unité
centrale. Dans les PC bureau et portables, il y a une interface standard qui
s’appelle ATA ou IDE. La liaison y est parallèle : elle passe par plusieurs fils à la fois. Dans le
mode ou l’interface SCSI, le traitement de données est beaucoup plus rapide. On le trouve
dans les serveurs de réseau « work stations ». Aujourd’hui les liaisons sont en séries, c'est-àdire sur deux fils : l’ATA est devenu SATA (Serial ATA) et le SCSI est devenu SAS (c’est du SCSI
série). Les taux de transfert ont pu augmenter : le plus rapide en SAS est de 3 GB/sec. (GB =
Giga bits).
Durée de vie / fiabilité : Le MTBF est la durée de vie probable d’utilisation d’un élément
électromécanique. C’est aussi le temps moyen entre deux pannes. Il est essentiel en matière
de disque dur. On l’exprime en millions d’heures. Cela signifie que cet élément a une grande
fiabilité.
Prix des disques : Quand IBM a sorti le premier PC en 1981, il n’y avait pas de disque dur. Un
lecteur de disquette 5’’1/4 était présent. Une option permettait d’avoir un double-lecteur de
disquettes. Peu de temps après, le disque dur est sorti en option, deuxième boîtier que l’on
Informatique 12
connectait à l’unité centrale. Il faisait 10 MO et coûtait environ 10 000 F. Maintenant, un
disque dur d’1 TO coûte environ 50€.
Nouvelles avancées technologiques : On améliore la qualité des têtes de lecture, elles
auront la capacité de lire et écrire sur des espacements de plus en plus petits. On améliore
aussi la surface du disque. Il y a eu une avancée technologique : une technique
d’enregistrement/stockage perpendiculaire. Chaque bit 0 ou 1 était déposé par aimantation
horizontale sur le plateau, désormais ils sont verticaux.
Tolérance aux pannes : Certains serveurs disposent de supports d’enregistrement qui
tolèrent les pannes. Ces disques ont des MTBF très élevés. Pour permettre la tolérance aux
pannes, un contrôleur RAID (plusieurs niveaux : de 0 à 10) est nécessaire. Il permet une
redondance de l’information sur plusieurs disques physiques de telle sorte que si l’un des
disques du contrôleur RAID tombe en panne, il n’y a jamais perte de données car celles-ci se
trouvent aussi sur les autres disques. Des disques permettent au technicien de les retirer en
toute sécurité lorsque le serveur tourne. Ensuite il reconstitue les informations se trouvant
sur les autres disques.
Fabricants : Un des leaders est Seagate. Il existe également Western digital, Samsung…
 SSD : Ce sont des disques solides où il n’y a pas de mécanique mais des composants de
mémoire flash, soit des composants de mémoire ayant la particularité de maintenir
l’information lorsque le système est arrêté. Les avantages sont la rapidité et l’économie
d’énergie. Cependant, leur faible capacité et leur prix élevé est un frein à leur utilisation.
 Disques durs hybrides : On ajoute quelques composants de mémoire flash qui contiennent
une partie du système d’exploitation pour améliorer la vitesse du système informatique. Au
démarrage, le disque dur va rapidement retrouver les informations qui s’y trouvent.
 Disques virtuels : La tendance en informatique est aujourd’hui l’externalisation : on traite les
données sur des serveurs distants. C’est un espace de stockage disponible sur un serveur via
Informatique 13
internet mais qui est présenté sur le système informatique comme s’il était physique. En ce
moment, il y a grande concurrence entre Google (G drive) et Microsoft. La difficulté pour
l’instant est que le réseau internet est plus lent qu’un système informatique. Il n’est pas fait
pour stocker de grandes quantités de données (programmes, etc.). L’avantage de ce disque
virtuel est qu’où que l’on soit, on retrouve ses données.
 Enregistrements optiques (DVD, Blu-Ray, CD) :
Le CD, venant du monde audio, dispose d’une capacité mesurée en minutes, secondes,
secteurs et octets. Il mesure 12 cm. Chaque seconde contient 75 secteurs, qui eux-mêmes
contiennent chacun 2048 octets. Un CD classique de 74 minutes disposera de 74 X 60
secondes X 75 secteurs X 2048 octets = 681 984 ko = 3 650 Mo. Un CD-Rom (Read Only
Memory) ne sert à la base qu’à véhiculer l’information sur le support. Le CD est pressé dans
une machine qui va reproduire l’information sur la surface, inscrivant ainsi le code binaire 1
et 0. Le CD est composé d’une couche métallique constituée de pit, soit de microscopiques
bosses et creux correspondant au code binaire. Le rayon laser du lecteur va pouvoir
identifier l’information en analysant celles-ci. Les CD-R possèdent une couche
supplémentaire située entre le substrat plastique et la couche métallique. Elle est composée
d’un colorant organique (cyanine = bleu, pthalocyanine = vert, azo = bleu foncé) et va
permettre de recréer le concept de bosses et de creux : un laser de graveur de CD, plus
puissant, va brûler la couche de colorant et créer une réverbération sur la couche métallique
du dessus. Le lecteur va dès lors considérer le trou comme un creux, soit un 0. Le CD-R
permet donc de graver les informations une seule fois. Cependant, sur le long terme, le CD-R
se détériore rapidement tandis que le CD-Rom dure plus longtemps. Les CD-RW sont des CD
sur lesquels on peut réenregistrer l’information plusieurs fois : il y a une couche cristalline à
la place du colorant qui va, sous l’action du laser, s’éclaircir ou s’assombrir et ainsi
représenter le code binaire. Le rayon laser va faire fondre les cristaux dans la zone
d’enregistrement et va les placer dans une phase amorphe non cristalline ou leur fera subir
un lent recuit à une température plus basse jusqu’à ce qu’ils retrouvent un état cristallin.
DVD (Digital Versatil Disc) : il est le résultat d’une alliance entre le monde vidéo et le monde
informatique et le DVD support audio vidéo peut enregistrer jusqu’à 130 minutes de films
Informatique 14
avec trois canaux audios. Le DVD-Rom offre une capacité d’enregistrement de 4,7 Go sur un
disque de 12 cm. Les DVD ont une capacité accrue et une compatibilité avec les CDs. Le DVDRom, par rapport au CD-Rom, dispose de nouvelles avancées technologiques qui ont
augmenté la densité d’enregistrement. La taille des pits, ou micro cuvette, est passée de
0,83 microns pour le CD à 0,4 microns pour le DVD. Le PITCH sur les CDs et les DVDs, soit
l’espacement entre les points lumineux, est passé de 1.6 à 0.74 microns. Le faisceau optique
a également subi des modifications, passant de 780 nm pour le CD à 650 nm pour le DVD. Le
DVD Simple Face dispose ainsi de 4.7 Go contre 3 650 Mo pour le CD. Certains DVD Double
Face disposent de 9.4 Go, mais n’ont pas été développé dans le commerce. Un système de
phases a cependant été mis en place avec un DVD Simple Face Double Phase à 6.5 Go et un
DVD Double Face Double Phase à 17 Go. Avec un système de lentilles, on conçoit un DVD où
l’on parvient à loger deux couches, qui vont pouvoir être analysée par le rayon laser selon sa
puissance. Le lecteur considérera donc qu’il y a deux disques. De nos jours, les lecteurs sont à
la fois R, RW, DVD-Rom et CD-Rom, voire Blu-Ray.
Le Blu-ray ou BD-Rom : commercialisé par Sony, il s’agit d’un successeur du DVD et est
concurrent du DVD-HD (Haute Définition) lancé par Toshiba. Le Blu-ray Simple couche
Simple face contient 25 Go, soit deux heures d’audio-vidéo en haute définition. Les Blu-ray
Double couche vont conserver 50 Go d’information. Pour arriver à cette capacité, la
longueur du rayon passe à 405 nm et va pouvoir stocker plus d’information. Le PITCH a
considérablement diminué. La plupart des lecteurs Blu-ray sont des lecteurs simples et on
commence à peine à obtenir des graveurs BD-R et BD-RW. La tendance est éventuellement
de gérer plusieurs phases et couches sur la même face. Pour se protéger, les constructeurs
ont établi une carte mondiale, permettant ainsi d’instaurer une incompatibilité entre les
DVD et les lecteurs de pays différents (ex : DVD Europe et DVD USA différents). Le temps
d’accès à un support optique est plus lent qu’un disque dur. Une taxe est imposée sur les
supports optiques, s’élevant à 1€ pour un DVD, afin de payer les auteurs, etc… La durée de
vie de ces supports est tout de même limitée, notamment les DVD-R et DVD-RW, et ceux-ci
ne doivent pas être considéré comme supports de stockage fiables car ils se dégradent dans
Informatique 15
le temps. Dans notre société actuelle se pose la question de la conservation de la mémoire et
il faut trouver des supports durables sur des dizaines, voire des centaines d’années.
Le Century Disc : invention française de 1980, il s’agit d’un disque gravé sur du verre
trempé, qui dure donc sur le long terme. La conservation des données se fait sur des siècles.
Cependant, le support en lui-même coûte de 100 à 200€.
 Bandes magnétiques : ce support ne permet qu’un accès séquentiel à l’information. Son
intérêt est donc de copier les données présentes sur les disques : c’est un support très rapide
ayant une très grande capacité de stockage. La capacité des bandes dépend de sa longueur,
sa largeur et sa densité d’enregistrement. Il existe différents formats. La rapidité dépendra,
elle, de la vitesse de rotation des moteurs (rembobinage et déroulage) et du contrôleur de
type SCSI ou SAS qui va gérer la bande. Les lecteurs TRAVAN ont laissé la place au lecteur
DAT de format DDS 1, DDS 2, etc… Sony a ensuite développé l’AI-T, qui reste très rare encore
aujourd’hui. Pour les moyens et gros serveurs, les lecteurs DLT ont été remplacés par les
lecteurs LTO ou LI(C)TRIUM.
Format de bande
Capacité de stockage
LTO 1
100 à 200 Go
LTO 2
200 à 400 Go
LTO 3
400 à 600 Go
Les bandes magnétiques sont des supports amovibles. Il existe également des auto-loaders, ou
robots de bande, qui vont permettre de graver automatiquement plusieurs bandes successivement
grâce à un bras métallique qui va changer les bandes une fois pleines. Un lecteur à bande coûte
environ 3 000 € et un robot loader peut s’élever jusqu’à 100 000 €. Une sauvegarde ne doit jamais
être laissée sur le même lieu que le serveur : elle n’a aucune utilité et peut être également détruite
en cas de dégâts (incendie, vol…). Pour une meilleure sécurité, les entreprises ont intérêt à
sauvegarder leurs données tous les jours en faisant tourner trois ou quatre bandes.
Informatique 16
Il existe aujourd’hui dans les entreprises des NAS (Network Area Storage) et SAN. C’est un serveur
autonome dédié au stockage : le concept est d’externaliser les données vers un serveur de fichier
connecté au réseau d’entreprise et capable de fonctionner dans des environnements hétérogènes.
Ce disque dur est connecté sur le réseau grâce à une adresse IP et représente un espace de stockage
fait de plusieurs disques. Il est capable de sauvegarder les données de Windows, Mac, Linux… Le SAN
(Storage Area Network) est un réseau dédié au stockage et ne s’adresse qu’aux très grandes
entreprises. De nos jours, on utilise le stockage en ligne pour sauvegarder les données.
Mémoire centrale = mémoire de traitement = RAM = mémoire vive
 La mémoire centrale est la mémoire où transitent toutes les informations et elle va
permettre le traitement des données par le processeur ou micro-processeur. Ce dernier va
diriger et contrôler l’exécution des programmes. La mémoire centrale maintient les données
le temps du traitement. Pour cela, on dit qu’elle est volatile et extrêmement rapide. Le
temps d’accès à la mémoire de traitement se calcule en nanosecondes. Le temps d’accès
entre la mémoire vive et son disque dur s’exprime en millisecondes. Selon la taille de la
mémoire, on peut y loger plusieurs processeurs, qui permettent de moins accéder au disque
dur et donc augmente la rapidité de la machine. Il faut cependant que le système
d’exploitation installé sur l’ordinateur soit capable de gérer la mémoire utilisée. La mémoire
est composée de milliers de condensateurs emmagasinant des charges électriques. Lorsque
le condensateur est chargé, son état logique est égal à 1 et, dans le cas contraire, il est égal à
0. Chaque condensateur correspond à un bit de la mémoire et doit constamment être
rafraîchi, soit rechargé de façon régulière. Il s’agit d’un cycle de rafraîchissement, qui
s’exprime en nanosecondes. Chaque condensateur est couplé à un transistor qui va
permettre de modifier l’état du condensateur ou de récupérer l’information en lisant l’état
logique. Ils sont rangés sous forme de matrices, de tableaux et on accèdera à chaque case
par les coordonnées x et y (lignes et colonnes).
 La mémoire morte a un rôle plus marginal et est beaucoup moins importante que la
mémoire vive. Elle est également nommée mémoire ROM (Read Only Memory). C’est un
composant dans lequel l’information ne s’efface jamais, même lorsqu’elle n’est plus
alimentée. Lorsque le composant était construit, on y inscrivait le programme adapté, qui
était par la suite lu.
La mémoire PROM : c’est une mémoire programmable qui permet d’inscrire durablement
un composant sans possibilité de l’effacer.
La mémoire EPROM : c’est une mémoire ROM programmable et effaçable. On programme
la mémoire morte plusieurs fois car il y a possibilité d’effacer les données.
La mémoire EEPROM : c’est une mémoire ROM programmable et effaçable électriquement.
La clé USB utilise cette mémoire. La mémoire flash est une EEPROM et cette technologie est
également utilisée dans les cartes d’appareils photos, etc… Cela permet une densité
physiquement réduite pour proposer des capacités de plus en plus vastes. Il s’agit d’un
compromis entre la mémoire de type RAM et ROM car elle possède la non volatilité des
ROMs toute en pouvant être accessible en lecture et en écriture. En contrepartie, les temps
d’accès sont plus importants que ceux de la RAM. La mémoire EEPROM a cependant une
Informatique 17
durée de vie limitée car la réécriture et l’effacement électrique use les cellules et met hors
circuit la mémoire.
 La mémoire vive : il y a distinction entre la mémoire statique et la mémoire dynamique.
Mémoire statique ou mémoire SRAM : elle ne nécessite aucun rafraîchissement et conserve
l’information sur une échelle de temps de quelques heures à quelques jours. C’est une
mémoire extrêmement rapide, plus que la DRAM. Elle sert à constituer sur l’ordinateur la
mémoire cache. Il s’agit d’un petit espace où sont conservées les données pour être traitées
de façon récurrente par le processeur. On parle de mémoire cache externe, soit à l’extérieur
du processeur, par opposition à la mémoire cache interne intégrée dans celui-ci. La SRAM
est donc une mémoire très petite, très rapide et très chère en petite quantité dans
l’ordinateur.
Mémoire dynamique ou mémoire DRAM : Elle nécessite un rafraîchissement permanent et
se présente sous la forme de barrettes plus ou moins larges. On l’appelle également
mémoire DIMM pour les PC bureau et SODIMM pour les PC portables. Elle a évoluée dans le
temps : les premières mémoires DRAM étaient asynchrones, c’est-à-dire qu’il n’y avait pas
une parfaite synchronisation entre le processeur et la mémoire centrale. Le processeur va
donc subir des temps d’attente pour obtenir des informations, cela ralentit le temps de
traitement. La mémoire asynchrone était nommée mémoire EDO. La mémoire synchrone,
ou mémoire SDRAM, permet la communication entre le processeur et la mémoire et atteint
une vitesse de 66 à 133 MH (mégahertz). On passe aujourd’hui à la DDR-SDRAM. On double
le taux de transfert tout en conservant la même fréquence de fonctionnement qu’une
SDRAM. Avec la DDR2-SDRAM, on parvient à quadrupler le taux de transfert. On passe de
400 à 1066 MH. Depuis peu de temps, le marché est à la DDR3-SDRAM et on atteint des
vitesses de 1600 MH. La RAMBUS, concurrente aux DDR-SDRAM, était plus performante que
celles-ci mais très chère à fabriquer. Elle servait principalement aux serveurs et stations de
travail mais a été mise de côté. Ses performances ont été dépassées par la DDR3.
Informatique 18
3) LES ORGANES DE TRAITEMENT
 Le processeur : la capacité d’un processeur à traiter un nombre d’information
simultanément est essentielle. La taille du processeur influe également sur sa performance,
ainsi que sa rapidité. La vitesse de cadencement de l’horloge, soit la rapidité avec laquelle il
peut traiter les bits, est également un élément important participant à la puissance du
processeur. De nos jours, pour pallier aux problèmes de chauffe du processeur, on s’oriente
dans les processeurs multi-cœur, soit disposant de plusieurs centres de traitement, qui sont
dès lors beaucoup plus efficaces. En 1971, Intel invente le premier processeur de puissance 4
bits avec 108 kilohertz. Le processeur, aussi appelé unité centrale de traitement, est le cœur
de l’ordinateur. Il est codé en binaire et traite la plupart des informations de la machine.
C’est un circuit électronique cadencé par une horloge interne qui envoie des impulsions
(top) qui vont déclencher une action du processeur et donc des éléments de l’ordinateur. La
vitesse de cette horloge, soit le nombre de battements par secondes, s’exprimait en
mégahertz et se dénombre aujourd’hui en gigahertz. Il constitué de deux éléments
importants : l’unité de commande qui lit les instructions et les codes et l’unité de traitement
appelée UAL (Unité Arithmétique et Logique) qui exécute des instructions. Lorsque tous ces
éléments sont regroupés sur un même composant, on parle alors de microprocesseurs, soit
des processeurs qui contient ces composants sur la même puce. A l’intérieur du processeur,
il y a des registres. Ainsi, lorsque le processeur exécute des instructions ou qu’il traite des
données, il stocke temporairement ces données dans des petites zones mémoires de
quelques ko et celles-ci sont nommées registres. Selon le type de processeur et sa puissance,
le nombre peut varier de quelques centaines à plusieurs millions. Il y a également un jeu
d’instruction au sein du processeur. Il s’agit d’un ensemble d’instructions physiquement
gravées à l’aide de circuits électroniques dans le processeur lui-même. Ce jeu d’instruction
est réalisé à l’aide de semi-conducteurs qui sont de petits interrupteurs utilisant l’effet
transistor. Il existe plusieurs millions de ces micro-conducteurs dans un même processeur.
Ce câblage interne microscopique est essentiel. En 1956, trois chercheurs ont obtenu le prix
Nobel pour la découverte du processeur.
Dans un processeur, il existe une mémoire cache interne. Celle-ci va participer à sa rapidité, au
même titre que sa taille et son nombre de cœurs. Il existe deux niveaux de mémoire cache interne
dans les processeurs. Il y a également une caractéristique de parallélisme. Lorsqu’on a deux ou
quatre cœurs dans les composants, on parle de parallélisme qui consiste à effectuer simultanément
sur des processeurs différents des instructions relatives à un même programme. On obtient au final
le découpage d’un programme en plusieurs processus qui seront traités sur chacun des processeurs
ou des cœurs, dans le but d’une rapidité toujours plus grande et donc d’une exécution plus rapide.
On va donc concevoir des programmes capables de fonctionner sur multiprocesseurs ou multicœurs. Le principe du système consiste à mettre à la disposition du processeur plus rapidement les
instructions qu’il va devoir effectuer. Celles-ci sont mises en file d’attente dans la mémoire cache de
Informatique 19
telle sorte que lorsque le nouveau processeur exécute une instruction, la suivante est mise à sa
disposition. L’architecture interne d’un processeur peut être :
 CISC (Ordinateur à jeu d’instruction complexe) pour les processeurs X86 qui peuvent traiter
des instructions complexes, vastes. On a intégrer au processeur des instructions complexes
directement imprimées, câblés sur une section de la puce dans le but d’avoir un circuit plus
rapide.
 RISC (Ordinateur à jeu d’instruction réduit) qui permettent d’utiliser des processeurs moins
complexes pour des applications plus communes.
On peut mesurer la puissance d’un processeur avec le mips (million d’instructions par seconde). On
arrive aujourd’hui à 1 mips.
Pour pouvoir régler les problématiques environnementales, calculer des réactions nucléaires ou
autres, qui nécessitent des calculs extrêmement précis, on va amalgamer des millions de clusters
(super calculateurs) entre eux. L’université de Virginia Tech a mis au point le premier cluster
composé de 1100 ordinateurs Mac G5 et a atteint la troisième place des plus puissants calculateurs
au monde. Pour mesurer la puissance d’un super calculateur, on utilise le flops (opération à virgule
flottante par seconde). Le nombre de flops est une mesure commune dans la vitesse des systèmes
informatiques. Le rassemblement de nombreux processeurs à mips va former un « super
ordinateur ».
1 Gigaflops = 1 milliard d’opérations à virgule flottante par seconde
1 Teraflops = 1 millier de milliard d’opérations à virgule flottante par seconde
1 Pétaflops = 1 million de milliard (billiard) d’opérations à virgule flottante par seconde
En 2008, la barre des 1 Pétaflops a été franchie par un super calculateur : on parle de machines de
systèmes pétaflopiques. Deux fois par an est publié le top 500 des supers calculateurs. En juin 2010,
l’importance toujours aussi grande des USA dans ce secteur est prouvée : ils possèdent sept des dix
plus puissants supers calculateurs au monde et 56% des supers calculateurs totaux. Le plus puissant
possède environ 260 000 processeurs cœurs et atteint la puissance maximale de 1,75 Pétaflops. En
France, le plus gros ordinateur a été mis en route en 2010 et se nomme le Teracent : c’est le premier
super calculateur pétaflopique conçu et développé en Europe. Il a atteint la puissance théorique de
1,25 Pétaflops, ce qui le classe parmi les trois supers calculateurs les plus puissants au monde. Il
intègre 140 000 processeurs cœurs Intel Zeon. Cette technologie fait appel au calcul distribué, qui
décrit un système informatique composé d’unités de calculs (micro processeurs, cœurs, unités
centrales) qui sont reliées entre elles à l’aide d’un réseau de communication. Ces systèmes seront
équipés d’un système d’exploitation spécialisé qui va coordonner et répartir les calculs et traitements
à réaliser sur les différentes unités de calculs.
Le mainframe (ordinateur central) est un concept essentiel dans la conception et l’utilisation des
systèmes d’exploitation, mais qui aujourd’hui date quelque peu. Le développement des ordinateurs
Informatique 20
se fait après la Seconde guerre mondiale aux USA et jusqu’aux années 70-75, l’ordinateur possédait
une information centralisée. Le concept d’ordinateurs individuels n’existait pas : l’unité centrale
était spécifique, soit chaque concepteur fabriquait toutes pièces de l’ordinateur et rien n’était
compatible. Chaque concepteur fabriquait également son propre système d’exploitation. L’écran et
le clavier n’affichaient que les informations de l’unité centrale, ils ne contenaient aucune intelligence.
Le mainframe consistait donc à brancher plusieurs claviers et écrans sur la même unité centrale et à
partager la mémoire centrale sur plusieurs postes. Avec l’apparition des réseaux, on connecte
plusieurs ordinateurs entre eux et on
centralise les données dans un seul,
appelé réseau. Au fil des années, le
concept de mainframe, soit d’ordinateur
centralisé, a été dépassé par l’utilisation
de la microinformatique et des serveurs.
Dans les entreprises et les
administrations, l’utilisation d’un
ordinateur central (mainframe) a été
remplacée par l’utilisation de réseaux de
communication. L’apparition d’internet
dans les années 90s, réseau mondial par
excellence, a définitivement rendu le
mainframe caduc.
85% des meilleurs calculateurs au monde fonctionnent sous système d’exploitation Linux. Seul 1,4%
est géré par Windows et 0,5% par Mac OS.
Le fabricant numéro un mondial de microprocesseur est Intel, qui a mis au point des processeurs de
la famille X86 compatibles de générations en générations. La société américaine AMD fabrique
également des processeurs X86 et est concurrente directe d’Intel. IBM conçoit également des
processeurs spécifiques pour ses propres machines, mais également des processeurs appelés power
PC. Motorola, société qui fournissait les processeurs pour les premiers Mac, produit également des
processeurs. Les constructeurs HP, SUN, DEC ou SGI mettent également au point des
microprocesseurs mais dans une moindre mesure.
Chez Intel, le Pentium constitue le processeur principal, aujourd’hui produit à double cœur.
Le processeur Celeron, plus économique, possède également double cœur. Les nouveaux
processeurs de génération 2 à double cœurs, appelés Core 2 Duo ou Quad Core pour les
quatre cœurs, sont récemment apparus. On parle aujourd’hui de Core I 3, Core I 5 et Core I
7. La puissance est exprimée par le nombre de cœurs, la mémoire cache et la taille.
Chez AMD, le Sempron, l’Athlon, le Phénon (PC bureau) et le Turion (PC portable) sont les
processeurs principaux. Leur évolution s’est traduit par l’apparition de double, voire de triple
cœur.
Il existe également des processeurs pour les serveurs, plus puissants. Chez Intel, il s’agit du
Xeon tandis qu’AMD a conçu l’Opteron.
Informatique 21
La carte mère est une plaque électronique sur laquelle se trouvent :
 Le(s) processeur(s)
 La RAM ou mémoire
 Les circuits électroniques : leur rôle est de contrôler les différentes ressources présentes sur
la carte mère (processeurs, mémoires, mus…). Ils sont chargés de coordonner les échanges
de données entre ces différents éléments et sont appelés jeu de composants ou chipset. Il
peut exister plusieurs chipsets sur un ordinateur : celui de la carte mère mais également
celui de la carte vidéo, etc…
 Une horloge temps réel ou RTC : elle est chargée de la synchronisation des signaux du
système. Sa fréquence est exprimée en Mégahertz ou Gigahertz, soit le nombre de top
d’horloge émis par secondes. L’horloge de la carte mère doit être en harmonie avec celle du
processeur. Cette horloge est associée à un circuit électronique appelé Cmos qui conserve
certaines informations sur le système dont la date et l’heure. Cette petite zone de mémoire
est une mémoire lente alimentée par une pile et qui consomme très peu d’énergie. Associé à
cette mémoire Cmos, le programme Set Up permet au démarrage de la machine de modifier
la configuration matérielle dans celui-ci.
 Le BIOS : ce programme s’exécute à la mise sous tension du système il est le lien entre le
premier niveau de logiciel de l’ordinateur, soit le système d’exploitation, et le matériel. Il
contrôle la présence des différents éléments matériels et effectue un test afin de vérifier la
fonctionnalité des éléments matériels de l’ordinateur conformément à ce qui est stocké dans
le Cmos avant le démarrage. Il donne ensuite la main au système d’exploitation via le boot
sector. Le BIOS est stocké dans une mémoire morte de type EEPROM (modifiable par
impulsion électrique).
 Le BUS d’extension ou connecteur d’extension (SLOTS) : ils reçoivent des cartes d’extension
comme par exemple la carte vidéo lorsque celle-ci n’est pas intégrée directement sur la carte
mère. Les cartes vont ainsi pouvoir communiquer avec le reste de la machine. Il y a eu
plusieurs standards, plusieurs types de BUS sur les PCs : ISA (Architecture Standard de
l’Industrie) en 1981 avec IBM (16bits), MCA, EISA, VLB, AGP, PCI, PCI express. Le BUS
d’extension n’est pas utilisé sur les PC portables et est remplacé par un port PCMCIA qui va
permettre d’intégrer des extensions.
4) LES PORTS DE COMMUNICATION
Les ports de communication sont présents sur toute machine. Il y a deux grands modes de
communication :
Informatique 22
 la communication parallèle : il s’agit d’une liaison où chaque bit d’un mot occupe son propre
canal, soit son propre fil. Ainsi, si on a des mots de 8 bits, il y aura 8 fils et on transmettra
simultanément les 8 bits du mot. La rapidité de la transmission est un atout mais est
cependant limitée par la distance : le signal est affaibli par le nombre de fils et la
communication ne va pas au-delà de 10 mètres. On se servait notamment du port parallèle
pour connecter les imprimantes ou les lecteurs CD-DVD externes.
 la communication série : il s’agit d’une liaison où les bits de chaque mot sont envoyés à la
suite sur un même canal de transmission. Il y a donc deux fils : un pour l’envoi et un pour le
retour. Le procédé est donc simple mais il est à priori plus lent que la communication
parallèle. On s’en servait notamment pour les souris, les modems externes, etc…
Les ports de communication sont :
 La bande passante : elle désigne la capacité à faire circuler l’information numérique sur un
lien de communication informatique comme le fil de cuivre, la fibre optique, les ondes
radio… La bande passante, soit le débit d’information que l’on pourra faire circuler, sera
alors plus ou moins grande : plus le diamètre du tuyau est important et plus le débit
d’information sera important.
 Port USB (Universal Serial BUS) : il s’agit d’un BUS informatique à transmission série. Il est
révolutionnaire par rapport aux modes précédents. Sur un port série ou parallèle, on ne peut
mettre qu’un élément tandis qu’un port USB peut connecter 127 éléments. En dehors des
aspects de reconnaissance des éléments, de connexion à chaud et de connexion multiple,
l’USB va permettre des débits sans cesse croissants : on est passé de l’USB 1.0 en 1987, l’USB
1.1 en 1998, l’USB 2.0 en 2000, l’USB 3.0 en 2010. Il y a une compatibilité ascendante (sur
un USB 3.0 on peu connecter un USB 1.0). La vitesse va ainsi être modifiée : avec l’USB 2.0 en
2000, on parle d’une vitesse de 480 Mbits/sec, soit 60Mo/sec. Lorsque l’USB 3.0 sort, on
peut parvenir à une vitesse de 4800 Mbits/sec ou 4,8 Gbits/sec, soit 600Mo/s. On est alors
proche de la vitesse des disques durs internes.
 Port série
 Port I3E1394 : Ce BUS série ne supporte que 63 périphériques connectables. C’est un port
qui vient compléter l’USB car il est beaucoup plus rapide que l’USB 1.0 ou 2.0. On le
privilégiait notamment pour utiliser des périphériques demandant un débit d’information
important, comme la vidéo via un caméscope par exemple. Il est appelé Fireware chez
Microsoft. En 2008, ce port permet 3 200 Mbits/s ou 3,2 Gbits/s.
 Connecteur réseau RJ45 : C’est un connecteur très rapide qui permet de se connecter au
serveur électronique et aux réseaux. On était en 10 Mo/s peu après sa création et on est
aujourd’hui aux Go/s.
 Connecteur Modem RJ11 : C’est un connecteur analogue au RJ45 mais qui ne concerne que
les connexions au Modem.
Informatique 23
5) LES ORGANES DE SORTIES OU PERIPHERIQUES
 L’écran
 L’imprimante :
les imprimantes à impact : c’est une technologie ancienne qui a par exemple disparue dans
les imprimantes à marguerites ou à boules. Elle reste cependant aujourd’hui utilisée
majoritairement pour les imprimantes matricielles à aiguilles. Un ruban carboné est placé
entre les caractères à presser et le papier et va permettre d’imprimer les caractères sur celuici.
Les imprimantes à marguerites : Une tête est présente et va se déplacer le long du papier.
Au bout de celle-ci, une rosace portant les caractères est mise en mouvement par un moteur
et est tournée jusqu’à trouver la lettre voulue avant qu’elle soit pressée contre le papier.
Les imprimantes à boules : Une boule contient les caractères et se déplace en tournant sur
elle-même pour presser contre le papier les caractères voulus.
Les imprimantes matricielles à aiguilles : c’est une imprimante graphique, c’est-à-dire qu’on
peut faire des graphismes autres que des caractères (dessin, traits, etc…) car sur sa tête, des
aiguilles permettent de tracer des points sur le papier, mettant en forme des lettres et des
graphismes. Il existe des imprimantes à 9 aiguilles, 12, 24, etc… Cette demande de marché a
disparue au profit de l’imprimante matricielle aiguille rapide. C’est la seule imprimante sans
technologie qui permette de faire de la multi copie grâce à du papier listing (11’’/12’’) à
plusieurs couches.
Les imprimantes à transfert thermique : On brûle le papier photo sensible à la chaleur ou à
un rayon lumineux particulier pour former des caractères. Elles sont encore utilisées pour les
tickets de carte bleue ou d’autoroute.
Les imprimantes laser : le laser reçoit l’information qui doit être imprimée et va magnétiser
le cylindre magnétique des caractères à inscrire. Celui-ci va tourner sur lui-même et
atteindre le bac d’encre en poudre qui va se poser sur le cylindre aux points précis
magnétisés. On atteint donc une très grande précision. Le cylindre va ensuite déposer l’encre
sur le papier qui sera magnétisé pour attirer l’encre. Celle-ci sera fixée par chauffage de la
feuille localement jusqu’à 200°C. L’impression est donc de qualité et inaltérable car l’encre a
été figée de façon permanente sur le papier.
Les imprimantes laser couleur : Le papier doit être passé quatre fois dans la base de
couleurs primaires et le noir. Ces couleurs étaient fixées par magnétisation, comme la
technique laser normal. La technique est ensuite passée à une passe au lieu de quatre, ce qui
a multiplié par 4 dans l’imprimante les tambours magnétiques et les lasers. Il existe dans les
technologies laser, lorsqu’on électrifie le tambour avec le laser, une autre façon de le faire
par l’intermédiaire de diodes électroluminescentes : c’est la technologie LED développée
par la marque OKI. Cela permet des imprimantes plus économiques.
Les imprimantes à encre solide : C’est une technologie particulière de l’encre solide, à michemin entre le laser et le jet d’encre. Il s’agit de petits bâtonnets d’encre solidifiés qui vont
être liquéfiés par chauffage avant la projection du liquide sur un tambour contre lequel la
Informatique 24
feuille est ensuite pressée. De cette façon, l’encre ne pénètre pas dans les fibres du papier et
on peut utiliser les supports les plus variés.
Les imprimantes à jet d’encre : les premières étaient en noir et blanc et elles sont
aujourd’hui en couleur. Les imprimantes à bulles d’encre ont été inventées par la société
Canon : il s’agit de réchauffer l’encre fluide à l’aide de buse possédant leur propre élément
chauffant pour projeter des bulles microscopiques afin de tracer des points sur le papier. Les
imprimantes à jet d’encre utilisent des buses (contenant l’encre) avec une technologie
piézoélectrique, soit chaque buse est associée à un quartz piézoélectrique qui va, lorsqu’on
l’excite sur sa fréquence de résonnance, se déformer et presser la buse pour projeter la
pointe d’encre.
Les traceurs : ce sont des imprimantes spécifiques de grand format qui vont être utilisées de
façon professionnelle par des architectes, ingénieurs, etc… elles utilisent une technologie jet
d’encre et sont à même d’imprimer dans les deux sens. Cette imprimante comprend le
format A1 ou A0 (1m20/85cm). L’entreprise HP est la première productrice de ces
imprimantes, tandis que les marques Canon, Epson, Brother, etc… arrivent derrière. Il y a
beaucoup de constructeurs qui n’ont pas de savoir faire dans l’impression, comme Dell.
L’impression laser est plus rapide que le jet d’encre et certaines imprimantes impriment
couramment 50 pages à la minute. Les imprimantes jet d’encre induisent un modèle économique
particulier : la machine ne coûte presque rien mais l’achat de cartouche s’élève au prix de celle-ci.
II.
LES PROGRAMMES INFORMATIQUES
1) LES DIFFERENTS LOGICIELS
Le terme de logiciel évoque l’exploitation d’une liste ordonnée d’instruction décrivant les tâches à
effectuer. Sur tout système informatique, il existe trois niveaux principaux de logiciels : le système
d’exploitation, les langages de programmation et les programmes d’application. Ces trois niveaux
s’empilent les uns sur les autres et il y a une interdépendance entre les niveaux.
 Le système d’exploitation : c’est un ensemble de programmes complexes et volumineux qui
permettent d’utiliser les services disponibles sur la machine. Son rôle est d’assurer deux
fonctions principales et distinctes : présenter une machine virtuelle à l’utilisateur et exploiter
de façon efficace les ressources de l’ordinateur. On va donc convertir la machine réelle en
une machine virtuelle, plus facilement exploitable par le plus grand nombre. Les ressources
matérielles de l’ordinateur (mémoire, processeur, etc…) sont également logicielles. Pour
Informatique 25
classifier les systèmes d’exploitation, on utilise la notion de systèmes mono ou
multiutilisateurs et mono ou multitâches. Le mono-tâche ne sait gérer qu’une seule tâche à
la fois sur le matériel : on ne pourra donc faire fonctionner qu’un seul programme sur le
même processeur de l’ordinateur. Au contraire, le système multitâche va savoir
simultanément gérer plusieurs travaux à la fois qui vont être exécutés sur le processeur. MS
DOS, le premier système d’exploitation de la société Microsoft, est un système monotâche. Les systèmes des micro-ordinateurs sont aujourd’hui multitâches. Le système
multiutilisateur permet à plusieurs utilisateurs d’utiliser le même ordinateur et ceux-ci
pourront lancer des travaux qui s’exécuteront sur le même processeur. Les PC portables sont
tous mono-utilisateur, c’est-à-dire qu’on ne peut pas brancher de second terminal (écran,
souris…) à l’unité centrale. Cette multi-utilisation est possible sur les PC bureau où l’unité
centrale est distincte du terminal et donc capable d’en supporter plusieurs. Les ordinateurs
multiutilisateurs sont obligatoirement multitâches. La coexistence de plusieurs programmes
actifs en train d’être exécutés est particulièrement délicate à gérer et la méthode consiste à
créer un processus pour chaque programme en cours d’exécution. Le processus pourra luimême en générer d’autres.
Au niveau des sociétés de système d’exploitation informatique, la société Microsoft représente
80% du marché. Il a développé en 1981 le système MS DOS, qui va développer l’interface
Windows 1, 2 et 3, mais est en concurrence avec Apple, qui dispose d’un système d’exploitation
plus convivial. Il faut attendre 1995 pour voir apparaître Windows 95, qui fera apparaître pour la
première barre des tâches sur le bureau. En 1998 suivra Windows 98. En 2000, le Windows
Millénium sort mais il s’agit seulement du Windows 98 alourdit. Du fait de l’inefficacité du
système, Microsoft est contraint de repasser à la version 98. Il va développer la version Windows
NT pour le PC et Novell Network pour
les serveurs. Le Windows 2000, sorti
dans les années 2000, est rebaptisé
Windows XP. Suivra Windows Vista
et Windows 7 en 2010. Pour les
serveurs, le système Novell Network
a laissé la place au système 2000
serveur, 2003 serveur et 2008
serveur, qui est toujours utilisé
Informatique 26
aujourd’hui. La société Apple a développé le système d’exploitation MAC OS aujourd’hui en
application. Son premier système d’exploitation était Unix. Le système d’exploitation Linux est
né des recherches d’un étudiant finlandais Linus Torswald durant sa thèse, qui souhaitait créer
une alternative aux systèmes Windows. Ce système s’est développé et est libre de droit. Cet
étudiant est aujourd’hui président de la Communauté internationales Linux et continue à faire
évoluer le système. IBM a conçu un système unique d’AIX. Un système propriétaire est un
système écrit, créé par le constructeur du matériel et n’est compatible avec aucun autre
système d’exploitation. Il est donc la propriété du constructeur. IBM équipe donc tous ses
systèmes d’exploitation de système maison, propriétaires. Lorsqu’il est développé par le
concepteur du matériel, le système propriétaire coûte excessivement cher, autant que la
conception du matériel. Les micro-ordinateurs apparaissent en 1981 et, avant cela, tous les
ordinateurs étaient équipés de systèmes d’exploitation propriétaire. Aucun n’était donc
compatible avec une machine étrangère à l’entreprise.
2) LES LANGAGES DE PROGRAMMATION
 Les langages de programmation : ce sont des langages utilisés par les concepteurs pour
mettre au point des programmes informatiques. La machine ne comprend qu’un seul
langage : le langage binaire. Il serait trop fastidieux de développer des programmes en
langage binaire : des langages d’application se sont donc développés et se rapprochent de
notre langage naturel tout en gardant une rigueur logique qui n’est pas forcément présente
dans notre langage naturel. Les langages de programmation évoluent à ce qu’ils soient de
plus en plus efficaces dans la production de logiciels, plus faciles d’emploi, plus proches de la
langue d’origine. Un bon programme est un programme bien conçu, bien structuré pour
qu’on puisse le faire évoluer, le maintenir et pour que d’autres personnes qui ne l’ont pas
conçu puissent y entrer et le faire évoluer. Des phases de traduction du programme source
écrit par le concepteur du logiciel qui est l’écriture des instructions dans le langage évolué
correspondant. Ce programme source ne pourra pas être directement exécuté par
l’ordinateur. Pour qu’il devienne un programme exécutable, il sera nécessaire d’utiliser un
programme traducteur, qui va opérer la traduction de la source vers le programme
exécutable. Ce programme traducteur existe selon deux modes : on parle alors
d’interpréteur et de compilateur.
Interpréteur : à chaque demande d’exécution du programme, le traducteur traduira le
programme source en programme exécutable et l’exécutera. Il y a à chaque fois traduction
du programme source en langage machine et exécution. On va donc devoir lire, traduire et
exécuter.
Compilateur : on traduit le programme source en programme exécutable une fois et de
façon permanente. A chaque fois qu’on demande l’exécution du programme, il ne sera plus
nécessaire de le traduire car le compilateur a fabriqué un programme exécutable de celui-ci
et l’exécute. L’avantage est que l’exécution est plus rapide car la phase de traduction est
Informatique 27
éliminée. De plus, il protège les sources du créateur car le concepteur va vendre la version
du compilateur, soit déjà traduite et le programme sera uniquement exécutable et non
modifiable. Le plagiat est donc difficile. Aujourd’hui, la plupart des programmes sont des
compilateurs car la puissance des machines permet une phase de traduction rapide. Le
COBOL (gestion), le FORTRAN (scientifique), le BASIC (micro-informatique aujourd’hui appelé
VISUAL BASIC), le PASCAL (apprentissage de la programmation avec conception de
programmes structurés), le C (action sur la base du système), le C++ (programmation
orientée objet) sont des langages de programmation apparus dans les années 50 et ont
évolués jusqu’à aujourd’hui.
Il y a eu une évolution des différentes méthodes de modélisation et aujourd’hui, la méthode UML
(Langage de modélisation unifié) domine. Il s’agit notamment de la référence en modélisation objet.
Cette technique consiste à modéliser au niveau informatique les éléments du domaine, ou monde
réel, en entité informatique.
Le langage html permet de définir des pages de document. Il est considéré comme un langage de
programmation, cependant il ne définit que les structures logiques d’un document mais ne gère pas
de programmes à proprement parler. Il permet de gérer la notion d’hypertexte et donc de lier une
page à une autre. Sa particularité est d’être un langage interprété. C’est le navigateur internet qui
devient moteur d’interprétation, de traduction. Seul le code source qui décrit la page (html) est
transposé : le document n’est pas transmis sur le réseau tel quel. C’est donc seulement la source qui
est envoyée et le traducteur internet va traduire et exécuter la page (interpréteur). Cette opération
va donc être très rapide car elle ne concerne que des données légères.
De nouveaux langages sont apparus avec internet. Le langage Java a été créé vers les années 1990 et
mis sur internet en 1995. Il s’inspire de C++ et permet, par rapport à html, de programmer des
animations. Il va créer des modules spécifiques appelés applet qui vont compléter la page html.
Ceux-ci sont transmis pour être exécutés par le traducteur internet. Les animations Java sont toutes
indépendantes des plateformes, comme le langage html. Le langage est donc multiplateforme, ce
qui signifie qu’il fonctionne quelque soit le traducteur utilisé. Le langage Java Script est un langage
de script incorporé dans un document html. Il est plus léger que Java, plus facile d’emploi et
directement écrit dans la page html : il n’y a donc pas de confidentialité au niveau du code source. Le
langage php est un langage de script qui est interprété et exécuté du côté serveur et non du côté
client.
La fonction xml consiste à décrire le contenu des documents de manière à en déterminer le type, la
signification et le positionnement des données qui seront traitées dans la page. Ainsi, contrairement
à html qui s’applique principalement au formatage de la page, xml sert aussi à afficher mais aussi à
traiter les données. Avec le développement de services web xml, il permet une interopérabilité
entre des applications déployées sur différentes plateformes matérielles et logicielles. Cela permet
l’échange, la communication, le transfert et le traitement des données entre des plateformes
différentes. Microsoft a développé une stratégie d’outil appelée Microsoft.NET. Il s’agit d’une suite
d’outil langage permettant le développement d’applications logicielles : on y trouve Visual
Basic.NET, C#, etc…
Informatique 28
Les langages POST SCRIPT ou PCL constituent des langages plus rarement rencontrés. Le SQL est un
outil permettant d’interroger les bases de données : c’est donc un langage réalisé pour manipuler
les bases de données à l’aide de requêtes, de recherches. Ces langages sont non procéduraux, soit ils
se bornent à émettre une demande, une requête, qui sera traitée par un autre programme. Au
contraire, les langages procéduraux concernent la grande majorité des langages et permettent
d’écrire un programme indiquant à la machine le but à atteindre et la manière d’y parvenir, soit la
procédure à suivre. SQL ne formule que des requêtes, il est donc non procédural. De la même façon,
les langages LISP, PROLOGUE sont déclaratifs et séparent les règles des faits auxquels elles
s’appliquent. L’intérêt d’un tel système est de pouvoir changer quelques règles d’action sans
bouleversement tout le système. Ces langages déclaratifs sont à la base des développements en
intelligence artificielle. Ils ont été utilisés pour la première fois dans le domaine bancaire où les
programmes possédaient le savoir financier de l’expert et prenaient la décision à la place de
l’individu. Ils servent également à l’aide au diagnostique pour les médecins.
3) LES PROGRAMMES D’APPLICATION
 Les progiciels standards : l’utilisateur est beaucoup plus actif, cela concerne par exemple les
traitements de textes, les tableurs, les SGBD (Système de gestion de base de donnée),
logiciel de présentation assisté par ordinateur… Avec ces outils, l’utilisateur doit s’investir
dans le programme.
 Logiciels d’application verticaux : ils vont traiter une activité du début à la fin. Il existe des
logiciels par domaine d’activités, par fonctions à traiter dans l’entreprise. Des logiciels
spécialisés vont par exemple traiter de la comptabilité de l’entreprise. Des logiciels de
facturation seront également présents. L’entreprise qui vend le logiciel forme les utilisateurs
qui sont ensuite pris en charge par le logiciel.
 Les logiciels d’application spécifiques : lorsque l’on souhaite utiliser un logiciel pour
informatiser des données qui ne le sont pas, il faut utiliser des prologiciels en cas de
problème complexe. La seule solution est de faire fabriquer le programme d’application par
une société de services : logiciel d’application spécifique. Cependant, les besoins de
l’entreprise doivent être cernés correctement.
 Les ERP : ce sont des progiciels de gestion intégrés. Il s’agit de programmes qui vont couvrir
l’ensemble des activités de l’entreprise, de la production jusqu’au marketing. Tout est bâti
autour d’un système d’information qui intègre l’ensemble des activités de l’entreprise. Cette
notion ne s’applique qu’à de grosses structures (entreprises du CAC 40 vont vers les ERP). Les
ERP sont nés autour des années 75 dans le domaine de la production industrielle et ont
évolués pour devenir de plus gros logiciels. Lors de la mise en place d’un ERP dans une
entreprise, celle-ci est réorganisée, les habitudes de travail et le personnel change.
L’acquisition et la mise en place organisationnelle du logiciel provoque un coût important.
On estime souvent que le coût du logiciel ne représente que 25% de l’investissement global.
Le principal fournisseur d’ERP est une entreprise allemande produisant le logiciel SAP.
Informatique 29
 L’ASP : il s’agit de l’usage d’un fournisseur d’application logicielle hébergé. Ces fournisseurs
de logiciels ne proposent pas d’acheter une licence mais de louer l’utilisation du logiciel sur
leur serveur. On paie un droit au temps passé pour l’usage du logiciel. Le débit doit tout de
même être important. Cette technique se développe avec la mise en place de la fibre
optique.
 La virtualisation : sur une même plateforme matérielle, on va installer un système
d’exploitation puis on va en installer d’autres virtualisés. Des logiciels de virtualisation vont
par exemple permettre d’installer Windows ou Linux sur un Mac. Les systèmes d’exploitation
ne sont donc pas matériels, réels, mais virtuels. On virtualise également des serveurs les uns
sur les autres.
 Le cloud computing : « informatique dans les nuages » l’informatique se virtualise et se
mondialise par les réseaux. Ce concept nouveau correspond à la mobilité des informations
et à leur immatérialité.
Le navigateur internet s’ajoute au système d’exploitation.
4) LES VIRUS ET ANTIVIRUS
Les virus sont de petits programmes se situant dans le corps d’un autre. On distingue les virus
résidants et les non résidants. Les résidants se chargent dans la mémoire vive de l’ordinateur (RAM)
lors de l’exécution des programmes. Les virus non résidants vont infecter des programmes
enregistrés dans le disque dur et se déclenche à un moment précis mais pas systématiquement. On
les classe par mode d’infection et de propagation.
 Les vers : ce sont des virus qui se propagent à travers le réseau. Ils s’auto-reproduisent sans
avoir de support physique. Ils se propagent principalement grâce à la messagerie,
notamment outlook.
 Les chevaux de Troie ou Troyen : c’est un programme qui est caché dans un autre et qui va
exécuter certaines tâches dans le but d’ouvrir une porte sur l’ordinateur et de l’envahir. Il
peut notamment voler les mots de passe et les données personnelles. Son but n’est donc
pas de se reproduire.
 Les bombes logiques : Il s’agit de programmes qui vont se déclencher à un moment
particulier et en exploitant la date du système. Il est non résidant, stocké sur le disque dur,
et va se lancer à l’heure programmée. S’il n’a jamais eu d’actions, les antivirus ne peuvent
pas l’identifier.
 Les hoax, ou annonces : ces programmes vont annoncer l’infection d’un ordinateur alors
que c’est faux, il s’agit de canulars.
Informatique 30
 Spyware : c’est un programme chargé de récupérer des informations sur l’ordinateur. Il va
alors effectuer un profil d’utilisateur et envoyer à la société qui le diffuse les informations
demandées.
 Les enregistreurs de touches : c’est un dispositif d’espionnage qui peut par exemple voler
les codes d’accès à un site ou les codes carte bleue par enregistrement des touches utilisées.
Les antivirus permettent de contrer ces programmes malveillants. Lorsque le virus est connu,
l’antivirus va supprimer les lignes de programme correspondant au virus qui se trouve dans un
fichier particulier. Suivant le type, on supprime le virus lui-même sans passer par les lignes de code.
S’il s’agit d’un fichier système de l’ordinateur qui est infecté, supprimer le virus peut altérer le
fonctionnement de la machine. Il faut donc le déplacer avant de le supprimer. Un fichier infecté peut
également être mis en quarantaine : l’antivirus le renomme et le loge dans un dossier où il ne pourra
être exécuté.
La difficulté est de détecter le virus : le programme antivirus va essayer d’identifier la suite d’octets
qui compose le virus. Il s’agit d’une signature virale qui va permettre de signaler le virus. Cependant,
les virus peuvent changer de signature et la base de l’antivirus doit donc se mettre à jour
continuellement. Il existe des virus polymorphes, qui vont essayer de se camoufler de telle sorte que
leur signature soit quasiment indétectable. Celle-ci est d’ailleurs changée régulièrement et de
manière autonome. Les virus se logeant dans la zone d’amorçage du système, ou virus du secteur
de voûte, sont plus rares. Lorsqu’un ordinateur démarre, il y a vérification de la carte mère et des
composants avant mise en marche du système. Les virus se logent dans cet espace, ce qui oblige à
réinstaller un système si la machine est infectée.
Informatique 31
CHAPITRE 2
L’ORGANISATION DES SYSTEMES INFORMATIQUES
On passe de l’ordinateur monoposte au multiposte. Les premiers ordinateurs sont apparus après la
Première Guerre mondiale. L’informatique est alors réservée aux grandes structures et
administrations car elle est excessivement chère. La gestion de l’entreprise et la comptabilité entrent
dans le domaine de l’informatique. Les systèmes sont informatisés. Matériellement, il y a une grosse
unité centrale sur laquelle sont connectés des terminaux. Tout est concentré dans l’unité centrale et
l’ensemble écran-clavier n’est que le reflet de la mémoire utilisée. On désigne les systèmes
informatiques complexes allant d’une dizaine à un millier de terminaux comme des mainframes. Ils
sont reliés à une unité centrale soit en local soit en distance via une ligne téléphonique ou
spécialisée. Dans les années 80 apparaît le concept de micro-ordinateur, soit d’ordinateur
individuel. Dans la décennie 80-90, il y a une forte croissance des ordinateurs avec le premier PC qui
apparait en 1981. Les réseaux locaux permettent de connecter entre eux des ordinateurs afin de les
faire communiquer. La connexion d’une imprimante sur un poste permet grâce au réseau d’imprimer
les documents de plusieurs ordinateurs. En concentrant les données et les programmes sur un seul
ordinateur branché en réseau, on obtient un serveur. Dans les premiers réseaux locaux, les serveurs
étaient non dédiés, soit il s’agit d’un micro-ordinateur qui constitue le serveur mais sur lequel on
peut travailler également : il est à la fois serveur et poste de travail. Cela constitue cependant un
risque de perte de données en cas de blocage. Aujourd’hui, la majorité des réseaux sont conçus avec
un serveur dédié, soit qui ne sert que de serveur et non de poste de travail, pour maximiser la
sécurité des systèmes. La tendance des réseaux locaux est majoritaire aujourd’hui. On parle
également de réseau poste à poste. Tous les ordinateurs sont alors reliés entre eux les uns aux
autres.
Les ordinateurs sont généralement reliés par des câbles. D’autres dispositifs (switch, routeurs…) vont
permettre la bonne circulation de l’information. Cette organisation matérielle est appelée topologie
physique. On la distingue de la topologie logique du réseau qui représente la façon selon laquelle les
données utilisent la topologie matérielle. Les topologies logiques les plus courantes sont par
exemple internet.
I.
LES TOPOLOGIES D’ORDINATEUR
Informatique 32
1) LES TOPOLOGIES PHYSIQUES
La topologie physique se décline de quatre façons :
 La topologie bus : les ordinateurs sont reliés à un câble unique à l’aide de prises BNC et
d’une résistance permettant d’équilibrer le flux de données sur le câble. La simplicité est un
avantage, tandis que le peu de sécurité est un inconvénient sur ce système. En effet, en cas
de problème sur le câble, tout le système est bloqué.
 La topologie en étoile : chaque micro-ordinateur possède une paire de fils qui le relie aux
autres dans une formation en étoile. Tous les fils sont reliés à un point central, concentrés
en hub, soit dans un concentrateur. Ce boîtier permet la communication mais il arrive qu’il y
ait une collision de données. En effet, dans un hub, les données ne sont pas directement
adressées à un poste destinataire. On utilise aujourd’hui un switch, ou répartiteur, afin
d’éviter ces problèmes. Celui-ci va identifier les données qui vont provenir de chaque poste
et les envoyer au bon destinataire. Cette topologie est la plus utilisée aujourd’hui. Lors d’une
panne sur un poste, seul ce poste est bloqué et cela ne plante pas le réseau. La sécurité est
donc maximale, notamment avec un second switch prévu en cas de panne.
Informatique 33
 La topologie en anneau ou réseau token ring : les ordinateurs sont reliés à un câble
circulaire fermé. Il y a un jeton virtuel qui tourne sur l’anneau et qui va transporter des
données aux différents postes du réseau. Sur l’anneau sont inscrites les adresses des
ordinateurs destinataires
 La topologie de réseau maillé : tous les postes sont reliés entre eux par des liaisons points à
points. C’est la technologie propre au réseau internet.
Informatique 34
2) LES TOPOLOGIES LOGIQUES
Les topologies logiques du réseau se déclinent en :
 Réseau token ring : cette technologie est basée sur un principe de communication autour de
chaque ordinateur. Elle a la possibilité d’émettre des informations sur le réseau. Elle est
aujourd’hui en perte de vitesse face à internet alors qu’elle s’était fortement développée
dans les entreprises.
 Réseau Ethernet : il se rapproche de la topologie bus et connecte donc les ordinateurs en
réseau en série.
 Réseau en étoile : il permet une vitesse très élevée : de 10 Mb, on passe à 100 Mb avant
d’atteindre 1 Gb. Les réseaux filaires (câblés) ont aujourd’hui une vitesse d’1 Gb. Le switch
doit être adapté à cette vitesse dans le réseau en étoile propre à internet.
 FDDI : cela correspond à une évolution du réseau token ring câblé en fibre optique. Il
permet donc de parcourir de grandes distances et engendre une grande rapidité.
Informatique 35
 ATM : c’est une technologie grande distance qui permet une très grande vitesse puisqu’on
dépasse le Gigabit. Elle permet d’établir les liaisons entre deux lieux éloignés.
Aujourd’hui, on utilise le plus souvent le réseau éthernet ou en étoile. Quand on parle de réseaux
locaux, on parle de LAN (Local Area Network). Le WAN (World Area Network) et MAN
(Metropolitan Area Network) sont considérés comme des réseaux internationaux ou régionaux. Le
LAN est le plus souvent utilisé en entreprise ou dans le même établissement. Au contraire, le WAN
est un réseau mondial à l’image d’internet.
La notion de VPN (Virtual Private Network) permet, via le réseau internet, de construire un tunnel
entre deux ordinateurs qui vont former un réseau privé complètement sécurisé dans lequel on peut
échanger des données. Les données vont donc utiliser le support logique d’internet mais seront dans
un espace indépendant et sécurisé. C’est un système de tunnelisation. Pour cela, on utilise des
routeurs qui permettent de créer des points d’attache entre deux réseaux. A l’origine, les routeurs
permettent de sortir du réseau pour se connecter à internet. On relie les deux routeurs pour créer
un tunnel. L’adresse IP du routeur est appelée la passerelle. Le pare-feu (fireware) a pour fonction
de filtrer les données entrantes et sortantes et permet de sécuriser le transfert de données entre
deux réseaux.
L’émulation de terminal permet, sur un micro-ordinateur, d’émuler un terminal, soit de le faire
communiquer avec l’unité centrale principale. Cela permet de recréer un environnement
informatique sur l’ordinateur. Par exemple, on peut ainsi créer un espace MAC sur un PC. Cette
modélisation est une émulation. De la même façon, de nombreux émulateurs permettent d’intégrer
un espace propre à une console de jeu sur l’ordinateur afin de l’utiliser, comme l’EmuleN64.
Le client léger est un concept informatique. On a aujourd’hui une tendance qui est de remplacer
dans les entreprises les micro-ordinateurs par un boîtier appelé client léger. Il s’agit d’un microordinateur allégé qui ne contient ni disque dur ni unité de stockage. Il sert à se connecter au
serveur. Les programmes que l’on va utiliser ne vont pas être exécuté par le client léger mais dans le
serveur de réseau. Il y a donc partage des ressources matérielles du réseau avec les différents
clients légers. On revient donc à des systèmes centralisés.
Il y a 37,5 millions d’utilisateurs internet en France actuellement, dont 70% des français. Dans le
monde entier, la population mondiale est de 6,5 milliard, et les utilisateurs représentent près d’un
milliard.
Téléchargement