Carte graphique

publicité
Cosme Florian
Leblond Erik
BTSIG1
Carte graphique
Introduction :
Une carte graphique ou carte vidéo (anciennement par abus de langage une carte VGA), ou
encore Adaptateur graphique; est une carte d'extension d'ordinateur dont le rôle est de
produire une image affichable sur un moniteur d'ordinateur. La carte graphique convertit les
données numériques internes à l'ordinateur en un signal électrique numérique ou analogique
compatible avec le moniteur.
La carte graphique (écran) est la carte d'extension d'un ordinateur qui transforme un flux de
données numériques en un signal analogique compréhensible par un écran. Les cartes
graphiques Hercule furent les premières cartes dédiées au PC, elles étaient en noir et blanc (ou
plutôt selon le moniteur ambré). La couleur est réellement apparue avec les premiers 286. A
cette époque, la norme était le CGA ou EGA, le moniteur devait être compatible avec la carte
écran. Utilisant une résolution et un nombre de couleurs restreint, cette norme fut remplacée
par la norme VGA. La norme VGA permettait d'afficher une résolution de 640 * 480 points
en 16 couleurs. Une carte graphique VGA inclut 256 k de mémoire.
Comme chaque constructeur souhaite toujours améliorer, chacun a sorti des cartes graphiques
S-VGA (pour Super VGA). Ces cartes ne répondent pas à une norme, chaque constructeur
développe un pilote (un programme) qui permet au système d'exploitation de gérer ses
possibilités. Chaque pilote est spécifique au modèle de carte graphique mais aussi au système
d'exploitation. Le mode VGA est reconnu par tous les systèmes d'exploitation actuels. Pour
passer en mode supérieur, un pilote-driver (le programme spécifique au matériel) doit être
installé. Il est normalement spécifique au système d'exploitation (XP et 2000 acceptent
généralement les mêmes pilotes. Vista en nécessite des nouveaux.
Une zone mémoire est réservée dans la mémoire haute depuis les premiers 8088. Elle est
actuellement largement inférieure à celles utilisées par une carte graphique (jusque 256 MB)
et peut être récupérée par les commandes DOS de mémoires hautes. Le processeur graphique
garde les zones non modifiées dans sa propre mémoire. Ceci permet de ne pas trop utiliser le
processeur.
Une carte écran se caractérise par:
1) Processeur
2) Chipset
3) Mémoire
4) RAMDAC : Convertisseur digital – analogique (DAC)
5) Taux de rafraîchissement maximum.
6) Possibilités 3D
7) BIOS Vidéo
8) Connectique
9) Performances
Quelques unes de ces caractéristiques sont identiques à celle d'un système à
microprocesseur: processeur, mémoire et Bios. En effet, le sous système vidéo est un
système à microprocesseur tout à fait conforme dont le seul but est de traiter des
informations digitales provenant du PC pour les transférer vers le convertisseur.
1) Composants
Le processeur graphique
Le processeur graphique NV43 d'une GeForce 6600 GT
Les performances d'une carte graphique dépendent en grande partie du processeur central. En
effet, le processeur indique à la carte graphique tout ce qu'elle doit calculer. Cependant celuici devant aussi gérer les autres paramètres du jeu, il se peut qu'il ne fournisse pas assez
d'informations, et alors la carte graphique doit attendre que le processeur ait terminé de
mouliner. Il faut un processeur bien adapté à la carte vidéo afin d'éviter ce genre de piège.
Mais il ne sert à rien d'avoir un processeur dernier cri avec une carte graphique d'entrée de
gamme en utilisation ludique.
Plus la résolution augmente, plus le travail de la carte graphique sera important.
Le processeur graphique (Graphical Processing Unit ou GPU en anglais) sert à libérer le
micro-processeur de la carte mère en prenant en charge les calculs spécifiques à l’affichage,
en particulier les calculs spécifiques à l’affichage en 3D ou la conversion YCbCr vers RGB.
Cette division des tâches entre les deux processeurs libère le processeur principal de
l’ordinateur et en augmente d’autant la puissance.
Le processeur graphique est très souvent muni de son propre radiateur ou ventilateur pour
évacuer la chaleur qu’il produit.
Ces 15 dernières années, les cartes graphiques ont fortement évolué. Autrefois, la fonction
essentielle d'une carte graphique était de transmettre les images produites par l'ordinateur à
l'écran. C'est encore sa fonction principale sur beaucoup de machines à vocation bureautique
ou l'affichage d'images en 3D n'offre que peu d'intérêt. Toutefois aujourd'hui même les cartes
graphiques les plus simples gérent aussi le rendu d'images en 3D temps réél avec plus ou
moins de succès. C'est une activité très couteuse en terme de calculs et en terme de bande
passante mémoire. Le GPU est donc devenu un composant très complexe, très spécialisé et
presque imbatable dans sa catégorie (rendu d'images en 3 dimensions). Hormis pour les jeux
vidéos ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que
très peu exploitées en pratique. Ainsi ce sont essentiellement les joueurs qui achetent et
utilisent des GPU de plus en plus puissant.
Depuis quelques années, la puissance de calcul des cartes graphiques est devenue tellement
importante pour un coût finalement très réduit (100 à 700€ pour les modéles grand public) que
les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans
d'autres domaines. Il peut s'agir de faire tourner des simulation de modèles météo, financiers
ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et
AMD, les 2 principaux fabriquants de cartes graphiques haute performance grand public
proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du
calcul scientifique[réf. nécessaire].
2) Chipset : le circuit intégré.
Le chipset graphique transforme les signaux digitaux en signaux digitaux organisés et lisibles
par le convertisseur digital - analogique. Généralement, le circuit est conçu pour utiliser une
certaine capacité mémoire. Par exemple, une S3 TRIO 3D gère une mémoire de 4 MB, mais
une extension de 4 MB supplémentaire est possible. Ceci n'est pas à conseiller. Même si le
bus d'adresse est conçu pour gérer l'extension, l'intérieur du processeur est conçu pour la
mémoire de base. Vous autorisez de meilleure résolutions, mais n'améliorez pas les
performances globales de la carte graphique.
Parler des circuits pourrait prendre de nombreux chapitres, et vu la vitesse où les chipset
vidéo apparaissent et disparaissent, une mise à jour hebdomadaire serait nécessaire, surtout au
niveau 3D. Les informations suivantes sont donc données à titre indicatif.
Les principaux constructeurs de cartes graphiques sont
S3. Cette firme très active fabrique généralement en bas de gamme, mais peut parfois
surprendre, comme la SAVAGE 4 (16MB de base, 3D). Racheté par VIA.
ATI: d'excellentes cartes écrans de bas milieux de gamme. Racheté par AMD en 2006
INTEL: s'est intéressé un peu aux cartes écrans avec le i740. Ce processeur est également
intégré dans le chipset 1810, gérant en base 8 MB, il est 3D. Ceci explique que les cartes à
base de I810 n'incluent pas de bus AGP. Actuellement, INTEL est le principal fabricant de
cartes graphiques, intégrées dans le chipset.
Diamond. Généralement haut de gamme, mais spécialisé plutôt vers les jeux. Racheté par S3
en 1999.
Nvidia: premier fabricant mondial, toute la gamme avec la série Gforce
3) La mémoire vidéo
La mémoire vidéo conserve les données numériques qui doivent être converties en images par
le processeur graphique et les images traitées par le processeur graphique avant leur affichage.
Toutes les cartes graphiques supportent deux méthodes d'accès à leur mémoire. L'une est
utilisée pour recevoir des informations en provenance du reste du système, l'autre est sollicitée
pour l'affichage à l'écran. La première méthode est un accès direct conventionnel (RAM)
comme pour les mémoires centrales, la deuxième méthode est généralement un accès
séquentiel à la zone de mémoire contenant l’information à afficher à l'écran.
La mémoire vidéo : variant généralement de 16 à 512 Mo, elle est utilisée pour stocker les
textures (généralement sous formes d'images). Plus la taille de cette mémoire est importante,
mieux c'est. Attention de ne pas non plus tomber dans l'inutile : 16 Mo (mémoire partagée,
utilisée notamment par la technologie Turbo Cache que nous allons détailler plus bas) sont
largement suffisants en utilisation bureautique et multimédia. Les jeux en revanche ne se
satisferont pas d'une quantité aussi limitée, même si la mémoire vive vient en renfort avec
cette technologie. La largeur du bus de la mémoire joue également beaucoup : un bus de 128
bit de largeur sera généralement moins performant qu'un 256 bit.
Aujourd'hui, il existe deux types de mémoire vidéo :
- La mémoire GDDR 2 (DDR pour Double Data Rate), exploitant les fronts montants et
descendants de la mémoire, autrement dit la bande passante est doublée par rapport à la SDRAM à même fréquence. On trouve plutôt ce type de mémoire sur les cartes graphiques bas
de gamme.
- La mémoire GDDR 3 : presque identique à la GDDR 2, elle gagne en fréquence et sa tension
d'alimentation diminue. Elle est toujours utilisée même dans les cartes graphiques les plus
haut de gamme.
La mémoire de la carte graphique permet d'augmenter la résolution tout en gardant un nombre
de couleurs respectables. Par exemple, un écran de 1024 * 768 pixels en 2 couleurs (noir et
blanc) nécessite 786.432 pixels * 1 bit /8 (pour codage en octets)=98 K. Pour 4 couleurs (nb.
Octets =2), 196,6K et en 16 couleurs (4 bits):384 K. Ceci donnerait pour 1600 * 1200 en 16
millions de couleurs (14 bits)=30.000 MB, blups …
Résolution
640 * 480
800 * 600
1024 * 768
Nombre de couleurs
256
32 K
64 K
16 Millions ( 24 bits)
16
256
32 K
64 K
16 M
16
256
32 K
64 K
Mémoire
512K
1 MB
1 MB
1 MB
512 K
512K
1 MB
1 MB
2 MB
512K
1 MB
2 MB
2 MB
1280 * 1024
1600 * 1200
16 M
16
256
256
64 K
4 MB
1 MB
2 MB
4 MB
4 MB
Dans le cas des cartes 3D, une large partie de la mémoire est utilisée pour enregistrer des
textures. Une carte 3D 32 MB ne permet donc pas d'utiliser des résolutions très élevées. De
toute façon, aucun écran actuel n'est capable d'afficher les résolutions maximum des cartes
écrans. Pour rappel, l'œil humain est limité à 16 Millions de couleurs.
Le processeur est relié à la mémoire à travers un large bus compris entre 64 et 128 bits.
Les types de mémoires utilisées ont également leur importance.
La mémoire VRAM était-il y a peu couramment utilisées. Le processeur et le RAMDAC
(convertisseur digital – analogique) peuvent y accéder simultanément.
La mémoire WRAM développée par SAMSUNG offre des débits 25% supérieurs à la VRAM
et dispose de fonctions pré décodées tel que le dessin de texte ou le remplissage de blocs. Elle
est apparue avec la Matrox Millenium.
La DRAM a été développée par MoSYS et constituée d'une multitude de petits bancs
mémoires (32K). Ceci permet d'adapter la mémoire à celle requise par blocs de 32K. Par
exemple, une résolution de 1024*768 en true color (24bits) utilise 2.5 MB et non 4MB. Le
débit est ici aussi largement supérieur à celui des précédents.
La SGRAM (Synchronous Graphic RAM) a la capacité de fonctionner à la même vitesse que
le bus et peut atteindre des fréquences supérieures à 100 Mhz. Elle est jusqu'à 4 X plus rapide
que les DRAM, mais est nettement plus chère.
La SDRam permet des vitesses de 150 Mhz. Déjà utilisée dans les PC
La DDR SDRam, sortie en 1999 permet de faire passer la mémoire de 150 à 300 Mhz, faisant
progresser la vitesse des cartes entre 25 et 30 % par rapport à une SDRam. Elle utilise le flanc
montant et descendant du signal d'horloge. Sa première utilisation date de mai 2000 avec le
GeForce 256 de Nvidia 64 MB. Cette mémoire est également utilisée dans les PC.
DDR2 et DDR3: les cartes vidéo utilisent finalement maintenant les mêmes mémoires que les
ordinateurs, juste avec un peu d'avance.
La quantité de mémoire vidéo nécessaire pour stocker l'image qui va être affichée dépend de
la définition affichée.
Les nombre de couleurs est fonction du nombre de bits utilisé pour le codage.
ex: 28 = 256
nombre de bits nombre de couleurs
1
2
4
16
8
256
15
32 768
16
65 536
24
16 777 216
32
4 294 967 296
La quantité de mémoire est simplement le nombre de
pixel utile multiplié par le nombre de bits nécessaires,
on divise le tout par 8 pour passer en octets (1 octet = 8
bits)
ex: 640 * 480 * 4 / 8 = 153600
1Ko = 1
024o donc 153 600o = 150ko
Définition en
pixels
16
couleurs
256
couleurs
32 768
couleurs
65 536
couleurs
16 777 216
couleurs
4 294 967
296 couleurs
640 × 480
150 Ko
300 Ko
563 Ko
600 Ko
900 Ko
1200 Ko
800 × 600
235 Ko
469 Ko
879 Ko
938 Ko
1 407 Ko
1 875 Ko
1 024 × 768
384 Ko
768 Ko
1 440 Ko
1 536 Ko
2 304 Ko
3 072 Ko
1 280 × 1
024
640 Ko
1 280 Ko
2 400 Ko
2 560 Ko
3 840 Ko
5 120 Ko
1 600 × 1
200
938 Ko
1 875 Ko
3 516 Ko
3 750 Ko
5 625 Ko
7 500 Ko
Cette indication est maintenant de peu d'intérêt car la mémoire vidéo d'une carte graphique est
utilisée à de nombreuses fins. Elle permet entre autre de fluidifier l'affichage des vidéos ou
encore de stocker les informations nécessaires à la synthèse d'images en 3D. Les systèmes
d'exploitation modernes comme Windows Vista ou Mac OS requièrent tous deux une grande
quantité de mémoire vidéo pour optimiser leur affichage. Quant aux jeux vidéos les plus
récents, ils fonctionnent d'autant mieux que la quantité de mémoire vidéo est importante.
Aujourd'hui on trouve couramment des cartes graphiques équipées de 256 ou 512 Mo de
mémoire.
La carte graphique est l'un des rares périphériques reconnus par le PC dès l'initialisation de la
machine. Elle permet de convertir des données numériques brutes en données pouvant être
affichées sur un périphérique destiné à cet usage (écran, vidéo projecteur, etc...). Son rôle ne
se limite cependant pas à ça puisqu'elle décharge de plus en plus le processeur central des
calculs complexes 3D et ce au moyen de diverses techniques que nous allons voir plus bas.
4) Le RAMDAC : le convertisseur digital – analogique
Le RAMDAC (Random access memory digital analog converter) : cette puce est destinée à
convertir les données numériques en données analogiques compréhensibles par les écrans
cathodiques. La fréquence du RAMDAC nous renseigne sur le nombre maximal d'images par
seconde que la carte peut afficher au maximum (même si sa puissance théorique est
supérieure, elle sera limitée par le RAMDAC si celui-ci est cadencé trop faiblement).
Rassurez-vous, les cartes ne sont jamais bridées par ce composant. On parle souvent de
fréquence de rafraîchissement.
Le convertisseur digital analogique permet la conversion. Il est souvent appelé RAMDAC.
Plus sa vitesse est élevée, plus la fréquence de rafraîchissement verticale de l'écran est élevée
(nous en reparlerons). Des cartes graphiques de haut de gamme actuels dépassent les 200
Mhz.
5) Le taux de rafraîchissement.
Cette caractéristique est liée au RAMDAC. Le signal n'est pas envoyé d'un bloc vers l'écran,
mais points par points suivant une ligne, ensuite celle en dessous, … Les anciens systèmes
utilisaient le mode entrelacés pour camoufler leurs faibles performances (par opposition au
mode non entrelacé NI). Le principe entrelacé ,utilisé dans les TV, ne rafraîchit d'abord que
les lignes impaires, et ensuite reprend les lignes paires. Ceci provoque des scintillements de
l'écran, tout d'abord désagréable, mais vite fatiguant. Un taux de rafraîchissement correct
débute à 70 hz. Plus il est important, meilleure la qualité de l'affichage est. Néanmoins, les
anciens écrans n'acceptent pas de fréquences trop élevées, supérieures à celles minimum des
cartes écrans actuelles. Ceci explique qu'il faut parfois changer d'écran lorsque l'on change de
carte graphique. Nous en reparlerons.
La fréquence de rafraîchissement est mesurée en Hz (hertz) et va déterminer le nombre
maximal d'images par seconde qui pourront être affichées. C'est pourquoi si vous avez un
écran qui ne rafraîchit votre image que 60 fois par seconde, il est inutile d'avoir une carte
graphique qui en débite 150, vous ne verrez pas la différence. Autant donc augmenter la
qualité de l'image.
6) Les possibilités 3D
Direct X7.0 (en bas) et direct X9.0
Les cartes graphiques actuelles offrent des possibilités 3D: la carte graphique est capable de
créer directement des polygones et remplissages (mapping), sans interventions directes du
processeur du PC. Ces possibilités sont utilisées principalement pour les jeux. Sans cartes 3D
(éventuellement Ad-on), peu de possibilités de s'exprimer sur les nouveaux jeux. C'est à ce
niveau que se distinguent les nouvelles cartes graphiques par rapport à celles dites 2D.
Le fonctionnement de ces cartes nécessitent 2 circuits électroniques (en plus de la mémoire).
Au tout début des cartes 3D, le CPU du PC créait les images et un circuit électronique (la
carte écran) se contentait des les afficher. Avec l'arrivée de la première puce Voodoo de 3Dfx,
la carte incluait un Triangle Setup Engine et un pixel Rendering engine directement sur la
carte graphique. Ceci permettait de réduire l'utilisation du CPU du PC pour la création de
polygones et des effets de pixellisation dans les jeux. Avec l'arrivée de la puce GeForce 256
en 1999, le circuit intégré intégrait en plus Transformation & Lighting (T&L). Le gros
avantage est que l'on pouvait travailler sur des images constituées de plus de triangles. Pour
rappel, une image 3D est entièrement constituée de triangles et la qualité de l'image est
directement liée au nombre de triangles. En 2000, la GeForce2 peut élaborer jusque 25
millions de triangles par seconde, la GeForce 256 n'en gérait que 15 millions.
Mise à part la technologie T&L, les circuits actuels gèrent l'éclairage par un ombrage très
élaborés des pixels: chaque pixel est pourvu individuellement de données d'éclairage. La
GeForce2, par exemple, peut gérer simultanément 4 pixels.
Les cartes graphiques futures devraient inclure un anti-alias qui permet de lisser les angles, un
peu comme pour les imprimantes laser.
Implanté par NVidia depuis le processeur graphique GeForce 6600 et dans Direct X 9.0, le
shader est un mécanisme utilisant des morceaux de programmes directement exécutés par le
GPU et non plus par le microprocesseur de l'ordinateur.
7) Le BIOS vidéo
Au même titre qu'un PC, une carte graphique possède son propre BIOS. Celui-ci est
spécifique au fabricant de la carte. Ceci explique des différences de performances entre 2
cartes de Chipset identiques. Sur certain modèles, le bios est flashable
Le BIOS vidéo est à la carte graphique ce que le BIOS est à la carte mère. C’est un petit
programme enregistré dans une mémoire morte (ROM) qui contient certaines informations sur
la carte graphique (par exemple, les modes graphiques supportés par la carte) et qui sert au
démarrage de la carte graphique.
8) La connectique
4 cartes graphiques reliées en CrossFire ce qui permet d'obtenir 8 sorties vidéo DVI
On peut retrouver les connexions suivantes selon les cartes graphiques :
L'interface VGA standard : les cartes graphiques sont la plupart du temps équipées d'un
connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement
de couleur bleue, permettant notamment la connexion d'un écran CRT. Ce type d'interface
permet d'envoyer à l'écran 3 signaux analogiques correspondant aux composantes rouges,
bleues et vertes de l'image.
L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet
d'envoyer, aux écrans le supportant, des données numériques. Ceci permet d'éviter des
conversions numérique-analogique, puis analogique numériques, inutiles.
L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant
d'afficher sur une télévision, c'est la raison pour laquelle elle est souvent appelée prise télé
(notée « TV-out »).
Une interface HDMI permettant de relier la carte à un écran haute définition en transmettant
également la partie audio (polyvalent, ce format est le remplaçant de la péritel).
Note : le DVI et le HDMI peuvent supporter les DRM.
Les modèles actuels associent généralement deux types d'interface: une interface pour la
télévision (S-Vidéo ou HDMI) avec une interface pour écran d'ordinateur (VGA ou DVI).
Les éventuelles entrées-sorties vidéos (VGA qui sert à relier les écrans cathodiques, DVI pour
les écrans plats, et une éventuelle sortie TV généralement au format S Vidéo...). La plupart
des cartes possèdent maintenant une sortie TV, qui permet de regarder des DVD sur sa télé
par exemple. La connectique de sortie est au format S-vidéo, avec, souvent, un adaptateur Svidéo/composite. Quelques cartes possèdent aussi un tuner vidéo, qui permet de regarder la
télé sur son PC, ou encore un port DVI en plus du port VGA. Le port DVI est numérique et ne
nécessite pas la traduction des données par le RAMDAC. Équipée de telles cartes, l'ordinateur
devient une véritable télé associée à un magnétoscope. Certaines cartes disposent de plusieurs
sorties VGA pour pouvoir brancher deux écrans sur son ordinateur: L'intérêt du DUAL
HEAD est de disposer d'un affichage plus étendu sous Windows. On peut ainsi ouvrir plus de
programmes tout en se repérant mieux.
Les ports de connexion à la carte-mère :
La plupart des cartes graphiques se placent sur les ports AGP (pour Accelerated Graphic Port)
et PCI Express. Le port AGP est apparu avec le Pentium II d'Intel en 1997. Celui-ci est
totalement différent d'un port PCI tant physiquement que par sa vitesse. En effet le port AGP
permet de partager la mémoire vive du PC quand la mémoire de la carte graphique est saturée.
Cependant cette méthode d'accès est nettement plus lente que celle de l'accès à la mémoire de
la carte graphique. On différencie trois normes d'AGP :
l'AGP 2X (500 Mo par seconde)
l'AGP 4X (1 Go par seconde)
l'AGP 8X (2 Go par seconde)
Les cartes graphiques PCI Express :
Le PCI Express est la norme qui a désormais remplacé l'AGP sur le marché des cartes
graphiques. Plus rapide, existant en de nombreux formats, il remplace avantageusement les
ports PCI et AGP. Il existe en différents débits :
.Le connecteur de sortie.
Le connecteur de sortie est identique en mode S-VGA (toutes les cartes actuelles) à celui de la
norme VGA. Certaines cartes acceptent le RGB. Dans ce cas, le signal est séparé en 3
couleurs (rouge - vert - bleu) avant d'être transmis à l'écran via 3 connecteurs BNC. Ceci
nécessite un écran spécial. Ce type de connexion ne se trouve que sur les stations de travail
graphiques de haute gamme, rarement pour les PC.
Double affichage et sortie TV
L'affichage sur plusieurs écrans est utilisé dans les stations de travail dédiées au graphisme et
dessin technique depuis plusieurs années. Depuis Win98, vous pouvez utiliser 2 cartes écran
simultanément (quand les pilotes le permettent) pour afficher soit l'écran complet sur 2 écrans
CRT, soit le même affichage sur 2 écrans simultanément (avec une carte écran PCI et une
carte écran AGP ou des cartes écrans spécifiques). Pour le même affichage simultané, vous
pouvez aussi utiliser des appareils spécialisés que l'on appelle des "splitter", sortes
d'amplificateurs qui permettent de raccorder jusque 32 écrans simultanément avec la même
image.
Certaines cartes graphiques sont munies d'une sortie TV qui permet d'afficher votre écran
informatique sur une télévision (sur les deux en même temps ou l'un ou l'autre suivant les
modèles). Ce modèle de carte graphique n'est pas réellement fait pour "travailler" sur un
téléviseur, mais bien pour les DVD, DIVX, ... La résolution d'une télévision est trop faible et
la qualité de l'affichage de la partie informatique s'en ressent. Par contre, l'affichage des
vidéos est identique à celle de la TV.
Les signaux TV sont repris suivant 3 normes: PAL, SECAM et NTSC. Ces 3 normes de
télévision ne sont pas compatibles entre elles. L'émission en PAL (Belgique, Allemagne, ...)
vers une TV SECAM (France) et vis versa produit un signal en noir et blanc. Le système
NTSC est utilisé aux Etats-Unis, Canada, ... Le problème avec les cartes graphiques sortie TV
est identique. Les 3 normes sont déclinées suivant différentes versions qui dépendent du pays.
9) Performances :
Quelques technologies d'amélioration de qualité ou de performances :
L'antialiasing ( entrelacement )
Sous ce terme un peu barbare se cache en fait une technologie destinée à améliorer la qualité
de l'image, et notamment de ses arrêtes. Qui n'a en effet pas déjà pesté devant les images "en
escaliers" ? l'antialiasing permet d'y remédier plus ou moins bien. Les cartes graphiques
intègrent plusieurs niveaux d'antialiasing, ces niveaux peuvent aller de 2X à 32X. Plus le
niveau choisi est élevé, meilleure est la qualité, mais plus les performances sont diminuées.
Voici un aperçu de ce que peut donner une image sans puis avec antialiasing :
Le filtrage anisotrope :
L'antialiasing, vous pourrez le constater, provoque un léger effet de flou, surtout lorsque les
arrêtes à retravailler sont lointaines. Le filtrage anisotrope vient palier à ce défaut. Il a été
surtout conçu pour palier les défauts d'affichage des textures lointaines en les rendant plus
nettes. Le filtrage anisotrope propose lui aussi différents niveaux de filtrage qui vont
généralement de 2 à 16X. Plus le niveau de filtrage est élevé, plus les performances chutent
(dans une moindre mesure qu'avec l'antialiasing toutefois). Voici ce que ça donne en images :
La technologie Turbo cache :
Implantée par NVIDIA sur ses cartes graphiques d'entrée de gamme, la technologie turbo
cache est destinée à réduire le coût de production des cartes graphiques d'entrée de gamme
mais aussi à récupérer des parts de marché sur les chipsets graphiques intégrés (qui offrent des
performances généralement moindres que les cartes d'entrée de gamme). Cette technique
consiste à n'implanter qu'une petite quantité de mémoire vive sur la carte graphique. Elle
piochera alors d'abord sur sa mémoire disponible, et si elle en a besoin de plus, ira piocher
dans la mémoire vive du PC. L'accès à la mémoire vive étant bien entendu nettement plus lent
que l'accès à la RAM de la carte graphique. Il en résulte donc des performances moindres
mais un coût qui l'est également. Cette technologie convient donc parfaitement pour ce à quoi
elle est destinée, c'est à dire l'entrée de gamme. Les cartes équipées de la technologie turbo
cache embarquent de 16 à 64 Mo de mémoire, mais attention aux emballages souvent
estampillés "128 Mo" par exemple (les emballages affichant la taille de la mémoire que la
carte peut s'accaparer au total).
Le SLI (Scalable Link Interface) :
Le SLI est une technique que l'on trouvait sur les très anciennes cartes 3DFX aujourd'hui
disparues. Cette technique a depuis été remise au goût du jour par NVIDIA. Le SLI consiste à
utiliser deux cartes graphiques qui vont se répartir le travail. Des algorithmes sont là pour
répartir équitablement la charge entre les deux cartes, c'est à dire qu'une carte ne pourra
calculer que 10% de la surface totale d'une image si celle-ci est gourmande en calculs, l'autre
carte se chargeant des 90 % restants. Le bénéfice de cette technologie est surtout très
important dès que l'on utilise les effets de qualité disponibles (antialiasing et filtrage
anisotrope). Il permet de retarder la baisse de performances et permet au système d'être de
plus en plus limité par le processeur du PC (l'évolution des processeurs graphiques étant
généralement plus rapide).
Téléchargement